过去六个月中国已批准了 40 多个大型语言模型

过去六个月中国已批准了 40 多个大型语言模型 路透香港1月29日 - 据中国媒体报道,自当局开始审批程序以来的前六个月,中国已批准了40多个人工智能 (AI) 模型供公众使用,中国努力在人工智能发展方面赶上美国。 据《证券时报》报道,上周,中国监管机构批准了总共14个大型语言模型 (LLM) 供公众使用。这是中国批准的第四批,其中包括小米公司、第四范式和新壹科技等公司。 去年8月,北京开始要求科技公司获得监管批准,以向公众开放它们的LLM。这凸显了中国在发展AI技术的同时,努力将其纳入监管和控制之下的做法。 中国监管机构随后在11月和12月分别批准了两批,然后在本月批准了另一批。尽管政府并未公开批准的公司名单以供公众查询,但《证券时报》在周日表示已经有40多个AI模型获得了批准。 更多新闻热搜:

相关推荐

封面图片

过去六个月中国已批准了 40 多个大型语言模型

过去六个月中国已批准了 40 多个大型语言模型 路透香港1月29日 - 据中国媒体报道,自当局开始审批程序以来的前六个月,中国已批准了40多个人工智能 (AI) 模型供公众使用,中国努力在人工智能发展方面赶上美国。 据《证券时报》报道,上周,中国监管机构批准了总共14个大型语言模型 (LLM) 供公众使用。这是中国批准的第四批,其中包括小米公司、第四范式和新壹科技等公司。 去年8月,北京开始要求科技公司获得监管批准,以向公众开放它们的LLM。这凸显了中国在发展AI技术的同时,努力将其纳入监管和控制之下的做法。 中国监管机构随后在11月和12月分别批准了两批,然后在本月批准了另一批。尽管政府并未公开批准的公司名单以供公众查询,但《证券时报》在周日表示已经有40多个AI模型获得了批准。 ,

封面图片

百度CEO称中国已发布70多个大型AI语言模型

百度CEO称中国已发布70多个大型AI语言模型 百度创始人、董事长兼首席执行官李彦宏说,目前中国10亿参数规模以上的大型人工智能(AI)语言模型,已经发布了70多个。 综合路透社和澎湃新闻报道,李彦宏星期二(9月5日)在北京举行的2023百度云智大会上说,模型本身并不是直接产生价值的,基于基础大模型开发出的应用,才是这些大模型存在的意义。“所以,对于创业者而言,卷大模型没意义,卷应用机会更大,就像移动互联网时代操作系统只有安卓和IOS,而成功的应用却有很多。” 李彦宏还说,百度人工智能聊天机器人最新版本Ernie 3.5的处理速度,是之前版本的两倍,效率提高了50%。他并透露,百度将在近期推出新版本。 在获得监管部门批准大规模市场发布后,百度上周加入其他几家中国公司的行列,推出了人工智能聊天机器人。

封面图片

新电信等公司拟合资开发电信业大型语言模型

新电信等公司拟合资开发电信业大型语言模型 新电信(Singtel)等创办全球电信人工智能联盟(Global Telco AI Alliance, GTAA)的电信公司星期三(6月19日)正式签订协议,将成立一家合资公司,以专门开发及推出多语言的电信业大型语言模型(multilingual Telco LLM)。 联盟的创办者是新电信、德国电信(Deutsche Telekom)、阿联酋科技公司e&集团、SK电讯(SK Telecom)和软银(Softbank)。 它们在电信管理论坛(TM Forum)活动上签订这个协议。这落实了联盟早前在“2024年世界移动通信大会”(WMC24)上的宣布。 如当初宣布,联盟创办者在合资公司持有同等股权。开发这个大型语言模型是要帮助电信公司通过数码助理和其他创新的人工智能解决方案,来改善与客户的互动。 五家电信公司在星期三的联合文告指出,合资公司将根据联盟创办者在各自市场的需要,部署创新的人工智能应用程序,使它们能够覆盖50个国家与地区的约13亿客户。 这个电信业大型语言模型将使用多种语言,包括韩语、英语、德语和阿拉伯语等。合资公司的成立须获得监管部门的批准。 联盟在论坛活动上还展示了这个大型语言模型在电信领域的潜在应用,专注于电话中心和基础设施用例。 2024年6月19日 6:56 PM

封面图片

谷歌推出最新的大型语言模型 Gemini 1.0

谷歌推出最新的大型语言模型 Gemini 1.0 谷歌发布最新的大型语言模型 Gemini,谷歌 CEO 皮查伊在 6 月份的 I/O 开发者大会上首次透露了该模型,现在正式向公众推出。 谷歌针对不同场景发布了三种不同尺寸的版本。例如 Google 的人工智能聊天机器人 Bard 现在由可扩展的 Gemini Pro 提供支持。 Gemini Nano 是轻量版本,旨在 Android 设备上本地离线运行,Pixel 8 Pro 成为首款搭载此模型的设备。 Gemini Ultra,它是谷歌迄今为止创建的最强大的 LLM,适用于高度复杂的任务。似乎主要是为数据中心和企业应用设计的。

封面图片

大型语言模型基础知识可视化学习指南 ||| #指南 #可视化

大型语言模型基础知识可视化学习指南 ||| #指南 #可视化 本文收集了一系列工具和文章,通过直观的可视化方式解释大型语言模型(LLM)的基础概念。 Jay Alammar的《图解Transformer》以生动的可视化说明了Transformer架构的工作原理。由于Transformer是所有语言模型的基石,理解它的基础尤为重要。《图解GPT-2》直观地展示了GPT-2的内部结构,如注意力机制等,有助于理解LLM的组成部分。 Brendan Bycroft的LLM可视化工具允许直观地探索不同LLM内部状态的变化。 Financial Times的文章解释了Transformer的重要性,以及它如何促成了生成式AI的发展。 OpenAI的Tokenizer工具演示了Tokenizer在文本处理中的作用。 Simon Wilson的文章深入解释了GPT Tokenizer的工作原理。 Greg Kamradt的Chunkviz工具展示了文本是如何被LLM处理成“块”的。 PAIR的“机器学习模型记忆还是泛化?”交互式介绍了两种学习方式及其对LLM的影响。 这些资源从多个维度直观地说明了LLM的核心概念和机制,有助于科技从业者和爱好者更好地理解LLM技术的本质。

封面图片

印度放弃AI模型发布需获得批准的计划

印度放弃AI模型发布需获得批准的计划 当地时间3月15日,在受到许多本地和全球企业家和投资者的批评后,印度正在收回最近的人工智能咨询意见,印度电子和信息技术部周五与行业利益相关者分享了最新的人工智能监管方案,不再要求他们在向印度市场的用户推出或部署人工智能模型之前获得政府批准。根据修订后的指导方针建议公司给未经测试和不可靠的人工智能模型贴上标签,以告知用户其潜在的错误或不可靠性。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人