过去六个月中国已批准了 40 多个大型语言模型

过去六个月中国已批准了40多个大型语言模型路透香港1月29日-据中国媒体报道,自当局开始审批程序以来的前六个月,中国已批准了40多个人工智能(AI)模型供公众使用,中国努力在人工智能发展方面赶上美国。据《证券时报》报道,上周,中国监管机构批准了总共14个大型语言模型(LLM)供公众使用。这是中国批准的第四批,其中包括小米公司、第四范式和新壹科技等公司。去年8月,北京开始要求科技公司获得监管批准,以向公众开放它们的LLM。这凸显了中国在发展AI技术的同时,努力将其纳入监管和控制之下的做法。中国监管机构随后在11月和12月分别批准了两批,然后在本月批准了另一批。尽管政府并未公开批准的公司名单以供公众查询,但《证券时报》在周日表示已经有40多个AI模型获得了批准。——,

相关推荐

封面图片

过去六个月中国已批准了40多个大型语言模型https://www.bannedbook.org/bnews/itnews/202

封面图片

百度CEO称中国已发布70多个大型AI语言模型

百度CEO称中国已发布70多个大型AI语言模型百度创始人、董事长兼首席执行官李彦宏说,目前中国10亿参数规模以上的大型人工智能(AI)语言模型,已经发布了70多个。综合路透社和澎湃新闻报道,李彦宏星期二(9月5日)在北京举行的2023百度云智大会上说,模型本身并不是直接产生价值的,基于基础大模型开发出的应用,才是这些大模型存在的意义。“所以,对于创业者而言,卷大模型没意义,卷应用机会更大,就像移动互联网时代操作系统只有安卓和IOS,而成功的应用却有很多。”李彦宏还说,百度人工智能聊天机器人最新版本Ernie3.5的处理速度,是之前版本的两倍,效率提高了50%。他并透露,百度将在近期推出新版本。在获得监管部门批准大规模市场发布后,百度上周加入其他几家中国公司的行列,推出了人工智能聊天机器人。

封面图片

大型语言模型基础知识可视化学习指南 | link | #指南 #可视化

大型语言模型基础知识可视化学习指南#指南#可视化本文收集了一系列工具和文章,通过直观的可视化方式解释大型语言模型(LLM)的基础概念。JayAlammar的《图解Transformer》以生动的可视化说明了Transformer架构的工作原理。由于Transformer是所有语言模型的基石,理解它的基础尤为重要。《图解GPT-2》直观地展示了GPT-2的内部结构,如注意力机制等,有助于理解LLM的组成部分。BrendanBycroft的LLM可视化工具允许直观地探索不同LLM内部状态的变化。FinancialTimes的文章解释了Transformer的重要性,以及它如何促成了生成式AI的发展。OpenAI的Tokenizer工具演示了Tokenizer在文本处理中的作用。SimonWilson的文章深入解释了GPTTokenizer的工作原理。GregKamradt的Chunkviz工具展示了文本是如何被LLM处理成“块”的。PAIR的“机器学习模型记忆还是泛化?”交互式介绍了两种学习方式及其对LLM的影响。这些资源从多个维度直观地说明了LLM的核心概念和机制,有助于科技从业者和爱好者更好地理解LLM技术的本质。

封面图片

谷歌推出最新的大型语言模型 Gemini 1.0

谷歌推出最新的大型语言模型Gemini1.0谷歌发布最新的大型语言模型Gemini,谷歌CEO皮查伊在6月份的I/O开发者大会上首次透露了该模型,现在正式向公众推出。谷歌针对不同场景发布了三种不同尺寸的版本。例如Google的人工智能聊天机器人Bard现在由可扩展的GeminiPro提供支持。GeminiNano是轻量版本,旨在Android设备上本地离线运行,Pixel8Pro成为首款搭载此模型的设备。GeminiUltra,它是谷歌迄今为止创建的最强大的LLM,适用于高度复杂的任务。似乎主要是为数据中心和企业应用设计的。——

封面图片

Meta官宣深入AI大战 推出先进大型语言模型

Meta官宣深入AI大战推出先进大型语言模型扎克伯格在社交媒体上称,FacebookAIResearch研发的LLaMA是“目前水平最高的”大型语言模型,目标是帮助研究人员推进他们在人工智能(AI)领域的工作。“大型语言模型”(LLM)可以消化大量的文本数据,并推断文本的单词之间的关系。随着计算能力的进步,以及输入数据集与参数空间的不断扩大,LLM的能力也相应提高。目前,LLM已经被证明能高效地执行多种任务,包括文本生成、问题回答、书面材料总结等。扎克伯格称,LLM在自动证明数学定理、预测蛋白质结构等更复杂的方面也有很大的发展前景。值得一提的是,近期大火的ChatGPT就是采用LLM构建的聊天机器人。ChatGPT由GPT3.5提供支持,而GPT3.5是一款基于OpenAI175B参数基础模型训练的LLM,175B是它从训练数据中所学习、沉淀下来的内容。Meta在官网介绍中称,LLaMA有7B、13B、33B和65B四个基础模型,在大多数基准测试中都优于GPT3.5的前身GPT3-175B,而LLaMA-65B可与业内最佳的Chinchilla-70B和PaLM-540B竞争。Meta还宣布,将针对学术研究者共享其模型,正在接受研究人员的申请。与之截然不同的是,Google旗下的DeepMind和OpenAI并不公开训练代码。根据2021年媒体的一份调查显示,AI专家们通常将DeepMind、OpenAI和FAIR(FacebookAIResearch)视为该领域的“前三甲”。去年年底,Meta发布了另一款名为Galactica的模型,但因经常分享偏见和不准确的信息而遭到下架。...PC版:https://www.cnbeta.com.tw/articles/soft/1346305.htm手机版:https://m.cnbeta.com.tw/view/1346305.htm

封面图片

海天瑞声:已与多个大模型领域知名机构签署了合作协议

海天瑞声:已与多个大模型领域知名机构签署了合作协议海天瑞声近日调研纪要显示,美团、科大讯飞、阿里巴巴、腾讯、百度等客户与公司签署了大模型领域的业务合同或意向性订单。此外,公司已与其他大模型领域的知名机构签署了合作协议,包括中国科学院自动化研究所、澜舟科技、智谱AI、中国信通院等,未来拟围绕人工智能大模型数据处理技术、大模型数据集供给和大模型评测等方面进行合作。大模型业务的主要客户及营销渠道与公司现有业务重合度较高,有助于公司打开市场。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人