5000亿参数 传微软准备推出自研大模型MAI-1

5000亿参数传微软准备推出自研大模型MAI-1据悉,微软还未明确MAI-1模型的确切用途,具体取决于模型效果如何。报道称,微软可能会在本月晚些时候召开的Build开发者大会上预览这款新模型。微软对此拒绝发表评论。据报道,MAI-1规模将比微软之前训练的小型开源模型“大得多”,这意味着其也会更加昂贵。上个月微软推出了一款名为Phi-3-mini的小型人工智能模型,希望用有成本效益的产品吸引更多客户群体。微软向OpenAI投资了上百亿美元,并在旗下生产力软件中部署OpenAI的人工智能技术,从而在生成式人工智能领域的早期竞赛中取得了领先地位。据报道,为了提升该模型,微软已经配置了装备了英伟达GPU的大型服务器集群,并储备了大量数据。报道称,MAI-1将有大约5000亿个参数。相比之下,OpenAI的GPT-4据称有1万亿个参数,Phi-3mini有38亿个参数。今年3月份,微软任命苏莱曼为新成立的消费级人工智能部门负责人,同时还聘用了Inflection的几名员工。报道补充说,新模型并不是源自Inflection,但可能用到了这家创业公司的训练数据。(辰辰)...PC版:https://www.cnbeta.com.tw/articles/soft/1429899.htm手机版:https://m.cnbeta.com.tw/view/1429899.htm

相关推荐

封面图片

微软将推出自研新大模型 MAI-1 与谷歌和 OpenAI 竞争

微软将推出自研新大模型MAI-1与谷歌和OpenAI竞争微软正在公司内部训练一个新的人工智能模型,其规模足以与谷歌、Anthropic,乃至OpenAI的先进模型相抗衡。新模型内部代号为MAI-1,由前谷歌AI负责人MustafaSuleyman领导开发。Suleyman曾担任初创公司Inflection的CEO,今年3月微软以6.5亿美元收购该公司后加入微软。MAI-1可能会基于Inflection的训练数据与技术,但据两名知情的微软员工透露,新模型与Inflection公司原有的模型Pi是两个不同项目。相关人士称,MAI-1的规模“远大于”微软此前训练过的任何开源模型,将有约5,000亿参数,意味着它将需要更强算力及训练数据,同时也会具备更高的成本。——

封面图片

知情人士:微软准备新的人工智能模型

知情人士:微软准备新的人工智能模型据TheInformation援引知情人士报道,微软(MSFT.O)首次在内部训练一个新的人工智能模型,其规模足以与谷歌、Anthropic和OpenAI的模型相抗衡。该新模型在内部被称为MAI-1,由前谷歌AI领导者MustafaSuleyman负责,MustafaSuleyman最近曾担任人工智能初创公司Inflection的首席执行官,今年3月微软雇佣了这家初创公司的大部分员工,并支付了6.5亿美元购买其知识产权。知情人士称,新模型与Inflection之前发布的Pi模型是分开的,可能基于该初创公司的训练数据和其他技术。

封面图片

微软开发新型AI语言模型MAI-1,或将挑战OpenAI和Google

微软开发新型AI语言模型MAI-1,或将挑战OpenAI和Google微软正在开发一个名为MAI-1的新型大规模AI语言模型,该模型可能与Google、Anthropic和OpenAI的最新模型竞争。此项目由前GoogleAI领导者、Inflection前首席执行官MustafaSuleyman领导,MAI-1将拥有大约5000亿参数。该模型的开发标志着微软在投资OpenAI超过100亿美元后,首次独立开发此规模的AI模型。据报道,MAI-1的性能将决定其最佳应用场景,而微软也在为该模型配置大量服务器和训练数据。MAI-1的首次展示可能在本月晚些时候的Build开发者大会上进行。关注频道@ZaiHuaTG频道投稿@ZaiHuabot

封面图片

微软推出了一个小型语言模型,能够分析图片内容

微软宣布推出了新版小型语言模型Phi-3,这款模型能够查看图片并告诉你图片中有什么。Phi-3-vision是一种多模态模型,也就是说它能同时处理文本和图像,而且最适合在移动设备上使用。微软表示,现已提供预览的Phi-3-vision是一个拥有42亿参数的模型(参数指的是模型的复杂程度以及它对训练内容的理解程度),能够执行一般的视觉推理任务,比如对图表或图片提出问题。但是,Phi-3-vision的规模远小于其他以图像为中心的人工智能模型,比如OpenAI的DALL-E或StabilityAI的StableDiffusion。与这些模型不同,Phi-3-vision并不生成图像,但它能理解图像中的内容,并为用户分析这些内容。标签:#微软#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

英特尔在整个CPU和GPU产品组合中为微软Phi-3 AI模型做好了准备

英特尔在整个CPU和GPU产品组合中为微软Phi-3AI模型做好了准备在讨论细节之前,我们先来看看微软的Phi-3开放模型系列。该公司的新GenAI模型侧重于在更小、更高效的层面上提供功能,偏离了行业规范。有了Phi-3,我们可以看到小语言模型(SLM)的出现,它是处理能力有限的低功耗设备的理想选择。英特尔已成为首批在其产品阵容中支持SLM的硬件制造商之一,现在英特尔的GaudiAI加速器、至强和酷睿UltraCPU以及英特尔的ArcGPU(独立和集成)都已优化,以支持微软的Phi-3型号。英特尔公司副总裁兼数据中心与人工智能软件部总经理PallaviMahajan介绍说:"我们利用业内最新的人工智能模型和软件,为客户和开发人员提供强大的人工智能解决方案。与人工智能软件生态系统中的其他领导者(如微软)积极合作,是让人工智能无处不在的关键。我们很荣幸能与微软密切合作,确保英特尔硬件(涵盖数据中心、边缘和客户端)积极支持几种新的Phi-3模型。"微软发布了多个Phi-3GenAI模型,并根据各自的参数进行了分类。这些型号包括迷你型、小型和中型;有趣的是,英特尔展示了其所有开放型号产品的性能。从英特尔第六代至强CPU(GraniteRapids)开始,该公司对Phi-3中型4k和128k变体进行了基准测试,与第五代至强(EmeraldRapids)相比,该平台的性能提高了2倍。谈到英特尔的酷睿UltraCPU平台,该公司表示,Phi-3型号将催化边缘人工智能进程,并将提供"个性化和响应速度"等多项优势。为此,该公司用英特尔酷睿Ultra7165H对Phi-3mini机型进行了测试,板载的独立GPU为ArcA770,基准测试确实显示出令人印象深刻的性能和词元生成延迟。微软Phi-3人工智能模型的首次亮相确实将为个性化人工智能计算时代打开新的大门,而凭借现代处理器所拥有的性能,运行这样的模型完全不是问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1432319.htm手机版:https://m.cnbeta.com.tw/view/1432319.htm

封面图片

微软:Phi-2 模型性能优于竞争对手 可在设备上运行

微软:Phi-2模型性能优于竞争对手可在设备上运行微软周二表示,其人工智能模型Phi-2的性能好于Meta等其他公司的竞争产品,并且能够在设备上运行。微软在一篇博客中表示:“Phi-2模型仅有27个参数,但在各种综合基准测试中,它的表现超过了欧洲AI初创公司Mistral旗下拥有70亿个参数的大语言模型(LLM)Mistral7B、以及Meta发布的参数达130亿个的AI模型Llama2。”“值得注意的是,Phi-2模型在多步推理任务(即编码和数学)上的表现优于参数达700亿的Llama2(Llama2模型系列包含70亿、130亿和700亿三种参数变体)。”

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人