不想依赖英伟达!微软发布两款自研AI芯片,可训练大模型 #抽屉IT

None

相关推荐

封面图片

微软将于下个月推出其首款人工智能芯片 以减少对英伟达的依赖 #抽屉IT

封面图片

微软推出两款自研芯片:Azure Maia 100 和 Azure Cobalt 100

微软推出两款自研芯片:Azure Maia 100 和 Azure Cobalt 100 当地时间 11 月 15 日周三,微软在西雅图举办的 Ignite 全球技术大会上,发布了两款自研芯片:Azure Maia 100 和 Azure Cobalt 100。 微软表示,Azure Maia 100 是一款 AI 加速器芯片,用于 OpenAI 模型、Bing、GitHub Copilot 和 ChatGPT 等 AI 工作负载运行云端训练和推理。Azure Cobalt 100 则是一款基于 Arm 架构的云原生芯片,针对通用工作负载的性能、功率和成本效益进行了优化。 微软还表示,他们不打算出售这些芯片,而是将它们用于为其自己的订阅软件产品提供支持,并作为其 Azure 云计算服务的一部分。

封面图片

国产芯片自研遮羞布被撕,极度依赖ARM,如今无奈转向自研架构 #抽屉IT

封面图片

ChatGPT遭“卡脖子”,传OpenAI计划自研 AI 芯片挑战英伟达 #抽屉IT

封面图片

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU?

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU? 高调自研的Meta转身狂购英伟达芯片Meta首席科学家杨立昆(Yann LeCun)上个月在旧金山举行的一次活动中强调了GPU对于构建通用人工智能(AGI)的重要性。他说:“如果你认为AGI时代正在到来,你就必须购买更多的GPU。这是一场人工智能战争,而英伟达正在提供武器。”Meta第三季度财报显示,2024财年的总支出将在940亿美元至990亿美元之间,部分原因是在算力方面的扩张。矛盾的是:之前,Meta的打算是自研芯片,不依赖英伟达。2023年,Meta公司首度曾公开其自研芯片的进展,表示开始计划开发一种用于训练人工智能模型的内部芯片,他们将这款新型芯片取名Meta训练和推理加速器,简称MTIA(MTIA v1),将其归类为加速人工智能训练和推理工作负载的“芯片家族”,并定计划于2025年推出。这种定制芯片采用开源芯片架构RISC-V,在类型上属于ASIC专用集成电路。巨头自研芯片不顺利2023年OpenAI 大模型爆火以来,互联网巨头对AI芯片的需求一夜爆发,一时间重金难求一卡。为了避免受制于人,节省费用,各大巨头纷纷宣布自研AI芯片。亚马逊似乎占据了先机,已拥有两款AI专用芯片训练芯片Trainium和推理芯片Inferentia;谷歌则拥有第四代张量处理单元(TPU)。相比之下,微软、Meta等还在很大程度上依赖于英伟达、AMD和英特尔等芯片制造商的现成或定制硬件。报道称,微软一直在秘密研发自己的AI芯片,代号雅典娜(Athena)。该芯片由台积电代工,采用5nm先进制程,计划最早于2024年推出。MTIA的 v1,字面性能也很强,采用台积电7nm制程工艺,运行频率800MHz,TDP仅为25W,INT8整数运算能力为102.4 TOPS,FP16浮点运算能力为51.2 TFLOPS。但从目前的进度上看,微软、Meta的进度并不算快,微软一直在订购英伟达的芯片,Meta此次高调宣布购入35万个H100,也表明,自身研发并不顺利。AI算力竞争是否再次展开据OpenAI测算,从2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍。2023年,各巨头对AI芯片的抢购,一度让英伟达H100持续涨价缺货。根据研究机构Raymond James的分析师预测,每个英伟达H100芯片售价为25000至30000美元。按此价格范围计算,Meta在这些芯片上的支出将至少接近百亿美元。Meta为何不吝于成本,斥巨资买入英伟达芯片。扎克伯格在周四的文章中还表示,将把人工智能投资与AR/VR驱动的元宇宙愿景联系起来,并计划推出Llama大型语言模型的下一个版本。从上述表态中可以看出,Meta的自身业务深入发展,需要算力的支持,这是根本原因。对于全球互联网巨头、科技公司来说,2024年的竞争已经开始,新的一轮算力竞争是否就此拉开序幕。 ... PC版: 手机版:

封面图片

ChatGPT 开发商 OpenAI 探索自研芯片,已开始评估收购选项OpenAI 并不想完全依赖英伟达的GPU或东家的「Ath

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人