OpenAI自研芯片进展曝光 百万年薪挖角谷歌

OpenAI自研芯片进展曝光 百万年薪挖角谷歌 据SemiAnalysis报道,OpenAI计划将目前仅有数人的芯片团队扩展至数十人,且几乎所有新招募的研究人员均为谷歌TPU团队的现任或前任成员。TPU是谷歌为加速机器学习和神经网络计算而设计的专用处理器,以其出色的运算性能和能源效率著称。OpenAI提供的不仅仅是具有竞争力的薪酬,更包括作为一家未上市公司所提供的股权激励,这对于高级工程师来说极具吸引力。加入OpenAI的团队成员将有机会参与从零开始的创新设计过程,尝试更激进的方法,构建由数百万个加速器组成的系统。此外,OpenAI的自研芯片计划也反映出与微软关系的微妙变化,尽管背靠微软的资金和Azure云服务,OpenAI仍寻求在芯片和算力方面的独立性。业界普遍预计,OpenAI的第一代自研芯片将在2027年底前推出,在此之前,该组织将继续依赖商用芯片。 ... PC版: 手机版:

相关推荐

封面图片

【OpenAI芯片野心曝光:百万年薪挖角谷歌TPU人才】

【OpenAI芯片野心曝光:百万年薪挖角谷歌TPU人才】 根据半导体博客SemiAnalysis,OpenAI 计划将只有几个人的芯片团队扩展到几十个人。新近招募的几乎所有研究人员,都是现任或前任的谷歌TPU团队成员。消息称OpenAI每年将向这些高级工程师提供的价值数百万美元的股权。这里的股权是指OpenAI内部自己制定的"利润分红单位"的股权结构。 快讯/广告 联系 @xingkong888885

封面图片

微软推出两款自研芯片:Azure Maia 100 和 Azure Cobalt 100

微软推出两款自研芯片:Azure Maia 100 和 Azure Cobalt 100 当地时间 11 月 15 日周三,微软在西雅图举办的 Ignite 全球技术大会上,发布了两款自研芯片:Azure Maia 100 和 Azure Cobalt 100。 微软表示,Azure Maia 100 是一款 AI 加速器芯片,用于 OpenAI 模型、Bing、GitHub Copilot 和 ChatGPT 等 AI 工作负载运行云端训练和推理。Azure Cobalt 100 则是一款基于 Arm 架构的云原生芯片,针对通用工作负载的性能、功率和成本效益进行了优化。 微软还表示,他们不打算出售这些芯片,而是将它们用于为其自己的订阅软件产品提供支持,并作为其 Azure 云计算服务的一部分。

封面图片

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU?

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU? 高调自研的Meta转身狂购英伟达芯片Meta首席科学家杨立昆(Yann LeCun)上个月在旧金山举行的一次活动中强调了GPU对于构建通用人工智能(AGI)的重要性。他说:“如果你认为AGI时代正在到来,你就必须购买更多的GPU。这是一场人工智能战争,而英伟达正在提供武器。”Meta第三季度财报显示,2024财年的总支出将在940亿美元至990亿美元之间,部分原因是在算力方面的扩张。矛盾的是:之前,Meta的打算是自研芯片,不依赖英伟达。2023年,Meta公司首度曾公开其自研芯片的进展,表示开始计划开发一种用于训练人工智能模型的内部芯片,他们将这款新型芯片取名Meta训练和推理加速器,简称MTIA(MTIA v1),将其归类为加速人工智能训练和推理工作负载的“芯片家族”,并定计划于2025年推出。这种定制芯片采用开源芯片架构RISC-V,在类型上属于ASIC专用集成电路。巨头自研芯片不顺利2023年OpenAI 大模型爆火以来,互联网巨头对AI芯片的需求一夜爆发,一时间重金难求一卡。为了避免受制于人,节省费用,各大巨头纷纷宣布自研AI芯片。亚马逊似乎占据了先机,已拥有两款AI专用芯片训练芯片Trainium和推理芯片Inferentia;谷歌则拥有第四代张量处理单元(TPU)。相比之下,微软、Meta等还在很大程度上依赖于英伟达、AMD和英特尔等芯片制造商的现成或定制硬件。报道称,微软一直在秘密研发自己的AI芯片,代号雅典娜(Athena)。该芯片由台积电代工,采用5nm先进制程,计划最早于2024年推出。MTIA的 v1,字面性能也很强,采用台积电7nm制程工艺,运行频率800MHz,TDP仅为25W,INT8整数运算能力为102.4 TOPS,FP16浮点运算能力为51.2 TFLOPS。但从目前的进度上看,微软、Meta的进度并不算快,微软一直在订购英伟达的芯片,Meta此次高调宣布购入35万个H100,也表明,自身研发并不顺利。AI算力竞争是否再次展开据OpenAI测算,从2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍。2023年,各巨头对AI芯片的抢购,一度让英伟达H100持续涨价缺货。根据研究机构Raymond James的分析师预测,每个英伟达H100芯片售价为25000至30000美元。按此价格范围计算,Meta在这些芯片上的支出将至少接近百亿美元。Meta为何不吝于成本,斥巨资买入英伟达芯片。扎克伯格在周四的文章中还表示,将把人工智能投资与AR/VR驱动的元宇宙愿景联系起来,并计划推出Llama大型语言模型的下一个版本。从上述表态中可以看出,Meta的自身业务深入发展,需要算力的支持,这是根本原因。对于全球互联网巨头、科技公司来说,2024年的竞争已经开始,新的一轮算力竞争是否就此拉开序幕。 ... PC版: 手机版:

封面图片

文件显示苹果训练AI用了Google TPU芯片

文件显示苹果训练AI用了Google TPU芯片 为构建苹果的人工智能基础模型,工程师们运用了公司自研的框架软件及多种硬件,包括苹果自有的GPU(图形处理单元)和仅在谷歌云上可用的TPU(张量处理单元)。谷歌已经研发TPU芯片约10年,并已公开其第五代芯片的两种型号。这些芯片可用于人工智能的训练,谷歌宣称其性能可媲美英伟达H100人工智能芯片。在其年度开发者大会上,谷歌宣布将于今年推出第六代TPU芯片。这些芯片专为运行人工智能应用和训练模型而设计,谷歌已围绕这些芯片构建了云计算硬件和软件平台。苹果和谷歌尚未对此事作出回应。苹果未具体透露,与英伟达或其他AI硬件供应商相比,其对谷歌芯片和软件的依赖程度。通常,使用谷歌的芯片需要客户通过其云部门购买访问权限,这类似于客户从亚马逊AWS或微软Azure购买计算时间的方式。 ... PC版: 手机版:

封面图片

蔚来、小鹏等自研智驾芯片将流片

蔚来、小鹏等自研智驾芯片将流片 蔚来汽车自研的智能驾驶芯片已经流片。有知情人士透露,芯片团队已经领了军令状,明年新车 ET9 一定要上自家芯片。小鹏自研的智驾芯片已经送去流片,预计 8 月回片。理想智驾芯片也将于年内完成流片。(36 氪)

封面图片

谷歌推出基于 Arm 的数据中心处理器 Axion 和下一代 TPU 芯片

谷歌推出基于 Arm 的数据中心处理器 Axion 和下一代 TPU 芯片 谷歌9日在其年度云计算会议上公布了其下一代数据中心 AI 加速芯片 TPU 的细节,并宣布推出自行设计的基于 ARM 架构的数据中心 CPU。 谷歌的张量处理单元 (TPU) 是英伟达制造的先进 AI 芯片的少数可行替代品之一,但开发人员只能通过谷歌云访问它们,而不能直接购买。谷歌表示,下一代 TPU v5p 芯片可在8,960个芯片的芯片集群中运行,原始性能可达到上一代 TPU 的两倍。为了确保芯片组以最佳性能运行,谷歌采用了液体冷却技术。TPU v5p 将于9日在谷歌云正式发布。 谷歌计划通过谷歌云提供被称为 Axion 的基于 ARM 的 CPU。Axion 芯片的性能比通用 ARM 芯片高出30%,比英特尔和 AMD 生产的当前一代 x86 芯片高出50%。Axion 已在多项谷歌服务中使用,并计划于今年晚些时候向公众开放。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人