NVIDIA找上Intel代工 每月可产30万颗AI芯片

NVIDIA找上Intel代工 每月可产30万颗AI芯片 如果全部切割成H100芯片,在理想情况下最多能得到30万颗,可以大大缓解NVIDIA供应紧张的局面。作为对比,台积电在2023年年中已经可以每月生产最多8000块CoWoS晶圆,当时计划在年底提高到每月1.1万块,2024年底继续提高到每月2万块。NVIDIA旗下的几乎所有AI芯片,包括A100、A800、A30、H100、H800、GH200,全都依赖台积电CoWoS-S封装技术,基于65nm的硅中介层。与之最接近的就是Intel Foveros 3D封装,基于22FFL工艺的中介层。有趣的是,就在日前,Intel宣布已经在美国新墨西哥州Fab 9工厂实现了业界领先的半导体封装解决方案的大规模生产,其中就包括Foveros封装。Intel没有透露具体的产品,看起来很可能就是NVIDIA GPU。 ... PC版: 手机版:

相关推荐

封面图片

Nvidia第三季度售出了 50 万颗 H100

Nvidia第三季度售出了 50 万颗 H100 与此同时,值得注意的是,几乎所有大量购买 Nvidia H100 GPU 的公司也在开发用于 AI、HPC 和视频工作负载的定制芯片。因此,随着时间的推移,随着他们转向自己的芯片,他们对 Nvidia 硬件的购买量可能会下降。 还记得当年特斯拉的被刺吗?

封面图片

美国允许 Nvidia 出口开发旗舰 AI 芯片所需的产品

美国允许 Nvidia 出口开发旗舰 AI 芯片所需的产品 9月1日(路透社) Nvidia Corp(NVDA.O)周四表示,美国政府已经允许完成其旗舰人工智能芯片开发所需的出口,此前它曾披露华盛顿限制向中国运输两种芯片。 解读:美国允许英伟达公司继续在中国开发其 H100 企业 AI 芯片

封面图片

Inflection AI宣布打造2.2万块H100计算卡的AI超级计算机

Inflection AI宣布打造2.2万块H100计算卡的AI超级计算机 一家名为"Inflection AI"的人工智能创业公司近日宣布,他们计划利用2.2万块NVIDIA H100计算卡打造一台规模宏大的AI超级计算机。这台超级计算机将由近700个机柜组成,每个机柜还将配备四块Intel至强处理器,旨在提供卓越的计算能力。据悉,该系统的功耗预计将达到31兆瓦,相当于每小时消耗3.1万度电。 Inflection AI此次计划打造的AI超级计算机被视为世界顶级之一,而能够轻松获取大量NVIDIA H100计算卡的原因在于,NVIDIA正准备对该公司进行投资。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

AI芯片产能告急 矩形晶“圆”来当救星?

AI芯片产能告急 矩形晶“圆”来当救星? 也正是因为客户抢着预订产能,台积电3nm家族产能的持续吃紧,而与AI芯片关系密切的CoWoS先进封装产能同样出现供不应求的情况。为了缓解产能缺口,台积电预计在今年第三季度将新增的CoWoS相关设备到位。除此以外,台积电还在研究新的先进芯片封装技术。矩形晶“圆”,一种新思路据日经亚洲报道,台积电在研究一种新的先进芯片封装方法,即使用矩形基板代替传统圆形晶圆,从而在每个晶圆上放置更多的芯片。据消息人士透露,这种矩形基板尺寸为510 x 515 mm,对比12寸晶圆的尺寸(70659平方毫米),可用面积达到了三倍之多,并且不像圆形晶圆一样有可用面积有边角料留下。据分析师估算,在100%的良率下,一块12寸晶圆只能造出16套B200这样的AI计算芯片。即使是较早的H100芯片,最多也只能封装大约29套。而从供应链的角度来看,仅英伟达一家对CoWoS的需求就超过4.5万片晶圆,更不要说Google、亚马逊、AMD等厂商都在使用台积电的CoWoS封装技术。随着需求持续攀升,英伟达的GPU供应能力将进一步受到限制,这是买卖双方都不愿意看到的结果。不过,目前该这项研究仍然处于早期阶段,有半导体分析师认为,整体来看,这一技术可能需要五到十年的时间才能实现全面的设施升级。因此,想要解决 CoWoS产能问题目前只能先靠增加产线的方式。业界传出,台积电南科嘉义园区CoWoS新厂已进入环差审查阶段,即开始采购设备。同时,南科嘉义园区原定要盖两座CoWoS新厂之外,台积电正勘察三厂土地。另外,业内类似CoWoS类似的2.5D先进封装技术还有三星的I-Cube(Interposer Cube )、日月光的FOCoS-Bridge、英特尔的EMIB等。最强AI芯片,点燃面板封装产业链其实在英伟达发布新一代AI芯片GB200时,就已经透露了这种矩形晶圆封装技术。为了缓解CoWoS先进封装产能吃紧问题,英伟达正规划将其GB200提早导入扇出面板级封装(FOPLP),从原订2026年提前到2025年。对比晶圆级封装(FOWLP),面板级封装使用方形的玻璃面板或印刷电路板,尺寸也不仅仅是510 x 515mm,还有更大的600 x 600mm。据Yole的报告计算,FOWLP技术的面积使用率<85%,而FOPLP面积使用率>95%,这使得同比例下,300x300mm的矩形面板会比12寸晶圆多容纳1.64倍的die,最终会转化到每单位芯片的生产成本之上。随着基板面积的增加,芯片制造成本将逐渐下降,300mm过渡到板级封装,则能节约高达66%的成本。因此单从经济角度考虑,FOPLP对比晶圆封装有多项优势。而更重要的则是FOPLP可以缓解CoWoS产能吃紧的问题,从而保证AI计算的需求。不过矩形基板,其实早有尝试。为了在基板上形成布线层和TSV,需要用到专用的制造设备和传输系统,并且需要光刻胶等一系列配套设备。而这些的准备工作,都需要时间和金钱,即使像台积电这样拥有深厚财力的芯片制造商,也不能在短时间内解决。因此在先进封装相关设备制造商投入相应产品前, CoWoS 技术依然是AI芯片的首选。不过随着产业链上下游厂商的不断关注和入局,这项面板级封装技术也会逐渐走向现实。 ... PC版: 手机版:

封面图片

NVIDIA的AI芯片优势正成为谷歌、英特尔和Arm的目标

NVIDIA的AI芯片优势正成为谷歌、英特尔和Arm的目标 这个名为"统一加速基金会"(UXL)的组织表示,该项目的技术细节应在今年下半年达到"成熟"状态,但没有给出最终的发布目标。该项目目前包括英特尔开发的OneAPI开放标准,旨在消除特定编码语言、代码库和其他工具等要求,使开发人员不再受使用特定架构(如 NVIDIA 的 CUDA 平台)的束缚。上个月,英伟达(NVIDIA)成为首家市值达到 2 万亿美元的芯片制造商,在专注于为人工智能模型提供动力的硬件(如H100和即将推出的H200 GPU)之后,英伟达实现了快速增长。这些英伟达(NVIDIA)芯片将开发者锁定在使用英伟达(NVIDIA)的CUDA架构上,比其他芯片制造商目前生产的任何产品都要优越,但爆炸性的需求造成了产品稀缺,而竞争对手却在继续开发自己的替代品。在 2023 年的 Computex 主题演讲中,NVIDIA 首席执行官黄仁勋表示,有 400 万开发者正在使用 CUDA计算模型。UXL表示,该项目最初的目标是为人工智能应用和高性能计算应用开放选项,但该小组计划最终也支持NVIDIA的硬件和代码。UXL 正在寻求更多芯片制造商以及微软和亚马逊等云计算公司的援助,以确保该解决方案可以部署在任何芯片或硬件上。据传,微软去年曾与 AMD合作开发替代人工智能芯片,以挑战 NVIDIA 在该行业的有效垄断地位。 ... PC版: 手机版:

封面图片

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100 旧金山,3 月 21 日(路透社)主导人工智能 (AI) 芯片市场的美国半导体设计公司 Nvidia Corp 表示,已将其旗舰产品修改为可以合法出口到中国的版本. 美国监管机构去年制定规则,以国家安全问题为由,禁止英伟达向中国客户出售其两款最先进的芯片,即 A100 和更新的 H100。此类芯片对于开发生成式人工智能技术(如 OpenAI 的 ChatGPT 和类似产品)至关重要。 路透社在 11 月报道称,Nvidia设计了一款名为 A800 的芯片,该芯片降低了 A100 的某些功能,使 A800 可以合法出口到中国。 周二,该公司表示,它已经开发出类似的 H100 芯片的中国出口版本。这款名为 H800 的新芯片被阿里巴巴集团控股有限公司、百度公司和腾讯控股有限公司等中国科技公司的云计算部门使用。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人