英伟达将提前导入FOPLP封装技术 2025年应用于GB200

英伟达将提前导入FOPLP封装技术 2025年应用于GB200 为应对这一挑战,英伟达有意在Blackwell架构的GB200芯片上引入先进的FOPLP(panel-level fan-out packaging)封装技术,并计划在2025年开始应用。这一技术选择不仅为英伟达在封装领域提供了更多灵活性,也在一定程度上缓解了封装产能不足带来的压力。据市场研究机构透露,英伟达的GB200供应链已经启动,目前正处于设计微调与测试阶段。预计今年出货量将达到约42万片,而明年则有望攀升至150万至200万片。这一积极的出货量预测进一步证明了市场对英伟达AI芯片的强烈需求。值得一提的是,英伟达原计划于2026年引入FOPLP封装技术,但鉴于市场形势的快速变化,公司已决定将时间表提前。据悉,英伟达选择的FOPLP封装技术采用了玻璃基板,这种材料能够长时间承受高温并保持最佳性能,从而确保芯片的稳定性和可靠性。 ... PC版: 手机版:

相关推荐

封面图片

韩国封装企业Hana Micron:正为英伟达H100开发2.5D封装技术

韩国封装企业Hana Micron:正为英伟达H100开发2.5D封装技术 Hana Micron是韩国顶尖的后端工艺公司,也是外包半导体组装和测试(OSAT)公司。该公司目前正在开发一种2.5D封装技术,可水平组装不同类型的人工智能(AI)芯片,如高带宽内存(HBM)。公司CEO Lee Dong-cheol近日表示:“我们把未来寄托在HBM和其他人工智能芯片的先进2.5D封装技术上。”他表示,目前正在开发的芯片封装技术对于生产人工智能芯片至关重要,如英伟达的H100人工智能加速器。他还指出,台积电已经研发了英伟达H100的2.5D封装技术。三星和SK海力士以及一些后端公司也在开发。其公司也已经生产出原型,不过还需要一些时间才能进入全面商业化阶段。封装下一个战场封装将芯片置于保护盒中,防止腐蚀,并提供一个接口来组合和连接已生产的芯片。台积电、三星和英特尔等领先的代工企业正在激烈竞争先进的封装技术。封装技术可以提高半导体性能,而无需通过超精细加工来缩小纳米尺寸,这在技术上具有挑战性,而且需要更多时间。随着ChatGPT等生成式人工智能的发展,对此类技术的需求也在迅速增加,这就需要能够快速处理大量数据的半导体。根据咨询公司Yole Intelligence的预测,全球芯片封装市场(包括2.5D和更先进的3D封装)规模将从2022年的443亿美元增长到2028年的786亿美元。Hana Micron的越南业务Hana Micron成立于2001年8月,在韩国、越南和巴西设有生产设施,并在美国、越南和巴西开展海外销售业务。它提供封装服务,处理从芯片封装到模块测试的整个过程。该公司的客户包括三星、SK海力士和恩智浦半导体。该公司目前正在越南大力拓展业务。自2016年在北宁省成立公司进军东南亚市场以来,HanaMicron累计投资高达7000亿韩元(约合5.25亿美元),目前封装芯片的月产量已达5000万片。该公司计划到2025年将月产量提高到2亿个,并预计越南业务的销售额将很快达到万亿韩元。存储芯片封装占该公司销售收入的70%,而中央处理器、应用处理器、指纹识别传感器和汽车芯片等系统芯片的封装则占其余部分。Lee Dong-cheol说:“我们的最终目标是将系统芯片的比例提高到50%,因为它们受市场起伏的影响较小。”金融研究公司FnGuide的数据显示,随着过去几年存储市场的放缓,该公司2023年的营业利润预计为663亿韩元,比上一年下降36%。Lee Dong-cheol表示,鉴于电子产品制造商和人工智能设备制造商对先进芯片的需求不断增长,预计2024年的业绩将有所改善。 ... PC版: 手机版:

封面图片

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU 英伟达的 H100 AI 芯片使其成为价值数万亿美元的公司,其价值可能超过 Alphabet 和亚马逊,而竞争对手一直在奋力追赶。但也许英伟达即将通过新的 Blackwell B200 GPU 和 GB200“超级芯片”扩大其领先地位。该公司在加州圣何塞举行的 GTC 大会上表示,新的 B200 GPU 拥有 2080 亿个晶体管,可提供高达 20petaflops 的 FP4 算力,而 GB200 将两个 GPU 和单个 Grace CPU 结合在一起,可为 LLM 推理工作负载提供30倍的性能,同时还可能大大提高效率。英伟达表示,在具有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的7倍,而英伟达称其训练速度是 H100 的4倍。

封面图片

消息称三星赢得英伟达2.5D封装订单

消息称三星赢得英伟达2.5D封装订单 2.5D封装将CPU、GPU、I/O、HBM等芯片水平放置在中介层上。台积电将其2.5D封装技术称为CoWoS,而三星则将其称为I-Cube。英伟达的A100和H100就是采用此类封装技术制造的,英特尔Gaudi也是如此。三星自去年以来一直致力于为其2.5D封装服务争取客户。三星向客户提议,将为AVP团队分配足够的人员,同时提供自己的中介层晶圆设计。消息人士称,三星将为英伟达提供2.5D封装,其中装有四个HBM芯片。他们补充说,三星已经拥有放置8个HBM芯片的封装技术。同时,为了在12英寸晶圆上安装8个HBM芯片,需要16个中介层,这会降低生产效率。因此,当HBM芯片数量达到8个时,三星为此开发了中介层的面板级封装技术。英伟达将订单交给三星,可能是因为其人工智能(AI)芯片的需求增加,这意味着台积电的CoWoS产能将不足。该订单还可能让三星赢得HBM芯片订单。 ... PC版: 手机版:

封面图片

英伟达 GB200 供不应求 追单日月光和京元电等封测厂

英伟达 GB200 供不应求 追单日月光和京元电等封测厂 英伟达以全新 Blackwell 架构打造的 GB200 与 B 系列人工智能芯片获得客户大量导入,先前大举追加台积电先进制程投片量后,追单效应蔓延至后段封测厂,日月光投控、京元电运营大爆发,第4季相关订单量季增幅度高达一倍。消息人士透露,京元电来自英伟达添加订单爆满,还需为此挪移更多产能才能满足英伟达需求。

封面图片

AMD公布疯狂芯片提效计划 用能效挑战英伟达会成功吗?

AMD公布疯狂芯片提效计划 用能效挑战英伟达会成功吗? 而在获奖后的演讲中,苏姿丰透露了AMD未来三年的计划,一个充满野心的计划:AMD正在努力实现2025年将计算能效提高到2020年的30倍的计划,而在这个计划之后,还有在2027年将能效提高到100倍(相对于2020年)的目标。图源:AMD计算能效,简单来说就是指计算机在执行计算任务时,利用能源的有效程度,虽然在各种算力、核心数等性能参数面前,计算能效看起来不太起眼,实质上却是核心性能、功耗管理、制程工艺等技术的体现。更高的计算能效,能够让计算机系统在运行时有着更高的效率,早在2014年,AMD就曾经设定过一个名为“25x20”的计划,希望用6年时间将AMD的处理器、显卡等产品的能效提高25倍。这个计划的结果,就是我们现在所熟知的Zen架构和RDNA架构,凭借两个架构的出色表现,AMD在2020年不仅完成了既定的目标,还超额做到了31.77倍的能效提升。AMD为何一直将计算能效提升作为核心目标之一?首先,我们从目前的AI运算需求出发,看看计算能效提升会带来什么?狂奔的超级计算中心众所周知,AI已经成为当前半导体业界最核心、最庞大的需求,这个需求正在驱动着半导体战车的车轮滚滚向前。前段时间,作为AI时代的领航者,半导体公司英伟达的市值就一度达到2.62万亿美元,甚至超过了德国所有上市公司的市值总和。让英伟达市值暴涨的唯一原因,就是其在AI计算硬件领域的统治级实力,目前全球最顶尖的专业计算卡均出自英伟达,除了主流的H100、H200等芯片外,英伟达前段时间又发布了GB100和GB200,仅单个芯片的算力就相当于以前的一台超级计算机。当然,强大的算力背后并不是没有代价的,H100的TDP高达700W,而最新的GB200的TDP更是高达2700W。而英伟达提供的官方方案中,单个GB200 NVL72服务器就可以搭载最高36个GB200芯片,仅芯片本身的功耗就最高可达97200W,并且不包括配套的其他硬件功耗。这还仅仅是开始,一个超级计算中心往往由多个服务器单元组合而成,亚马逊此前就公布了一项计划,预计采购2万个GB200用来组建一个全新的服务器集群。而走在AI研究最前沿的微软和OpenAI,前段时间更是公布了一个雄心勃勃的计划星际之门。据悉,该计划共分为五个阶段,目的是建造一个人类历史上最大的超级计算中心,预计整个计划的投资将达到1150亿美元,建成后将需要数十亿瓦的电力支持。这座‘星际之门’建成后,仅以耗电量算就足以在全球各大城市中排名前20,更何况它还只是众多计算中心的一员而已。实际上,早在去年开始,就有多份报告指出计算中心的耗电量正在猛增,并且一度导致美国部分城市出现电力供应不足的问题。从能源角度来说,一座发电厂从选址到建成运行,往往需要数年的时间,如果遇到环保组织的抗议,还有可能拖延更久。在能源问题短时间内无法解决的情况下,提高计算能效就是唯一的方法,通过更高效地利用每瓦时电力来维持更大规模的AI模型训练。实际上,有人认为OpenAI的ChatGPT-5进展缓慢,很大程度上就是受限于算力规模无法大幅度提升。苏姿丰在演讲中也提到,提高计算能效可以更好地解决能源与算力之间的矛盾,并且让超级计算中心可以被部署到更多的地方。在一些AI企业的构想中,未来每一座城市都应该拥有自己的超级AI中心,负责处理智能驾驶、城市安全等各方面的AI需求。想要达成这个目标,同时不显著增加城市的能源负担,更高计算能效的显卡就是唯一的解决方案。而且,计算能效也直接关系到AI计算的成本,只有将AI计算的成本降到更低,大面积普及AI才可能成为现实。AMD的疯狂计划在英伟达的刺激下,作为在GPU领域唯一能够与英伟达抗衡的企业,AMD一直在加速推进旗下AI芯片的研发与上市进度,并先后发布了MI300、V80等多款专业运算卡。据报道,为了能够加速AI芯片的进度,苏姿丰对GPU团队进行重组,抽调大量人员支持AI芯片的研发,以至于下一代的AMD消费级显卡发布计划受到严重影响,比如取消原定的旗舰产品发布计划,仅保留中端显卡的发布计划等。在集中科研力量后,AMD目前的进展速度飞快,最新的MI300X在性能上已经超过英伟达的H100,大多42 petaFLOPs,并且拥有高达192GB的显存,功耗却与H100相当,仅为750W。凭借优异的计算能效,MI300X成功引起了市场的关注,微软、OpenAI、亚马逊等科技巨头都提交了采购需求,让AMD在计算领域的芯片出货量暴增。根据相关机构预测,2024年AMD的AI芯片出货量可能达到英伟达出货量的10%,并在明年增长至30%。据苏姿丰介绍,为了能够提高芯片的计算能效,AMD研发了多项新的技术,比如2.5D/3D混合封装技术。利用这项技术,AMD可以在封装面积不变的前提下给芯片塞入更多的晶体管和内存,降低芯片与内存交换数据的消耗,有效提升每瓦时的计算性能。此外,AMD还将改进芯片架构,推出能效更高的新一代架构,预计最快将于2025年发布,并实现25x30(2025年计算能效提升30倍)的目标。不过,想要实现27x100(2027年计算能效提升100倍)的目标,还需要在诸多领域做出提升,仅靠制程工艺升级和架构升级恐怕还不太够。不得不说,AMD的这个计划非常疯狂,一旦成功,那么AMD将有望再次与英伟达并肩而行。那么英伟达的反应是什么?其实英伟达很早就给出了回应,早前发布的GB200就是答案,这颗史无前例的算力怪物在计算能效方面的提升同样瞩目。据英伟达的介绍,GB200的推理性能是H100的30倍,计算能效是H100的25倍(综合考虑算力、功耗等参数后的结果)。显然,英伟达的脚步也并不慢,在接下来的3年时间里,不管AMD能否完成疯狂的百倍计划,AI芯片市场都会迎来一场革新。 ... PC版: 手机版:

封面图片

广达收到来自谷歌、亚马逊和Meta的NVIDIA GB200 AI GPU的大额订单

广达收到来自谷歌、亚马逊和Meta的NVIDIA GB200 AI GPU的大额订单 广达是服务器市场上的大名鼎鼎的公司,这家台湾公司在为全球多家科技巨头提供人工智能服务器方面走在了前列。去年,该公司对其基于NVIDIA Hopper 的人工智能服务器产生了巨大的兴趣,现在,随着新的 Blackwell GB200 人工智能平台的发布,似乎巨大的需求正在向该公司涌来,而这一次,广达将获得更大的利润,因为基于 Blackwell 的服务器预计将变得更加昂贵,利润率肯定会更高。据台湾《经济日报》报道,广达已收到来自Google、亚马逊AWS和Meta等公司的大量英伟达Blackwell GB200人工智能服务器订单。据悉,Blackwell AI产品将于7月或8月进入测试阶段,预计9月左右量产,由此可以预计首批产品将于2024年底或2025年初上市。此外,据说英伟达单台 GB200 AI 服务器的生产成本约为 200 万至 300 万美元/台,这是一个惊人的数字,有可能为整个行业的服务器收入做出巨大贡献。广达并不满足于服务器产品组合的进步,因为除了采用NVIDIA Blackwell GB200 AI 阵容之外,广达还计划在其 AI 服务器中集成各种新技术,其中之一就是液冷能力,因为正如英伟达首席执行官黄仁勋(Jensen Huang)本人强调的那样,NVIDIA新芯片的功耗数字已经突破了天花板,因此有必要摒弃传统的冷却系统。因此,我们可以期待英伟达的 Blackwell AI GPU 和服务器在明年的某个时候面世,届时我们就能清楚地看到该产品线为市场带来了什么。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人