韩国人的HBM卡住了英伟达的脖子?

韩国人的HBM卡住了英伟达的脖子? 而这个东西,在这个星球上,目前基本上只有韩国人能量产。根据 Trendforce 数据,韩国的 SK 海力士和三星,他俩在 2023 年拿捏了全球 90% 的 HBM 内存产能。而两年市面上的 AI 芯片,什么 A100 A800 们,反正你能想到的,基本就没谁能离开 HBM 内存。所以,就在老黄的英伟达市值突破万亿的时候, SK 海力士的股价,也在去年偷偷翻了一倍多,如今市值已经突破千亿了……就连之前路线选择错误的三星,股价也涨到了近两年最高的水平。可能大家对 HBM 内存技术有多重要还没概念。就这么说吧,韩国在今年初已经把这个技术列为国家战略技术,想通过给 SK 海力士和三星税收等方面的优惠,保持着自家的领先地位。甚至老黄在最新发布的 B200 AI 芯片的同时,早就给了 SK 海力士等几百亿人民币定金,直接把这些厂今年一年的产量给包圆了。要知道, SK 海力士上个月底刚实现量产交付 HBM3e 内存,这不比隔壁小米 SU7 的大定猛多了?而这么爽快的生意,可把隔壁三星馋坏了,急急忙忙在 2 月份发布了自家 HBM3e 样品,立马就发给满世界客户验货。那为什么 HBM 内存能这么受欢迎呢?这就不得不提内存技术长期以来的拉跨了。在信息化时代,无论是游戏还是工作,电脑系统的运行速度其实是要靠处理器和内存的互相配合的。理论上,如果这俩速度接近,那肯定是最佳拍档。但过去的很长时间里,处理器的性能指数式暴涨,内存和硬件之间的传输速度,却压根就跟不上。在过去 20 年中,硬件的峰值计算能力增加了90000 倍,但是内存和硬件互连带宽却只是提高了30 倍。打个不是很贴切的比方,处理器相当于是中华小当家,内存就是边上配菜的助手,小当家技术再高,助手菜配不过来,上菜还是快不了。所以这些年,内存成了拖累计算机性能的拖油瓶,甚至有人把这种现象称为 “ 内存墙 ” 。这些问题对于我们臭打游戏的来说,还算能接受,毕竟现在用着 1066 打 3A 的人肯定还不少。真让他们忙不过来的,其实是这两年的 AI 大爆发。因为 AI 大模型的基础离不开海量的数据和算力,而要想支撑这么大的数据处理和传输,就要打破 “ 内存墙 ” 。换句话说,打游戏对于小当家来说是点了四菜一汤,那隔壁 AI 随便搞个训练就相当于是要了一桌满汉全席。所以对于 AI 大厂们来说,内存墙就像是锁死自己发展水平的智子,而 HBM 就是那个破墙者。和传统的 DDR 内存采用的"平房设计"不同,破墙者 HBM 采用了"楼房设计",来了个降维打击。在芯片里造楼,主要靠的是硅通孔( Through-Silicon Via , TSV )这种先进封装技术。简单来说,就是把不同的芯片叠在一起,中间打一堆孔,然后用铜管等导电物质给接起来。从物理意义上减小了数据传输距离、占地面积等等。这样一来,就能减小信号延迟、实现芯片的低功耗、增加带宽等等一堆优点。随着工艺水平提升, TSV 可以越做越小,密度越来越大,堆叠 Die 层数也能越来越多,就能进一步提升带宽和传输速度以及最大容量。前面提到三星最新产品,就已经是 12 层堆栈容量高达 36 GB 的 HBM3e 了。别看说起来这么简单,实际上, HBM 技术里从材料、设计、封装、散热等等环节,都是难点。而这些技术难点,大部分都是被韩国的 SK 海力士率先攻克的。所以,像 HBM3 和 HBM3e 也都是由 SK 海力士率先突破并实现量产。到了 HBM3 这一代,就已经实现了高达 1024 位的数据路径,运行速率也达到了惊人的 6.4 Gb/s ,带宽高达 819 Gb/s 。而最新的 HBM3e ,其实是 HBM 内存技术家族的第五代产品,它的最高数据处理速度已经达到了每秒 1.18TB (太字节),相当于 1 秒内处理 200 多部全高清( FHD )级别的电影。别看 HBM 赛道目前还有 SK 海力士、三星和美光御三家在玩,但无论是从发展时间、技术突破还是量产速度上, SK 海力士一直独占鳌头,光他们一家就占领了一半左右的市场份额。排在身后的,则是同为韩国企业的三星,这家伙今年又一口气组建了两个 HBM 团队想要追赶上进度。而美国的美光虽然放出话来,自家跳过研发 HBM3 ,直接成功完成了 HBM3e 的研究。甚至如今还成为了英伟达的供货商之一,但世超觉得,这么大的口气,还有待市场验证。所以,这么捋下来,英伟达的 AI 军火商计划,还真得建立在这些 HBM 厂商的供货上。虽然大家都在说, AI 界硬通货是 H100 、是 B200 。谁能想到,最终居然还被韩国卡着一道呢? ... PC版: 手机版:

相关推荐

封面图片

路透证实三星HBM内存芯片因发热和功耗问题未能通过英伟达的测试

路透证实三星HBM内存芯片因发热和功耗问题未能通过英伟达的测试 HBM 即高带宽存储器,这是一种基于 3D 堆栈工艺的高性能 DRAM,主要适用于高存储器带宽需求的场景组合,尤其是图形处理器、网络交换和转发设备。英伟达的 AI 加速产品都需要极高的带宽来提高性能,因此英伟达最初与 SK 海力士达成合作,由后者独家供应 HBM3 内存芯片。不过从今年开始英伟达已经开始接受三星电子和美光提供的 HBM3 内存芯片,三家供应商里当前似乎也只有三星电子遇到问题,目前英伟达的主力供应商仍然是 SK 海力士。消息称三星从去年开始就一直在尝试通过英伟达的 HBM3 和 HBM3E 的测试,其中 8 层和 12 层的 HBM3E 芯片最近的一次失败测试结果在 4 月公布。既然没有成功通过英伟达测试,那么三星电子自然还不算是该芯片的供应商,这种情况似乎也凸显三星在 HBM 芯片上落后于 SK 海力士和美光了。当然英伟达有自己的测试标准,三星其实也已经向其他客户供应此类芯片,可能是英伟达的要求更高所以暂时三星还不搞定技术难题,只能看着 SK 海力士和美光了。注:HBM3:指的是 HBM 第三个标准,每个标准里面还有不同的 “代” 比如 HBM3E,所以这里指的并不是第三代。相关文章:SK海力士正在HBM内存芯片领域处于领先地位 三星为此撤换芯片主管 ... PC版: 手机版:

封面图片

英伟达寻求从三星采购HBM芯片

英伟达寻求从三星采购HBM芯片 黄仁勋表示,英伟达正在对三星的HBM芯片进行资格认证,并将在未来开始使用它们。HBM已成为人工智能热潮的重要组成部分,因为与传统存储芯片相比,它提供了更快的处理速度。黄仁勋表示:“HBM是一个技术奇迹。”他补充说,HBM还可以提高能效,并且随着耗电的人工智能芯片变得更加普遍,将帮助世界保持可持续发展。SK海力士实际上是AI芯片领导者英伟达的HBM3芯片的唯一供应商。虽然没有透露新HBM3E的客户名单,但SK海力士高管透露,新芯片将首先供货英伟达并用于其最新的Blackwell GPU。三星一直在HBM上投入巨资,以追赶竞争对手。三星于2月宣布开发出HBM3E 12H,这是业界首款12层堆栈HBM3E DRAM,也是迄今为止容量最高的HBM产品。三星表示,将于今年上半年开始量产该芯片。 ... PC版: 手机版:

封面图片

SK海力士全球首家量产HBM3E内存 1秒处理超1TB数据

SK海力士全球首家量产HBM3E内存 1秒处理超1TB数据 随后SK海力士发布公告称,其最新的超高性能AI内存产品HBM3E已开始量产,并将从本月下旬起向客户供货。据介绍,在存储半导体三大巨头(三星电子、SK海力士、美光)中,SK海力士是首家实现量产HBM3E供应商。HBM3E每秒可处理1.18TB数据,相当于在1秒内可处理230部全高清(FHD)级电影。在散热方面,SK海力士表示其HBM3E采用了MR-MUF技术,散热性能较上一代产品提高了 10%,从而在散热等所有方面都达到了全球最高水平。SK海力士高管表示:“公司通过全球首次HBM3E投入量产,进一步强化了领先用于AI的存储器业界的产品线。”其还表示,公司积累的HBM业务成功经验,将进一步夯实与客户的关系,并巩固全方位人工智能存储器供应商的地位。 ... PC版: 手机版:

封面图片

三星独家供货英伟达12层HBM3E内存 SK海力士出局

三星独家供货英伟达12层HBM3E内存 SK海力士出局 而SK海力士因部分工程问题,未能推出12层HBM3E产品,但计划从本月末开始批量生产8层HBM3E产品。今年2月27日,三星电子官宣成功开发出业界首款36GB 12H(12层堆叠)HBM3E DRAM内存。据介绍,HBM3E 12H能够提供高达1280GB/s的带宽和迄今为止最大的36GB容量,相比于8层堆叠的HBM3 8H,在带宽和容量上提升超过50%。同时相比于8层堆叠,其AI训练速度平均提高34%,同时推理服务用户数量也可增加超过11.5倍。在此前的GTC2024大会上,英伟达正式发布了B200和GB200系列芯片。据黄仁勋介绍,B200拥有2080亿个晶体管,采用台积电4NP工艺制程,可以支持多达10万亿个参数的AI大模型,还通过单个GPU提供20 petaflops的AI性能。 ... PC版: 手机版:

封面图片

抛三星、买海力士 市场认定了HBM赢家?

抛三星、买海力士 市场认定了HBM赢家? SK海力士在外资净买入排名中上升同样引人注目,1月份时位居第三,2月份跃升至第二,本月超越现代成为最受青睐的股票。截至3月8日,SK海力士净买入额达到4900亿韩元,本月股价涨超10%,达到了171900韩元/股的新高。而三星则与SK海力士的强劲表现形成鲜明对比,本月股价略微下跌了0.14%,年内跌近7%。外资大幅抛售三星电子,1月份三星曾是最受外资欢迎的股票,到了2月份却跌至第七位,而在本月成为被外资抛售最多的股票之一。分析指出,由于英伟达业绩强劲,增加了对高带宽存储芯片(HBM)需求的预期,不少投资者转向在HBM市场拥有较大份额的SK海力士,去年其在HBM市场的份额达到54%。高盛研究员Kim Sun-woo指出:SK海力士在HBM市场的领先地位令其在AI发展趋势中受益,目前它与三星在下一代HBM技术上的差距正在扩大,这可能会进一步推动对SK海力士的需求。在HBM芯片领域,竞争已经达到了前所未有的高度。SK海力士仅今年就先进封装技术上已投资1.3万亿韩元,以提升其生产高端芯片的能力。今年它是Nvidia H100处理器的唯一HBM3芯片供应商,与英伟达签订HBM3E(H200的重要组成部分)优先供应协议。三星也在全速迎头赶上,该公司最近宣布已开发出36GB HBM3E 12H DRAM,是业内容量最大的HBM,凭借12层堆叠技术,其性能和容量可大幅提升50%以上。三星希望在今年上半年开始量产。美光也后来者居上,宣布开始量产HBM3E内存,将用于英伟达H200 AI芯片,对SK海力士和三星电子构成了挑战。 ... PC版: 手机版:

封面图片

SK海力士、台积电宣布合作开发HBM4芯片 预期2026年投产

SK海力士、台积电宣布合作开发HBM4芯片 预期2026年投产 (来源:SK海力士)背景:什么是高带宽内存众所周知,高带宽内存是为了解决传统DDR内存的带宽不足以应对高性能计算需求而开发。通过堆叠内存芯片和通过硅通孔(TSV)连接这些芯片,从而显著提高内存带宽。SK海力士在2013年首次宣布HBM技术开发成功,后来被称为HBM1的芯片通过AMD的Radeon R9 Fury显卡首次登陆市场。后续,HBM家族又先后迎来HBM2、HBM2E、HBM3和HBM3E。SK海力士介绍称,HBM3E带来了10%的散热改进,同时数据处理能力也达到每秒1.18TB的水平。(HBM3E芯片成品,来源:SK海力士)技术的迭代也带来了参数的翻倍。举例而言,根据英伟达官方的规格参数表,H100产品主要搭载的是80GB的HBM3,而使用HBM3E的H200产品,内存容量则达到几乎翻倍的141GB。找台积电做些什么?在此次合作前,所有的海力士HBM芯片都是基于公司自己的制程工艺,包括制造封装内最底层的基础裸片,然后将多层DRAM裸片堆叠在基础裸片上。(HBM3E演示视频,来源:SK海力士)两家公司在公告中表示,从HBM4产品开始,准备用台积电的先进逻辑工艺来制造基础裸片。通过超细微工艺增加更多的功能,公司可以生产在性能、共享等方面更满足客户需求的定制化HBM产品。另外,双方还计划合作优化HBM产品和台积电独有的CoWoS技术融合(2.5D封装)。通过与台积电的合作,SK海力士计划于2026年开始大规模生产HBM4芯片。作为英伟达的主要供应商,海力士正在向AI龙头提供HBM3芯片,今年开始交付HBM3E芯片。对于台积电而言,AI服务器也是在消费电子疲软、汽车需求下降的当下,维持公司业绩的最强劲驱动因素。台积电预计2024财年的总资本支出大约在280-320亿美元之间,约有10%投资于先进封装能力。三巨头激战HBM市场根据公开市场能够找得到的信息,目前国际大厂里只有SK海力士、美光科技和三星电子有能力生产与H100这类AI计算系统搭配的HBM芯片。而眼下,这三家正隔着太平洋展开激烈的竞争。大概比SK海力士早大半个月,美光科技也在今年宣布开始量产HBM3E芯片。今年2月,正在加紧扩展HBM产能的三星也发布了业界容量最大的36GB HBM3E 12H芯片。英伟达上个月表示正在对三星的芯片进行资格认证,以用于AI服务器产品。研究机构Trendforce估算,2024年的HBM市场里,SK 海力士能够占到52.5%的份额,三星和美光则占42.4%和5.1%。另外,在动态随机存取存储器(DRAM)行业内,HBM的收入份额在2023年超过8%,预计在2024年能达到20%。对于SK海力士与台积电合作一事,普华永道高科技行业研究中心主任Allen Cheng认为是“明智的举措”。他表示:“台积电几乎拥有所有开发尖端AI芯片的关键客户,进一步加深伙伴关系,意味着海力士能吸引更多的客户使用该公司的HBM。” ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人