HBM走俏,暗战打响

HBM走俏,暗战打响 当存储三巨头(SK海力士、三星、美光科技)围绕HBM进行升级、扩产的那一刻,意味着蛰伏十年之久、发展至第六代的HBM终于甩去“成本高昂”的束缚,以强悍性能步入存储市场,搅动风云:SK海力士市值突破千亿美元、台积电CoWoS先进封装产能告急、DRAM投片量面临挤压……但必须警惕的是,若只将HBM视作存储领域的一项新兴技术而在战术上亦步亦趋,若只瞄准ChatGPT、Sora等生成式人工智能而忽视背后痛点,是要犯战略错误的。我国半导体从业者需清晰认识到,倘若HBM在内的存储领域受到长期遏制,我国相关产业发展将继先进制程、GPU后,再失先手。正如电子科技大学长三角研究院(湖州)集成电路与系统研究中心副主任黄乐天所说:“就好像一把枪,子弹供应跟不上,射速再快也没用。无法解决HBM问题,我国算力就难以提升,人工智能在内的诸多产业发展就将受限。”HBM,一场无声的暗战。“带宽之王”狂飙,HBM无敌手狂飙的HBM究竟有何魔力?HBM(High Bandwidth Memory ,高频宽存储器)属于DRAM(动态随机存取存储器)中的一个类别,具有高带宽、大容量、低延迟的DDR DRAM组合阵列。AI时代,算力可以轻松破T(TOPS,每秒万亿次运算),但存储器带宽破T(TB/s,每秒万亿字节带宽)则异常艰难。在需要高算力又需要大数据的应用场景下,存储数据吞吐能力的不足被无限放大,出现所谓的“存储墙”。图源:Rambus想要增加带宽,最简单粗暴的方法是增加数据传输线路的数量。当前,HBM由多达1024个数据引脚组成,其内部数据传输路径随着每代产品的发展而显著增长以SK海力士推出的HBM3E为例,其作为HBM3的扩展(Extended)版本,最高每秒可以处理1.15TB数据;三星的HBM3E“Shinebolt”经初步测试,最大数据传输速度预计达1.228TB/s。鉴于如此强大的带宽性能,市面上大部分存储器产品都难以在该领域击败HBM,唯一的胜出者只能是下一代HBM。HBM技术自2013年在半导体市场崭露头角以来,已扩展至第一代(HBM)、第二代(HBM2)、第三代(HBM2E),目前正步入第四代(HBM3)、第五代(HBM3E),而第六代(HBM4)也已蓄势待发。业内判断,HBM作为今后AI时代的必备材料,虽然在内存市场中比例还不大,但盈利能力是其他DRAM的5~10倍。日前,市场调研机构Yole Group发布的数据进一步印证了这一点。Yole预计,今年HBM芯片平均售价是传统DRAM内存芯片的5倍。而考虑到扩产难度,HBM价格预计在相当长一段时间内将保持高位。鉴于HBM目前无可撼动的市场地位,以及紧张的产能和昂贵的价格,业界是否可以通过牺牲某项性能而另寻方案,譬如使用潜在替代者GDDR、LPDDR?事实上,英伟达较早期的GTX 1080、GTX 2080Ti、GTX 3090也的确采用了GDDR技术。一位国内芯片企业负责人接受集微网采访时指出,HBM紧缺的产能令其价格一直维持在高位,但随着大模型训练成熟,逐渐进入大规模推理部署阶段,将不得不面对性价比的问题。推理场景中,算力成本至关重要,事实上目前各个大模型厂商也均在探索更高性价比的推理方案。譬如使用GDDR或LPDDR等方案获得更高的性价比,英伟达及国内厂家的推理板卡也不同程度上使用GDDR方案作为替代。“GDDR本身存在颗粒容量不足的顾虑,在模型参数规模日渐增长的趋势下,如果单卡或者单节点无法提供足够的显存容量,反而会降低单卡的计算效率。但随着GDDR7(其更加兼顾AI场景对带宽和颗粒容量密度的需求)逐步商业化,预计HBM价格也将伴随产能释放而逐步下降,未来在过渡期内还将是多方案共存的状态。”该人士表示。HBM走俏,CoWoS吃紧HBM的大火正快速推高市场规模以及预期。市场调查机构Gartner预测,2022~2027年,全球HBM市场规模将从11亿美元增至52亿美元,复合年均增长率(CAGR)为36.3%。高盛甚至给出了翻倍的预期,预计市场规模将在2022年(23亿美元)到2026年(230亿美元)前增长10倍(CAGR77%)。在催动先进封装的同时,HBM的产能却显得捉襟见肘。具体地看,HBM由多个DRAM堆叠而成,利用TSV(硅通孔)和微凸块(Microbump)将裸片相连接,多层DRAMdie再与最下层的Basedie连接,然后通过凸块(Bump)与硅中阶层(interposer)互联。HBM与GPU、CPU或ASIC共同铺设在硅中阶层上,再通过CoWoS等2.5D封装工艺相互连接,硅中介层通过CuBump连接至封装基板上,最后封装基板再通过锡球与下方PCB基板相连。图片:使用HBM的2.5D封装由此,台积电的CoWoS技术成为目前HBM与CPU/GPU处理器集成的理想方案。HBM高焊盘数和短迹线长度要求需要2.5D先进封装技术,目前几乎所有的HBM系统都封装在CoWoS上,而高端AI服务器也基本使用HBM。这样看起来,几乎所有领先的数据中心GPU都是台积电封装在CoWos上的。黄仁勋在NVIDIA GTC 2024大会期间更是直白喊话,英伟达今年对CoWos的需求非常大。产业人士指出,CoWoS封装所需中介层材料,因高精度设备不足和关键制程复杂,中介层材料供不应求,牵动CoWoS封装排程及AI芯片出货。2022年以来,ChatGPT为代表的人工智能带动AI芯片抢购潮,英伟达、AMD为代表的国际大厂纷纷下单,并均采用台积电CoWoS先进封装。大厂“分食”之下,CoWoS产能吃紧。台积电总裁魏哲家在1月的法说会上称,计划今年将CoWoS先进封装产能增加一倍,并计划在2024年进一步扩充。相关数据显示,去年12月台积电CoWoS月产能已经增至1.4万~1.5万片,预估到今年第四季度,CoWoS月产能将大幅扩充至3.3万~3.5万片,这与魏哲家“产能增加一倍”的说法基本吻合。而最新消息,台积电将在嘉义科学园区设两座CoWoS先进封装厂,首厂预计5月动工,2028年量产。良率低、散热难,HBM“妥协”市场调研机构集邦预估,2024年底HBM产值占整体DRAM比重有望攀至20.1%的水平。集邦科技资深研究副总经理吴雅婷表示,在相同制程及容量下,HBM颗粒尺寸较DDR5大35%~45%;良率(包含TSV封装良率),则比起DDR5低约20%~30%;生产周期(包含TSV)较DDR5多1.5~2个月不等。HBM在市场上“攻城略地”的同时,也面临良率低、散热难等方面问题。首先是低良率遏制产能。HBM制造过程中,垂直堆叠多个DRAM,并通过 TSV将它们连接起来,由高层向下打孔,通过整个硅片做信号通道;一般技术是信号引脚从侧面左右两边拉下来,而HBM是从中间直接打孔,在极小的裸片上打1000多个孔,并涉及多层;封装过程中,由于线路多且距离近,封装时的干扰、散热等问题均有可能影响线路。这意味着,上述任何阶段的失败都可能导致一枚芯片的废弃。此前有传闻称三星HBM3芯片生产良率仅10%~20%,三星予以坚决反驳,称“这不是真的”。其次是散热之困。“85℃左右它开始忘记东西,125℃左右则完全心不在焉,”这是业界对DRAM在热量面前尴尬表现的调侃。黄乐天认为,这种说法并不是很客观。存储器相对于处理器等逻辑电路,无论从峰值功耗还是功率密度而言都不算高,之所以存在散热问题,是由于3D-IC堆叠造成的。无论是哪种芯片,只要使用3D堆叠的方式就不可避免有热量聚集,如同多条电热毯堆在一起,热量自然无法散发。“事实上,散热问题是影响3DIC商用化的主要问题。3DIC早在20年前就被提出,但由于解决不好散热,只能在某些可以不计成本加入微流道能强力散热机制的场景中应用。HBM可视作在2D和3D之间寻求妥协,采用存储器件3D、逻辑器件2D的方式,尽量避免热量集中。”黄乐天告诉集微网。存储大厂起干戈,走向技术分野2013年,SK海力士与AMD合作开发世界上的首个HBM,率先“挥师入关”。有数据显示,2023年SK海力士市... PC版: 手机版:

相关推荐

封面图片

三星和SK海力士推12层HBM3E内存

三星和SK海力士推12层HBM3E内存 3月19日消息,三星电子和 SK 海力士3月18日在人工智能芯片巨头英伟达年度开发者大会 (GTC) 上双双公开12层堆叠动态随机存取存储器 (DRAM) 芯片的第五代高带宽存储器 (HBM3E) “HBM3E 12H DRAM”实物。高带宽存储器是指利用先进封装方法垂直堆叠多个DRAM芯片,使数据处理速度取得飞跃性提升的高性能内存。

封面图片

SK hynix宣布与台积电合作开发用于HBM4存储芯片的封装技术

SK hynix宣布与台积电合作开发用于HBM4存储芯片的封装技术 SK hynix 表示,与全球顶级代工厂台积电的合作将带来更多的 HBM 技术创新。通过产品设计、代工厂和存储器供应商之间的三方合作,此次合作有望在存储器性能方面实现突破。两家公司将首先致力于提高安装在 HBM 封装最底部的基础芯片的性能。HBM 是在采用 TSV 技术的基底芯片上堆叠核心 DRAM 芯片,并通过 TSV 将 DRAM 堆叠中的固定层数与核心芯片垂直连接成 HBM 封装。位于底部的基础芯片连接到 GPU,由 GPU 控制 HBM。SK hynix 采用专有技术制造 HBM3E 以下的基础芯片,但计划在 HBM4 的基础芯片上采用台积电的先进逻辑工艺,这样就可以在有限的空间内封装更多的功能。这也有助于 SK hynix 生产定制的 HBM,满足客户对性能和能效的需求。SK hynix和台积电还同意合作优化SK hynix的HBM和台积电的CoWoS技术的整合,同时合作应对客户在HBM方面的共同要求。K hynix 总裁兼 AI Infra 负责人 Justin Kim 说:"我们期待与台积电建立强大的合作伙伴关系,帮助我们加快与客户的开放式合作,并开发出业界性能最佳的 HBM4。有了这次合作,我们将通过增强在定制存储器平台领域的竞争力,进一步巩固我们作为全面人工智能存储器供应商的市场领导地位。""多年来,台积电和 SK hynix 已经建立了牢固的合作伙伴关系。多年来,台积电与SK hynix已经建立了稳固的合作关系,我们共同致力于整合最先进的逻辑和最先进的HBM,提供全球领先的人工智能解决方案。展望下一代 HBM4,我们有信心继续紧密合作,提供最佳集成解决方案,为我们的共同客户开启新的人工智能创新。" ... PC版: 手机版:

封面图片

HBM之后,DRAM的新战场

HBM之后,DRAM的新战场 三星电子、SK 海力士、美光三大存储器半导体公司之间的竞争,正从高带宽存储器(HBM)扩大到图形 DRAM,即图形双倍数据速率(GDDR)。图形 DRAM 的开发重点是通过拓宽数据传输路径来提高处理速度和效率。它不仅用于 AI 加速器,还用于加密货币挖掘。随着 AI PC 和其他设备上 AI 终端即将发布,相关市场预计将迅速增长。2023年2月,三星在国际固态电路会议(ISSCC)上首次展示了37Gbps的GDDR7 DRAM。紧接着,SK海力士在2023年3月于美国圣何塞举行的“NVIDIA GTC”上,推出了比三星电子和美光更快的40Gbps GDDR7。他们在本月初于台湾举行的“Computex 2024”上也将GDDR7纳入了参展产品中。最大带宽提升至每秒128GB,比上一代GDDR6增加了一倍,功率效率提高了40%。6月4日,美光在台湾举办的“Computex 2024”上推出了新一代GDDR7,介绍称最高速度可达32Gbps,与上一代相比带宽提升60%,功率效率提升50%。据业内人士 6 月 21 日透露,三家存储器公司正通过推出比上一代速度更快、更省电的下一代产品,为全面量产竞争做准备。随着 AI PC 和其他设备上 AI 终端的发布,图形 DRAM 市场预计将快速增长。市场研究公司 Omdia 预测,到今年年底,图形 DRAM 将占整个 DRAM 市场的 15%,比 2022 年的 7% 翻一番。尤其是,由于预计 NVIDIA 将在其下一代笔记本电脑 GPU GeForce RTX50 上配备下一代 GDDR7,预计这三家公司为赢得 NVIDIA 青睐而展开的竞争将愈演愈烈。GDDR7 是下一代图形 DRAM 产品,旨在在 PC 和游戏机中无延迟地处理大型 3D 图形数据。除了 HBM 之外,GDDR 被认为是现有速度最快的内存。它主要用于笔记本电脑和游戏机的显卡,可提高高清视频和高性能游戏的图形处理速度。在加密货币热潮期间,它也作为虚拟资产挖矿的内存而广受欢迎。随着近来人工智能的兴起,快速处理大量数据的需求不断增加,GDDR 的使用范围也不断扩大。因此,它已成为三家内存公司与 HBM 并驾齐驱的另一个战场。这三家公司竞相为 NVIDIA 的 GPU 供应 HBM,在 GDDR 方面也展开了类似的竞争。三家内存公司预计将于今年下半年全面量产 GDDR7。与 HBM 相比,GDDR7 的数据处理速度更快,价格也相对较低,预计在人工智能时代,GDDR7 的使用范围将进一步扩大。一位行业专家表示:“继 HBM 之后,图形 DRAM 成为战场。”他们补充道:“GDDR 是 NVIDIA GPU 的‘最佳朋友’DRAM”,强调了 GDDR 在增强 GPU 性能方面的关键作用。随着行业为下一波技术进步做好准备,三星电子、SK 海力士和美光之间的竞争将决定图形 DRAM 市场的未来。 ... PC版: 手机版:

封面图片

SK海力士宣布下一代HBM计划

SK海力士宣布下一代HBM计划 在最近一次负责HBM芯片的新任高管圆桌讨论中,SK海力士副总裁与营销负责人金基泰表示:“纵观当前的市场形势,大型科技客户正在加快新产品的发布时间,以确保在AI领域领先。因此,我们也在提前讨论今年和明年的计划,以确保及时供应下一代HBM产品。” SK海力士是三星电子全球第二大存储器芯片制造商,但却是HBM的主要供应商,HBM是一种对生成式AI设备至关重要的高性能堆栈式DRAM芯片。该公司是首家于2013年开发第一代HBM芯片的内存供应商,并在随后几年推出了后续产品HBM2、HBM2E 以及最新的第四代 HBM3 芯片。2023年 4 月,SK 开发出全球首款12层HBM3 DRAM 产品, 内存容量为 24 千兆字节 (GB),为业内最大。2023年 8 月,该公司推出了业界性能最佳的第五代 HBM DRAM HBM3E,用于 AI 应用, 并向其客户 NVIDIA Corp. 提供了样品以进行性能评估。今年 3 月,SK 海力士开始大批量生产 HBM3E 芯片,这是业界推出的另一个公司,同时表示将把第六代 HBM4 芯片的量产提前到 2025 年。大容量 NAND 受到业界关注SK 海力士副总裁兼 HBM 工艺集成(PI)负责人 Kwon Un-oh 表示:“通过先发制人地确保技术和量产专业知识,我们已经能够建立起稳固的竞争力。”先进封装开发部副总裁兼负责人Son Ho-young敦促公司为更好的存储器和系统芯片的融合。SK海力士表示,受AI学习和推理高端芯片需求不断增长的推动,预计今年全球DRAM市场规模将达到65%,达到117万亿韩元(850亿美元)。本月初,首席执行官Kwak Noh-jung在新闻发布会上表示,其HBM芯片产能几乎已被预订满到明年。SK海力士NAND先进工艺集成副总裁Oh Hae-soon表示,NAND闪存是AI时代的另一个前景光明的部分她表示:“随着对大规模AI服务器的需求不断增长,eSSD等NAND解决方案开始受到业界关注。”新兴存储芯片SK海力士革命技术中心 (RTC)副总裁Yi Jae-yun表示,公司还在密切关注新兴存储芯片,如仅选择器存储器 (SOM)、自旋存储器和突触存储器,这些芯片具有超高速、高容量和较低的价格,以及磁性 RAM (MRAM)、电阻式 RAM (RRAM) 和相变存储器 (PCM) 芯片。分析师表示,在存储芯片制造商中,SK海力士是AI应用爆炸式增长的最大受益者,因为它是NVIDIA Corp.的最大AI芯片供应商,而NVIDIA控制着80%的AI芯片市场。SK集团董事长崔泰源最近在接受日本媒体日经新闻采访时表示,如果SK海力士看到AI芯片融资需求,该公司正在考虑在韩国或美国建立HBM工厂的可能性。 ... PC版: 手机版:

封面图片

SK海力士2025年HBM产品基本售罄

SK海力士2025年HBM产品基本售罄 SK 海力士公司计划在今年第三季度开始量产其下一代内存芯片,以期利用对人工智能发展至关重要的半导体需求激增的机会。这家韩国公司在一份声明中表示,其 2025 年高带宽存储器 (HBM) 产能几乎已被全部预订。海力士上个月表示,计划斥资约 146 亿美元在韩国构建新的存储芯片产能。

封面图片

【报道:三星电子改组新设HBM芯片研发团队】

【报道:三星电子改组新设HBM芯片研发团队】 据韩联社,在全球人工智能市场的规模持续扩张的背景下,三星电子进行大规模改组,组建一个专注于高带宽存储器(HBM)的研发团队,力争在半导体市场确保“超级差距”。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人