SK hynix宣布2026年量产HBM4 为下一代AI GPU做准备

SK hynix宣布2026年量产HBM4 为下一代AI GPU做准备 随着人工智能在市场上的应用迅速增加,我们在迈向未来的过程中需要更强的计算能力,值得注意的是,HBM 在人工智能计算如何定位自己的现代生活中发挥了至关重要的作用,因为它是制造人工智能加速器的关键部件。SK hynix 副总裁 Kim Chun-hwan 在 2024 年韩国半导体展(SEMICON Korea 2024)上发表主题演讲时透露,该公司打算在 2026 年之前开始量产 HBM4,并声称这将推动人工智能市场的巨大增长。他认为,除了早日实现下一代产品过渡之外,重要的是要认识到 HBM 行业面临着巨大的需求;因此,创造一种既能无缝供应又具有创新性的解决方案更为重要。Kim 认为,到 2025 年,HBM 市场预计将增长高达 40%,并已提前定位,以充分利用这一市场。关于对 HBM4 的期待,Trendforce分享的路线图预计,首批 HBM4 样品的每个堆栈容量将高达 36 GB,而完整规格预计将在 2024-2025 年下半年左右由 JEDEC 发布。首批客户样品和可用性预计将于 2026 年推出,因此距离我们看到新的高带宽内存人工智能解决方案的实际应用还有很长的时间。目前还不确定哪种类型的人工智能产品将采用新工艺,因此我们暂时无法做出任何预测。随着 SK hynix 的加入,HBM 市场的竞争似乎会变得更加激烈,哪家公司会崛起并登上王者宝座,让我们拭目以待。 ... PC版: 手机版:

相关推荐

封面图片

NVIDIA、SK hynix和台积电结成联盟 为下一代AI标准加速GPU和HBM4开发

NVIDIA、SK hynix和台积电结成联盟 为下一代AI标准加速GPU和HBM4开发 SEMICON 就像半导体行业的 CES,SK hynix 和台积电等大公司都会在这里宣布他们的未来计划。据报道,英伟达公司(NVIDIA)首席执行官黄仁勋、SK hynix 总裁金珠善以及多家顶级公司的高管都将出席此次盛会。预计这次会议的主要焦点是下一代 HBM,特别是革命性的 HBM4 内存,它将开启市场的新纪元。HBM4 内存的推出将对人工智能领域产生巨大的影响,因为各家公司现在都在朝着转换战略的方向发展。SK hynix 是首批实现"多功能 HBM"的公司之一。在现代的实施过程中,先进的内存半导体被紧密地连接到不同的芯片上,如 GPU 芯片,以提高计算效率,而为了将一切连接起来,业界采用了著名的 CoWoS 等封装技术。由于这并不是一条最佳路线,SK hynix 此前透露,他们计划将内存和逻辑半导体整合到一个封装中,这意味着不需要封装技术,而且单个裸片将更接近这种实现方式,事实证明它的性能效率会更高。为了实现这一目标,SK hynix 计划建立一个战略性的"三角联盟",由台积电(TSMC)负责半导体,英伟达(NVIDIA)负责产品设计,最终产品可能具有革命性意义。虽然我们现在还不确定 SK hynix 计划如何实现 HBM4 内存,但考虑到台积电和英伟达(NVIDIA)现在都与这家韩国巨头合作,反映出他们确实已经想好了办法。即将举行的 SEMICON 在这方面非常重要,因为它将为未来采用该内存标准的人工智能加速器定下基调。除此以外,这一联盟还表明,相关公司已准备好利用市场,不给竞争对手任何潜在增长或暴露的空间。在 HBM4 量产时间表方面,业界预计该联盟的解决方案将于 2026 年投入生产,这正好赶上 英伟达下一代 Rubin 架构的到来并在市场上大显身手。 ... PC版: 手机版:

封面图片

台积电与SK hynix 结成AI战略联盟 共同推进面向下一代GPU的HBM4存储

台积电与SK hynix 结成AI战略联盟 共同推进面向下一代GPU的HBM4存储 目前,人工智能产业正在蓬勃发展,就财务方面而言,丰厚的收入吸引了我们能想到的所有大型科技公司。台积电和 SK hynix 是提供行业所需的基本要素的两家主要企业,一家在半导体领域遥遥领先,另一家则在 HBM 供应方面独领风骚。据报道,这两家公司已结成"渐进式"联盟,旨在联合开发下一代产品,最终使它们成为市场的焦点。Pulse News的报道披露,名为"One Team"的新联盟已经生效,目的是通过抢先开发新产品来挫败行业竞争。这次的主要重点是开发下一代 HBM 内存,即最先进的 HBM4,它在革新人工智能领域的计算能力方面潜力巨大,有望为英伟达下一代人工智能 GPU 提供存储支持,台积电的加入可能会催化这家韩国巨头在市场上的影响力。还有人说,结盟是为了对抗三星电子对市场日益增长的影响力,因为三星同时拥有半导体和存储器设施,这也是参与人工智能竞赛的公司青睐三星的原因,因为这样可以减少供应链的复杂性。现在,台积电和 SK hynix 作为一个整体运作,竞争将变得更加激烈和有趣。HBM4 的开发将加速NVIDIA和AMD下一代 GPU 的发展。预计 NVIDIA 将在其即将推出的 H200 和 B100 GPU中使用 HBM3E,但我们可以看到未来的 Blackwell 变体和下一代 Vera Rubin 芯片将充分发挥新 HBM 标准的潜力。 ... PC版: 手机版:

封面图片

SK hynix披露2024年HBM供应已售罄 公司预计2025年业绩将大幅增长

SK hynix披露2024年HBM供应已售罄 公司预计2025年业绩将大幅增长 HBM内存的主要供货商 SK hynix 正式证实了其前几个月分析报告中"破纪录"的 HBM 销量,重申其在HBM领域的发展方针,并声称市场将出现反弹。SK hynix 副总裁 Kim Ki-tae 在一篇博客文章中分享了该公司在 HBM 市场上的做法,此外,他还重申了SK hynix迈向2024年的期望:随着生成式人工智能服务的多样化和进步,对人工智能内存解决方案 HBM 的需求也呈爆炸式增长。HBM 具有高性能和大容量的特点,是一款具有里程碑意义的产品,打破了内存半导体只是整个系统一部分的传统观念。其中,SK Hynix HBM 的竞争力尤为突出。2024 年,期待已久的"Upturn"时代即将到来。在这个新的飞跃时期,我们将全力以赴,创造最佳业绩。我希望SK hynix的成员们都能在这一年里梦想成真。此外,该公司还透露了 HBM 领域的惊人需求,声称今年的供应已经售罄,SK hynix 已经在为 2025 财年的主导地位做准备。这一点也不令人震惊,因为进入 2024 年,人工智能仍在蓬勃发展,英伟达(NVIDIA)和 AMD 等公司都在为下一代解决方案做准备,显然对 HBM 的需求也将是巨大的。随着 HBM3e 和 HBM4 产品的上市,我们可能会看到更多令人震惊的收入数字。 ... PC版: 手机版:

封面图片

SK hynix宣布与台积电合作开发用于HBM4存储芯片的封装技术

SK hynix宣布与台积电合作开发用于HBM4存储芯片的封装技术 SK hynix 表示,与全球顶级代工厂台积电的合作将带来更多的 HBM 技术创新。通过产品设计、代工厂和存储器供应商之间的三方合作,此次合作有望在存储器性能方面实现突破。两家公司将首先致力于提高安装在 HBM 封装最底部的基础芯片的性能。HBM 是在采用 TSV 技术的基底芯片上堆叠核心 DRAM 芯片,并通过 TSV 将 DRAM 堆叠中的固定层数与核心芯片垂直连接成 HBM 封装。位于底部的基础芯片连接到 GPU,由 GPU 控制 HBM。SK hynix 采用专有技术制造 HBM3E 以下的基础芯片,但计划在 HBM4 的基础芯片上采用台积电的先进逻辑工艺,这样就可以在有限的空间内封装更多的功能。这也有助于 SK hynix 生产定制的 HBM,满足客户对性能和能效的需求。SK hynix和台积电还同意合作优化SK hynix的HBM和台积电的CoWoS技术的整合,同时合作应对客户在HBM方面的共同要求。K hynix 总裁兼 AI Infra 负责人 Justin Kim 说:"我们期待与台积电建立强大的合作伙伴关系,帮助我们加快与客户的开放式合作,并开发出业界性能最佳的 HBM4。有了这次合作,我们将通过增强在定制存储器平台领域的竞争力,进一步巩固我们作为全面人工智能存储器供应商的市场领导地位。""多年来,台积电和 SK hynix 已经建立了牢固的合作伙伴关系。多年来,台积电与SK hynix已经建立了稳固的合作关系,我们共同致力于整合最先进的逻辑和最先进的HBM,提供全球领先的人工智能解决方案。展望下一代 HBM4,我们有信心继续紧密合作,提供最佳集成解决方案,为我们的共同客户开启新的人工智能创新。" ... PC版: 手机版:

封面图片

SK 海力士、台积电 宣布合作开发 HBM4 芯片,预期2026年投产

SK 海力士、台积电 宣布合作开发 HBM4 芯片,预期2026年投产 在此次合作前,所有的海力士HBM芯片都是基于公司自己的制程工艺,包括制造封装内最底层的基础裸片,然后将多层DRAM裸片堆叠在基础裸片上。 从HBM4产品开始,海力士准备用台积电的先进逻辑工艺来制造基础裸片。 另外,双方还计划合作优化 HBM 产品和台积电独有的 CoWoS 技术融合(2.5D封装)。

封面图片

SK海力士、台积电宣布合作开发HBM4芯片 预期2026年投产

SK海力士、台积电宣布合作开发HBM4芯片 预期2026年投产 (来源:SK海力士)背景:什么是高带宽内存众所周知,高带宽内存是为了解决传统DDR内存的带宽不足以应对高性能计算需求而开发。通过堆叠内存芯片和通过硅通孔(TSV)连接这些芯片,从而显著提高内存带宽。SK海力士在2013年首次宣布HBM技术开发成功,后来被称为HBM1的芯片通过AMD的Radeon R9 Fury显卡首次登陆市场。后续,HBM家族又先后迎来HBM2、HBM2E、HBM3和HBM3E。SK海力士介绍称,HBM3E带来了10%的散热改进,同时数据处理能力也达到每秒1.18TB的水平。(HBM3E芯片成品,来源:SK海力士)技术的迭代也带来了参数的翻倍。举例而言,根据英伟达官方的规格参数表,H100产品主要搭载的是80GB的HBM3,而使用HBM3E的H200产品,内存容量则达到几乎翻倍的141GB。找台积电做些什么?在此次合作前,所有的海力士HBM芯片都是基于公司自己的制程工艺,包括制造封装内最底层的基础裸片,然后将多层DRAM裸片堆叠在基础裸片上。(HBM3E演示视频,来源:SK海力士)两家公司在公告中表示,从HBM4产品开始,准备用台积电的先进逻辑工艺来制造基础裸片。通过超细微工艺增加更多的功能,公司可以生产在性能、共享等方面更满足客户需求的定制化HBM产品。另外,双方还计划合作优化HBM产品和台积电独有的CoWoS技术融合(2.5D封装)。通过与台积电的合作,SK海力士计划于2026年开始大规模生产HBM4芯片。作为英伟达的主要供应商,海力士正在向AI龙头提供HBM3芯片,今年开始交付HBM3E芯片。对于台积电而言,AI服务器也是在消费电子疲软、汽车需求下降的当下,维持公司业绩的最强劲驱动因素。台积电预计2024财年的总资本支出大约在280-320亿美元之间,约有10%投资于先进封装能力。三巨头激战HBM市场根据公开市场能够找得到的信息,目前国际大厂里只有SK海力士、美光科技和三星电子有能力生产与H100这类AI计算系统搭配的HBM芯片。而眼下,这三家正隔着太平洋展开激烈的竞争。大概比SK海力士早大半个月,美光科技也在今年宣布开始量产HBM3E芯片。今年2月,正在加紧扩展HBM产能的三星也发布了业界容量最大的36GB HBM3E 12H芯片。英伟达上个月表示正在对三星的芯片进行资格认证,以用于AI服务器产品。研究机构Trendforce估算,2024年的HBM市场里,SK 海力士能够占到52.5%的份额,三星和美光则占42.4%和5.1%。另外,在动态随机存取存储器(DRAM)行业内,HBM的收入份额在2023年超过8%,预计在2024年能达到20%。对于SK海力士与台积电合作一事,普华永道高科技行业研究中心主任Allen Cheng认为是“明智的举措”。他表示:“台积电几乎拥有所有开发尖端AI芯片的关键客户,进一步加深伙伴关系,意味着海力士能吸引更多的客户使用该公司的HBM。” ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人