美光2024年和2025年大部分的HBM3E供应已经售罄

美光2024年和2025年大部分的HBM3E供应已经售罄 美光公司首席执行官 Sanjay Mehrotra 在本周财报电话会议的准备发言中表示:"我们 2024 年的 HBM 已经售罄,2025 年的绝大部分供应也已经分配完毕。我们仍然预计,在 2025 年的某个时候,HBM 位数份额将与我们整体 DRAM 位数份额相当"。美光的首款 HBM3E 产品是一个 8-Hi 24 GB 堆栈,具有 1024 位接口、9.2 GT/s 数据传输速率和 1.2 TB/s 的总带宽。英伟达用于人工智能和高性能计算的H200加速器将使用6个这样的立方体,提供总计141 GB的可访问高带宽内存。Mehrotra说:"我们有望在2024财年从HBM获得数亿美元的收入,预计从第三财季开始,HBM收入将增加我们的DRAM和整体毛利率。"该公司还开始为其 12-Hi 36 GB 堆栈提供样品,容量提高了 50%。这些 KGSD 将于 2025 年量产,并将用于下一代人工智能产品。与此同时,英伟达的 B100 和 B200 看起来不会使用 36 GB HBM3E 堆栈,至少在初期不会。人工智能服务器的需求在去年创下了纪录,看来今年也将保持高位。一些分析师认为,英伟达的 A100 和 H100 处理器(以及它们的各种衍生产品)在 2023 年占据了整个人工智能处理器市场高达 80% 的份额。虽然今年英伟达在推理方面将面临来自 AMD、AWS、D-Matrix、英特尔、Tenstorrent 和其他公司更激烈的竞争,但英伟达的 H200 看起来仍将是人工智能训练的首选处理器,尤其是对于 Meta 和微软这样的大公司来说,它们已经运行着由数十万英伟达加速器组成的舰队。考虑到这一点,成为英伟达 H200 的 HBM3E 的主要供应商对美光来说是一件大事,因为它使美光最终能够在 HBM 市场上占据相当大的份额。同时,由于 HBM 堆栈中的每个 DRAM 器件都有一个较宽的接口,因此在物理尺寸上要大于普通的 DDR4 或 DDR5 IC。因此,HBM3E 内存的量产将影响美光公司商品 DRAM 的位数供应。"HBM产量的增长将限制非HBM产品的供应增长,"Mehrotra说。"从整个行业来看,在相同的技术节点上生产一定数量的位,HBM3E 消耗的晶圆供应量大约是 DDR5 的三倍。" ... PC版: 手机版:

相关推荐

封面图片

SK hynix披露2024年HBM供应已售罄 公司预计2025年业绩将大幅增长

SK hynix披露2024年HBM供应已售罄 公司预计2025年业绩将大幅增长 HBM内存的主要供货商 SK hynix 正式证实了其前几个月分析报告中"破纪录"的 HBM 销量,重申其在HBM领域的发展方针,并声称市场将出现反弹。SK hynix 副总裁 Kim Ki-tae 在一篇博客文章中分享了该公司在 HBM 市场上的做法,此外,他还重申了SK hynix迈向2024年的期望:随着生成式人工智能服务的多样化和进步,对人工智能内存解决方案 HBM 的需求也呈爆炸式增长。HBM 具有高性能和大容量的特点,是一款具有里程碑意义的产品,打破了内存半导体只是整个系统一部分的传统观念。其中,SK Hynix HBM 的竞争力尤为突出。2024 年,期待已久的"Upturn"时代即将到来。在这个新的飞跃时期,我们将全力以赴,创造最佳业绩。我希望SK hynix的成员们都能在这一年里梦想成真。此外,该公司还透露了 HBM 领域的惊人需求,声称今年的供应已经售罄,SK hynix 已经在为 2025 财年的主导地位做准备。这一点也不令人震惊,因为进入 2024 年,人工智能仍在蓬勃发展,英伟达(NVIDIA)和 AMD 等公司都在为下一代解决方案做准备,显然对 HBM 的需求也将是巨大的。随着 HBM3e 和 HBM4 产品的上市,我们可能会看到更多令人震惊的收入数字。 ... PC版: 手机版:

封面图片

三星和SK海力士推12层HBM3E内存

三星和SK海力士推12层HBM3E内存 3月19日消息,三星电子和 SK 海力士3月18日在人工智能芯片巨头英伟达年度开发者大会 (GTC) 上双双公开12层堆叠动态随机存取存储器 (DRAM) 芯片的第五代高带宽存储器 (HBM3E) “HBM3E 12H DRAM”实物。高带宽存储器是指利用先进封装方法垂直堆叠多个DRAM芯片,使数据处理速度取得飞跃性提升的高性能内存。

封面图片

三星与AMD签订价值30亿美元的HBM3E 12H供货协议

三星与AMD签订价值30亿美元的HBM3E 12H供货协议 这笔交易意义重大,因为如果分析师知道内存堆栈在 AI GPU 的物料清单中占多大比例,他们就能对 AMD 准备推向市场的 AI GPU 的数量有一定的了解。考虑到竞争对手英伟达(NVIDIA)几乎只使用 SK 海力士(Hynix)生产的 HBM3E,AMD 很可能已经为三星的 HBM3E 12H 堆栈谈好了价格。随着英伟达的"Hopper"H200 系列、"Blackwell"、AMD 的 MI350X CDNA3 以及英特尔的 Gaudi 3 生成式 AI 加速器的推出,AI GPU 市场有望升温。三星于 2024 年 2 月首次推出了HBM3E 12H 内存。每个堆栈有 12 层,比第一代 HBM3E 增加了 50%,每个堆栈的密度为 36 GB。AMD CDNA3 芯片有 8 个这样的堆栈,包装上就有 288 GB 内存。AMD 预计将于 2024 年下半年推出 MI350X。这款芯片的最大亮点是采用台积电 4 纳米 EUV 代工节点制造的全新 GPU 片,这似乎是 AMD 首次推出 HBM3E 12H 的理想产品。 ... PC版: 手机版:

封面图片

NVIDIA据称正在测试SK Hynix的12层HBM3E原型样品

NVIDIA据称正在测试SK Hynix的12层HBM3E原型样品 2023 年年中的报道称,NVIDIA在夏季前后获得了8 层 HBM3E(第 4 代)单元的样品,SK Hynix 也很快收到了批准通知。另一家韩国媒体DealSite 认为,英伟达的内存认证流程暴露了多家制造商的 HBM 产量问题。SK 海力士、三星和美光在 HBM3E 领域展开了激烈的竞争,希望能将各自的产品应用到英伟达的 H200 AI GPU 上。DigiTimes Asia称,SK Hynix准备在本月某个时间点"开始量产第五代HBM3E"。业内人士认为,SK Hynix 的良品率足以通过NVIDIA的早期认证,先进的 12 层样品有望在不久的将来获得批准。ZDNet认为,SK Hynix 的发展势头使其处于有利地位:"(他们)在去年下半年提供了 8 层 HBM3E 样品,并通过了最近的测试。虽然官方时间表尚未公布,但预计最早将于本月开始量产。此外,SK Hynix 上个月还向英伟达提供了 12 层 HBM3E 样品。该样品属于极早期版本,主要用于建立新产品的标准和特性。SK Hynix 将其称为 UTV(Universal Test Vehicle)。由于海力士已经完成了 8 层 HBM3E 的性能验证,预计 12 层 HBM3E 的测试不会花费太多时间"SK Hynix副总裁最近透露,公司 2024 年的 HBM 产能已经预定一空,领导层已经在为 2025 年及以后的创新做准备。 ... PC版: 手机版:

封面图片

英伟达寻求从三星采购HBM芯片

英伟达寻求从三星采购HBM芯片 黄仁勋表示,英伟达正在对三星的HBM芯片进行资格认证,并将在未来开始使用它们。HBM已成为人工智能热潮的重要组成部分,因为与传统存储芯片相比,它提供了更快的处理速度。黄仁勋表示:“HBM是一个技术奇迹。”他补充说,HBM还可以提高能效,并且随着耗电的人工智能芯片变得更加普遍,将帮助世界保持可持续发展。SK海力士实际上是AI芯片领导者英伟达的HBM3芯片的唯一供应商。虽然没有透露新HBM3E的客户名单,但SK海力士高管透露,新芯片将首先供货英伟达并用于其最新的Blackwell GPU。三星一直在HBM上投入巨资,以追赶竞争对手。三星于2月宣布开发出HBM3E 12H,这是业界首款12层堆栈HBM3E DRAM,也是迄今为止容量最高的HBM产品。三星表示,将于今年上半年开始量产该芯片。 ... PC版: 手机版:

封面图片

美光领先于SK Hynix 和三星 启动HBM3E内存的生产

美光领先于SK Hynix 和三星 启动HBM3E内存的生产 美光透露其正在大规模生产 24 GB 8-Hi HBM3E 设备,每个设备的数据传输速率为 9.2 GT/s,峰值内存带宽超过 1.2 TB/s。与 HBM3 相比,HBM3E 将数据传输速率和峰值内存带宽提高了 44%,这对于像 NVIDIA 的 H200 这样对带宽要求极高的处理器尤为重要。NVIDIA 的 H200 产品采用 Hopper 架构,计算性能与 H100 相同。同时,它配备了 141 GB HBM3E 内存,带宽达 4.8 TB/s,比 H100 的 80 GB HBM3 和 3.35 TB/s 带宽有了显著提升。美光使用其 1β(1-beta)工艺技术生产其 HBM3E,这对该公司来说是一项重大成就,因为该公司将其最新的生产节点用于数据中心级产品,这是对制造技术的一种考验。随着美光即将于 2024 年 3 月发布 36 GB 12-Hi HBM3E 产品,代表着公司的人工智能内存路线图得到了进一步巩固,与此同时这些设备接下来将用于何处还有待观察。领先于竞争对手 SK Hynix 和三星开始量产 HBM3E 内存是美光公司取得的一项重大成就,目前美光公司在 HBM 领域占据 10% 的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。美光科技执行副总裁兼首席业务官 Sumit Sadana 表示:"美光在 HBM3E 这一里程碑上实现了三连冠:领先的上市时间、同类最佳的行业性能以及与众不同的能效特性。人工智能工作负载在很大程度上依赖于内存带宽和容量,美光通过我们业界领先的 HBM3E 和 HBM4 路线图,以及我们面向人工智能应用的全套 DRAM 和 NAND 解决方案组合,在支持未来人工智能的大幅增长方面处于非常有利的位置。" ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人