美光2024年和2025年大部分的HBM3E供应已经售罄

美光2024年和2025年大部分的HBM3E供应已经售罄 美光公司首席执行官 Sanjay Mehrotra 在本周财报电话会议的准备发言中表示:"我们 2024 年的 HBM 已经售罄,2025 年的绝大部分供应也已经分配完毕。我们仍然预计,在 2025 年的某个时候,HBM 位数份额将与我们整体 DRAM 位数份额相当"。美光的首款 HBM3E 产品是一个 8-Hi 24 GB 堆栈,具有 1024 位接口、9.2 GT/s 数据传输速率和 1.2 TB/s 的总带宽。英伟达用于人工智能和高性能计算的H200加速器将使用6个这样的立方体,提供总计141 GB的可访问高带宽内存。Mehrotra说:"我们有望在2024财年从HBM获得数亿美元的收入,预计从第三财季开始,HBM收入将增加我们的DRAM和整体毛利率。"该公司还开始为其 12-Hi 36 GB 堆栈提供样品,容量提高了 50%。这些 KGSD 将于 2025 年量产,并将用于下一代人工智能产品。与此同时,英伟达的 B100 和 B200 看起来不会使用 36 GB HBM3E 堆栈,至少在初期不会。人工智能服务器的需求在去年创下了纪录,看来今年也将保持高位。一些分析师认为,英伟达的 A100 和 H100 处理器(以及它们的各种衍生产品)在 2023 年占据了整个人工智能处理器市场高达 80% 的份额。虽然今年英伟达在推理方面将面临来自 AMD、AWS、D-Matrix、英特尔、Tenstorrent 和其他公司更激烈的竞争,但英伟达的 H200 看起来仍将是人工智能训练的首选处理器,尤其是对于 Meta 和微软这样的大公司来说,它们已经运行着由数十万英伟达加速器组成的舰队。考虑到这一点,成为英伟达 H200 的 HBM3E 的主要供应商对美光来说是一件大事,因为它使美光最终能够在 HBM 市场上占据相当大的份额。同时,由于 HBM 堆栈中的每个 DRAM 器件都有一个较宽的接口,因此在物理尺寸上要大于普通的 DDR4 或 DDR5 IC。因此,HBM3E 内存的量产将影响美光公司商品 DRAM 的位数供应。"HBM产量的增长将限制非HBM产品的供应增长,"Mehrotra说。"从整个行业来看,在相同的技术节点上生产一定数量的位,HBM3E 消耗的晶圆供应量大约是 DDR5 的三倍。" ... PC版: 手机版:

相关推荐

封面图片

SK hynix披露2024年HBM供应已售罄 公司预计2025年业绩将大幅增长

SK hynix披露2024年HBM供应已售罄 公司预计2025年业绩将大幅增长 HBM内存的主要供货商 SK hynix 正式证实了其前几个月分析报告中"破纪录"的 HBM 销量,重申其在HBM领域的发展方针,并声称市场将出现反弹。SK hynix 副总裁 Kim Ki-tae 在一篇博客文章中分享了该公司在 HBM 市场上的做法,此外,他还重申了SK hynix迈向2024年的期望:随着生成式人工智能服务的多样化和进步,对人工智能内存解决方案 HBM 的需求也呈爆炸式增长。HBM 具有高性能和大容量的特点,是一款具有里程碑意义的产品,打破了内存半导体只是整个系统一部分的传统观念。其中,SK Hynix HBM 的竞争力尤为突出。2024 年,期待已久的"Upturn"时代即将到来。在这个新的飞跃时期,我们将全力以赴,创造最佳业绩。我希望SK hynix的成员们都能在这一年里梦想成真。此外,该公司还透露了 HBM 领域的惊人需求,声称今年的供应已经售罄,SK hynix 已经在为 2025 财年的主导地位做准备。这一点也不令人震惊,因为进入 2024 年,人工智能仍在蓬勃发展,英伟达(NVIDIA)和 AMD 等公司都在为下一代解决方案做准备,显然对 HBM 的需求也将是巨大的。随着 HBM3e 和 HBM4 产品的上市,我们可能会看到更多令人震惊的收入数字。 ... PC版: 手机版:

封面图片

三星和SK海力士推12层HBM3E内存

三星和SK海力士推12层HBM3E内存 3月19日消息,三星电子和 SK 海力士3月18日在人工智能芯片巨头英伟达年度开发者大会 (GTC) 上双双公开12层堆叠动态随机存取存储器 (DRAM) 芯片的第五代高带宽存储器 (HBM3E) “HBM3E 12H DRAM”实物。高带宽存储器是指利用先进封装方法垂直堆叠多个DRAM芯片,使数据处理速度取得飞跃性提升的高性能内存。

封面图片

NVIDIA据称正在测试SK Hynix的12层HBM3E原型样品

NVIDIA据称正在测试SK Hynix的12层HBM3E原型样品 2023 年年中的报道称,NVIDIA在夏季前后获得了8 层 HBM3E(第 4 代)单元的样品,SK Hynix 也很快收到了批准通知。另一家韩国媒体DealSite 认为,英伟达的内存认证流程暴露了多家制造商的 HBM 产量问题。SK 海力士、三星和美光在 HBM3E 领域展开了激烈的竞争,希望能将各自的产品应用到英伟达的 H200 AI GPU 上。DigiTimes Asia称,SK Hynix准备在本月某个时间点"开始量产第五代HBM3E"。业内人士认为,SK Hynix 的良品率足以通过NVIDIA的早期认证,先进的 12 层样品有望在不久的将来获得批准。ZDNet认为,SK Hynix 的发展势头使其处于有利地位:"(他们)在去年下半年提供了 8 层 HBM3E 样品,并通过了最近的测试。虽然官方时间表尚未公布,但预计最早将于本月开始量产。此外,SK Hynix 上个月还向英伟达提供了 12 层 HBM3E 样品。该样品属于极早期版本,主要用于建立新产品的标准和特性。SK Hynix 将其称为 UTV(Universal Test Vehicle)。由于海力士已经完成了 8 层 HBM3E 的性能验证,预计 12 层 HBM3E 的测试不会花费太多时间"SK Hynix副总裁最近透露,公司 2024 年的 HBM 产能已经预定一空,领导层已经在为 2025 年及以后的创新做准备。 ... PC版: 手机版:

封面图片

英伟达寻求从三星采购HBM芯片

英伟达寻求从三星采购HBM芯片 黄仁勋表示,英伟达正在对三星的HBM芯片进行资格认证,并将在未来开始使用它们。HBM已成为人工智能热潮的重要组成部分,因为与传统存储芯片相比,它提供了更快的处理速度。黄仁勋表示:“HBM是一个技术奇迹。”他补充说,HBM还可以提高能效,并且随着耗电的人工智能芯片变得更加普遍,将帮助世界保持可持续发展。SK海力士实际上是AI芯片领导者英伟达的HBM3芯片的唯一供应商。虽然没有透露新HBM3E的客户名单,但SK海力士高管透露,新芯片将首先供货英伟达并用于其最新的Blackwell GPU。三星一直在HBM上投入巨资,以追赶竞争对手。三星于2月宣布开发出HBM3E 12H,这是业界首款12层堆栈HBM3E DRAM,也是迄今为止容量最高的HBM产品。三星表示,将于今年上半年开始量产该芯片。 ... PC版: 手机版:

封面图片

三星独家供货英伟达12层HBM3E内存 SK海力士出局

三星独家供货英伟达12层HBM3E内存 SK海力士出局 而SK海力士因部分工程问题,未能推出12层HBM3E产品,但计划从本月末开始批量生产8层HBM3E产品。今年2月27日,三星电子官宣成功开发出业界首款36GB 12H(12层堆叠)HBM3E DRAM内存。据介绍,HBM3E 12H能够提供高达1280GB/s的带宽和迄今为止最大的36GB容量,相比于8层堆叠的HBM3 8H,在带宽和容量上提升超过50%。同时相比于8层堆叠,其AI训练速度平均提高34%,同时推理服务用户数量也可增加超过11.5倍。在此前的GTC2024大会上,英伟达正式发布了B200和GB200系列芯片。据黄仁勋介绍,B200拥有2080亿个晶体管,采用台积电4NP工艺制程,可以支持多达10万亿个参数的AI大模型,还通过单个GPU提供20 petaflops的AI性能。 ... PC版: 手机版:

封面图片

三星与AMD签订价值30亿美元的HBM3E 12H供货协议

三星与AMD签订价值30亿美元的HBM3E 12H供货协议 这笔交易意义重大,因为如果分析师知道内存堆栈在 AI GPU 的物料清单中占多大比例,他们就能对 AMD 准备推向市场的 AI GPU 的数量有一定的了解。考虑到竞争对手英伟达(NVIDIA)几乎只使用 SK 海力士(Hynix)生产的 HBM3E,AMD 很可能已经为三星的 HBM3E 12H 堆栈谈好了价格。随着英伟达的"Hopper"H200 系列、"Blackwell"、AMD 的 MI350X CDNA3 以及英特尔的 Gaudi 3 生成式 AI 加速器的推出,AI GPU 市场有望升温。三星于 2024 年 2 月首次推出了HBM3E 12H 内存。每个堆栈有 12 层,比第一代 HBM3E 增加了 50%,每个堆栈的密度为 36 GB。AMD CDNA3 芯片有 8 个这样的堆栈,包装上就有 288 GB 内存。AMD 预计将于 2024 年下半年推出 MI350X。这款芯片的最大亮点是采用台积电 4 纳米 EUV 代工节点制造的全新 GPU 片,这似乎是 AMD 首次推出 HBM3E 12H 的理想产品。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人