美光2024年和2025年大部分的HBM3E供应已经售罄

美光2024年和2025年大部分的HBM3E供应已经售罄美光公司首席执行官SanjayMehrotra在本周财报电话会议的准备发言中表示:"我们2024年的HBM已经售罄,2025年的绝大部分供应也已经分配完毕。我们仍然预计,在2025年的某个时候,HBM位数份额将与我们整体DRAM位数份额相当"。美光的首款HBM3E产品是一个8-Hi24GB堆栈,具有1024位接口、9.2GT/s数据传输速率和1.2TB/s的总带宽。英伟达用于人工智能和高性能计算的H200加速器将使用6个这样的立方体,提供总计141GB的可访问高带宽内存。Mehrotra说:"我们有望在2024财年从HBM获得数亿美元的收入,预计从第三财季开始,HBM收入将增加我们的DRAM和整体毛利率。"该公司还开始为其12-Hi36GB堆栈提供样品,容量提高了50%。这些KGSD将于2025年量产,并将用于下一代人工智能产品。与此同时,英伟达的B100和B200看起来不会使用36GBHBM3E堆栈,至少在初期不会。人工智能服务器的需求在去年创下了纪录,看来今年也将保持高位。一些分析师认为,英伟达的A100和H100处理器(以及它们的各种衍生产品)在2023年占据了整个人工智能处理器市场高达80%的份额。虽然今年英伟达在推理方面将面临来自AMD、AWS、D-Matrix、英特尔、Tenstorrent和其他公司更激烈的竞争,但英伟达的H200看起来仍将是人工智能训练的首选处理器,尤其是对于Meta和微软这样的大公司来说,它们已经运行着由数十万英伟达加速器组成的舰队。考虑到这一点,成为英伟达H200的HBM3E的主要供应商对美光来说是一件大事,因为它使美光最终能够在HBM市场上占据相当大的份额。同时,由于HBM堆栈中的每个DRAM器件都有一个较宽的接口,因此在物理尺寸上要大于普通的DDR4或DDR5IC。因此,HBM3E内存的量产将影响美光公司商品DRAM的位数供应。"HBM产量的增长将限制非HBM产品的供应增长,"Mehrotra说。"从整个行业来看,在相同的技术节点上生产一定数量的位,HBM3E消耗的晶圆供应量大约是DDR5的三倍。"...PC版:https://www.cnbeta.com.tw/articles/soft/1424692.htm手机版:https://m.cnbeta.com.tw/view/1424692.htm

相关推荐

封面图片

消息称三星将向英伟达独家供应 12 层 HBM3E

消息称三星将向英伟达独家供应12层HBM3E据韩国alphabiz消息,英伟达最快将从9月开始大量购买三星电子的12层HBM3E,后者将向英伟达独家供应12层HBM3E。在日前的GTC2024中,黄仁勋曾在三星电子12层HBM3E实物产品上留下了"黄仁勋认证(JENSENAPPROVED)"的签名。SK海力士因部分工程问题,未能推出12层HBM3E产品,但计划从本月末开始批量生产8层HBM3E产品。

封面图片

美光将于2024年初向英伟达交付HBM3E内存

美光将于2024年初向英伟达交付HBM3E内存美光公司总裁兼首席执行官SanjayMehrotra在公司财报电话会议上表示:"我们推出的HBM3E产品受到了客户的强烈关注和热捧。"美光在HBM市场上处于劣势,仅占10%的市场份额,而领先于竞争对手三星和SKHynix推出HBM3E(该公司也称之为HBM3Gen2)对美光来说是一件大事。该公司显然对其HBM3E寄予了厚望,因为这很可能使其领先于竞争对手(赢得市场份额)提供优质产品(提高收入和利润)。通常情况下,内存制造商往往不会透露其客户的名称,但这次美光强调,其HBM3E是客户路线图的一部分,并特别提到英伟达(NVIDIA)是其盟友。与此同时,NVIDIA迄今公布的唯一支持HBM3E的产品是其GraceHopperGH200计算平台,该平台采用了H100计算GPU和GraceCPU。Mehrotra说:"在整个开发过程中,我们一直与客户密切合作,并正在成为他们人工智能路线图中紧密结合的合作伙伴。美光HBM3E目前正处于英伟达计算产品的资格认证阶段,这将推动HBM3E驱动的人工智能解决方案的发展。"美光的24GBHBM3E模块基于8个堆叠的24Gbit内存模块,采用公司的1β(1-beta)制造工艺。这些模块的日期速率高达9.2GT/秒,使每个堆栈的峰值带宽达到1.2TB/秒,比目前最快的HBM3模块提高了44%。同时,该公司不会止步于基于8-Hi24Gbit的HBM3E组件。该公司已宣布计划在开始量产8-Hi24GB堆叠之后,于2024年推出容量更高的36GB12-HiHBM3E堆叠。美光首席执行官补充说:"我们预计在2024年初开始HBM3E的量产,并在2024财年实现可观的收入。"...PC版:https://www.cnbeta.com.tw/articles/soft/1387065.htm手机版:https://m.cnbeta.com.tw/view/1387065.htm

封面图片

小摩:HBM3E 竞争加剧 韩国制造商 2024 年仍占据 HBM 92% 份额

小摩:HBM3E竞争加剧韩国制造商2024年仍占据HBM92%份额摩根大通近日发布存储市场报告,表示在美光宣布开始大规模生产用于英伟达H200的高带宽存储器(HBM)后,HBM3E的竞争格局正在加剧。摩根大通预计,三星电子及SK海力士HBM3E时间表与预期大致相符,并且估计当前HBM市场规模没有实质性的变化。摩根大通预计韩国内存制造商将继续在HBM市场上领先,2024年市场份额分别为SK海力士48%,三星44%,在2025年进一步演变为SK海力士47%,三星45%的市场份额。

封面图片

SK hynix披露2024年HBM供应已售罄 公司预计2025年业绩将大幅增长

SKhynix披露2024年HBM供应已售罄公司预计2025年业绩将大幅增长HBM内存的主要供货商SKhynix正式证实了其前几个月分析报告中"破纪录"的HBM销量,重申其在HBM领域的发展方针,并声称市场将出现反弹。SKhynix副总裁KimKi-tae在一篇博客文章中分享了该公司在HBM市场上的做法,此外,他还重申了SKhynix迈向2024年的期望:随着生成式人工智能服务的多样化和进步,对人工智能内存解决方案HBM的需求也呈爆炸式增长。HBM具有高性能和大容量的特点,是一款具有里程碑意义的产品,打破了内存半导体只是整个系统一部分的传统观念。其中,SKHynixHBM的竞争力尤为突出。2024年,期待已久的"Upturn"时代即将到来。在这个新的飞跃时期,我们将全力以赴,创造最佳业绩。我希望SKhynix的成员们都能在这一年里梦想成真。此外,该公司还透露了HBM领域的惊人需求,声称今年的供应已经售罄,SKhynix已经在为2025财年的主导地位做准备。这一点也不令人震惊,因为进入2024年,人工智能仍在蓬勃发展,英伟达(NVIDIA)和AMD等公司都在为下一代解决方案做准备,显然对HBM的需求也将是巨大的。随着HBM3e和HBM4产品的上市,我们可能会看到更多令人震惊的收入数字。...PC版:https://www.cnbeta.com.tw/articles/soft/1420117.htm手机版:https://m.cnbeta.com.tw/view/1420117.htm

封面图片

美光领先于SK Hynix 和三星 启动HBM3E内存的生产

美光领先于SKHynix和三星启动HBM3E内存的生产美光透露其正在大规模生产24GB8-HiHBM3E设备,每个设备的数据传输速率为9.2GT/s,峰值内存带宽超过1.2TB/s。与HBM3相比,HBM3E将数据传输速率和峰值内存带宽提高了44%,这对于像NVIDIA的H200这样对带宽要求极高的处理器尤为重要。NVIDIA的H200产品采用Hopper架构,计算性能与H100相同。同时,它配备了141GBHBM3E内存,带宽达4.8TB/s,比H100的80GBHBM3和3.35TB/s带宽有了显著提升。美光使用其1β(1-beta)工艺技术生产其HBM3E,这对该公司来说是一项重大成就,因为该公司将其最新的生产节点用于数据中心级产品,这是对制造技术的一种考验。随着美光即将于2024年3月发布36GB12-HiHBM3E产品,代表着公司的人工智能内存路线图得到了进一步巩固,与此同时这些设备接下来将用于何处还有待观察。领先于竞争对手SKHynix和三星开始量产HBM3E内存是美光公司取得的一项重大成就,目前美光公司在HBM领域占据10%的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。美光科技执行副总裁兼首席业务官SumitSadana表示:"美光在HBM3E这一里程碑上实现了三连冠:领先的上市时间、同类最佳的行业性能以及与众不同的能效特性。人工智能工作负载在很大程度上依赖于内存带宽和容量,美光通过我们业界领先的HBM3E和HBM4路线图,以及我们面向人工智能应用的全套DRAM和NAND解决方案组合,在支持未来人工智能的大幅增长方面处于非常有利的位置。"...PC版:https://www.cnbeta.com.tw/articles/soft/1420987.htm手机版:https://m.cnbeta.com.tw/view/1420987.htm

封面图片

三星与AMD签订价值30亿美元的HBM3E 12H供货协议

三星与AMD签订价值30亿美元的HBM3E12H供货协议这笔交易意义重大,因为如果分析师知道内存堆栈在AIGPU的物料清单中占多大比例,他们就能对AMD准备推向市场的AIGPU的数量有一定的了解。考虑到竞争对手英伟达(NVIDIA)几乎只使用SK海力士(Hynix)生产的HBM3E,AMD很可能已经为三星的HBM3E12H堆栈谈好了价格。随着英伟达的"Hopper"H200系列、"Blackwell"、AMD的MI350XCDNA3以及英特尔的Gaudi3生成式AI加速器的推出,AIGPU市场有望升温。三星于2024年2月首次推出了HBM3E12H内存。每个堆栈有12层,比第一代HBM3E增加了50%,每个堆栈的密度为36GB。AMDCDNA3芯片有8个这样的堆栈,包装上就有288GB内存。AMD预计将于2024年下半年推出MI350X。这款芯片的最大亮点是采用台积电4纳米EUV代工节点制造的全新GPU片,这似乎是AMD首次推出HBM3E12H的理想产品。...PC版:https://www.cnbeta.com.tw/articles/soft/1428467.htm手机版:https://m.cnbeta.com.tw/view/1428467.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人