消息称美光HBM3E正在主要客户处进行质量评估据半导体行业消息人士透露,美光主要客户正在对美光开发的HBM3E进行质量评估。另外

None

相关推荐

封面图片

SK hynix正在为NVIDIA准备HBM3E样品

SKhynix正在为NVIDIA准备HBM3E样品SKhynix与英伟达有着现有的合作关系--它在去年抵御了激烈的竞争,此后为H100"Hopper"TensorCoreGPU生产了(当前版本)HBM3DRAM。该内存制造商希望通过第五代产品保持其在HBM市场上的领先地位--副总裁ParkMyung-soo早在4月就透露说:"我们正在准备今年下半年的8GbpsHBM3E产品样品,并准备在明年上半年进行大规模生产"。与英伟达的新合作关系可以帮助SKhynix在HBM制造领域扩大其与最近的竞争对手--三星之间的差距。...PC版:https://www.cnbeta.com.tw/articles/soft/1365867.htm手机版:https://m.cnbeta.com.tw/view/1365867.htm

封面图片

美光将于2024年初向英伟达交付HBM3E内存

美光将于2024年初向英伟达交付HBM3E内存美光公司总裁兼首席执行官SanjayMehrotra在公司财报电话会议上表示:"我们推出的HBM3E产品受到了客户的强烈关注和热捧。"美光在HBM市场上处于劣势,仅占10%的市场份额,而领先于竞争对手三星和SKHynix推出HBM3E(该公司也称之为HBM3Gen2)对美光来说是一件大事。该公司显然对其HBM3E寄予了厚望,因为这很可能使其领先于竞争对手(赢得市场份额)提供优质产品(提高收入和利润)。通常情况下,内存制造商往往不会透露其客户的名称,但这次美光强调,其HBM3E是客户路线图的一部分,并特别提到英伟达(NVIDIA)是其盟友。与此同时,NVIDIA迄今公布的唯一支持HBM3E的产品是其GraceHopperGH200计算平台,该平台采用了H100计算GPU和GraceCPU。Mehrotra说:"在整个开发过程中,我们一直与客户密切合作,并正在成为他们人工智能路线图中紧密结合的合作伙伴。美光HBM3E目前正处于英伟达计算产品的资格认证阶段,这将推动HBM3E驱动的人工智能解决方案的发展。"美光的24GBHBM3E模块基于8个堆叠的24Gbit内存模块,采用公司的1β(1-beta)制造工艺。这些模块的日期速率高达9.2GT/秒,使每个堆栈的峰值带宽达到1.2TB/秒,比目前最快的HBM3模块提高了44%。同时,该公司不会止步于基于8-Hi24Gbit的HBM3E组件。该公司已宣布计划在开始量产8-Hi24GB堆叠之后,于2024年推出容量更高的36GB12-HiHBM3E堆叠。美光首席执行官补充说:"我们预计在2024年初开始HBM3E的量产,并在2024财年实现可观的收入。"...PC版:https://www.cnbeta.com.tw/articles/soft/1387065.htm手机版:https://m.cnbeta.com.tw/view/1387065.htm

封面图片

美光领先于SK Hynix 和三星 启动HBM3E内存的生产

美光领先于SKHynix和三星启动HBM3E内存的生产美光透露其正在大规模生产24GB8-HiHBM3E设备,每个设备的数据传输速率为9.2GT/s,峰值内存带宽超过1.2TB/s。与HBM3相比,HBM3E将数据传输速率和峰值内存带宽提高了44%,这对于像NVIDIA的H200这样对带宽要求极高的处理器尤为重要。NVIDIA的H200产品采用Hopper架构,计算性能与H100相同。同时,它配备了141GBHBM3E内存,带宽达4.8TB/s,比H100的80GBHBM3和3.35TB/s带宽有了显著提升。美光使用其1β(1-beta)工艺技术生产其HBM3E,这对该公司来说是一项重大成就,因为该公司将其最新的生产节点用于数据中心级产品,这是对制造技术的一种考验。随着美光即将于2024年3月发布36GB12-HiHBM3E产品,代表着公司的人工智能内存路线图得到了进一步巩固,与此同时这些设备接下来将用于何处还有待观察。领先于竞争对手SKHynix和三星开始量产HBM3E内存是美光公司取得的一项重大成就,目前美光公司在HBM领域占据10%的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。美光科技执行副总裁兼首席业务官SumitSadana表示:"美光在HBM3E这一里程碑上实现了三连冠:领先的上市时间、同类最佳的行业性能以及与众不同的能效特性。人工智能工作负载在很大程度上依赖于内存带宽和容量,美光通过我们业界领先的HBM3E和HBM4路线图,以及我们面向人工智能应用的全套DRAM和NAND解决方案组合,在支持未来人工智能的大幅增长方面处于非常有利的位置。"...PC版:https://www.cnbeta.com.tw/articles/soft/1420987.htm手机版:https://m.cnbeta.com.tw/view/1420987.htm

封面图片

NVIDIA据称正在测试SK Hynix的12层HBM3E原型样品

NVIDIA据称正在测试SKHynix的12层HBM3E原型样品2023年年中的报道称,NVIDIA在夏季前后获得了8层HBM3E(第4代)单元的样品,SKHynix也很快收到了批准通知。另一家韩国媒体DealSite认为,英伟达的内存认证流程暴露了多家制造商的HBM产量问题。SK海力士、三星和美光在HBM3E领域展开了激烈的竞争,希望能将各自的产品应用到英伟达的H200AIGPU上。DigiTimesAsia称,SKHynix准备在本月某个时间点"开始量产第五代HBM3E"。业内人士认为,SKHynix的良品率足以通过NVIDIA的早期认证,先进的12层样品有望在不久的将来获得批准。ZDNet认为,SKHynix的发展势头使其处于有利地位:"(他们)在去年下半年提供了8层HBM3E样品,并通过了最近的测试。虽然官方时间表尚未公布,但预计最早将于本月开始量产。此外,SKHynix上个月还向英伟达提供了12层HBM3E样品。该样品属于极早期版本,主要用于建立新产品的标准和特性。SKHynix将其称为UTV(UniversalTestVehicle)。由于海力士已经完成了8层HBM3E的性能验证,预计12层HBM3E的测试不会花费太多时间"SKHynix副总裁最近透露,公司2024年的HBM产能已经预定一空,领导层已经在为2025年及以后的创新做准备。...PC版:https://www.cnbeta.com.tw/articles/soft/1422828.htm手机版:https://m.cnbeta.com.tw/view/1422828.htm

封面图片

美光2024年和2025年大部分的HBM3E供应已经售罄

美光2024年和2025年大部分的HBM3E供应已经售罄美光公司首席执行官SanjayMehrotra在本周财报电话会议的准备发言中表示:"我们2024年的HBM已经售罄,2025年的绝大部分供应也已经分配完毕。我们仍然预计,在2025年的某个时候,HBM位数份额将与我们整体DRAM位数份额相当"。美光的首款HBM3E产品是一个8-Hi24GB堆栈,具有1024位接口、9.2GT/s数据传输速率和1.2TB/s的总带宽。英伟达用于人工智能和高性能计算的H200加速器将使用6个这样的立方体,提供总计141GB的可访问高带宽内存。Mehrotra说:"我们有望在2024财年从HBM获得数亿美元的收入,预计从第三财季开始,HBM收入将增加我们的DRAM和整体毛利率。"该公司还开始为其12-Hi36GB堆栈提供样品,容量提高了50%。这些KGSD将于2025年量产,并将用于下一代人工智能产品。与此同时,英伟达的B100和B200看起来不会使用36GBHBM3E堆栈,至少在初期不会。人工智能服务器的需求在去年创下了纪录,看来今年也将保持高位。一些分析师认为,英伟达的A100和H100处理器(以及它们的各种衍生产品)在2023年占据了整个人工智能处理器市场高达80%的份额。虽然今年英伟达在推理方面将面临来自AMD、AWS、D-Matrix、英特尔、Tenstorrent和其他公司更激烈的竞争,但英伟达的H200看起来仍将是人工智能训练的首选处理器,尤其是对于Meta和微软这样的大公司来说,它们已经运行着由数十万英伟达加速器组成的舰队。考虑到这一点,成为英伟达H200的HBM3E的主要供应商对美光来说是一件大事,因为它使美光最终能够在HBM市场上占据相当大的份额。同时,由于HBM堆栈中的每个DRAM器件都有一个较宽的接口,因此在物理尺寸上要大于普通的DDR4或DDR5IC。因此,HBM3E内存的量产将影响美光公司商品DRAM的位数供应。"HBM产量的增长将限制非HBM产品的供应增长,"Mehrotra说。"从整个行业来看,在相同的技术节点上生产一定数量的位,HBM3E消耗的晶圆供应量大约是DDR5的三倍。"...PC版:https://www.cnbeta.com.tw/articles/soft/1424692.htm手机版:https://m.cnbeta.com.tw/view/1424692.htm

封面图片

美光副总裁表示,英伟达将开始在H200人工智能芯片中使用美光HBM3E。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人