美光领先于SK Hynix 和三星 启动HBM3E内存的生产

美光领先于SK Hynix 和三星 启动HBM3E内存的生产 美光透露其正在大规模生产 24 GB 8-Hi HBM3E 设备,每个设备的数据传输速率为 9.2 GT/s,峰值内存带宽超过 1.2 TB/s。与 HBM3 相比,HBM3E 将数据传输速率和峰值内存带宽提高了 44%,这对于像 NVIDIA 的 H200 这样对带宽要求极高的处理器尤为重要。NVIDIA 的 H200 产品采用 Hopper 架构,计算性能与 H100 相同。同时,它配备了 141 GB HBM3E 内存,带宽达 4.8 TB/s,比 H100 的 80 GB HBM3 和 3.35 TB/s 带宽有了显著提升。美光使用其 1β(1-beta)工艺技术生产其 HBM3E,这对该公司来说是一项重大成就,因为该公司将其最新的生产节点用于数据中心级产品,这是对制造技术的一种考验。随着美光即将于 2024 年 3 月发布 36 GB 12-Hi HBM3E 产品,代表着公司的人工智能内存路线图得到了进一步巩固,与此同时这些设备接下来将用于何处还有待观察。领先于竞争对手 SK Hynix 和三星开始量产 HBM3E 内存是美光公司取得的一项重大成就,目前美光公司在 HBM 领域占据 10% 的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。美光科技执行副总裁兼首席业务官 Sumit Sadana 表示:"美光在 HBM3E 这一里程碑上实现了三连冠:领先的上市时间、同类最佳的行业性能以及与众不同的能效特性。人工智能工作负载在很大程度上依赖于内存带宽和容量,美光通过我们业界领先的 HBM3E 和 HBM4 路线图,以及我们面向人工智能应用的全套 DRAM 和 NAND 解决方案组合,在支持未来人工智能的大幅增长方面处于非常有利的位置。" ... PC版: 手机版:

相关推荐

封面图片

三星和SK海力士推12层HBM3E内存

三星和SK海力士推12层HBM3E内存 3月19日消息,三星电子和 SK 海力士3月18日在人工智能芯片巨头英伟达年度开发者大会 (GTC) 上双双公开12层堆叠动态随机存取存储器 (DRAM) 芯片的第五代高带宽存储器 (HBM3E) “HBM3E 12H DRAM”实物。高带宽存储器是指利用先进封装方法垂直堆叠多个DRAM芯片,使数据处理速度取得飞跃性提升的高性能内存。

封面图片

三星独家供货英伟达12层HBM3E内存 SK海力士出局

三星独家供货英伟达12层HBM3E内存 SK海力士出局 而SK海力士因部分工程问题,未能推出12层HBM3E产品,但计划从本月末开始批量生产8层HBM3E产品。今年2月27日,三星电子官宣成功开发出业界首款36GB 12H(12层堆叠)HBM3E DRAM内存。据介绍,HBM3E 12H能够提供高达1280GB/s的带宽和迄今为止最大的36GB容量,相比于8层堆叠的HBM3 8H,在带宽和容量上提升超过50%。同时相比于8层堆叠,其AI训练速度平均提高34%,同时推理服务用户数量也可增加超过11.5倍。在此前的GTC2024大会上,英伟达正式发布了B200和GB200系列芯片。据黄仁勋介绍,B200拥有2080亿个晶体管,采用台积电4NP工艺制程,可以支持多达10万亿个参数的AI大模型,还通过单个GPU提供20 petaflops的AI性能。 ... PC版: 手机版:

封面图片

SK海力士正在HBM内存芯片领域处于领先地位 三星为此撤换芯片主管

SK海力士正在HBM内存芯片领域处于领先地位 三星为此撤换芯片主管 此举是因为三星在其核心业务内存芯片的一个关键增长领域已经落后。SK Hynix 在高带宽内存或 HBM 芯片领域处于领先地位,这种芯片因用于训练人工智能模型而实现了爆炸式增长。三星最近公布了至少自 2010 年以来最快的营收增长速度,投资者越来越关注三星对其较小竞争对手的回应。这推动 SK Hynix 股价自 2024 年年初以来上涨了 36%,远远超过了变化不大的三星股价。周二,股市最初反应平淡。公告发布后,三星股价保持跌势,跌幅不到 1%。SK Hynix 是全球用于开发类似 ChatGPT 服务的内存的最大供应商。到明年,其此类芯片的生产能力几乎已被预订一空。该公司计划斥资约 146 亿美元在韩国建造一座新的综合设施,以满足对 HBM 芯片的需求,HBM 芯片与NVIDIA 公司的加速器一起用于创建和托管人工智能平台。此外,该公司还将在印第安纳州建造一座价值 40 亿美元的封装厂,这也是该公司在美国的第一座封装厂。三星公司也生产逻辑芯片并经营代工业务,它还开始了全球扩张,包括在美国芯片制造领域投资 400 亿美元。该公司表示已开始量产其最新的 HBM 产品8 层 HBM3E,并计划在第二季度量产 12 层 HBM 芯片。该公司预计,与去年相比,2024 年的 HBM 供应量将增加至少三倍。 ... PC版: 手机版:

封面图片

SK海力士全球首家量产HBM3E内存 1秒处理超1TB数据

SK海力士全球首家量产HBM3E内存 1秒处理超1TB数据 随后SK海力士发布公告称,其最新的超高性能AI内存产品HBM3E已开始量产,并将从本月下旬起向客户供货。据介绍,在存储半导体三大巨头(三星电子、SK海力士、美光)中,SK海力士是首家实现量产HBM3E供应商。HBM3E每秒可处理1.18TB数据,相当于在1秒内可处理230部全高清(FHD)级电影。在散热方面,SK海力士表示其HBM3E采用了MR-MUF技术,散热性能较上一代产品提高了 10%,从而在散热等所有方面都达到了全球最高水平。SK海力士高管表示:“公司通过全球首次HBM3E投入量产,进一步强化了领先用于AI的存储器业界的产品线。”其还表示,公司积累的HBM业务成功经验,将进一步夯实与客户的关系,并巩固全方位人工智能存储器供应商的地位。 ... PC版: 手机版:

封面图片

NVIDIA据称正在测试SK Hynix的12层HBM3E原型样品

NVIDIA据称正在测试SK Hynix的12层HBM3E原型样品 2023 年年中的报道称,NVIDIA在夏季前后获得了8 层 HBM3E(第 4 代)单元的样品,SK Hynix 也很快收到了批准通知。另一家韩国媒体DealSite 认为,英伟达的内存认证流程暴露了多家制造商的 HBM 产量问题。SK 海力士、三星和美光在 HBM3E 领域展开了激烈的竞争,希望能将各自的产品应用到英伟达的 H200 AI GPU 上。DigiTimes Asia称,SK Hynix准备在本月某个时间点"开始量产第五代HBM3E"。业内人士认为,SK Hynix 的良品率足以通过NVIDIA的早期认证,先进的 12 层样品有望在不久的将来获得批准。ZDNet认为,SK Hynix 的发展势头使其处于有利地位:"(他们)在去年下半年提供了 8 层 HBM3E 样品,并通过了最近的测试。虽然官方时间表尚未公布,但预计最早将于本月开始量产。此外,SK Hynix 上个月还向英伟达提供了 12 层 HBM3E 样品。该样品属于极早期版本,主要用于建立新产品的标准和特性。SK Hynix 将其称为 UTV(Universal Test Vehicle)。由于海力士已经完成了 8 层 HBM3E 的性能验证,预计 12 层 HBM3E 的测试不会花费太多时间"SK Hynix副总裁最近透露,公司 2024 年的 HBM 产能已经预定一空,领导层已经在为 2025 年及以后的创新做准备。 ... PC版: 手机版:

封面图片

美光2024年和2025年大部分的HBM3E供应已经售罄

美光2024年和2025年大部分的HBM3E供应已经售罄 美光公司首席执行官 Sanjay Mehrotra 在本周财报电话会议的准备发言中表示:"我们 2024 年的 HBM 已经售罄,2025 年的绝大部分供应也已经分配完毕。我们仍然预计,在 2025 年的某个时候,HBM 位数份额将与我们整体 DRAM 位数份额相当"。美光的首款 HBM3E 产品是一个 8-Hi 24 GB 堆栈,具有 1024 位接口、9.2 GT/s 数据传输速率和 1.2 TB/s 的总带宽。英伟达用于人工智能和高性能计算的H200加速器将使用6个这样的立方体,提供总计141 GB的可访问高带宽内存。Mehrotra说:"我们有望在2024财年从HBM获得数亿美元的收入,预计从第三财季开始,HBM收入将增加我们的DRAM和整体毛利率。"该公司还开始为其 12-Hi 36 GB 堆栈提供样品,容量提高了 50%。这些 KGSD 将于 2025 年量产,并将用于下一代人工智能产品。与此同时,英伟达的 B100 和 B200 看起来不会使用 36 GB HBM3E 堆栈,至少在初期不会。人工智能服务器的需求在去年创下了纪录,看来今年也将保持高位。一些分析师认为,英伟达的 A100 和 H100 处理器(以及它们的各种衍生产品)在 2023 年占据了整个人工智能处理器市场高达 80% 的份额。虽然今年英伟达在推理方面将面临来自 AMD、AWS、D-Matrix、英特尔、Tenstorrent 和其他公司更激烈的竞争,但英伟达的 H200 看起来仍将是人工智能训练的首选处理器,尤其是对于 Meta 和微软这样的大公司来说,它们已经运行着由数十万英伟达加速器组成的舰队。考虑到这一点,成为英伟达 H200 的 HBM3E 的主要供应商对美光来说是一件大事,因为它使美光最终能够在 HBM 市场上占据相当大的份额。同时,由于 HBM 堆栈中的每个 DRAM 器件都有一个较宽的接口,因此在物理尺寸上要大于普通的 DDR4 或 DDR5 IC。因此,HBM3E 内存的量产将影响美光公司商品 DRAM 的位数供应。"HBM产量的增长将限制非HBM产品的供应增长,"Mehrotra说。"从整个行业来看,在相同的技术节点上生产一定数量的位,HBM3E 消耗的晶圆供应量大约是 DDR5 的三倍。" ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人