NVIDIA据称正在测试SK Hynix的12层HBM3E原型样品

NVIDIA据称正在测试SK Hynix的12层HBM3E原型样品 2023 年年中的报道称,NVIDIA在夏季前后获得了8 层 HBM3E(第 4 代)单元的样品,SK Hynix 也很快收到了批准通知。另一家韩国媒体DealSite 认为,英伟达的内存认证流程暴露了多家制造商的 HBM 产量问题。SK 海力士、三星和美光在 HBM3E 领域展开了激烈的竞争,希望能将各自的产品应用到英伟达的 H200 AI GPU 上。DigiTimes Asia称,SK Hynix准备在本月某个时间点"开始量产第五代HBM3E"。业内人士认为,SK Hynix 的良品率足以通过NVIDIA的早期认证,先进的 12 层样品有望在不久的将来获得批准。ZDNet认为,SK Hynix 的发展势头使其处于有利地位:"(他们)在去年下半年提供了 8 层 HBM3E 样品,并通过了最近的测试。虽然官方时间表尚未公布,但预计最早将于本月开始量产。此外,SK Hynix 上个月还向英伟达提供了 12 层 HBM3E 样品。该样品属于极早期版本,主要用于建立新产品的标准和特性。SK Hynix 将其称为 UTV(Universal Test Vehicle)。由于海力士已经完成了 8 层 HBM3E 的性能验证,预计 12 层 HBM3E 的测试不会花费太多时间"SK Hynix副总裁最近透露,公司 2024 年的 HBM 产能已经预定一空,领导层已经在为 2025 年及以后的创新做准备。 ... PC版: 手机版:

相关推荐

封面图片

三星和SK海力士推12层HBM3E内存

三星和SK海力士推12层HBM3E内存 3月19日消息,三星电子和 SK 海力士3月18日在人工智能芯片巨头英伟达年度开发者大会 (GTC) 上双双公开12层堆叠动态随机存取存储器 (DRAM) 芯片的第五代高带宽存储器 (HBM3E) “HBM3E 12H DRAM”实物。高带宽存储器是指利用先进封装方法垂直堆叠多个DRAM芯片,使数据处理速度取得飞跃性提升的高性能内存。

封面图片

三星独家供货英伟达12层HBM3E内存 SK海力士出局

三星独家供货英伟达12层HBM3E内存 SK海力士出局 而SK海力士因部分工程问题,未能推出12层HBM3E产品,但计划从本月末开始批量生产8层HBM3E产品。今年2月27日,三星电子官宣成功开发出业界首款36GB 12H(12层堆叠)HBM3E DRAM内存。据介绍,HBM3E 12H能够提供高达1280GB/s的带宽和迄今为止最大的36GB容量,相比于8层堆叠的HBM3 8H,在带宽和容量上提升超过50%。同时相比于8层堆叠,其AI训练速度平均提高34%,同时推理服务用户数量也可增加超过11.5倍。在此前的GTC2024大会上,英伟达正式发布了B200和GB200系列芯片。据黄仁勋介绍,B200拥有2080亿个晶体管,采用台积电4NP工艺制程,可以支持多达10万亿个参数的AI大模型,还通过单个GPU提供20 petaflops的AI性能。 ... PC版: 手机版:

封面图片

三星 HBM3E 没过 NVIDIA 验证,原因与台积电有关

三星 HBM3E 没过 NVIDIA 验证,原因与台积电有关 外媒报导,三星至今未通过 NVIDIA 验证,是卡在台积电。身为 NVIDIA 资料中心 GPU 制造和封装厂,台积电也是 NVIDIA 验证重要参与者,传闻采合作伙伴 SK 海力士 HBM3E 验证标准,而三星制程与 SK 海力士有差异,SK 海力士采 MR-RUF,三星则是 TC-NCF,对参数多少有影响。 2024-03-14

封面图片

SK海力士将展示GDDR7、48GB 16层HBM3E和LPDDR5T-10533内存产品线

SK海力士将展示GDDR7、48GB 16层HBM3E和LPDDR5T-10533内存产品线 首先,SK 海力士将是继三星之后第二家展示 GDDR7 存储器芯片的公司。SK Hynix 芯片的速度为 35.4 Gbps,低于三星展示的 37 Gbps,但密度同样为 16 Gbit。这种密度允许在 256 位内存总线上部署 16 GB 视频内存。并不是所有的下一代 GPU 都能达到 37 Gbps 的最高速度,有些可能会以更低的显存速度运行,SK 海力士的产品线中也有合适的选择。与三星一样,SK Hynix 也采用了 PAM3 I/O 信号和专有的低功耗架构(不过该公司没有详细说明是否与三星芯片的四种低速时钟状态类似)。GDDR7 势必会在下一代游戏和专业视觉领域的显卡中占据主导地位;然而,人工智能 HPC 处理器市场仍将主要依靠 HBM3E。SK Hynix 在这方面进行了创新,并将展示全新的 16 层 48 GB(384 Gbit)HBM3E 堆栈设计,单个堆栈的速度可达 1280 GB/s。拥有四个这样堆栈的处理器将拥有 192 GB 内存,带宽为 5.12 TB/s。该堆栈采用了全功耗 TSV(硅通孔)设计和 6 相 RDQS(读取数据队列选通)方案,以优化 TSV 面积。最后,SK Hynix 还将在会上首次演示其面向智能手机、平板电脑和轻薄笔记本电脑的 LPDDR5T(LPDDR5 Turbo)内存标准。由于采用了专有的寄生电容降低技术和电压偏移校准接收器技术,该芯片可实现每引脚 10.5 Gb/s 的数据传输速率和 1.05 V 的 DRAM 电压。 ... PC版: 手机版:

封面图片

HBM制造商良品率低 难以通过NVIDIA的供应商资格测试

HBM制造商良品率低 难以通过NVIDIA的供应商资格测试 韩国知名媒体DealSite 的一篇报道披露,美光(Micron)和 SK 海力士(SK Hynix)等制造商正在为通过英伟达(NVIDIA)下一代人工智能 GPU 的资格测试而正面交锋,而低良品率似乎阻碍了它们的发展。在 HBM 领域,良品率主要与堆叠架构的复杂性有关,它涉及多个存储器层和用于层间连接的复杂硅通孔 (TSV)。这种复杂性增加了制造过程中出现缺陷的几率,与较简单的存储器设计相比,可能会降低良品率。DealSite 重申,如果其中一个 HBM 芯片有缺陷,整个堆叠就会被丢弃,由此可见制造过程有多复杂。消息人士称,目前 HBM 内存的总体良品率约为 65%,如果各公司开始提高这一数字,产量就会下降,这就是为什么实际的竞争在于找到这两个问题之间的解决方案。不过,美光(Micron)和 SK 海力士(SK Hynix)似乎在这场竞争中处于领先地位,据报道,美光已经开始为英伟达(NVIDIA)的 H200 AI GPU生产 HBM3E,因为它已经通过了NVIDIA设定的认证阶段。现在,虽然对于 HBM 制造商来说,良品率现在还不是一个大问题,但从长远来看它又可能会成为一个大问题,因为随着时间的推移,我们会看到需求的增长,最终促使对更高产量的需求。 ... PC版: 手机版:

封面图片

美光领先于SK Hynix 和三星 启动HBM3E内存的生产

美光领先于SK Hynix 和三星 启动HBM3E内存的生产 美光透露其正在大规模生产 24 GB 8-Hi HBM3E 设备,每个设备的数据传输速率为 9.2 GT/s,峰值内存带宽超过 1.2 TB/s。与 HBM3 相比,HBM3E 将数据传输速率和峰值内存带宽提高了 44%,这对于像 NVIDIA 的 H200 这样对带宽要求极高的处理器尤为重要。NVIDIA 的 H200 产品采用 Hopper 架构,计算性能与 H100 相同。同时,它配备了 141 GB HBM3E 内存,带宽达 4.8 TB/s,比 H100 的 80 GB HBM3 和 3.35 TB/s 带宽有了显著提升。美光使用其 1β(1-beta)工艺技术生产其 HBM3E,这对该公司来说是一项重大成就,因为该公司将其最新的生产节点用于数据中心级产品,这是对制造技术的一种考验。随着美光即将于 2024 年 3 月发布 36 GB 12-Hi HBM3E 产品,代表着公司的人工智能内存路线图得到了进一步巩固,与此同时这些设备接下来将用于何处还有待观察。领先于竞争对手 SK Hynix 和三星开始量产 HBM3E 内存是美光公司取得的一项重大成就,目前美光公司在 HBM 领域占据 10% 的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。美光科技执行副总裁兼首席业务官 Sumit Sadana 表示:"美光在 HBM3E 这一里程碑上实现了三连冠:领先的上市时间、同类最佳的行业性能以及与众不同的能效特性。人工智能工作负载在很大程度上依赖于内存带宽和容量,美光通过我们业界领先的 HBM3E 和 HBM4 路线图,以及我们面向人工智能应用的全套 DRAM 和 NAND 解决方案组合,在支持未来人工智能的大幅增长方面处于非常有利的位置。" ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人