三星与AMD签订价值30亿美元的HBM3E 12H供货协议

三星与AMD签订价值30亿美元的HBM3E 12H供货协议 这笔交易意义重大,因为如果分析师知道内存堆栈在 AI GPU 的物料清单中占多大比例,他们就能对 AMD 准备推向市场的 AI GPU 的数量有一定的了解。考虑到竞争对手英伟达(NVIDIA)几乎只使用 SK 海力士(Hynix)生产的 HBM3E,AMD 很可能已经为三星的 HBM3E 12H 堆栈谈好了价格。随着英伟达的"Hopper"H200 系列、"Blackwell"、AMD 的 MI350X CDNA3 以及英特尔的 Gaudi 3 生成式 AI 加速器的推出,AI GPU 市场有望升温。三星于 2024 年 2 月首次推出了HBM3E 12H 内存。每个堆栈有 12 层,比第一代 HBM3E 增加了 50%,每个堆栈的密度为 36 GB。AMD CDNA3 芯片有 8 个这样的堆栈,包装上就有 288 GB 内存。AMD 预计将于 2024 年下半年推出 MI350X。这款芯片的最大亮点是采用台积电 4 纳米 EUV 代工节点制造的全新 GPU 片,这似乎是 AMD 首次推出 HBM3E 12H 的理想产品。 ... PC版: 手机版:

相关推荐

封面图片

三星独家供货英伟达12层HBM3E内存 SK海力士出局

三星独家供货英伟达12层HBM3E内存 SK海力士出局 而SK海力士因部分工程问题,未能推出12层HBM3E产品,但计划从本月末开始批量生产8层HBM3E产品。今年2月27日,三星电子官宣成功开发出业界首款36GB 12H(12层堆叠)HBM3E DRAM内存。据介绍,HBM3E 12H能够提供高达1280GB/s的带宽和迄今为止最大的36GB容量,相比于8层堆叠的HBM3 8H,在带宽和容量上提升超过50%。同时相比于8层堆叠,其AI训练速度平均提高34%,同时推理服务用户数量也可增加超过11.5倍。在此前的GTC2024大会上,英伟达正式发布了B200和GB200系列芯片。据黄仁勋介绍,B200拥有2080亿个晶体管,采用台积电4NP工艺制程,可以支持多达10万亿个参数的AI大模型,还通过单个GPU提供20 petaflops的AI性能。 ... PC版: 手机版:

封面图片

三星和SK海力士推12层HBM3E内存

三星和SK海力士推12层HBM3E内存 3月19日消息,三星电子和 SK 海力士3月18日在人工智能芯片巨头英伟达年度开发者大会 (GTC) 上双双公开12层堆叠动态随机存取存储器 (DRAM) 芯片的第五代高带宽存储器 (HBM3E) “HBM3E 12H DRAM”实物。高带宽存储器是指利用先进封装方法垂直堆叠多个DRAM芯片,使数据处理速度取得飞跃性提升的高性能内存。

封面图片

英伟达寻求从三星采购HBM芯片

英伟达寻求从三星采购HBM芯片 黄仁勋表示,英伟达正在对三星的HBM芯片进行资格认证,并将在未来开始使用它们。HBM已成为人工智能热潮的重要组成部分,因为与传统存储芯片相比,它提供了更快的处理速度。黄仁勋表示:“HBM是一个技术奇迹。”他补充说,HBM还可以提高能效,并且随着耗电的人工智能芯片变得更加普遍,将帮助世界保持可持续发展。SK海力士实际上是AI芯片领导者英伟达的HBM3芯片的唯一供应商。虽然没有透露新HBM3E的客户名单,但SK海力士高管透露,新芯片将首先供货英伟达并用于其最新的Blackwell GPU。三星一直在HBM上投入巨资,以追赶竞争对手。三星于2月宣布开发出HBM3E 12H,这是业界首款12层堆栈HBM3E DRAM,也是迄今为止容量最高的HBM产品。三星表示,将于今年上半年开始量产该芯片。 ... PC版: 手机版:

封面图片

三星开发业界首款36GB HBM3E存储芯片 12层堆叠

三星开发业界首款36GB HBM3E存储芯片 12层堆叠 三星电子存储产品规划执行副总裁Yongcheol Bae表示,业界AI服务供应商越来越需要更高容量的HBM,而我们开发的全新HBM3E 12H产品正是为满足这一需求设计的。技术方面,三星HBM3E 12H采用先进的热压非导电薄膜(TC NCF),使12层产品具有与8层HBM芯片相同的高度,以满足当前HBM封装要求。该技术预计将在未来带来更多优势,特别是更高层数堆叠方面,因为业界正在努力减轻芯片裸片变薄带来的翘曲问题。三星不断降低NCF材料的厚度,并实现了当前业界最小的芯片间隙(7微米),同时消除了层间空隙。与此前的HBM3 8H产品相比,新技术的进步使得垂直密度提高了20%以上。三星表示,TC NCF技术还能够通过在芯片之间使用不同大小的凸块,来改善HBM的热性能。在芯片键合层面,较小的凸块用于信号传输区域,而较大的凸块用于需要散热的区域;该方法还有助于提高产品产量。集微网了解到,英伟达目前的H200旗舰AI芯片宣布采用HBM3E存储,下一代B100预计将同样采用HBM3E,目前三大存储芯片巨头三星、SK海力士、美光均重点发力HBM。三星表示,HBM3E 12H将成为未来最佳解决方案,并降低数据中心总成本(TCO)。性能方面,新产品与HBM3 8H相比,人工智能训练平均速度可提高34%,用于推理服务支持的用户数量最高可增加11.5倍以上。目前三星已开始向客户提供HBM3E 12H样品,计划于今年上半年量产。 ... PC版: 手机版:

封面图片

AMD新一代GPU MIX350年底推出 升级4nm、HBM3E

AMD新一代GPU MIX350年底推出 升级4nm、HBM3E 接下来的Instinct MI350,应该会继续基于CDNA3架构,或者略有改进,工艺进步为台积电4nm,内存升级为新一代HBM3E,容量更大、速度更快。NVIDIA即将出货的H200已经用上了141GB HBM3E,刚宣布的新一代B200进一步扩容到192GB HBM3E,从而抵消了AMD在容量上的优势。AMD MI350的具体内存容量不详,但肯定不会少于192GB,否则就不够竞争力了。AMD CTO Mark Papermaster之前就说过,正在准备新版MI300系列,重点升级HBM内存,但没有给出详情。值得一提的是,美国针对中国的半导体禁令不仅包括现有产品,比如AMD MI250/MI300系列、NVIDIA A100、H100/H200、B100/B200/GB200、A800/H800、4090系列,Intel Gaudi2,还直接纳入了下一代产品,这自然就包括AMD MI350系列,以及Intel刚刚宣布的Gaudi3。 ... PC版: 手机版:

封面图片

三星将首秀36GB HBM3E内存:NVIDIA H200单卡就有216GB

三星将首秀36GB HBM3E内存:NVIDIA H200单卡就有216GB NVIDIA H200 AI加速卡将首发采用三星36GB HBM3E,只需要八颗,就能达成6144-bit的位宽、216GB的容量,从而超过192GB HBM3内存的AMD Instinct MI300X。H200还支持四路、八路互连,因此单系统的HBM3E内存容量可以达到864GB、1728GB!按照惯例,NVIDIA可能会出于良品率的考虑,屏蔽一小部分容量,但是单卡超过200GB、单系统超过1.6TB必然是很轻松的。按照NVIDIA的说法,H200虽然还是Hopper架构,但相比H100再次飞跃,700亿参数Llama2、1750亿参数GTP-3模型的推理性能分别提升多达90%、60%,对比前代A100 HPC模拟性能直接翻番。NVIDIA H200计划2024年第二季度出货,三星36GB HBM3E则会在第一季度投入量产,正好赶得上。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人