三星与AMD签订价值30亿美元的HBM3E 12H供货协议

三星与AMD签订价值30亿美元的HBM3E12H供货协议这笔交易意义重大,因为如果分析师知道内存堆栈在AIGPU的物料清单中占多大比例,他们就能对AMD准备推向市场的AIGPU的数量有一定的了解。考虑到竞争对手英伟达(NVIDIA)几乎只使用SK海力士(Hynix)生产的HBM3E,AMD很可能已经为三星的HBM3E12H堆栈谈好了价格。随着英伟达的"Hopper"H200系列、"Blackwell"、AMD的MI350XCDNA3以及英特尔的Gaudi3生成式AI加速器的推出,AIGPU市场有望升温。三星于2024年2月首次推出了HBM3E12H内存。每个堆栈有12层,比第一代HBM3E增加了50%,每个堆栈的密度为36GB。AMDCDNA3芯片有8个这样的堆栈,包装上就有288GB内存。AMD预计将于2024年下半年推出MI350X。这款芯片的最大亮点是采用台积电4纳米EUV代工节点制造的全新GPU片,这似乎是AMD首次推出HBM3E12H的理想产品。...PC版:https://www.cnbeta.com.tw/articles/soft/1428467.htm手机版:https://m.cnbeta.com.tw/view/1428467.htm

相关推荐

封面图片

三星独家供货英伟达12层HBM3E内存 SK海力士出局

三星独家供货英伟达12层HBM3E内存SK海力士出局而SK海力士因部分工程问题,未能推出12层HBM3E产品,但计划从本月末开始批量生产8层HBM3E产品。今年2月27日,三星电子官宣成功开发出业界首款36GB12H(12层堆叠)HBM3EDRAM内存。据介绍,HBM3E12H能够提供高达1280GB/s的带宽和迄今为止最大的36GB容量,相比于8层堆叠的HBM38H,在带宽和容量上提升超过50%。同时相比于8层堆叠,其AI训练速度平均提高34%,同时推理服务用户数量也可增加超过11.5倍。在此前的GTC2024大会上,英伟达正式发布了B200和GB200系列芯片。据黄仁勋介绍,B200拥有2080亿个晶体管,采用台积电4NP工艺制程,可以支持多达10万亿个参数的AI大模型,还通过单个GPU提供20petaflops的AI性能。...PC版:https://www.cnbeta.com.tw/articles/soft/1424907.htm手机版:https://m.cnbeta.com.tw/view/1424907.htm

封面图片

NVIDIA Hopper H200将于明年一季度开始采用HBM3e HBM4预计于2026年亮相

NVIDIAHopperH200将于明年一季度开始采用HBM3eHBM4预计于2026年亮相早在9月份就有消息称,三星的HBM产品已通过多项资质审核,获得了NVIDIA的信任,集邦科技目前透露,三星可能会在12月份完成升级流程,明年年初开始陆续有订单流入。除了HBM3之外,下一代HBM3e标准的采用也已步入正轨,因为业内消息人士称,美光、SK海力士和三星等供应商已经启动了HBM3e的出样过程,据说这将是决定性的一步。能否进入商用,结果可能会在2024年某个时候出现。回顾一下,HBM3e预计将在NVIDIA的BlackwellAIGPU中首次亮相,据传该GPU将于2024年第二季度推出,而在性能方面,它将通过采用小芯片设计带来决定性的每瓦性能提升。NVIDIA在2024年为计算客户制定了很多计划,该公司已经发布了H200HopperGPU,预计明年将被大规模采用,随后将推出B100“Blackwell”AIGPU,两者都将基于HBM3e内存技术。除了传统路线外,据传NVIDIA还将针对AI领域推出基于ARM的CPU,这将创造市场多元化格局,同时加剧竞争。英特尔和AMD预计还将推出各自的AI解决方案,其中值得注意的是下一代AMDInstinctGPU和采用HBM3e内存的英特尔GaudiAI加速器。最后,TrendForce给出了我们对HBM4的预期,特别是即将推出的内存标准将在板载芯片配置方面进行全面改造,因为有传言称基本逻辑芯片将采用12纳米工艺来加工晶圆,并将作为3D封装DRAM/GPU背后的工艺,在代工厂和内存供应商之间建立协作环境。HBM4有望标志着下一代计算能力的转变,也可能成为人工智能行业未来突破的关键。...PC版:https://www.cnbeta.com.tw/articles/soft/1400443.htm手机版:https://m.cnbeta.com.tw/view/1400443.htm

封面图片

三星HBM3E 12-Hi、128GB DDR5、64 TB SSD和第9代V-NAND二季度量产

三星HBM3E12-Hi、128GBDDR5、64TBSSD和第9代V-NAND二季度量产首先,三星已开始量产其HBM3E"Shinebolt"内存,本月将首先出货8-Hi堆栈,随后将在第二季度推出12-Hi变体。下一代内存解决方案将在8模块芯片(如AMD的MI300X)上提供每个堆栈36GB的容量,最高可达288GB的产品。据报道,AMD已经与三星代工厂签订了协议,后者将提供HBM3EDRAM,用于现有和下一代产品,如更新的MI350/MI370GPU,据说这些产品的内存容量都会增加。在DDR5DRAM方面,三星将于2024年第二季度推出1b(nm)32Gb内存模块,并投入量产。这些内存IC将用于开发高达128GB的模块。三星已经向客户交付了下一代DDR5解决方案的首批样品。最后,三星将在固态硬盘V-NAND领域推出64TB数据中心固态硬盘。这些固态硬盘将于2024年第二季度向客户提供样品,该公司还预计将于第三季度开始量产第9代V-NAND固态硬盘。第9代V-NAND固态硬盘将采用QLC(四层单元)设计。有报道称,TLCV-NAND(第9代)将于本月开始生产,其传输速度将提高33%,达到3200MT/s。这些固态硬盘将采用最新的PCIeGen5标准。...PC版:https://www.cnbeta.com.tw/articles/soft/1429185.htm手机版:https://m.cnbeta.com.tw/view/1429185.htm

封面图片

美光领先于SK Hynix 和三星 启动HBM3E内存的生产

美光领先于SKHynix和三星启动HBM3E内存的生产美光透露其正在大规模生产24GB8-HiHBM3E设备,每个设备的数据传输速率为9.2GT/s,峰值内存带宽超过1.2TB/s。与HBM3相比,HBM3E将数据传输速率和峰值内存带宽提高了44%,这对于像NVIDIA的H200这样对带宽要求极高的处理器尤为重要。NVIDIA的H200产品采用Hopper架构,计算性能与H100相同。同时,它配备了141GBHBM3E内存,带宽达4.8TB/s,比H100的80GBHBM3和3.35TB/s带宽有了显著提升。美光使用其1β(1-beta)工艺技术生产其HBM3E,这对该公司来说是一项重大成就,因为该公司将其最新的生产节点用于数据中心级产品,这是对制造技术的一种考验。随着美光即将于2024年3月发布36GB12-HiHBM3E产品,代表着公司的人工智能内存路线图得到了进一步巩固,与此同时这些设备接下来将用于何处还有待观察。领先于竞争对手SKHynix和三星开始量产HBM3E内存是美光公司取得的一项重大成就,目前美光公司在HBM领域占据10%的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。美光科技执行副总裁兼首席业务官SumitSadana表示:"美光在HBM3E这一里程碑上实现了三连冠:领先的上市时间、同类最佳的行业性能以及与众不同的能效特性。人工智能工作负载在很大程度上依赖于内存带宽和容量,美光通过我们业界领先的HBM3E和HBM4路线图,以及我们面向人工智能应用的全套DRAM和NAND解决方案组合,在支持未来人工智能的大幅增长方面处于非常有利的位置。"...PC版:https://www.cnbeta.com.tw/articles/soft/1420987.htm手机版:https://m.cnbeta.com.tw/view/1420987.htm

封面图片

消息称三星将向英伟达独家供应 12 层 HBM3E

消息称三星将向英伟达独家供应12层HBM3E据韩国alphabiz消息,英伟达最快将从9月开始大量购买三星电子的12层HBM3E,后者将向英伟达独家供应12层HBM3E。在日前的GTC2024中,黄仁勋曾在三星电子12层HBM3E实物产品上留下了"黄仁勋认证(JENSENAPPROVED)"的签名。SK海力士因部分工程问题,未能推出12层HBM3E产品,但计划从本月末开始批量生产8层HBM3E产品。

封面图片

三星开发业界首款36GB HBM3E存储芯片 12层堆叠

三星开发业界首款36GBHBM3E存储芯片12层堆叠三星电子存储产品规划执行副总裁YongcheolBae表示,业界AI服务供应商越来越需要更高容量的HBM,而我们开发的全新HBM3E12H产品正是为满足这一需求设计的。技术方面,三星HBM3E12H采用先进的热压非导电薄膜(TCNCF),使12层产品具有与8层HBM芯片相同的高度,以满足当前HBM封装要求。该技术预计将在未来带来更多优势,特别是更高层数堆叠方面,因为业界正在努力减轻芯片裸片变薄带来的翘曲问题。三星不断降低NCF材料的厚度,并实现了当前业界最小的芯片间隙(7微米),同时消除了层间空隙。与此前的HBM38H产品相比,新技术的进步使得垂直密度提高了20%以上。三星表示,TCNCF技术还能够通过在芯片之间使用不同大小的凸块,来改善HBM的热性能。在芯片键合层面,较小的凸块用于信号传输区域,而较大的凸块用于需要散热的区域;该方法还有助于提高产品产量。集微网了解到,英伟达目前的H200旗舰AI芯片宣布采用HBM3E存储,下一代B100预计将同样采用HBM3E,目前三大存储芯片巨头三星、SK海力士、美光均重点发力HBM。三星表示,HBM3E12H将成为未来最佳解决方案,并降低数据中心总成本(TCO)。性能方面,新产品与HBM38H相比,人工智能训练平均速度可提高34%,用于推理服务支持的用户数量最高可增加11.5倍以上。目前三星已开始向客户提供HBM3E12H样品,计划于今年上半年量产。...PC版:https://www.cnbeta.com.tw/articles/soft/1421103.htm手机版:https://m.cnbeta.com.tw/view/1421103.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人