三星将首秀36GB HBM3E内存:NVIDIA H200单卡就有216GB

三星将首秀36GB HBM3E内存:NVIDIA H200单卡就有216GB NVIDIA H200 AI加速卡将首发采用三星36GB HBM3E,只需要八颗,就能达成6144-bit的位宽、216GB的容量,从而超过192GB HBM3内存的AMD Instinct MI300X。H200还支持四路、八路互连,因此单系统的HBM3E内存容量可以达到864GB、1728GB!按照惯例,NVIDIA可能会出于良品率的考虑,屏蔽一小部分容量,但是单卡超过200GB、单系统超过1.6TB必然是很轻松的。按照NVIDIA的说法,H200虽然还是Hopper架构,但相比H100再次飞跃,700亿参数Llama2、1750亿参数GTP-3模型的推理性能分别提升多达90%、60%,对比前代A100 HPC模拟性能直接翻番。NVIDIA H200计划2024年第二季度出货,三星36GB HBM3E则会在第一季度投入量产,正好赶得上。 ... PC版: 手机版:

相关推荐

封面图片

美光领先于SK Hynix 和三星 启动HBM3E内存的生产

美光领先于SK Hynix 和三星 启动HBM3E内存的生产 美光透露其正在大规模生产 24 GB 8-Hi HBM3E 设备,每个设备的数据传输速率为 9.2 GT/s,峰值内存带宽超过 1.2 TB/s。与 HBM3 相比,HBM3E 将数据传输速率和峰值内存带宽提高了 44%,这对于像 NVIDIA 的 H200 这样对带宽要求极高的处理器尤为重要。NVIDIA 的 H200 产品采用 Hopper 架构,计算性能与 H100 相同。同时,它配备了 141 GB HBM3E 内存,带宽达 4.8 TB/s,比 H100 的 80 GB HBM3 和 3.35 TB/s 带宽有了显著提升。美光使用其 1β(1-beta)工艺技术生产其 HBM3E,这对该公司来说是一项重大成就,因为该公司将其最新的生产节点用于数据中心级产品,这是对制造技术的一种考验。随着美光即将于 2024 年 3 月发布 36 GB 12-Hi HBM3E 产品,代表着公司的人工智能内存路线图得到了进一步巩固,与此同时这些设备接下来将用于何处还有待观察。领先于竞争对手 SK Hynix 和三星开始量产 HBM3E 内存是美光公司取得的一项重大成就,目前美光公司在 HBM 领域占据 10% 的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。美光科技执行副总裁兼首席业务官 Sumit Sadana 表示:"美光在 HBM3E 这一里程碑上实现了三连冠:领先的上市时间、同类最佳的行业性能以及与众不同的能效特性。人工智能工作负载在很大程度上依赖于内存带宽和容量,美光通过我们业界领先的 HBM3E 和 HBM4 路线图,以及我们面向人工智能应用的全套 DRAM 和 NAND 解决方案组合,在支持未来人工智能的大幅增长方面处于非常有利的位置。" ... PC版: 手机版:

封面图片

三星独家供货英伟达12层HBM3E内存 SK海力士出局

三星独家供货英伟达12层HBM3E内存 SK海力士出局 而SK海力士因部分工程问题,未能推出12层HBM3E产品,但计划从本月末开始批量生产8层HBM3E产品。今年2月27日,三星电子官宣成功开发出业界首款36GB 12H(12层堆叠)HBM3E DRAM内存。据介绍,HBM3E 12H能够提供高达1280GB/s的带宽和迄今为止最大的36GB容量,相比于8层堆叠的HBM3 8H,在带宽和容量上提升超过50%。同时相比于8层堆叠,其AI训练速度平均提高34%,同时推理服务用户数量也可增加超过11.5倍。在此前的GTC2024大会上,英伟达正式发布了B200和GB200系列芯片。据黄仁勋介绍,B200拥有2080亿个晶体管,采用台积电4NP工艺制程,可以支持多达10万亿个参数的AI大模型,还通过单个GPU提供20 petaflops的AI性能。 ... PC版: 手机版:

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片 HGX H200 GPU NVIDIA 今天宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。 NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前一代 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。 全球领先的服务器制造商和云服务提供商采用 H200 的系统预计将于 2024 年第二季度开始发货。

封面图片

三星开发业界首款36GB HBM3E存储芯片 12层堆叠

三星开发业界首款36GB HBM3E存储芯片 12层堆叠 三星电子存储产品规划执行副总裁Yongcheol Bae表示,业界AI服务供应商越来越需要更高容量的HBM,而我们开发的全新HBM3E 12H产品正是为满足这一需求设计的。技术方面,三星HBM3E 12H采用先进的热压非导电薄膜(TC NCF),使12层产品具有与8层HBM芯片相同的高度,以满足当前HBM封装要求。该技术预计将在未来带来更多优势,特别是更高层数堆叠方面,因为业界正在努力减轻芯片裸片变薄带来的翘曲问题。三星不断降低NCF材料的厚度,并实现了当前业界最小的芯片间隙(7微米),同时消除了层间空隙。与此前的HBM3 8H产品相比,新技术的进步使得垂直密度提高了20%以上。三星表示,TC NCF技术还能够通过在芯片之间使用不同大小的凸块,来改善HBM的热性能。在芯片键合层面,较小的凸块用于信号传输区域,而较大的凸块用于需要散热的区域;该方法还有助于提高产品产量。集微网了解到,英伟达目前的H200旗舰AI芯片宣布采用HBM3E存储,下一代B100预计将同样采用HBM3E,目前三大存储芯片巨头三星、SK海力士、美光均重点发力HBM。三星表示,HBM3E 12H将成为未来最佳解决方案,并降低数据中心总成本(TCO)。性能方面,新产品与HBM3 8H相比,人工智能训练平均速度可提高34%,用于推理服务支持的用户数量最高可增加11.5倍以上。目前三星已开始向客户提供HBM3E 12H样品,计划于今年上半年量产。 ... PC版: 手机版:

封面图片

AMD新一代GPU MIX350年底推出 升级4nm、HBM3E

AMD新一代GPU MIX350年底推出 升级4nm、HBM3E 接下来的Instinct MI350,应该会继续基于CDNA3架构,或者略有改进,工艺进步为台积电4nm,内存升级为新一代HBM3E,容量更大、速度更快。NVIDIA即将出货的H200已经用上了141GB HBM3E,刚宣布的新一代B200进一步扩容到192GB HBM3E,从而抵消了AMD在容量上的优势。AMD MI350的具体内存容量不详,但肯定不会少于192GB,否则就不够竞争力了。AMD CTO Mark Papermaster之前就说过,正在准备新版MI300系列,重点升级HBM内存,但没有给出详情。值得一提的是,美国针对中国的半导体禁令不仅包括现有产品,比如AMD MI250/MI300系列、NVIDIA A100、H100/H200、B100/B200/GB200、A800/H800、4090系列,Intel Gaudi2,还直接纳入了下一代产品,这自然就包括AMD MI350系列,以及Intel刚刚宣布的Gaudi3。 ... PC版: 手机版:

封面图片

抛三星、买海力士 市场认定了HBM赢家?

抛三星、买海力士 市场认定了HBM赢家? SK海力士在外资净买入排名中上升同样引人注目,1月份时位居第三,2月份跃升至第二,本月超越现代成为最受青睐的股票。截至3月8日,SK海力士净买入额达到4900亿韩元,本月股价涨超10%,达到了171900韩元/股的新高。而三星则与SK海力士的强劲表现形成鲜明对比,本月股价略微下跌了0.14%,年内跌近7%。外资大幅抛售三星电子,1月份三星曾是最受外资欢迎的股票,到了2月份却跌至第七位,而在本月成为被外资抛售最多的股票之一。分析指出,由于英伟达业绩强劲,增加了对高带宽存储芯片(HBM)需求的预期,不少投资者转向在HBM市场拥有较大份额的SK海力士,去年其在HBM市场的份额达到54%。高盛研究员Kim Sun-woo指出:SK海力士在HBM市场的领先地位令其在AI发展趋势中受益,目前它与三星在下一代HBM技术上的差距正在扩大,这可能会进一步推动对SK海力士的需求。在HBM芯片领域,竞争已经达到了前所未有的高度。SK海力士仅今年就先进封装技术上已投资1.3万亿韩元,以提升其生产高端芯片的能力。今年它是Nvidia H100处理器的唯一HBM3芯片供应商,与英伟达签订HBM3E(H200的重要组成部分)优先供应协议。三星也在全速迎头赶上,该公司最近宣布已开发出36GB HBM3E 12H DRAM,是业内容量最大的HBM,凭借12层堆叠技术,其性能和容量可大幅提升50%以上。三星希望在今年上半年开始量产。美光也后来者居上,宣布开始量产HBM3E内存,将用于英伟达H200 AI芯片,对SK海力士和三星电子构成了挑战。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人