AMD新一代GPU MIX350年底推出 升级4nm、HBM3E

AMD新一代GPU MIX350年底推出 升级4nm、HBM3E 接下来的Instinct MI350,应该会继续基于CDNA3架构,或者略有改进,工艺进步为台积电4nm,内存升级为新一代HBM3E,容量更大、速度更快。NVIDIA即将出货的H200已经用上了141GB HBM3E,刚宣布的新一代B200进一步扩容到192GB HBM3E,从而抵消了AMD在容量上的优势。AMD MI350的具体内存容量不详,但肯定不会少于192GB,否则就不够竞争力了。AMD CTO Mark Papermaster之前就说过,正在准备新版MI300系列,重点升级HBM内存,但没有给出详情。值得一提的是,美国针对中国的半导体禁令不仅包括现有产品,比如AMD MI250/MI300系列、NVIDIA A100、H100/H200、B100/B200/GB200、A800/H800、4090系列,Intel Gaudi2,还直接纳入了下一代产品,这自然就包括AMD MI350系列,以及Intel刚刚宣布的Gaudi3。 ... PC版: 手机版:

相关推荐

封面图片

三星与AMD签订价值30亿美元的HBM3E 12H供货协议

三星与AMD签订价值30亿美元的HBM3E 12H供货协议 这笔交易意义重大,因为如果分析师知道内存堆栈在 AI GPU 的物料清单中占多大比例,他们就能对 AMD 准备推向市场的 AI GPU 的数量有一定的了解。考虑到竞争对手英伟达(NVIDIA)几乎只使用 SK 海力士(Hynix)生产的 HBM3E,AMD 很可能已经为三星的 HBM3E 12H 堆栈谈好了价格。随着英伟达的"Hopper"H200 系列、"Blackwell"、AMD 的 MI350X CDNA3 以及英特尔的 Gaudi 3 生成式 AI 加速器的推出,AI GPU 市场有望升温。三星于 2024 年 2 月首次推出了HBM3E 12H 内存。每个堆栈有 12 层,比第一代 HBM3E 增加了 50%,每个堆栈的密度为 36 GB。AMD CDNA3 芯片有 8 个这样的堆栈,包装上就有 288 GB 内存。AMD 预计将于 2024 年下半年推出 MI350X。这款芯片的最大亮点是采用台积电 4 纳米 EUV 代工节点制造的全新 GPU 片,这似乎是 AMD 首次推出 HBM3E 12H 的理想产品。 ... PC版: 手机版:

封面图片

三星将首秀36GB HBM3E内存:NVIDIA H200单卡就有216GB

三星将首秀36GB HBM3E内存:NVIDIA H200单卡就有216GB NVIDIA H200 AI加速卡将首发采用三星36GB HBM3E,只需要八颗,就能达成6144-bit的位宽、216GB的容量,从而超过192GB HBM3内存的AMD Instinct MI300X。H200还支持四路、八路互连,因此单系统的HBM3E内存容量可以达到864GB、1728GB!按照惯例,NVIDIA可能会出于良品率的考虑,屏蔽一小部分容量,但是单卡超过200GB、单系统超过1.6TB必然是很轻松的。按照NVIDIA的说法,H200虽然还是Hopper架构,但相比H100再次飞跃,700亿参数Llama2、1750亿参数GTP-3模型的推理性能分别提升多达90%、60%,对比前代A100 HPC模拟性能直接翻番。NVIDIA H200计划2024年第二季度出货,三星36GB HBM3E则会在第一季度投入量产,正好赶得上。 ... PC版: 手机版:

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片 HGX H200 GPU NVIDIA 今天宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。 NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前一代 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。 全球领先的服务器制造商和云服务提供商采用 H200 的系统预计将于 2024 年第二季度开始发货。

封面图片

英伟达新一代架构Blackwell来了:RTX 50、B200都要用 功耗将超1000W

英伟达新一代架构Blackwell来了:RTX 50、B200都要用 功耗将超1000W 按照最新爆料,B100将采用两个基于台积电CoWoS-L封装技术的芯片,连接到8个 8-Hi HBM3e显存堆栈,总容量为192GB,而这还不是唯一。爆料中还提到,B200的下一代Blackwell GP更新将利用12-Hi来实现更高的容量,显存达到了288GB,但不确定是否是HBM4。之前,戴尔首席运营官Jeff Clarke就曾爆料:英伟达将于2025年推出载有“Blackwell”架构的B200产品,功耗或将达到1000W。事实上基于这个架构的RTX 50系列功耗也不会太乐观,之前有消息称,RTX 5090用PCIe Gen 6的16-Pin供电接口后,功耗可以超过600W,而高端系列可以超过450W,中端功耗在300-350W之间。所以在这样架构的功耗下,RTX 5090显卡将比RTX 4090快60%到70%(近一倍)也不稀奇吧? ... PC版: 手机版:

封面图片

16-Hi堆栈和3D封装的三星HBM4内存正在开发中 将于2025年亮相

16-Hi堆栈和3D封装的三星HBM4内存正在开发中 将于2025年亮相 该公司目前的 HBM 产品组合包括作为顶级产品的 HBM3E"Shinebolt",采用 24 Gb DRAM,容量达 36 GB,传输速度达 9.8 Gbps。该内存技术采用 2.5D 封装,支持 12 Hi 的堆叠。三星 HBM 产品组合的下一个演变将以 HBM 4 的形式出现。这种特殊内存的代号目前尚不清楚,但它应该会有更大的发展。从规格开始,三星的 HBM4 内存预计将包含多达 16-Hi 堆栈,如果我们使用相同的 24 Gb 模块可以组合出高达 256 GB 的 HBM4 容量,速度非常快,而目前的峰值约为 10 Gbps。三星表示:首先是"细分"。在早期市场,硬件的通用性非常重要,但在未来,随着围绕杀手级应用的服务日趋成熟,硬件基础设施将不可避免地经历一个针对每种服务进行优化的过程。三星电子计划通过统一核心芯片、多样化封装和基础芯片(如 8H、12H 和 16H)来应对。目前,NVIDIA 的 Blackwell B100/B200和AMD 的 Instinct MI300 GPU可提供高达 192 GB 的 HBM 容量。前者采用较新的 HBM3E 标准,后者采用 HBM3 DRAM 解决方案。这两款 GPU 都有 8 个 HBM 位点,每个位点都有 12-Hi 堆栈,因此如果将这些位点升级到较新的 16-Hi 堆栈,就可以获得 256 GB 的容量。这还不算 HBM4 将推出的更密集的 DRAM 模块(24 Gb+)。如果说从下一代 HBM4 开始,为解决功耗墙问题而进行的第一次创新是从推出使用逻辑工艺的基础芯片开始的,那么随着从目前的 2.5D HBM 逐步发展到 3D HBM,将出现第二次创新。随着 DRAM 单元和逻辑的发展,预计将出现第三次创新,如 HBM-PIM。目前,我们正在与客户和合作伙伴讨论如何实现这些创新,并将积极规划和准备开拓市场。此外,HBM4 背后的另一项关键技术将是 3D 封装的利用。 最近,JEDEC 放宽了对 HBM4 内存的要求,允许公司利用现有的粘合技术。下一代 3D 封装还可能克服与混合粘合相关的一些价格问题。AMD 预计将通过 MI350 和 MI370 系列更新其 MI300产品线,这些产品线预计将增加容量,而NVIDIA则可能在 HBM4 供应稳定后更新其 Blackwell GPU,以便在未来推出速度更快的产品。 ... PC版: 手机版:

封面图片

NVIDIA官宣全新Rubin GPU、Vera CPU 3nm工艺配下代HBM4内存

NVIDIA官宣全新Rubin GPU、Vera CPU 3nm工艺配下代HBM4内存 NVIDIA现有的高性能GPU架构代号“Blackwell”,已经投产,相关产品今年陆续上市,包括用于HPC/AI领域的B200/GB200、用于游戏的RTX 50系列。2025年将看到“Blackwell Ultra”,自然是升级版本,但具体情况没有说。2026年就是全新的下一代“Rubin”,命名源于美国女天文学家Vera Rubin(薇拉·鲁宾),搭配下一代HBM4高带宽内存,8堆栈。根据曝料,Rubin架构首款产品为R100,采用台积电3nm EUV制造工艺,四重曝光技术,CoWoS-L封装,预计2025年第四季度投产。2027年则是升级版的“Rubin Ultra”,HBM4内存升级为12堆栈,容量更大,性能更高。CPU方面下代架构代号“Vera”没错,用一个名字同时覆盖GPU、CPU,真正二合一。Vera CPU、Rubin GPU组成新一代超级芯片也在规划之中,将采用第六代NVLink互连总线,带宽高达3.6TB/s。此外,NVIDIA还有新一代数据中心网卡CX9 SuperNIC,最高带宽可达1600Gbps,也就是160万兆,并搭配新的InfiniBand/以太网交换机X1600。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人