AMD新一代GPU MIX350年底推出 升级4nm、HBM3E

AMD新一代GPU MIX350年底推出 升级4nm、HBM3E 接下来的Instinct MI350,应该会继续基于CDNA3架构,或者略有改进,工艺进步为台积电4nm,内存升级为新一代HBM3E,容量更大、速度更快。NVIDIA即将出货的H200已经用上了141GB HBM3E,刚宣布的新一代B200进一步扩容到192GB HBM3E,从而抵消了AMD在容量上的优势。AMD MI350的具体内存容量不详,但肯定不会少于192GB,否则就不够竞争力了。AMD CTO Mark Papermaster之前就说过,正在准备新版MI300系列,重点升级HBM内存,但没有给出详情。值得一提的是,美国针对中国的半导体禁令不仅包括现有产品,比如AMD MI250/MI300系列、NVIDIA A100、H100/H200、B100/B200/GB200、A800/H800、4090系列,Intel Gaudi2,还直接纳入了下一代产品,这自然就包括AMD MI350系列,以及Intel刚刚宣布的Gaudi3。 ... PC版: 手机版:

相关推荐

封面图片

三星与AMD签订价值30亿美元的HBM3E 12H供货协议

三星与AMD签订价值30亿美元的HBM3E 12H供货协议 这笔交易意义重大,因为如果分析师知道内存堆栈在 AI GPU 的物料清单中占多大比例,他们就能对 AMD 准备推向市场的 AI GPU 的数量有一定的了解。考虑到竞争对手英伟达(NVIDIA)几乎只使用 SK 海力士(Hynix)生产的 HBM3E,AMD 很可能已经为三星的 HBM3E 12H 堆栈谈好了价格。随着英伟达的"Hopper"H200 系列、"Blackwell"、AMD 的 MI350X CDNA3 以及英特尔的 Gaudi 3 生成式 AI 加速器的推出,AI GPU 市场有望升温。三星于 2024 年 2 月首次推出了HBM3E 12H 内存。每个堆栈有 12 层,比第一代 HBM3E 增加了 50%,每个堆栈的密度为 36 GB。AMD CDNA3 芯片有 8 个这样的堆栈,包装上就有 288 GB 内存。AMD 预计将于 2024 年下半年推出 MI350X。这款芯片的最大亮点是采用台积电 4 纳米 EUV 代工节点制造的全新 GPU 片,这似乎是 AMD 首次推出 HBM3E 12H 的理想产品。 ... PC版: 手机版:

封面图片

新一代人工智能芯片有望助力HBM产业到2025年实现收入再翻番

新一代人工智能芯片有望助力HBM产业到2025年实现收入再翻番 从目前的格局来看,三星、SK hynix 和美光是 HBM 市场上的三大"巨头",它们在未来一段时间内也将占据主导地位,这得益于这些公司的持续发展,特别是 HBM4 等下一代工艺的发展受到了业界的极大关注。有鉴于此,市场研究机构 Gartner 发布报告称,到 2025 年,HBM 市场规模将达到 49.76 亿美元,与 2023 年相比几乎翻了两番。这一估算完全基于当前和预期的行业需求,没有任何意外,因为 HBM 销量最大的关键领域是其在人工智能 GPU 中的应用。正如过去多次报道的那样,AI GPU 需求的突然上升造成了市场上 HBM 的短缺,因为 HBM 是构成 AI 油门的主要组件。人们对 HBM 的未来也非常乐观,因为根据之前的报道,行业确实正在向更新的标准发展,HBM3e 和 HBM4 等标准将被制造商广泛采用。英伟达在 2024 年为客户安排了很多计划,该公司已经发布了 H200 Hopper GPU,预计明年将实现大规模采用,随后还将发布 B100"Blackwell"AI GPU,这两款产品都将基于 HBM3e 内存技术。AMD 阵营也出现了类似的情况,其下一代 AMD Instinct GPU 将首次采用较新的 HBM 类型。 ... PC版: 手机版:

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片 HGX H200 GPU NVIDIA 今天宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。 NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前一代 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。 全球领先的服务器制造商和云服务提供商采用 H200 的系统预计将于 2024 年第二季度开始发货。

封面图片

AMD下一代CPU/GPU将引入三星4nm工艺

AMD下一代CPU/GPU将引入三星4nm工艺 近日有网友透露,AMD将采用三星4nm工艺制造客户端CPU和GPU芯片,首先引入的是低端APU芯片,并计划中长期内生产GPU芯片。AMD计划今年到明年推出一系列APU,主要针对移动平台,包括Strix Point、Kracken Point和Fire range等,有着较大的产能需求,且低端芯片对成本也更加敏感。为了争取更多订单,三星都倾向于给予更大的折扣优惠。之前曾传出,新一代Steam Deck将搭载AMD新款定制芯片,名为“Sonoma Valley”,采用Zen 5c架构内核,并选择三星4nm工艺。GPU方面,AMD接下来会引入RDNA 3+架构,比如用于Strix Point,暂时不清楚是否会有独立显卡采用的相同架构芯片。至于RDNA 4架构GPU,应该还会是继续由台积电代工。有消息称,AMD最初计划让三星为索尼PlayStation 5 Pro生产APU,但是后来取消了,不知道是性能或者功耗的问题,还是良品率导致成本的问题。 ... PC版: 手机版:

封面图片

AMD公布AI加速卡路线图:紧随NVIDIA每年一更新 2025年就出CDNA4架构

AMD公布AI加速卡路线图:紧随NVIDIA每年一更新 2025年就出CDNA4架构 这款加速卡将配备高达288GB的HBM3E内存和6TB/s的内存带宽,提供1.3PFLOPs的FP16和2.6PFLOPs的FP8计算性能,能够处理高达1万亿参数的服务器。AMD还将在2025年推出的MI350系列,该系列将基于下一代CDNA 4架构,并与OAM兼容。MI350系列将基于3nm工艺技术,同样提供高达288GB的HBM3E内存,并支持FP4/FP6数据类型。2026年,AMD计划推出基于全新CDNA架构,简称为"CDNA Next"的MI400系列。在性能方面,CDNA 3架构预计将比CDNA 2提高8倍,而CDNA 4架构预计将比CDNA 3提供大约35倍的AI推理性能提升。AMD还分享了与NVIDIA Blackwell B200 GPU的比较数据,MI350系列预计将提供比B200多50%的内存和多20%的计算TFLOPs。AMD还重申了上周公布的UALink(Ultra Accelerator Link)的最新消息,这是一个由多家厂商包括微软、英特尔、思科、博通、Meta、惠普等共同开发的新型高性能、开放和可扩展的AI互连基础设施。 ... PC版: 手机版:

封面图片

16-Hi堆栈和3D封装的三星HBM4内存正在开发中 将于2025年亮相

16-Hi堆栈和3D封装的三星HBM4内存正在开发中 将于2025年亮相 该公司目前的 HBM 产品组合包括作为顶级产品的 HBM3E"Shinebolt",采用 24 Gb DRAM,容量达 36 GB,传输速度达 9.8 Gbps。该内存技术采用 2.5D 封装,支持 12 Hi 的堆叠。三星 HBM 产品组合的下一个演变将以 HBM 4 的形式出现。这种特殊内存的代号目前尚不清楚,但它应该会有更大的发展。从规格开始,三星的 HBM4 内存预计将包含多达 16-Hi 堆栈,如果我们使用相同的 24 Gb 模块可以组合出高达 256 GB 的 HBM4 容量,速度非常快,而目前的峰值约为 10 Gbps。三星表示:首先是"细分"。在早期市场,硬件的通用性非常重要,但在未来,随着围绕杀手级应用的服务日趋成熟,硬件基础设施将不可避免地经历一个针对每种服务进行优化的过程。三星电子计划通过统一核心芯片、多样化封装和基础芯片(如 8H、12H 和 16H)来应对。目前,NVIDIA 的 Blackwell B100/B200和AMD 的 Instinct MI300 GPU可提供高达 192 GB 的 HBM 容量。前者采用较新的 HBM3E 标准,后者采用 HBM3 DRAM 解决方案。这两款 GPU 都有 8 个 HBM 位点,每个位点都有 12-Hi 堆栈,因此如果将这些位点升级到较新的 16-Hi 堆栈,就可以获得 256 GB 的容量。这还不算 HBM4 将推出的更密集的 DRAM 模块(24 Gb+)。如果说从下一代 HBM4 开始,为解决功耗墙问题而进行的第一次创新是从推出使用逻辑工艺的基础芯片开始的,那么随着从目前的 2.5D HBM 逐步发展到 3D HBM,将出现第二次创新。随着 DRAM 单元和逻辑的发展,预计将出现第三次创新,如 HBM-PIM。目前,我们正在与客户和合作伙伴讨论如何实现这些创新,并将积极规划和准备开拓市场。此外,HBM4 背后的另一项关键技术将是 3D 封装的利用。 最近,JEDEC 放宽了对 HBM4 内存的要求,允许公司利用现有的粘合技术。下一代 3D 封装还可能克服与混合粘合相关的一些价格问题。AMD 预计将通过 MI350 和 MI370 系列更新其 MI300产品线,这些产品线预计将增加容量,而NVIDIA则可能在 HBM4 供应稳定后更新其 Blackwell GPU,以便在未来推出速度更快的产品。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人