新一代人工智能芯片有望助力HBM产业到2025年实现收入再翻番

新一代人工智能芯片有望助力HBM产业到2025年实现收入再翻番 从目前的格局来看,三星、SK hynix 和美光是 HBM 市场上的三大"巨头",它们在未来一段时间内也将占据主导地位,这得益于这些公司的持续发展,特别是 HBM4 等下一代工艺的发展受到了业界的极大关注。有鉴于此,市场研究机构 Gartner 发布报告称,到 2025 年,HBM 市场规模将达到 49.76 亿美元,与 2023 年相比几乎翻了两番。这一估算完全基于当前和预期的行业需求,没有任何意外,因为 HBM 销量最大的关键领域是其在人工智能 GPU 中的应用。正如过去多次报道的那样,AI GPU 需求的突然上升造成了市场上 HBM 的短缺,因为 HBM 是构成 AI 油门的主要组件。人们对 HBM 的未来也非常乐观,因为根据之前的报道,行业确实正在向更新的标准发展,HBM3e 和 HBM4 等标准将被制造商广泛采用。英伟达在 2024 年为客户安排了很多计划,该公司已经发布了 H200 Hopper GPU,预计明年将实现大规模采用,随后还将发布 B100"Blackwell"AI GPU,这两款产品都将基于 HBM3e 内存技术。AMD 阵营也出现了类似的情况,其下一代 AMD Instinct GPU 将首次采用较新的 HBM 类型。 ... PC版: 手机版:

相关推荐

封面图片

台积电与SK hynix 结成AI战略联盟 共同推进面向下一代GPU的HBM4存储

台积电与SK hynix 结成AI战略联盟 共同推进面向下一代GPU的HBM4存储 目前,人工智能产业正在蓬勃发展,就财务方面而言,丰厚的收入吸引了我们能想到的所有大型科技公司。台积电和 SK hynix 是提供行业所需的基本要素的两家主要企业,一家在半导体领域遥遥领先,另一家则在 HBM 供应方面独领风骚。据报道,这两家公司已结成"渐进式"联盟,旨在联合开发下一代产品,最终使它们成为市场的焦点。Pulse News的报道披露,名为"One Team"的新联盟已经生效,目的是通过抢先开发新产品来挫败行业竞争。这次的主要重点是开发下一代 HBM 内存,即最先进的 HBM4,它在革新人工智能领域的计算能力方面潜力巨大,有望为英伟达下一代人工智能 GPU 提供存储支持,台积电的加入可能会催化这家韩国巨头在市场上的影响力。还有人说,结盟是为了对抗三星电子对市场日益增长的影响力,因为三星同时拥有半导体和存储器设施,这也是参与人工智能竞赛的公司青睐三星的原因,因为这样可以减少供应链的复杂性。现在,台积电和 SK hynix 作为一个整体运作,竞争将变得更加激烈和有趣。HBM4 的开发将加速NVIDIA和AMD下一代 GPU 的发展。预计 NVIDIA 将在其即将推出的 H200 和 B100 GPU中使用 HBM3E,但我们可以看到未来的 Blackwell 变体和下一代 Vera Rubin 芯片将充分发挥新 HBM 标准的潜力。 ... PC版: 手机版:

封面图片

消息称三星电子新设HBM芯片开发团队

消息称三星电子新设HBM芯片开发团队 三星电子副总裁、高性能DRAM设计专家Sohn Young-soo将领导该团队。新团队将专注于下一代HBM4产品以及HBM3和HBM3E产品的研发。此举表明,三星电子将加强对HBM的研发结构。该公司已开发出了业界领先的12层HBM3E产品,并通过了英伟达的质量测试。但该市场一直由三星的竞争对手SK海力士凭借其最新的HBM3E而占据主导地位。为巩固自己的地位,三星电子还重组了先进封装团队和设备技术实验室,以提高整体技术竞争力。最新的举措是为了提高三星在蓬勃发展的HBM市场上的竞争力。 ... PC版: 手机版:

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片 HGX H200 GPU NVIDIA 今天宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。 NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前一代 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。 全球领先的服务器制造商和云服务提供商采用 H200 的系统预计将于 2024 年第二季度开始发货。

封面图片

AMD新一代GPU MIX350年底推出 升级4nm、HBM3E

AMD新一代GPU MIX350年底推出 升级4nm、HBM3E 接下来的Instinct MI350,应该会继续基于CDNA3架构,或者略有改进,工艺进步为台积电4nm,内存升级为新一代HBM3E,容量更大、速度更快。NVIDIA即将出货的H200已经用上了141GB HBM3E,刚宣布的新一代B200进一步扩容到192GB HBM3E,从而抵消了AMD在容量上的优势。AMD MI350的具体内存容量不详,但肯定不会少于192GB,否则就不够竞争力了。AMD CTO Mark Papermaster之前就说过,正在准备新版MI300系列,重点升级HBM内存,但没有给出详情。值得一提的是,美国针对中国的半导体禁令不仅包括现有产品,比如AMD MI250/MI300系列、NVIDIA A100、H100/H200、B100/B200/GB200、A800/H800、4090系列,Intel Gaudi2,还直接纳入了下一代产品,这自然就包括AMD MI350系列,以及Intel刚刚宣布的Gaudi3。 ... PC版: 手机版:

封面图片

SK hynix宣布与台积电合作开发用于HBM4存储芯片的封装技术

SK hynix宣布与台积电合作开发用于HBM4存储芯片的封装技术 SK hynix 表示,与全球顶级代工厂台积电的合作将带来更多的 HBM 技术创新。通过产品设计、代工厂和存储器供应商之间的三方合作,此次合作有望在存储器性能方面实现突破。两家公司将首先致力于提高安装在 HBM 封装最底部的基础芯片的性能。HBM 是在采用 TSV 技术的基底芯片上堆叠核心 DRAM 芯片,并通过 TSV 将 DRAM 堆叠中的固定层数与核心芯片垂直连接成 HBM 封装。位于底部的基础芯片连接到 GPU,由 GPU 控制 HBM。SK hynix 采用专有技术制造 HBM3E 以下的基础芯片,但计划在 HBM4 的基础芯片上采用台积电的先进逻辑工艺,这样就可以在有限的空间内封装更多的功能。这也有助于 SK hynix 生产定制的 HBM,满足客户对性能和能效的需求。SK hynix和台积电还同意合作优化SK hynix的HBM和台积电的CoWoS技术的整合,同时合作应对客户在HBM方面的共同要求。K hynix 总裁兼 AI Infra 负责人 Justin Kim 说:"我们期待与台积电建立强大的合作伙伴关系,帮助我们加快与客户的开放式合作,并开发出业界性能最佳的 HBM4。有了这次合作,我们将通过增强在定制存储器平台领域的竞争力,进一步巩固我们作为全面人工智能存储器供应商的市场领导地位。""多年来,台积电和 SK hynix 已经建立了牢固的合作伙伴关系。多年来,台积电与SK hynix已经建立了稳固的合作关系,我们共同致力于整合最先进的逻辑和最先进的HBM,提供全球领先的人工智能解决方案。展望下一代 HBM4,我们有信心继续紧密合作,提供最佳集成解决方案,为我们的共同客户开启新的人工智能创新。" ... PC版: 手机版:

封面图片

16-Hi堆栈和3D封装的三星HBM4内存正在开发中 将于2025年亮相

16-Hi堆栈和3D封装的三星HBM4内存正在开发中 将于2025年亮相 该公司目前的 HBM 产品组合包括作为顶级产品的 HBM3E"Shinebolt",采用 24 Gb DRAM,容量达 36 GB,传输速度达 9.8 Gbps。该内存技术采用 2.5D 封装,支持 12 Hi 的堆叠。三星 HBM 产品组合的下一个演变将以 HBM 4 的形式出现。这种特殊内存的代号目前尚不清楚,但它应该会有更大的发展。从规格开始,三星的 HBM4 内存预计将包含多达 16-Hi 堆栈,如果我们使用相同的 24 Gb 模块可以组合出高达 256 GB 的 HBM4 容量,速度非常快,而目前的峰值约为 10 Gbps。三星表示:首先是"细分"。在早期市场,硬件的通用性非常重要,但在未来,随着围绕杀手级应用的服务日趋成熟,硬件基础设施将不可避免地经历一个针对每种服务进行优化的过程。三星电子计划通过统一核心芯片、多样化封装和基础芯片(如 8H、12H 和 16H)来应对。目前,NVIDIA 的 Blackwell B100/B200和AMD 的 Instinct MI300 GPU可提供高达 192 GB 的 HBM 容量。前者采用较新的 HBM3E 标准,后者采用 HBM3 DRAM 解决方案。这两款 GPU 都有 8 个 HBM 位点,每个位点都有 12-Hi 堆栈,因此如果将这些位点升级到较新的 16-Hi 堆栈,就可以获得 256 GB 的容量。这还不算 HBM4 将推出的更密集的 DRAM 模块(24 Gb+)。如果说从下一代 HBM4 开始,为解决功耗墙问题而进行的第一次创新是从推出使用逻辑工艺的基础芯片开始的,那么随着从目前的 2.5D HBM 逐步发展到 3D HBM,将出现第二次创新。随着 DRAM 单元和逻辑的发展,预计将出现第三次创新,如 HBM-PIM。目前,我们正在与客户和合作伙伴讨论如何实现这些创新,并将积极规划和准备开拓市场。此外,HBM4 背后的另一项关键技术将是 3D 封装的利用。 最近,JEDEC 放宽了对 HBM4 内存的要求,允许公司利用现有的粘合技术。下一代 3D 封装还可能克服与混合粘合相关的一些价格问题。AMD 预计将通过 MI350 和 MI370 系列更新其 MI300产品线,这些产品线预计将增加容量,而NVIDIA则可能在 HBM4 供应稳定后更新其 Blackwell GPU,以便在未来推出速度更快的产品。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人