第一财经 - 直播区<b>AMD发布全新AI芯片:用更少的GPU训练更多模型 |</b> AMD在周二展示了其即将推出的GPU专

第一财经 - 直播区 <b>AMD发布全新AI芯片:用更少的GPU训练更多模型 |</b> AMD在周二展示了其即将推出的GPU专用的MI300X AI芯片(其称为加速器),该加速器可以加快ChatGPT和其他聊...| #财经 #新闻 #资讯

相关推荐

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60% 在美国加州圣何塞举行的 AI 特别活动中,AMD 宣布正式推出其旗舰 AI GPU 加速器 MI300X,并称其性能比英伟达的 H100 芯片提高了 60%。 据 AMD 介绍,新芯片为性能最高的芯片,拥有超过 1500 亿个晶体管。与英伟达 H100 芯片相比,AMD 新芯片的内存为其 2.4 倍,内存带宽为其 1.6 倍,训练性能与 H100 芯片相当,在运行 AI 模型方面则比英伟达快得多。 、

封面图片

调查:AMD AI 芯片 Instinct MI300X 吸引大量用户弃用英伟达

调查:AMD AI 芯片 Instinct MI300X 吸引大量用户弃用英伟达 TensorWave 联合创始人 Jeff Tatarchuk 透露,他们进行了一项独立调查,涵盖 82 名工程师和人工智能专业人士。其中,约有 50% 的受访者表示他们对 AMD Instinct MI300X GPU 充满信心,因为相比于英伟达的 H100 系列产品,MI300X 不仅拥有更出色的性价比,而且供应充足,避免了遇到货源紧张的问题。Jeff 还提到,TensorWave 公司也将采用 MI300X 人工智能加速器。这对于 AMD 来说无疑是个好消息,因为以往其 Instinct 系列产品相比英伟达的竞品,市场占有率一直处于劣势。

封面图片

AMD MI300X加速GPU买家首秀

AMD MI300X加速GPU买家首秀 他们使用的是八路并行配置,单系统就有八块这样的加速器,从截图里就可以看到八块卡,只不过都处于空闲状态,并未火力全开。早在去年7月,美国能源部旗下的劳伦斯利弗莫尔国家实验室(LLNA)就宣布,全新的“El Capitan”(酋长岩)超算已开始安装MI300A加速器,将在2024年满血上线,预计性能超过200亿亿次浮点计算每秒。如今,小客户也拿到了MI300加速器,显然产能已经上来,可以批量供货了,对AMD来说非常关键。AMD此前曾预计,MI300系列加速器将成为公司历史上最快达到1亿美元收入的产品。AMD MI300X集成八个5nm XCD加速计算模块,共计304个计算单元,搭配四个6nm IOD模块,集成256MB无限缓存,还有八颗共192GB HBM3内存,总计1530亿个晶体管。按照官方说法,MI300X的性能可以超过NVIDIA H100 80GB。MI300A是全球首款面向AI、HPC的APU加速器,配置六个XCD模块、228个计算单元,以及三个CCD哦快、24个Zen4 CPU核心,搭配128GB HBM3内存,总计1460亿个晶体管。 ... PC版: 手机版:

封面图片

AMD专利揭示未来RDNA架构的独特"多芯片"GPU方法

AMD专利揭示未来RDNA架构的独特"多芯片"GPU方法 AMD 是在多芯片设计方面经验丰富的半导体公司之一,因为他们的 Instinct MI200 AI 加速器系列率先采用了 MCM 设计,在单个封装上堆叠了多个芯片,如 GPC(图形处理内核)、HBM 堆栈和 I/O 芯片。该公司还率先在其最新的 RDNA 3 架构上采用了 MCM 解决方案,如 Navi 31。然而,凭借这项新专利,AMD希望将这一理念转化为主流的"RDNA"架构,具体方法如下。该专利描述了芯片组利用的三种不同"模式",其区别在于如何分配资源并进行管理。该专利揭示了三种不同的模式,第一种是"单 GPU"模式,这与现代 GPU 的功能非常相似。所有板载芯片将作为一个统一的处理单元,在协作环境中共享资源。第二种模式被称为"独立模式",在这种模式下,单个芯片将独立运行,通过专用的前端芯片负责为其相关的着色器引擎芯片调度任务。第三种模式是最有前景的,被称为"混合模式",在这种模式下,芯片既可以独立运行,也可以共存。它充分利用了统一处理和独立处理的优势,提供了可扩展性和高效的资源利用率。该专利没有透露 AMD 采用 MCM 设计的细节,因此我们无法评论AMD是否会决定采用专利中提到的想法。不过,从总体上讲,多芯片配置虽然可以提高性能和可扩展性,但生产起来却要复杂得多,需要高端设备和工艺,最终也会增加成本。以下是该专利对多芯片方法的描述:通过将 GPU 分成多个 GPU 芯片,处理系统可根据运行模式灵活、经济地配置活动 GPU 物理资源的数量。此外,可配置数量的 GPU 芯片被组装到单个 GPU 中,这样就可以使用少量的分带组装出具有不同数量 GPU 芯片的多个不同 GPU,并且可以用实现不同技术世代的 GPU 芯片构建多芯片 GPU。目前,AMD 在消费级市场还没有合适的多 GPU 芯片解决方案。Navi 31 GPU 在很大程度上仍是采用单 GCD 的单片设计,但承载无限缓存和内存控制器的 MCD 已被移至芯片组封装。随着下一代 RDNA 架构的推出,我们可以预见 AMD 将更加注重多芯片封装,多个 GCD 将拥有各自专用的着色器引擎块。AMD 曾计划在RDNA4 系列中采用 Navi 4X/Navi 4C这样的 GPU,但据说该计划已被取消,转而采用更主流的单片封装。 ... PC版: 手机版:

封面图片

微软成AMD AI GPU最大买家 定价是H100四分之一

微软成AMD AI GPU最大买家 定价是H100四分之一 据Seeking Alpha报道,根据花旗集团的分析报告,显示微软的数据中心部门是Instinct MI300X的最大买家,已开始为GPT-4这类大型语言模型(LLM)工作。此前AMD首席执行官苏姿丰博士表示,AMD在2024年AI芯片的销售额预计将达到35亿美元,高于之前20亿美元的预期。虽然AMD没有公开Instinct MI300X的定价,不过有知情人士透露,每块计算卡的售价为1.5万美元,相比于英伟达的产品是比较实惠的。目前H100 PCIe 80GB HBM2E版本在市场上的售价大概为3万美元到4万美元,甚至更高一些,而性能更强的H100 SXM5 80GB HBM3版本的定价则更高。花旗集团的分析师表示,Instinct MI300X的定价或仅为后者的四分之一。此前AMD首席执行官苏姿丰博士表示,AMD在2024年AI芯片的销售额预计将达到35亿美元,高于之前20亿美元的预期。Instinct MI300X采用了小芯片设计,混用5nm和6nm工艺,晶体管数量达到了1530亿个。其使用了第四代Infinity Fabric解决方案,共有28个模块芯片,其中包括8个HBM和4个计算芯片,而每个计算芯片拥有2个基于CDNA 3架构的GCD,共80个计算单元,意味着有320个计算单元和20480个流处理器。出于良品率的考虑,AMD削减了部分计算单元,实际使用数量为304个计算单元和19456个流处理器。此外,HBM3容量达到192GB,提供了5.3TB/s的内存带宽和896GB/s的Infinity Fabric带宽。 ... PC版: 手机版:

封面图片

英特尔、AMD、微软、博通等科技巨头组建行业小组UALink

英特尔、AMD、微软、博通等科技巨头组建行业小组UALink UALink推广小组周四宣布成立,其成员还包括AMD、惠普企业、博通和思科。该小组提出了一个新的行业标准,用于连接服务器中越来越多的AI加速器芯片。广义上讲,AI加速器是从GPU到为加速AI模型的训练、微调和运行而定制设计的解决方案的芯片。AMD数据中心解决方案总经理Forrest Norrod在周三的简报中对记者表示:“行业需要一个可以快速推进的开放标准,在开放的[格式]中,允许多家公司为整个生态系统增加价值。”“行业需要一个标准,允许创新以不受任何单一公司束缚的快速步伐进行。”提议的标准的第一个版本,UALink 1.0,将在单个计算“pod”中连接多达1024个AI加速器仅限GPU。(该小组将pod定义为服务器中的一个或几个机架。)UALink 1.0基于“开放标准”,包括AMD的无限架构,将允许AI加速器附加的内存之间进行直接加载和存储,并且与现有的互连规格相比,总体上将提高速度并降低数据传输延迟。该小组表示,将在第三季度创建一个联盟,UALink联盟,以监督UALink规范的未来发展。UALink 1.0将在同期向加入联盟的公司提供,更高带宽的更新规范UALink 1.1,计划在2024年第四季度推出。UALink的首批产品将在“未来几年”推出,Norrod说。明显缺席该小组成员名单的是NVIDIA,它是迄今为止最大的AI加速器生产商,估计占有80%到95%的市场份额。NVIDIA拒绝对此发表评论。但不难看出为什么这家芯片制造商不热衷于支持基于竞争对手技术的规范。首先,NVIDIA为其数据中心服务器内的GPU提供了自己的专有互连技术。该公司可能不太愿意支持基于竞争对手技术的标准。然后是NVIDIA从巨大的实力和影响力位置运营的事实。在NVIDIA最近一个财季(2025年第一季度)中,包括其AI芯片销售在内的数据中心销售额比去年同期增长了400%以上。如果NVIDIA继续目前的发展轨迹,它将在今年某个时候超过苹果,成为世界上最有价值的公司。因此,简单来说,如果NVIDIA不想参与,它就不必参与。至于亚马逊网络服务(AWS),这是唯一没有为UALink做出贡献的公共云巨头,它可能处于“观望”模式,因为它正在削减其各种内部加速器硬件努力。也可能是AWS,凭借对云服务市场的控制,没有看到反对NVIDIA的战略意义,NVIDIA为其客户提供了大部分GPU。AWS没有回应TechCrunch的评论请求。事实上,UALink的最大受益者除了AMD和英特尔似乎是微软、Meta和Google,它们已经花费了数十亿美元购买NVIDIA GPU来驱动它们的云并训练它们不断增长的AI模型。所有人都希望摆脱一个他们视为在AI硬件生态系统中过于主导的供应商。Google拥有用于训练和运行AI模型的定制芯片,TPU和Axion。亚马逊拥有几个AI芯片家族。微软去年加入了Maia和Cobalt的竞争。Meta正在完善自己的加速器系列。与此同时,微软及其密切合作伙伴OpenAI据报道计划至少花费1000亿美元用于一台超级计算机,用于训练AI模型,该计算机将配备未来的Cobalt和Maia芯片。这些芯片将需要一些东西将它们连接起来也许它将是UALink。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人