AMD MI300X加速GPU买家首秀

AMD MI300X加速GPU买家首秀 他们使用的是八路并行配置,单系统就有八块这样的加速器,从截图里就可以看到八块卡,只不过都处于空闲状态,并未火力全开。早在去年7月,美国能源部旗下的劳伦斯利弗莫尔国家实验室(LLNA)就宣布,全新的“El Capitan”(酋长岩)超算已开始安装MI300A加速器,将在2024年满血上线,预计性能超过200亿亿次浮点计算每秒。如今,小客户也拿到了MI300加速器,显然产能已经上来,可以批量供货了,对AMD来说非常关键。AMD此前曾预计,MI300系列加速器将成为公司历史上最快达到1亿美元收入的产品。AMD MI300X集成八个5nm XCD加速计算模块,共计304个计算单元,搭配四个6nm IOD模块,集成256MB无限缓存,还有八颗共192GB HBM3内存,总计1530亿个晶体管。按照官方说法,MI300X的性能可以超过NVIDIA H100 80GB。MI300A是全球首款面向AI、HPC的APU加速器,配置六个XCD模块、228个计算单元,以及三个CCD哦快、24个Zen4 CPU核心,搭配128GB HBM3内存,总计1460亿个晶体管。 ... PC版: 手机版:

相关推荐

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60% 在美国加州圣何塞举行的 AI 特别活动中,AMD 宣布正式推出其旗舰 AI GPU 加速器 MI300X,并称其性能比英伟达的 H100 芯片提高了 60%。 据 AMD 介绍,新芯片为性能最高的芯片,拥有超过 1500 亿个晶体管。与英伟达 H100 芯片相比,AMD 新芯片的内存为其 2.4 倍,内存带宽为其 1.6 倍,训练性能与 H100 芯片相当,在运行 AI 模型方面则比英伟达快得多。 、

封面图片

AMD MI300X 正式出货交付客户

AMD MI300X 正式出货交付客户 根据 AMD 官方性能测试,MI300X 的表现优于市面上已有的 Nvidia H100 80GB,甚至有可能对即将上市的 H200 141GB 构成威胁。目前,Meta 、微软等巨头客户已采购了大量 AMD Instinct MI300 系列产品,LaminiAI 则是首家公开使用 MI300X 的公司。

封面图片

调查:AMD AI 芯片 Instinct MI300X 吸引大量用户弃用英伟达

调查:AMD AI 芯片 Instinct MI300X 吸引大量用户弃用英伟达 TensorWave 联合创始人 Jeff Tatarchuk 透露,他们进行了一项独立调查,涵盖 82 名工程师和人工智能专业人士。其中,约有 50% 的受访者表示他们对 AMD Instinct MI300X GPU 充满信心,因为相比于英伟达的 H100 系列产品,MI300X 不仅拥有更出色的性价比,而且供应充足,避免了遇到货源紧张的问题。Jeff 还提到,TensorWave 公司也将采用 MI300X 人工智能加速器。这对于 AMD 来说无疑是个好消息,因为以往其 Instinct 系列产品相比英伟达的竞品,市场占有率一直处于劣势。

封面图片

AMD 演示数据中心 APU MI300

AMD 演示数据中心 APU MI300 在 CES 2023 上,AMD 演示了一个庞然大物:专为数据中心设计的 APU MI300。AMD 此前的 APU 产品主要是针对消费级,如笔记本电脑和游戏机。MI300 是第一款数据中心/HPC 级 APU 产品,有 1460 亿个晶体管,是 AMD 至今构建的最大最复杂芯片相比下英特尔 Xeon Max GPU 有 1000 亿晶体管,英伟达 GH100 GPU 有 800 亿晶体管。MI300 包含了 24 个 Zen 4 CPU 核心,未披露数量的 CDNA 3 架构 CU,以及 128GB HBM3 内存。MI300 在 4 个 6 纳米小芯片(chiplets)之上堆了 9 个 5 纳米小芯片。相比 MI250X,MI300 的 AI 训练性能是其 8 倍以上,产品将在今年下半年上市。 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

AMD 王牌加速卡 MI300X 出世:训练 AI 模型比英伟达 H100 最高快 60%

AMD 王牌加速卡 MI300X 出世:训练 AI 模型比英伟达 H100 最高快 60% ======== 有美国商务部禁售认证 ======== 8说了,半年后咸鱼见,商务部再牛逼能有咸鱼牛逼吗

封面图片

微软成AMD AI GPU最大买家 定价是H100四分之一

微软成AMD AI GPU最大买家 定价是H100四分之一 据Seeking Alpha报道,根据花旗集团的分析报告,显示微软的数据中心部门是Instinct MI300X的最大买家,已开始为GPT-4这类大型语言模型(LLM)工作。此前AMD首席执行官苏姿丰博士表示,AMD在2024年AI芯片的销售额预计将达到35亿美元,高于之前20亿美元的预期。虽然AMD没有公开Instinct MI300X的定价,不过有知情人士透露,每块计算卡的售价为1.5万美元,相比于英伟达的产品是比较实惠的。目前H100 PCIe 80GB HBM2E版本在市场上的售价大概为3万美元到4万美元,甚至更高一些,而性能更强的H100 SXM5 80GB HBM3版本的定价则更高。花旗集团的分析师表示,Instinct MI300X的定价或仅为后者的四分之一。此前AMD首席执行官苏姿丰博士表示,AMD在2024年AI芯片的销售额预计将达到35亿美元,高于之前20亿美元的预期。Instinct MI300X采用了小芯片设计,混用5nm和6nm工艺,晶体管数量达到了1530亿个。其使用了第四代Infinity Fabric解决方案,共有28个模块芯片,其中包括8个HBM和4个计算芯片,而每个计算芯片拥有2个基于CDNA 3架构的GCD,共80个计算单元,意味着有320个计算单元和20480个流处理器。出于良品率的考虑,AMD削减了部分计算单元,实际使用数量为304个计算单元和19456个流处理器。此外,HBM3容量达到192GB,提供了5.3TB/s的内存带宽和896GB/s的Infinity Fabric带宽。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人