调查:AMD AI 芯片 Instinct MI300X 吸引大量用户弃用英伟达

调查:AMDAI芯片InstinctMI300X吸引大量用户弃用英伟达https://www.ithome.com/0/754/808.htmTensorWave联合创始人JeffTatarchuk透露,他们进行了一项独立调查,涵盖82名工程师和人工智能专业人士。其中,约有50%的受访者表示他们对AMDInstinctMI300XGPU充满信心,因为相比于英伟达的H100系列产品,MI300X不仅拥有更出色的性价比,而且供应充足,避免了遇到货源紧张的问题。Jeff还提到,TensorWave公司也将采用MI300X人工智能加速器。这对于AMD来说无疑是个好消息,因为以往其Instinct系列产品相比英伟达的竞品,市场占有率一直处于劣势。

相关推荐

封面图片

挑战英伟达,AMD 即将推出 AI 芯片 MI300X

挑战英伟达,AMD即将推出AI芯片MI300X当地时间周二,AMD宣布,该公司即将推出的最先进的人工智能GPUMI300X将于今年晚些时候开始向部分客户发货。GPU是OpenAI等公司用来搭建ChatGPT等尖端人工智能程序的芯片。虽然AMD未披露价格,但此举可能会给英伟达GPU带来价格压力,如后者的H100,其价格能够达到3万美元以上。()频道:@TestFlightCN

封面图片

AMD将大量出货Instinct MI300X处理器 抢占约7%的AI市场份额

AMD将大量出货InstinctMI300X处理器抢占约7%的AI市场份额纵观人工智能市场的发展历程,AMD公司的身影已不见踪影,自2023年开始,所有人都在为英伟达公司"欢呼"。然而,AMD抓住市场注意力的努力可能最终会奏效,据报道,该公司将大量出货MI300XAI加速器,预计仅此一项就能确保AI市场7%的供应量,为该公司树立了一个可观的里程碑。现在,你可能会问,是什么原因导致人们突然倾向于使用AMD的旗舰产品Instinct加速器呢?答案很简单。英伟达的供应链在更大程度上已经疲惫不堪,因为该公司一直在参与制造和交付大量的人工智能产品,而这造成了大量订单积压,导致那些希望以最快速度获得计算性能的科技公司的订单延迟。虽然该公司正与台积电和Synopsys等采用新CuLitho技术的公司合作,试图尽可能解决这一问题,但看起来需求仍然很大,其中一个最大的因素是成本问题,而今天早些时候发布的BlackwellGPU等产品的成本预计根本不会下降。另一方面,AMD承诺提供更强大的供应和更高的性价比,这也是MI300X大受欢迎并成为该领域专业人士首选的原因。下面是AMDMI300X与英伟达H100的性能对比:内存容量提升2.4倍内存带宽提高1.6倍1.3xfp8tflops1.3xfp16tflops在1v1对比中,与H100(Llama270B)相比快达20%与H100(FlashAttention2)进行1V1对比,速度最多可提高20%在8v8服务器中与H100(Llama270B)相比,速度最多可提高40%在8v8服务器中,与H100(Bloom176B)相比,速度最多可提高60%由于微软、Meta等公司正在测试AMD的人工智能方案,AMD的人工智能有望获得来自企业的牵引力。预计该公司很快就会大批量出货MI300X,如果他们能成功提供所承诺的性能,AMD的优势就会显现出来。对于那些参与人工智能竞赛的人来说,激动人心的时刻即将到来。...PC版:https://www.cnbeta.com.tw/articles/soft/1424294.htm手机版:https://m.cnbeta.com.tw/view/1424294.htm

封面图片

调查显示AI专业人士考虑从英伟达转投AMD 对Instinct MI300X充满信心

调查显示AI专业人士考虑从英伟达转投AMD对InstinctMI300X充满信心事实上,TensorWave自己也采购了AMDMI300X。AMDInstinct系列产品其实已经发展了很多代,但无论性能还是市场接受度都远逊于对手。这一代的MI300X实现了性能飞跃,相比H100内存容量多2.4倍、带宽高1.6倍、FP8、FP16浮点性能都高1.3倍,FlashAttention2、Llama2(700亿参数)1v1对比测试领先20%,Bloom(1760亿参数)、Llama2(700亿参数)8v8测试领先60%、40%。AMD还打造了MI300A,首次在数据中心同时集成了CPU、GPU,但目前尚未铺开。AMD苏姿丰此前预测,AMDAI芯片2024年的收入将达到35亿美元,大大高于此前预计的20亿美元。当然,AMD在开发支持、生态建设方面还存在较大的差距,仍需努力追赶。...PC版:https://www.cnbeta.com.tw/articles/soft/1423256.htm手机版:https://m.cnbeta.com.tw/view/1423256.htm

封面图片

AMD 推出 MI300X 加速器,将 2027 年 AI 加速器市场规模预期上调将近两倍

AMD推出MI300X加速器,将2027年AI加速器市场规模预期上调将近两倍AMD公司CEOLisaSu:公司发布MI300X加速器,这是性能最高的芯片。新款芯片拥有超过1500亿单位的晶体管。新款芯片内存是英伟达H100产品的2.4倍,内存贷款是H100的1.6倍。新款芯片在(大语言模型)训练方面的性能等同于英伟达H100。相比英伟达竞品,MI300运行AI模型的速度更快。预计人工智能(AI)加速器市场的规模到2027年将达到4000亿美元(该公司8月预计为1500亿美元)。预计AI芯片市场将迅猛扩张。

封面图片

“最强算力芯片”登场,MI300X比H100快,但快多少?微软会是胜负手吗?

“最强算力芯片”登场,MI300X比H100快,但快多少?微软会是胜负手吗?比英伟达的GPU快多少?AMD表示,MI300X基于全新架构,性能有着显著的提升。它的最大特点是拥有192GB的尖端高性能内存,即HBM3,这种内存传输数据的速度更快,可以容纳更大的人工智能模型。苏姿丰直接将MI300X及其构建的系统与英伟达的(上代)旗舰GPUH100进行了比较。就基础规格而言,MI300X的浮点运算速度比H100高30%,内存带宽比H100高60%,内存容量更是H100的两倍以上。当然,MI300X对标的更多是英伟达最新的GPUH200,虽然规格上同样领先,但MI300X对H200的优势就没那么大了,内存带宽仅比后者多出个位数,容量比后者大近40%。苏姿丰认为:“这种性能可以直接转化为更好的用户体验,当你向模型提问时,你希望它能更快地回答,尤其是当回答变得越来越复杂时。”苏姿丰:AMD不需要击败英伟达第二名也可以过得很好AMD面临的主要问题是,那些一直依赖英伟达的公司是否会投入时间和金钱来增加另一家GPU供应商。苏姿丰也承认,这些公司确实需要“付出努力”来转向AMD芯片。AMD周三告诉投资者和合作伙伴,公司已经改进了对标英伟达CUDA的软件套件ROCm。CUDA套件一直是AI开发者目前青睐英伟达的主要原因之一。价格也很重要。AMD周三没有透露MI300X的定价,但肯定会比英伟达的旗舰芯片更便宜,后者的单价在4万美元左右。苏姿丰表示,AMD的芯片必须比英伟达的购买和运营成本更低,才能说服客户购买。AMD还称,已经和一些最需要GPU的大公司签下了MI300X的订单。Meta计划把MI300XGPU用于人工智能推理任务,微软首席技术官KevinScott也表示,公司会把MI300X部署在其云计算服务Azure中,此外,甲骨文的云计算服务也会使用MI300X。OpenAI也会在一款叫做Triton的软件产品中使用AMDGPU.根据研究公司Omidia的最新报告,Meta、微软、甲骨文都是2023年英伟达H100GPU的重要买家。AMD没有给出MI300X的销量预测,仅预计2024年数据中心GPU总收入约为20亿美元。而英伟达仅最近一个季度的数据中心收入就超过了140亿美元,不过算上了GPU之外的其他芯片。展望未来,AMD认为,人工智能GPU的市场规模将攀升至4000亿美元,比之前的预测翻了一番。由此可见,人们对高端人工智能芯片的期望有多高、垂涎有多深。苏姿丰还对媒体坦然地说,AMD不需要击败英伟达,也能在市场上取得好成绩。言下之意就是,第二名也可以活得很好。她在谈到AI芯片市场时表示:“我认为可以明确地说,英伟达现在肯定是市场的领导者,我们相信,到2027年,这个市场的规模可能会达到4000多亿美元。我们可以从中分得一杯羹。”...PC版:https://www.cnbeta.com.tw/articles/soft/1402693.htm手机版:https://m.cnbeta.com.tw/view/1402693.htm

封面图片

AMD MI300X 正式出货交付客户

AMDMI300X正式出货交付客户https://technews.tw/2024/01/23/amd-mi300x-officially-shipped-to-customers/根据AMD官方性能测试,MI300X的表现优于市面上已有的NvidiaH10080GB,甚至有可能对即将上市的H200141GB构成威胁。目前,Meta、微软等巨头客户已采购了大量AMDInstinctMI300系列产品,LaminiAI则是首家公开使用MI300X的公司。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人