微软成AMD AI GPU最大买家 定价是H100四分之一

微软成AMDAIGPU最大买家定价是H100四分之一据SeekingAlpha报道,根据花旗集团的分析报告,显示微软的数据中心部门是InstinctMI300X的最大买家,已开始为GPT-4这类大型语言模型(LLM)工作。此前AMD首席执行官苏姿丰博士表示,AMD在2024年AI芯片的销售额预计将达到35亿美元,高于之前20亿美元的预期。虽然AMD没有公开InstinctMI300X的定价,不过有知情人士透露,每块计算卡的售价为1.5万美元,相比于英伟达的产品是比较实惠的。目前H100PCIe80GBHBM2E版本在市场上的售价大概为3万美元到4万美元,甚至更高一些,而性能更强的H100SXM580GBHBM3版本的定价则更高。花旗集团的分析师表示,InstinctMI300X的定价或仅为后者的四分之一。此前AMD首席执行官苏姿丰博士表示,AMD在2024年AI芯片的销售额预计将达到35亿美元,高于之前20亿美元的预期。InstinctMI300X采用了小芯片设计,混用5nm和6nm工艺,晶体管数量达到了1530亿个。其使用了第四代InfinityFabric解决方案,共有28个模块芯片,其中包括8个HBM和4个计算芯片,而每个计算芯片拥有2个基于CDNA3架构的GCD,共80个计算单元,意味着有320个计算单元和20480个流处理器。出于良品率的考虑,AMD削减了部分计算单元,实际使用数量为304个计算单元和19456个流处理器。此外,HBM3容量达到192GB,提供了5.3TB/s的内存带宽和896GB/s的InfinityFabric带宽。...PC版:https://www.cnbeta.com.tw/articles/soft/1416127.htm手机版:https://m.cnbeta.com.tw/view/1416127.htm

相关推荐

封面图片

微软成AMDAIGPU最大买家定价是H100四分之一-Microsoft微软-cnBeta.COMhttps://www.cnb

封面图片

AMD首批Instinct MI300X已开始交付

AMD首批InstinctMI300X已开始交付AMD首批用于AI、HPC的InstinctMI300XGPU已发货。LaminiAI首席执行官SharonZhou表示,公司已收到InstinctMI300X,将使用该GPU运行大模型。与InstinctMI300A不同,InstinctMI300X缺少x86CPU内核,但拥有更多CDNA3小芯片,搭载192GBHBM3内存,因此计算性能更高。根据AMD数据,InstinctMI300X性能优于英伟达的H10080GB。投稿:@TNSubmbot频道:@TestFlightCN

封面图片

Meta 和微软表示将购买 AMD 的新型人工智能芯片 作为英伟达的替代品

Meta和微软表示将购买AMD的新型人工智能芯片作为英伟达的替代品如果AMD最新的高端芯片MI300X在明年初开始出货时,对于构建和服务人工智能模型的科技公司和云服务提供商来说,性能足够好,价格足够便宜,那么它可能会降低开发人工智能模型的成本。AMD首席执行官LisaSu预计,到2027年,人工智能芯片的市场规模将达到4000亿美元或更多,她希望AMD在这个市场中占有相当大的份额。Meta表示,它将使用InstinctMI300XGPU来处理人工智能推理工作负载,如处理人工智能贴纸、图像编辑和操作助手。微软首席技术官凯文・斯科特表示,微软将通过Azure网络服务采用MI300X芯片。甲骨文的云计算也将使用这种芯片。(环球市场播报)

封面图片

“最强算力芯片”登场,MI300X比H100快,但快多少?微软会是胜负手吗?

“最强算力芯片”登场,MI300X比H100快,但快多少?微软会是胜负手吗?比英伟达的GPU快多少?AMD表示,MI300X基于全新架构,性能有着显著的提升。它的最大特点是拥有192GB的尖端高性能内存,即HBM3,这种内存传输数据的速度更快,可以容纳更大的人工智能模型。苏姿丰直接将MI300X及其构建的系统与英伟达的(上代)旗舰GPUH100进行了比较。就基础规格而言,MI300X的浮点运算速度比H100高30%,内存带宽比H100高60%,内存容量更是H100的两倍以上。当然,MI300X对标的更多是英伟达最新的GPUH200,虽然规格上同样领先,但MI300X对H200的优势就没那么大了,内存带宽仅比后者多出个位数,容量比后者大近40%。苏姿丰认为:“这种性能可以直接转化为更好的用户体验,当你向模型提问时,你希望它能更快地回答,尤其是当回答变得越来越复杂时。”苏姿丰:AMD不需要击败英伟达第二名也可以过得很好AMD面临的主要问题是,那些一直依赖英伟达的公司是否会投入时间和金钱来增加另一家GPU供应商。苏姿丰也承认,这些公司确实需要“付出努力”来转向AMD芯片。AMD周三告诉投资者和合作伙伴,公司已经改进了对标英伟达CUDA的软件套件ROCm。CUDA套件一直是AI开发者目前青睐英伟达的主要原因之一。价格也很重要。AMD周三没有透露MI300X的定价,但肯定会比英伟达的旗舰芯片更便宜,后者的单价在4万美元左右。苏姿丰表示,AMD的芯片必须比英伟达的购买和运营成本更低,才能说服客户购买。AMD还称,已经和一些最需要GPU的大公司签下了MI300X的订单。Meta计划把MI300XGPU用于人工智能推理任务,微软首席技术官KevinScott也表示,公司会把MI300X部署在其云计算服务Azure中,此外,甲骨文的云计算服务也会使用MI300X。OpenAI也会在一款叫做Triton的软件产品中使用AMDGPU.根据研究公司Omidia的最新报告,Meta、微软、甲骨文都是2023年英伟达H100GPU的重要买家。AMD没有给出MI300X的销量预测,仅预计2024年数据中心GPU总收入约为20亿美元。而英伟达仅最近一个季度的数据中心收入就超过了140亿美元,不过算上了GPU之外的其他芯片。展望未来,AMD认为,人工智能GPU的市场规模将攀升至4000亿美元,比之前的预测翻了一番。由此可见,人们对高端人工智能芯片的期望有多高、垂涎有多深。苏姿丰还对媒体坦然地说,AMD不需要击败英伟达,也能在市场上取得好成绩。言下之意就是,第二名也可以活得很好。她在谈到AI芯片市场时表示:“我认为可以明确地说,英伟达现在肯定是市场的领导者,我们相信,到2027年,这个市场的规模可能会达到4000多亿美元。我们可以从中分得一杯羹。”...PC版:https://www.cnbeta.com.tw/articles/soft/1402693.htm手机版:https://m.cnbeta.com.tw/view/1402693.htm

封面图片

AMD确认RDNA 3 GPU的最大CU数:Navi 31/32/33分别为96/60/32

AMD确认RDNA3GPU的最大CU数:Navi31/32/33分别为96/60/32该更新提到了三款RDNA3芯片的峰值核心数,如下所示:Navi31GPU=96个计算单元Navi32GPU=60个计算单元Navi33GPU=32个计算单元AMDNavi31GPU是RDNA3的旗舰芯片,将是RadeonRX7900XTX和RX7900XT显卡等下一代发烧级卡的核心。每个WGP将容纳双CU(计算单元),但具有两倍的SIMD32集群,而RDNA2的每个CU上只有2个集群。AMDNavi31:12288个核心,384位总线,96MB缓存,300mm2GPU芯片@5纳米制程AMDNavi21:5120个核心,384位总线,128MB缓存,520mm2GPU芯片@7纳米制程采用RDNA3架构的AMDNavi31GPU预计将提供一个具有96个计算单元、48个WGP、12个SA和6个SE的单一图形计算芯片。这将提供总共6144个SP或12288个内核。与Navi21GPU上的5120个核心相比,这是2.4倍的核心增长。Navi31GPU还将携带6个MCD,每个芯片有16MB的InfinityCache,自带64位(32位x2)内存控制器,为芯片提供384位总线接口。这些小芯片或MCD将在台积电的6纳米工艺节点上制造,每个尺寸为37.5平方毫米。代号为"WheatNas"的AMDNavi32GPU也是RDNA3阵容中的两个MCMGPU之一。该GPU将具有一个图形计算芯片和四个MCD(多缓存芯片)。据称,GPU或图形计算芯片的尺寸为200平方毫米,而每个MCD将保持相同的尺寸,即37.5平方毫米。...PC版:https://www.cnbeta.com.tw/articles/soft/1333767.htm手机版:https://m.cnbeta.com.tw/view/1333767.htm

封面图片

AMD推出MI300X加速器 较英伟达H100最多提升60% 猛增市场规模预期

AMD推出MI300X加速器较英伟达H100最多提升60%猛增市场规模预期周三,AMD发布备受瞩目的全新MI300系列AI芯片,包括MI300A和MI300X芯片,瞄准这一英伟达主导的市场。此类芯片比传统计算机处理器更擅长处理人工智能训练所涉及的大型数据集。本次新品发布是AMD公司长达50年历史上最重要的一次之一,有望挑战英伟达在炙手可热的人工智能加速器市场上的地位。AMD发布的新款芯片拥有超过1500亿个晶体管。MI300X加速器支持高达192GB的HBM3存储器。MI300X内存是英伟达H100产品的2.4倍,内存带宽是H100的1.6倍,进一步提升了性能。MI300X新款芯片较英伟达的H100性能最多可以提升60%。在与H100(Llama270B版本)的一对一比较中,MI300X性能提高了高达20%。在与H100(FlashAttention2版本)的一对一比较中,性能提高了高达20%。在与H100(Llama270B版本)的8对8服务器比较中,性能提高了高达40%。在与H100(Bloom176B)的8对8服务器比较中,性能提高了高达60%。AMD公司CEOLisaSu表示,新款芯片在训练人工智能软件的能力方面与H100相当,在推理方面,也即软件投入实际使用后运行该软件的过程,要比竞品好得多。伴随着人工智能的火爆,市场对高端芯片需求量极大。这令芯片制造商们瞄准这一利润丰厚的市场,加快推出高品质的AI芯片。虽然整个AI芯片市场竞争相当激烈,AMD在周三对未来市场规模给出了大胆惊人的预测,认为AI芯片市场将迅猛扩张。具体来说,预计人工智能(AI)芯片市场的规模到2027年将达到超过4000亿美元,这较其8月时预计的1500亿美元上调将近两倍,凸显人们对人工智能硬件的期望正在快速变化。AMD越来越有信心其MI300系列能够赢得一些科技巨头的青睐,这可能会让这些公司花费数十亿美元的支出,投向AMD的产品。AMD表示,微软、甲骨文和Meta等都是其客户。同日消息显示,微软将评估对AMD的AI加速器产品的需求,评估采用该新品的可行性。Meta公司将在数据中心采用AMD新推的MI300X芯片产品。甲骨文表示,公司将在云服务中采用AMD的新款芯片。此前市场预计AMD的MI300系列在2024年的出货约为30~40万颗,最大客户为微软、Google,若非受限台积电CoWoS产能短缺及英伟达早已预订逾四成产能,AMD出货有望再上修。AMD推出MI300X加速器消息发布后,英伟达股价下跌1.5%。今年英伟达股价暴涨,使其市值超过1万亿美元,但最大的问题是,它还能独享加速器市场多久。AMD看到了属于自己的机会:大型语言模型需要大量计算机内存,而这正是AMD认为自己的优势所在。为了巩固市场主导地位,英伟达也正在开发自己的下一代芯片。H100将于明年上半年被H200取代,后者于上个月推出,能够提供新型高速内存,在Llama2上的推理速度比H100快一倍。此外,英伟达将在今年晚些时候推出全新的处理器架构。...PC版:https://www.cnbeta.com.tw/articles/soft/1402609.htm手机版:https://m.cnbeta.com.tw/view/1402609.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人