老黄赢麻了:英伟达H100订单排到24年

老黄赢麻了:英伟达H100订单排到24年全球最大云厂商亚马逊AWS也证实了这一消息,CEOAdamSelipsky近期表示:A100和H100是最先进的……即使对于AWS来说也很难获得。更早时候,马斯克还在一场访谈节目中也说过:GPU现在比d品还难获得。如果找“黄牛”买,溢价高达25%。如Ebay上的价格已从出厂价约36000美元涨到了45000美元,而且货源稀少。这种形势下,国内的百度、字节、阿里、腾讯等大型科技公司也向英伟达下了总计50亿美元的A800等芯片订单。其中只有10亿美元的货能今年内交付,另外80%也要等2024年才行。那么现有高端GPU都卖给谁了?这一波产能又是卡在了哪?H100卖给谁,老黄说了算ChatGPT爆发以来,擅长训练大模型的英伟达A100、H100成了香饽饽。甚至H100已经可以作为初创公司的一种资产,找投资基金获得抵押贷款。OpenAI、Meta为代表的AI公司,亚马逊、微软为代表的云计算公司,私有云Coreweave和Lambda,以及所有想炼自家大模型的各类科技公司,需求量都巨大。然而卖给谁,基本是英伟达CEO黄仁勋说了算。据TheInformation消息,H100这么紧缺,英伟达把大量的新卡分配给了CoreWeave,对亚马逊微软等老牌云计算公司限量供应。(英伟达还直接投资了CoreWeave。)外界分析是因为这些老牌公司都在开发自己的AI加速芯片、希望减少对英伟达的依赖,那老黄也就成全他们。老黄在英伟达内部还把控了公司日常运营的方方面面,甚至包括“审查销售代表准备对小型潜在客户说什么话”。全公司约40名高管直接向老黄汇报,这比Meta小扎和微软小纳的直接下属加起来还多。一位英伟达前经理透露,“在英伟达,黄仁勋实际上是每一款产品的首席产品官。”前阵子,还传出老黄干了一件夸张的事:要求一些小型云计算公司提供他们的客户名单,想了解GPU的最终使用者是谁。外界分析,此举将使英伟达更了解客户对其产品的需求,也引起了对英伟达可能利用这些信息谋取额外利益的担忧。也有人认为,还有一层原因是老黄想知道谁真的在用卡,而谁只是囤卡不用。为什么英伟达和老黄现在有这么大的话语权?主要是高端GPU供需太不平衡,根据GPUUtils网站的测算,H100缺口高达43万张。作者ClayPascal根据各种已知信息和传言估计了AI行业各参与者近期还需要的H100数量。AI公司方面:OpenAI可能需要5万张H100来训练GPT-5Meta据说需要10万InflectionAI的2.2万张卡算力集群计划已公布主要AI初创公司如Anthropic、Character.ai、欧洲的MistraAI和HelsingAI需求各自在1万数量级。云计算公司方面:大型公有云里,亚马逊、微软、Google、甲骨文都按3万算,共12万以CoreWeave和Lambda为代表的私有云加起来总共需要10万加起来就是43.2万了。这还没算一些摩根大通、TwoSigma等也开始部署自己算力集群的金融公司和其他行业参与者。那么问题来了,这么大的供应缺口,就不能多生产点吗?老黄也想啊,但是产能被卡住了。产能这次卡在哪里?其实,台积电已经为英伟达调整过一次生产计划了。不过还是没能填补上如此巨大的缺口。英伟达DGX系统副总裁兼总经理CharlieBoyle称,这次并不是卡在晶圆,而是台积电的CoWoS封装技术产能遇到了瓶颈。与英伟达抢台积电产能的正是苹果,要在9月发布会之前搞定下一代iPhone要用的A17芯片。而台积电方面近期表示,预计需要1.5年才能使封装工艺积压恢复正常。CoWoS封装技术是台积电的看家本领,台积电之所以能击败三星成为苹果的独家芯片代工厂靠的就是它。这项技术封装出的产品性能高、可靠性强,H100能拥有3TB/s(甚至更高)的带宽正是得益于此。CoWoS全名叫Chip-on-Wafer-on-Substrate,是一种在晶圆层面上的芯片集成技术。这项技术可以将多个芯片封装到厚度仅有100μm的硅中介层上。据介绍,下一代中介层面积将达到6倍reticle,也就是约5000mm?。目前为止,除了台积电,没有哪家厂商拥有这个水平的封装能力。虽然CoWoS的确强悍,但没有它就不行吗?其他厂商能不能代工呢?先不说老黄已经表示过“不考虑新增第二家H100代工厂”。从现实上看,可能也真的不行。英伟达此前曾和三星有过合作,但后者从未给英伟达生产过H100系列产品,甚至其他5nm制程的芯片。据此有人推测,三星的技术水平可能无法满足英伟达对尖端GPU的工艺需求。至于英特尔……他们的5nm产品好像还迟迟没有问世。既然让老黄换生产厂家行不通,那用户直接改用AMD怎么样?AMD,Yes?如果单论性能的话,AMD倒的确是慢慢追上来了。AMD最新推出的MI300X,拥有192GB的HBM3内存、5.2TB/s的带宽,可运行800亿参数模型。而英伟达刚刚发布的DGXGH200,内存为141GB的HBM3e,带宽则为5TB/s。但这并不意味着AMD能马上填补N卡的空缺——英伟达真正的“护城河”,在于CUDA平台。CUDA已经建立起一套完整的开发生态,意味着用户要是购买AMD产品,需要更长时间来进行调试。一名某私有云公司的高管表示,没人敢冒险花3亿美元实验部署10000个AMDGPU。这名高管认为,开发调试的周期可能至少需要两个月。在AI产品飞速更新换代的大背景下,两个月的空档期对任何一家厂商来说可能都是致命的。不过微软倒是向AMD伸出了橄榄枝。此前有传闻称,微软准备和AMD共同开发代号为“雅典娜”的AI芯片。而更早之前,MI200发布时,微软第一个宣布采购,并在其云平台Azure上部署。比如前一阵MSRA的新大模型基础架构RetNet就是在512张AMDMI200上训练的。在英伟达占据几乎整个AI市场的格局下,可能需要有人带头冲锋,先整个大型AMD算力集群打样,才有人敢于跟进。不过短时间内,英伟达H100、A100还是最主流的选择。OneMoreThing前一阵苹果发布最高支持192GB内存新款M2Ultra芯片的时候,还有不少从业者畅享过用它来微调大模型。毕竟苹果M系列芯片的内存显存是统一的,192GB内存就是192GB显存,可是80GBH100的2.4倍,又或者24GBRTX4090的8倍。然鹅,有人真的把这台机器买到手后,实际测试训练速度还不如英伟达RTX3080TI,微调都不划算,训练就更别想了。毕竟M系列芯片的算力部分不是专门针对AI计算优化的,光大显存也没用。炼大模型,看来主要还是得靠H100,而H100又求之不得。面对这种情况,网络上甚至流传着一首魔性的“GPU之歌”。很洗脑,慎入。...PC版:https://www.cnbeta.com.tw/articles/soft/1376535.htm手机版:https://m.cnbeta.com.tw/view/1376535.htm

相关推荐

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD正式发布MI300加速器,性能较英伟达H100芯片提高60%在美国加州圣何塞举行的AI特别活动中,AMD宣布正式推出其旗舰AIGPU加速器MI300X,并称其性能比英伟达的H100芯片提高了60%。据AMD介绍,新芯片为性能最高的芯片,拥有超过1500亿个晶体管。与英伟达H100芯片相比,AMD新芯片的内存为其2.4倍,内存带宽为其1.6倍,训练性能与H100芯片相当,在运行AI模型方面则比英伟达快得多。——、

封面图片

AMD推出MI300X加速器 较英伟达H100最多提升60% 猛增市场规模预期

AMD推出MI300X加速器较英伟达H100最多提升60%猛增市场规模预期周三,AMD发布备受瞩目的全新MI300系列AI芯片,包括MI300A和MI300X芯片,瞄准这一英伟达主导的市场。此类芯片比传统计算机处理器更擅长处理人工智能训练所涉及的大型数据集。本次新品发布是AMD公司长达50年历史上最重要的一次之一,有望挑战英伟达在炙手可热的人工智能加速器市场上的地位。AMD发布的新款芯片拥有超过1500亿个晶体管。MI300X加速器支持高达192GB的HBM3存储器。MI300X内存是英伟达H100产品的2.4倍,内存带宽是H100的1.6倍,进一步提升了性能。MI300X新款芯片较英伟达的H100性能最多可以提升60%。在与H100(Llama270B版本)的一对一比较中,MI300X性能提高了高达20%。在与H100(FlashAttention2版本)的一对一比较中,性能提高了高达20%。在与H100(Llama270B版本)的8对8服务器比较中,性能提高了高达40%。在与H100(Bloom176B)的8对8服务器比较中,性能提高了高达60%。AMD公司CEOLisaSu表示,新款芯片在训练人工智能软件的能力方面与H100相当,在推理方面,也即软件投入实际使用后运行该软件的过程,要比竞品好得多。伴随着人工智能的火爆,市场对高端芯片需求量极大。这令芯片制造商们瞄准这一利润丰厚的市场,加快推出高品质的AI芯片。虽然整个AI芯片市场竞争相当激烈,AMD在周三对未来市场规模给出了大胆惊人的预测,认为AI芯片市场将迅猛扩张。具体来说,预计人工智能(AI)芯片市场的规模到2027年将达到超过4000亿美元,这较其8月时预计的1500亿美元上调将近两倍,凸显人们对人工智能硬件的期望正在快速变化。AMD越来越有信心其MI300系列能够赢得一些科技巨头的青睐,这可能会让这些公司花费数十亿美元的支出,投向AMD的产品。AMD表示,微软、甲骨文和Meta等都是其客户。同日消息显示,微软将评估对AMD的AI加速器产品的需求,评估采用该新品的可行性。Meta公司将在数据中心采用AMD新推的MI300X芯片产品。甲骨文表示,公司将在云服务中采用AMD的新款芯片。此前市场预计AMD的MI300系列在2024年的出货约为30~40万颗,最大客户为微软、Google,若非受限台积电CoWoS产能短缺及英伟达早已预订逾四成产能,AMD出货有望再上修。AMD推出MI300X加速器消息发布后,英伟达股价下跌1.5%。今年英伟达股价暴涨,使其市值超过1万亿美元,但最大的问题是,它还能独享加速器市场多久。AMD看到了属于自己的机会:大型语言模型需要大量计算机内存,而这正是AMD认为自己的优势所在。为了巩固市场主导地位,英伟达也正在开发自己的下一代芯片。H100将于明年上半年被H200取代,后者于上个月推出,能够提供新型高速内存,在Llama2上的推理速度比H100快一倍。此外,英伟达将在今年晚些时候推出全新的处理器架构。...PC版:https://www.cnbeta.com.tw/articles/soft/1402609.htm手机版:https://m.cnbeta.com.tw/view/1402609.htm

封面图片

英伟达财报“预热”:投行曝H100芯片利润率达1000%

英伟达财报“预热”:投行曝H100芯片利润率达1000%知名科技媒体Tom'sHardware称,这份报告意味着对英伟达公司来说,H100芯片的成本利润率高达1,000%,即十倍。由于不清楚瑞杰金融的成本分析有多深入,英伟达可能还需要在其他方面支付额外的费用,但费用空间是比较大的。来源:Tom'sHardware据了解,H100是目前训练大语言模型最需要的图形处理器(GPU),因为它对于大模型的推理和训练都是速度最快的,通常也是推理方面性价比最高的。它可以应用于各种AI场景,如AI聊天机器人、推荐引擎、视觉AI、数据分析、高性能计算等。H100芯片还可以搭配英伟达AIEnterprise软件套件,为企业提供端到端的AI就绪型基础架构。英伟达CEO黄仁勋将其描述为“世界上第一款专为生成式人工智能而设计的计算机芯片”。报道指出,产品开发需要时间和资源,在得出最终的平均产品开发成本之前,英伟达的研发成本也必须考虑在内。这一类别包括工程师和其他参与H100等产品开发生命周期的人员。据匿名评论平台GlaSSDoor的数据,英伟达电子硬件工程师的平均年薪约为20.2万美元,而开发H100等芯片很可能需要数千位这样薪资水平的专业人员。但即使这样,“十倍成本利润率”也足以令人叹为观止,凸显了公司充分享受到了AI时代“卖铲人”的超额红利。然而,H100的供应却十分紧张,据称英伟达的订单量已经排满到2024年,但这一消息尚未得到公司的确认。本周,沙特和阿联酋被曝正在“疯狂下单”英伟达的AI芯片。知情人士透露,沙特已通过公共研究机构阿卜杜拉国王科技大学购买了至少3000枚H100;阿联酋也已经确保自己将获得数千枚芯片。上周还有消息称,百度、字节跳动、腾讯和阿里巴巴等互联网巨头在争相购买英伟达的高性能芯片,订单总和价值高达50亿美元。先前,OpenAICEO山姆·阿尔特曼和特斯拉CEO埃隆·马斯克也先后抱怨GPU不够用。周一,摩根士丹利分析师JosephMoore表示,他依然看好英伟达公司的股票,并将其视为“首选”(toppick),目标价为每股500美元。Moore提到,英伟达定于美股8月23日盘后(北京时间8月24日凌晨)公布业绩,“尽管供应紧张,我们仍然预计业绩会显著超越预期并获得上调,更重要的是,未来三至四个财季的业绩会有很强的可见性。”...PC版:https://www.cnbeta.com.tw/articles/soft/1378037.htm手机版:https://m.cnbeta.com.tw/view/1378037.htm

封面图片

英伟达:除了 H100 外,中国企业可以购买新架构 RTX 40 系显卡及新款 AI 芯片

英伟达:除了H100外,中国企业可以购买新架构RTX40系显卡及新款AI芯片英伟达负责人回应:此限制不适用于GraceCPU超级芯片,或基于AdaLovelace的RTX4090、4080或L40等主题演讲中提到的其他产品。此外,英伟达JetsonOrin芯片也可以在包括中国大陆在内的全球范围内使用。https://www.tmtpost.com/6260033.html老黄是不是还想用刀法切一个“H99”来绕开限制?

封面图片

英伟达计划提高2024年H100 产量至少两倍 需先克服产能瓶颈

英伟达计划提高2024年H100产量至少两倍需先克服产能瓶颈英伟达CUDA架构专为AI和HPC工作负载订制,因此有数百种应用程式只能在英伟达运算GPU运行。虽然亚马逊和Google都有订制AI处理器,AI训练和推理用,但仍必须购买大量英伟达GPU。然而,想增加英伟达H100、GH200GraceHopper及基础产品供应并不容易,英伟达想增加GH100产能,必须先摆脱几个瓶颈。首先,GH100很难大量生产。虽然现在产品产量已相当高,但仍需从台积电取得大量4N晶圆供应,才能让GH100产量提高两倍以上。若要制造200万颗芯片,需3.1万片晶圆,台积电5纳米晶圆总产能每月约15万片,且产能还须由英伟达、AMD、苹果等共享。再来,GH100依赖HBM2E或HBM3记忆体,并使用台积电CoWoS封装,英伟达也需确保供应正常,台积电也在努力满足CoWoS封装需求;第三,基于H100设备使用HBM2E、HBM3或HBM3E存储器,英伟达必须从美光、三星和SK海力士等公司购入足够HBM存储器。最后是英伟达H100显卡或SXM模组必须安装在某个地方,英伟达必须确保合作伙伴的AI服务器也有两到三倍输出。如果英伟达能满足全部H100GPU需求,明年营收会相当可观。...PC版:https://www.cnbeta.com.tw/articles/soft/1379565.htm手机版:https://m.cnbeta.com.tw/view/1379565.htm

封面图片

英伟达新增英特尔为封装服务商 有望月产 30 万颗 H100

英伟达新增英特尔为封装服务商有望月产30万颗H100据科创板日报援引外媒消息,市场日前传出,由于台积电CoWoS先进封装产能不足,促使英伟达新增英特尔为先进封装服务供货商、最快Q2加入,月产能约5000片。另据Tom`sHardware分析,假设良率完美、且英伟达与英特尔是针对H100签订合约,那么英伟达每月可增产超过30万颗H100GPU,可生产30万颗H100芯片。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人