从亏钱生意到利润1000% 英伟达靠什么成为万亿GPU霸主?

从亏钱生意到利润1000%英伟达靠什么成为万亿GPU霸主?GPU芯片在超级计算和全球巨头大模型训练战中地位举足轻重,而掌握全球80%GPU市场份额的英伟达赚得盆满钵满。然而,这种垄断式的市场占有率不是一夜砌成的“城墙”。据Tractica数据,预计到2025年全球AI硬件市场收入将达到2349亿美元,其中GPU的收入占23.2%。英伟达在GPU市场的构筑的护城河,CUDA是其中至关重要的一环。一套完善的编译器生态2006年,正是在AMD收购了ATI、英特尔依然蝉联全球第一大芯片厂商的时候,英伟达推出了CUDA(ComputeUnifiedDeviceArchitecture),它是英伟达研发的平行运算平台及编程模型。AI大神吴恩达简单评价了CUDA的意义:“在CUDA出现之前,全球能用GPU编程的可能不超过100人,有CUDA之后使用GPU就变成一件非常轻松的事。”多数CUDA的推荐者认为,CUDA完善的编译器生态是英伟达GPU在高性能计算领域成功的关键。具体来讲,CUDA具有易部署、开发接口灵活、编程语言适配、工具及代码库完备等优点,并且兼容Windows、Linux和MacOS多个操作系统。CUDA的开发让GPU不再是简单的图形处理器,适用对象也从游戏制作人变为科学家、工程师或艺术家。随着不断迭代,CUDA在针对AI或神经网络深度学习领域推出了非常多的加速库,构成了CUDA的软硬件生态站。大卫·罗森塔尔在Acquired.FM中介绍,CUDA的代码库是经过优化的,开发人员调用这些库开发程序更加便利。因此,CUDA有庞大的社区资源,2023年5月注册开发者增加至400万人。投入过百亿的CUDA生态英伟达凭借CUDA几乎垄断了训练芯片市场,业界也几乎没有巨头对CUDA生态造成颠覆性冲击。英伟达为CUDA生态铺垫了十余年。2007年,英伟达的GPU研发技术已占据强势地位,次年英特尔的大客户苹果将MacBook除CPU外直接替换成英伟达Tesla架构的GPU便印证了这一点。据报道,经年累计英伟达对CUDA总投入早已超过100亿美元。在黄仁勋商业化考虑之下,CUDA生态需要培养潜在开发者,成为受到程序员和企业欢迎的技术平台。在2006年推出CUDA后,英伟达的第一个战略便瞄准了“软件开发人员”,投入巨资让开发者习惯使用CUDA平台。初期,开发者社区有这样一句话:CUDA在编程语言和共享存储器两个层次的并行都简化了编程,使得本科生也能使用CUDA写出大规模高性能计算程序。为扩大覆盖率,英伟达将CUDA引入大学课堂,与伊利诺伊大学等高校合作完善函数库。在2010年时,已有250所大学开放CUDA的教学课程,并有相关论文数千篇。以此为基础完善生态,英伟达建立研究中心、教学中心、认证计划,到2015年已有800所大学开发相关课程。再从业界来看,英伟达投入资金做inception计划(初创加速计划),让初创公司运用CUDA做项目铺垫基础。至今,已有超过100家初创公司利用了CUDA。此外,英伟达开源了Cub、NCCL等通用场景下的开发库,并优化中间件性能的基础库给厂家使用,再次扩大了生态系统。因此,许多开发者依赖于CUDA,同时凭借强大的核心能力在消费市场上受到青睐。2012年,在ImageNet竞赛一举夺冠的AlexNet面世后,CUDA已迭代至5.0版本,支持了动态库和GPU指针。2016年,OpenAI成立之时,CUDA8.0已经支持半精度浮点数和张量核心,软件生态已由学界和业界人士熟知、互相推荐。2022年底,ChatGPT的发布将生成式AI送到人们眼前,CUDA12.0支持了新的NVIDIAHopper和NVIDIAAdaLovelace架构功能,并为所有GPU提供了额外的编程模型增强。等到大模型热度吹进各家企业时,英伟达已经深化了他们在行业中的差异化,成为市场玩家购物篮的第一选择。目前为止,基于CUDA的GPU销量超过百万。而众多GPU芯片厂家中,为什么是英伟达做出了唯一的CUDA开发环境?从亏钱生意到利润1000%回顾世纪初期,英伟达与微软、ATI、AMD、英特尔五家巨头的混战,英伟达在图形处理市场中逐渐占据优势。2006年7月,AMD以54亿美元溢价收购ATI,芯片市场重新洗牌。同年,英伟达的首席科学家DavidKirk提出了“将GPU技术通用化”的思路,从主要做3D渲染的任务中脱离出来,探索通用计算任务。这个思路就是CUDA。而当时,愿意担起这门费钱费力的技术活的也是英伟达。几大家芯片公司中,老对手AMD买下ATI后GPU研发进入弱势地位,英特尔取消了自研GPU计划。英伟达则在GPU技术方面将巨头们甩在了身后。17年前,研发CUDA是一个超前的决定,英伟达的CUDA进化并非一帆风顺,黄仁勋则坚持“加速计算”是未来。英伟达和英特尔在2006年秋天共同开发了基于CUDA的新型GPU,即G80GPU。而两者的合作持续不长久,CUDA的研发决策需要英伟达长久地投入大量资金。从产品特性上来说,CUDA逻辑电路在硬件产品中增加会导致芯片的散热需求增高,由此也会带来成本上升、故障增多的风险。从财报表现来看,CUDA也是一门亏钱生意,在2008年金融危机前后表现得更为明显。在最艰难的时候,黄仁勋也没有中断CUDA,直到2012年辛顿教授带队以GPU代替CPU训练AI模型做出了AlexNet。2020年,黄仁勋在接受Barron周刊时强调:“英伟达将推动下一个人工智能大爆炸。”这5年,为了迎接人工智能,英伟达做了3件事。第一,2019年3月,英伟达以69亿美元收购了高性能计算互联技术公司Mellanox。这家公司的主要产品InfiniBand,被认为速度更快、带宽更高,是数据传输的有效方式,而Mellanox是唯一的InfiniBand规范提供商。第二,英伟达于2022年9月发布新一代AI芯片“DriveThor”,专为大规模GPU集群协调设计,是英伟达一款完全集成的解决方案。第三,英伟达推出专为加速计算和生成式AI打造的Hopper架构,H100便是基于此架构的GPU。市场消息称,H100是英伟达利润率高达1000%的产品,出货量超过900吨。随着ChatGPT发布,带动AI服务器出货量和价格上涨,英伟达的GPU芯片价格水涨船高。英伟达的DGXH100售价总价为268495美元,包含8GPU+4NVSwitch基板等,每台毛利率接近190000美元。英伟达的财务收入令人瞩目,据悉,过去3个财年的复合年增长率(CAGR)达到35.2%,预计2023年收入将飙升51.4%至408亿美元。CUDA构筑的壁垒能被打破吗?2016年,AMD推出基于开源项目的GPU生态系统ROCm,类似英伟达的CUDA系统,然而ROCm技术相较落后,在2023年4月才登录Windows平台。由于切入时间较晚,AMD开发者数量远也低于英伟达。在Github上,贡献CUDA软件包仓库的开发者超过32600位,而ROCm只有不到600个。英伟达大约占据全球80%的GPU市场份额,光从销量来看,都是一家独大。而英伟达的垄断市场的优势可以持续多久?针对这一问题,SemiAnalysis首席分析师DylanPatel给出观点:随着PyTorch支持更多GPU厂商,再加上OpenAI的Triton搅局,英伟达手中的利器CUDA逐渐锋芒不再。软件生态来看,CUDA的霸主地位确实受到各方攻击。近年,AI开发框架PyTorch因灵活的eager模式使用比率逐渐超越了TensorFlow,PyTorch2.0版本将会对AMD、英特尔、特斯拉、谷歌等GPU和加速器进行支持完善。OpenAI则直接推出了“简化版CUDA:Triton”,操作难度低于CUDA。2023年第一季度,AMD宣布ROCm系统融入PyTorch2.0框架,TensorFlow和Caffe深度学习框架也已加入第五代ROCm。其6月发布下一代数据中心加速处理器(APU)AMDMI300软件方面能够全面兼容英伟达CUDA生态,被业内认为有机会挑战英伟达在人工智能的行业地位。尽管如此,从算力角度来看,英伟达H100的升级产品DGXGH200解决了大规模AI的关键瓶颈,适配资金充沛且性能要求高的潜在客户。短期内,CUDA生态仍然稳健,大多数需要训练芯片的用户在仍然会选择英伟达。...PC版:https://www.cnbeta.com.tw/articles/soft/1390713.htm手机版:https://m.cnbeta.com.tw/view/1390713.htm

相关推荐

封面图片

强攻AI叫板英伟达 AMD突围算力芯片大战

强攻AI叫板英伟达AMD突围算力芯片大战但如今,英伟达或已无法高枕无忧。近日,AMD在美国旧金山举办的“数据中心和人工智能技术首映式”活动上,正式发布MI300系列在内的一系列AI和数据中心相关技术产品,其中包括直接对标英伟达旗舰产品H100的MI300X,以及全球首款针对AI和HPC的加速处理器(APU)MI300A。这意味着AMD将在人工智能领域与英伟达“正面刚”。在业界看来,硬刚英伟达,AMD无疑在获取客户,数据和库、硬件加速和生态建设等方面面临重要挑战,以及在当前的行业发展和竞争格局下,其尚未公布的定价将成为战略重点。但在旺盛的市场需求和科技巨头多元布局战略下,AMDMI300X凭借性能优势以及系列相关建构升级,势必将成为AI市场的有力竞争者,以及英伟达高端GPU的重要替代产品。硬刚竞品力创新机随着AI浪潮席卷全球,AMD已将发展人工智能列为核心战略,在技术创新高地保持强力攻势,并于近日推出了新一代AI芯片、数据中心CPU以及预告将推出全新DPU芯片。显然,其中最受瞩目的莫过于用于训练大模型的AI芯片InstinctMI300X,直接对标英伟高端GPUH100。至于另一款同期发布的MI300A,号称全球首款针对AI和HPC的APU,以及业界首款“CPU+GPU+HBM显存”一体化的数据中心芯片。一些分析机构和行业人士研判认为,MI300X性能强大,是对标英伟达高端加速卡的有力竞品。相较H100,MI300X在晶体管数量和显存容量上亦大幅领先。而MI300A凭借CPU+GPU的能力,产品组合性能更高、同时具有成本优势。另外,在收购赛灵思之后,AMD在加速卡领域的定制化服务大幅领先英伟达,能够协助云厂商在特定算法模块上进行训练。随着下游应用端的高速发展,使得微软、Google、Meta等众多海外巨头争相增加算力储备,算力芯片需求高度旺盛之下,英伟达一家独大的市场格局或将迎来转变。但有所遗憾的是,AMD股价在发布会活动过程中转而走低,收跌3.61%。而同行英伟达则收涨3.90%,市值再次收于1万亿美元关口上方。在投资人眼里,AMD的所谓“超级芯片”MI300X似乎仍然难以撼动英伟达的根基。其中,TIRIASResearch首席分析师KevinKrewell表示:“我认为,没有(大客户)表示将使用MI300X或MI300A,这可能会让华尔街感到失望。他们希望AMD宣布已经在某些设计方面取代了英伟达。”目前,AMD公布的客户仅有开源大模型独角兽HuggingFace,以及更早之前透露的劳伦斯利弗莫尔国家实验室。虽然两者与对大模型和数据中心芯片有更大需求的科技巨头不在一个数量级,但在AMD的发布会上值得注意的是,亚马逊旗下云计算部门AWS、甲骨文云、Meta、微软Azure的高管均来到现场。其参会动机一定程度上不言而明。此后,由于传出亚马逊正在考虑使用MI300人工智能芯片,AMD股价随即上涨约1%。InsiderIntelligence分析师JacobBourne表示:“亚马逊正在考虑AMD的MI300,这一事实表明科技公司有意使其AI开发硬件多样化,这可能会为其他芯片制造商创造新的机会。”美国科技类评论家BillyDuberstein也指出,潜在客户对MI300非常感兴趣,正在强烈要求寻找英伟达的替代产品。鉴于目前英伟达H100的服务器价格高昂,数据中心运营商希望看到有一个第三方竞争对手,这有助于降低AI芯片的价格。因此,这对AMD而言是一个巨大的优势,对英伟达来说则是一个挑战。这能为每个市场参与者带来良好的盈利能力。尚有软肋定价是“金”从产品性能来看,AMDMI300X已在业界力拔头筹,包括支持达192GB的HBM3内存(是英伟达H100的2.4倍),HBM内存带宽达5.2TB/s(是英伟达H100的1.6倍),InfinityFabric总线带宽为896GB/s,晶体管数量达到1530亿个,远高英伟达H100的800亿个。但AMD并没有公布这款GPU的价格,使得“双雄”竞争增加了悬念。AMDMI300处理器业界分析称,AMD并没有透露新款AI芯片的具体售价,但想要有显著的成本优势可能不太现实,因为高密度的HBM价格昂贵。即便MI300X的内存达到了192GB,但这也不是显著优势,因为英伟达也拥有相同内存规格的产品。对此,Cambrian-AIResearchLLC创始人兼首席分析师KarlFreund也在福布斯网站上发文表示,虽然MI300X芯片提供了192GB内存,但英伟达在这一点上将很快迎头赶上,甚至在相同的时间框架内可能实现反超,所以这并不是一个很大的优势。而且MI300X的售价将会十分高昂,与英伟达的H100相比不会有明显的成本优势。另据晚点LatePost援引一位AI从业者的话报道称,他所在的公司曾接触一家非英伟达GPU厂商,对方的芯片和服务报价比英伟达更低,也承诺提供更及时的服务。但他们判断使用其它GPU的整体训练和开发成本会高于英伟达,还得承担结果的不确定性和花更多时间。“虽然A100价格贵,但其实用起来是最便宜的。”他说,对有意抓住大模型机会的大型科技公司和头部创业公司来说,钱往往不是问题,时间才是更宝贵的资源。不难猜测,这家非“英伟达GPU厂商”是AMD的可能性极高。由此,在AI浪潮下,争市场还是保盈利,将成为MI300X届时定价的战略重点。但除了价格,AMD势必也面临其它各类挑战。KarlFreund认为,虽然AMD新推出的MI300X芯片激起了市场各方的巨大兴趣,但与英伟达的H100芯片相比面临的一些挑战包括,英伟达的H100现在已开始全面出货,而且到目前为止仍拥有AI行业最大的软件和研究人员生态系统。然而,AMD尚未披露任何基准测试,也还没有上市(预计今年第四季度量产)。另外,训练和运行大语言模型(LLM)时的性能取决于系统设计和GPU,MI300X正式推出时才能看到一些详细比较。至于真正关键的地方,KarlFreund指出,MI300X并不具备H100所拥有的TransformerEngine(一个用于在英伟达GPU上加速Transformer模型的库)。基于此,H100可以将大模型的性能提高两倍。如果用几千个(英伟达的)GPU来训练一个新模型需要一年的时间,那么用AMD的硬件来训练可能需要再等2-3年,或者投入3倍的GPU来解决问题。可即便如此,市场也不愿意英伟达以高溢价垄断市场。美国投行TDCowen在一份报告中指出,“随着市场寻找人工智能市场领军企业英伟达的替代品,AMD成为日益明显的选择。”仅凭这一点,就足以让科技巨头保持对这家公司的高度兴趣。正因如此,资本市场对于AMD给予更多积极的预期。部分行业分析预测,AMD2024年AI相关营收有望达到4亿美元,最高甚至可能达到12亿美元——是此前预期的12倍之多。生态大战前程可期毋庸置疑,与英伟达的H100相比,MI300X也面临着多种挑战和一定劣势。华泰证券表示,AMD对英伟达市场份额的挑战并非能一蹴而就。一方面,英伟达GPU芯片的算力壁垒以及AI训练端的深入布局一时难以撼动,另一方面,AMD的软件生态也限制其与客户系统的融合及渗透应用场景。可以说,英伟达的领先地位不仅来自于其芯片,还来自于十多年来为人工智能研究人员提供的软件工具。MoorInsights&Strategy分析师AnshelSag称:“即使AMD在硬件性能方面具有竞争力,但人们仍然不相信其软件解决方案能与英伟达竞争。”进一步来看,软件生态也被多位行业人士视为英伟达铜墙铁壁一般的护城河。据悉,英伟达于2007年发布CUDA生态系统。通过使用CUDA,开发者可以将英伟达的GPU用于通用的计算处理,而非仅限于图形处理。CUDA提供了一个直观的编程接口,允许开发者更容易使用C,C++,Python,以及其他一些语言来编写并行代码。2023年,CUDA的开发者已达400万,包括Adobe等大型企业客户。而用户越多构成的生态粘性就越大。相比之下,AMD在2016年推出了ROCm,目标是建立可替代英伟达CUDA的生态。在发布M...PC版:https://www.cnbeta.com.tw/articles/soft/1365759.htm手机版:https://m.cnbeta.com.tw/view/1365759.htm

封面图片

英伟达H100 AI GPU利润率高达1000%

英伟达H100AIGPU利润率高达1000%TaeKim的这一说法带来了许多要考虑的因素,首先是与制造实际GPU相关的成本。这个过程包括很多步骤,从购买到运输和售后服务。所以你可能会说1000%的利润预估在这里是不正确的,但我相信你忽略了一个重要的事实。在之前的报道中,我们已经多次提到,H100的销售远远超过其实际定价,在某些情况下,已达到约7万美元。“利润率”可能没有考虑通胀因素,这意味着实际数字可能要高得多。英伟达正在攫取巨额利润,而“加密货币挖矿”的通胀也远不及人工智能泡沫。我们看到大量投资涌入人工智能领域,其中一个例子是英伟达目标是在2023年交付55万个H100。据预测,到2027年,人工智能销售额将超过3000亿美元,英伟达并没有止步于此。下一代人工智能GPU一经推出,我们就会看到爆炸式的增长,公司的市值也会随之飙升。...PC版:https://www.cnbeta.com.tw/articles/soft/1377863.htm手机版:https://m.cnbeta.com.tw/view/1377863.htm

封面图片

英伟达禁止第三方公司兼容 CUDA?相关公司回应

英伟达禁止第三方公司兼容CUDA?相关公司回应据界面新闻,一则有关英伟达试图在其CUDA软件中封杀第三方GPU公司的消息,正引起国内外人工智能及芯片行业的关注。CUDA是英伟达于2006年推出的一套软件平台,专门用于加速GPU计算。对此,英伟达方面并未回应记者的相关问询。针对市场传言,国内GPU公司亦正式做出回应。3月5日晚,GPU芯片公司摩尔线程发布声明称:摩尔线程MUSA/MUSIFY不涉及英伟达EULA相关条款,开发者可放心使用。摩尔线程进一步强调称,由其推出的MUSA架构,与CUDA无任何依赖关系。一直以来,对于如何将CUDA应用迁移到第三方硬件平台,是英伟达对手们的一个难点。一位国内AI芯片企业中层曾向记者表示,用户一旦习惯了CUDA,便很难有动力再迁移出去。因为迁移几乎意味着代码完全重写,工作繁重耗时且不产生经济效益。

封面图片

英伟达正在“垄断”AI产业,国内厂商准备好了吗?

英伟达正在“垄断”AI产业,国内厂商准备好了吗?与其一同前往的还有特斯拉和OpenAI的创始人,埃隆马斯克。这次OpenAI之行,老黄不为别的,就是为了把这台刚出炉的超算送给OpenAI,给他们的人工智能项目研究加一波速。这台DGX-1价值超过百万,是英伟达超过3000名员工,花费三年时间打造。这台DGX-1,能把OpenAI一年的训练时间,压缩到短短一个月。而这,是他对人工智能未来的豪赌,加的一波注。七年之后,在前不久的GTC大会上,老黄穿着皮衣,拿着芯片,整个宣讲不离AI。似乎是在告诉各位,AI的时代,我英伟达,就要称王了,当年的豪赌,他赢了!这么说吧,在去年经历一波矿难之后,不少人都以为曾靠着矿潮狂赚一笔的英伟达,会在矿难之下市值暴跌,一蹶不振。但实际情况却有点微妙……英伟达的股价在跌了大半年之后,从十月份开始,一路上涨,到现在,整个英伟达市值已经涨回到了6500亿美元,是AMD的4倍,英特尔的6倍。瞧瞧,这还是当年那个求着各位买显卡的老黄嘛?而让英伟达的股价疯涨的,那便是他们从十多年前就开始押注的AI计算。给大家一个数据,从15年后,英伟达的GPU在超算中心的市场份额就一路上涨,这几年稳居90%左右。在独立GPU市场上,英伟达的市场占有率也一度超过80%。另外,包括YouTube、CatFinder、AlphaGo、GPT-3、GPT-4在内,AI历史上那些叫得出名的玩意,几乎都是在英伟达的硬件上整出来的。英伟达的硬件,仿佛就是新时代的内燃机,载着AI时代不断前进。差友们可能会有点疑问,为什么在AI爆发的时代,好像就只有老黄有好处,其它的显卡生产商们的显卡不能训练AI嘛?能训练,但只能训练一点点。为啥?这就不得不提到英伟达从2006年就开始着手开发一个东西——CUDA(统一计算设备架构)。差评君简单解释一下它是干嘛的,当你想要计算一些比较庞大的运算问题时,通过CUDA编程,你就能充分利用GPU的并行处理能力,从而大幅提升计算性能。差评君说一个听来的比喻。CPU就好比是个数学教授,GPU就是100个小学生,放一道高数题下来那100个小学生可能会懵逼;但是放100道四则口算题下来,那100个小学生同时做肯定比数学教授快多了。深度学习就是上面的例子中那100道口算题,那个让GPU处理器并行运算的“工具”就叫CUDA。一般来说,使用CUDA和不使用CUDA,两者在计算速度上往往有数倍到数十倍的差距。既然CUDA这么有用,为什么其它的GPU厂商不去搞个竞品呢?不是不去搞啊,而是他们真的没想到!在早期,GPU的作用只是为了加速图形渲染,各大厂商们认为它就是一个图形专用计算芯片,并没有想到把GPU用在其它通用计算方面。至于拿来做深度学习?以那个年代的AI能力,一是没有太大的必要,二是也没有人觉得它有用。英伟达深度学习团队的布莱恩在聊到CUDA时这么说道:“在CUDA推出十年以来,整个华尔街一直在问英伟达,为什么你们做了这项投入,却没有人使用它?他们对我们的市值估值为0美元。”不过说没人用也是过于严重了。其实早在2012年,多伦多大学的AlexKrizhevsky就在ImageNet计算机视觉挑战赛中,利用GPU驱动的深度学习击败了其它对手,当时他们使用的显卡是GTX580。在这之后又经过了4年,那些搞深度学习的人才突然意识到,GPU的这种设计结构方式,在训练AI的速度上,真的是CPU不能比的。而拥有了CUDA原生支持的英伟达GPU,更是首要之选。到现在,资本们已经看到了AI的重要之处,为什么大家都还在卷AI模型,而不去卷老黄的市场呢?原因在于,它们已经很难再拿到AI加速芯片的入场券了。在人工智能产业上,整个深度学习的框架已经是老黄的形状了。AI发展的数十年间,英伟达通过对CUDA开发和社区的持续投入,CUDA和各类AI框架深度绑定。当今使用排行靠前的各类AI框架,就没有不支持CUDA的,也就是说你想要让你的深度学习跑的快?买张支持CUDA的高性能卡是最好的选择,说人话就是——买N卡吧。当然,在CUDA大力发展期间,也有其它公司在尝试着打破英伟达这种接近垄断的局面。2008苹果就提过出OpenCL规范,这是一个统一的开放API,旨在为各种不同的GPU型号提供一个规范,用以开发类似CUDA的通用计算软件框架。但是,通用就意味着不一定好用。因为各大厂商GPU的型号繁而复杂,为了适应各种硬件,驱动版本也多如牛毛,质量参差不齐。而且缺少对应的厂商进行针对性的优化,所以,无论是哪一个版本的OpenCL,在同等算力下,都比不过使用CUDA的速度。而且恰恰是因为OpenCL的通用性,想要开发支持OpenCL的框架,要比开发CUDA的复杂不少。原因还是同一个,缺少官方的支持,看看英伟达对CUDA开发的工具支持吧,CUDAToolkit,NVIDIAGPUComputingSDK以及NSight等等。OpenCL这边,就略显寒酸了……这就导致如今能支持OpenCL的深度学习框架寥寥无几。举个很简单的例子,当下最火的框架PyTorch,就连官方都没有专门对OpenCL进行支持,还得靠着第三方开源项目才能用。那同为显卡供应商的AMD,在面对老黄如日中天的CUDA时,除了OpenCL,有没有自己的解决办法呢?方法确实是有,但效果也确实不咋的。2016年AMD发布了全新的开放计算平台——ROCm,对标的就是英伟达的CUDA,最关键的一点是,它还在源码级别上对CUDA程序进行支持。你看,就算是老黄的死对头AMD,想的也不是另起炉灶,而是降低自己适配CUDA的门槛……但是,时至今日,ROCm依然还是只支持Linux平台,可能也是用的人太少了,有点摆烂的味道,毕竟,既然你支持CUDA,那我为什么要费尽心力去给你的ROCm专门编写一套支持框架呢?同年,Google也有了行动,但毕竟不是芯片制造商,Google只是推出了自己的TPU平台,专门针对自家的TensorFlow框架进行优化,当然原生支持的最好的也只有TensorFlow了。至于英特尔那边,也推出了一个OneAPI,对标老黄的CUDA,不过由于起步较晚,现在还处于发展生态的环节,未来会怎样还不太好说。所以靠着先发优势还有原生支持,导致现在的深度学习,基本上离不开英伟达的GPU和他的CUDA。最近大火的ChatGPT,就用了老黄的HGX主板和A100芯片,而老黄对此也是很有自信的说道:“现在唯一可以实际处理ChatGPT的GPU,那就只有我们家的HGXA100。”没错,没有其它可用的了,这就是老黄的有恃无恐。而随着OpenAI对大模型AI的成功验证,各家巨头对大模型AI的纷纷入局,英伟达的卡已经立马成了抢手货。所以如今的AI创业公司,出现了一件很有意思的现象,在他们的项目报告上,往往会搭上一句我们拥有多少块英伟达的A100。当大家在AI行业纷纷投资淘金时,英伟达就这样靠着给大家卖水——提供AI加速卡,大赚特赚,关键还在于,只有它卖的水能解渴。因为它的硬件以及工具集,已经能影响到整个AI产业的战局和发展速度了。更可怕的是,英伟达的优势已经形成了一种壁垒,这壁垒厚到就连全球第二大GPU厂商AMD都没有办法击穿。所以在AI大浪滔天的现在,能整出属于自己的AI大模型固然重要,但差评君却觉得,啥时候能有自己的英伟达和CUDA也同样不可小觑。当然,这条路也更难。最后,差评君觉得在未来,我们需要抓紧突破的,绝对不只是对人工智能大模型相关的研究,更为重要的是整个计算芯片的设计,制造,以及AI生态的建设。新的工业革命已经到来,A...PC版:https://www.cnbeta.com.tw/articles/soft/1352789.htm手机版:https://m.cnbeta.com.tw/view/1352789.htm

封面图片

英博数科 CEO 周韡韡:目前英伟达 GPU 标准等货周期长达 52 周以上

英博数科CEO周韡韡:目前英伟达GPU标准等货周期长达52周以上英博数科CEO周韡韡表示,我们的第一个计算中心投产之后,获得了正向现金流回报,收入远超预期,因此公司进一步加速算力采购。2023年2月,公司交付首个DGXA800AI算力集群。截至2023年10月,累计交付3000PFLOPSAI算力,持续扩张单一通讯集群超大智算单元。这里的GPU以H系列为主,从今年4月份之后,公司就没有再去订购A系列。实际上,英伟达产品“一卡难求”主要原因仍是产能供应不足。目前英伟达GPU标准等货周期长达52周以上,意味着要等一年以上的时间才能拿到货。我们没有继续订购A系列也是基于对其产能的评估。我们对英伟达采购的事情肯定是不会间断的,英伟达也会继续在中国区推出合规产品。公司现在也在和AMD、英特尔以及国产芯片生态进行深入沟通。市场一直在试图给公司贴上英伟达标签,但事实上,我们从底层架构到软件加速器开发,和众多品牌都有合作,而且效果不差。(中证报)

封面图片

今年,谁抢到了最多英伟达GPU?

今年,谁抢到了最多英伟达GPU?根据Omdia半导体研究最新公布的报告,微软和Facebook母公司Meta位居榜首,双双从英伟达购买了15万块H100GPU。微软购买如此巨大数量的GPU为意料之中,但Meta并不是云提供商,这一数字有些令人匪夷所思。从第三名开始,购买数量开始断崖式下跌。谷歌、亚马逊和甲骨文等公司各抢到了5万块GPU。其中,谷歌通过自研的张量处理单元弥补了一些芯片需求。中国科技巨头也是英伟达芯片的大客户,比如腾讯购买了5万块H800GPU,百度和阿里巴巴分别购买了3万和2.5万块GPU。值得注意的是,本次客户名单中并没有出现苹果的身影。分析认为,其部分原因可能是,苹果开发人员更喜欢谷歌的张量处理器,但更有可能的是,由于公司人工智能路线图不明确,苹果在向英伟达下大订单方面犹豫不决。或者,苹果可能决定从云提供商那里租用芯片,而不是购买芯片。另外,在巨头云集的名单上,混入了一块叫CoreWeave的初创云服务提供商。据Omdia统计,CoreWeave获得了4万块GPU,仅比谷歌少了1万块。据华尔街见闻早前文章,英伟达瞄准云服务领域后看上了CoreWeave,联手谷歌、扶持这家被称为“算力黄牛”的公司。英伟达为了扶持CoreWeave,即使在H100紧缺的情况下,还是把大量的新卡分配给了CoreWeave,并直接参与投资。今年4月,在CoreWeave4.21亿美元B轮融资中,英伟达成为了主要参与者,让CoreWeave估值升至20亿美元。...PC版:https://www.cnbeta.com.tw/articles/soft/1402401.htm手机版:https://m.cnbeta.com.tw/view/1402401.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人