英伟达GPU囤太多,科技巨头赚不出2000亿美元?红杉与AI大佬激辩

英伟达GPU囤太多,科技巨头赚不出2000亿美元?红杉与AI大佬激辩不论是“领头羊”微软,还是“后起之秀”Google、Meta、Adobe,这些公司还处于将AI接入其产品的阶段,还没有真正“货币化”,即从AI那里赚到真金白银。目前,许多公司的AI服务都是免费的,只有微软敢把Copilot费用提价83%,但消费者还未必买账。尽管还未真正实现盈利,但科技公司大举投资AI领域、囤积GPU,已成为事实。根据华尔街分析师预测,到今年年底,英伟达的GPU销售额可能突破500亿美元。到此,投资者们就不禁想问,在盈利前景还不明朗的情况下,如此大举购买GPU,科技公司们能回本吗?到头来,会不会竹篮打水一场空?如果能回本,那什么时候才能回本呢?风投机构红杉的合伙人DavidCahn日前发文进行了计算。Cahn认为,每1美元的GPU支出,大约对应1美元的数据中心能源成本,也就是说,保守估计下,如果英伟达到年底能卖500亿美元的GPU,数据中心的支出就高达1000亿美元。然后,以50%的利润率假设,AI行业需要2000亿美元的收入才能收回前期投资的成本。但Cahn指出,目前只有750亿美元的年收入,缺口达到1250亿美元。质疑声袭来对于Cahn提出的观点,硅谷创投巨头A16Z特别顾问、AI初创公司2X创始人GuidoAppenzeller进行了反驳,逐字逐句地推翻了其论点。总体而言,Appenzeller的核心论点围绕着一个信念,即人工智能将成为几乎任何含软件产品中无处不在的组件。他断言,在GPU基础设施上的大量投资,即使高达500亿美元,也可以很容易地在全球5万亿美元的巨大IT支出中得到摊销。他不仅推翻了红杉对于AI赚钱能力的估算,还指出红杉最根本的问题是,低估了AI历史性革命的影响。具体而言,Appenzeller首先指出,Cahn是“标题党”,企图用“2000亿美元”这样一个数字来吸人眼球,但实际上他的计算过程完全是错的。Appenzeller指出,Cahn把GPU的购买成本(资本性支出)、每年的运营成本、GPU使用周期内的累计收入和AI应用带来的年收入都加到了一起,得到了2000亿美元这一看起来超级夸张的数字。但他认为,更合适的计算方法应该基于GPU买家投资成本所获得的年回报率。其次,他还认为,GPU的电费成本也被夸大了。根据Appenzeller的说法,一块H100PCIeGPU的成本大约是3万美元,耗电量约为350瓦,考虑到服务器和冷却,总功耗可能在1千瓦左右。以0.1美元/千瓦的电价计算,这块H100GPU在5年的生命周期内,在GPU硬件上每花1美元,其需要的电费仅为0.15美元,远低于Cahn估算的1美元。但最重要的是,Appenzeller认为,Cahn忽略了AI革命的规模。他指出,AI模型就像CPU、数据库和网络一样,是一种基础设施组件。而现在,几乎所有的AI软件都在使用CPU、数据库和网络,未来也是如此。那么,AI行业到底能不能赚够2000亿美元?Appenzeller给出了肯定的答案,而且不止如此,作为网络基础设施,它创造的收入会以不同形式存在于每个部门。因此,他总结称,AI会颠覆一切软件,Cahn所谓的“AI收入缺口”其实并不存在。...PC版:https://www.cnbeta.com.tw/articles/soft/1386107.htm手机版:https://m.cnbeta.com.tw/view/1386107.htm

相关推荐

封面图片

AI行业买英伟达GPU 花的钱比赚的多17倍 有人却表示很合理

AI行业买英伟达GPU花的钱比赚的多17倍有人却表示很合理上个周末,机器学习社区围绕这个数字热烈地讨论了起来。明星创业公司,几周估值翻倍:但没有收入由知名投资人PeterThiel支持的AI初创公司CognitionLabs正在寻求20亿美元估值,新一轮融资在几周之内就将该公司的估值提高了近六倍。在如今火热的生成式AI领域里,Cognition是一家冉冉升起的新星。如果你对它还不太熟悉,这里有它的两个关键词:国际奥赛金牌团队,全球首位AI程序员。Cognition由ScottWu联合创立,其团队组成吸引眼球,目前只有10个人,但包含许多国际信息学奥林匹克竞赛的金牌选手。CognitionLabs的团队,CEOScottWu(后排身穿衬衣)只有27岁。该公司在今年3月推出了AI代码工具Devin,号称“第一位接近人类的AI程序员”,能够自主完成复杂的编码任务,例如创建自定义的网站。从开发到部署,再到debug,只需要人类用自然语言给需求,AI就能办到。该新闻很快就登上了众多媒体的头条,也成为了热搜:一些投资者表示,Devin代表了人工智能的重大飞跃,并可能预示着软件开发的大规模自动化之路已经开启。Cognition虽然神奇,但它并不是个独苗。最近一段时间,生成式AI展现了超乎想像的吸金能力。去年12月,总部在法国的Mistral获得了4.15亿美元融资,估值达到20亿美元,比前一年夏天的一轮融资增长了大约七倍。3月初,旨在挑战Google网络搜索主导地位的AI初创公司Perplexity也传来新一轮融资的消息,新估值有望达到近10亿美元。而在这其中,作为一家旨在提供AI自动代码工具的创业公司,Cognition去年才开始研发产品,目前并没有获得有意义的收入数字。今年初,在FoundersFund牵头的一轮2100万美元融资中,该公司的估值达到了3.5亿美元。据介绍,美国著名创业投资家、创办FoundersFund的PeterThiel帮助领导了对Cognition的投资。PeterThiel是全球畅销书《从0到1:开启商业与未来的秘密》的作者,身家71亿美元。AI编写代码看起来是一个有前途的大模型应用方向,其他提供类似产品的公司也看到了增长势头。上个季度,微软的代码工具GitHubCopilot用户数量增长了30%达到130万。MagicAI是Cognition的竞争对手,2月份获得了1.17亿美元的投资。国内也有一些代码生成自动化工具的初创企业,在生成式AI技术爆发后正在加速行业落地。尽管出现了令人鼓舞的增长迹象,新公司的估值也不断膨胀,但这种快速发展也引发了人们对于出现泡沫的担忧——到目前为止,很少有初创公司能够展示他们如何赚钱,想要收回开发生成式AI的高昂成本,似乎还没有门道。在3月的一次演讲中,红杉资本(SequoiaCapital)有投资人估计AI行业去年为了训练大模型,仅在英伟达芯片上就花费了500亿美元,而换来的收入是30亿美元。所以说,不算电费,开销是收入的17倍。怎么样,今年还玩得起吗?出路在哪如今生成式AI技术的爆发,可谓验证了强化学习先驱RichardS.Sutton在《苦涩的教训》中的断言,即利用算力才是王道。黄仁勋两周前在GTC上也曾表示:“通用计算已经失去动力,现在我们需要更大的模型、更大的GPU,需要将GPU堆叠在一起……这不是为了降低成本,而是为了扩大规模。”但是在千亿、万亿参数量的大模型出现之后,通过提升规模来提升智能的方法是否还可以持续,是一个无法回避的问题。更何况现在的大模型已经很贵了。华尔街日报的文章迅速引起大量讨论。有网友认为:“资本支出通常就是一次性的,而投资的收入却是日积月累的。生成式AI刚刚起步,其后续的经济收益可能是巨大的。”但这种乐观的观点很快遭到反驳,另一位网友指出:“资本的支出的确是一次性的,但GPU会相对较快地贬值。”为什么说GPU会快速贬值呢?虽然较老版本的GPU也不会停止支持CUDA(英伟达推出的运算平台)等等,但与H100相比,V100的能源消耗是巨大的浪费。毕竟同样也是在3月份,英伟达已经发布了全新一代AI加速的GPUBlackwell系列。近八年来,AI算力增长了一千倍。如果使用V100可以赚钱,那当然没问题。然而,如诸多媒体报道所述,对大多数公司来说,现阶段运行大模型并没有转化为实际收入。另一方面,看看现在大模型每周都在推陈出新的状态,即使几年前的GPU在算力角度看可以接受,但大模型也在“快速折旧”。七年后的AI,用现在的基础设施能支撑吗?此外,如果一家公司花费大量成本来购买V100,试图跟上生成式模型的趋势,那么可能就会出现研究团队雇佣成本不足的问题,那么最终可能还是无法做出有实际应用、经济收益的产品。值得注意的是,许多LLM都需要额外的处理层来消除幻觉或解决其他问题。这些额外的层显著增加了生成式模型的计算成本。这不是10%的小幅增长,而是计算量增长了一个数量级。并且许多行业可能都需要这种改进。图源:Reddit用户@LessonStudio从行业的角度讲,运行生成式大模型需要大型数据中心。英伟达已经非常了解这个市场,并持续迭代更新GPU。其他公司可能无法仅仅投资数百亿美元来与之竞争。而这些GPU需求还只是来自各大互联网公司的,还有很多初创公司,例如Groq、Extropic、MatX、Rain等等。最后,也有人给出了这种夸张投入的“合理性”:坐拥大量现金的微软、Google和Meta,他们因为反垄断法规而无法继续收购,因而只能选择将资金投入AI技术发展。而GPU支出的折旧,可以作为损失避免缴纳更多税款。但这就不是创业公司所要考虑的事了。无论如何,竞争会决出胜者。无论花掉多少钱,成为第一可能就会带来潜在的收益……但是什么样的收益,我们还无法作出预测。难道,生成式AI真正的赢家是英伟达?...PC版:https://www.cnbeta.com.tw/articles/soft/1425787.htm手机版:https://m.cnbeta.com.tw/view/1425787.htm

封面图片

中国互联网巨头豪掷50亿美金疯抢GPU?英伟达回应

中国互联网巨头豪掷50亿美金疯抢GPU?英伟达回应据报道,中国的互联网巨头百度、腾讯、阿里巴巴以及字节跳动公司今年向英伟达下达的交付订单金额达到10亿美元,总共采购约10万张A800芯片;明年交付的AI芯片价值更是达到40亿美元。按照10亿美元购入10万张A800芯片来计算,每张A800芯片的价格达到1万美元,这与市场价相符。A800芯片是去年美国出台对中国芯片限售令后,英伟达在中国提供的替代方案,满足出口管制规定。“GPU已经成为市场上公认的稀缺货,并且在未来的一两年内,仍会保持稀缺。”一位大模型开发者告诉第一财经记者。业内认为,中国互联网巨头抢购英伟达GPU,也与担心美国未来出台更严厉的限售令有关。一般而言,已经确认的订单不会受到新的出口限制的影响。目前国内已经发布的大模型数量不下几十个,“百模大战”已经打响,其中科技巨头的大模型包括百度的文心一言、阿里巴巴的通义千问、科大讯飞的星火认知大模型。这些厂商目前大部分也都使用英伟达的GPU芯片进行大模型的训练。训练和推理是人工智能大模型主要的两个过程。首先,使用大量数据训练模型,这个过程可能需要数月时间,有时需要数千个GPU;然后,模型在软件中使用推理来进行预测或生成内容。训练与推理的计算成本都很高,每次软件运行时都需要大量处理能力。目前英伟达的芯片更适用于大模型的训练。为了满足推理方面的需求,英伟达在今年的SIGGRAPH大会上发布了一款GH200芯片。英伟达创始人CEO黄仁勋表示:“它会疯狂推理。”有分析数据预计,数据中心AI加速计算芯片的市场规模有望从今年的300亿美元增长至2027年的超过1500亿美元规模,年复合增长率超过50%。目前英伟达占据全球AI计算芯片市场80%至95%的份额。据英伟达方面透露的数据,中国市场占英伟达数据中心业务收入20%至25%的份额。今年第一季度,英伟达包括人工智能芯片以及其他计算芯片在内的数据中心销售额总计42.8亿美元。英伟达将于本月23日公布新一季财报,业内预计英伟达业绩增长将会再创新高。今年受到人工智能热潮的推动,英伟达年内股价涨幅一度达到210%。不过受到近日美国限制对华关键技术领域投资消息的影响,英伟达近两个交易日股价跌幅5%,但市值仍在1万亿美元上方。...PC版:https://www.cnbeta.com.tw/articles/soft/1376387.htm手机版:https://m.cnbeta.com.tw/view/1376387.htm

封面图片

大摩:AI基建才刚开始 英伟达不是思科 远没到1999年

大摩:AI基建才刚开始英伟达不是思科远没到1999年摩根士丹利ShawnKim分析师团队本周发布报告,对比了互联网泡沫与当前的AI热潮,强调当前AI基础设施投资热潮仅仅处于初期阶段,尚未达到互联网1999年的泡沫水平。AI基础设施建设仅仅是一个开始。每个超大规模企业都在构建基础设施,以便尝试在该基础设施之上构建应用程序、工具和服务。今天,正在进行的AI数据中心加速计算建设只是第一阶段,但这只是构建所有AI应用程序的支柱,增加了一个颠覆性的技术层(大型语言模型),成本更低,上市更快。互联网泡沫从1994年12月开始,到2000年3月达到顶峰,期间经历了多次回调。英伟达首次上调销售预期是在2022年5月,ChatGPT在2022年11月才被广泛讨论。从时间上看,我们尚未达到1999年的泡沫水平。尤其是,GPU投资才刚刚起步,大摩认为,AI供应链的投资增长将会对其产生乘数效应:每100美元的云资本支出将转化为30-40美元的AI收入,这意味着在GPU上的投资将成倍增加。除了GPU之外,AI供应链的增长还将为HBM、定制芯片设计、制造和测试等领域带来机遇。另外,考虑到GPU开发技术复杂,如一块GraceHopper100芯片包含35000个组件,重量达35公斤,英伟达凭借长期的积累,在该领域拥有较为宽阔的技术“护城河”。因此,尽管越来越多同行“下海”自主研发AI芯片,英伟达算力“一哥”的地位在很长一段时间内不会被动摇。即使从估值角度来看,英伟达股价也很可能未见顶。摩根大通在报告中写道:回顾2000年网络泡沫期间的代表性公司思科,其当时的收入增长率达到了59%,而其前瞻市盈率高达138倍。相比之下,如今的英伟达市盈率仅为30倍,但其收入增长率却达到了90%。因此,无论从估值的角度还是从长远看,我们都不能认为当前(英伟达)已接近市场的顶峰。大摩认为,AI基础设施的初期投资巨大,但长期来看,其带来的应用层价值可能远超成本。超大规模公司在AI领域的投资将要求相应的回报率,这将推动AI云服务的盈利增长。...PC版:https://www.cnbeta.com.tw/articles/soft/1423055.htm手机版:https://m.cnbeta.com.tw/view/1423055.htm

封面图片

从亏钱生意到利润1000% 英伟达靠什么成为万亿GPU霸主?

从亏钱生意到利润1000%英伟达靠什么成为万亿GPU霸主?GPU芯片在超级计算和全球巨头大模型训练战中地位举足轻重,而掌握全球80%GPU市场份额的英伟达赚得盆满钵满。然而,这种垄断式的市场占有率不是一夜砌成的“城墙”。据Tractica数据,预计到2025年全球AI硬件市场收入将达到2349亿美元,其中GPU的收入占23.2%。英伟达在GPU市场的构筑的护城河,CUDA是其中至关重要的一环。一套完善的编译器生态2006年,正是在AMD收购了ATI、英特尔依然蝉联全球第一大芯片厂商的时候,英伟达推出了CUDA(ComputeUnifiedDeviceArchitecture),它是英伟达研发的平行运算平台及编程模型。AI大神吴恩达简单评价了CUDA的意义:“在CUDA出现之前,全球能用GPU编程的可能不超过100人,有CUDA之后使用GPU就变成一件非常轻松的事。”多数CUDA的推荐者认为,CUDA完善的编译器生态是英伟达GPU在高性能计算领域成功的关键。具体来讲,CUDA具有易部署、开发接口灵活、编程语言适配、工具及代码库完备等优点,并且兼容Windows、Linux和MacOS多个操作系统。CUDA的开发让GPU不再是简单的图形处理器,适用对象也从游戏制作人变为科学家、工程师或艺术家。随着不断迭代,CUDA在针对AI或神经网络深度学习领域推出了非常多的加速库,构成了CUDA的软硬件生态站。大卫·罗森塔尔在Acquired.FM中介绍,CUDA的代码库是经过优化的,开发人员调用这些库开发程序更加便利。因此,CUDA有庞大的社区资源,2023年5月注册开发者增加至400万人。投入过百亿的CUDA生态英伟达凭借CUDA几乎垄断了训练芯片市场,业界也几乎没有巨头对CUDA生态造成颠覆性冲击。英伟达为CUDA生态铺垫了十余年。2007年,英伟达的GPU研发技术已占据强势地位,次年英特尔的大客户苹果将MacBook除CPU外直接替换成英伟达Tesla架构的GPU便印证了这一点。据报道,经年累计英伟达对CUDA总投入早已超过100亿美元。在黄仁勋商业化考虑之下,CUDA生态需要培养潜在开发者,成为受到程序员和企业欢迎的技术平台。在2006年推出CUDA后,英伟达的第一个战略便瞄准了“软件开发人员”,投入巨资让开发者习惯使用CUDA平台。初期,开发者社区有这样一句话:CUDA在编程语言和共享存储器两个层次的并行都简化了编程,使得本科生也能使用CUDA写出大规模高性能计算程序。为扩大覆盖率,英伟达将CUDA引入大学课堂,与伊利诺伊大学等高校合作完善函数库。在2010年时,已有250所大学开放CUDA的教学课程,并有相关论文数千篇。以此为基础完善生态,英伟达建立研究中心、教学中心、认证计划,到2015年已有800所大学开发相关课程。再从业界来看,英伟达投入资金做inception计划(初创加速计划),让初创公司运用CUDA做项目铺垫基础。至今,已有超过100家初创公司利用了CUDA。此外,英伟达开源了Cub、NCCL等通用场景下的开发库,并优化中间件性能的基础库给厂家使用,再次扩大了生态系统。因此,许多开发者依赖于CUDA,同时凭借强大的核心能力在消费市场上受到青睐。2012年,在ImageNet竞赛一举夺冠的AlexNet面世后,CUDA已迭代至5.0版本,支持了动态库和GPU指针。2016年,OpenAI成立之时,CUDA8.0已经支持半精度浮点数和张量核心,软件生态已由学界和业界人士熟知、互相推荐。2022年底,ChatGPT的发布将生成式AI送到人们眼前,CUDA12.0支持了新的NVIDIAHopper和NVIDIAAdaLovelace架构功能,并为所有GPU提供了额外的编程模型增强。等到大模型热度吹进各家企业时,英伟达已经深化了他们在行业中的差异化,成为市场玩家购物篮的第一选择。目前为止,基于CUDA的GPU销量超过百万。而众多GPU芯片厂家中,为什么是英伟达做出了唯一的CUDA开发环境?从亏钱生意到利润1000%回顾世纪初期,英伟达与微软、ATI、AMD、英特尔五家巨头的混战,英伟达在图形处理市场中逐渐占据优势。2006年7月,AMD以54亿美元溢价收购ATI,芯片市场重新洗牌。同年,英伟达的首席科学家DavidKirk提出了“将GPU技术通用化”的思路,从主要做3D渲染的任务中脱离出来,探索通用计算任务。这个思路就是CUDA。而当时,愿意担起这门费钱费力的技术活的也是英伟达。几大家芯片公司中,老对手AMD买下ATI后GPU研发进入弱势地位,英特尔取消了自研GPU计划。英伟达则在GPU技术方面将巨头们甩在了身后。17年前,研发CUDA是一个超前的决定,英伟达的CUDA进化并非一帆风顺,黄仁勋则坚持“加速计算”是未来。英伟达和英特尔在2006年秋天共同开发了基于CUDA的新型GPU,即G80GPU。而两者的合作持续不长久,CUDA的研发决策需要英伟达长久地投入大量资金。从产品特性上来说,CUDA逻辑电路在硬件产品中增加会导致芯片的散热需求增高,由此也会带来成本上升、故障增多的风险。从财报表现来看,CUDA也是一门亏钱生意,在2008年金融危机前后表现得更为明显。在最艰难的时候,黄仁勋也没有中断CUDA,直到2012年辛顿教授带队以GPU代替CPU训练AI模型做出了AlexNet。2020年,黄仁勋在接受Barron周刊时强调:“英伟达将推动下一个人工智能大爆炸。”这5年,为了迎接人工智能,英伟达做了3件事。第一,2019年3月,英伟达以69亿美元收购了高性能计算互联技术公司Mellanox。这家公司的主要产品InfiniBand,被认为速度更快、带宽更高,是数据传输的有效方式,而Mellanox是唯一的InfiniBand规范提供商。第二,英伟达于2022年9月发布新一代AI芯片“DriveThor”,专为大规模GPU集群协调设计,是英伟达一款完全集成的解决方案。第三,英伟达推出专为加速计算和生成式AI打造的Hopper架构,H100便是基于此架构的GPU。市场消息称,H100是英伟达利润率高达1000%的产品,出货量超过900吨。随着ChatGPT发布,带动AI服务器出货量和价格上涨,英伟达的GPU芯片价格水涨船高。英伟达的DGXH100售价总价为268495美元,包含8GPU+4NVSwitch基板等,每台毛利率接近190000美元。英伟达的财务收入令人瞩目,据悉,过去3个财年的复合年增长率(CAGR)达到35.2%,预计2023年收入将飙升51.4%至408亿美元。CUDA构筑的壁垒能被打破吗?2016年,AMD推出基于开源项目的GPU生态系统ROCm,类似英伟达的CUDA系统,然而ROCm技术相较落后,在2023年4月才登录Windows平台。由于切入时间较晚,AMD开发者数量远也低于英伟达。在Github上,贡献CUDA软件包仓库的开发者超过32600位,而ROCm只有不到600个。英伟达大约占据全球80%的GPU市场份额,光从销量来看,都是一家独大。而英伟达的垄断市场的优势可以持续多久?针对这一问题,SemiAnalysis首席分析师DylanPatel给出观点:随着PyTorch支持更多GPU厂商,再加上OpenAI的Triton搅局,英伟达手中的利器CUDA逐渐锋芒不再。软件生态来看,CUDA的霸主地位确实受到各方攻击。近年,AI开发框架PyTorch因灵活的eager模式使用比率逐渐超越了TensorFlow,PyTorch2.0版本将会对AMD、英特尔、特斯拉、谷歌等GPU和加速器进行支持完善。OpenAI则直接推出了“简化版CUDA:Triton”,操作难度低于CUDA。2023年第一季度,AMD宣布ROCm系统融入PyTorch2.0框架,TensorFlow和Caffe深度学习框架也已加入第五代ROCm。其6月发布下一代数据中心加速处理器(APU)AMDMI300软件方面能够全面兼容英伟达CUDA生态,被业内认为有机会挑战英伟达在人工智能的行业地位。尽管如此,从算力角度来看,英伟达H100的升级产品DGXGH200解决了大规模AI的关键瓶颈,适配资金充沛且性能要求高的潜在客户。短期内,CUDA生态仍然稳健,大多数需要训练芯片的用户在仍然会选择英伟达。...PC版:https://www.cnbeta.com.tw/articles/soft/1390713.htm手机版:https://m.cnbeta.com.tw/view/1390713.htm

封面图片

英伟达第一财季收入猛增三倍 宣布10比1拆股,盘后涨5%

英伟达第一财季收入猛增三倍宣布10比1拆股,盘后涨5%财报还显示,英伟达当季的毛利润率为78.9%,显著高于分析师预期的77%。公司预计二季度收入为280亿美元(加减2%),好于市场预期的268亿美元。英伟达还宣布,将进行10比1的拆股,并将股息按拆股后提高150%至每股0.01美元。周三英伟达收跌0.5%,周二曾以953.86美元创下历史收盘新高,今年以来累涨近92%,显著跑赢标普500指数和纳指的涨超11%。公司市值跃升至2.3万亿美元,仅次于微软和苹果在美股市场排名第三,从2022年10月股价低点已经巨幅反弹近750%,去年一年便大涨了240%。华尔街对英伟达财报预期一如既往地高涨。有40位分析师评级“买入”,2人评级“持有”,没人建议“卖出”,平均目标价1057.76美元代表还有11%的涨幅空间。财报前市场预期华尔街预计英伟达的季度收入同比大幅增长240%至246亿美元,将是连续第三个季度的收入同比增幅超过200%。预计净利润增长540%至131亿美元,收入和利润或均创新高。上年同期,英伟达整体收入为71.92亿美元,或仅为一年后季度收入的三分之一,调整后每股收益为1.09美元,而分析师预计最新财报的调整后EPS为每股收益5.65美元或翻超五倍。英伟达官方指引是2025财年第一季度的收入大概为240亿美元,非GAAP毛利率从上季度的76.7%小幅扩大至77%,GAAP和非GAAP运营费用分别约为35亿和25亿美元。华尔街还预计,英伟达在明年1月结束当前财年时的季度销售额将突破300亿美元大关,第二财季收入或进一步增至266.7亿美元,整个财年的收入或升破1100亿美元整数位。上个财年的收入曾同比增长126%至609亿美元创历史新高。分业务来看,数据中心收入早已超越游戏GPU业务成为英伟达高速增长的关键领域,预计第一财季246亿美元的总收入中有超过210亿美元来自数据中心与AI相关的先进芯片销售,去年同期的该项收入为42.84亿美元,等于会翻五倍增长。华尔街见闻还提到,昔日最大的游戏业务营收预计同比增长16.9%至26.2亿美元,上年同期为22.4亿美元。专业可视化业务的营收预计同比增长61.8%至4.8亿美元,上年同期为2.95亿美元。汽车业务营收预计同比下降1.2%至2.9亿美元,上年同期为2.96亿美元。OEM及其他业务营收预计同比增11.3%至8570万美元。上个季度(即截至2024自然年1月的财年四季度),英伟达季度收入创新高至221亿美元,环比劲增22%、同比大涨265%。其中,数据中心收入创新高至184亿美元,环比增长27%、同比增长409%。调整后EPS为每股收益5.16美元,环比增28%、同比增486%。为什么重要英伟达是人工智能芯片生产领域无可争议的领导者,也是AI风潮最明显的受益方。外加其股价涨幅已占到今年标普500指数涨幅的四分之一,难怪有分析称这是本季度或全年最重要的一份财报,不仅将提供人工智能领域的最新洞见,还会左右到AI概念股、甚至是股市大盘的表现。英伟达财报还将成为对科技行业人工智能投资和需求能否延续的关键检验指标。据券商Bernstein估算,谷歌、亚马逊、微软、Meta和苹果等超大规模企业今年预计有总共2000亿美元的资本支出,其中很大一部分用于购买AI芯片等专用基础设施,而英伟达占据约80%的AI芯片市场。投行Stifel指出,投资者注意力可能仍将集中在AI基础设施投资加速的中期可持续性。Bernstein称,目前不知道这个投资周期会持续多久,以及在这段时间内会产生多少过剩产能,以防AI发展没有预期那样快。华尔街怎么看?华尔街首先关注英伟达的收入指引和AI前瞻。一方面,对英伟达这种体量庞大的企业来说,其盈利增长速度几乎是史无前例的,还能维持住高利润率也实属罕见。今年下半年英伟达的下一代最强芯片BlackwellGB200将正式上市,势必继续增厚利润,KeyBancCapitalMarkets认为,最强芯片可能会在2025年为数据中心带来超过2000亿美元的收入。CFRA分析师相信,在向人工智能服务器的持续转变、中央处理器扩张的早期阶段,以及与新软件应用程序和更关注能效等潜在目标市场上行空间的推动下,英伟达还有很大的增长空间。但也有不少人指出,鉴于AMD和Arm本次财报季的股价反应,英伟达业绩如果仅仅只是“符合预期”可能会导致股价下跌,或需要接近260亿美元的季度收入和类似高增长的指引,才能满足是市场的高预期。第二个关注点为利润率是否已触及近期峰值和资本支出。有人担心,英伟达利润率将随着新产品推出背后的资本支出加速而在下半年有所收窄。上季度的运营支出同比增长25%至22.1亿美元,预计第一财季的支出规模可能接近30亿美元。第三个关注点是公司管理层会否评价Blackwell超强芯片对现有H100Hopper芯片的销售替代作用,以及来自微软、谷歌、亚马逊等超大型科技公司自研AI芯片的竞争风险。资管机构Deepwater的联合创始人GeneMunster和美国银行等分析师都担心,下半年Blackwell正式推出会抑制英伟达近期的芯片销售,“一款主要产品在上市前六个月便官宣预热,可能会产生一些后果,即未来两个季度的收入会令人失望,季度环比增幅或首次低于10%。”而在英伟达客户都去开发自研芯片的担忧方面,PiperSandler分析师直言不要过虑,即使谷歌等公司打造自己的定制芯片,英伟达仍将保持至少75%的人工智能加速器市场份额。RaymondJames也称,鉴于Blackwell芯片即将推出,就算英伟达有任何股价回调都将是短暂的。...PC版:https://www.cnbeta.com.tw/articles/soft/1431971.htm手机版:https://m.cnbeta.com.tw/view/1431971.htm

封面图片

今年,谁抢到了最多英伟达GPU?

今年,谁抢到了最多英伟达GPU?根据Omdia半导体研究最新公布的报告,微软和Facebook母公司Meta位居榜首,双双从英伟达购买了15万块H100GPU。微软购买如此巨大数量的GPU为意料之中,但Meta并不是云提供商,这一数字有些令人匪夷所思。从第三名开始,购买数量开始断崖式下跌。谷歌、亚马逊和甲骨文等公司各抢到了5万块GPU。其中,谷歌通过自研的张量处理单元弥补了一些芯片需求。中国科技巨头也是英伟达芯片的大客户,比如腾讯购买了5万块H800GPU,百度和阿里巴巴分别购买了3万和2.5万块GPU。值得注意的是,本次客户名单中并没有出现苹果的身影。分析认为,其部分原因可能是,苹果开发人员更喜欢谷歌的张量处理器,但更有可能的是,由于公司人工智能路线图不明确,苹果在向英伟达下大订单方面犹豫不决。或者,苹果可能决定从云提供商那里租用芯片,而不是购买芯片。另外,在巨头云集的名单上,混入了一块叫CoreWeave的初创云服务提供商。据Omdia统计,CoreWeave获得了4万块GPU,仅比谷歌少了1万块。据华尔街见闻早前文章,英伟达瞄准云服务领域后看上了CoreWeave,联手谷歌、扶持这家被称为“算力黄牛”的公司。英伟达为了扶持CoreWeave,即使在H100紧缺的情况下,还是把大量的新卡分配给了CoreWeave,并直接参与投资。今年4月,在CoreWeave4.21亿美元B轮融资中,英伟达成为了主要参与者,让CoreWeave估值升至20亿美元。...PC版:https://www.cnbeta.com.tw/articles/soft/1402401.htm手机版:https://m.cnbeta.com.tw/view/1402401.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人