AI行业买英伟达GPU 花的钱比赚的多17倍 有人却表示很合理

AI行业买英伟达GPU花的钱比赚的多17倍有人却表示很合理上个周末,机器学习社区围绕这个数字热烈地讨论了起来。明星创业公司,几周估值翻倍:但没有收入由知名投资人PeterThiel支持的AI初创公司CognitionLabs正在寻求20亿美元估值,新一轮融资在几周之内就将该公司的估值提高了近六倍。在如今火热的生成式AI领域里,Cognition是一家冉冉升起的新星。如果你对它还不太熟悉,这里有它的两个关键词:国际奥赛金牌团队,全球首位AI程序员。Cognition由ScottWu联合创立,其团队组成吸引眼球,目前只有10个人,但包含许多国际信息学奥林匹克竞赛的金牌选手。CognitionLabs的团队,CEOScottWu(后排身穿衬衣)只有27岁。该公司在今年3月推出了AI代码工具Devin,号称“第一位接近人类的AI程序员”,能够自主完成复杂的编码任务,例如创建自定义的网站。从开发到部署,再到debug,只需要人类用自然语言给需求,AI就能办到。该新闻很快就登上了众多媒体的头条,也成为了热搜:一些投资者表示,Devin代表了人工智能的重大飞跃,并可能预示着软件开发的大规模自动化之路已经开启。Cognition虽然神奇,但它并不是个独苗。最近一段时间,生成式AI展现了超乎想像的吸金能力。去年12月,总部在法国的Mistral获得了4.15亿美元融资,估值达到20亿美元,比前一年夏天的一轮融资增长了大约七倍。3月初,旨在挑战Google网络搜索主导地位的AI初创公司Perplexity也传来新一轮融资的消息,新估值有望达到近10亿美元。而在这其中,作为一家旨在提供AI自动代码工具的创业公司,Cognition去年才开始研发产品,目前并没有获得有意义的收入数字。今年初,在FoundersFund牵头的一轮2100万美元融资中,该公司的估值达到了3.5亿美元。据介绍,美国著名创业投资家、创办FoundersFund的PeterThiel帮助领导了对Cognition的投资。PeterThiel是全球畅销书《从0到1:开启商业与未来的秘密》的作者,身家71亿美元。AI编写代码看起来是一个有前途的大模型应用方向,其他提供类似产品的公司也看到了增长势头。上个季度,微软的代码工具GitHubCopilot用户数量增长了30%达到130万。MagicAI是Cognition的竞争对手,2月份获得了1.17亿美元的投资。国内也有一些代码生成自动化工具的初创企业,在生成式AI技术爆发后正在加速行业落地。尽管出现了令人鼓舞的增长迹象,新公司的估值也不断膨胀,但这种快速发展也引发了人们对于出现泡沫的担忧——到目前为止,很少有初创公司能够展示他们如何赚钱,想要收回开发生成式AI的高昂成本,似乎还没有门道。在3月的一次演讲中,红杉资本(SequoiaCapital)有投资人估计AI行业去年为了训练大模型,仅在英伟达芯片上就花费了500亿美元,而换来的收入是30亿美元。所以说,不算电费,开销是收入的17倍。怎么样,今年还玩得起吗?出路在哪如今生成式AI技术的爆发,可谓验证了强化学习先驱RichardS.Sutton在《苦涩的教训》中的断言,即利用算力才是王道。黄仁勋两周前在GTC上也曾表示:“通用计算已经失去动力,现在我们需要更大的模型、更大的GPU,需要将GPU堆叠在一起……这不是为了降低成本,而是为了扩大规模。”但是在千亿、万亿参数量的大模型出现之后,通过提升规模来提升智能的方法是否还可以持续,是一个无法回避的问题。更何况现在的大模型已经很贵了。华尔街日报的文章迅速引起大量讨论。有网友认为:“资本支出通常就是一次性的,而投资的收入却是日积月累的。生成式AI刚刚起步,其后续的经济收益可能是巨大的。”但这种乐观的观点很快遭到反驳,另一位网友指出:“资本的支出的确是一次性的,但GPU会相对较快地贬值。”为什么说GPU会快速贬值呢?虽然较老版本的GPU也不会停止支持CUDA(英伟达推出的运算平台)等等,但与H100相比,V100的能源消耗是巨大的浪费。毕竟同样也是在3月份,英伟达已经发布了全新一代AI加速的GPUBlackwell系列。近八年来,AI算力增长了一千倍。如果使用V100可以赚钱,那当然没问题。然而,如诸多媒体报道所述,对大多数公司来说,现阶段运行大模型并没有转化为实际收入。另一方面,看看现在大模型每周都在推陈出新的状态,即使几年前的GPU在算力角度看可以接受,但大模型也在“快速折旧”。七年后的AI,用现在的基础设施能支撑吗?此外,如果一家公司花费大量成本来购买V100,试图跟上生成式模型的趋势,那么可能就会出现研究团队雇佣成本不足的问题,那么最终可能还是无法做出有实际应用、经济收益的产品。值得注意的是,许多LLM都需要额外的处理层来消除幻觉或解决其他问题。这些额外的层显著增加了生成式模型的计算成本。这不是10%的小幅增长,而是计算量增长了一个数量级。并且许多行业可能都需要这种改进。图源:Reddit用户@LessonStudio从行业的角度讲,运行生成式大模型需要大型数据中心。英伟达已经非常了解这个市场,并持续迭代更新GPU。其他公司可能无法仅仅投资数百亿美元来与之竞争。而这些GPU需求还只是来自各大互联网公司的,还有很多初创公司,例如Groq、Extropic、MatX、Rain等等。最后,也有人给出了这种夸张投入的“合理性”:坐拥大量现金的微软、Google和Meta,他们因为反垄断法规而无法继续收购,因而只能选择将资金投入AI技术发展。而GPU支出的折旧,可以作为损失避免缴纳更多税款。但这就不是创业公司所要考虑的事了。无论如何,竞争会决出胜者。无论花掉多少钱,成为第一可能就会带来潜在的收益……但是什么样的收益,我们还无法作出预测。难道,生成式AI真正的赢家是英伟达?...PC版:https://www.cnbeta.com.tw/articles/soft/1425787.htm手机版:https://m.cnbeta.com.tw/view/1425787.htm

相关推荐

封面图片

芯片行业里程碑 英伟达市值突破1万亿美元

芯片行业里程碑英伟达市值突破1万亿美元今年以来,英伟达股价大涨了约180%,光是上周四就暴涨了24%,市值增加1838亿美元,创下美国企业史上第三大单日增幅。英伟达上周三美股盘后公布的财报显示,英伟达Q1营收为71.9亿美元,高于市场预期的65.2亿美元。其中,得益于云计算平台和大型科技公司对GPU芯片(训练AI)的需求,其数据中心业务Q1实现创纪录的42.8亿美元营收。让市场更为兴奋的是英伟达对其Q2的业绩指引,营收预期达到了惊人的110亿美元,远远超出市场预期的71.8亿美元。英伟达表示,随之市场热捧AI,公司正“显著”增加与其数据中心业务相关的产品供应。分析师指出,对英伟达而言,这波AI热潮带来的商机将远比加密货币来得重要和持久。英伟达的芯片和软件可以满足生成式AI的计算密集需求,其产品的丰富性在业内无人能敌。据瑞银分析师估计,开发聊天机器人ChatGPT需要用到大约1万枚英伟达GPU。BernsteinResearch芯片行业分析师StacyRasgon表示,和加密货币不同,随着企业不断摸索,生成式AI会有各种明确的应用场景。Rasgon补充称:“我敢打赌,在5年或10年后,随着技术成熟,(生成式AI)整体机会会比现在多得多。”...PC版:https://www.cnbeta.com.tw/articles/soft/1362535.htm手机版:https://m.cnbeta.com.tw/view/1362535.htm

封面图片

英伟达GPU囤太多,科技巨头赚不出2000亿美元?红杉与AI大佬激辩

英伟达GPU囤太多,科技巨头赚不出2000亿美元?红杉与AI大佬激辩不论是“领头羊”微软,还是“后起之秀”Google、Meta、Adobe,这些公司还处于将AI接入其产品的阶段,还没有真正“货币化”,即从AI那里赚到真金白银。目前,许多公司的AI服务都是免费的,只有微软敢把Copilot费用提价83%,但消费者还未必买账。尽管还未真正实现盈利,但科技公司大举投资AI领域、囤积GPU,已成为事实。根据华尔街分析师预测,到今年年底,英伟达的GPU销售额可能突破500亿美元。到此,投资者们就不禁想问,在盈利前景还不明朗的情况下,如此大举购买GPU,科技公司们能回本吗?到头来,会不会竹篮打水一场空?如果能回本,那什么时候才能回本呢?风投机构红杉的合伙人DavidCahn日前发文进行了计算。Cahn认为,每1美元的GPU支出,大约对应1美元的数据中心能源成本,也就是说,保守估计下,如果英伟达到年底能卖500亿美元的GPU,数据中心的支出就高达1000亿美元。然后,以50%的利润率假设,AI行业需要2000亿美元的收入才能收回前期投资的成本。但Cahn指出,目前只有750亿美元的年收入,缺口达到1250亿美元。质疑声袭来对于Cahn提出的观点,硅谷创投巨头A16Z特别顾问、AI初创公司2X创始人GuidoAppenzeller进行了反驳,逐字逐句地推翻了其论点。总体而言,Appenzeller的核心论点围绕着一个信念,即人工智能将成为几乎任何含软件产品中无处不在的组件。他断言,在GPU基础设施上的大量投资,即使高达500亿美元,也可以很容易地在全球5万亿美元的巨大IT支出中得到摊销。他不仅推翻了红杉对于AI赚钱能力的估算,还指出红杉最根本的问题是,低估了AI历史性革命的影响。具体而言,Appenzeller首先指出,Cahn是“标题党”,企图用“2000亿美元”这样一个数字来吸人眼球,但实际上他的计算过程完全是错的。Appenzeller指出,Cahn把GPU的购买成本(资本性支出)、每年的运营成本、GPU使用周期内的累计收入和AI应用带来的年收入都加到了一起,得到了2000亿美元这一看起来超级夸张的数字。但他认为,更合适的计算方法应该基于GPU买家投资成本所获得的年回报率。其次,他还认为,GPU的电费成本也被夸大了。根据Appenzeller的说法,一块H100PCIeGPU的成本大约是3万美元,耗电量约为350瓦,考虑到服务器和冷却,总功耗可能在1千瓦左右。以0.1美元/千瓦的电价计算,这块H100GPU在5年的生命周期内,在GPU硬件上每花1美元,其需要的电费仅为0.15美元,远低于Cahn估算的1美元。但最重要的是,Appenzeller认为,Cahn忽略了AI革命的规模。他指出,AI模型就像CPU、数据库和网络一样,是一种基础设施组件。而现在,几乎所有的AI软件都在使用CPU、数据库和网络,未来也是如此。那么,AI行业到底能不能赚够2000亿美元?Appenzeller给出了肯定的答案,而且不止如此,作为网络基础设施,它创造的收入会以不同形式存在于每个部门。因此,他总结称,AI会颠覆一切软件,Cahn所谓的“AI收入缺口”其实并不存在。...PC版:https://www.cnbeta.com.tw/articles/soft/1386107.htm手机版:https://m.cnbeta.com.tw/view/1386107.htm

封面图片

从亏钱生意到利润1000% 英伟达靠什么成为万亿GPU霸主?

从亏钱生意到利润1000%英伟达靠什么成为万亿GPU霸主?GPU芯片在超级计算和全球巨头大模型训练战中地位举足轻重,而掌握全球80%GPU市场份额的英伟达赚得盆满钵满。然而,这种垄断式的市场占有率不是一夜砌成的“城墙”。据Tractica数据,预计到2025年全球AI硬件市场收入将达到2349亿美元,其中GPU的收入占23.2%。英伟达在GPU市场的构筑的护城河,CUDA是其中至关重要的一环。一套完善的编译器生态2006年,正是在AMD收购了ATI、英特尔依然蝉联全球第一大芯片厂商的时候,英伟达推出了CUDA(ComputeUnifiedDeviceArchitecture),它是英伟达研发的平行运算平台及编程模型。AI大神吴恩达简单评价了CUDA的意义:“在CUDA出现之前,全球能用GPU编程的可能不超过100人,有CUDA之后使用GPU就变成一件非常轻松的事。”多数CUDA的推荐者认为,CUDA完善的编译器生态是英伟达GPU在高性能计算领域成功的关键。具体来讲,CUDA具有易部署、开发接口灵活、编程语言适配、工具及代码库完备等优点,并且兼容Windows、Linux和MacOS多个操作系统。CUDA的开发让GPU不再是简单的图形处理器,适用对象也从游戏制作人变为科学家、工程师或艺术家。随着不断迭代,CUDA在针对AI或神经网络深度学习领域推出了非常多的加速库,构成了CUDA的软硬件生态站。大卫·罗森塔尔在Acquired.FM中介绍,CUDA的代码库是经过优化的,开发人员调用这些库开发程序更加便利。因此,CUDA有庞大的社区资源,2023年5月注册开发者增加至400万人。投入过百亿的CUDA生态英伟达凭借CUDA几乎垄断了训练芯片市场,业界也几乎没有巨头对CUDA生态造成颠覆性冲击。英伟达为CUDA生态铺垫了十余年。2007年,英伟达的GPU研发技术已占据强势地位,次年英特尔的大客户苹果将MacBook除CPU外直接替换成英伟达Tesla架构的GPU便印证了这一点。据报道,经年累计英伟达对CUDA总投入早已超过100亿美元。在黄仁勋商业化考虑之下,CUDA生态需要培养潜在开发者,成为受到程序员和企业欢迎的技术平台。在2006年推出CUDA后,英伟达的第一个战略便瞄准了“软件开发人员”,投入巨资让开发者习惯使用CUDA平台。初期,开发者社区有这样一句话:CUDA在编程语言和共享存储器两个层次的并行都简化了编程,使得本科生也能使用CUDA写出大规模高性能计算程序。为扩大覆盖率,英伟达将CUDA引入大学课堂,与伊利诺伊大学等高校合作完善函数库。在2010年时,已有250所大学开放CUDA的教学课程,并有相关论文数千篇。以此为基础完善生态,英伟达建立研究中心、教学中心、认证计划,到2015年已有800所大学开发相关课程。再从业界来看,英伟达投入资金做inception计划(初创加速计划),让初创公司运用CUDA做项目铺垫基础。至今,已有超过100家初创公司利用了CUDA。此外,英伟达开源了Cub、NCCL等通用场景下的开发库,并优化中间件性能的基础库给厂家使用,再次扩大了生态系统。因此,许多开发者依赖于CUDA,同时凭借强大的核心能力在消费市场上受到青睐。2012年,在ImageNet竞赛一举夺冠的AlexNet面世后,CUDA已迭代至5.0版本,支持了动态库和GPU指针。2016年,OpenAI成立之时,CUDA8.0已经支持半精度浮点数和张量核心,软件生态已由学界和业界人士熟知、互相推荐。2022年底,ChatGPT的发布将生成式AI送到人们眼前,CUDA12.0支持了新的NVIDIAHopper和NVIDIAAdaLovelace架构功能,并为所有GPU提供了额外的编程模型增强。等到大模型热度吹进各家企业时,英伟达已经深化了他们在行业中的差异化,成为市场玩家购物篮的第一选择。目前为止,基于CUDA的GPU销量超过百万。而众多GPU芯片厂家中,为什么是英伟达做出了唯一的CUDA开发环境?从亏钱生意到利润1000%回顾世纪初期,英伟达与微软、ATI、AMD、英特尔五家巨头的混战,英伟达在图形处理市场中逐渐占据优势。2006年7月,AMD以54亿美元溢价收购ATI,芯片市场重新洗牌。同年,英伟达的首席科学家DavidKirk提出了“将GPU技术通用化”的思路,从主要做3D渲染的任务中脱离出来,探索通用计算任务。这个思路就是CUDA。而当时,愿意担起这门费钱费力的技术活的也是英伟达。几大家芯片公司中,老对手AMD买下ATI后GPU研发进入弱势地位,英特尔取消了自研GPU计划。英伟达则在GPU技术方面将巨头们甩在了身后。17年前,研发CUDA是一个超前的决定,英伟达的CUDA进化并非一帆风顺,黄仁勋则坚持“加速计算”是未来。英伟达和英特尔在2006年秋天共同开发了基于CUDA的新型GPU,即G80GPU。而两者的合作持续不长久,CUDA的研发决策需要英伟达长久地投入大量资金。从产品特性上来说,CUDA逻辑电路在硬件产品中增加会导致芯片的散热需求增高,由此也会带来成本上升、故障增多的风险。从财报表现来看,CUDA也是一门亏钱生意,在2008年金融危机前后表现得更为明显。在最艰难的时候,黄仁勋也没有中断CUDA,直到2012年辛顿教授带队以GPU代替CPU训练AI模型做出了AlexNet。2020年,黄仁勋在接受Barron周刊时强调:“英伟达将推动下一个人工智能大爆炸。”这5年,为了迎接人工智能,英伟达做了3件事。第一,2019年3月,英伟达以69亿美元收购了高性能计算互联技术公司Mellanox。这家公司的主要产品InfiniBand,被认为速度更快、带宽更高,是数据传输的有效方式,而Mellanox是唯一的InfiniBand规范提供商。第二,英伟达于2022年9月发布新一代AI芯片“DriveThor”,专为大规模GPU集群协调设计,是英伟达一款完全集成的解决方案。第三,英伟达推出专为加速计算和生成式AI打造的Hopper架构,H100便是基于此架构的GPU。市场消息称,H100是英伟达利润率高达1000%的产品,出货量超过900吨。随着ChatGPT发布,带动AI服务器出货量和价格上涨,英伟达的GPU芯片价格水涨船高。英伟达的DGXH100售价总价为268495美元,包含8GPU+4NVSwitch基板等,每台毛利率接近190000美元。英伟达的财务收入令人瞩目,据悉,过去3个财年的复合年增长率(CAGR)达到35.2%,预计2023年收入将飙升51.4%至408亿美元。CUDA构筑的壁垒能被打破吗?2016年,AMD推出基于开源项目的GPU生态系统ROCm,类似英伟达的CUDA系统,然而ROCm技术相较落后,在2023年4月才登录Windows平台。由于切入时间较晚,AMD开发者数量远也低于英伟达。在Github上,贡献CUDA软件包仓库的开发者超过32600位,而ROCm只有不到600个。英伟达大约占据全球80%的GPU市场份额,光从销量来看,都是一家独大。而英伟达的垄断市场的优势可以持续多久?针对这一问题,SemiAnalysis首席分析师DylanPatel给出观点:随着PyTorch支持更多GPU厂商,再加上OpenAI的Triton搅局,英伟达手中的利器CUDA逐渐锋芒不再。软件生态来看,CUDA的霸主地位确实受到各方攻击。近年,AI开发框架PyTorch因灵活的eager模式使用比率逐渐超越了TensorFlow,PyTorch2.0版本将会对AMD、英特尔、特斯拉、谷歌等GPU和加速器进行支持完善。OpenAI则直接推出了“简化版CUDA:Triton”,操作难度低于CUDA。2023年第一季度,AMD宣布ROCm系统融入PyTorch2.0框架,TensorFlow和Caffe深度学习框架也已加入第五代ROCm。其6月发布下一代数据中心加速处理器(APU)AMDMI300软件方面能够全面兼容英伟达CUDA生态,被业内认为有机会挑战英伟达在人工智能的行业地位。尽管如此,从算力角度来看,英伟达H100的升级产品DGXGH200解决了大规模AI的关键瓶颈,适配资金充沛且性能要求高的潜在客户。短期内,CUDA生态仍然稳健,大多数需要训练芯片的用户在仍然会选择英伟达。...PC版:https://www.cnbeta.com.tw/articles/soft/1390713.htm手机版:https://m.cnbeta.com.tw/view/1390713.htm

封面图片

AI行业买英伟达GPU,花的钱比赚的多17倍搞AI大模型,实在太烧钱了。有人却表示「很合理」。

封面图片

推理速度提升十倍!英伟达发布ChatGPT核弹级GPU

推理速度提升十倍!英伟达发布ChatGPT核弹级GPU当地时间周二,英伟达举办2023年春季GTC大会,黄仁勋穿着标志性皮夹克,向开发者披露最新的硬件和AI应用软件进展。在过去十年里,AI产业经历了历史性的飞跃。从2012年卷积神经网络AlexNet点燃了深度学习领域的“星星之火”,到ChatGPT一鸣惊人。黄仁勋表示,眼下整个AI产业正处于“iPhone时刻”——创业公司正在竞相建立颠覆式的商业模型,而业界巨头也在寻找应对之道。GTC大会上,英伟达推出开源量子计算机软件CudaQuantum,用于构建量子算法;与AT&T(T.N)合作,帮助提高调度服务的效率。当地时间3月21日,GTC大会,英伟达发布了专为ChatGPT设计的“核弹”GPU(图像芯片)H100NVL,较之适用于GPT-3的A100,速度提升10倍。#视频()来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

中国互联网巨头豪掷50亿美金疯抢GPU?英伟达回应

中国互联网巨头豪掷50亿美金疯抢GPU?英伟达回应据报道,中国的互联网巨头百度、腾讯、阿里巴巴以及字节跳动公司今年向英伟达下达的交付订单金额达到10亿美元,总共采购约10万张A800芯片;明年交付的AI芯片价值更是达到40亿美元。按照10亿美元购入10万张A800芯片来计算,每张A800芯片的价格达到1万美元,这与市场价相符。A800芯片是去年美国出台对中国芯片限售令后,英伟达在中国提供的替代方案,满足出口管制规定。“GPU已经成为市场上公认的稀缺货,并且在未来的一两年内,仍会保持稀缺。”一位大模型开发者告诉第一财经记者。业内认为,中国互联网巨头抢购英伟达GPU,也与担心美国未来出台更严厉的限售令有关。一般而言,已经确认的订单不会受到新的出口限制的影响。目前国内已经发布的大模型数量不下几十个,“百模大战”已经打响,其中科技巨头的大模型包括百度的文心一言、阿里巴巴的通义千问、科大讯飞的星火认知大模型。这些厂商目前大部分也都使用英伟达的GPU芯片进行大模型的训练。训练和推理是人工智能大模型主要的两个过程。首先,使用大量数据训练模型,这个过程可能需要数月时间,有时需要数千个GPU;然后,模型在软件中使用推理来进行预测或生成内容。训练与推理的计算成本都很高,每次软件运行时都需要大量处理能力。目前英伟达的芯片更适用于大模型的训练。为了满足推理方面的需求,英伟达在今年的SIGGRAPH大会上发布了一款GH200芯片。英伟达创始人CEO黄仁勋表示:“它会疯狂推理。”有分析数据预计,数据中心AI加速计算芯片的市场规模有望从今年的300亿美元增长至2027年的超过1500亿美元规模,年复合增长率超过50%。目前英伟达占据全球AI计算芯片市场80%至95%的份额。据英伟达方面透露的数据,中国市场占英伟达数据中心业务收入20%至25%的份额。今年第一季度,英伟达包括人工智能芯片以及其他计算芯片在内的数据中心销售额总计42.8亿美元。英伟达将于本月23日公布新一季财报,业内预计英伟达业绩增长将会再创新高。今年受到人工智能热潮的推动,英伟达年内股价涨幅一度达到210%。不过受到近日美国限制对华关键技术领域投资消息的影响,英伟达近两个交易日股价跌幅5%,但市值仍在1万亿美元上方。...PC版:https://www.cnbeta.com.tw/articles/soft/1376387.htm手机版:https://m.cnbeta.com.tw/view/1376387.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人