先赢不是赢 英伟达和ChatGPT还能垄断AI多久?

先赢不是赢 英伟达和ChatGPT还能垄断AI多久? GPU的替代品正在出现在人工智能的淘金热中,最初的赢家是芯片制造商和云服务提供商等基础设施提供商,遥遥领先的就是AI总龙头英伟达,这是一个赢者几乎通吃的市场。根据东方财富证券汇总的数据,截至2022年Q4,凭借强大的CUDA生态,英伟达在GPU市场的占有率高达84%,远超同业。不过,德银分析师指出,GPU的替代品正在出现,首当其冲的即是ASIC(Application Specific Integrated Circuits,专用集成电路),这是一种根据确定的算法设计制造的专用电路,为类似AI训练这样的工作负载量身定制。各大云厂商正在积极开发ASIC,以减少对英伟达的依赖。ASIC中最著名的就是Google的TPU,据称其能效是同类GPU的两到三倍;亚马逊的AWS也开发出了Trainium和Inferentia芯片,据称后者每瓦特性能可提高50%。今年5月,Meta发布了第一代Meta训练和推理加速器(MTIA)。去年11月,微软推出了自己定制设计的芯片Maia AI Accelerator。从今年年初开始上线的Maia和与之相当的CPU完善了微软从芯片到软件和冷却系统的基础设施。虽然德银也承认,将英伟达从王座上赶下来并非易事,尤其是因为它不仅拥有芯片和数据中心,而且还掌控着CUDA生态系统,把自己的产品牢牢嵌入其中。但在数据中心交换机市场,英伟达已经开始面临更难缠的对手,并且小型LLM的兴起正推动边缘计算的崛起,对以GPU驱动的数据中心需求因此可能会出现下滑:竞争对手正在进入市场。英伟达是“交换”领域的领导者,这种技术使数据中心的GPU和CPU能够相互通信。不过其高带宽、低延迟的Infiniband交换机面临着来自博通和Marvell提供的以太网交换机的竞争,后者似乎在规模上工作效率更高。小型LLM的兴起,可能会让推理阶段的人工智能处理越来越多地在智能手机、汽车和其他设备的“边缘”处理,从而消除了路由到堆满英伟达芯片的数据中心的需要。ChatGPT的统治地位有多稳固?除了在硬件上占据垄断地位的英伟达,AI领域另一龙头就是在软件实力上绝对领先的OpenAI。作为本轮生成式AI热潮的引领者,OpenAI的聊天机器人ChatGPT基本是生成式人工智能的代名词。从流量来看,根据Similarweb数据,ChatGPT每月的访问量约为16亿,是最大竞争对手Anthropic旗下Claude的70多倍,是GoogleBard的四倍多。然而,德银指出,OpenAI目前存在三大问题:第一,去年的宫斗事件暴露了OpenAI伦理身份核心中不可调和的紧张关系。用一句话来说权力越大,责任越大。OpenAI如今是资本和技术的提供者,而不是那些主宰OpenAI 1.0版董事会的“有效利他主义者”的更高理想。第二,似乎巩固了微软作为硅谷人工智能权力掮客的地位。据报道,去年这个时候,OpenAI从微软那里获得了100亿美元的投资,现在该公司已经不可逆转地欠下了微软的债务。微软不仅能从OpenAI的发展中受益,同时还在凭借这种优势发展自己的人工智能,降低对OpenAI的依赖。其中包括将365 Copilot捆绑到旗下产品中。第三,OpenAI的宫斗事件动摇了客户和监管机构对ChatGPT的关注,使得竞争对手的替代品看起来比以前更有吸引力。它也给监管机构施加了压力,要求他们三思而后行,不要让一家治理架构非常规的小公司在一项关键技术上取得足以动摇人类命运的进步。对于微软或Google来说,大到不能倒是一回事,而对于一家明星初创公司来说则完全是另一回事。随后可能会出现更严厉的监管措辞。 ... PC版: 手机版:

相关推荐

封面图片

AI把英伟达推向顶流 还能火多久?

AI把英伟达推向顶流 还能火多久? 上周,英伟达发布了第四财季财报,再次实现了井喷式的盈利,使其成为AI基础设施领域无以匹敌的领导者。由于其芯片被广泛用于训练和运行生成式AI背后的大语言模型,英伟达面向数据中心客户的销售额较一年前增长了4倍多,其税后利润从14亿美元跃升至逾120亿美元,这些数字甚至超过了最乐观的预期。这一强劲的业绩推动英伟达在上周五的盘中估值达到2万亿美元,使其成为市值仅次于苹果和微软的第三大科技公司。其利润的大幅增长还引发了一轮更大范围的股市反弹,推动标普500指数突破5000点,创下历史新高。英伟达市值超越亚马逊和Alphabet成为第三大科技公司即便赢得了华尔街的一致美誉,英伟达的风险依然隐约可见。随着投资热潮的起伏,芯片公司的需求容易出现周期性波动,使它们易于受到严重的挫折。经验丰富的英伟达投资者不太可能忽视这一事实,就在2022年,他们还经历了英伟达股价65%的暴跌。新投资者蜂拥买入该股,也让它越来越容易受到攻击,哪怕是一些小的挫折。芯片行业分析师Pat Moorhead称,无论其业务表现多么令人印象深刻,它已成为当前股市预期过高的罪魁祸首。英伟达令人眼花缭乱的上涨,让两个压倒性的问题浮出水面。其一是,AI芯片热潮是否会达到科技界和金融界所认为的那样的规模和持久。另一个问题是,主宰这一市场的英伟达能否经受住竞争的冲击,包括来自其一些最大客户的竞争。关于第一个问题,近几周来,芯片行业的大咖们在预测生成式AI将带来的需求方面,一直表现得比其他人更大胆。作为英伟达最强大的挑战者之一、芯片公司AMD的CEO苏姿丰去年年底预测,到2027年,AI芯片市场规模将达到每年4000亿美元,是她之前预期的两倍多,相当于2019年整个全球芯片市场的价值。一段时间以来,英伟达CEO黄仁勋一直表示,全球数据中心价值1万亿美元的设备需要彻底改造升级,从而为新的AI时代奠定基础。最近几周,他又加大了赌注,做出了一项新的预测,称数据中心所有设备的总价值将在未来四、五年内升至2万亿美元。就在英伟达发布财报的同时,OpenAI CEO萨姆•奥特曼(Sam Altman)也加入到这一阵营,呼吁对包括芯片在内的所有类型的AI基础设施进行大规模的额外投资。他在英特尔公司举办的一次活动中表示:“我认为,每个人都低估了对AI计算资源的需求。”为此,奥特曼正在寻找财力雄厚的投资者,计划成立一家AI芯片公司。资产管理公司AllianceBernstein首席投资官Jim Tierney表示,在AI热潮的早期阶段预测市场规模,无异于在黑暗中摸索。但英伟达第四财季财报所传达出的消息有助于安抚华尔街,即需求至少在今年全年将保持强劲,并将持续到2025年。英伟达的毛利率走势英伟达当前财季的业绩指引远高于市场预期。该公司没有提供更长期的预测,但公司高管表示,在现有芯片供不应求的情况下,今年即将推出的新产品的供应同样会紧张。这意味着,今年的供应不太可能满足需求。还有迹象表明,对英伟达芯片的需求,可能比一些人担心的要更持久。黄仁勋称,第四财季该公司数据中心营收的40%来自AI推理,即通过AI模型来解决问题;而不是来自模型培训,后者一直是英伟达AI主导地位的主要来源。这似乎回答了人们对该公司的一个长期担忧,即其昂贵的芯片将不再那么需要推理,而事实恰恰相反。同时,这也缓解了人们的另一个担忧,即2025年潜在的AI培训放缓对英伟达的不利影响。然而,AI基础设施的持久性仍在很大程度上取决于这项技术的最终客户,即那些希望利用AI来增加收入或提高效率的企业,是否从这些投资中获得回报。大多数公司几乎还没有开始在自己的业务中测试生成式AI,也没有想出如何处理这项技术带来的特殊问题,比如它有产生幻觉的倾向,或者说是生成不准确的结果。用Bernstein芯片分析师Stacy Rasgon的话说:“如果这些资产没有回报怎么办?”当人们对一项新技术的预期超过现实时会发生什么,科技界已经有了丰富的经验。本世纪初,思科曾一度成为全球市值最高的公司,原因是市场对其处理互联网流量所需的光纤设备的需求激增。然而,这项技术最初未能带来预期的业务繁荣,导致电信公司纷纷破产,思科股价暴跌近90%。但这一次,在生成式AI热潮的早期,至少有一些迹象表明,它将有所不同。Rasgon说:“20世纪90年代,光纤在人们需要之前就被埋进了地下。但AI芯片却并非如此,它们不可能被提前放在某个仓库里。”相反,市场对训练和运行大语言模型的AI芯片的需求远远超出了供应,许多开发人员难以获得他们需要的硬件。与互联网时代的早期相比,股市估值看起来也没有那么夸张。在互联网繁荣的顶峰时期,思科股票的市盈率约为200倍。相比之下,在本周公布财报之前,英伟达的预期市盈率仅为32倍。而且,这一倍数也基本上保持不变,因为其股价和许多分析师的盈利预期都出现了同步上涨。基于该市盈率水平,英伟达的股价完全在其历史估值区间内。当然,如果AI基础设施热潮枯竭,或者竞争对手开始追上英伟达,这样的水平可能也无法为其提供多少保护,使其免受严重估值重置的影响。事实上,挑战者已经开始出现。三大云计算公司,微软、亚马逊和谷歌,都想从英伟达的客户变成竞争对手,他们都设计了自己的芯片。与此同时,芯片行业竞争对手的产品已经逼近英伟达最先进芯片的性能。例如,AMD已经发布了一款下一代芯片,人们普遍认为它的表现将超越英伟达的同类产品。市场也渴望更多的竞争,即使只是为了给英伟达收取的溢价设定上限。高溢价已经使英伟达去年的毛利率从57%提高到了73%。分析师Moorhead表示:“这些大型云计算公司希望在供应上有更多选择。他们将把一些业务交给AMD,一些交给英特尔。他们想要看到三足鼎立的局面。”但就目前而言,随着AI热潮的全面展开,英伟达的地位还是一如既往地强劲。例如,AMD为今年设定的AI芯片销售目标仅为35亿美元。Rasgon表示,即使超过这个数字,其AI业务与英伟达数据中心业务的销售额相比仍微不足道。华尔街预计,英伟达数据中心业务的销售额将接近1000亿美元。当然,大型云计算公司制造的内部芯片可能会切入英伟达的业务,因为它们承担了更多培训公司自己的AI模型的工作。但它们可能不会产生更广泛的影响,至少在短期内如此。而且,云计算公司的许多客户仍希望获得英伟达的芯片。多年来,他们开发工具和框架,以便让英伟达的芯片更容易针对特定任务进行编程。他们进行了多年的工作,这种惯性很难打破。即使竞争对手的表现能与英伟达的一些产品相媲美,但没有一家能与英伟达打造的芯片、系统和软件工具生态系统相提并论。Moorhead说,它的一整套技术相当于一个强大的AI平台,许多客户会犹豫是否要放弃它。因此,至少在2024年,英伟达看起来仍将主导该市场。但考虑到AI的潜在市场规模,以及寻求分得一杯羹的科技巨头们的财富和雄心,英伟达也不能有丝毫懈怠。 ... PC版: 手机版:

封面图片

英伟达发布新一代数据中心超级芯片

英伟达发布新一代数据中心超级芯片 在周二的主题演讲中,黄仁勋介绍了下一代 DGX GH200 Grace Hopper 超级芯片,专为 OpenAI 的 ChatGPT 等大内存生成性人工智能模型设计,以扩展全球的数据中心。 在发布会前的新闻发布会上,英伟达的超大规模和高性能计算部门主管 Ian Buck 告诉记者,GH200 比该公司的 H100 数据中心系统容纳了更多的内存和更大的带宽。GH200 采用了英伟达的 Hopper GPU 架构,并将其与 Arm Ltd. 的 Grace CPU 架构结合起来。该芯片拥有 141 GB 的 HBM3 内存,以及每秒 5 TB 的带宽。 GH200 可以在 NVLink 的双 GH200 系统中叠加使用,使内存增加 3.5 倍,带宽增加两倍。这两种产品都将在 2024 年第二季度上市,但英伟达没有透露定价。

封面图片

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求 微软于今天宣布加强和英伟达的合作,将 GPU 从此前的 A100 升级到 H100,推出专门针对人工智能开发的全新的虚拟机。 微软表示该虚拟机主要面向需要整合或开发人工智能的企业,配置如下: ▪8 块英伟达 H100 Tensor Core GPU,通过下一代 NVSwitch 和 NVLink 4.0 互连 ▪在非阻塞(non-blocking)的胖树(Fat-Tree)架构网络下,每块 GPU 的 NVIDIA Quantum-2 CX7 InfiniBand 性能可以达到 400 Gb / s,每台虚拟机可以达到 3.2Tb / s。 ▪通过 NVSwitch 和 NVLink 4.0,每台虚拟机内的 8 个本地 GPU 之间的对分带宽为 3.6TB / s。 ▪采用英特尔第 4 代 Xeon Scalable 处理器 ▪使用 PCIe Gen5 连接 GPU,每个 GPU 带宽为 64GB / s ▪16 通道 4800MHz DDR5 DIMM 微软先前在 Azure OpenAI 服务中宣布了 ChatGPT 相关服务,而本次虚拟机是该服务的补充,它允许第三方通过 Azure 访问聊天机器人技术。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

美国监管机构将对微软、OpenAI 和英伟达展开反垄断调查

美国监管机构将对微软、OpenAI 和英伟达展开反垄断调查 知情人士透露,美国联邦监管机构已达成一项协议,允许对 微软、OpenAI 和 英伟达 在人工智能行业的主导地位展开 反垄断调查。据悉,美国司法部(DOJ)和美国联邦贸易委员会(FTC)在过去一周达成了这项协议。根据协议,美国司法部将牵头调查英伟达的行为是否违反了 反垄断法,美国联邦贸易委员会将在审查OpenAI和微软的行为方面发挥主导作用。

封面图片

英伟达、微软、苹果三家公司市值近10万亿美元,大家有何感想?

英伟达、微软、苹果三家公司市值近10万亿美元,大家有何感想? 圆胖肿的回答 没啥大问题,这三家都是ai相关概念股 微软,openai,前几天新闻,微软把自家搞ai的员工都给裁了,全部转给openai去做了,微软中国relocate到国外的有相当一部分是搞ai的组,危险咯,微软中国是一个前途堪忧的机构,中国人在里面斗不过印度人的,relocate更是不靠谱,被relocate到国外再裁员完全可能。微软是软件层面的ai,主要竞争对手是Google,另外openai前首席科学家也创业了,也是要跟openai面对面竞争的 英伟达,gpu概念股,gpu这个东西就是英伟达发明的,最早用在游戏显卡上,后来被用在ai上,现在英伟达的ai用gpu销量已经超过游戏用gpu了,现在英伟达主要收入来自ai,尤其是数据中心用的gpu,反而是客户端似乎慢慢越来越多其他厂家做的gpu,而非依赖英伟达了,等下说苹果时候说,这一块英伟达主要竞争对手有博通,博通提出了xpu的概念,xpu就是用在数据中心的云计算上ai芯片,还有amd,这两个股价也都在涨,博通刚创新高,amd今年3月新高 苹果,苹果的ai概念来自客户端,尤其是自研的m系列芯片,统一内存架构给了ai很多想象空间,内存既可以给cpu用也可以给gpu用,所以m系列芯片可以视作廉价的ai芯片,mac是可以跑大模型最便宜机器,其优势就来自统一内存架构,内存怎么也比显存便宜啊,能把内存当显存用,就是它便宜的秘诀。苹果之后,现在高通和intel都纷纷推出自研的统一内存架构芯片,现在高通的股价也创了新高,intel因为它的统一内存架构芯片月亮湖还没上市,所以等上市后再看它的表现,月亮湖预计今年下半年上市,然后客户端统一内存架构上的ai芯片,叫做npu,n代表神经网络的意思,统一内存架构可以带来,能耗低,传输快,以及内存当显存用成本低的三重优势 ai时代的大幕已经徐徐拉开,对于国内企业而言,微软的ai算法,英伟达的算力,都是相对容易被克服的障碍,算法国内人矿资源丰富,有批量生产的985系列劳工,不愁。 数据中心用gpu,国产gpu造不过你,但是可以堆机器嘛,数据中心,云端堆机器不很正常,反而是客户端,统一内存架构芯片,国内很难搞出来,需要多年的积累,因为统一内存架构芯片现在用的都是台积电3nm的制程,而且这个芯片可以带来足够的便携性,方便带在身上移动,国内要突破到3nm,还要很多年,所以这一块,最难赶上,前两个容易一点 via 知乎热榜 (author: 圆胖肿)

封面图片

Meta推出新款AI芯片 旨在降低对英伟达的依赖

Meta推出新款AI芯片 旨在降低对英伟达的依赖 Meta转向人工智能服务带来了更高的算力需求。去年这家社交媒体巨头发布了自己的人工智能模型,来与OpenAI的ChatGPT竞争。该公司还给其社交应用程序增加了新的AI功能,包括定制的贴纸和名人脸的聊天机器人角色。去年10月,该公司表示将向支持人工智能的基础设施投入高达350亿美元,包括数据中心和硬件。其首席执行官扎克伯格当时对投资者表示:“人工智能将是我们2024年最大的投资领域。”这些支出中的很大一部分可能仍将流向生产热门的H100显卡的英伟达。今年早些时候,扎克伯格表示将采购35万块每块售价数万美元的此类芯片。但自研芯片的科技巨头也越来越多。除了Meta,亚马逊旗下AWS、微软公司和Alphabet Inc.旗下谷歌也都在试图摆脱这种代价高昂的依赖性。然而该进程难以一蹴而就。到目前为止,这些努力并没有削弱业界对英伟达人工智能加速器的旺盛需求。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人