黄仁勋点评奥特曼芯片梦:算力成本早已下降 数万亿美元有点烧得慌

黄仁勋点评奥特曼芯片梦:算力成本早已下降 数万亿美元有点烧得慌 作为人工智能芯片领域最权威的人物,英伟达的首席执行官黄仁勋回应称,过去十年中,算力成本已经下降了100万倍。而他估计未来该领域的芯片厂建设成本将远低于7万亿美元。另一名资深的芯片架构师Jim Keller也在X上回应称,他用不到1万亿美元的资金就能够做到Altman所计划的事情。Keller还尖锐地指出,扩大芯片供应第一步就是消除利润堆积,即简化芯片的供应链;其次就是让芯片变革速度加快,并让硬件和软件相匹配。这也是黄仁勋所呼吁的内容。在他看来,芯片业的扩张并不是指人工智能芯片数量的爆发,那样只会带来供需失衡并冲击芯片的价值。他和Keller一同强调应让处理器变得更复杂,而不在于让处理器变得更多。万亿美元的大计划Altman对未来芯片行业的融资构想远远超过该行业目前的估值,事实上,半导体行业去年的销售额在5270亿美元左右,预计到2030年才会突破1万亿美元大关。与此同时,芯片制造商在2022年累计设备投资995亿美元,预计今年的基础设施投资也不过为970亿美元。全球最大的芯片制造商台积电在2023年资本支出也仅有320亿美元。Altman的构想不仅对芯片制造业来说有点夸张,无论放在哪一个行业都足以令人咋舌。遥想当年美国孤注一掷的曼哈顿核计划,按照通胀调整之后花费的成本,也不过是7万亿美元的两百分之一罢了。有人则嘲讽称,Altman是被繁花迷了眼,看多了富人扎堆向OpenAI投钱,已经失去了对价值的判断,正在效仿其前辈马斯克,开始画一个和“火星移民”类似的大饼。回到芯片行业,钱的问题还只是一方面。据一些科技人士称,人才短缺远比资金问题更加严重。目前来看,能够建设高规格芯片工厂的合格人员已经极度短缺,且合格的技术人员比芯片还要难得,因为前者无法在装配线上大规模量产。当然,人们也可以将Altman的话理解为对芯片业的强势看好,代表着该行业仍需要大量资金的投入。不过,7万亿美元的大饼属实让人有点吃撑,现实与理想之间的差距也需要进一步被认清。 ... PC版: 手机版:

相关推荐

封面图片

英伟达CEO黄仁勋:预测科技革新将大幅削减AI成本

英伟达CEO黄仁勋:预测科技革新将大幅削减AI成本 这位60岁的公司领袖所在的公司制造着最受追捧的人工智能加速器,他对芯片行业降低人工智能成本充满信心,因为这些部件正在“越来越快地制造出来”。黄仁勋在一份报告中称,OpenAI首席执行官山姆·奥特曼正寻求从包括阿拉伯联合酋长国在内的中东投资者那里筹集7万亿美元,用于一项半导体计划,该计划旨在为与英伟达竞争的人工智能项目提供动力。据了解,由于英伟达在人工智能训练芯片领域无可争议的领导地位,其的市值已经膨胀到1.7万亿美元以上,同时黄仁勋的个人财富也增加了好几倍。对此,奥特曼和其他人工智能开发者正寻求多样化他们的硬件选择,包括探索自己的芯片制造业务。其中,全球领先的代工芯片制造商台积电(TSM.US)和三星电子每年承诺投入超过300亿美元的资本支出,以保持领先于潜在竞争对手。此外,对于奥特曼来说,要想有机会削弱他们的领先优势,他需要在研究、开发、设施和专家人才方面投入大量资金,但黄仁勋认为,更好、更经济的芯片将使这一切变得不必要。尽管如此,英伟达的CEO并不认为人工智能支出的增长会很快结束。在他的讲话中,黄仁勋估计,在未来五年内,全球为支持人工智能而建立的数据中心成本将增加一倍。他表示:“我们正处于这个新时代的开始。全球约有一万亿美元的数据中心已建成。在接下来的四、五年中,我们将拥有价值2万亿美元的数据中心,它们将支持全球的软件运行。” ... PC版: 手机版:

封面图片

奥特曼的芯片计划 7万亿美元融资反而是最容易的部分

奥特曼的芯片计划 7万亿美元融资反而是最容易的部分 但就像《华尔街日报》一篇报道的标题,筹集数万亿美元可能是 Altman 芯片计划里最容易的部分。毋庸置疑,芯片制造是比金钱复杂得多的挑战,作为资本密集型产业,历来经历过剧烈的周期性波动,芯片制造厂对激进扩张也持谨慎态度。目前,世界上只有三家公司能够大批量生产最尖端的芯片:台积电、三星电子和英特尔。Sam Altman 到底看到了什么,决定如此重押算力?如果把大模型厂商划分为两种,一种是在落地场景中探索大模型。其中的“显眼包”代表包括英伟达、微软、Databricks,三者都强调算力瓶颈会随着模型尺寸变小、下一代芯片架构创新等取得突破来进一步破除,就像互联网带宽限制在 2000 年基本消失一样,“GPU 也会发生同样的情况”。另一种大模型厂商的典型代表则是 OpenAI,对于大模型技术,要不计成本地做标本、数典范、探索边界。对于 OpenAI 率先看到的未来,Q*、GPT-5 的消息让外界对 Transformer 能否实现 AGI 充满想象。这可能也是 Sam Altman 芯片制造野心的起点。据报道,除了投资方,Altman 还与芯片制造商比如台积电进行了讨论,讨论与他们合作并使用数万亿美元建设和运营新工厂,以及对能源和其他人工智能基础设施的投资。建设一家尖端芯片工厂通常至少需要 100 亿美元,相比之下,Altman 所讨论的 7 万亿美元规模是极端的。对于 Sam 的 7 万亿美元,黄仁勋预判,到 2029 年全球建设人工智能数据中心的成本将达到 2 万亿美元,他表示,“你不能假设你会购买更多电脑,你还必须假设计算机会变得更快,因此你需要的总量不会那么多。”在 OpenAI 内部,Sam Altman 看到了什么?对于这个问题,The information 跟踪 AI 和云计算的两位记者在《The Most Exciting Thing About Altman's Chip Dream》一文作出探讨,由极客公园编译整理:01OpenAI 唯一的障碍,算力短缺?上周,OpenAI 首席执行官 Sam Altman 抢尽风头。他正试图筹集数万亿美元的资金来开发和制造 AI 芯片。尽管这一数字多少有点骇人听闻,但姑且先把集体怀疑放在一边,尝试理解 Altman 融资的意义无限的计算能力将导致全能的人工智能。社交媒体 X 平台,网友总结 7 万亿美元的购买力|来源:twitter.com换句话说,他认为唯一阻碍超级人工智能的是服务器短缺,而实现超级人工智能,甚至可以帮助我们移民火星或解决全球变暖问题。Altman 并不是唯一持这种观点的人,但这远非共识。四年前,OpenAI 发表了一篇关于大型语言模型领域的“缩放定律”(Scaling Law)的论文。“缩放定律”表明,对大语言模型进行更多计算能力和数据方面的训练,可以提高其预测下一个单词的准确性,从而提高大模型的能力。在这个信念下,OpenAI 等大模型厂商花了 1 亿多美元来训练一个模型。然而,更多 AI 从业者认为,在今天的 AI 模型上投入更多芯片和数据并不是实现超级人工智能的途径。当我们用完高质量的、人类生成的数据来训练 AI 模型时,基于相对较少的数据,开发出能够像人类一样学习和推理的软件可能会更容易。毕竟,OpenAI 的 GPT-4 和Google的 Gemini 已经接受了世界上大多数公共文本信息的训练,它们还没有达到超级人工智能的水平。利用“缩放定律”训练大模型还隐含着一个副作用:强行使用更大、更耗电的模型可能会对环境产生灾难性的影响,因为服务器和数据中心的电力消耗会产生温室气体。Altman 本人也承认,开发前沿大模型可能需要在能源方面取得重大突破。数据中心公司的管理者也已经开始担心,今年所有以人工智能为重点的新数据中心,是否有足够的电力供应。02OpenAI 必须保持算力领先目前,我们只能假设 Altman 和他聪明的同事们知道一些我们不知道的大模型“缩放定律”。显然,他们相信,有了更多的服务器,他们可以利用现有的人工智能和最近的技术突破,比如 Q*一个可以推理以前没有训练过的数学问题的模型来创建正确的“合成”(非人类生成的) 数据。当用完人类生成的数据后,合成数据可以接着被用来训练更好的模型。或者,这些模型可以找出现有模型 (如 GPT-4) 的缺陷,并提出技术改进建议换句话说,就是自我改进的人工智能。(此前,Google资深工程师卢一峰独家向极客公园解读了 OpenAI Q*可能代表的技术路径。)Altman 已经明确表示,他的团队根本没有从其独家服务器供应商微软那里获得足够的计算能力来发挥其潜力。私下里,他曾表示,明年Google将拥有比 OpenAI 更强大的计算能力来开发人工智能。这在某种程度上可以理解他想改变现状的紧迫性。被爆出 7 万亿美元筹资建芯片时,Altman 在 X 社交平台发表观点|来源:twitter.comAltman 到底需要多少钱才能到达计算的“应许之地”?据报道,他与阿拉伯联合酋长国盛产石油的酋长们提出了 7 万亿美元的数字,他希望这些酋长能资助新的芯片和服务器。一位头部 AI 芯片厂商的 CEO 称,建造数据中心、发电厂和芯片代工厂,以产生 10 倍于微软现有计算能力的计算能力,将耗资 1000 亿至 2000 亿美元。这位 CEO 和该领域的其他人士表示,由于劳动力和供应链的限制,资金在加速芯片制造厂、数据中心和发电厂的建设方面所能做的只有这么多。就连英伟达 CEO 黄仁勋也对 7 万亿美元的数字表示怀疑。如果 Altman 的计划包括 OpenAI 开发自己的服务器芯片,那将需要数年时间,而且不能保证成功。这就提出了一个问题,为什么他首先要寻找数万亿美元?如果 Altman 与英特尔、AMD、阿联酋和一长串其他公司达成一笔大交易,打造新的人工智能芯片,这将很容易成为这十年来最重要的技术努力之一。但即使什么都没发生,Altman 不得不在更小的算力规模上,测试他对自我改进的人工智能假设,这也足以让人感到兴奋。 ... PC版: 手机版:

封面图片

黄仁勋评OpenAI“7万亿”造芯传闻:用不上这么多钱 科技革新会降低AI成本

黄仁勋评OpenAI“7万亿”造芯传闻:用不上这么多钱 科技革新会降低AI成本 据了解,7万亿美元相当于美国2023全年国内生产总值(GDP)的四分之一左右。若与上市公司的市值比较,相当于2.2个微软公司,或2.4个苹果公司。截至周一收盘,英伟达的市值为1.784万亿美元,接近7万亿的四分之一。当地时间周一(2月12日),2024年世界政府峰会在阿联酋迪拜开幕,与会的黄仁勋告诉媒体,他对这一说法表示怀疑并指出,“作假设的时候不能简单计算需要购买多少计算机。你需要考虑到计算机的速度会越来越快,因此,购买的总量并不需要这么多。”他补充称,“计算机架构仍在不断进步。如果不将‘计算机变得更快’纳入考量,你可能会得出这样的结论:我们需要14个行星、三个星系和四个太阳来为这一切提供燃料。”来源:世界政府峰会官方社交媒体账号目前,人工智能芯片市场主要是由英伟达主导,H100也公认是训练大语言模型最需要的GPU。由于H100售价不菲,给英伟达公司和黄仁勋本人都带来了巨额财富的同时,也让OpenAI、Meta等AI开发商有了“另起炉灶”的想法。据了解,台积电、三星电子等每年的资本支出高达百亿美元,OpenAI首席执行官山姆·奥尔特曼(Sam Altman)要想在这一领域有所作为,就必须在研发、设施和专业人员方面投入巨资。而黄仁勋却认为,芯片正向着更好、更具成本效益前进,将会让这一想法变得没有必要。他相信,芯片行业中部件的制造将“越来越快”,进而降低人工智能技术的成本。但黄仁勋补充道,AI支出的增长趋势确实不会很快结束,他估计未来五年,全球数据中心为AI提供动力的成本将翻一番,“我们正处于这个新时代的开端。在未来四至五年内,我们将拥有价值2万亿美元的数据中心,为世界各地的软件提供动力。”当被问及下一代AI会否建立在GPU上时,黄仁勋称他已经观察到许多其他主要科技公司确实正在开发他们自己的专有芯片,以作为GPU的替代品。比如微软正在开发自研AI芯片Maia,谷歌则在设计自己的张量处理器(TPU)。黄仁勋说道,英伟达与潜在竞争对手不同的是,公司的GPU可供“任何平台上的任何人”使用,并指出这是他“AI民主化”雄心的一部分。黄仁勋表示,公司有能力灵活适应构建AI系统的新方法,所有架构都可以在英伟达的架构上创建。这位CEO称,英伟达将存在于“每个云和数据中心,一直到自动驾驶系统和自动驾驶汽车”。 ... PC版: 手机版:

封面图片

OpenAI Altman的野心:筹资七万亿美元直指AI“芯片痛点”

OpenAI Altman的野心:筹资七万亿美元直指AI“芯片痛点” 其中一位知情人士表示,该项目可能需要筹集多达5万亿至7万亿美元的资金。这一规模甚至令全球半导体产业规模相形见绌,去年全球芯片销售额为5270亿美元,预计到2030年将增至每年1万亿美元。根据行业组织SEMI的估算,去年全球半导体制造设备销售额为1000亿美元。从企业筹资标准来看,Altman所讨论的金额也是非常巨大的,较一些主要经济体的国债、大型主权财富基金还要大,去年美国企业债务发行总额约为1.44万亿美元。知情人士指出,Altman建议OpenAI、各种投资者、芯片制造商和电力供应商建立合作关系,他们将共同出资建立芯片代工厂,然后由现有的芯片制造商运营,OpenAI将成为新工厂的重要客户。在人工智能需求激增的背景下,人们对芯片供应和运行芯片所需电力的担忧与日俱增,AI芯片领导者英伟达的芯片一直供不应求。Altman的其目就是解决制约OpenAI发展的各类因素,包括训练ChatGPT大模型的AI芯片的稀缺性。Altman经常抱怨称,没有足够的GPU芯片,支持OpenAI对通用人工智能的追求。 ... PC版: 手机版:

封面图片

如何用不到 1 万亿美元解决 Sam Altman(OpenAI CEO)打算用 7 万亿美元解决的问题?

如何用不到 1 万亿美元解决 Sam Altman(OpenAI CEO)打算用 7 万亿美元解决的问题? Jim Keller:让芯片变得更快。 网友 UshakF:你这话说的就想让人“多赚点钱”或者“改进产品”这种废话一样 Jim Keller:我正在让芯片变得更快,你在干嘛 这差不多算是用文雅的说法说:“你寄吧谁啊?” 至于 Jim Keller,如果你不知道他是谁,他曾经操刀了 Alpha 21164/21264,AMD K8,x86-64,苹果 A4,A5,以及近一点的,AMD Zen,特斯拉移动驾驶领域的芯片。 外号“硅仙人”,不是吹的。

封面图片

黄仁勋敦促企业采购更多AI芯片:你买的越多 省的就越多

黄仁勋敦促企业采购更多AI芯片:你买的越多 省的就越多 黄仁勋通过描述为什么公司应该同时投资图形处理器(GPU)和中央处理器(CPU)来解释这个概念。他说,这两种处理器可以自主工作,将执行任务所需的时间从“100个单位时间减少到1个单位时间”。所以,你买的越多,省的就越多。将这两种处理器结合在一起已经是个人电脑行业的普遍做法。黄仁勋说:“我们在1000美元的电脑上添加了一个500美元的GPU,性能得到了极大的提升。”“我们在数据中心做这件事。一个价值10亿美元的数据中心,加上价值5亿美元的GPU,突然之间,它就变成了一个AI工厂。”黄仁勋随后展示了一张图表,显示当公司同时使用这两种技术时,它们的速度将提高100倍,而成本仅增加了1.5倍。今年3月,英伟达推出了售价7万美元的Blackwell B200 GPU,据称这是“世界上最强大的人工智能芯片”。它正在将芯片封装成更大的设计,如GB200 NVL72,结合了72个GPU和36个CPU,旨在满足“最计算密集型的工作负载”,并将成本和能耗降低至多25倍。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人