奥特曼的芯片计划 7万亿美元融资反而是最容易的部分

奥特曼的芯片计划7万亿美元融资反而是最容易的部分但就像《华尔街日报》一篇报道的标题,筹集数万亿美元可能是Altman芯片计划里最容易的部分。毋庸置疑,芯片制造是比金钱复杂得多的挑战,作为资本密集型产业,历来经历过剧烈的周期性波动,芯片制造厂对激进扩张也持谨慎态度。目前,世界上只有三家公司能够大批量生产最尖端的芯片:台积电、三星电子和英特尔。SamAltman到底看到了什么,决定如此重押算力?如果把大模型厂商划分为两种,一种是在落地场景中探索大模型。其中的“显眼包”代表包括英伟达、微软、Databricks,三者都强调算力瓶颈会随着模型尺寸变小、下一代芯片架构创新等取得突破来进一步破除,就像互联网带宽限制在2000年基本消失一样,“GPU也会发生同样的情况”。另一种大模型厂商的典型代表则是OpenAI,对于大模型技术,要不计成本地做标本、数典范、探索边界。对于OpenAI率先看到的未来,Q*、GPT-5的消息让外界对Transformer能否实现AGI充满想象。这可能也是SamAltman芯片制造野心的起点。据报道,除了投资方,Altman还与芯片制造商比如台积电进行了讨论,讨论与他们合作并使用数万亿美元建设和运营新工厂,以及对能源和其他人工智能基础设施的投资。建设一家尖端芯片工厂通常至少需要100亿美元,相比之下,Altman所讨论的7万亿美元规模是极端的。对于Sam的7万亿美元,黄仁勋预判,到2029年全球建设人工智能数据中心的成本将达到2万亿美元,他表示,“你不能假设你会购买更多电脑,你还必须假设计算机会变得更快,因此你需要的总量不会那么多。”在OpenAI内部,SamAltman看到了什么?对于这个问题,Theinformation跟踪AI和云计算的两位记者在《TheMostExcitingThingAboutAltman'sChipDream》一文作出探讨,由极客公园编译整理:01OpenAI唯一的障碍,算力短缺?上周,OpenAI首席执行官SamAltman抢尽风头。他正试图筹集数万亿美元的资金来开发和制造AI芯片。尽管这一数字多少有点骇人听闻,但姑且先把集体怀疑放在一边,尝试理解Altman融资的意义——无限的计算能力将导致全能的人工智能。社交媒体X平台,网友总结7万亿美元的购买力来源:twitter.com换句话说,他认为唯一阻碍超级人工智能的是服务器短缺,而实现超级人工智能,甚至可以帮助我们移民火星或解决全球变暖问题。Altman并不是唯一持这种观点的人,但这远非共识。四年前,OpenAI发表了一篇关于大型语言模型领域的“缩放定律”(ScalingLaw)的论文。“缩放定律”表明,对大语言模型进行更多计算能力和数据方面的训练,可以提高其预测下一个单词的准确性,从而提高大模型的能力。在这个信念下,OpenAI等大模型厂商花了1亿多美元来训练一个模型。然而,更多AI从业者认为,在今天的AI模型上投入更多芯片和数据并不是实现超级人工智能的途径。当我们用完高质量的、人类生成的数据来训练AI模型时,基于相对较少的数据,开发出能够像人类一样学习和推理的软件可能会更容易。毕竟,OpenAI的GPT-4和Google的Gemini已经接受了世界上大多数公共文本信息的训练,它们还没有达到超级人工智能的水平。利用“缩放定律”训练大模型还隐含着一个副作用:强行使用更大、更耗电的模型可能会对环境产生灾难性的影响,因为服务器和数据中心的电力消耗会产生温室气体。Altman本人也承认,开发前沿大模型可能需要在能源方面取得重大突破。数据中心公司的管理者也已经开始担心,今年所有以人工智能为重点的新数据中心,是否有足够的电力供应。02OpenAI必须保持算力领先目前,我们只能假设Altman和他聪明的同事们知道一些我们不知道的大模型“缩放定律”。显然,他们相信,有了更多的服务器,他们可以利用现有的人工智能和最近的技术突破,比如Q*——一个可以推理以前没有训练过的数学问题的模型——来创建正确的“合成”(非人类生成的)数据。当用完人类生成的数据后,合成数据可以接着被用来训练更好的模型。或者,这些模型可以找出现有模型(如GPT-4)的缺陷,并提出技术改进建议——换句话说,就是自我改进的人工智能。(此前,Google资深工程师卢一峰独家向极客公园解读了OpenAIQ*可能代表的技术路径。)Altman已经明确表示,他的团队根本没有从其独家服务器供应商——微软那里获得足够的计算能力来发挥其潜力。私下里,他曾表示,明年Google将拥有比OpenAI更强大的计算能力来开发人工智能。这在某种程度上可以理解他想改变现状的紧迫性。被爆出7万亿美元筹资建芯片时,Altman在X社交平台发表观点来源:twitter.comAltman到底需要多少钱才能到达计算的“应许之地”?据报道,他与阿拉伯联合酋长国盛产石油的酋长们提出了7万亿美元的数字,他希望这些酋长能资助新的芯片和服务器。一位头部AI芯片厂商的CEO称,建造数据中心、发电厂和芯片代工厂,以产生10倍于微软现有计算能力的计算能力,将耗资1000亿至2000亿美元。这位CEO和该领域的其他人士表示,由于劳动力和供应链的限制,资金在加速芯片制造厂、数据中心和发电厂的建设方面所能做的只有这么多。就连英伟达CEO黄仁勋也对7万亿美元的数字表示怀疑。如果Altman的计划包括OpenAI开发自己的服务器芯片,那将需要数年时间,而且不能保证成功。这就提出了一个问题,为什么他首先要寻找数万亿美元?如果Altman与英特尔、AMD、阿联酋和一长串其他公司达成一笔大交易,打造新的人工智能芯片,这将很容易成为这十年来最重要的技术努力之一。但即使什么都没发生,Altman不得不在更小的算力规模上,测试他对自我改进的人工智能假设,这也足以让人感到兴奋。...PC版:https://www.cnbeta.com.tw/articles/soft/1418257.htm手机版:https://m.cnbeta.com.tw/view/1418257.htm

相关推荐

封面图片

奥特曼再回应 7 万亿美元半导体计划:世界需要更多 AI 芯片 投入超出想象

奥特曼再回应7万亿美元半导体计划:世界需要更多AI芯片投入超出想象奥特曼被曝出正从中东地区筹集总计高达7万亿美元的资金,以支持OpenAI的一项半导体计划,并与英伟达展开竞争。奥特曼称:“这将需要全球大量的投入,超出我们的想象。我们现在还没有一个具体数字”。他还强调了过去一年加快人工智能发展的重要性。他认为人工智能的进步将为人类带来更美好的未来,不过奥特曼也承认,在前进的过程中会有不利的一面。

封面图片

黄仁勋点评奥特曼芯片梦:算力成本早已下降 数万亿美元有点烧得慌

黄仁勋点评奥特曼芯片梦:算力成本早已下降数万亿美元有点烧得慌作为人工智能芯片领域最权威的人物,英伟达的首席执行官黄仁勋回应称,过去十年中,算力成本已经下降了100万倍。而他估计未来该领域的芯片厂建设成本将远低于7万亿美元。另一名资深的芯片架构师JimKeller也在X上回应称,他用不到1万亿美元的资金就能够做到Altman所计划的事情。Keller还尖锐地指出,扩大芯片供应第一步就是消除利润堆积,即简化芯片的供应链;其次就是让芯片变革速度加快,并让硬件和软件相匹配。这也是黄仁勋所呼吁的内容。在他看来,芯片业的扩张并不是指人工智能芯片数量的爆发,那样只会带来供需失衡并冲击芯片的价值。他和Keller一同强调应让处理器变得更复杂,而不在于让处理器变得更多。万亿美元的大计划Altman对未来芯片行业的融资构想远远超过该行业目前的估值,事实上,半导体行业去年的销售额在5270亿美元左右,预计到2030年才会突破1万亿美元大关。与此同时,芯片制造商在2022年累计设备投资995亿美元,预计今年的基础设施投资也不过为970亿美元。全球最大的芯片制造商台积电在2023年资本支出也仅有320亿美元。Altman的构想不仅对芯片制造业来说有点夸张,无论放在哪一个行业都足以令人咋舌。遥想当年美国孤注一掷的曼哈顿核计划,按照通胀调整之后花费的成本,也不过是7万亿美元的两百分之一罢了。有人则嘲讽称,Altman是被繁花迷了眼,看多了富人扎堆向OpenAI投钱,已经失去了对价值的判断,正在效仿其前辈马斯克,开始画一个和“火星移民”类似的大饼。回到芯片行业,钱的问题还只是一方面。据一些科技人士称,人才短缺远比资金问题更加严重。目前来看,能够建设高规格芯片工厂的合格人员已经极度短缺,且合格的技术人员比芯片还要难得,因为前者无法在装配线上大规模量产。当然,人们也可以将Altman的话理解为对芯片业的强势看好,代表着该行业仍需要大量资金的投入。不过,7万亿美元的大饼属实让人有点吃撑,现实与理想之间的差距也需要进一步被认清。...PC版:https://www.cnbeta.com.tw/articles/soft/1418915.htm手机版:https://m.cnbeta.com.tw/view/1418915.htm

封面图片

前谷歌工程师创业造AI芯片 已融资2500万美元

前谷歌工程师创业造AI芯片已融资2500万美元在这一背景下,两位前谷歌工程师共同创立了MatX。他们利用在谷歌的经验,识别出现有人工智能芯片的局限性,并致力于开发更高效、成本更低的新型芯片,旨在提高大语言模型的训练和运行效率。MatX信心十足地预测,其芯片的性能将至少比英伟达的GPU好十倍。目前该公司已成功筹集了2500万美元的资金。人工智能时代的到来改变了风险投资对芯片行业的态度,尽管面临英伟达等巨头也在快速发展,但市场对于专门针对大语言模型设计的芯片仍然充满期待。以下是翻译内容大约25年后,感觉硅谷终于又成了“硅”谷。英伟达在驱动人工智能软件的芯片市场上已成绝对主导,促使其他公司决定自行设计芯片。历史告诉我们,这通常是充满灾难的尝试。从头开始设计芯片需要耗费数年时间和数亿美元,而且大多数尝试以失败告终。然而,人工智能的巨大前景促使人们认为这是一次必须的尝试。迈克·冈特(MikeGunter)和莱纳·波普(ReinerPope)就是这样的两个探索者。他们创立了MatX公司,旨在设计专为处理大语言模型所需数据而优化的芯片。大语言模型,如OpenAI的ChatGPT和谷歌的Gemini,是多种人工智能应用的基础,它们需要大量昂贵的芯片来运行。如果有公司能制造出更便宜、处理速度更快且更适合人工智能的芯片,那么它将在人工智能软件不断扩张的世界中占据极为有利的地位。冈特和波普此前在Alphabet旗下的谷歌工作,冈特负责设计运行人工智能软件的硬件芯片,而波普则负责编写人工智能软件。多年来,谷歌一直致力于开发TPU(tensorprocessingunit,张量处理单元),一种专为人工智能设计的芯片。然而,根据MatX高管的说法,这些芯片是在大语言模型普及之前设计的,对当前任务而言不够高效。“在谷歌,我们努力使大语言模型运行得更快,也取得了一些进展,但总是遇到困难,”波普表示,“在公司内部,有很多关于芯片改进的想法,很难只专注于大语言模型。这是我们选择离职的原因。”英伟达在人工智能芯片市场的主导地位有些偶然。它最初生产的GPU芯片是为加速视频游戏和某些计算机设计任务而设计的。这些芯片擅长同时处理大量的小型任务,恰好适合运行人工智能软件,其性能大幅超过了英特尔等公司生产的其他类型的芯片。英伟达在其GPU芯片上划分了资源区块,以适应广泛的计算任务,包括芯片内部的数据传输。这些设计决策似乎更倾向于满足以往计算时代的需求,而非当前人工智能的高速发展,从而在性能方面存在一定的权衡。MatX的创始人相信,在新的人工智能时代,这些额外的资源增加了不必要的成本和复杂性。相比之下,MatX采取了全新的设计方法,开发了只有一个大型处理核心的芯片,目的是尽可能快地完成乘法运算——这是大语言模型的主要任务。MatX全力以赴,坚信其芯片在训练大型语言模型和输出结果上至少能比英伟达的GPU高出十倍。“英伟达的产品非常强大,对大多数公司来说是正确的选择,”波普说,“但我们认为我们能做得更好。”MatX已经筹集到2500万美元的资金,最新一轮融资由人工智能行业的投资人纳特·弗里德曼(NatFriedman)和丹尼尔·格罗斯(DanielGross)领投。MatX位于加州山景城,距离硅谷的发源地——肖克利半导体实验室(ShockleySemiconductorLaboratory)仅几英里之遥。目前,几十名员工正致力于研发计划于明年推出的芯片。格罗斯表示:“MatX的创始人代表了人工智能领域的一股趋势,他们正在将一些大公司开发的最佳想法商业化,因为那些公司动作过慢,过于官僚化。”如果人工智能软件继续沿着现有的发展路径,对于高成本的计算需求将会巨增。据估计,目前正在研究的每个模型的训练成本约为10亿美元,而未来模型的训练成本可能达到100亿美元。MatX预测,只要能够赢得OpenAI和AnthropicPBC等主要人工智能公司的青睐,它的业务将会蓬勃发展。“这些公司的经济模式与典型公司截然不同,”冈特说,“他们将所有资金都投入到计算资源上,而不是人力资源上。如果这一趋势不改变,他们最终会耗尽资金。”在硅谷,芯片公司随处可见,曾经有几十家芯片初创公司,甚至计算机巨头如惠普、IBM和SunMicrosystems也生产自己的芯片。然而近年来,英特尔凭借其在个人电脑和服务器市场的主导地位击败了许多竞争对手,而三星和高通则主宰了智能手机芯片市场。这导致投资者转而避开芯片初创企业,认为相比软件公司,它们成本更高、周期更长、风险更大。MatX的投资人之一、芯片行业专家拉吉夫·赫马尼(RajivKhemani)回忆道:“大约在2014年左右,我曾拜访过一些风投公司,他们已经让所有懂芯片的合伙人离开了。”“我面前的人根本不懂我在说什么。”然而,人工智能的崛起改变了风险和回报的平衡。亚马逊、谷歌和微软等资源雄厚的公司已经开始投资设计自己的芯片,专门用于执行人工智能任务。几年前,如Groq和CerebrasSystems这样的初创公司亮相,推出了一大批针对人工智能专用的芯片。但这些产品都是在大语言模型实现技术突破并开始主导人工智能领域之前设计的。这迫使初创公司必须适应人们对大语言模型的突然兴趣,并在飞速发展中调整自己的产品。MatX可能代表着又一波从头开始、专门开发大语言模型专用芯片的初创企业浪潮。进入芯片行业的一大挑战是,设计和制造新芯片需要三到五年的时间。而在此期间,英伟达也不会停滞不前,它在本月刚刚发布了更快的GPU芯片。初创公司必须预测技术趋势和竞争对手的动向,而且不能犯任何可能导致生产延误的错误。软件公司通常需要重写代码才能在新的芯片上运行,这是一个成本高昂且耗时的过程,只有在能从这种变化中获得巨大收益时才会进行这样的转变。一个经验法则是,新芯片必须在性能上至少比前代产品好10倍,才能说服客户重写他们所有的代码。格罗斯认为,我们目前仍处于构建支持人工智能成为主要计算形式的基础设施的初期阶段。“我认为,我们正处于一个芯片周期的早期阶段,与此相比,其他行业的发展将相形见绌。”如果格罗斯的看法正确,那几乎可以肯定地说,新的芯片巨头将会诞生。...PC版:https://www.cnbeta.com.tw/articles/soft/1425221.htm手机版:https://m.cnbeta.com.tw/view/1425221.htm

封面图片

SK海力士计划在韩国增加20万亿韩元人工智能芯片投资

SK海力士计划在韩国增加20万亿韩元人工智能芯片投资SK海力士计划追加投资20万亿韩元,扩大该公司在韩国的半导体产能,以满足日益增长的人工智能芯片需求。这家韩国内存芯片生产商周三表示,将斥资超过20万亿韩元扩建其位于首尔西南部清州的DRAM芯片工厂。SK海力士称,根据这项新的长期支出计划,到2025年11月,该公司将首先完成投资5.3万亿韩元的清州芯片制造设施的建设。该公司表示,这项工厂扩建的目的是提高高带宽内存和其他先进人工智能芯片的产量。——

封面图片

OpenAI 创始人又一雄心:筹集数万亿美元推动全球半导体行业发展

OpenAI创始人又一雄心:筹集数万亿美元推动全球半导体行业发展据报道,在引领人类水平的人工智能发展的同时,OpenAI创始人SamAltman又产生了另一个雄心壮志:筹集数万亿美元,重塑全球半导体产业。据知情人士透露,这位OpenAICEO正在与包括阿联酋在内的投资者进行谈判,以筹集数万亿美元资金,旨在提高全球芯片制造能力,更好地推动该公司人工智能发展。其中一位知情人士表示,该项目可能需要筹集多达5万亿至7万亿美元的资金。

封面图片

OpenAI 正在探索制造自己的人工智能芯片

OpenAI正在探索制造自己的人工智能芯片据路透社报道,随着训练人工智能模型的芯片短缺情况日益恶化,公司内部关于人工智能芯片战略的讨论至少从去年开始就一直在进行。据报道,OpenAI正在考虑采取多种策略来推进其芯片雄心,包括收购一家AI芯片制造商或加大内部设计芯片的力度。据路透社报道,OpenAI首席执行官SamAltman已将收购更多人工智能芯片作为公司的首要任务。目前,OpenAI与大多数竞争对手一样,依靠基于GPU的硬件来开发ChatGPT、GPT-4和DALL-E3等模型。GPU并行执行多项计算的能力使其非常适合训练当今最强大的人工智能。但生成式人工智能的蓬勃发展——对于Nvidia等GPU制造商来说是一笔意外之财——却给GPU供应链带来了巨大压力。微软正在与AMD合作开发一款名为Athena的内部AI芯片,据说OpenAI正在测试该芯片。OpenAI在研发方面的大力投资处于有利地位。该公司已筹集超过110亿美元的风险投资,年收入接近10亿美元。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人