揭秘ChatGPT背后的肮脏秘密 AI巨头要牺牲环境吗?

揭秘ChatGPT背后的肮脏秘密AI巨头要牺牲环境吗?外媒指出,构建高性能人工智能搜索引擎的竞赛很可能需要计算能力的大幅提升,它所产生的后果将是科技公司所需能源和碳排放量的大幅增加。英国萨里大学网络安全教授艾伦·伍德沃德(AlanWoodward)表示:“已经有大量资源被用于索引和搜索互联网内容,但人工智能的整合需要一种不同的火力。它需要处理能力、存储和高效搜索。每当我们看到在线处理的步骤变化时,我们就会看到大型处理中心所需的电力和冷却资源的显著增加。我认为人工智能的整合可能是会走这一步。”碳排放大增训练大型语言模型(LLMs)意味着在大量数据中解析和计算链接,这就是为什么它们往往是由拥有大量资源的公司开发的原因,比如为微软必应搜索提供动力的ChatGPT,为Google聊天机器人“巴德”(Bard)提供支持的那些语言模型。“训练这些模型需要大量的计算能力,”西班牙科鲁尼亚大学(UniversityofCoruña)计算机科学家卡洛斯·戈麦兹·罗德里古兹(CarlosGómez-Rodríguez)表示,“现在,只有大型科技公司才能训练他们。”微软已在必应中整合ChatGPT尽管OpenAI和Google都没有透露其产品的计算成本是多少,但研究人员发布的第三方分析预计,ChatGPT部分依赖的GPT-3模型的训练会消耗1287兆瓦时电力,产生550多吨的二氧化碳当量,相当于一个人在纽约和旧金山之间往返550次。“这个数字看起来没有那么糟糕,但你必须考虑到这样一个事实:你不仅要训练它,还要执行它,为数百万用户服务。”罗德里古兹表示。而且,把ChatGPT作为一个独立产品使用与把它整合到必应中还有很大不同。投行瑞银预计,ChatGPT日均独立访问用户为1300万。相比之下,必应每天要处理5亿次搜索。加拿大数据中心公司QScale联合创始人马丁·布查德(MartinBouchard)认为,根据他对微软和Google搜索计划的了解,在搜索过程中添加生成式人工智能,需要“每次搜索至少增加4到5倍的计算量”。为了满足搜索引擎用户的需求,企业必须做出改变。“如果他们要经常重新训练模型,并添加更多参数之类的东西,这是一个完全不同的规模,”布查德表示,“这将需要在硬件上进行大量投资。我们现有的数据中心和基础设施将无法应对生成式人工智能的消耗。它们对性能的需求太高了。”如何减少碳排放?根据国际能源署发布的数据,数据中心的温室气体排放量已经占到全球温室气体排放量的1%左右。随着云计算需求的增长,这一数字预计还会上升,但运营搜索引擎的公司已承诺减少它们对全球变暖的净贡献。微软已经承诺到2050年实现碳负排放,该公司计划今年购买150万吨碳信用额。碳信用又称碳权,是指排放1吨二氧化碳当量的温室气体的权利。Google承诺到2030年在其整个业务和价值链实现净零排放。对于这些巨头来说,减少将人工智能整合到搜索中的环境足迹和能源成本的一个方式就是将数据中心转移到更清洁的能源上,并重新设计神经网络让让变得更高效,减少所谓的“推断时间”,也就是算法处理新数据所需的计算能力。“我们必须研究如何减少这种大型模型所需要的推断时间,”谢菲尔德大学自然语言处理讲师纳菲斯·萨达特·莫萨维(NafiseSadatMoosavi)表示,她致力于自然语言处理的可持续性研究,“现在是关注效率方面的好时机。”Google发言人简·帕克(JanePark)表示,Google最初发布的“巴德”版本是一个由轻量级大型语言模型支持的版本。“我们还发表了一项研究,详细介绍了最先进语言模型的能源成本,包括早期和更大版本的LAMDA,”帕克称,“我们的研究结果表明,将高效的模型、处理器和数据中心与清洁能源相结合,可以将机器学习系统的碳足迹减少1000倍。”...PC版:https://www.cnbeta.com.tw/articles/soft/1344011.htm手机版:https://m.cnbeta.com.tw/view/1344011.htm

相关推荐

封面图片

ChatGPT的环境成本究竟有多大?

ChatGPT的环境成本究竟有多大?要想从大气中吸收这些二氧化碳,相当于需要栽种超过6.5万棵树。虽然“虚拟”的属性让人们容易忽视数字产品的碳账本,但事实上,互联网却无疑是地球上最大的煤炭动力机器之一。训练机器成碳排“大户”聊天机器人、数字助理以及来自流媒体服务的电影和音乐推荐都依赖于“深度学习”——一种训练计算机模型以识别数据模式的过程。这种训练需要强大的计算机和大量的能量支撑。对于ChatGPT全生命周期的碳足迹数据,这个阶段是名副其实的排放大户。最精细的深度学习模型之一,目标就是产生类似人类的语言。在ChatGPT问世前,OpenAI公司先开发了一套复杂的自然语言模型,命名为GPT-3。ChatGPT和GPT-3都是在大量文本数据上训练而成的,允许它们对文本输入产生类似人类的响应,但由于后者专门为会话任务而设计,GPT-3则更通用一些,所以参数库要小100多倍。“ChatGPT是基于GPT-3的一个升级版本,在GPT-3的模型架构基础上又进行了优化并在训练时期增加了强化学习。”唐淑姝对华尔街见闻分析,“所以要估算ChatGPT在训练阶段的碳排,可以参考GPT-3的排放值。”有数据显示,当时训练GPT-3消耗了1287MWh,排放出552吨温室气体。“GPT-3的大量排放可以部分解释为它是在较旧、效率较低的硬件上进行训练的,但因为没有衡量二氧化碳排放量的标准化方法,这些数字是基于估计,另外,这部分碳排放值中具体有多少应该分配给训练ChatGPT,标准也是比较模糊的,需要注意的是,由于强化学习本身还需要额外消耗电力,所以ChatGPT在模型训练阶段所产生的的碳排放应该大于这个数值。”可持续数据研究者卡斯帕-路德维格森如是分析。仅以552吨排放量计算,这些相当于126个丹麦家庭每年消耗的能量。运行阶段的碳成本用户在操作ChatGPT时的动作耗电量很小,但由于全球每天可能发生十亿次,累积之下使其成为了第二大碳排放来源。唐淑姝对华尔街见闻表示,可以将另一个大型语言模型BLOOM作为类比来推测ChatGPT运行阶段的碳排放。BLOOM曾在具有16个NVIDIAA10040GBGPU的GoogleCloudPlatform实例上部署并运行了18天,共432小时。“BLOOM与ChatGPT前身GPT-3的模型大小大致相同,假设把相同的硬件用于ChatGPT,并在16个NVIDIAA10040GBGPU上运行,并推测硬件利用率始终为100%,”唐淑姝通过使用MLCO2Impact计算机,估算出ChatGPT的每日碳排放为25.92kg。Databoxer联合创始人克里斯·波顿则解释了另一种计算方法。“首先,我们估计每个响应词在A100GPU上需要0.35秒,假设有100万用户,每个用户有10个问题,产生了10000000个响应和每天300000000个单词,每个单词0.35秒,可以计算得出每天A100GPU运行了29167个小时。”CloudCarbonFootprint列出了Azure数据中心中A100GPU的最低功耗46W和最高407W,由于很可能没有多少ChatGPT处理器处于闲置状态,以该范围的顶端消耗计算,每天的电力能耗将达到11870kWh。“美国西部的排放因子为0.000322167吨/kWh,所以每天会产生3.82吨二氧化碳当量,美国人平均每年约15吨二氧化碳当量,换言之,这与93个美国人每年的二氧化碳排放率相当。”克里斯·波顿说。Ai的能源账依据唐淑姝的观点,从全生命周期角度看还应该包含ChatGPT在制造阶段的隐性碳排。仍以BLOOM作为参照,训练总时间共持续108万小时,平均使用48个计算节点上的384个GPU,可以估计与模型训练相关的服务器隐含碳排放大约为7.57吨和GPU3.64吨,总计约11.2吨。“ChatGPT的训练时间大约比BLOOM长3倍,单从这个角度估算,估算ChatGPT中模型训练的隐含碳排放总量约为33.6吨。”唐淑姝对华尔街见闻解释道。事实上,学界对于人工智能与环境成本的关系颇为关切。伯克利大学关于功耗和人工智能主题的研究认为,人工智能几乎吞噬了能源。比如Google的预训练语言模型T5使用了86兆瓦的电力,产生了47公吨的二氧化碳排放量;Google的多轮开放领域聊天机器人Meena使用了232兆瓦的电力,产生了96公吨的二氧化碳排放;Google开发的语言翻译框架-GShard使用了24兆瓦的电力,产生了4.3公吨的二氧化碳排放;Google开发的路由算法SwitchTransformer使用了179兆瓦的电力,产生了59公吨的二氧化碳排放。深度学习中使用的计算能力在2012年至2018年间增长了300000倍,这让GPT-3看起来成为了对气候影响最大的一个。然而,当它与人脑同时工作,人脑的能耗仅为机器的0.002%。据估计,全球科技行业占全球温室气体排放量的1.8%至3.9%。尽管这些排放量中只有一小部分是由人工智能和机器学习引起的,但人工智能的碳足迹对于技术中的单个领域来说仍然非常高。发表于Nature的一项计算碳成本的研究揭示了与人工智能相关的碳足迹在各种云计算数据中心训练一系列模型。结果表明,在美国中部或德国的数据中心训练BERT(一种常见的机器学习语言模型)会排放22-28公斤二氧化碳。这是在挪威(大部分电力来自水力发电)或在主要依赖核能的法国进行相同实验产生的排放量的两倍多。而一天中进行实验的时间同样重要。例如,在美国华盛顿州,当该州的电力仅来自于水力发电时,在夜间训练人工智能导致的排放量低于在白天训练,因为那时的电力来自于燃气站。通过更好地了解AI系统消耗了多少能源,或许有助于人类权衡做出在污染和成本之间的更优选择。...PC版:https://www.cnbeta.com.tw/articles/soft/1343683.htm手机版:https://m.cnbeta.com.tw/view/1343683.htm

封面图片

ChatGPT背后的AI技术诞生于爱荷华州 用了很多水

ChatGPT背后的AI技术诞生于爱荷华州用了很多水当微软、OpenAI和Google等领先的技术开发商竞相利用生成式人工智能的热潮时,他们也承认,对其人工智能工具日益增长的需求会带来高昂的成本,从昂贵的半导体到增加的耗水量。但他们往往对具体细节秘而不宣。在爱荷华州,很少有人知道这里是OpenAI最先进的大型语言模型GPT-4的诞生地,直到微软的一位高管在一次演讲中说,该模型"实际上是在得梅因西部的玉米地旁开发的"。建立大型语言模型需要分析大量人类撰写文本的模式。所有这些计算都需要耗费大量的电力并产生大量的热量。为了在炎热的天气保持凉爽,数据中心需要抽水--通常是抽到仓库大小的建筑外的冷却塔。微软在其最新的环境报告中披露,从2021年到2022年,其全球耗水量激增了34%(达到近17亿加仑,或超过2500个奥林匹克规格的游泳池),与前几年相比,耗水量急剧增加,外部研究人员认为这与微软的人工智能研究有关。加州大学河滨分校(UniversityofCalifornia,Riverside)的研究员任少磊(ShaoleiRen)说:"可以说大部分耗水量增长都是人工智能造成的,包括它在生成式人工智能方面的大量投资以及与OpenAI的合作。"在即将于今年晚些时候发表的一篇论文中,任少磊的团队估计,每当你向ChatGPT提出5到50个提示或问题时,ChatGPT就会喝掉500毫升的水(接近一个16盎司水瓶的容量)。这个范围因服务器的位置和季节而异。这一估算还包括公司没有测量的间接用水量,例如冷却为数据中心供电的发电厂。"大多数人并不了解ChatGPT的资源使用情况,"任说。"如果你不知道资源的使用情况,那么我们就没有办法帮助你节约资源"。Google同期的用水量增长了20%,任也将其主要归因于人工智能工作。Google的用水量增长并不均衡--在俄勒冈州,Google的用水量保持稳定,该州的用水量引起了公众的关注,而在拉斯维加斯以外的地区,Google的用水量则翻了一番。在爱荷华州,Google的设备对水资源同样饥渴,其理事会布拉夫斯数据中心的饮用水用量比其他任何地方都要多。在回答美联社的提问时,微软在本周的一份声明中表示,它正在投资研究,以测量人工智能的能源和碳足迹,"同时研究如何使大型系统在训练和应用中更加高效"。"我们将继续监控我们的排放量,加快进度,同时增加使用清洁能源为数据中心供电,购买可再生能源,并做出其他努力,以实现我们的可持续发展目标,即到2030年实现负碳排放、正水排放和零浪费。"该公司的声明说。OpenAI周五在自己的声明中也表达了同样的观点,表示正在"认真思考"如何更好地利用计算能力。它说,"我们认识到大型模型的训练可能是能源和水资源密集型的",并努力提高效率。微软于2019年首次向总部位于旧金山的OpenAI投资10亿美元,这距离这家初创公司推出ChatGPT并引发全球对人工智能进步的关注已有两年多时间。作为交易的一部分,这家软件巨头将提供训练人工智能模型所需的计算能力。为了至少完成其中的一部分工作,两家公司将目光投向了爱荷华州的西得梅因(WestDesMoines),这座拥有6.8万人口的城市十多年来一直是微软云计算服务的数据中心聚集地。微软的第四个和第五个数据中心将于今年晚些时候在这里启用。史蒂夫-盖尔(SteveGaer)说:"他们正在以最快的速度建造这些数据中心。"吸引该公司的是该市对建设公共基础设施的承诺,并通过纳税为支持这项投资贡献了一笔"惊人"的资金。他补充说:"但是,你知道,他们对自己在那里的所作所为相当保密。"微软首次表示,它正在为2020年的OpenAI开发世界上最强大的超级计算机之一,当时公司拒绝透露其位置,但将其描述为一个"单一系统",拥有超过285,000个传统半导体内核和10,000个图形处理器--这种芯片已成为人工智能工作负载的关键。专家们表示,在单一地点"预训练"人工智能模型是有意义的,因为大量数据需要在计算内核之间传输。直到5月底,微软总裁布拉德-史密斯(BradSmith)才透露,微软已在爱荷华州建立了"先进的人工智能超级计算数据中心",专门用于让OpenAI训练其第四代模型GPT-4。该模型现在为高级版本的ChatGPT和微软自己的一些产品提供动力,并加速了关于遏制人工智能社会风险的讨论。它是由加利福尼亚州的非凡工程师制造的,但实际上是在爱荷华州制造的。从某种程度上来说,西得梅因是一个相对高效的地方,可以用来训练强大的人工智能系统,尤其是与微软位于亚利桑那州的数据中心相比,后者在相同的计算需求下消耗的水资源要多得多。任少磊说:"因此,如果你要在微软内部开发人工智能模型,那么你应该把训练安排在爱荷华州,而不是亚利桑那州。在培训方面没有任何区别。但在耗水量或能耗方面,差别就大了。"在一年中的大部分时间里,爱荷华州的天气都很凉爽,微软可以利用外部空气来保持超级计算机的正常运行,并将热量排出大楼。只有当温度超过29.3摄氏度(约85华氏度)时,微软才会取水,该公司在一份公开披露的文件中如是说。这仍然会消耗很大的水量,尤其是在夏天。根据西得梅因水厂(WestDesMoinesWaterWorks)的数据,2022年7月,也就是OpenAI称其完成GPT-4培训的前一个月,微软向其爱荷华州数据中心集群泵入了约1150万加仑的水。这约占该地区用水总量的6%,该地区还为该市居民提供饮用水。2022年,西得梅因水厂的一份文件称,如果微软的数据中心项目能够"展示并实施在当前水平上大幅降低高峰用水量的技术",以保护住宅和其他商业用水的供应,那么西得梅因水厂和市政府"会考虑这些项目"。微软周四表示,它正在直接与水务局合作,以解决其反馈的问题。水厂在一份书面声明中表示,微软一直是一个很好的合作伙伴,并一直在与当地官员合作,在满足用水需求的同时减少水足迹。...PC版:https://www.cnbeta.com.tw/articles/soft/1382855.htm手机版:https://m.cnbeta.com.tw/view/1382855.htm

封面图片

训练出ChatGPT需要消耗多少电力?

训练出ChatGPT需要消耗多少电力?微软、谷歌和ChatGPT制造商OpenAI都要使用云计算,而云计算依赖于全球海量数据中心服务器内数以千计的芯片来训练被称为模型的AI算法,分析数据以帮助这些算法“学习”如何执行任务。ChatGPT的成功促使其他公司竞相推出自己的AI系统和聊天机器人,或者开发使用大型AI模型的产品。与其他形式的计算相比,AI需要使用更多的能源,训练单个模型消耗的电力超过100多个美国家庭1年的用电量。然而,虽然AI行业增长非常快,但却不够透明,以至于没有人确切知道AI的总用电量和碳排放量。碳排放量也可能有很大差异,这取决于提供电力的发电厂类型,靠烧煤或天然气发电供电的数据中心,碳排放量显然高于太阳能或风力发电支持的数据中心。虽然研究人员已经统计了创建单一模型所产生的碳排放量,有些公司也提供了有关他们能源使用的数据,但他们没有对这项技术的总用电量进行总体估计。AI公司HugingFace研究员萨莎·卢西奥尼(SashaLuccioni)写了一篇论文,量化了她旗下公司Bloom的碳排放情况,Bloom是OpenAI模型GPT-3的竞争对手。卢西奥尼还试图根据一组有限的公开数据,对OpenAI聊天机器人ChatGPT的碳排放情况进行评估。提高透明度卢西奥尼等研究人员表示,在AI模型的电力使用和排放方面,需要提高透明度。有了这些信息,政府和公司可能会决定,使用GPT-3或其他大型模型来研究癌症治疗或保护土著语言是否值得。更高的透明度也可能带来更多的审查,加密货币行业可能会提供前车之鉴。根据剑桥比特币电力消耗指数,比特币因其耗电量过大而受到批评,每年的耗电量与阿根廷一样多。这种对电力的贪婪需求促使纽约州通过了一项为期两年的禁令,暂停向以化石燃料发电供电的加密货币采矿商发放许可证。GPT-3是功能单一的通用AI程序,可以生成语言,具有多种不同的用途。2021年发表的一篇研究论文显示,训练GPT-3耗用了1.287吉瓦时电量,大约相当于120个美国家庭1年的用电量。同时,这样的训练产生了502吨碳,相当于110辆美国汽车1年的排放量。而且,这种训练只适用于一个程序,或者说是“模型”。虽然训练AI模型的前期电力成本巨大,但研究人员发现,在某些情况下,这只是模型实际使用所消耗电力的40%左右。此外,AI模型也在变得越来越大。OpenAI的GPT-3使用了1750亿个参数或变量,而其前身仅使用了15亿个参数。OpenAI已经在研究GPT-4,而且必须定期对模型进行再训练,以保持其对时事的了解。卡内基梅隆大学教授艾玛·斯特鲁贝尔(EmmaStrubell)是首批研究AI能源问题的研究人员之一,她说:“如果你不对模型进行再训练,它甚至可能不知道何为新冠肺炎。”另一个相对的衡量标准来自谷歌,研究人员发现,AI训练占该公司总用电量的10%至15%,2021年该公司的总用电量为18.3太瓦时。这意味着,谷歌的AI每年耗电量达2.3太瓦时,大约相当于亚特兰大所有家庭的1年用电量。科技巨头做出净零承诺虽然在许多情况下,AI模型变得越来越大,但AI公司也在不断改进,使其以更高效的方式运行。微软、谷歌和亚马逊等美国最大的云计算公司,都做出了碳减排或净零承诺。谷歌在一份声明中表示,到2030年,该公司将在所有业务中实现净零排放,其目标是完全使用无碳能源运营其办公室和数据中心。谷歌还在使用AI来提高其数据中心的能效,该技术直接控制设施中的冷却系统。OpenAI也列举了该公司为提高ChatGPT应用程序编程接口的效率所做的工作,帮助客户降低了用电量和价格。OpenAI发言人表示:“我们非常认真地承担起阻止和扭转气候变化的责任,我们对如何最大限度地利用我们的计算能力进行了很多思考。OpenAI运行在Azure上,我们与微软团队密切合作,以提高运行大型语言模型的效率并减少碳排放。”微软指出,该公司正在购买可再生能源,并采取其他措施,以实现之前宣布的目标,即到2030年实现净零排放。微软在声明中称:“作为我们创造更可持续性未来承诺的一部分,微软正在投资于研究,以衡量AI的能源使用和碳排放影响,同时致力于提高大型系统在培训和应用方面的效率。”耶路撒冷希伯来大学教授罗伊·施瓦茨(RoySchwartz)与微软的一个团队合作,测量了一个大型AI模型的碳足迹。他表示:“显然,这些公司不愿透露他们使用的是什么模型,以及它排放了多少碳。”有些方法可以让AI更高效地运行。能源咨询公司WoodMackenzie的本·赫兹-沙格尔(BenHertz-Shargel)表示,由于AI训练可以随时进行,开发者或数据中心可以将训练安排在电力更便宜或过剩的时候,从而使它们的运营更加环保。AI公司在电力过剩时训练自己的模型,然后可以在营销中将其当成一大卖点,以此表明他们注重环保。芯片运行耗电量惊人大多数数据中心使用图形处理单元(GPU)来训练AI模型,这些组件是芯片行业制造的最耗电组件之一。摩根士丹利分析师本月早些时候发布的一份报告称,大型模型需要数万个GPU,培训周期从几周到几个月不等。AI领域更大的谜团之一是与所使用芯片相关的碳排放总量。最大的GPU制造商英伟达表示,当涉及到AI任务时,他们的芯片可以更快地完成任务,总体上效率更高。英伟达在声明中表示:“与使用CPU相比,使用GPU来加速AI速度更快,也更高效。对于某些AI工作负载来说,能效通常可以提高20倍,对于生成式人工智能必不可少的大型语言模型,能效则可提高300倍。”卢西奥尼说,虽然英伟达已经披露了与能源相关的直接排放和间接排放数据,但该公司并没有透露更多细节。她认为,当英伟达分享这些信息时,我们可能发现GPU消耗的电量与一个小国用电量差不多,“这可能会让人抓狂”!...PC版:https://www.cnbeta.com.tw/articles/soft/1348809.htm手机版:https://m.cnbeta.com.tw/view/1348809.htm

封面图片

ChatGPT一年电费高达2亿元 AI为何如此耗电?

ChatGPT一年电费高达2亿元AI为何如此耗电?公开数据显示,目前,ChatGPT每天需要处理超过2亿次请求,其电量消耗高达每天50万千瓦时。一年时间,ChatGPT光电费就要花2亿元人民币。这意味着,ChatGPT日耗电量是普通家庭的1.7万倍以上。(美国商业用电一度约为0.147美元也就是1.06元,相当于一天53万元)据荷兰咨询机构负责人AlexdeVries预计,到2027年,AI行业每年将消耗850亿~1340亿千瓦时的电力,相当于瑞典或荷兰一个欧洲国家一年的总用电量。马斯克判断,电力缺口最早可能会在2025年发生,“明年你会看到,我们没有足够电力来运行所有的芯片”。OpenAICEO奥尔特曼(SamAltman)也预计,AI行业正在走向能源危机,未来AI技术发展将高度依赖于能源,人们也需要更多的光伏和储能产品。这一切都显示出,AI即将引爆全球新一轮“能源战争”。不止是芯片,AI还被能源“卡脖子”过去500多天里,ChatGPT引发全球新一轮AI大模型和算力需求热潮。微软、Google、Meta、OpenAI等多家全球科技巨头开始疯抢AI芯片,甚至亲自下场“造芯”,总规模超过数十万亿元美金。实际上,AI本质上是一种计算机技术和处理信息的技术,背后则需要大量GPU芯片,更底层则是大量电能、水力、风能、资金等资源的支持。早在1961年,在IBM公司工作的物理学家拉尔夫·兰道尔(RolfLandauer)发表了一篇论文,提出了后来被称为“兰道尔原理”(Landauer'sPrinciple)的理论。这一理论认为,计算机中存储的信息发生不可逆的变化时,会向周围环境散发一点点热量,其散发的热量和计算机当时所处的温度有关——温度越高,散发的热量越多。兰道尔原理连接起了信息和能量。更具体地说,它连接到了热力学第二定律上。因为逻辑上不可逆的信息处理操作,也就意味着湮灭了信息,这会导致物理世界中熵的增加,从而消耗能量。这一原理自提出以来遭受过不少质疑。但近十几年来,“兰道尔原理”已被实验证明。2012年,《自然》杂志发表了一篇文章,研究团队首次测量到了一“位”(bit)数据被删除时释放的微量热量。后来的几次独立实验,也都证明了“兰道尔原理”。过去10多年间,现代电子计算机在计算时实际消耗的能量,是兰道尔理论值的数亿倍。而科学家们一直在努力寻找更高效的计算方法,以降低成本。如今,AI大模型爆发,它确实需要大量计算。因此,AI不止被芯片“卡脖子”,还被能源“卡脖子”。马斯克近期也在“博世互联世界2024”大会上表示,一年多以前,短缺的是芯片,明年你会看到电力短缺,无法满足所有芯片的需求。中国科学技术信息研究所人工智能中心副主任李修全也表示,近年来,AI大模型规模、数量都在高速增长,也带来对能源需求的快速增加。尽管短期内还不会很快出现“缺电”等问题,但未来大规模智能化时代来临后的能源需求激增不容忽视。AI大模型质量的关键在于数据、算力和顶尖人才,而高算力的背后,是靠着数万张芯片昼夜不停的运转支撑。具体来说,AI模型算力的工作过程大致可以分为训练、推理两个阶段,能源消耗也是如此。其中,在AI训练阶段,首先需要收集和预处理大量的文本数据,用作输入数据;其次,在适当的模型架构中初始化模型参数,处理输入的数据,尝试生成输出;最后,通过输出与预想之间的差异反复调整参数,直到模型的性能不再显著提高为止。从训练15亿参数的GPT-2,到训练1750亿参数的GPT-3,OpenAI模型背后的训练能耗十分惊人。公开信息称,OpenAI每训练一次需要128.7度电,相当于3000辆特斯拉同时跑32公里。据研究机构NewStreetResearch估计,仅在AI方面,Google就需要大约40万台服务器,每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。而在推理阶段,AI则会先加载已经训练好的模型参数,预处理需要推理的文本数据,再让模型根据学习到的语言规律生成输出。Google称,从2019年到2021年,AI相关能源消耗60%都来自推理。据AlexdeVries估算,ChatGPT每天大概要响应大约2亿个请求,耗电量超过50万度,按照一年电费就是2亿元人民币,比每个美国家庭的平均日用电量高1.7倍。SemiAnalysis报告称,使用大模型进行问题搜索所消耗的能源是常规关键词搜索的10倍。以Google为例,标准Google搜索使用0.3Wh电力,而大模型每次互动的耗电量为3Wh。如果用户每次在Google搜索都使用AI工具,每年大约需要29.2太瓦时的电力,也就是每天约7900万度。这相当于给全球最大的摩天大楼,迪拜的哈利法塔,连续供电超过300年。另据斯坦福人工智能研究所发布的《2023年AI指数报告》显示,每次AI搜索的耗电量大约为8.9瓦时。相比普通Google搜索,加入AI的单次耗电量几乎是一般搜索的30倍。而一个高达1760亿参数的模型,光是前期训练阶段就得用掉了43.3万度电,相当于美国117个家庭一年的用电量。值得注意的是,在ScalingLaw(缩放规律)之中,随着参数规模不断跃升,大模型性能也不断提升,而对应的是,能耗也会越来越高。因此,能源问题已经成为AI技术持续发展的关键“桎梏”。GPT每天消耗50000升水,电和水是AI两大能源需求AI不仅是“耗电狂魔”,更是“吞水巨兽”。其中,在电力方面,除了上述信息外,据国际能源署(IEA)数据显示,2022年,全球数据中心消耗约460太瓦时的电量(相当于全球总需求的2%),随着生成式AI飞速发展,这一数字到2026年可能膨胀至620至1050太瓦时。AlexdeVries预计,到2027年,AI服务器所消耗的用电量将等同于荷兰全国的能源需求量。最坏的情况就是,仅Google一家公司的AI就可以消耗与爱尔兰等国家一样多的电力。IBM高级副总裁达里奥·吉尔曾表示,“AI能耗”是非常重要的挑战。生成式AI的高性能服务器的持续运行,将导致数据中心一半以上的电力消耗都被AI占据。据悉,预计到2025年,AI业务在全球数据中心用电量中的占比将从2%猛增到10%。那么,水能呢?大模型背后需要数据中心、云基础设施的支持,那就需要大量的“液冷”进行散热。得克萨斯大学的一份研究指出,作为ChatGPT背后的重要支持力量,微软的MicrosoftAzure云数据中心光是训练GPT-3,15天就用掉将近70万升的水,相当于每天花销约50000L水。同时,ChatGPT每回答50个问题就要消耗500毫升水。公开信息称,2022年微软用水量达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。美国加州大学河滨分校副教授任绍磊团队预计,到2027年,全球AI可能需要4.2-66亿立方米的清洁淡水量,这比4-6个丹麦、或二分之一的英国的一年取水总量还要多。除了数据中心,内置的GPU芯片也是能源消耗的重点领域之一。今年3月,英伟达发布史上性能最强AI芯片——BlackwellGB200,宣称是A100/H100系列AIGPU的继任者,性能相比H100提升30倍,但能耗却降低了25倍。上个月,黄仁勋的一句“AI的尽头是光伏和储能”更是在网络疯传。尽管有网友扒出原视频称,黄仁勋本人并未说过这句话,更没有提及“光伏和能源”,但AI能耗严重,却是摆在公众面前的事实。国际能源机构(IEA)在一份报告中强调了这个问题,全球AI数据中心的耗电量将是2022年的十倍,并指出部分原因在于ChatGPT这样的大模型所需的电力,远高于Google等传统搜索引擎。不过,值得注意的是,由于科技巨头们并未正式披露过AI使用中的电力消耗数据,因此,目前关于AI耗电量的数据多为估算,并不一定是非常准确的数据。美国信息技术与创新基金会(ITIF)曾指出,个别不准确的研究高估了AI能耗。AI训练是一次...PC版:https://www.cnbeta.com.tw/articles/soft/1427249.htm手机版:https://m.cnbeta.com.tw/view/1427249.htm

封面图片

生成式AI的高环境成本:生成1000张图像碳排放相当于汽油车行驶4.1英里

生成式AI的高环境成本:生成1000张图像碳排放相当于汽油车行驶4.1英里人工智能初创公司HuggingFace和卡内基梅隆大学最近发表了一份研究报告,试图通过分析不同的活动和生成模型,了解人工智能系统对地球的影响。论文研究了人工智能模型在1000次查询中产生的平均碳排放量,发现与生成图像相比,生成文本是一种明显低耗的活动。一个聊天机器人回答多达1000次查询所消耗的能量约为智能手机充满电所需能量的16%,而通过一个"强大"的人工智能模型生成图像所消耗的能量相当于充满一次电。研究负责人亚历山德拉-萨莎-卢奇奥尼(AlexandraSashaLuccioni)说,人们认为人工智能是一个"抽象的技术实体",生活在"云端",对环境没有任何影响。新的分析表明,每当我们查询一个人工智能模型时,维持该模型的计算基础设施都会给地球带来巨大的成本。Luccioni的团队利用HuggingFace平台计算了与10项流行的人工智能任务相关的碳排放量,包括问题解答、文本生成、图像分类等。科学家们开发了一种名为"代码碳"(CodeCarbon)的工具来测量这些任务所使用的能源,它可以计算出运行人工智能模型的计算机所使用的电力。研究发现,使用像稳定扩散XL这样功能强大的模型生成1000张图像所产生的碳排放量,相当于驾驶一辆"普通"汽油车行驶4.1英里。碳密集度最低的文本生成模型产生的二氧化碳排放量相当于驾驶类似汽车行驶0.0006英里。研究进一步解释说,使用大型、复杂的生成模型要比使用针对特定任务训练的小型人工智能模型耗能得多。复杂的模型经过训练可以同时做很多事情,因此与经过微调、以任务为导向的简单模型相比,复杂模型消耗的能源最多可多出30倍。研究人员还计算出,来自人工智能服务的日常排放量远远高于与人工智能模型训练相关的排放量。流行的生成模型(如ChatGPT)每天使用数百万次,只需几周就能超过与其训练相关的二氧化碳排放量。麻省理工学院林肯实验室的研究科学家维贾伊-加德帕利(VijayGadepally)说,从人工智能模型中获利的公司必须对温室气体排放负责。...PC版:https://www.cnbeta.com.tw/articles/soft/1401933.htm手机版:https://m.cnbeta.com.tw/view/1401933.htm

封面图片

Google 宣布了挑战 ChatGPT 的 AI 服务 Bard

Google正式宣布了挑战OpenAI聊天机器人ChatGPT的AI服务。ChatGPT能以对话的方式回答用户输入的各种问题,它引入了信息检索的新模式,向Google统治了20多年的搜索引擎市场发起了挑战,搜索巨人为此加快推出自己的对话式AI服务Bard。Bard是基于它的 LanguageModelforDialogueApplications(缩写LaMDA),将首先挑选部分人员进行测试,然后未来几周逐渐推广给更广泛的用户。Bard和ChatGPT 的工作模式类似,根据训练的语料对用户输入的问题生成文本答案,它相对于ChatGPT的一个优势是能利用最新的数据,ChatGPT的数据截止于2021年。来源:投稿:@ZaiHuabot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人