央视财经:每向ChatGPT提问50个问题将消耗500毫升水

据央视财经报道,用户每向ChatGPT提问10到50个问题有可能消耗500毫升水,这些水资源被用于服务器的冷却。据研究人员称,如今AI所需算力预计每100天就会翻一番,到2027年,全球范围内AI可能会消耗66亿立方米水资源,相当于华盛顿州全年需水量。via匿名标签:#ChatGPT频道:@GodlyNews1投稿:@GodlyNewsBot

相关推荐

封面图片

用5次ChatGPT,最高可消耗500毫升水——用来“散热”#抽屉IT

封面图片

谷歌去年消耗212亿升水 人工智能导致用水量激增20%

谷歌去年消耗212亿升水人工智能导致用水量激增20%这些数字清楚地提醒人们,运行大型数据中心所付出的环境成本,这些数据中心通常需要大量的水用来冷却。随着谷歌和其他所有参与人工智能竞赛的科技公司加快建设新的数据中心,它们消耗的水量很可能会继续上升。加州大学河滨分校电气与计算机工程副教授ShaoleiRen说,用水量增加20%大致与谷歌计算能力的增长一致,而谷歌的计算能力主要是由人工智能推动的。然而,Ren说,他对这种增长能否长期持续持怀疑态度,即使谷歌承诺补充水来抵消其使用量。“这只是让他们的水会计看起来更好,但水仍然被消耗,”他表示。谷歌表示,其已将2030年作为补充其办公室和数据中心120%淡水消耗的最后期限。根据该公司自己的报告,目前的补充率只有6%。谷歌目前消耗的大部分水都是“可饮用的”,足够干净,可以用作饮用水。谷歌在最新报告中表示,其考虑了“当地水资源压力”,并表示,2022年其82%的淡水提取来自水资源压力较小的地区。对于剩下的18%,该公司表示正在“探索新的合作伙伴关系和机会”,以改善流域健康,但随着越来越多的地方面临水资源短缺,它可能会面临越来越大的阻力。2019年,谷歌计划在亚利桑那州梅萨建立一个数据中心,保证每天多达400万加仑的水。正如Insider网站的阿利斯泰尔·巴尔(AlistairBarr)最近指出的那样,亚利桑那州已经面临着水资源短缺的问题,这可能会阻碍其中一些交易。位于梅萨的谷歌设施可能最终会使用其他冷却方法。谷歌并不是唯一大量消耗水资源的公司。Meta也在亚利桑那州建设一个数据中心,该公司在2022年使用了超过260万立方米(约6.97亿加仑)的水,主要用于数据中心。其最新的大型语言模型“Llama2”需要大量的水来训练。...PC版:https://www.cnbeta.com.tw/articles/soft/1372861.htm手机版:https://m.cnbeta.com.tw/view/1372861.htm

封面图片

ChatGPT每处理用户5个提问就需要“喝掉”500ml的冷却水

ChatGPT每处理用户5个提问就需要“喝掉”500ml的冷却水爱荷华州得梅因(美联社)——构建像ChatGPT这样的人工智能产品的成本很难衡量。但微软支持的OpenAI的技术需要大量的水,这些水是从爱荷华州中部的浣熊河和得梅因河的分水岭抽取的,用于冷却一台强大的超级计算机,它被用来教会人工智能系统如何模仿人类书写内容。构建大型语言模型需要分析大量人类书写文本的模式。所有这些计算都会消耗大量电力并产生大量热量。为了在炎热的天气里保持凉爽,数据中心需要泵入水——通常是泵入仓库大小的建筑外的冷却塔。微软在其最新的环境报告中透露,从2021年到2022年,其全球用水量猛增了34%(达到近17亿加仑,相当于2,500多个奥林匹克规模的游泳池),外部研究人员认为,与前几年相比,这一数字急剧增加与它的人工智能研究有关。在即将于今年晚些时候发表的一篇论文中,任少磊的团队估计,每当你向ChatGPT提出5到50个提示或问题时,ChatGPT就会“喝掉”500毫升的水(编注:一瓶农夫山泉为550ml)。这个范围因服务器的位置和季节而异。估算的用水量还包括公司没有测量的间接用水量,例如冷却为数据中心供电的发电厂的用水量。——

封面图片

新研究ChatGPT对环境影响显著 每回答20~50问须500ml水冷却服务器

新研究ChatGPT对环境影响显著每回答20~50问须500ml水冷却服务器·专家们表示,看似表面上好像不太多,但是考虑到如今ChatGPT的火爆程度,背后悄悄消耗的水资源已经是相当惊人的天文数字般的损耗。·专家的研究并非空穴来风吹毛求疵,实际上微软在训练ChatGPT-3时,就被发现使用了多达70万升的水来冷却巨大的发热量,这是什么概念呢?根据专家的估算,这些水相当于装满一座原子炉的冷却塔的水量。·今后AI的发展势头是可以预想到的越来越烈难以遏制,或许对于地球环境的破坏力才是值得重视的重要弊端之一。...PC版:https://www.cnbeta.com.tw/articles/soft/1355707.htm手机版:https://m.cnbeta.com.tw/view/1355707.htm

封面图片

ChatGPT一年电费高达2亿元 AI为何如此耗电?

ChatGPT一年电费高达2亿元AI为何如此耗电?公开数据显示,目前,ChatGPT每天需要处理超过2亿次请求,其电量消耗高达每天50万千瓦时。一年时间,ChatGPT光电费就要花2亿元人民币。这意味着,ChatGPT日耗电量是普通家庭的1.7万倍以上。(美国商业用电一度约为0.147美元也就是1.06元,相当于一天53万元)据荷兰咨询机构负责人AlexdeVries预计,到2027年,AI行业每年将消耗850亿~1340亿千瓦时的电力,相当于瑞典或荷兰一个欧洲国家一年的总用电量。马斯克判断,电力缺口最早可能会在2025年发生,“明年你会看到,我们没有足够电力来运行所有的芯片”。OpenAICEO奥尔特曼(SamAltman)也预计,AI行业正在走向能源危机,未来AI技术发展将高度依赖于能源,人们也需要更多的光伏和储能产品。这一切都显示出,AI即将引爆全球新一轮“能源战争”。不止是芯片,AI还被能源“卡脖子”过去500多天里,ChatGPT引发全球新一轮AI大模型和算力需求热潮。微软、Google、Meta、OpenAI等多家全球科技巨头开始疯抢AI芯片,甚至亲自下场“造芯”,总规模超过数十万亿元美金。实际上,AI本质上是一种计算机技术和处理信息的技术,背后则需要大量GPU芯片,更底层则是大量电能、水力、风能、资金等资源的支持。早在1961年,在IBM公司工作的物理学家拉尔夫·兰道尔(RolfLandauer)发表了一篇论文,提出了后来被称为“兰道尔原理”(Landauer'sPrinciple)的理论。这一理论认为,计算机中存储的信息发生不可逆的变化时,会向周围环境散发一点点热量,其散发的热量和计算机当时所处的温度有关——温度越高,散发的热量越多。兰道尔原理连接起了信息和能量。更具体地说,它连接到了热力学第二定律上。因为逻辑上不可逆的信息处理操作,也就意味着湮灭了信息,这会导致物理世界中熵的增加,从而消耗能量。这一原理自提出以来遭受过不少质疑。但近十几年来,“兰道尔原理”已被实验证明。2012年,《自然》杂志发表了一篇文章,研究团队首次测量到了一“位”(bit)数据被删除时释放的微量热量。后来的几次独立实验,也都证明了“兰道尔原理”。过去10多年间,现代电子计算机在计算时实际消耗的能量,是兰道尔理论值的数亿倍。而科学家们一直在努力寻找更高效的计算方法,以降低成本。如今,AI大模型爆发,它确实需要大量计算。因此,AI不止被芯片“卡脖子”,还被能源“卡脖子”。马斯克近期也在“博世互联世界2024”大会上表示,一年多以前,短缺的是芯片,明年你会看到电力短缺,无法满足所有芯片的需求。中国科学技术信息研究所人工智能中心副主任李修全也表示,近年来,AI大模型规模、数量都在高速增长,也带来对能源需求的快速增加。尽管短期内还不会很快出现“缺电”等问题,但未来大规模智能化时代来临后的能源需求激增不容忽视。AI大模型质量的关键在于数据、算力和顶尖人才,而高算力的背后,是靠着数万张芯片昼夜不停的运转支撑。具体来说,AI模型算力的工作过程大致可以分为训练、推理两个阶段,能源消耗也是如此。其中,在AI训练阶段,首先需要收集和预处理大量的文本数据,用作输入数据;其次,在适当的模型架构中初始化模型参数,处理输入的数据,尝试生成输出;最后,通过输出与预想之间的差异反复调整参数,直到模型的性能不再显著提高为止。从训练15亿参数的GPT-2,到训练1750亿参数的GPT-3,OpenAI模型背后的训练能耗十分惊人。公开信息称,OpenAI每训练一次需要128.7度电,相当于3000辆特斯拉同时跑32公里。据研究机构NewStreetResearch估计,仅在AI方面,Google就需要大约40万台服务器,每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。而在推理阶段,AI则会先加载已经训练好的模型参数,预处理需要推理的文本数据,再让模型根据学习到的语言规律生成输出。Google称,从2019年到2021年,AI相关能源消耗60%都来自推理。据AlexdeVries估算,ChatGPT每天大概要响应大约2亿个请求,耗电量超过50万度,按照一年电费就是2亿元人民币,比每个美国家庭的平均日用电量高1.7倍。SemiAnalysis报告称,使用大模型进行问题搜索所消耗的能源是常规关键词搜索的10倍。以Google为例,标准Google搜索使用0.3Wh电力,而大模型每次互动的耗电量为3Wh。如果用户每次在Google搜索都使用AI工具,每年大约需要29.2太瓦时的电力,也就是每天约7900万度。这相当于给全球最大的摩天大楼,迪拜的哈利法塔,连续供电超过300年。另据斯坦福人工智能研究所发布的《2023年AI指数报告》显示,每次AI搜索的耗电量大约为8.9瓦时。相比普通Google搜索,加入AI的单次耗电量几乎是一般搜索的30倍。而一个高达1760亿参数的模型,光是前期训练阶段就得用掉了43.3万度电,相当于美国117个家庭一年的用电量。值得注意的是,在ScalingLaw(缩放规律)之中,随着参数规模不断跃升,大模型性能也不断提升,而对应的是,能耗也会越来越高。因此,能源问题已经成为AI技术持续发展的关键“桎梏”。GPT每天消耗50000升水,电和水是AI两大能源需求AI不仅是“耗电狂魔”,更是“吞水巨兽”。其中,在电力方面,除了上述信息外,据国际能源署(IEA)数据显示,2022年,全球数据中心消耗约460太瓦时的电量(相当于全球总需求的2%),随着生成式AI飞速发展,这一数字到2026年可能膨胀至620至1050太瓦时。AlexdeVries预计,到2027年,AI服务器所消耗的用电量将等同于荷兰全国的能源需求量。最坏的情况就是,仅Google一家公司的AI就可以消耗与爱尔兰等国家一样多的电力。IBM高级副总裁达里奥·吉尔曾表示,“AI能耗”是非常重要的挑战。生成式AI的高性能服务器的持续运行,将导致数据中心一半以上的电力消耗都被AI占据。据悉,预计到2025年,AI业务在全球数据中心用电量中的占比将从2%猛增到10%。那么,水能呢?大模型背后需要数据中心、云基础设施的支持,那就需要大量的“液冷”进行散热。得克萨斯大学的一份研究指出,作为ChatGPT背后的重要支持力量,微软的MicrosoftAzure云数据中心光是训练GPT-3,15天就用掉将近70万升的水,相当于每天花销约50000L水。同时,ChatGPT每回答50个问题就要消耗500毫升水。公开信息称,2022年微软用水量达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。美国加州大学河滨分校副教授任绍磊团队预计,到2027年,全球AI可能需要4.2-66亿立方米的清洁淡水量,这比4-6个丹麦、或二分之一的英国的一年取水总量还要多。除了数据中心,内置的GPU芯片也是能源消耗的重点领域之一。今年3月,英伟达发布史上性能最强AI芯片——BlackwellGB200,宣称是A100/H100系列AIGPU的继任者,性能相比H100提升30倍,但能耗却降低了25倍。上个月,黄仁勋的一句“AI的尽头是光伏和储能”更是在网络疯传。尽管有网友扒出原视频称,黄仁勋本人并未说过这句话,更没有提及“光伏和能源”,但AI能耗严重,却是摆在公众面前的事实。国际能源机构(IEA)在一份报告中强调了这个问题,全球AI数据中心的耗电量将是2022年的十倍,并指出部分原因在于ChatGPT这样的大模型所需的电力,远高于Google等传统搜索引擎。不过,值得注意的是,由于科技巨头们并未正式披露过AI使用中的电力消耗数据,因此,目前关于AI耗电量的数据多为估算,并不一定是非常准确的数据。美国信息技术与创新基金会(ITIF)曾指出,个别不准确的研究高估了AI能耗。AI训练是一次...PC版:https://www.cnbeta.com.tw/articles/soft/1427249.htm手机版:https://m.cnbeta.com.tw/view/1427249.htm

封面图片

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭 网友:挺值!

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭网友:挺值!除了OpenAI,Google也“不容小觑”:在Google搜索中应用生成式AI技术,Google每年的耗电量将高达290亿千瓦时,也就是每天约7900万度(?)。而在未来,AI这一“吃电巨兽”的食量还会更惊人。数据统计:到2027年,人工智能数据中心的用电量将和荷兰、瑞典等小国用电量相当。有网友看完表示:这是利好光伏和风电?所以AI最后拼的是谁发电多、谁发电成本低?AI要耗多少电?如上数据来自一篇论文《Thegrowingenergyfootprintofartificialintelligence》。作者是荷兰数字经济学家AlexdeVries,他通过英伟达、OpenAI、Google等公开数据进行估算。结果就得出了很多意想不到的结论。首先,现在大模型训练时期的耗电量和推理阶段相比,已经不值一提了。SemiAnalysis数据显示,OpenAI需要3617台英伟达HGXA100、共28936个GPU来支持ChatGPT推理。ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。而GPT-3整个训练阶段的耗电量预估为1287兆瓦时,是ChatGPT大约4天的消耗量。Google报告也表示,2019-2021年,与人工智能相关的能源消耗中有60%来自推理部分。因此论文提出未来研究AI用电量时,更应该从全周期角度考量。但这也与模型再训练频率、模型性能与功耗之间的平衡有关系。比如BLOOM在推理阶段的耗电量就显著降低。其次,搜索引擎如果用上AI,耗电量还会更高。Google方面曾在去年2月表示,AI响应请求的成本可能是普通搜索的10倍。数据显示,使用一次Google搜索消耗的电量是0.3瓦时。这和上面分析给出的数据相呼应。如果要将大模型能力植入到Google搜索中,预计需要512821个HGXA100,按照每台设备功耗为6.5千瓦来计算,每天将需要80吉瓦时的电力消耗,一年需要29.2太瓦时。目前Google每天需要处理高达90亿次搜索,换算一下,平均每个请求要消耗6.9-8.9瓦时,已经是普通搜索的20倍+。同样的现象在英伟达的财报数据中也可以看到。去年第二季度,英伟达收入创纪录,其中数据中心部门较上季度相比增长了141%,这表示AI方面的需求扩增。今年,英伟达AI服务器出货量可能达到150万台,总功耗可能达到9.75-15.3吉瓦。这一数量级的服务器,每年的用电量将达到85.4-134太瓦时。不过AI用电量会一路飙升吗?研究认为也不一定。哪怕像Google这样在全球拥有数十亿用户的厂商,也会慎重考虑AI与搜索引擎的融合。硬件、软件和电力成本压力下,厂商脚步或许没那么快。硬件生产本身还受到掣肘,AI热潮使得台积电CoWoS先进封装产能吃紧,但新建工厂真正可能开始批量生产要等到2027年,这或许也会影响英伟达的出货量。以及模型本身的算法和架构也会让AI功耗在一定程度上降低。最终研究认为,关于AI用电量的问题,过于悲观或乐观都不可取。短期内,在各种资源因素影响下,AI用电量增速会被抑制;但硬件和软件的能效提高,显然也无法抵消长期的电力需求增长。总之,作者认为在AI开发方面,还是不要铺张浪费的好。监管机构也需要考虑要求厂商披露相关数据,提高整个AI供应链的透明度,从而更好了解这一新兴技术的环境成本。实际上,此前关于AI消耗资源的话题已经多次引发讨论。有研究指出,到2027年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。加州大学河滨分校研究表明,问ChatGPT5-50个问题,就可消耗500毫升水。因为AI超算数据中心需要大量水来散热,微软也承认用水是训练模型的一大成本,从2021年到2022年,其全球用水量飙升了34%,相比研究AIGC前急剧增加。网友:也要看产出除了微博,#ChatGPT日耗电超50万度#的消息也在知乎冲上热榜第三。尽管这一数据看起来惊人,但不少网友都表示:我们还是需要比较一下投入产出。知乎网友@段小草就浅算了一下:一天50万度电,1.7万个美国家庭。但美国有1.2亿个家庭,也就是只需万分之一的家庭用电,就能支撑一个服务全球TOP1的AI产品、服务几亿用户,这还是在浪费能源破坏环境吗?言外之意,如下所说(来自知乎网友@桔了个仔):ChatGPT创造的价值其实远超它的能耗。和某些技术(咳咳,懂得都懂)的耗电量相比,它可能更不值一提了。所以,有人(知乎网友@玩吾伤智)直接就表示,这则消息应该这么理解:震惊,只需要1.7万普通家庭的电量即可满足ChatGPT的一日用电需求。(手动狗头)咳咳,有意思的是,上面的答主@段小草还提到了一篇论文,题为《TheCarbonEmissionsofWritingandlllustratingAreLowerforAlthanforHumans》,讲的是AI在画画和写作上的碳排放量一个比人类少310到2900倍,一个比人类少130到1500倍。这样看来,AI甚至算得上“节能减排的先锋”。(手动狗头)呐,我们还是早点洗洗睡、关注GPT-5什么时候发吧。奥特曼:我们需要可控核聚变话又说回来,尽管比起收益,ChatGPT一日1.7万个家庭的能耗还不值一提,但AI能耗确实也是一个值得关注的问题。而这点,奥特曼早就在“担忧”了。在今年1月的一场达沃斯会议中,他就表示:人工智能的未来取决于清洁能源的突破。△图源Digwatch具体而言,他认为:随着技术越来越成熟,AI将消耗越来越大量的电力,如果能源技术无法突破,就无法实现这一目标(即让AI技术释放全部潜力)。而现在,公众还不是很了解这个需求究竟有多大,奥特曼本人表示也远超他的预期。至于如何提升能源产量,他也直言:需要可控核聚变,或者更便宜的太阳能及存储等等。——说起可控核聚变,奥特曼其实早就押注了一家相关公司,名叫Helion。他在它身上投资了3.75亿美元,这是他以个人名义投资的最大一笔。除此之外,奥特曼的“爸爸”微软也押注了这家公司。据了解,Helion成立于2013年,目前约150+员工。他们预计将在2028年上线50兆瓦规模的可控核聚变发电项目,微软将率先采购。原报告:https://www.cell.com/joule/abstract/S2542-4351(23)00365-3参考链接:[1]https://weibo.com/1642634100/O4lb78n3U?refer_flag=1001030103_[2]https://www.businessinsider.com/chatgpt-uses-17-thousand-times-more-electricity-than-us-household-2024-3[3]https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai[4]https://www.theverge.com/2024/1/19/24044070/sam-altman-says-the-future-of-ai-depends-on-breakthroughs-in-clean-energy[5]https://www.zhihu.com/question/647926823...PC版:https://www.cnbeta.com.tw/articles/soft/1423220.htm手机版:https://m.cnbeta.com.tw/view/1423220.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人