ChatGPT一年电费高达2亿元 AI为何如此耗电?

ChatGPT一年电费高达2亿元 AI为何如此耗电? 公开数据显示,目前,ChatGPT每天需要处理超过2亿次请求,其电量消耗高达每天50万千瓦时。一年时间,ChatGPT光电费就要花2亿元人民币。这意味着,ChatGPT日耗电量是普通家庭的1.7万倍以上。(美国商业用电一度约为0.147美元也就是1.06元,相当于一天53万元)据荷兰咨询机构负责人Alex de Vries预计,到2027年,AI 行业每年将消耗850亿~1340亿千瓦时的电力,相当于瑞典或荷兰一个欧洲国家一年的总用电量。马斯克判断,电力缺口最早可能会在2025年发生,“明年你会看到,我们没有足够电力来运行所有的芯片”。OpenAI CEO奥尔特曼(Sam Altman)也预计,AI 行业正在走向能源危机,未来 AI 技术发展将高度依赖于能源,人们也需要更多的光伏和储能产品。这一切都显示出,AI 即将引爆全球新一轮“能源战争”。不止是芯片,AI 还被能源“卡脖子”过去500多天里,ChatGPT引发全球新一轮 AI 大模型和算力需求热潮。微软、Google、Meta、OpenAI等多家全球科技巨头开始疯抢 AI 芯片,甚至亲自下场“造芯”,总规模超过数十万亿元美金。实际上,AI 本质上是一种计算机技术和处理信息的技术,背后则需要大量GPU芯片,更底层则是大量电能、水力、风能、资金等资源的支持。早在1961年,在IBM公司工作的物理学家拉尔夫·兰道尔(Rolf Landauer)发表了一篇论文,提出了后来被称为“兰道尔原理”(Landauer's Principle)的理论。这一理论认为,计算机中存储的信息发生不可逆的变化时,会向周围环境散发一点点热量,其散发的热量和计算机当时所处的温度有关温度越高,散发的热量越多。兰道尔原理连接起了信息和能量。更具体地说,它连接到了热力学第二定律上。因为逻辑上不可逆的信息处理操作,也就意味着湮灭了信息,这会导致物理世界中熵的增加,从而消耗能量。这一原理自提出以来遭受过不少质疑。但近十几年来,“兰道尔原理”已被实验证明。2012年,《自然》杂志发表了一篇文章,研究团队首次测量到了一“位”(bit)数据被删除时释放的微量热量。后来的几次独立实验,也都证明了“兰道尔原理”。过去10多年间,现代电子计算机在计算时实际消耗的能量,是兰道尔理论值的数亿倍。而科学家们一直在努力寻找更高效的计算方法,以降低成本。如今,AI 大模型爆发,它确实需要大量计算。因此,AI 不止被芯片“卡脖子”,还被能源“卡脖子”。马斯克近期也在“博世互联世界2024”大会上表示,一年多以前,短缺的是芯片,明年你会看到电力短缺,无法满足所有芯片的需求。中国科学技术信息研究所人工智能中心副主任李修全也表示,近年来, AI 大模型规模、数量都在高速增长,也带来对能源需求的快速增加。尽管短期内还不会很快出现“缺电”等问题,但未来大规模智能化时代来临后的能源需求激增不容忽视。AI 大模型质量的关键在于数据、算力和顶尖人才,而高算力的背后,是靠着数万张芯片昼夜不停的运转支撑。具体来说,AI 模型算力的工作过程大致可以分为训练、推理两个阶段,能源消耗也是如此。其中,在AI训练阶段,首先需要收集和预处理大量的文本数据,用作输入数据;其次,在适当的模型架构中初始化模型参数,处理输入的数据,尝试生成输出;最后,通过输出与预想之间的差异反复调整参数,直到模型的性能不再显著提高为止。从训练15亿参数的GPT-2,到训练1750亿参数的GPT-3,OpenAI模型背后的训练能耗十分惊人。公开信息称,OpenAI 每训练一次需要128.7度电,相当于 3000 辆特斯拉同时跑 32 公里。据研究机构New Street Research估计,仅在AI方面,Google就需要大约40万台服务器,每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。而在推理阶段,AI 则会先加载已经训练好的模型参数,预处理需要推理的文本数据,再让模型根据学习到的语言规律生成输出。Google称,从2019年到 2021年,AI相关能源消耗60%都来自推理。据Alex de Vries估算,ChatGPT每天大概要响应大约2亿个请求,耗电量超过50万度,按照一年电费就是2亿元人民币,比每个美国家庭的平均日用电量高1.7倍。SemiAnalysis报告称,使用大模型进行问题搜索所消耗的能源是常规关键词搜索的10倍。以Google为例,标准Google搜索使用0.3Wh电力,而大模型每次互动的耗电量为3Wh。如果用户每次在Google搜索都使用AI工具,每年大约需要29.2太瓦时的电力,也就是每天约7900万度。这相当于给全球最大的摩天大楼,迪拜的哈利法塔,连续供电超过300年。另据斯坦福人工智能研究所发布的《2023年 AI 指数报告》显示,每次 AI 搜索的耗电量大约为8.9瓦时。相比普通Google搜索,加入 AI 的单次耗电量几乎是一般搜索的30倍。而一个高达1760亿参数的模型,光是前期训练阶段就得用掉了43.3 万度电,相当于美国117个家庭一年的用电量。值得注意的是,在Scaling Law(缩放规律)之中,随着参数规模不断跃升,大模型性能也不断提升,而对应的是,能耗也会越来越高。因此,能源问题已经成为 AI 技术持续发展的关键“桎梏”。GPT每天消耗50000升水,电和水是 AI 两大能源需求AI不仅是“耗电狂魔”,更是“吞水巨兽”。其中,在电力方面,除了上述信息外,据国际能源署(IEA)数据显示,2022年,全球数据中心消耗约460太瓦时的电量(相当于全球总需求的2%),随着生成式AI飞速发展,这一数字到2026年可能膨胀至620至1050太瓦时。Alex de Vries预计,到2027年,AI服务器所消耗的用电量将等同于荷兰全国的能源需求量。最坏的情况就是,仅Google一家公司的AI就可以消耗与爱尔兰等国家一样多的电力。IBM高级副总裁达里奥·吉尔曾表示,“AI能耗”是非常重要的挑战。生成式 AI 的高性能服务器的持续运行,将导致数据中心一半以上的电力消耗都被AI占据。据悉,预计到2025年,AI 业务在全球数据中心用电量中的占比将从2%猛增到10%。那么,水能呢?大模型背后需要数据中心、云基础设施的支持,那就需要大量的“液冷”进行散热。得克萨斯大学的一份研究指出,作为ChatGPT背后的重要支持力量,微软的Microsoft Azure云数据中心光是训练GPT-3,15天就用掉将近70万升的水,相当于每天花销约50000L水。同时,ChatGPT每回答50个问题就要消耗500毫升水。公开信息称,2022年微软用水量达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。美国加州大学河滨分校副教授任绍磊团队预计,到2027年,全球AI可能需要4.2-66亿立方米的清洁淡水量,这比4-6个丹麦、或二分之一的英国的一年取水总量还要多。除了数据中心,内置的GPU芯片也是能源消耗的重点领域之一。今年3月,英伟达发布史上性能最强AI芯片Blackwell GB200,宣称是A100/H100系列AI GPU的继任者,性能相比H100提升30倍,但能耗却降低了25倍。上个月,黄仁勋的一句“AI的尽头是光伏和储能”更是在网络疯传。尽管有网友扒出原视频称,黄仁勋本人并未说过这句话,更没有提及“光伏和能源”,但 AI 能耗严重,却是摆在公众面前的事实。国际能源机构(IEA)在一份报告中强调了这个问题,全球 AI 数据中心的耗电量将是 2022 年的十倍,并指出部分原因在于 ChatGPT 这样的大模型所需的电力,远高于Google等传统搜索引擎。不过,值得注意的是,由于科技巨头们并未正式披露过 AI 使用中的电力消耗数据,因此,目前关于 AI 耗电量的数据多为估算,并不一定是非常准确的数据。美国信息技术与创新基金会(ITIF)曾指出,个别不准确的研究高估了AI能耗。AI训练是一次... PC版: 手机版:

相关推荐

封面图片

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭 网友:挺值!

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭 网友:挺值! 除了OpenAI,Google也“不容小觑”:在Google搜索中应用生成式AI技术,Google每年的耗电量将高达290亿千瓦时,也就是每天约7900万度(?)。而在未来,AI这一“吃电巨兽”的食量还会更惊人。数据统计:到2027年,人工智能数据中心的用电量将和荷兰、瑞典等小国用电量相当。有网友看完表示:这是利好光伏和风电?所以AI最后拼的是谁发电多、谁发电成本低?AI要耗多少电?如上数据来自一篇论文《The growing energy footprint of artificial intelligence》。作者是荷兰数字经济学家Alex de Vries,他通过英伟达、OpenAI、Google等公开数据进行估算。结果就得出了很多意想不到的结论。首先,现在大模型训练时期的耗电量和推理阶段相比,已经不值一提了。SemiAnalysis数据显示,OpenAI需要3617台英伟达HGX A100、共28936个GPU来支持ChatGPT推理。ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。而GPT-3整个训练阶段的耗电量预估为1287兆瓦时,是ChatGPT大约4天的消耗量。Google报告也表示,2019-2021年,与人工智能相关的能源消耗中有60%来自推理部分。因此论文提出未来研究AI用电量时,更应该从全周期角度考量。但这也与模型再训练频率、模型性能与功耗之间的平衡有关系。比如BLOOM在推理阶段的耗电量就显著降低。其次,搜索引擎如果用上AI,耗电量还会更高。Google方面曾在去年2月表示,AI响应请求的成本可能是普通搜索的10倍。数据显示,使用一次Google搜索消耗的电量是0.3瓦时。这和上面分析给出的数据相呼应。如果要将大模型能力植入到Google搜索中,预计需要512821个HGX A100,按照每台设备功耗为6.5千瓦来计算,每天将需要80吉瓦时的电力消耗,一年需要29.2太瓦时。目前Google每天需要处理高达90亿次搜索,换算一下,平均每个请求要消耗6.9-8.9瓦时,已经是普通搜索的20倍+。同样的现象在英伟达的财报数据中也可以看到。去年第二季度,英伟达收入创纪录,其中数据中心部门较上季度相比增长了141%,这表示AI方面的需求扩增。今年,英伟达AI服务器出货量可能达到150万台,总功耗可能达到9.75-15.3吉瓦。这一数量级的服务器,每年的用电量将达到85.4-134太瓦时。不过AI用电量会一路飙升吗?研究认为也不一定。哪怕像Google这样在全球拥有数十亿用户的厂商,也会慎重考虑AI与搜索引擎的融合。硬件、软件和电力成本压力下,厂商脚步或许没那么快。硬件生产本身还受到掣肘,AI热潮使得台积电CoWoS先进封装产能吃紧,但新建工厂真正可能开始批量生产要等到2027年,这或许也会影响英伟达的出货量。以及模型本身的算法和架构也会让AI功耗在一定程度上降低。最终研究认为,关于AI用电量的问题,过于悲观或乐观都不可取。短期内,在各种资源因素影响下,AI用电量增速会被抑制;但硬件和软件的能效提高,显然也无法抵消长期的电力需求增长。总之,作者认为在AI开发方面,还是不要铺张浪费的好。监管机构也需要考虑要求厂商披露相关数据,提高整个AI供应链的透明度,从而更好了解这一新兴技术的环境成本。实际上,此前关于AI消耗资源的话题已经多次引发讨论。有研究指出,到2027年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。加州大学河滨分校研究表明,问ChatGPT5-50个问题,就可消耗500毫升水。因为AI超算数据中心需要大量水来散热,微软也承认用水是训练模型的一大成本,从2021年到2022年,其全球用水量飙升了34%,相比研究AIGC前急剧增加。网友:也要看产出除了微博,#ChatGPT日耗电超50万度#的消息也在知乎冲上热榜第三。尽管这一数据看起来惊人,但不少网友都表示:我们还是需要比较一下投入产出。知乎网友@段小草就浅算了一下:一天50万度电,1.7万个美国家庭。但美国有1.2亿个家庭,也就是只需万分之一的家庭用电,就能支撑一个服务全球TOP 1的AI产品、服务几亿用户,这还是在浪费能源破坏环境吗?言外之意,如下所说(来自知乎网友@桔了个仔):ChatGPT创造的价值其实远超它的能耗。和某些技术(咳咳,懂得都懂)的耗电量相比,它可能更不值一提了。所以,有人(知乎网友@玩吾伤智)直接就表示,这则消息应该这么理解:震惊, 只需要1.7万普通家庭的电量即可满足ChatGPT的一日用电需求。(手动狗头)咳咳,有意思的是,上面的答主@段小草还提到了一篇论文,题为《The Carbon Emissions of Writing and lllustrating Are Lower for Al than for Humans》,讲的是AI在画画和写作上的碳排放量一个比人类少310到2900倍,一个比人类少130到1500倍。这样看来,AI甚至算得上“节能减排的先锋”。(手动狗头)呐,我们还是早点洗洗睡、关注GPT-5什么时候发吧。奥特曼:我们需要可控核聚变话又说回来,尽管比起收益,ChatGPT一日1.7万个家庭的能耗还不值一提,但AI能耗确实也是一个值得关注的问题。而这点,奥特曼早就在“担忧”了。在今年1月的一场达沃斯会议中,他就表示:人工智能的未来取决于清洁能源的突破。△ 图源Digwatch具体而言,他认为:随着技术越来越成熟,AI将消耗越来越大量的电力,如果能源技术无法突破,就无法实现这一目标(即让AI技术释放全部潜力)。而现在,公众还不是很了解这个需求究竟有多大,奥特曼本人表示也远超他的预期。至于如何提升能源产量,他也直言:需要可控核聚变,或者更便宜的太阳能及存储等等。说起可控核聚变,奥特曼其实早就押注了一家相关公司,名叫Helion。他在它身上投资了3.75亿美元,这是他以个人名义投资的最大一笔。除此之外,奥特曼的“爸爸”微软也押注了这家公司。据了解,Helion成立于2013年,目前约150+员工。他们预计将在2028年上线50兆瓦规模的可控核聚变发电项目,微软将率先采购。原报告: ... PC版: 手机版:

封面图片

The New Yorker 报道,ChatGPT 每天需要处理超过 2 亿次请求,其电量消耗可能高达每天 50 万千瓦时。相比

The New Yorker 报道,ChatGPT 每天需要处理超过 2 亿次请求,其电量消耗可能高达每天 50 万千瓦时。相比之下,美国普通家庭每天的平均用电量仅为 29 千瓦时,这意味着 ChatGPT 的日耗电量是普通家庭的 1.7 万倍以上。 更令人担忧的是,随着生成式人工智能的普及,其电量消耗可能会进一步激增。荷兰中央银行数据科学家 Alex de Vries 在一份发表于可持续能源期刊《焦耳》上的论文中计算得出,如果谷歌将生成式人工智能技术应用于所有搜索,其每年将消耗约 290 亿千瓦时电量,这相当于肯尼亚、危地马拉和克罗地亚一年的总发电量。 然而,目前评估蓬勃发展的 AI 行业究竟消耗了多少电量还存在困难。据 The Verge 报道,大型科技公司一直引领着 AI 发展,但它们对于自身能源消耗讳莫如深,同时不同的人工智能模型运行方式也存在巨大差异。 不过,de Vries 在论文中还是根据英伟达公布的数字做出了粗略计算,据 CNBC 报道援引 New Street Research 的数据,英伟达在图形处理器市场份额中占据了约 95%。de Vries 在论文中估计,到 2027 年,整个 AI 行业将每年消耗 85 到 134 太瓦时(terawatt,相当于 1340 亿千瓦时)的电量。 “这相当于到 2027 年,人工智能的电量消耗可能占到全球电量的一半左右,”de Vries 告诉《The Verge》,“我认为这是一个相当可观的数字。” 相比之下,世界上一些耗电量最大的企业也相形见绌。根据 Businessinsider 基于消费者能源解决方案报告的计算,三星的年耗电量接近 23 太瓦时,谷歌等科技巨头的数据中心、网络和用户设备每年耗电略高于 12 太瓦时,微软的耗电量则略高于 10 太瓦时。 via 匿名 标签: #ChatGPT #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

AI为何如此费电?如果不能解决耗电问题,AI的发展是否也会遭遇瓶颈?

AI为何如此费电?如果不能解决耗电问题,AI的发展是否也会遭遇瓶颈? 牛顿顿顿的回答 因为大模型对于当前的人类来说,太大了 根据兰道尔原理:处理信息是需要消耗能量的,处理的越多,消耗的越多。 AI大模型,到底哪里“大”? 它智能的背后是需要处理的信息巨大,天量的大,GPT-3模型拥有超过1750亿个参数,GPT-4甚至可能达到1.8万亿以上的参数量。 而且,训练这样的大型模型还需要大量的数据,GPT-3使用了约45TB的文本数据进行训练,如果GPT-4那就可能在数百TB甚至PB级别。 算这些数据,需要海量的显卡。 显卡,游戏佬都知道那是出了名的电老虎。 根据斯坦福人工智能研究所发布一个报告,GPT-3一次训练的耗电量为1287兆瓦时,这相当于3000辆特斯拉电动汽车同时跑20万英里加起来耗电量。 这是什么概念? 你对大模型每一次提问背后,都至少有一块历经数千年的黑漆漆的煤炭亡灵在红彤彤的哭泣。 之前华泰证券有份研报预测,到2030年,中国与美国的数据中心总用电量将分别达到0.65万亿千瓦时至0.95万亿千瓦时、1.2万亿千瓦时至1.7万亿千瓦时。 至少是今天的3-5倍以上,那个时候,AI用电量将达到2022年全社会用电量的20%和30%。 也就是说:算力竞争,本质上就是电力竞争,是能源竞争。 AI电老虎确实是一个巨大的挑战,但同样是巨大的机遇。 尤其是对我们中国来说。 为什么我会坚定的看好中国的AI发展? 因为我们在能源方面真的是秦始皇吃花椒赢麻了。 能源领域有个段子:人类文明的核心科技是烧开水,用各种花样烧开水。 不管是火电核电,这些花式“烧开水”的玩法,还是水电光伏风电这些新玩法,我们国家的能源系统拿着望远镜在全世界都找不到对手。 无论是技术,市场,还是对未来的嗅觉和投入的决心。 前段时间能源行业里有个大新闻,2023年12月,山高控股全资附属公司出资2.99亿美元认购了世纪互联新发行的约6.5亿股普通股,布局新基建领域。 这算是我们能源领域企业敏锐捕捉机遇,谋篇布局的一个典型,非常值得讲一讲。 山高控股,普通人可能不太清楚它的咖位,但是作为一个山东人,必须科普一下:它的背后就是大名鼎鼎的基建巨头山东高速。 而且山高控股是主要聚焦在新能源、新科技这些战略新兴行业,它的使命是需要去完成老狂魔的新任务新基建。 山高控股的背后是山东省国资委, 而山高新能源就去是完成“新基建”战略布局的一家公司。 2022年5月,山高控股集团出资46.85亿港元完成认购山高新能源发行股份,它股份占比达到了43.45%,成为山高新能源的控股股东。 凭借山高控股这些年的资源投入和布局,山高新能源早已成长为能源领域一头巨兽。 我查了一下数据,2023年12月底,山高新能源新增获取新能源风光指标超1.5GW,光伏、风力发电装机规模近4.5GW。 到目前为止,它在境内外拥有56座集中式光伏电站、230余座分布式光伏电站、19座风力电站,绿电的规模是非常大的。 2023年4月山高新能源还与青海省海南州政府签署了一份“青海省海南州源网荷储一体化项目”合作协议,这个大基地项目未来三年将实施新能源发电项目达到5GW。 不只是绿电,它所持有或管理的电站年发电量已经超过了63亿度。 而且,山高新能源在能源行业的影响力也很大,曾经参与过《电力建设安全标准化评价导则》《电力行业安全生产双重预防机制》等多项电力行业标准的编写和制定。 而世纪互联(VNET Group, INC.)成立于1996年是全球具有重要影响力的网络空间基础设施服务提供商之一,也是中国领先的第三方中立数据中心服务商之一。 这家公司的主营业务是提供数据中心服务、中立的云运营及中立的混合IT服务。 最大的资源是拥有丰富的算力资源,对于能源的消纳侧有非常重大的意义,而且它是算力基础设施,对于即将到来的AI时代,它是如同水电煤一样存在的“新基建”。 山高控股这次投资世纪互联的战略目的在哪里? 今年的3月15日山高新能源就和世纪互联与乌兰察布市政府正式签署了一份大数据及新能源框架协议。 山高新能源将利用其在新能源领域的技术和经验,与世纪互联在数据和算力领域的优势结合,去探索新能源在下一个时代更广泛的应用。 乌兰察布市有巨大的绿电资源,三者合作去推动大数据产业有可能带动一个城市完成能源结构转型和产业升级。 介绍了这么多背景信息,我们不难分析出山高控股的战略判断。 为什么花这么大的资源去投资一家算力和数据公司? 背后的目的其实整合的是能源和算力,为即将到来的AI时代提供“新基建”。 这里面体现了非常强悍的捕捉国家政策导向和市场机遇能力。 山高控股整合这两家公司,对于能源领域来说是件大事,它开辟了一条新路径:“电算一体化”。 一方面,是我们有广袤的光能丰富的大西北,和水电丰富的大西南,这些“绿电”虽然干净但是并网很难,被东南沿海有效利用更难。 所以,中国有一个天然的优势,那就是除了“南水北调”之外,还可以“东数西算”。 大量丰沛的绿电用不掉怎么办? 运不过去,就把数据运到电站来算。 山不向我走来,我便向山走去 更妙的是,这是绿电,是清洁能源,直接从太阳到算力,没有中间商赚差价,甚至还能加速一把碳中和。 可以说是秦始皇吃着花椒照镜子多赢而且赢麻了。。。 未来,算力,可能会是如同电和空气一般的基础设施。 绿色能源供给是新基建,是供给侧,而算力,则是非常重要的新基建,消纳侧。 这就是为什么这头基建巨兽会转身布局。 “电力+算力”的确是一个非常有潜力的基建创新路径。 算力作为AI的驱动力 AI的发展离不开强大的算力支持。 但是未来,一切都会变化。 事情AI来做,问题AI解决,商品AI来生产。 这一切的一切都将由硅基大脑来思考和处理,也就是算力。 算力的价值是无限的,算力的需求是天量的。 算力不仅是AI模型训练的基础,也是实现复杂算法和处理大规模数据的关键。在AI时代,算力将成为推动科技创新和产业升级的核心动力。 更是维持未来世界运转的一颗颗硅基大脑。 因此,发展绿色算力,即利用清洁能源来支持算力的需求,变得尤为重要。这不仅有助于减少碳排放,促进环境的可持续发展,也是实现能源转型和技术创新的重要途径。 电算一体化代表了一种新型的基础设施建设模式,它将电力供应与算力需求紧密结合,形成了一种高效、环保、智能的能源利用方式。 从能源到算力,就是从太阳到财富,这毫无疑问是国家未来最有潜力的发展方向。 山高控股算是中国能源领域的一个特写,我们的能源领域不仅仅是当下技术领先,规模大,面对未来的布局也非常超前,而且投入的资源和决心也是非常大的,不容小觑。 英伟达的老黄说过,“Ai的尽头是光伏和储能”。 大时代机遇的血腥味来了。 人类蒸汽时代到来的时候,世界天翻地覆,人类的生产力指数级倍增,同时,那些生产蒸汽机和挖煤烧开水的人赚翻了。 那么,“AI蒸汽时代”肉眼可见的黎明乍现的时候,谁会成为新的那个“卖金铲铲”的人呢? 我们拭目以待了。 via 知乎热榜 (author: 牛顿顿顿)

封面图片

【剑桥大学能源中心:以太坊转向PoS之后电力消耗降低了99%以上】

【剑桥大学能源中心:以太坊转向PoS之后电力消耗降低了99%以上】 根据剑桥大学能源中心的数据,以太坊在 PoW 阶段消耗的总电力约为 58.26 TWh,约等于瑞士一整年的电力消耗(54.88 TWh)。而在以太坊转向 PoS 之后,电力消耗降低了 99% 以上,剑桥大学能源中心预估当前以太坊每年的耗电量为 6.56 GWh,不及埃菲尔铁塔一年的耗电量(6.70 GWh)。

封面图片

ChatGPT每天耗电超50万度 是美国普通家庭1.7万多倍

ChatGPT每天耗电超50万度 是美国普通家庭1.7万多倍 听起来很多,但如果生成式人工智能被进一步采用,耗电量可能会更多。例如,根据荷兰国家银行(Dutch National Bank)数据科学家亚历克斯·德弗里斯(Alex de Vries)在可持续能源期刊《焦耳》(Joule)上发表的一篇论文中的计算,如果谷歌将生成式A技术整合到每次搜索中,它每年将消耗约290亿千瓦时的电量。据《纽约客》报道,这比肯尼亚、危地马拉和克罗地亚等国一年的用电量还要多。“人工智能是非常耗能的,”德弗里斯说,“每个人工智能服务器的耗电量已经相当于十几个英国家庭的总和。所以这些数字很快就会增加。”然而,估计蓬勃发展的人工智能行业消耗多少电力是很难确定的。据the Verge报道,大型人工智能模型的运行方式存在相当大的差异,而推动人工智能繁荣的大型科技公司并没有完全公开他们的能源使用情况。然而,在他的论文中,德弗里斯提出了一个基于英伟达(Nvidia)公布的数据的粗略计算。这家芯片制造商占据了图形处理器市场约95%的份额。德弗里斯在论文中估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时相当于10亿千瓦时)。“到2027年,人工智能的用电量可能占全球用电量的0.5%,”德弗里斯说,“我认为这是一个相当重要的数字。” ... PC版: 手机版:

封面图片

AI 热推动了火电的复苏

AI 热推动了火电的复苏 AI 革命需要大量的电力,而最方便的电力来自于火电。驱动 AI 革命的数据中心正在推迟火电站的退役。科技巨头们曾自诩要引领我们走向清洁能源的未来,但在 AI 热下它们成为了最贪得无厌的耗电大户。根据国际能源署的数据,一次 ChatGPT 搜索所需的电力几乎相当于一次 Google 搜索的 10 倍。Meta 在爱荷华州的一个大型数据中心的年耗电量相当于 700 万台笔记本电脑每天运行 8 小时的用电量。科技公司则宣称,现在耗电是为了以来减少耗电,AI 能让电网变得更智能,能加速核能创新。科技巨头们表示,每次大型数据中心上线它们都会购买足够的风能、太阳能或地热能去抵消其排放。但批评者认为这些都是骗局游戏。跟踪 AI 影响的非营利组织 Data & Society 称,由于 AI 的繁荣,煤电厂重新焕发活力。高盛最近的一项分析预测到 2030 年,数据中心将占美国总电力消耗的 8%,其中六成将来自天然气,产生的新排放量相当于道路上增加 1570 万辆燃气汽车。 via Solidot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人