AI 热推动了火电的复苏

AI 热推动了火电的复苏 AI 革命需要大量的电力,而最方便的电力来自于火电。驱动 AI 革命的数据中心正在推迟火电站的退役。科技巨头们曾自诩要引领我们走向清洁能源的未来,但在 AI 热下它们成为了最贪得无厌的耗电大户。根据国际能源署的数据,一次 ChatGPT 搜索所需的电力几乎相当于一次 Google 搜索的 10 倍。Meta 在爱荷华州的一个大型数据中心的年耗电量相当于 700 万台笔记本电脑每天运行 8 小时的用电量。科技公司则宣称,现在耗电是为了以来减少耗电,AI 能让电网变得更智能,能加速核能创新。科技巨头们表示,每次大型数据中心上线它们都会购买足够的风能、太阳能或地热能去抵消其排放。但批评者认为这些都是骗局游戏。跟踪 AI 影响的非营利组织 Data & Society 称,由于 AI 的繁荣,煤电厂重新焕发活力。高盛最近的一项分析预测到 2030 年,数据中心将占美国总电力消耗的 8%,其中六成将来自天然气,产生的新排放量相当于道路上增加 1570 万辆燃气汽车。 via Solidot

相关推荐

封面图片

7月15日,根据Digital Information World发布的最新报告,数据中心为训练AI模型产生的能耗将为常规云工作

7月15日,根据Digital Information World发布的最新报告,数据中心为训练AI模型产生的能耗将为常规云工作的三倍,预计到2030年,美国数据中心的电力需求将以每年约10%的速度增长。 数据显示,OpenAI训练GPT-3耗电为1.287吉瓦时,大约相当于120个美国家庭1年的用电量。而这仅仅是训练AI模型的前期电力,仅占模型实际使用时所消耗电力的40%。 2023年1月,OpenAI仅一个月已耗用可能等同17.5万个丹麦家庭的全年用电量。谷歌AI每年耗电量达2.3太瓦时,相当于亚特兰大所有家庭1年用电量。 据了解,AI服务器的功率较普通服务器高6-8倍,这对于电源的需求也将同步提升,通用型服务器原来只需要2颗800W服务器电源,而AI服务器的需求直接提升为4颗1800W高功率电源,服务器能耗成本从3100元直接飙升到12400元,大涨3倍。 数据中心客户为此支付的电费也更为高昂。市场研究公司Synergy Research Group的首席分析师John Dinsdale坦言,数据中心运营商正将运行AI应用程序产生的额外成本直接转嫁到客户身上。 一些数据中心的运营商们趁机提高商业租赁价格,以应对为运行日益能源密集型工作负载的计算机服务器组群(stack)供电和散热而产生的额外成本。 标签: #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

科技公司的AI数据中心需要电力 它们是否在推动化石燃料的“复兴”?

科技公司的AI数据中心需要电力 它们是否在推动化石燃料的“复兴”? 一些计算园区所需的能源相当于一个中等规模的城市,这让那些承诺引领未来清洁能源发展的科技公司变成了世界上最贪得无厌的电力消耗者。它们预计的能源需求如此巨大,以至于有人担心是否有足够的电力来满足它们的需求......根据国际能源机构的数据,使用 ChatGPT 进行搜索所消耗的电力几乎是Google搜索的 10 倍。根据 Meta 公司公开分享的数据,该公司在爱荷华州拥有的一个大型数据中心的年耗电量相当于 700 万台笔记本电脑每天运行 8 小时的耗电量......科技公司认为,现在推进人工智能可能比抑制电力消耗对环境更有益。他们说,人工智能已被用于使电网更智能、加快新核技术的创新以及追踪排放....。微软在一份声明中说:"如果我们齐心协力,就能释放人工智能改变游戏规则的能力,帮助创造我们迫切需要的净零、气候适应力强和自然积极的工作。"科技巨头们表示,每当一个大型数据中心上线时,他们都会购买足够的风能、太阳能或地热能,以抵消其排放量。但批评人士认为这些合同是在玩空壳游戏:这些公司与其他公司一样,在同一个电网上运行,但却将有限的绿色能源中的大部分据为己有。监管部门的文件显示,公用事业公司正通过扩建化石燃料工厂来弥补这些购买......由于这些购买,污染严重的化石燃料工厂成为稳定整个电网的必要条件,以确保每个人都有足够的电力。文章引用了非营利组织"数据与社会"(Data & Society)一位项目主管的话,该组织追踪人工智能的影响,并指责科技行业在其气候声明中使用了"模糊数学"。他们告诉《华盛顿邮报》:"由于人工智能的蓬勃发展,煤电厂正在重新焕发活力。这应该引起任何关心环境的人的警觉"。文章还总结了高盛最近的一项分析,该分析预测,到 2030 年,数据中心的用电量将占美国总用电量的 8%,其中 60% 的用电量将"来自天然气燃烧的大幅扩张"。西北能源公司(NorthWestern Energy)是一家为蒙大拿州、南达科他州和内布拉斯加州提供服务的公用事业公司,该公司总裁布莱恩-伯德(Brian Bird)最近在华盛顿特区举行的一次数据中心高管聚会上说:"我们都希望环境更加清洁,但你们不可能再等 10 年......。如今,除了让煤电厂继续运营,我唯一的选择就是天然气。因此,你们将看到这个国家大量建设天然气设施。"大科技公司的回应是"全力投入清洁能源实验项目,而这些项目在短期内成功的几率很小",文章总结道。"除了核聚变之外,他们还希望通过一些未来主义的计划来发电,比如连接到个人计算中心的小型核反应堆,以及通过向地壳中钻探 1 万英尺来挖掘地热能源的机器......"一些专家指出,科技公司的电力需求将加速能源转型,而不是削弱化石燃料。"哥伦比亚大学气候学院教授梅丽莎-洛特(Melissa Lott)说:"像这样做出积极气候承诺的公司,历来都会加速清洁电力的部署。" ... PC版: 手机版:

封面图片

科技巨头们开始抢电?聊聊AI用电荒和创业热

科技巨头们开始抢电?聊聊AI用电荒和创业热 前阵子模型微调平台OpenPipe创始人Kyle Corbitt爆料称,如果在美国一个州内使用超过十万个H100芯片,就会使电网瘫痪。目前,数据中心已经占到了美国总电量的2.5%,相当于一个纽约市的用电量。据预测,在未来的两到三年内,AI的用电量或将翻倍。这一增长不仅对美国的电网稳定性构成了考验,也将给全球的能源需求和能源转型增加负担。 #阅读材料

封面图片

AI 正在“吸干”全球电力?更可怕的事还在后面

AI 正在“吸干”全球电力?更可怕的事还在后面 AI 到底有多费电?科比特称,训练 GPT-6 的微软工程师们正忙着搭建 IB 网络(InfiniBand),把分布在不同地区的 GPU 连接起来。这项工作很困难,但他们别无选择,因为如果把超过 10 万块 H100 芯片部署在同一个地区,电网就会崩溃。为什么这些芯片集中起来会导致电网崩溃的后果呢?让我们来简单算一笔账。英伟达网站上公布的数据显示,每块 H100 芯片的峰值功率为 700W,10 万块 H100 峰值功耗最高可达 7000 万W。而 X 评论区有能源行业从业者指出,10 万块芯片的总能耗将相当于一座小型太阳能或风能发电厂的全部输出。除此之外,还要考虑这么多芯片的配套设施的能耗,包括服务器和冷却设备。这么多耗电设施,集中在一小片区域,给电网带来的压力可想而知。AI 耗电,冰山一角关于 AI 能耗问题,《纽约客》的报道一度引起广泛关注。报道估算,ChatGPT 每日耗电量或超过 50 万千瓦时。实际上,目前AI耗电量虽然看上去是个天文数字,但仍然远远不及加密货币和传统的数据中心。而微软工程师遇到的难题也表明,制约 AI 发展的不仅是技术本身的能耗,还有配套基础设施的能耗,以及电网的承载力。国际能源署(IEA)发布的一份报告显示,2022 年全球数据中心、人工智能和加密货币的耗电量达到 460 TWh,占全球能耗的近 2%。IEA 预测,在最糟糕的情况下,到 2026 年这些领域的用电量将达 1000 TWh,与整个日本的用电量相当。但是,报告同时显示,目前直接投入 AI 研发的能耗远低于数据中心和加密货币。英伟达在 AI 服务器市场中占据约 95%的份额,2023 年供应了约 10 万块芯片,每年耗电量约为 7.3 TWh。但是在 2022 年,加密货币的能耗为 110 TWh,与整个荷兰的用电量相当。图注:2022 年与 2026 年,传统数据中心、加密货币、AI 数据中心的能耗估计值(柱状图从下往上依次展示)。可见,目前 AI 耗电量远低于数据中心和加密货币。图片来源:IEA冷却能耗,不容忽视数据中心的能效通常用能效比(Power Usage Effectiveness)评估,即消耗的所有能源与 IT 负载消耗的能源的比值。能效比越接近于 1,表明数据中心浪费的能源越少。数据中心标准组织 Uptime Institute 发布的报告显示,2020 年全球大型数据中心的平均能效比约为 1.59。也就是说,数据中心的 IT 设备每消耗 1 度电,其配套设备就消耗 0.59 度电。数据中心的额外能耗中,绝大部分应用于冷却系统。一项调查研究显示,冷却系统消耗的能量可达数据中心总能耗的 40%。近些年,随着芯片更新换代,单台设备的功率增大,数据中心的功率密度(即单位面积耗电量)不断提升,对散热提出了更高的要求。但与此同时,通过改进数据中心设计,就能大幅减少能量的浪费。因为冷却系统、结构设计等各方面的差异,不同数据中心的能效比差异很大。Uptime Institute 报告显示,欧洲国家已经把能效比降到了 1.46,而在亚太地区仍有超过十分之一的数据中心能效比超过 2.19。世界各国正在采取措施,敦促数据中心实现节能减排的目标。其中,欧盟要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;中国政府也出台措施,要求数据中心从 2025 年起能效比不高于 1.3,并将可再生能源使用比例逐年上调,到 2032 年达到 100%。图注:2020 年,全球各地大型数据中心的能效比。从左到右依次为:非洲、亚太地区、欧洲、拉丁美洲、中东、俄罗斯及独联体国家、美国和加拿大。图片来源:Uptime Institute科技公司用电,节流难开源更难随着加密货币和 AI 的发展,各大科技公司的数据中心规模不断扩大。据国际能源署(IEA)统计,在 2022 年美国拥有 2700 座数据中心,消耗了全国用电量的 4%,并预测这一比例到 2026 年将达到 6%。随着美国东西海岸用地越发紧张,数据中心逐步向爱荷华州、俄亥俄州等中部地区转移,但这些二线地区原有的产业并不发达,电力供应可能无法满足需求。一些技术公司尝试摆脱电网的束缚,直接从小型核电站购买电能,但这种用电方式和新建核电站都要面临复杂的行政流程。微软尝试使用 AI 辅助完成申请,而谷歌使用 AI 进行运算任务调度,以提高电网运行效率,降低企业碳排放。至于可控核聚变何时投入应用,目前仍然是未知数。气候变暖,雪上加霜AI 的研发需要稳定而强大的电网支持,但随着极端天气频发,许多地区的电网正在变得更加脆弱。气候变暖会导致更加频繁的极端天气事件,不仅造成用电需求激增,加重电网负担,还会直接冲击电网设施。IEA 报告指出,受干旱、降雨不足和提早融雪的影响,2023 年全球水力发电占比下跌到三十年来的最低值,不足 40%。天然气往往被视为向可再生能源转型过程中的一座桥梁,但它在冬季极端天气下并不稳定。2021 年,寒潮袭击美国得克萨斯州,导致大面积断电,部分居民家中断电超过 70 小时。这次灾难的一个主要原因就是天然气管道冰冻,造成天然气发电厂停摆。北美电力可靠性委员会(North American Electric Reliability Council,简称 NERC)预测,在 2024-2028 年,美国、加拿大有超过 300 万人口面临越来越高的断电风险。为保障能源安全,同时实现节能减排,许多国家也将核电站视为一种过渡措施。在 2023 年 12 月举办的联合国应对气候变化委员会第 28 次峰会(COP 28)上,22 个国家签署联合声明,承诺到 2050 年将核能发电能力提升到 2020 年水平的 3 倍。与此同时,随着中国、印度等国大力推进核电建设,IEA 预测到 2025 年,全球核电发电量将达到历史新高。IEA 报告指出:“在变化的气候模式面前,提高能源多样化、提升电网跨区域调度能力和采取更加抗冲击的发电方式将变得越发重要。” 保障电网基础设施,不仅关系到 AI 技术的发展,更是关乎国计民生。 ... PC版: 手机版:

封面图片

ChatGPT一年电费高达2亿元 AI为何如此耗电?

ChatGPT一年电费高达2亿元 AI为何如此耗电? 公开数据显示,目前,ChatGPT每天需要处理超过2亿次请求,其电量消耗高达每天50万千瓦时。一年时间,ChatGPT光电费就要花2亿元人民币。这意味着,ChatGPT日耗电量是普通家庭的1.7万倍以上。(美国商业用电一度约为0.147美元也就是1.06元,相当于一天53万元)据荷兰咨询机构负责人Alex de Vries预计,到2027年,AI 行业每年将消耗850亿~1340亿千瓦时的电力,相当于瑞典或荷兰一个欧洲国家一年的总用电量。马斯克判断,电力缺口最早可能会在2025年发生,“明年你会看到,我们没有足够电力来运行所有的芯片”。OpenAI CEO奥尔特曼(Sam Altman)也预计,AI 行业正在走向能源危机,未来 AI 技术发展将高度依赖于能源,人们也需要更多的光伏和储能产品。这一切都显示出,AI 即将引爆全球新一轮“能源战争”。不止是芯片,AI 还被能源“卡脖子”过去500多天里,ChatGPT引发全球新一轮 AI 大模型和算力需求热潮。微软、Google、Meta、OpenAI等多家全球科技巨头开始疯抢 AI 芯片,甚至亲自下场“造芯”,总规模超过数十万亿元美金。实际上,AI 本质上是一种计算机技术和处理信息的技术,背后则需要大量GPU芯片,更底层则是大量电能、水力、风能、资金等资源的支持。早在1961年,在IBM公司工作的物理学家拉尔夫·兰道尔(Rolf Landauer)发表了一篇论文,提出了后来被称为“兰道尔原理”(Landauer's Principle)的理论。这一理论认为,计算机中存储的信息发生不可逆的变化时,会向周围环境散发一点点热量,其散发的热量和计算机当时所处的温度有关温度越高,散发的热量越多。兰道尔原理连接起了信息和能量。更具体地说,它连接到了热力学第二定律上。因为逻辑上不可逆的信息处理操作,也就意味着湮灭了信息,这会导致物理世界中熵的增加,从而消耗能量。这一原理自提出以来遭受过不少质疑。但近十几年来,“兰道尔原理”已被实验证明。2012年,《自然》杂志发表了一篇文章,研究团队首次测量到了一“位”(bit)数据被删除时释放的微量热量。后来的几次独立实验,也都证明了“兰道尔原理”。过去10多年间,现代电子计算机在计算时实际消耗的能量,是兰道尔理论值的数亿倍。而科学家们一直在努力寻找更高效的计算方法,以降低成本。如今,AI 大模型爆发,它确实需要大量计算。因此,AI 不止被芯片“卡脖子”,还被能源“卡脖子”。马斯克近期也在“博世互联世界2024”大会上表示,一年多以前,短缺的是芯片,明年你会看到电力短缺,无法满足所有芯片的需求。中国科学技术信息研究所人工智能中心副主任李修全也表示,近年来, AI 大模型规模、数量都在高速增长,也带来对能源需求的快速增加。尽管短期内还不会很快出现“缺电”等问题,但未来大规模智能化时代来临后的能源需求激增不容忽视。AI 大模型质量的关键在于数据、算力和顶尖人才,而高算力的背后,是靠着数万张芯片昼夜不停的运转支撑。具体来说,AI 模型算力的工作过程大致可以分为训练、推理两个阶段,能源消耗也是如此。其中,在AI训练阶段,首先需要收集和预处理大量的文本数据,用作输入数据;其次,在适当的模型架构中初始化模型参数,处理输入的数据,尝试生成输出;最后,通过输出与预想之间的差异反复调整参数,直到模型的性能不再显著提高为止。从训练15亿参数的GPT-2,到训练1750亿参数的GPT-3,OpenAI模型背后的训练能耗十分惊人。公开信息称,OpenAI 每训练一次需要128.7度电,相当于 3000 辆特斯拉同时跑 32 公里。据研究机构New Street Research估计,仅在AI方面,Google就需要大约40万台服务器,每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。而在推理阶段,AI 则会先加载已经训练好的模型参数,预处理需要推理的文本数据,再让模型根据学习到的语言规律生成输出。Google称,从2019年到 2021年,AI相关能源消耗60%都来自推理。据Alex de Vries估算,ChatGPT每天大概要响应大约2亿个请求,耗电量超过50万度,按照一年电费就是2亿元人民币,比每个美国家庭的平均日用电量高1.7倍。SemiAnalysis报告称,使用大模型进行问题搜索所消耗的能源是常规关键词搜索的10倍。以Google为例,标准Google搜索使用0.3Wh电力,而大模型每次互动的耗电量为3Wh。如果用户每次在Google搜索都使用AI工具,每年大约需要29.2太瓦时的电力,也就是每天约7900万度。这相当于给全球最大的摩天大楼,迪拜的哈利法塔,连续供电超过300年。另据斯坦福人工智能研究所发布的《2023年 AI 指数报告》显示,每次 AI 搜索的耗电量大约为8.9瓦时。相比普通Google搜索,加入 AI 的单次耗电量几乎是一般搜索的30倍。而一个高达1760亿参数的模型,光是前期训练阶段就得用掉了43.3 万度电,相当于美国117个家庭一年的用电量。值得注意的是,在Scaling Law(缩放规律)之中,随着参数规模不断跃升,大模型性能也不断提升,而对应的是,能耗也会越来越高。因此,能源问题已经成为 AI 技术持续发展的关键“桎梏”。GPT每天消耗50000升水,电和水是 AI 两大能源需求AI不仅是“耗电狂魔”,更是“吞水巨兽”。其中,在电力方面,除了上述信息外,据国际能源署(IEA)数据显示,2022年,全球数据中心消耗约460太瓦时的电量(相当于全球总需求的2%),随着生成式AI飞速发展,这一数字到2026年可能膨胀至620至1050太瓦时。Alex de Vries预计,到2027年,AI服务器所消耗的用电量将等同于荷兰全国的能源需求量。最坏的情况就是,仅Google一家公司的AI就可以消耗与爱尔兰等国家一样多的电力。IBM高级副总裁达里奥·吉尔曾表示,“AI能耗”是非常重要的挑战。生成式 AI 的高性能服务器的持续运行,将导致数据中心一半以上的电力消耗都被AI占据。据悉,预计到2025年,AI 业务在全球数据中心用电量中的占比将从2%猛增到10%。那么,水能呢?大模型背后需要数据中心、云基础设施的支持,那就需要大量的“液冷”进行散热。得克萨斯大学的一份研究指出,作为ChatGPT背后的重要支持力量,微软的Microsoft Azure云数据中心光是训练GPT-3,15天就用掉将近70万升的水,相当于每天花销约50000L水。同时,ChatGPT每回答50个问题就要消耗500毫升水。公开信息称,2022年微软用水量达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。美国加州大学河滨分校副教授任绍磊团队预计,到2027年,全球AI可能需要4.2-66亿立方米的清洁淡水量,这比4-6个丹麦、或二分之一的英国的一年取水总量还要多。除了数据中心,内置的GPU芯片也是能源消耗的重点领域之一。今年3月,英伟达发布史上性能最强AI芯片Blackwell GB200,宣称是A100/H100系列AI GPU的继任者,性能相比H100提升30倍,但能耗却降低了25倍。上个月,黄仁勋的一句“AI的尽头是光伏和储能”更是在网络疯传。尽管有网友扒出原视频称,黄仁勋本人并未说过这句话,更没有提及“光伏和能源”,但 AI 能耗严重,却是摆在公众面前的事实。国际能源机构(IEA)在一份报告中强调了这个问题,全球 AI 数据中心的耗电量将是 2022 年的十倍,并指出部分原因在于 ChatGPT 这样的大模型所需的电力,远高于Google等传统搜索引擎。不过,值得注意的是,由于科技巨头们并未正式披露过 AI 使用中的电力消耗数据,因此,目前关于 AI 耗电量的数据多为估算,并不一定是非常准确的数据。美国信息技术与创新基金会(ITIF)曾指出,个别不准确的研究高估了AI能耗。AI训练是一次... PC版: 手机版:

封面图片

【报告:比特币矿工将75%以上的收入用于电力成本】

【报告:比特币矿工将75%以上的收入用于电力成本】 6月1日消息,CryptoMonday发布的报告显示,比特币矿工将75%以上的收入用于飙升的电力成本。CryptoMonday表示:“BTC挖矿是一个非常耗电的过程,单笔BTC交易消耗大约2165千瓦时的电力。这相当于一个典型的美国家庭74天的使用电量,再加上普通家庭支付大约0.14美元/千瓦时,支出的规模就变得很明显了。”根据研究,一个印度家庭平均每天消耗5.7千瓦时的电力,也就是说,一个印度普通家庭需要380天,才能消耗相当于开采一枚比特币所需的电量。有人估计,BTC每年排放近1.14亿吨的二氧化碳,这一数字与捷克共和国相当。其他估计表明,比特币挖矿每年消耗127太瓦时的电力相当于挪威的年耗电量。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人