华为周跃峰:2026 年全球数据中心耗电量将是去年的 2.3 倍

华为周跃峰:2026年全球数据中心耗电量将是去年的2.3倍5月7日,华为2024创新数据基础设施论坛期间,华为发布全新A系列高性能存储OceanStorA800,官方称可有效提升AI集群可用度30%,带宽达同类产品4倍,IOPS达同类8倍;支持EB级容量扩展,最大支持扩容至4096张算力卡,512个存储控制器;空间能耗密度高达1PB/U,能耗0.7Watt/TB。华为公司副总裁、数据存储产品线总裁周跃峰博士表示,AI大模型集群规模已迈入万卡、十万卡时代,集群规模增加带来更加频繁的故障和训练中断,重复的CheckPoint数据写入、断点续训导致算力资源闲置,集群可用度不足50%。到2026年,全球数据中心的耗电量预计将达到2022年的2.3倍,相当于日本一个国家全年的耗电量,其中数据中心一半以上的电力消耗都将被AI占据。具备极致性能、数据韧性、全新数据范式、高扩展性、绿色节能、数据编织能力的数据存储将是AI时代存储演进方向。

相关推荐

封面图片

华为周跃峰:AI 存储还应增加高扩展性、绿色节能与数据编织三个维度

华为周跃峰:AI存储还应增加高扩展性、绿色节能与数据编织三个维度5月7日,2024创新数据基础设施论坛在柏林举行。华为公司副总裁、数据存储产品线总裁周跃峰在主题演讲中表示,具备极致性能、数据韧性、全新数据范式、高扩展性、绿色节能、数据编织能力的数据存储是AI时代存储演进的必由之路。据了解,AI大模型集群规模已迈入万卡、十万卡时代,集群规模增加带来更加频繁的故障和训练中断,重复的CheckPoint数据写入、断点续训导致算力资源闲置,集群可用度不足50%。此外,到2026年,全球数据中心的耗电量预计将达到2022年的2.3倍,相当于日本一个国家全年的耗电量,其中数据中心一半以上的电力消耗都将被AI占据。“AI时代呼唤新一代数据存储。过去的数据存储主要关注性能、可靠、数据范式三个方面;面向未来,AI存储还应增加三个维度:高扩展性、绿色节能与数据编织。”周跃峰表示。(澎湃新闻)

封面图片

华为:AI 时代呼唤新一代存储

华为:AI时代呼唤新一代存储在7日举行的2024创新数据基础设施论坛上,华为公司副总裁、数据存储产品线总裁周跃峰表示,AI时代呼唤新一代数据存储。AI大模型集群规模已迈入万卡、十万卡时代,集群规模增加带来更加频繁的故障和训练中断,重复的CheckPoint数据写入、断点续训导致算力资源闲置,集群可用度不足50%。此外,到2026年,全球数据中心的耗电量预计将达到2022年的2.3倍,相当于日本一个国家全年的耗电量,其中数据中心一半以上的电力消耗都将被AI占据。因此,具备极致性能、数据韧性、全新数据范式、高扩展性、绿色节能、数据编织能力的数据存储是AI时代存储演进的必由之路。华为在论坛上推出全新A系列高性能存储OceanStorA800,专为AI而生,可有效提升AI集群可用度30%。(国是直通车)

封面图片

4年后ChatGPT等AI耗电量将激增 相当于一个国家年用电量

4年后ChatGPT等AI耗电量将激增相当于一个国家年用电量但是,这些便利并不是没有代价的,而且还是不小的代价。以谷歌为例,其人工智能训练的耗电量占该公司总用电量的10%至15%,也就是每年耗电量在23亿度左右,而这相当于美国一个州首府所有家庭一年的用电量。即使是在训练完成后,这些人工智能也仍然需要大量的计算能力来运行,并因此耗费大量能源,OpenAI每天在ChatGPT上的花费就高达70万美元。国外最新的一项研究表明,假设人们对AI技术的兴趣持续增长,再加上芯片供应充足。那么生成式人工智能(ChatGPT、BingChat等)将会产生巨大的能源消耗,甚至可能超过一些国家的电力需求。该研究指出,在未来几年中,与人工智能相关的能源消耗很可能会显著增加。到2027年,生成式人工智能所消耗的能源可以为荷兰大小的国家提供一年的电力,相当于约85-134太瓦时(TWh)。但是随着技术的不断进步,未来预计会有更加高效、环保的生成式人工智能解决方案,到那时耗电量问题应该会得以解决。相关文章:OpenAI拟进行重大更新以更低成本吸引开发者...PC版:https://www.cnbeta.com.tw/articles/soft/1389455.htm手机版:https://m.cnbeta.com.tw/view/1389455.htm

封面图片

全球数据中心市场的耗电量已经从十年前的100亿瓦增加到如今的1000亿瓦水平。根据美国机构UptimeInstitute的预测,

全球数据中心市场的耗电量已经从十年前的100亿瓦增加到如今的1000亿瓦水平。根据美国机构UptimeInstitute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%增加到10%。中国科学技术信息研究所人工智能中心副主任李修全称,近年来,人工智能大模型规模、数量都在高速增长,也带来对能源需求的快速增加。尽管短期内还不会很快出现“缺电”等问题,但未来大规模智能化时代来临后的能源需求激增不容忽视。(中新网)

封面图片

Google和微软的耗电量已经超过了100多个国家

根据)的分析,2023年,Google和微软各消耗24太瓦时的电力,超过了100多个国家的耗电量,其中包括冰岛、加纳和突尼斯。虽然大量使用能源意味着这些科技巨头会对环境造成巨大影响,但应该指出的是,Google和微软创造的财富也超过了许多国家。详细分析显示,Google和微软2023年的耗电量为24太瓦时,相当于阿塞拜疆(人口1014万)的耗电量,高于其他几个国家。例如,冰岛、加纳、多米尼加共和国和突尼斯的耗电量均为19太瓦时,而约旦的耗电量为20太瓦时。当然,也有一些国家的耗电量超过了Google和微软。例如,拥有540万居民的斯洛伐克的耗电量为26太瓦时。这一比较凸显了高科技公司对能源的巨大需求:Google和微软运营的数据中心对环境造成了相当大的影响。但是,如果我们将Google和微软的耗电量和发电量与上述一些国家进行比较呢?2023年,Google创造了3056亿美元的收入,而根据Google自己的数据,包括Google搜索、Google云和YouTube等工具在内的Google经济影响为经济贡献了约7390亿美元。微软公布的2023年收入为2119亿美元。要知道,世界上绝大多数人都在使用微软的Windows和Office,而且大量在线应用程序都运行在微软的Azure上,因此微软产品的经济影响可能以万亿美元计。与能源消耗大致相同的国家相比,2023年阿塞拜疆的GDP约为780亿美元,斯洛伐克的GDP约为1270亿美元,冰岛的GDP约为300亿美元。Google和微软的经济产出远远超过了这些国家的国内生产总值,这凸显了这些科技巨头庞大的资金规模与其大量的电力消耗。虽然Google和微软的大量用电量凸显了在科技行业内围绕可持续发展和采用可再生能源进行讨论的必要性,但这两家公司在行业内采用可再生能源方面处于领先地位。事实上,Google早已成为使用可再生能源的先驱。该公司自2007年起就实现了碳中和,并计划到2030年在其所有数据中心实现全天候无碳能源运营。2023年,Google宣布将继续投资可再生能源项目,扩大其投资组合,包括各种风能、太阳能和其他可再生能源。至于微软,它已承诺到2030年实现负碳排放,即从环境中清除的碳要多于排放的碳。同年,公司还将实现零废物产生和正用水量的目标。2023年,微软将其签约的可再生能源资产组合增加到19.8千兆瓦以上,涵盖21个国家的项目。公司还致力于减少直接运营排放,解决间接排放问题,尤其是与建设新数据中心和硬件组件相关的排放。标签:#微软#Google频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭 网友:挺值!

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭网友:挺值!除了OpenAI,Google也“不容小觑”:在Google搜索中应用生成式AI技术,Google每年的耗电量将高达290亿千瓦时,也就是每天约7900万度(?)。而在未来,AI这一“吃电巨兽”的食量还会更惊人。数据统计:到2027年,人工智能数据中心的用电量将和荷兰、瑞典等小国用电量相当。有网友看完表示:这是利好光伏和风电?所以AI最后拼的是谁发电多、谁发电成本低?AI要耗多少电?如上数据来自一篇论文《Thegrowingenergyfootprintofartificialintelligence》。作者是荷兰数字经济学家AlexdeVries,他通过英伟达、OpenAI、Google等公开数据进行估算。结果就得出了很多意想不到的结论。首先,现在大模型训练时期的耗电量和推理阶段相比,已经不值一提了。SemiAnalysis数据显示,OpenAI需要3617台英伟达HGXA100、共28936个GPU来支持ChatGPT推理。ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。而GPT-3整个训练阶段的耗电量预估为1287兆瓦时,是ChatGPT大约4天的消耗量。Google报告也表示,2019-2021年,与人工智能相关的能源消耗中有60%来自推理部分。因此论文提出未来研究AI用电量时,更应该从全周期角度考量。但这也与模型再训练频率、模型性能与功耗之间的平衡有关系。比如BLOOM在推理阶段的耗电量就显著降低。其次,搜索引擎如果用上AI,耗电量还会更高。Google方面曾在去年2月表示,AI响应请求的成本可能是普通搜索的10倍。数据显示,使用一次Google搜索消耗的电量是0.3瓦时。这和上面分析给出的数据相呼应。如果要将大模型能力植入到Google搜索中,预计需要512821个HGXA100,按照每台设备功耗为6.5千瓦来计算,每天将需要80吉瓦时的电力消耗,一年需要29.2太瓦时。目前Google每天需要处理高达90亿次搜索,换算一下,平均每个请求要消耗6.9-8.9瓦时,已经是普通搜索的20倍+。同样的现象在英伟达的财报数据中也可以看到。去年第二季度,英伟达收入创纪录,其中数据中心部门较上季度相比增长了141%,这表示AI方面的需求扩增。今年,英伟达AI服务器出货量可能达到150万台,总功耗可能达到9.75-15.3吉瓦。这一数量级的服务器,每年的用电量将达到85.4-134太瓦时。不过AI用电量会一路飙升吗?研究认为也不一定。哪怕像Google这样在全球拥有数十亿用户的厂商,也会慎重考虑AI与搜索引擎的融合。硬件、软件和电力成本压力下,厂商脚步或许没那么快。硬件生产本身还受到掣肘,AI热潮使得台积电CoWoS先进封装产能吃紧,但新建工厂真正可能开始批量生产要等到2027年,这或许也会影响英伟达的出货量。以及模型本身的算法和架构也会让AI功耗在一定程度上降低。最终研究认为,关于AI用电量的问题,过于悲观或乐观都不可取。短期内,在各种资源因素影响下,AI用电量增速会被抑制;但硬件和软件的能效提高,显然也无法抵消长期的电力需求增长。总之,作者认为在AI开发方面,还是不要铺张浪费的好。监管机构也需要考虑要求厂商披露相关数据,提高整个AI供应链的透明度,从而更好了解这一新兴技术的环境成本。实际上,此前关于AI消耗资源的话题已经多次引发讨论。有研究指出,到2027年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。加州大学河滨分校研究表明,问ChatGPT5-50个问题,就可消耗500毫升水。因为AI超算数据中心需要大量水来散热,微软也承认用水是训练模型的一大成本,从2021年到2022年,其全球用水量飙升了34%,相比研究AIGC前急剧增加。网友:也要看产出除了微博,#ChatGPT日耗电超50万度#的消息也在知乎冲上热榜第三。尽管这一数据看起来惊人,但不少网友都表示:我们还是需要比较一下投入产出。知乎网友@段小草就浅算了一下:一天50万度电,1.7万个美国家庭。但美国有1.2亿个家庭,也就是只需万分之一的家庭用电,就能支撑一个服务全球TOP1的AI产品、服务几亿用户,这还是在浪费能源破坏环境吗?言外之意,如下所说(来自知乎网友@桔了个仔):ChatGPT创造的价值其实远超它的能耗。和某些技术(咳咳,懂得都懂)的耗电量相比,它可能更不值一提了。所以,有人(知乎网友@玩吾伤智)直接就表示,这则消息应该这么理解:震惊,只需要1.7万普通家庭的电量即可满足ChatGPT的一日用电需求。(手动狗头)咳咳,有意思的是,上面的答主@段小草还提到了一篇论文,题为《TheCarbonEmissionsofWritingandlllustratingAreLowerforAlthanforHumans》,讲的是AI在画画和写作上的碳排放量一个比人类少310到2900倍,一个比人类少130到1500倍。这样看来,AI甚至算得上“节能减排的先锋”。(手动狗头)呐,我们还是早点洗洗睡、关注GPT-5什么时候发吧。奥特曼:我们需要可控核聚变话又说回来,尽管比起收益,ChatGPT一日1.7万个家庭的能耗还不值一提,但AI能耗确实也是一个值得关注的问题。而这点,奥特曼早就在“担忧”了。在今年1月的一场达沃斯会议中,他就表示:人工智能的未来取决于清洁能源的突破。△图源Digwatch具体而言,他认为:随着技术越来越成熟,AI将消耗越来越大量的电力,如果能源技术无法突破,就无法实现这一目标(即让AI技术释放全部潜力)。而现在,公众还不是很了解这个需求究竟有多大,奥特曼本人表示也远超他的预期。至于如何提升能源产量,他也直言:需要可控核聚变,或者更便宜的太阳能及存储等等。——说起可控核聚变,奥特曼其实早就押注了一家相关公司,名叫Helion。他在它身上投资了3.75亿美元,这是他以个人名义投资的最大一笔。除此之外,奥特曼的“爸爸”微软也押注了这家公司。据了解,Helion成立于2013年,目前约150+员工。他们预计将在2028年上线50兆瓦规模的可控核聚变发电项目,微软将率先采购。原报告:https://www.cell.com/joule/abstract/S2542-4351(23)00365-3参考链接:[1]https://weibo.com/1642634100/O4lb78n3U?refer_flag=1001030103_[2]https://www.businessinsider.com/chatgpt-uses-17-thousand-times-more-electricity-than-us-household-2024-3[3]https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai[4]https://www.theverge.com/2024/1/19/24044070/sam-altman-says-the-future-of-ai-depends-on-breakthroughs-in-clean-energy[5]https://www.zhihu.com/question/647926823...PC版:https://www.cnbeta.com.tw/articles/soft/1423220.htm手机版:https://m.cnbeta.com.tw/view/1423220.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人