7月15日,根据Digital Information World发布的最新报告,数据中心为训练AI模型产生的能耗将为常规云工作

7月15日,根据Digital Information World发布的最新报告,数据中心为训练AI模型产生的能耗将为常规云工作的三倍,预计到2030年,美国数据中心的电力需求将以每年约10%的速度增长。 数据显示,OpenAI训练GPT-3耗电为1.287吉瓦时,大约相当于120个美国家庭1年的用电量。而这仅仅是训练AI模型的前期电力,仅占模型实际使用时所消耗电力的40%。 2023年1月,OpenAI仅一个月已耗用可能等同17.5万个丹麦家庭的全年用电量。谷歌AI每年耗电量达2.3太瓦时,相当于亚特兰大所有家庭1年用电量。 据了解,AI服务器的功率较普通服务器高6-8倍,这对于电源的需求也将同步提升,通用型服务器原来只需要2颗800W服务器电源,而AI服务器的需求直接提升为4颗1800W高功率电源,服务器能耗成本从3100元直接飙升到12400元,大涨3倍。 数据中心客户为此支付的电费也更为高昂。市场研究公司Synergy Research Group的首席分析师John Dinsdale坦言,数据中心运营商正将运行AI应用程序产生的额外成本直接转嫁到客户身上。 一些数据中心的运营商们趁机提高商业租赁价格,以应对为运行日益能源密集型工作负载的计算机服务器组群(stack)供电和散热而产生的额外成本。 标签: #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

英飞凌为高能耗的人工智能数据中心设计了12千瓦电源装置

英飞凌为高能耗的人工智能数据中心设计了12千瓦电源装置 德国半导体制造商英飞凌科技公司最近发布了新一代电源装置,有望为专注于云服务器和人工智能算法的数据中心提供前所未有的电力输送能力。英飞凌的新型服务器电源装置可提供高达 12 千瓦的功率,在单个模块中集成了三种不同的半导体材料。据英飞凌称,这些新型 PSU 是世界上首批能够提供高达 12 千瓦功率的设备。不过,首批型号的额定功率为 8 千瓦,将于 2025 年第一季度上市。根据该公司的PSU 路线图,12 kW 型号还没有确定的发布日期。英飞凌将硅(Si)、碳化硅(SiC)和氮化镓(GaN)集成到同一模块中,这将显著提高电源性能、效率和可靠性。12 kW PSU 的效率可达 97.5%,而 8 kW PSU 可支持输出功率为 300 kW 及以上的"AI 机架"。氮化镓是近年来帮助消费类充电器缩小体积的一种材料,而碳化硅则可以在更高的电压水平下提供更高的效率。碳化硅可用于电动汽车中的直流到直流逆变器,但也可用于为人工智能算法加速设计的 GPU 提供更多电能的 PSU。由于AI聊天机器人和人工智能服务的普及,数据中心的能源需求正在迅速增长。英飞凌表示,新的 PSU 凭借其更高的效率将帮助这些大型服务器群降低功耗,同时还能减少温室气体排放并降低运营成本。根据最近的预测,到 2030 年,数据中心的耗电量将占全球耗电量的 7%。现代高性能服务器 GPU 的单芯片功耗高达 1 千瓦,到本十年末可能达到 2 千瓦,甚至更高。大型科技和人工智能公司已经感受到了这种不断增长的电力需求所带来的影响,亚马逊被迫对资源进行配给操作,以避免都柏林数据中心的电网中断。 ... PC版: 手机版:

封面图片

到2027年近半AI数据中心可能面临电力短缺

到2027年近半AI数据中心可能面临电力短缺 预计未来几年,人工智能对电力的需求将激增,可能会导致数据中心的电力短缺。根据顾能公司的新报告,去年新服务器需要195太瓦时的电力。这相当于1800万户家庭一年的用电量。但到2027年,新服务器可能需要500太瓦时的电力,相当于4600万户家庭的用电量。而根据高盛的估计,这超出了现有数据中心的用电量,2022年现有数据中心的用电量已达349太瓦时。如果没有额外的无碳能源,AI 训练和使用带来的污染可能会急剧增加。萨姆·奥尔特曼对核聚变能源的巨额赌注 (超3.75亿美元) 开始变得更有意义了。 Techcrunch-电报频道- #娟姐新闻:@juanjienews

封面图片

人工智能和加密货币业务导致数据中心能耗快速增加

人工智能和加密货币业务导致数据中心能耗快速增加 这已经引发了加密货币和人工智能工具(如 ChatGPT)对环境影响的反弹,因为所有这些数据中心都要对与用电相关的温室气体排放负责。世界将需要更多的可再生能源来净化电网污染,同时满足数据中心激增的电力需求。国际能源署(IEA)今天发布的年度电力报告显示,2022 年,数据中心、加密货币和人工智能约占全球电力需求的 2%,耗电量达 460 太瓦时。据估计,仅加密货币挖矿一项就将占到近四分之一的用电量,2022 年将消耗掉110TWh的电力。到 2026 年,数据中心(包括用于加密货币和人工智能的数据中心)的耗电量可能会增加到 1050 太瓦时,这取决于技术发展的速度。这一增长相当于增加了一个国家的用电需求;在较为温和的情况下,相当于增加了瑞典的用电需求;在最多的情况下,相当于增加了德国的用电需求。目前,美国拥有最多的数据中心,占全球约 8000 个数据中心的 33%。美国也是比特币挖矿最多的国家。国际能源署预测,未来几年美国数据中心用电量将"快速增长"。爱尔兰是欧盟企业税率最低的国家之一,预计新数据中心将蓬勃发展。到 2022 年,爱尔兰 82 个数据中心的耗电量已占全国耗电量的 17%。另有 54 个数据中心正在建设或最近获准开始建设。到 2026 年,所有这些数据中心的用电量将占全国年用电量的近三分之一。国际能源署的报告称:"数据中心行业的快速扩张和电力需求的增加会给电力系统带来挑战。这种风险并非爱尔兰独有。在伦敦,数据中心的电力需求使得开发更多住房变得更加困难。德克萨斯州是美国的比特币采矿中心,它不得不应对新的加密货币矿场(又称加密货币数据农场)给其已经老化和不堪重负的电网带来的压力。"由于数据中心基本上是计算机的仓库,因此 40% 的电力需求来自计算。保持所有设备冷却的电力需求占另外的 40%,其余则来自其他 IT 设备。加入人工智能会增加数据中心的总体电力需求。国际能源署的报告称,在完全采用人工智能的情况下,Google搜索的用电量可能会增加十倍。同样,报告预测,到 2026 年,人工智能行业的耗电量可能是去年的十倍。到 2026 年,加密货币的电力需求预计将激增 40%。在限制加密货币的能源和环境足迹方面,已经有一些成功的案例。以太坊区块链在验证新交易区块时采用了更为节能的方法,从而将用电量减少了 99% 以上。即便如此,比特币网络仍拒绝效仿,并对加密货币挖矿产生的大部分碳排放负有责任。幸运的是,国际能源署还预测,全球可再生能源将加速增长,到 2025 年,其发电量将超过煤炭,占全球发电量的三分之一以上。但这并不能解决新数据中心带来的所有挑战。可以说,提高能源效率同样重要,比如采用高效冷却系统,因为电力需求的过快增长可能会超过可再生能源的增长。 ... PC版: 手机版:

封面图片

美国电力研究所:数据中心用电量将在2030年时翻倍

美国电力研究所:数据中心用电量将在2030年时翻倍 数据中心耗电量预计大增美国电力研究所是一家总部设在美国的研究机构,由能源企业和政府机构资助。该研究所的分析称,根据生成式人工智能等技术的普及速度和新数据中心的能源效率推算,到2030年,数据中心行业用电量的年增长率预计在3.7%至15%之间。这意味着,数据中心的用电量2030年时最多可能翻倍。众多能源公司今年的财报电话会议显示,数据中心的高强度计算业务和冷却系统都需要大量电力支撑,一个新的大型数据中心所需的电力相当于为75万户家庭供电所需的电量。该研究所表示,光是早期ChatGPT搜索所需的电力就大约是谷歌搜索的10倍。而且,随着企业越来越多地使用生成式人工智能技术制作电影和音乐,未来数据中心可能需要更多的电力。该研究所表示,“全球有53亿互联网用户,这些AI工具的广泛采用可能会导致电力需求的急剧变化。”该研究所建议提高数据中心的能源效率,增加电网投资。供电压力降越来越大数据中心用电量翻倍可能会给美国国家电网带来压力,并导致电费上涨和更高频次的停电。美国电力研究所表示,截至2023年底,美国数据中心约80%的用电负荷集中在15个州,主要是弗吉尼亚州和得克萨斯州。这样地域分布的不平衡,意味着这些州可能将面临更高的电力短缺风险。除了数据中心以外,在美国政府的政策推动下,美国本土制造业似乎正出现复苏趋势,美国交通行业也在向电气化转型,这些都给美国电力行业带来越来越高的潜在需求压力。 ... PC版: 手机版:

封面图片

中金公司:随着 AI 算力提升,先进 AI 服务器电源重要性持续升级

中金公司:随着 AI 算力提升,先进 AI 服务器电源重要性持续升级 中金公司研报表示,服务器电源是数据中心供电系统建设的核心,随着 AI 算力提升,先进 AI 服务器电源的重要性持续升级。先进 GPU 也对 AI 服务器电源功率和功率密度提出了更高要求,例如功率约为 10.2kw 的 H100 服务器机架需配置 19.8kw 电源,而功率约为 120kw 的 NVL72 机架需配置 198kw 电源。但服务器电源本身需在有限空间实现功率扩容,传统服务器电源功率密度大多不到 50w / 立方英寸,而 AI 服务器电源功率密度可达 100w / 立方英寸。这同步对服务器电源拓扑结构设计、元器件应用等提出了更高要求,未来先进 AI 电源需求有望持续升级。

封面图片

AI 热推动了火电的复苏

AI 热推动了火电的复苏 AI 革命需要大量的电力,而最方便的电力来自于火电。驱动 AI 革命的数据中心正在推迟火电站的退役。科技巨头们曾自诩要引领我们走向清洁能源的未来,但在 AI 热下它们成为了最贪得无厌的耗电大户。根据国际能源署的数据,一次 ChatGPT 搜索所需的电力几乎相当于一次 Google 搜索的 10 倍。Meta 在爱荷华州的一个大型数据中心的年耗电量相当于 700 万台笔记本电脑每天运行 8 小时的用电量。科技公司则宣称,现在耗电是为了以来减少耗电,AI 能让电网变得更智能,能加速核能创新。科技巨头们表示,每次大型数据中心上线它们都会购买足够的风能、太阳能或地热能去抵消其排放。但批评者认为这些都是骗局游戏。跟踪 AI 影响的非营利组织 Data & Society 称,由于 AI 的繁荣,煤电厂重新焕发活力。高盛最近的一项分析预测到 2030 年,数据中心将占美国总电力消耗的 8%,其中六成将来自天然气,产生的新排放量相当于道路上增加 1570 万辆燃气汽车。 via Solidot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人