ChatGPT每处理用户5个提问就需要“喝掉”500ml的冷却水

ChatGPT每处理用户5个提问就需要“喝掉”500ml的冷却水 爱荷华州得梅因(美联社)构建像 ChatGPT 这样的人工智能产品的成本很难衡量。 但微软支持的 OpenAI 的技术需要大量的水,这些水是从爱荷华州中部的浣熊河和得梅因河的分水岭抽取的,用于冷却一台强大的超级计算机,它被用来教会人工智能系统如何模仿人类书写内容。 构建大型语言模型需要分析大量人类书写文本的模式。所有这些计算都会消耗大量电力并产生大量热量。为了在炎热的天气里保持凉爽,数据中心需要泵入水通常是泵入仓库大小的建筑外的冷却塔。 微软在其最新的环境报告中透露,从 2021 年到 2022 年,其全球用水量猛增了 34%(达到近 17 亿加仑,相当于 2,500 多个奥林匹克规模的游泳池),外部研究人员认为,与前几年相比,这一数字急剧增加与它的人工智能研究有关。 在即将于今年晚些时候发表的一篇论文中,任少磊的团队估计,每当你向 ChatGPT 提出 5 到 50 个提示或问题时,ChatGPT 就会“喝掉” 500 毫升的水(编注:一瓶农夫山泉为550ml)。这个范围因服务器的位置和季节而异。估算的用水量还包括公司没有测量的间接用水量,例如冷却为数据中心供电的发电厂的用水量。

相关推荐

封面图片

据央视财经报道,用户每向ChatGPT提问10到50个问题有可能消耗500毫升水,这些水资源被用于服务器的冷却。

据央视财经报道,用户每向ChatGPT提问10到50个问题有可能消耗500毫升水,这些水资源被用于服务器的冷却。 据研究人员称,如今AI所需算力预计每100天就会翻一番,到2027年,全球范围内AI可能会消耗66亿立方米水资源,相当于华盛顿州全年需水量。 via 匿名 标签: #ChatGPT 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

缺电后是缺水?摩根大通:到2030年,数据中心每天将消耗4.5亿加仑的水

缺电后是缺水?摩根大通:到2030年,数据中心每天将消耗4.5亿加仑的水 AI狂潮仍在继续,由于不少华尔街大行预计本世纪末美国的生成式人工智能数据中心数量将爆发,各投资机构纷纷投资于“增强美国力量”(Powering up America)的主题,包括电网公司、铜、金、银和铀等大宗商品,以及人工智能芯片制造商。然而,水消耗的问题却相对而言被忽视了。摩根大通的亚太股票研究部门最近公布题为《深入探讨电力、冷却、电网和ESG影响》(Deep Dive into Power, Cooling, Electric Grid and ESG implications)的研报,详细阐述了基础设施对人工智能发展的影响。文中专门介绍了人工智能数据中心对电力的消耗。同时,高盛此前也发现,在“下一代AI交易”飙升之际,弗吉尼亚州的商业电力需求大幅怎个假。此外,即使是黑石集团首席执行官史蒂夫·施瓦茨曼(Steve Schwarzman)和贝莱德董事长兼首席执行官拉里·芬克(Larry Fink)也纷纷加入电网和AI投资主题,因为未来几年内有很多上行空间除非AI需求崩溃。值得注意的是,摩根大通的研报在报告结尾部分强调:“尽管数据中心因大量的电力消耗而容易重点关注,但相对而言,数据中心的高耗水基本被忽视了,而这也是数据中心运营的基本特质。”摩根大通引用Bluefield Research的数据在研报中指出,全球数据中心的总用水量(包括现场冷却和非现场发电)从2017年到2022年每年增长6%。研报说,到2030年,用水量可能会跃升至每天4.5亿加仑。这就相当于,每天大约需要681个奥运会标准的游泳池的淡水,来冷却全球数据中心。研报介绍,数据中心的用水方式与碳排放类似,数据中心的用水也可以分为范围1、范围2和范围3。在这种情况下,范围1指的是用于现场服务器冷却的水,范围2指的是用于发电的场外用水。范围3被认为是服务器制造供应链用水。具体而言,范围2的用水是数据中心与发电相关的间接用水。传统的热电厂(如燃煤电厂、天然气电厂等)加热水以产生蒸汽,蒸汽用于旋转涡轮机发电。水也用于冷却塔中的散热。值得注意的是,当使用热电时,数据中心的范围2用水足迹可能远大于范围1。研报指出:“考虑到范围1和范围2操作所需要的取水量,到2027年,要满足全球AI需求,数据中心相关的取水量可能达到42亿至66亿立方米,超过半个英国的年度总取水量。”研报进一步指出,在水资源稀缺的地区,数据中心的巨大用水需求可能引发竞争加剧,可能会影响水资源的可用性,甚至导致数据中心关闭。“为了消除服务器产生的热量,每天有数百万加仑的水在冷却系统中蒸发,这是数据中心的大部分用水。” ... PC版: 手机版:

封面图片

全球芯片业用水量超香港 标普警告:水资源短缺或扰乱供应链 推高芯片价格

全球芯片业用水量超香港 标普警告:水资源短缺或扰乱供应链 推高芯片价格 芯片制造行业是一个需要大量水资源的行业,因为工厂每天消耗大量的水来冷却机器,并确保晶圆片没有灰尘或碎片。标普全球信用分析师Hins Li表示:“水的使用和芯片的复杂程度之间有直接的联系,因为晶圆厂在每道工序之间使用超纯水(经过极高纯度处理的淡水)来冲洗晶圆。半导体越先进,工艺步骤越多,消耗的水就越多。”标普的数据显示,台积电在2015年升级到16纳米工艺节点后,单位用水量增长了35%以上。标普表示:“我们认为,这主要是由于向高级节点的迁移,这需要更多的制造工艺。鉴于台积电在先进芯片制造领域的主导地位,与水有关的潜在运营中断可能会扰乱全球科技供应链。”不过,标普指出,台积电的主导地位使这家芯片巨头能够“锁定终端需求,并通过价格上涨弥补销量下降。”该机构表示:“如果该公司能够保持其技术领先地位,那么任何产量波动对台积电业务状况和盈利能力的影响可能都是可控的。”这家台湾芯片巨头生产了全球约90%用于人工智能和量子计算应用的先进芯片。在供水有限的情况下,台积电还可以专注于生产更先进的芯片,而不是通常利润率较低的成熟芯片,标普称这可能提振利润。该报告指出,在产能扩张和先进工艺技术需求的推动下,半导体行业的用水量正以每年中位数到高个位数的速度增长。全球芯片制造商的用水量已经与拥有750万人口的香港相当。标普表示:“水安全将成为半导体公司信用状况日益重要的因素。对水资源的不当处理可能会扰乱企业的运营,损害财务业绩,并可能影响客户关系。”“与此同时,气候变化正在增加极端天气的频率、干旱的频率和降水的波动性,限制了芯片制造商管理生产稳定性的能力。” ... PC版: 手机版:

封面图片

xAI将建造一台非常强大的超级计算机来处理下一版Grok

xAI将建造一台非常强大的超级计算机来处理下一版Grok 这位亿万富翁今年早些时候表示,Grok 2 需要 2 万个英伟达 H100 GPU 才能完成训练,而即将推出的 Grok 模型将需要超过 10 万个 H100 GPU。通过建造这台被称为"计算机千兆工厂"的超级计算机(以特斯拉千兆工厂命名),xAI或许能够开发出更先进的语言模型。随着OpenAI 的 ChatGPT在人工智能领域占据主导地位,你很可能还没有尝试过或听说过 Grok。它可以在上使用,但需要用户付费订阅。与其他模式相比,Grok 的一大优势是它可以直接访问 X 上的所有帖子,马斯克一直说 X 是新闻媒体的替代品。马斯克曾经参与过 OpenAI 的工作,直到他与公司负责人山姆-阿尔特曼(Sam Altman)在公司发展方向上产生分歧。与 OpenAI 对 ChatGPT 的细节守口如瓶不同,xAI 最近开源了 Grok-1 的权重和架构。如果 xAI 真的实施这些计划,那么NVIDIA 将成为主要受益者,因为它对 H100 GPU 的需求将会增加。此举对整个领域也有好处,因为它将迫使其他公司(如 OpenAI 和Google)进一步创新其模式,以保持领先地位。不幸的是,所有这些额外的计算能力都需要以大量的某种能源供电,因此,希望马斯克能找到一种使用可再生能源的方法,并将用水量控制在最低水平。 ... PC版: 手机版:

封面图片

黄恩诺:有需要及时调整水费 以温和及循序渐进方式处理

黄恩诺:有需要及时调整水费 以温和及循序渐进方式处理 本港水费至今已30年未有调整,目前水务经营账目成本收回率只有79%,创下历史新低,水务署署长黄恩诺表示,有需要及时调整水费,但强调将人性化、以温和及循序渐进方式处理。黄恩诺接受《星岛日报》专访时指出,调整水费时,需要以用者自负原则及收回成本作为调整基础,并考虑社会经济状况、水务经营帐目状况,以及巿民的负担能力。他说,现时本港水费占住户开支约0.1%至0.2%,远低于其他先进城巿的1%至2%,考虑到巿民及商户支持度,调整时会尽量遵循现有结构,不会追求一次过「加到好似其他城巿水平」。他透露署方今年4月已成立外展队,由他本人、一名助理处长及一名高级库务会计师组成,主动接触多个高用水量的行业,包括餐饮业、洗衣业代表,业界出乎意料地理解当局需调整水费,对方亦希望水费加幅「接地气」以及「唔好咁辣」。外展队稍后将陆续与食品加工业、美容业、酒店业及建造业团体等见面,任何调整方案亦会征询立法会意见,形容「无可能突然要加就加」。 谈及本港食水水质,黄恩诺强调食水除加入氯气消毒,每年也会进行约60万次水样本化验,安全监察相当严密。专访期间,黄恩诺亲身示范直接开水喉饮水喉水,认为香港食水水质属世界前列,只要确保有妥善的楼宇内部供水系统,绝对可以直接饮用。 2024-06-03 09:11:56

封面图片

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭 网友:挺值!

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭 网友:挺值! 除了OpenAI,Google也“不容小觑”:在Google搜索中应用生成式AI技术,Google每年的耗电量将高达290亿千瓦时,也就是每天约7900万度(?)。而在未来,AI这一“吃电巨兽”的食量还会更惊人。数据统计:到2027年,人工智能数据中心的用电量将和荷兰、瑞典等小国用电量相当。有网友看完表示:这是利好光伏和风电?所以AI最后拼的是谁发电多、谁发电成本低?AI要耗多少电?如上数据来自一篇论文《The growing energy footprint of artificial intelligence》。作者是荷兰数字经济学家Alex de Vries,他通过英伟达、OpenAI、Google等公开数据进行估算。结果就得出了很多意想不到的结论。首先,现在大模型训练时期的耗电量和推理阶段相比,已经不值一提了。SemiAnalysis数据显示,OpenAI需要3617台英伟达HGX A100、共28936个GPU来支持ChatGPT推理。ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。而GPT-3整个训练阶段的耗电量预估为1287兆瓦时,是ChatGPT大约4天的消耗量。Google报告也表示,2019-2021年,与人工智能相关的能源消耗中有60%来自推理部分。因此论文提出未来研究AI用电量时,更应该从全周期角度考量。但这也与模型再训练频率、模型性能与功耗之间的平衡有关系。比如BLOOM在推理阶段的耗电量就显著降低。其次,搜索引擎如果用上AI,耗电量还会更高。Google方面曾在去年2月表示,AI响应请求的成本可能是普通搜索的10倍。数据显示,使用一次Google搜索消耗的电量是0.3瓦时。这和上面分析给出的数据相呼应。如果要将大模型能力植入到Google搜索中,预计需要512821个HGX A100,按照每台设备功耗为6.5千瓦来计算,每天将需要80吉瓦时的电力消耗,一年需要29.2太瓦时。目前Google每天需要处理高达90亿次搜索,换算一下,平均每个请求要消耗6.9-8.9瓦时,已经是普通搜索的20倍+。同样的现象在英伟达的财报数据中也可以看到。去年第二季度,英伟达收入创纪录,其中数据中心部门较上季度相比增长了141%,这表示AI方面的需求扩增。今年,英伟达AI服务器出货量可能达到150万台,总功耗可能达到9.75-15.3吉瓦。这一数量级的服务器,每年的用电量将达到85.4-134太瓦时。不过AI用电量会一路飙升吗?研究认为也不一定。哪怕像Google这样在全球拥有数十亿用户的厂商,也会慎重考虑AI与搜索引擎的融合。硬件、软件和电力成本压力下,厂商脚步或许没那么快。硬件生产本身还受到掣肘,AI热潮使得台积电CoWoS先进封装产能吃紧,但新建工厂真正可能开始批量生产要等到2027年,这或许也会影响英伟达的出货量。以及模型本身的算法和架构也会让AI功耗在一定程度上降低。最终研究认为,关于AI用电量的问题,过于悲观或乐观都不可取。短期内,在各种资源因素影响下,AI用电量增速会被抑制;但硬件和软件的能效提高,显然也无法抵消长期的电力需求增长。总之,作者认为在AI开发方面,还是不要铺张浪费的好。监管机构也需要考虑要求厂商披露相关数据,提高整个AI供应链的透明度,从而更好了解这一新兴技术的环境成本。实际上,此前关于AI消耗资源的话题已经多次引发讨论。有研究指出,到2027年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。加州大学河滨分校研究表明,问ChatGPT5-50个问题,就可消耗500毫升水。因为AI超算数据中心需要大量水来散热,微软也承认用水是训练模型的一大成本,从2021年到2022年,其全球用水量飙升了34%,相比研究AIGC前急剧增加。网友:也要看产出除了微博,#ChatGPT日耗电超50万度#的消息也在知乎冲上热榜第三。尽管这一数据看起来惊人,但不少网友都表示:我们还是需要比较一下投入产出。知乎网友@段小草就浅算了一下:一天50万度电,1.7万个美国家庭。但美国有1.2亿个家庭,也就是只需万分之一的家庭用电,就能支撑一个服务全球TOP 1的AI产品、服务几亿用户,这还是在浪费能源破坏环境吗?言外之意,如下所说(来自知乎网友@桔了个仔):ChatGPT创造的价值其实远超它的能耗。和某些技术(咳咳,懂得都懂)的耗电量相比,它可能更不值一提了。所以,有人(知乎网友@玩吾伤智)直接就表示,这则消息应该这么理解:震惊, 只需要1.7万普通家庭的电量即可满足ChatGPT的一日用电需求。(手动狗头)咳咳,有意思的是,上面的答主@段小草还提到了一篇论文,题为《The Carbon Emissions of Writing and lllustrating Are Lower for Al than for Humans》,讲的是AI在画画和写作上的碳排放量一个比人类少310到2900倍,一个比人类少130到1500倍。这样看来,AI甚至算得上“节能减排的先锋”。(手动狗头)呐,我们还是早点洗洗睡、关注GPT-5什么时候发吧。奥特曼:我们需要可控核聚变话又说回来,尽管比起收益,ChatGPT一日1.7万个家庭的能耗还不值一提,但AI能耗确实也是一个值得关注的问题。而这点,奥特曼早就在“担忧”了。在今年1月的一场达沃斯会议中,他就表示:人工智能的未来取决于清洁能源的突破。△ 图源Digwatch具体而言,他认为:随着技术越来越成熟,AI将消耗越来越大量的电力,如果能源技术无法突破,就无法实现这一目标(即让AI技术释放全部潜力)。而现在,公众还不是很了解这个需求究竟有多大,奥特曼本人表示也远超他的预期。至于如何提升能源产量,他也直言:需要可控核聚变,或者更便宜的太阳能及存储等等。说起可控核聚变,奥特曼其实早就押注了一家相关公司,名叫Helion。他在它身上投资了3.75亿美元,这是他以个人名义投资的最大一笔。除此之外,奥特曼的“爸爸”微软也押注了这家公司。据了解,Helion成立于2013年,目前约150+员工。他们预计将在2028年上线50兆瓦规模的可控核聚变发电项目,微软将率先采购。原报告: ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人