领涨股翻八倍 AI投资最热赛道之一竟是如何让它“冷下来”?

领涨股翻八倍 AI投资最热赛道之一竟是如何让它“冷下来”? 根据国际能源署的数据,从2022年到2026年,美国数据中心的耗电量预计将增长约30%,达到260太瓦时。这约占美国总电力需求的6%足够2400万户美国家庭一年的用电量。而大部分能量将以热能的形式散失,这意味着对冷却系统的需求会更高。众人拾柴火焰高,总部位于俄亥俄州的Vertiv控股公司,目前显然正成为被推上这一“风口”的领涨企业。该公司为数据中心生产电源和冷却设备。行情数据显示,自2022年底以来,Vertiv股价已飙升了近700%。该公司上一季度的订单量同比增长了60%。截至3月底,订单积压达到创纪录的63亿美元。该公司约三分之一的销售额来自数据中心的热管理。事实上,如下图所示,即便是把Vertiv放在一系列以英伟达为中心的不同美股AI领域概念股中进行比较,Vertiv年内的涨幅都足可稳居前三甲。“热管理/冷却”题材,相较其他一系列AI概念股,都似乎不逊色。(不同题材AI概念股2024年涨幅对比,数据截止至上周英伟达发布财报时)AI“最热”赛道是如何让它“冷下来”?目前,大多数全球数据中心都使用风扇进行空气循环以降低温度。但如今功率越来越大的芯片,正使这种风冷系统达到了其所能实现的散热极限。克服这一问题的方法之一,是在服务器中通过管道运行液体冷却剂来吸收热量。液体的热容量更大,传热更快。在相同体积的情况下,水要比空气多吸收3000多倍的热量。更高效的冷却系统还能让数据中心的服务器更为紧密地排列在一起。高盛日前就预计,服务器冷却市场规模将从今年的41亿美元增长到2026年的106亿美元。根据该行的预测,在这一市场中,液冷将变得更加流行,2026年其在人工智能服务器中的渗透率将达到57%,而今年仅为 23%。这将为冷却系统供应商带来更高的利润,因为这些系统的设计更为复杂。摩根大通也指出,考虑到打造液冷系统的复杂性,液体冷却系统的成本是空气冷却系统的三到四倍,这会为冷却系统供应商带来更高利润。事实上,与总部位于美国的Vertiv公司一样,不少亚洲冷却系统零部件制造商的股价近来也正一路飙升。自2022年底以来,中国台湾散热器制造商AVC的股价已上涨了600%,另一家散热器制造商双鸿科技(Auras Technology)同期也上涨了510%。两家公司目前都在提高产能,以满足不断增长的需求。根据FactSet的数据,包括AVC及双鸿科技等冷却系统供应商的预期市盈率目前已高达40倍,而在AI热潮之前,这一数字还不到20倍。当然,一些业内人士眼下也提醒,对于一个未来难以预测的新兴产业来说,当前冷却系统供应商高涨的股价,可能已经为未来的增长潜力进行了定价,甚至有所透支。在AI淘金热中,早早投资于“卖铲人”固然可行,但投资者仍需要保持冷静的头脑。 ... PC版: 手机版:

相关推荐

封面图片

缺电后是缺水?摩根大通:到2030年,数据中心每天将消耗4.5亿加仑的水

缺电后是缺水?摩根大通:到2030年,数据中心每天将消耗4.5亿加仑的水 AI狂潮仍在继续,由于不少华尔街大行预计本世纪末美国的生成式人工智能数据中心数量将爆发,各投资机构纷纷投资于“增强美国力量”(Powering up America)的主题,包括电网公司、铜、金、银和铀等大宗商品,以及人工智能芯片制造商。然而,水消耗的问题却相对而言被忽视了。摩根大通的亚太股票研究部门最近公布题为《深入探讨电力、冷却、电网和ESG影响》(Deep Dive into Power, Cooling, Electric Grid and ESG implications)的研报,详细阐述了基础设施对人工智能发展的影响。文中专门介绍了人工智能数据中心对电力的消耗。同时,高盛此前也发现,在“下一代AI交易”飙升之际,弗吉尼亚州的商业电力需求大幅怎个假。此外,即使是黑石集团首席执行官史蒂夫·施瓦茨曼(Steve Schwarzman)和贝莱德董事长兼首席执行官拉里·芬克(Larry Fink)也纷纷加入电网和AI投资主题,因为未来几年内有很多上行空间除非AI需求崩溃。值得注意的是,摩根大通的研报在报告结尾部分强调:“尽管数据中心因大量的电力消耗而容易重点关注,但相对而言,数据中心的高耗水基本被忽视了,而这也是数据中心运营的基本特质。”摩根大通引用Bluefield Research的数据在研报中指出,全球数据中心的总用水量(包括现场冷却和非现场发电)从2017年到2022年每年增长6%。研报说,到2030年,用水量可能会跃升至每天4.5亿加仑。这就相当于,每天大约需要681个奥运会标准的游泳池的淡水,来冷却全球数据中心。研报介绍,数据中心的用水方式与碳排放类似,数据中心的用水也可以分为范围1、范围2和范围3。在这种情况下,范围1指的是用于现场服务器冷却的水,范围2指的是用于发电的场外用水。范围3被认为是服务器制造供应链用水。具体而言,范围2的用水是数据中心与发电相关的间接用水。传统的热电厂(如燃煤电厂、天然气电厂等)加热水以产生蒸汽,蒸汽用于旋转涡轮机发电。水也用于冷却塔中的散热。值得注意的是,当使用热电时,数据中心的范围2用水足迹可能远大于范围1。研报指出:“考虑到范围1和范围2操作所需要的取水量,到2027年,要满足全球AI需求,数据中心相关的取水量可能达到42亿至66亿立方米,超过半个英国的年度总取水量。”研报进一步指出,在水资源稀缺的地区,数据中心的巨大用水需求可能引发竞争加剧,可能会影响水资源的可用性,甚至导致数据中心关闭。“为了消除服务器产生的热量,每天有数百万加仑的水在冷却系统中蒸发,这是数据中心的大部分用水。” ... PC版: 手机版:

封面图片

OpenAI将助力阿联酋建设全球最大的数据中心之一

OpenAI将助力阿联酋建设全球最大的数据中心之一 该中心最终可能成为全球最大的数据中心之一 这不仅是该公司在中东地区的重大投资,也是其全球AI基础设施扩张计划的重要扩展。 据知情人士透露,这家ChatGPT开发商预计将成为近期宣布的阿布扎比5GW数据中心园区的主要租户之一。OpenAI的参与尚未最终确定,但官方可能会在近期宣布。

封面图片

大摩:数据中心算力成本正在迅速下降

大摩:数据中心算力成本正在迅速下降 摩根士丹利在3月24日的AI报告中指出,随着GPU技术的不断进步,例如英伟达从Hopper发展到Blackwell GPU架构,GAI的算力成本正显著降低。展望未来,大摩预测,AI算力成本将迅速下降,AI算力需求将蓬勃增长,预计2024/27全球数据中心电力需求将占到全球的~2%/4%,但电力基础设施可能跟不上这一增长形势。因此,大摩指出,能够满足AI快速增长电力需求的公司将从这一趋势中收益,特别是那些能够减少数据中心供电延迟的电力解决方案提供商。AI算力成本迅速下降大摩指出,随着GPU效率的提高,数据中心算力成本正在迅速下降,以英伟达最新发布的Blackwell为例,只占到hopper能耗的一半,具体来看:数据中心模型显示,使用Hopper GPU的数据中心每teraFLOPs(每秒万亿次浮点运算)资本成本为14.26美元,而Blackwell数据中心的成本为7.48美元,这意味着当从Hopper GPU升级到Blackwell GPU时,资本成本每teraFLOPs下降约50%。数据中心建设成本方面,Blackwell数据中心的总设施资本成本(包括GPU)为33.49亿美元,而Hopper数据中心的总设施资本成本为35.83亿美元。这些成本是针对假设的100MW 数据中心,并且包括了8个芯片/服务器和70%的服务器利用率。在每兆瓦时电力成本为100美元的假设下,Hopper数据中心的年度电力成本约为每teraFLOPs 0.24美元,而Blackwell数据中心的年度电力成本约为每teraFLOPs 0.14美元。这种下降主要是由于随着技术进步,GPU在能效方面的改进,使得在相同的电力消耗下能够提供更多的算力。AI算力需求激增 给电力基础设施带来挑战与此同时,大摩预测,AI电力需求将迅猛增长,在基准情景下,预计2023-27年全球数据中心电力需求(包括GAI)为430748太瓦时(TWh),相当于2024/27年全球电力需求的2%4%。具体来看:在基准情景下(GPU利用率从60%提高到70%),数据中心在2023-27年的总电力容量将为70/122吉瓦。2023-27年GAI电力需求的复合年增长率为~105%,而同期全球数据中心电力需求(包括GAI)的复合年增长率将为~20%。牛市情景下(反映90%的芯片利用率),预计2023-27年全球数据中心电力需求为~446/820太瓦时。而熊市情景下(反映50%的利用率),预计2023-27年数据中心电力需求为~415/677太瓦时。此外,大摩还提到,其减少可再生能源服务占新数据中心电力的百分比,因为数据(如亚马逊/Talen交易)表明不可再生能源将发挥更大的作用。进一步来看,大摩指出,根据对全球数据中心电力需求预测,预计将给电力基础设施带来挑战,包括输电线路容量限制、规划和许可延误以及供应链瓶颈。因此,展望未来,能够满足AI快速增长能源需求的公司,特别是那些能够减少数据中心供电延迟的电力解决方案提供商将受市场欢迎。大摩表示,全球各地数据中心增长有所不同,但相似之处在于,数据中心公司和超大规模公司经常与电力开发公司合作,以最大限度地减少供电延迟,降低成本并减少排放。在美国,我们看到了合作伙伴关系的最初迹象,超大规模企业和核电厂所有者在核电厂建立新的大型数据中心,有利于电力公用事业Constellation Energy和独立电力生产商与能源贸易商Vistra等 。而且我们还看到了现场发电的可能,这可能有利于许多电力股。在欧洲,到2035年,欧洲国家的数据中心需求将推动电力增长五倍,低估值欧洲电力股将受益,入西班牙私营跨国电力公司Iberdrola,芬兰能源企业Fortum。在东盟,马来西亚、新加坡和泰国电力需求强劲增长。为了最大限度地减少“供电时间”,我们看到数据中心开发商与东盟当地电力公司建立伙伴关系:英伟达和马来西亚杨忠礼集团合作,计划在马来西亚打造价值43亿美元的人工智能数据中心,泰国最大的私人发电公司海湾Gulf和泰国电信AIS开始建设新的泰国数据中心,新加坡电信Singtel、印尼电信公司Telkom于印度尼西亚能源公司Medco Power就其在印度尼西亚的第一个数据中心项目建立战略合作伙伴关系。 ... PC版: 手机版:

封面图片

夏普将与KDDI等协商构建AI数据中心

夏普将与KDDI等协商构建AI数据中心 夏普公司3日正式宣布,为了设立面向人工智能的数据中心,与 KDDI 等就启动协商达成一致。全资子公司堺显示器产品公司将在今年9月底前停产大型液晶面板,夏普计划利用其场地打造新的收益来源。夏普已于2日同系统外包开发商 Datasection 及美国企业等3家公司达成协议。用于生成式AI学习和推理等的图形处理器 (GPU) 将采购美国英伟达的下一代型号。预计将建成亚洲最大规模的数据中心。夏普方面称,通过确保大规模电力及场地,“力争构建能迅速应对各类课题的AI数据中心”。

封面图片

微软投资29亿美元建设日本AI数据中心

微软投资29亿美元建设日本AI数据中心 微软公司总裁 Brad Smith 表示,微软将扩大其在日本的数据中心,该公司将在两年内投资 29 亿美元,推出用于人工智能的最新数据中心,以响应东京为人工智能提供更多计算能力的呼声。目前正值日本首相岸田文雄访问华盛顿之际,微软预计将在未来几个小时内宣布其投资计划。随着日本政府开始利用生成式人工智能,微软将建立一个系统来管理日本国内的个人数据和机密信息。

封面图片

AI 正在“吸干”全球电力?更可怕的事还在后面

AI 正在“吸干”全球电力?更可怕的事还在后面 AI 到底有多费电?科比特称,训练 GPT-6 的微软工程师们正忙着搭建 IB 网络(InfiniBand),把分布在不同地区的 GPU 连接起来。这项工作很困难,但他们别无选择,因为如果把超过 10 万块 H100 芯片部署在同一个地区,电网就会崩溃。为什么这些芯片集中起来会导致电网崩溃的后果呢?让我们来简单算一笔账。英伟达网站上公布的数据显示,每块 H100 芯片的峰值功率为 700W,10 万块 H100 峰值功耗最高可达 7000 万W。而 X 评论区有能源行业从业者指出,10 万块芯片的总能耗将相当于一座小型太阳能或风能发电厂的全部输出。除此之外,还要考虑这么多芯片的配套设施的能耗,包括服务器和冷却设备。这么多耗电设施,集中在一小片区域,给电网带来的压力可想而知。AI 耗电,冰山一角关于 AI 能耗问题,《纽约客》的报道一度引起广泛关注。报道估算,ChatGPT 每日耗电量或超过 50 万千瓦时。实际上,目前AI耗电量虽然看上去是个天文数字,但仍然远远不及加密货币和传统的数据中心。而微软工程师遇到的难题也表明,制约 AI 发展的不仅是技术本身的能耗,还有配套基础设施的能耗,以及电网的承载力。国际能源署(IEA)发布的一份报告显示,2022 年全球数据中心、人工智能和加密货币的耗电量达到 460 TWh,占全球能耗的近 2%。IEA 预测,在最糟糕的情况下,到 2026 年这些领域的用电量将达 1000 TWh,与整个日本的用电量相当。但是,报告同时显示,目前直接投入 AI 研发的能耗远低于数据中心和加密货币。英伟达在 AI 服务器市场中占据约 95%的份额,2023 年供应了约 10 万块芯片,每年耗电量约为 7.3 TWh。但是在 2022 年,加密货币的能耗为 110 TWh,与整个荷兰的用电量相当。图注:2022 年与 2026 年,传统数据中心、加密货币、AI 数据中心的能耗估计值(柱状图从下往上依次展示)。可见,目前 AI 耗电量远低于数据中心和加密货币。图片来源:IEA冷却能耗,不容忽视数据中心的能效通常用能效比(Power Usage Effectiveness)评估,即消耗的所有能源与 IT 负载消耗的能源的比值。能效比越接近于 1,表明数据中心浪费的能源越少。数据中心标准组织 Uptime Institute 发布的报告显示,2020 年全球大型数据中心的平均能效比约为 1.59。也就是说,数据中心的 IT 设备每消耗 1 度电,其配套设备就消耗 0.59 度电。数据中心的额外能耗中,绝大部分应用于冷却系统。一项调查研究显示,冷却系统消耗的能量可达数据中心总能耗的 40%。近些年,随着芯片更新换代,单台设备的功率增大,数据中心的功率密度(即单位面积耗电量)不断提升,对散热提出了更高的要求。但与此同时,通过改进数据中心设计,就能大幅减少能量的浪费。因为冷却系统、结构设计等各方面的差异,不同数据中心的能效比差异很大。Uptime Institute 报告显示,欧洲国家已经把能效比降到了 1.46,而在亚太地区仍有超过十分之一的数据中心能效比超过 2.19。世界各国正在采取措施,敦促数据中心实现节能减排的目标。其中,欧盟要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;中国政府也出台措施,要求数据中心从 2025 年起能效比不高于 1.3,并将可再生能源使用比例逐年上调,到 2032 年达到 100%。图注:2020 年,全球各地大型数据中心的能效比。从左到右依次为:非洲、亚太地区、欧洲、拉丁美洲、中东、俄罗斯及独联体国家、美国和加拿大。图片来源:Uptime Institute科技公司用电,节流难开源更难随着加密货币和 AI 的发展,各大科技公司的数据中心规模不断扩大。据国际能源署(IEA)统计,在 2022 年美国拥有 2700 座数据中心,消耗了全国用电量的 4%,并预测这一比例到 2026 年将达到 6%。随着美国东西海岸用地越发紧张,数据中心逐步向爱荷华州、俄亥俄州等中部地区转移,但这些二线地区原有的产业并不发达,电力供应可能无法满足需求。一些技术公司尝试摆脱电网的束缚,直接从小型核电站购买电能,但这种用电方式和新建核电站都要面临复杂的行政流程。微软尝试使用 AI 辅助完成申请,而谷歌使用 AI 进行运算任务调度,以提高电网运行效率,降低企业碳排放。至于可控核聚变何时投入应用,目前仍然是未知数。气候变暖,雪上加霜AI 的研发需要稳定而强大的电网支持,但随着极端天气频发,许多地区的电网正在变得更加脆弱。气候变暖会导致更加频繁的极端天气事件,不仅造成用电需求激增,加重电网负担,还会直接冲击电网设施。IEA 报告指出,受干旱、降雨不足和提早融雪的影响,2023 年全球水力发电占比下跌到三十年来的最低值,不足 40%。天然气往往被视为向可再生能源转型过程中的一座桥梁,但它在冬季极端天气下并不稳定。2021 年,寒潮袭击美国得克萨斯州,导致大面积断电,部分居民家中断电超过 70 小时。这次灾难的一个主要原因就是天然气管道冰冻,造成天然气发电厂停摆。北美电力可靠性委员会(North American Electric Reliability Council,简称 NERC)预测,在 2024-2028 年,美国、加拿大有超过 300 万人口面临越来越高的断电风险。为保障能源安全,同时实现节能减排,许多国家也将核电站视为一种过渡措施。在 2023 年 12 月举办的联合国应对气候变化委员会第 28 次峰会(COP 28)上,22 个国家签署联合声明,承诺到 2050 年将核能发电能力提升到 2020 年水平的 3 倍。与此同时,随着中国、印度等国大力推进核电建设,IEA 预测到 2025 年,全球核电发电量将达到历史新高。IEA 报告指出:“在变化的气候模式面前,提高能源多样化、提升电网跨区域调度能力和采取更加抗冲击的发电方式将变得越发重要。” 保障电网基础设施,不仅关系到 AI 技术的发展,更是关乎国计民生。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人