中金公司:随着 AI 算力提升,先进 AI 服务器电源重要性持续升级

中金公司:随着 AI 算力提升,先进 AI 服务器电源重要性持续升级 中金公司研报表示,服务器电源是数据中心供电系统建设的核心,随着 AI 算力提升,先进 AI 服务器电源的重要性持续升级。先进 GPU 也对 AI 服务器电源功率和功率密度提出了更高要求,例如功率约为 10.2kw 的 H100 服务器机架需配置 19.8kw 电源,而功率约为 120kw 的 NVL72 机架需配置 198kw 电源。但服务器电源本身需在有限空间实现功率扩容,传统服务器电源功率密度大多不到 50w / 立方英寸,而 AI 服务器电源功率密度可达 100w / 立方英寸。这同步对服务器电源拓扑结构设计、元器件应用等提出了更高要求,未来先进 AI 电源需求有望持续升级。

相关推荐

封面图片

扬杰科技:公司产品可以大量应用于 AI 服务器电源等相关领域

扬杰科技:公司产品可以大量应用于 AI 服务器电源等相关领域 扬杰科技 7 月 6 日在互动平台表示,公司产品可以大量应用于 AI 服务器电源等相关领域,已经有产品在服务器领域批量出货,还有部分产品在国际头部 AI 服务器厂商进行前期测试中,后续预计会陆续迎来业绩增长。

封面图片

联想首台国产AI服务器问天WA5480 G3交付 可搭载AI算力芯片

联想首台国产AI服务器问天WA5480 G3交付 可搭载国产AI算力芯片 据了解,问天WA5480 G3 AI训推一体服务器可灵活应用于AI通用模型训练,大模型推理、AI生成、云游戏、科学计算等多种应用场景。问天WA5480 G3采用2颗第四代英特尔至强可扩展处理器,支持最新PCIE5.0。通过PCIE扩展,最多可以支持10张包括最新NVIDIA H800 GPU在内的,多类型、多品牌AI加速卡。同时,提供包括直通、Balance、Common多种CPU-GPU互联方式,避免了因为CPU-GPU数据通信方式单一与工作负载不匹配,带来的潜在性能瓶颈和系统效率下降。可靠性上,问天WA5480 G3支持电源N+N冗余,节点内电源间互为备份,对外可以连接双路市电,保障服务器24小时在线运行。 ... PC版: 手机版:

封面图片

英飞凌为高能耗的人工智能数据中心设计了12千瓦电源装置

英飞凌为高能耗的人工智能数据中心设计了12千瓦电源装置 德国半导体制造商英飞凌科技公司最近发布了新一代电源装置,有望为专注于云服务器和人工智能算法的数据中心提供前所未有的电力输送能力。英飞凌的新型服务器电源装置可提供高达 12 千瓦的功率,在单个模块中集成了三种不同的半导体材料。据英飞凌称,这些新型 PSU 是世界上首批能够提供高达 12 千瓦功率的设备。不过,首批型号的额定功率为 8 千瓦,将于 2025 年第一季度上市。根据该公司的PSU 路线图,12 kW 型号还没有确定的发布日期。英飞凌将硅(Si)、碳化硅(SiC)和氮化镓(GaN)集成到同一模块中,这将显著提高电源性能、效率和可靠性。12 kW PSU 的效率可达 97.5%,而 8 kW PSU 可支持输出功率为 300 kW 及以上的"AI 机架"。氮化镓是近年来帮助消费类充电器缩小体积的一种材料,而碳化硅则可以在更高的电压水平下提供更高的效率。碳化硅可用于电动汽车中的直流到直流逆变器,但也可用于为人工智能算法加速设计的 GPU 提供更多电能的 PSU。由于AI聊天机器人和人工智能服务的普及,数据中心的能源需求正在迅速增长。英飞凌表示,新的 PSU 凭借其更高的效率将帮助这些大型服务器群降低功耗,同时还能减少温室气体排放并降低运营成本。根据最近的预测,到 2030 年,数据中心的耗电量将占全球耗电量的 7%。现代高性能服务器 GPU 的单芯片功耗高达 1 千瓦,到本十年末可能达到 2 千瓦,甚至更高。大型科技和人工智能公司已经感受到了这种不断增长的电力需求所带来的影响,亚马逊被迫对资源进行配给操作,以避免都柏林数据中心的电网中断。 ... PC版: 手机版:

封面图片

全球首个海底智算中心平台在海南启动 总算力超过2000PFlops 用海水散热

全球首个海底智算中心平台在海南启动 总算力超过2000PFlops 用海水散热 目前,位于海南陵水的海底数据中心一期项目已运营一年多,各项运营指标和业务指标均符合预期。在此基础上迭代的海底智算中心,将部署高功率密度的人工智能服务器,充分利用海底数据中心高功率、高能效的特性。以1MW外电配给为参考,海底智算中心凭借高功率密度设计,单舱可提供1400PFlops算力,算力效率提升40%。同时,海底智算中心全年使用海水作为自然冷源,海底智算中心常年实际运营PUE(能源利用效率)小于1.1。而且还让硬件远离了人类活动区域,提供了稳定的工作环境,并且实现了无尘、无氧环境,进一步保护电子器件。 ... PC版: 手机版:

封面图片

微软、甲骨文考虑共享 AI 服务器,解决算力短缺问题

微软、甲骨文考虑共享 AI 服务器,解决算力短缺问题 甲骨文(Oracle)和微软(Microsoft)最近讨论了一项不同寻常的协议,如果任何一家公司为使用大规模 AI 的云客户提供的计算能力不足,双方将相互租用服务器。 这笔交易将帮助这两家互为竞争对手的云服务提供商满足市场对可运行 AI 软件的服务器日益增长的需求,这种需求已导致服务器短缺。 在甲骨文董事长埃里森(Larry Ellison)等高管敲定更广泛的 AI 战略之际,有关拟议交易的讨论一直在进行,其中包括如何使用 AI 软件(可能来自 ChatGPT 的开发商 Openai)来改进公司的核心软件产品。甲骨文也在考虑内部开发 AI 软件,并将其出售给云客户。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

戴尔透露 NVIDIA B100 将于今年推出,2025年将升级到 B200

戴尔透露 NVIDIA B100 将于今年推出,2025年将升级到 B200 在最近的财报电话会议上,戴尔透露了 NVIDIA 的下一代 Blackwell 系列不仅将拥有 B100 AI 加速卡,而且稍后将提供升级版本 B200 。看起来NVIDIA似乎已经向戴尔等最大的合作伙伴披露了这些信息,戴尔将使用NVIDIA最新的AI和计算硬件来运营服务器和数据中心。 戴尔高级副总裁还指出,NVIDIA B100 和 B200 等下一代 GPU 的功率密度将达到 1000W。当前 NVIDIA H200 和 AMD MI300X 加速卡的峰值功率已经达到 800W,因此考虑到 Blackwell 预计将带来的性能提升,考虑到其效率的提高,功率增加 200W 将是相当正常的。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人