戴尔透露 NVIDIA B100 将于今年推出,2025年将升级到 B200

戴尔透露 NVIDIA B100 将于今年推出,2025年将升级到 B200 在最近的财报电话会议上,戴尔透露了 NVIDIA 的下一代 Blackwell 系列不仅将拥有 B100 AI 加速卡,而且稍后将提供升级版本 B200 。看起来NVIDIA似乎已经向戴尔等最大的合作伙伴披露了这些信息,戴尔将使用NVIDIA最新的AI和计算硬件来运营服务器和数据中心。 戴尔高级副总裁还指出,NVIDIA B100 和 B200 等下一代 GPU 的功率密度将达到 1000W。当前 NVIDIA H200 和 AMD MI300X 加速卡的峰值功率已经达到 800W,因此考虑到 Blackwell 预计将带来的性能提升,考虑到其效率的提高,功率增加 200W 将是相当正常的。

相关推荐

封面图片

戴尔在一个机架服务器内塞了72块NVIDIA B200 GPU加速卡

戴尔在一个机架服务器内塞了72块NVIDIA B200 GPU加速卡 即便如此,戴尔依然宣称GPU密度提高了33%,PCIe 5.0通道多了20%,网络扩展能力翻倍。B200加速卡单个功耗达1000W,八卡就是8000W,再加上处理器、内存、硬盘、网卡等其他硬件,风冷自然是无法压制的,而是上了高效水冷,CPU、GPU全覆盖。针对更大规模的GPU计算部署需求,戴尔还支持在单个机架内配备多达72块B200加速卡,依然是水冷。戴尔PowerEdge XE9680L服务器将在下半年上市。 ... PC版: 手机版:

封面图片

NVIDIA B200 GPU加速器明年到来 功耗高达1000W

NVIDIA B200 GPU加速器明年到来 功耗高达1000W B100之后,还有更强大的升级版B200,一如现在H100、H200的关系。戴尔首席运营官兼副董事长在最近的一次会议中确认了B200的存在,发布时间在明年。他没有披露更具体的规格,比如升级之处,但声称戴尔有能力搞定单颗GPU 1000W的功耗,甚至不需要液冷,这无疑是在暗示B200的功耗将大幅提高。相比之下,H100 SMX版本的峰值功耗为700W。NVIDIA GTC 2024图形技术大会将于3月18-21日举行,必然会披露新一代GPU加速器的情况,甚至有可能正式宣布。 ... PC版: 手机版:

封面图片

英伟达新一代架构Blackwell来了:RTX 50、B200都要用 功耗将超1000W

英伟达新一代架构Blackwell来了:RTX 50、B200都要用 功耗将超1000W 按照最新爆料,B100将采用两个基于台积电CoWoS-L封装技术的芯片,连接到8个 8-Hi HBM3e显存堆栈,总容量为192GB,而这还不是唯一。爆料中还提到,B200的下一代Blackwell GP更新将利用12-Hi来实现更高的容量,显存达到了288GB,但不确定是否是HBM4。之前,戴尔首席运营官Jeff Clarke就曾爆料:英伟达将于2025年推出载有“Blackwell”架构的B200产品,功耗或将达到1000W。事实上基于这个架构的RTX 50系列功耗也不会太乐观,之前有消息称,RTX 5090用PCIe Gen 6的16-Pin供电接口后,功耗可以超过600W,而高端系列可以超过450W,中端功耗在300-350W之间。所以在这样架构的功耗下,RTX 5090显卡将比RTX 4090快60%到70%(近一倍)也不稀奇吧? ... PC版: 手机版:

封面图片

NVIDIA Blackwell B200 AI加速器下季度开始出货 单价是传统服务器的10倍

NVIDIA Blackwell B200 AI加速器下季度开始出货 单价是传统服务器的10倍 据台湾《经济日报》报道,英伟达(NVIDIA)将于2024年第三季度至第四季度"小批量"出货其下一代GB200人工智能服务器,并将于2025年第一季度开始大规模出货。另据报道,每台 Blackwell 服务器的单价将是传统服务器的 10 倍。我们之前曾报道过每块 Blackwell GPU 的价格应高达 3.5 万美元,而一组 AI 服务器的价格可能高达 300 万美元。英伟达 DGX GB200"Blackwell"AI 服务器分为三个部分:DGX NVL72、NVL32 和 HGX B200。其中配置最高的是 NVL72,配备了 72 个英伟达 Blackwell B200 AI GPU 和 Grace Hopper CPU。据悉,富士康的子公司 Fii 将在下一季度出货部分 DGX GB200"NVL72",而该公司早在 4 月份就已向客户交付了 NVL32 对应产品,因此该公司是首批向业界出货 Blackwell 产品的公司之一。除此之外,广达等合作伙伴也有望在本季度向客户交付英伟达的 Blackwell GB200 AI 服务器。虽然两家公司还没有透露谁是"独家"买家,但我们或许对此有所了解。我们曾报道过 Meta 已经下单了基于 Blackwell 的产品,包括 B200 AI GPU 和 AI 服务器,所以这可能是大部分产能的去向。微软和 OpenAI 也对英伟达的 Blackwell 表示了兴趣。 ... PC版: 手机版:

封面图片

NVIDIA Blackwell GPU的后继型号为"Rubin" 将于2025年底推出

NVIDIA Blackwell GPU的后继型号为"Rubin" 将于2025年底推出 访问:Saily - 使用eSIM实现手机全球数据漫游 安全可靠 源自NordVPN 这一点将变得尤为重要,因为英伟达目前的架构已经接近千瓦级,这样下去计算中心将无法无限制地扩展。天风国际证券分析师郭明𫓹(Mich-Chi Kuo)表示,英伟达基于"Rubin"的首款AI GPUR100预计将于2025年第四季度进入量产,这意味着它可能会在更早的时间内亮相和展示;而部分客户可能会更早地获得芯片,以便进行评估。根据郭明𫓹(Mich-Chi Kuo)的说法,R100 预计将采用台积电的 3 纳米 EUV FinFET 工艺,特别是台积电-N3 节点。相比之下,新的"Blackwell"B100 使用的是 TSMC-N4P。这将是一款芯片级 GPU,采用 4 倍光罩设计(Blackwell 采用 3.3 倍网罩),并与 B100 一样使用台积电的 CoWoS-L 封装。预计该芯片将成为 HBM4 堆叠内存的首批客户之一,具有 8 个堆叠,堆叠高度尚不清楚。Grace Ruben GR200 CPU+GPU 组合可能采用在 3 纳米节点上制造的全新"Grace"CPU,很可能采用光学收缩技术以降低功耗。2025 年第四季度的量产路线图目标意味着客户将在 2026 年初开始收到这些芯片。 ... PC版: 手机版:

封面图片

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25%

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25% 在人工智能的热潮中,SMCI(超微计算机公司)在相当长的一段时间里都是市场的头条新闻。该公司不仅股价表现优异,同比增长 182%,而且还成功地与英伟达(NVIDIA)建立了合作关系,成为市场的焦点。SMCI 专注于专为人工智能工作负载设计的高性能服务器和存储系统,在过去几个季度里,订单大量涌入。现在,该公司正寻求将其业务扩展到更先进的NVIDIA Blackwell AI GPU 架构,因为有报道称超微计算机公司已经收到了以 Blackwell 为核心的 AI 服务器机架的巨额订单。台湾《经济日报》报道称,超微计算机公司(SMCI)准备出货 25% 的英伟达(NVIDIA)基于 GB200 的 Blackwell AI 服务器,总量将达到 10000 台以上。这一次,NVIDIA似乎赋予了 SMCI 更多的责任,如果进展顺利,最终将转化为巨大的经济效益。这些系统包括:NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统包含 10 个 GPU 的 5U/4U PCIe GPU 系统SuperBlade 在 8U 机柜中最多可配备 20 个 B100 GPU,在 6U 机柜中最多可配备 10 个 B100 GPU2U Hyper 最多可配备 3 个 B100 GPU配备最多 4 个 B100 GPU 的 Supermicro 2U x86 MGX 系统为了与富士康和广达等巨头竞争,SMCI 决定积极拓展供应链,将 Argosy Research 和 Auras Technology 等公司纳入其中。自今年年初以来,该公司已经积累了NVIDIA公司的Blackwell GB200 AI GPU,以确保供应链流程顺畅,最终保证在竞争中占据优势。此外,超微计算机公司已经在水冷要件方面进行了投资,据说这对较新的 Blackwell AI 服务器至关重要。以下是超微服务器阵容的部分特点:超微公司的NVIDIA HGX B200 8GPU 风冷和液冷系统可实现最高的生成式人工智能训练性能。该系统采用 8 个英伟达 Blackwell GPU,通过第五代 NVLink 与 1.5TB 高带宽内存池(速度达 60TB/s)连接,以加快人工智能训练工作负载的速度。超微最畅销的人工智能训练系统配备NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持英伟达即将推出的 HGX B100 8-GPU。超微机架级解决方案采用 GB200 Superchip 系统作为服务器节点,每个节点配备 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。超微的直接到芯片液冷技术最大限度地提高了密度,在一个 44U ORV3 机架上可安装 72 个 GB200 192GB GPU(每个 GPU 的 TDP 为 1200W)。由此看来,SMCI 希望这次以更积极的方式回归,通过与NVIDIA的密切关系,只要他们能保持供应链和产品质量,就可以继续保持现有的市场地位。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人