超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25%

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25% 在人工智能的热潮中,SMCI(超微计算机公司)在相当长的一段时间里都是市场的头条新闻。该公司不仅股价表现优异,同比增长 182%,而且还成功地与英伟达(NVIDIA)建立了合作关系,成为市场的焦点。SMCI 专注于专为人工智能工作负载设计的高性能服务器和存储系统,在过去几个季度里,订单大量涌入。现在,该公司正寻求将其业务扩展到更先进的NVIDIA Blackwell AI GPU 架构,因为有报道称超微计算机公司已经收到了以 Blackwell 为核心的 AI 服务器机架的巨额订单。台湾《经济日报》报道称,超微计算机公司(SMCI)准备出货 25% 的英伟达(NVIDIA)基于 GB200 的 Blackwell AI 服务器,总量将达到 10000 台以上。这一次,NVIDIA似乎赋予了 SMCI 更多的责任,如果进展顺利,最终将转化为巨大的经济效益。这些系统包括:NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统包含 10 个 GPU 的 5U/4U PCIe GPU 系统SuperBlade 在 8U 机柜中最多可配备 20 个 B100 GPU,在 6U 机柜中最多可配备 10 个 B100 GPU2U Hyper 最多可配备 3 个 B100 GPU配备最多 4 个 B100 GPU 的 Supermicro 2U x86 MGX 系统为了与富士康和广达等巨头竞争,SMCI 决定积极拓展供应链,将 Argosy Research 和 Auras Technology 等公司纳入其中。自今年年初以来,该公司已经积累了NVIDIA公司的Blackwell GB200 AI GPU,以确保供应链流程顺畅,最终保证在竞争中占据优势。此外,超微计算机公司已经在水冷要件方面进行了投资,据说这对较新的 Blackwell AI 服务器至关重要。以下是超微服务器阵容的部分特点:超微公司的NVIDIA HGX B200 8GPU 风冷和液冷系统可实现最高的生成式人工智能训练性能。该系统采用 8 个英伟达 Blackwell GPU,通过第五代 NVLink 与 1.5TB 高带宽内存池(速度达 60TB/s)连接,以加快人工智能训练工作负载的速度。超微最畅销的人工智能训练系统配备NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持英伟达即将推出的 HGX B100 8-GPU。超微机架级解决方案采用 GB200 Superchip 系统作为服务器节点,每个节点配备 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。超微的直接到芯片液冷技术最大限度地提高了密度,在一个 44U ORV3 机架上可安装 72 个 GB200 192GB GPU(每个 GPU 的 TDP 为 1200W)。由此看来,SMCI 希望这次以更积极的方式回归,通过与NVIDIA的密切关系,只要他们能保持供应链和产品质量,就可以继续保持现有的市场地位。 ... PC版: 手机版:

相关推荐

封面图片

NVIDIA Blackwell B200 AI加速器下季度开始出货 单价是传统服务器的10倍

NVIDIA Blackwell B200 AI加速器下季度开始出货 单价是传统服务器的10倍 据台湾《经济日报》报道,英伟达(NVIDIA)将于2024年第三季度至第四季度"小批量"出货其下一代GB200人工智能服务器,并将于2025年第一季度开始大规模出货。另据报道,每台 Blackwell 服务器的单价将是传统服务器的 10 倍。我们之前曾报道过每块 Blackwell GPU 的价格应高达 3.5 万美元,而一组 AI 服务器的价格可能高达 300 万美元。英伟达 DGX GB200"Blackwell"AI 服务器分为三个部分:DGX NVL72、NVL32 和 HGX B200。其中配置最高的是 NVL72,配备了 72 个英伟达 Blackwell B200 AI GPU 和 Grace Hopper CPU。据悉,富士康的子公司 Fii 将在下一季度出货部分 DGX GB200"NVL72",而该公司早在 4 月份就已向客户交付了 NVL32 对应产品,因此该公司是首批向业界出货 Blackwell 产品的公司之一。除此之外,广达等合作伙伴也有望在本季度向客户交付英伟达的 Blackwell GB200 AI 服务器。虽然两家公司还没有透露谁是"独家"买家,但我们或许对此有所了解。我们曾报道过 Meta 已经下单了基于 Blackwell 的产品,包括 B200 AI GPU 和 AI 服务器,所以这可能是大部分产能的去向。微软和 OpenAI 也对英伟达的 Blackwell 表示了兴趣。 ... PC版: 手机版:

封面图片

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元 NVIDIA 的 Blackwell 产品包括 GPU、超级芯片平台和服务器,是每一家热衷于人工智能的大型科技公司所梦寐以求的。来自汇丰银行的分析师披露了即将推出的组件的预期定价,英伟达的 Blackwell AI 服务器机架这次的价格不菲,将超过 300 万美元大关,B100 GPU 等 AI 加速器单卖的标价也很高。这一消息来自《巴伦周刊》(Barron's)的资深撰稿人@firstadopter引用了汇丰银行(HSBC)对英伟达(NVIDIA)Blackwell产品的分析。从人工智能服务器开始,英伟达 GB200 NVL36 服务器机架的单台售价预计为 180 万美元,而更高级的 NVL72 对应产品的售价则高达 300 万美元。我们在之前的报道中也透露了这一具体数额,因此实际数字可能不会太远。关于单卖的人工智能加速卡,汇丰银行表示,单个 B100 人工智能 GPU 的售价预计约为 3 万至 3.5 万美元,而GB200 超级芯片的单价约为 6 万至 7 万美元。这些超级芯片包含两个 GB100 GPU 和一个 Grace Hopper 芯片,以及一个大型系统内存池(HBM3E)。这些估价也与詹森本人透露的价格基本一致。分析师的估算可能没有考虑实时市场情况、采购量和许多其他因素。因此,根据买家类型和订单的严重程度,实际数字可能会更低甚至更高。现在,如果我们从代际上进行比较,Blackwell 价格肯定要比 Hopper 高。如果 Blackwell AI GPU 架构能够复制 Hopper GPU 的成功应用,那么英伟达的市场份额和主导地位又将会有质的飞跃。谁知道呢,也许它将超越苹果和微软等公司,成为全球最有价值的公司之一。到目前为止,我们已经看到Meta 等公司下达了 Blackwell 订单,微软和 OpenAI 也在其中,而这仅仅是首批订单。NVIDIA公司首席执行官黄仁勋(Jensen Huang)早早识别出人工智能热潮的大手笔确实收到了成效。 ... PC版: 手机版:

封面图片

NVIDIA Blackwell DGX GB200 AI服务器将于2024年下半年进入量产 有望创造巨额收入

NVIDIA Blackwell DGX GB200 AI服务器将于2024年下半年进入量产 有望创造巨额收入 据报道,英伟达预计将在 2024 年下半年量产 GB200 服务器,到 2025 年预计将有 40000 台服务器进入市场。台湾《经济日报》披露,英伟达计划将Blackwell DGX GB200 AI服务器的供应分为三个不同的部分,主要是DGX NVL72、NVL32和HGX B200。据报道,其中最高端的将是 NVL72,它将搭载 72 个英伟达的 Blackwell B200 AI GPU 和 Grace Hopper 芯片。据透露,DGX NVL72 机柜的单价据说在 300 万美元左右,考虑到英伟达能卖出 1 万台,其他产品暂且不计,预计仅 NVL72 就能为公司带来 300 亿美元的收入。富士康和广达这两大巨头预计将负责大部分供应的制造过程,富士康预计服务器收入将因此大幅上升。由此可见,在未来的人工智能市场中,收入流预计会有多大,考虑到 Blackwell 产品的反响与前代产品类似,没有人能够阻止英伟达爆炸式的财务增长,以及产业链中与之相连的所有供应商。这仅仅是个开始,随着对人工智能计算能力需求的增长,数据中心市场也将同步扩大。 ... PC版: 手机版:

封面图片

传NVIDIA限制GeForce RTX 40"Ada"GPU供应 为RTX 50"Blackwell"让路

传NVIDIA限制GeForce RTX 40"Ada"GPU供应 为RTX 50"Blackwell"让路 专家们特别指出,基于 Ada Lovelace 架构的 GeForce RTX 40 GPU 的出货量将急剧下降,以此来管理库存水平,并为下一代游戏阵容留出足够的空间。与此同时,英伟达将为其 RTX 40 系列产品保留相同的价位,即使其中一些 RTX 40 GPU 是人工智能市场非常受欢迎的选择,我们甚至可能看到其价格继续下降。消息人士是这样描述的:据传,一家领先的图形处理器公司通知其合作伙伴,他们需要注意他们的消费产品供应将大幅减少。如果我们在不改变价格的情况下减少供应,转而向利润更高的人工智能市场出售芯片,我们就能赚更多的钱,而不会受到批评,不是吗?他们曾经冻结或下调过 GeForce RTX 30 系列的建议零售价,但在早期之外,没人买得起那个价格,不是吗?因此,只有制造商/分销商/销售商被批评操纵价格。据说,目前 GeForce RTX 40 超级系列反响平平。市场反应冷淡还会持续多久?NVIDIA实现盈利的方式简单明了。公司将通过其专用 AI 张量核心阵容(如 H100、H200 和即将推出的 Blackwell B200/B100 GPU)收回部分成本。GeForce RTX 40 GPU的有限供应意味着英伟达可以将产能转移到基于相同台积电4N工艺节点的H100 AI GPU上。在韩国和亚太市场,GeForce RTX 40"Ada"的价格已经开始下降,在未来几个月内,我们也将看到这些价格在美国和欧盟市场生效。谈到美国的价格,由于需求增加,英伟达 GeForce RTX 4090 GPU 的价格在连续几个月高于 2000 美元之后,现在已经低于 2000美元。这款 Ada 旗舰显卡现在的售价约为 1800 美元,仍高于其 1599 美元的建议零售价,但价格正在下降,预计几个月后将达到建议零售价水平。RTX 4080 SUPER 目前的价格也较高,但该系列的其他产品要么已经达到市价建议零售价,要么低于市价建议零售价。随着 GeForce RTX 50"Blackwell"游戏 GPU 系列的到来,这些顶级型号将首先迎来大幅降价。 ... PC版: 手机版:

封面图片

戴尔透露 NVIDIA B100 将于今年推出,2025年将升级到 B200

戴尔透露 NVIDIA B100 将于今年推出,2025年将升级到 B200 在最近的财报电话会议上,戴尔透露了 NVIDIA 的下一代 Blackwell 系列不仅将拥有 B100 AI 加速卡,而且稍后将提供升级版本 B200 。看起来NVIDIA似乎已经向戴尔等最大的合作伙伴披露了这些信息,戴尔将使用NVIDIA最新的AI和计算硬件来运营服务器和数据中心。 戴尔高级副总裁还指出,NVIDIA B100 和 B200 等下一代 GPU 的功率密度将达到 1000W。当前 NVIDIA H200 和 AMD MI300X 加速卡的峰值功率已经达到 800W,因此考虑到 Blackwell 预计将带来的性能提升,考虑到其效率的提高,功率增加 200W 将是相当正常的。

封面图片

NVIDIA Blackwell GPU的后继型号为"Rubin" 将于2025年底推出

NVIDIA Blackwell GPU的后继型号为"Rubin" 将于2025年底推出 访问:Saily - 使用eSIM实现手机全球数据漫游 安全可靠 源自NordVPN 这一点将变得尤为重要,因为英伟达目前的架构已经接近千瓦级,这样下去计算中心将无法无限制地扩展。天风国际证券分析师郭明𫓹(Mich-Chi Kuo)表示,英伟达基于"Rubin"的首款AI GPUR100预计将于2025年第四季度进入量产,这意味着它可能会在更早的时间内亮相和展示;而部分客户可能会更早地获得芯片,以便进行评估。根据郭明𫓹(Mich-Chi Kuo)的说法,R100 预计将采用台积电的 3 纳米 EUV FinFET 工艺,特别是台积电-N3 节点。相比之下,新的"Blackwell"B100 使用的是 TSMC-N4P。这将是一款芯片级 GPU,采用 4 倍光罩设计(Blackwell 采用 3.3 倍网罩),并与 B100 一样使用台积电的 CoWoS-L 封装。预计该芯片将成为 HBM4 堆叠内存的首批客户之一,具有 8 个堆叠,堆叠高度尚不清楚。Grace Ruben GR200 CPU+GPU 组合可能采用在 3 纳米节点上制造的全新"Grace"CPU,很可能采用光学收缩技术以降低功耗。2025 年第四季度的量产路线图目标意味着客户将在 2026 年初开始收到这些芯片。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人