NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元 NVIDIA 的 Blackwell 产品包括 GPU、超级芯片平台和服务器,是每一家热衷于人工智能的大型科技公司所梦寐以求的。来自汇丰银行的分析师披露了即将推出的组件的预期定价,英伟达的 Blackwell AI 服务器机架这次的价格不菲,将超过 300 万美元大关,B100 GPU 等 AI 加速器单卖的标价也很高。这一消息来自《巴伦周刊》(Barron's)的资深撰稿人@firstadopter引用了汇丰银行(HSBC)对英伟达(NVIDIA)Blackwell产品的分析。从人工智能服务器开始,英伟达 GB200 NVL36 服务器机架的单台售价预计为 180 万美元,而更高级的 NVL72 对应产品的售价则高达 300 万美元。我们在之前的报道中也透露了这一具体数额,因此实际数字可能不会太远。关于单卖的人工智能加速卡,汇丰银行表示,单个 B100 人工智能 GPU 的售价预计约为 3 万至 3.5 万美元,而GB200 超级芯片的单价约为 6 万至 7 万美元。这些超级芯片包含两个 GB100 GPU 和一个 Grace Hopper 芯片,以及一个大型系统内存池(HBM3E)。这些估价也与詹森本人透露的价格基本一致。分析师的估算可能没有考虑实时市场情况、采购量和许多其他因素。因此,根据买家类型和订单的严重程度,实际数字可能会更低甚至更高。现在,如果我们从代际上进行比较,Blackwell 价格肯定要比 Hopper 高。如果 Blackwell AI GPU 架构能够复制 Hopper GPU 的成功应用,那么英伟达的市场份额和主导地位又将会有质的飞跃。谁知道呢,也许它将超越苹果和微软等公司,成为全球最有价值的公司之一。到目前为止,我们已经看到Meta 等公司下达了 Blackwell 订单,微软和 OpenAI 也在其中,而这仅仅是首批订单。NVIDIA公司首席执行官黄仁勋(Jensen Huang)早早识别出人工智能热潮的大手笔确实收到了成效。 ... PC版: 手机版:

相关推荐

封面图片

NVIDIA Blackwell AI GPU的价格约为3-4万美元 开发成本近100亿美元

NVIDIA Blackwell AI GPU的价格约为3-4万美元 开发成本近100亿美元 NVIDIA的Blackwell人工智能图形处理器是业界的下一个大事件,它取代了Hopper H100和H200平台的市场热度和需求。新阵容的首次亮相在市场上引起了极大的反响,无疑将推动未来的发展。然而,由于所有性能都集中在一个 Blackwell GPU 上,英伟达估计在研发方面花费了巨额资金,有报道称,NVIDIA为开发该平台投入了高达 100 亿美元,打破了此前所有财务记录。该消息来自《巴伦周刊》(Barrons)的资深撰稿人@firstadopter,他透露,英伟达为满足市场对其 Blackwell 平台的期望花费了大量资金,该公司计划创造巨大的投资回报率,因为另一条消息显示,英伟达计划将其 Blackwell AI GPU 的售价控制在 3 万至 4 万美元的范围内,这标志着其价格比一代 Hopper 有了相当大的提升。据说,NVIDIA 的 Blackwell B200 的制造成本将超过 6000 美元,该公司计划利用围绕新 GPU 平台的大量关注来获取巨大收益。NVIDIA Blackwell 是首款采用"独家"MCM 设计的产品,在同一芯片上集成了两个 GPU。与 Hopper 系列产品相比,Blackwell 在所有参数上都有 2 至 5 倍的提升,并拥有高达 192 GB 的 HBM3e 内存配置,它的代际提升是惊人的。NVIDIA似乎不会为竞争对手提供任何空间,尽管 AMD 等公司凭借其最新的人工智能产品赢得了一些市场份额,但我们认为从长远来看,NVIDIA显然是赢家,他们将成为市场的主导者。更不用说该公司有望取得的财务进展了,因为他们的投资回报率预计将随着 Blackwell 平台的推出而翻番。 ... PC版: 手机版:

封面图片

NVIDIA Blackwell B200 AI加速器下季度开始出货 单价是传统服务器的10倍

NVIDIA Blackwell B200 AI加速器下季度开始出货 单价是传统服务器的10倍 据台湾《经济日报》报道,英伟达(NVIDIA)将于2024年第三季度至第四季度"小批量"出货其下一代GB200人工智能服务器,并将于2025年第一季度开始大规模出货。另据报道,每台 Blackwell 服务器的单价将是传统服务器的 10 倍。我们之前曾报道过每块 Blackwell GPU 的价格应高达 3.5 万美元,而一组 AI 服务器的价格可能高达 300 万美元。英伟达 DGX GB200"Blackwell"AI 服务器分为三个部分:DGX NVL72、NVL32 和 HGX B200。其中配置最高的是 NVL72,配备了 72 个英伟达 Blackwell B200 AI GPU 和 Grace Hopper CPU。据悉,富士康的子公司 Fii 将在下一季度出货部分 DGX GB200"NVL72",而该公司早在 4 月份就已向客户交付了 NVL32 对应产品,因此该公司是首批向业界出货 Blackwell 产品的公司之一。除此之外,广达等合作伙伴也有望在本季度向客户交付英伟达的 Blackwell GB200 AI 服务器。虽然两家公司还没有透露谁是"独家"买家,但我们或许对此有所了解。我们曾报道过 Meta 已经下单了基于 Blackwell 的产品,包括 B200 AI GPU 和 AI 服务器,所以这可能是大部分产能的去向。微软和 OpenAI 也对英伟达的 Blackwell 表示了兴趣。 ... PC版: 手机版:

封面图片

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25%

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25% 在人工智能的热潮中,SMCI(超微计算机公司)在相当长的一段时间里都是市场的头条新闻。该公司不仅股价表现优异,同比增长 182%,而且还成功地与英伟达(NVIDIA)建立了合作关系,成为市场的焦点。SMCI 专注于专为人工智能工作负载设计的高性能服务器和存储系统,在过去几个季度里,订单大量涌入。现在,该公司正寻求将其业务扩展到更先进的NVIDIA Blackwell AI GPU 架构,因为有报道称超微计算机公司已经收到了以 Blackwell 为核心的 AI 服务器机架的巨额订单。台湾《经济日报》报道称,超微计算机公司(SMCI)准备出货 25% 的英伟达(NVIDIA)基于 GB200 的 Blackwell AI 服务器,总量将达到 10000 台以上。这一次,NVIDIA似乎赋予了 SMCI 更多的责任,如果进展顺利,最终将转化为巨大的经济效益。这些系统包括:NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统包含 10 个 GPU 的 5U/4U PCIe GPU 系统SuperBlade 在 8U 机柜中最多可配备 20 个 B100 GPU,在 6U 机柜中最多可配备 10 个 B100 GPU2U Hyper 最多可配备 3 个 B100 GPU配备最多 4 个 B100 GPU 的 Supermicro 2U x86 MGX 系统为了与富士康和广达等巨头竞争,SMCI 决定积极拓展供应链,将 Argosy Research 和 Auras Technology 等公司纳入其中。自今年年初以来,该公司已经积累了NVIDIA公司的Blackwell GB200 AI GPU,以确保供应链流程顺畅,最终保证在竞争中占据优势。此外,超微计算机公司已经在水冷要件方面进行了投资,据说这对较新的 Blackwell AI 服务器至关重要。以下是超微服务器阵容的部分特点:超微公司的NVIDIA HGX B200 8GPU 风冷和液冷系统可实现最高的生成式人工智能训练性能。该系统采用 8 个英伟达 Blackwell GPU,通过第五代 NVLink 与 1.5TB 高带宽内存池(速度达 60TB/s)连接,以加快人工智能训练工作负载的速度。超微最畅销的人工智能训练系统配备NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持英伟达即将推出的 HGX B100 8-GPU。超微机架级解决方案采用 GB200 Superchip 系统作为服务器节点,每个节点配备 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。超微的直接到芯片液冷技术最大限度地提高了密度,在一个 44U ORV3 机架上可安装 72 个 GB200 192GB GPU(每个 GPU 的 TDP 为 1200W)。由此看来,SMCI 希望这次以更积极的方式回归,通过与NVIDIA的密切关系,只要他们能保持供应链和产品质量,就可以继续保持现有的市场地位。 ... PC版: 手机版:

封面图片

广达收到来自谷歌、亚马逊和Meta的NVIDIA GB200 AI GPU的大额订单

广达收到来自谷歌、亚马逊和Meta的NVIDIA GB200 AI GPU的大额订单 广达是服务器市场上的大名鼎鼎的公司,这家台湾公司在为全球多家科技巨头提供人工智能服务器方面走在了前列。去年,该公司对其基于NVIDIA Hopper 的人工智能服务器产生了巨大的兴趣,现在,随着新的 Blackwell GB200 人工智能平台的发布,似乎巨大的需求正在向该公司涌来,而这一次,广达将获得更大的利润,因为基于 Blackwell 的服务器预计将变得更加昂贵,利润率肯定会更高。据台湾《经济日报》报道,广达已收到来自Google、亚马逊AWS和Meta等公司的大量英伟达Blackwell GB200人工智能服务器订单。据悉,Blackwell AI产品将于7月或8月进入测试阶段,预计9月左右量产,由此可以预计首批产品将于2024年底或2025年初上市。此外,据说英伟达单台 GB200 AI 服务器的生产成本约为 200 万至 300 万美元/台,这是一个惊人的数字,有可能为整个行业的服务器收入做出巨大贡献。广达并不满足于服务器产品组合的进步,因为除了采用NVIDIA Blackwell GB200 AI 阵容之外,广达还计划在其 AI 服务器中集成各种新技术,其中之一就是液冷能力,因为正如英伟达首席执行官黄仁勋(Jensen Huang)本人强调的那样,NVIDIA新芯片的功耗数字已经突破了天花板,因此有必要摒弃传统的冷却系统。因此,我们可以期待英伟达的 Blackwell AI GPU 和服务器在明年的某个时候面世,届时我们就能清楚地看到该产品线为市场带来了什么。 ... PC版: 手机版:

封面图片

传NVIDIA限制GeForce RTX 40"Ada"GPU供应 为RTX 50"Blackwell"让路

传NVIDIA限制GeForce RTX 40"Ada"GPU供应 为RTX 50"Blackwell"让路 专家们特别指出,基于 Ada Lovelace 架构的 GeForce RTX 40 GPU 的出货量将急剧下降,以此来管理库存水平,并为下一代游戏阵容留出足够的空间。与此同时,英伟达将为其 RTX 40 系列产品保留相同的价位,即使其中一些 RTX 40 GPU 是人工智能市场非常受欢迎的选择,我们甚至可能看到其价格继续下降。消息人士是这样描述的:据传,一家领先的图形处理器公司通知其合作伙伴,他们需要注意他们的消费产品供应将大幅减少。如果我们在不改变价格的情况下减少供应,转而向利润更高的人工智能市场出售芯片,我们就能赚更多的钱,而不会受到批评,不是吗?他们曾经冻结或下调过 GeForce RTX 30 系列的建议零售价,但在早期之外,没人买得起那个价格,不是吗?因此,只有制造商/分销商/销售商被批评操纵价格。据说,目前 GeForce RTX 40 超级系列反响平平。市场反应冷淡还会持续多久?NVIDIA实现盈利的方式简单明了。公司将通过其专用 AI 张量核心阵容(如 H100、H200 和即将推出的 Blackwell B200/B100 GPU)收回部分成本。GeForce RTX 40 GPU的有限供应意味着英伟达可以将产能转移到基于相同台积电4N工艺节点的H100 AI GPU上。在韩国和亚太市场,GeForce RTX 40"Ada"的价格已经开始下降,在未来几个月内,我们也将看到这些价格在美国和欧盟市场生效。谈到美国的价格,由于需求增加,英伟达 GeForce RTX 4090 GPU 的价格在连续几个月高于 2000 美元之后,现在已经低于 2000美元。这款 Ada 旗舰显卡现在的售价约为 1800 美元,仍高于其 1599 美元的建议零售价,但价格正在下降,预计几个月后将达到建议零售价水平。RTX 4080 SUPER 目前的价格也较高,但该系列的其他产品要么已经达到市价建议零售价,要么低于市价建议零售价。随着 GeForce RTX 50"Blackwell"游戏 GPU 系列的到来,这些顶级型号将首先迎来大幅降价。 ... PC版: 手机版:

封面图片

预计到2026年NVIDIA将通过AI获得高达1300亿美元的收入

预计到2026年NVIDIA将通过AI获得高达1300亿美元的收入 NVIDIA团队在去年发现了巨大的人工智能金矿,而且从各项指标来看,这场狂欢似乎还不会停止。据彭博社预测,到 2026 年,英伟达的收入将增长到 1300 亿美元,几乎比 2021 年增加了 1000 亿美元。这意味着整体营收将增长 125%,而这些数字是该行业过去从未见过的,这一切都归功于数据中心和 AI 加速器需求所带来的巨大 AI 需求。根据我们之前的报道,NVIDIA似乎有望在2027 年之前从人工智能驱动的销售中获得 3000 亿美元的收入,为其已经极为庞大的市值再增加一大块。Omdia 等市场研究机构也表现出了类似的乐观态度,预计英伟达今年将从数据中心 GPU 中获得 870 亿美元的收入,同比增长 150%。现在,Team Green 宣布计划很快推出其下一代"Blackwell"B100 AI GPU和其他各种服务器产品,这将最终促进其在市场上的增长。NVIDIA计划在其数据中心内集成液冷功能是另一项令人兴奋的进展。这表明,该公司计划在其人工智能产品中实现世代相传的改进,最终满足人工智能领域的巨大需求,而这需要计算能力的世代相传。不过,必须指出的是,这些数字仅仅是预测,可能会受到地缘政治条件、供应链限制和行业竞争可能加剧等因素的严重影响。但至少NVIDIA正在统治市场。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人