供应链得到改善 NVIDIA大幅缩短AI GPU交付时间

供应链得到改善 NVIDIA大幅缩短AI GPU交付时间 尽管如此,NVIDIA在扩大供应链合作伙伴规模方面已经努力了相当长的一段时间,尤其是在三星代工业务(Samsung Foundry)加入管理 HBM 部门之后。除此之外,台积电和 SK hynix 等现有合作伙伴也迅速扩大了产能,据报道,台积电今年年底的 CoWoS 产量将达到 32000 件,这是一个巨大的数字,因为在 2023 年初,这个数字还要低得多。此外,该公司的晶圆产量也出现了同样的情况,这意味着与一年前相比,全球半导体供应的状况要好得多。然而,对于英伟达来说,并非一切都如彩虹般美好,因为该公司看到了人工智能消费者兴趣的下降,这并不是因为其产品,而是因为该公司被拖入了政治局势之中。由于禁止向中国出口该公司最先进的 H100 和 A100 AI GPU,该公司的销售额已经出现下滑,中国客户在英伟达数据中心领域的整体收入中占了很大一部分。随着"更严厉"的限制措施的实施,NVIDIA已经被切断了联系,而他们设计的新"变通办法"也没有得到目标市场应有的重视。此外,AMD 和华为等竞争对手也在努力缩小与现有产品的差距,这也会对英伟达造成影响,尽管目前影响还不大。英伟达仍然保持着人工智能市场 90% 以上的主导地位,公司如何应对这一局面将是一个有趣的话题,至少在现阶段该公司不能有丝毫懈怠。 ... PC版: 手机版:

相关推荐

封面图片

瑞银称英伟达大幅缩短AI GPU交付周期 从8-11降至3-4个月

瑞银称英伟达大幅缩短AI GPU交付周期 从8-11降至3-4个月 2月17日消息,根据瑞银分析师近日分享给投资者的备忘录,英伟达大幅缩短了AI GPU的交付周期,从去年年底的8-11个月缩短到了现在的3-4个月。机构认为英伟达大幅缩短AI GPU交付周期存在两种可能:该公司正在规划新的方案提高产能,满足未来的订单;而另一种可能是英伟达目前已具备足够的产能,可以处理积压的订单,当然不排除两个因素叠加的效果。

封面图片

NVIDIA开源HPCG AI基准 支持Grace CPU以及Ampere和Hopper GPU

NVIDIA开源HPCG AI基准 支持Grace CPU以及Ampere和Hopper GPU 自英伟达之前宣布为 GeForce RTX 20 系列及以后的产品使用开源 GPU 内核以来,英伟达一直在寻求向更开源的方向转变,以促进其平台的开发,并在 Linux 方面大步迈进。这一次,该公司决定通过开源英伟达 HPCG 来帮助人工智能行业,该 HPCG 面向 Grace Superchips 和 Hopper 系列架构等人工智能硬件。NVIDIA的HPCG是一个专为高性能计算应用设计的基准测试,主要通过多种数学运算来测试特定硬件在不同场景下的性能。这不仅能让NVIDIA展示其GPU的能力,而且该软件包在优化HPC系统方面发挥了重要作用。在人工智能和高性能计算应用大幅增长的时代,NVIDIAHPCG 的开源意味着该公司决心看到资源的发展。以下是该公司自己详细介绍的主要功能:GitHub: HPCG 基准利用 NVIDIA 高性能数学库:cuSPARSE 和 NVPL Sparse,在 NVIDIA GPU 和 Grace CPU 上实现稀疏矩阵向量乘法 (SpMV) 和稀疏矩阵三角求解器 (SpSV) 的最高性能。NVIDIA HPCG 基准支持高度可配置的命令行参数,以决定:GPU 和 Grace CPU 的问题大小三维等级网格形状执行模式: 纯 CPU、纯 GPU 和异构点对点通信: MPI_Host(发送/回传)、MPI_Host_Alltoallv、MPI_CUDA_Aware、MPI_CUDA_Aware_Alltoallv 和 NCCLNUMA 相关配置在兼容性方面,NVIDIA HPCG 支持 Grace CPU 系统以及 Ampere 和 Hopper GPU 架构。该软件也只能在 Linux 下运行,这限制了它的使用范围。不过,这仍然是一个有趣举动,它表明了NVIDIA公司对资产开源的承诺。 ... PC版: 手机版:

封面图片

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25%

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25% 在人工智能的热潮中,SMCI(超微计算机公司)在相当长的一段时间里都是市场的头条新闻。该公司不仅股价表现优异,同比增长 182%,而且还成功地与英伟达(NVIDIA)建立了合作关系,成为市场的焦点。SMCI 专注于专为人工智能工作负载设计的高性能服务器和存储系统,在过去几个季度里,订单大量涌入。现在,该公司正寻求将其业务扩展到更先进的NVIDIA Blackwell AI GPU 架构,因为有报道称超微计算机公司已经收到了以 Blackwell 为核心的 AI 服务器机架的巨额订单。台湾《经济日报》报道称,超微计算机公司(SMCI)准备出货 25% 的英伟达(NVIDIA)基于 GB200 的 Blackwell AI 服务器,总量将达到 10000 台以上。这一次,NVIDIA似乎赋予了 SMCI 更多的责任,如果进展顺利,最终将转化为巨大的经济效益。这些系统包括:NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统包含 10 个 GPU 的 5U/4U PCIe GPU 系统SuperBlade 在 8U 机柜中最多可配备 20 个 B100 GPU,在 6U 机柜中最多可配备 10 个 B100 GPU2U Hyper 最多可配备 3 个 B100 GPU配备最多 4 个 B100 GPU 的 Supermicro 2U x86 MGX 系统为了与富士康和广达等巨头竞争,SMCI 决定积极拓展供应链,将 Argosy Research 和 Auras Technology 等公司纳入其中。自今年年初以来,该公司已经积累了NVIDIA公司的Blackwell GB200 AI GPU,以确保供应链流程顺畅,最终保证在竞争中占据优势。此外,超微计算机公司已经在水冷要件方面进行了投资,据说这对较新的 Blackwell AI 服务器至关重要。以下是超微服务器阵容的部分特点:超微公司的NVIDIA HGX B200 8GPU 风冷和液冷系统可实现最高的生成式人工智能训练性能。该系统采用 8 个英伟达 Blackwell GPU,通过第五代 NVLink 与 1.5TB 高带宽内存池(速度达 60TB/s)连接,以加快人工智能训练工作负载的速度。超微最畅销的人工智能训练系统配备NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持英伟达即将推出的 HGX B100 8-GPU。超微机架级解决方案采用 GB200 Superchip 系统作为服务器节点,每个节点配备 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。超微的直接到芯片液冷技术最大限度地提高了密度,在一个 44U ORV3 机架上可安装 72 个 GB200 192GB GPU(每个 GPU 的 TDP 为 1200W)。由此看来,SMCI 希望这次以更积极的方式回归,通过与NVIDIA的密切关系,只要他们能保持供应链和产品质量,就可以继续保持现有的市场地位。 ... PC版: 手机版:

封面图片

【英伟达将向中国推出A800GPU】11月8日,记者从GPU巨头英伟达处获悉,该公司将于第三季度投产NVIDIA A800 GP

【英伟达将向中国推出A800GPU】11月8日,记者从GPU巨头英伟达处获悉,该公司将于第三季度投产NVIDIA A800 GPU(以下简称“A800”)。根据英伟达的说法,A800是面向中国客户的NVIDIA A100 GPU(以  #月光新资讯

封面图片

NVIDIA Blackwell AI GPU的价格约为3-4万美元 开发成本近100亿美元

NVIDIA Blackwell AI GPU的价格约为3-4万美元 开发成本近100亿美元 NVIDIA的Blackwell人工智能图形处理器是业界的下一个大事件,它取代了Hopper H100和H200平台的市场热度和需求。新阵容的首次亮相在市场上引起了极大的反响,无疑将推动未来的发展。然而,由于所有性能都集中在一个 Blackwell GPU 上,英伟达估计在研发方面花费了巨额资金,有报道称,NVIDIA为开发该平台投入了高达 100 亿美元,打破了此前所有财务记录。该消息来自《巴伦周刊》(Barrons)的资深撰稿人@firstadopter,他透露,英伟达为满足市场对其 Blackwell 平台的期望花费了大量资金,该公司计划创造巨大的投资回报率,因为另一条消息显示,英伟达计划将其 Blackwell AI GPU 的售价控制在 3 万至 4 万美元的范围内,这标志着其价格比一代 Hopper 有了相当大的提升。据说,NVIDIA 的 Blackwell B200 的制造成本将超过 6000 美元,该公司计划利用围绕新 GPU 平台的大量关注来获取巨大收益。NVIDIA Blackwell 是首款采用"独家"MCM 设计的产品,在同一芯片上集成了两个 GPU。与 Hopper 系列产品相比,Blackwell 在所有参数上都有 2 至 5 倍的提升,并拥有高达 192 GB 的 HBM3e 内存配置,它的代际提升是惊人的。NVIDIA似乎不会为竞争对手提供任何空间,尽管 AMD 等公司凭借其最新的人工智能产品赢得了一些市场份额,但我们认为从长远来看,NVIDIA显然是赢家,他们将成为市场的主导者。更不用说该公司有望取得的财务进展了,因为他们的投资回报率预计将随着 Blackwell 平台的推出而翻番。 ... PC版: 手机版:

封面图片

广达收到来自谷歌、亚马逊和Meta的NVIDIA GB200 AI GPU的大额订单

广达收到来自谷歌、亚马逊和Meta的NVIDIA GB200 AI GPU的大额订单 广达是服务器市场上的大名鼎鼎的公司,这家台湾公司在为全球多家科技巨头提供人工智能服务器方面走在了前列。去年,该公司对其基于NVIDIA Hopper 的人工智能服务器产生了巨大的兴趣,现在,随着新的 Blackwell GB200 人工智能平台的发布,似乎巨大的需求正在向该公司涌来,而这一次,广达将获得更大的利润,因为基于 Blackwell 的服务器预计将变得更加昂贵,利润率肯定会更高。据台湾《经济日报》报道,广达已收到来自Google、亚马逊AWS和Meta等公司的大量英伟达Blackwell GB200人工智能服务器订单。据悉,Blackwell AI产品将于7月或8月进入测试阶段,预计9月左右量产,由此可以预计首批产品将于2024年底或2025年初上市。此外,据说英伟达单台 GB200 AI 服务器的生产成本约为 200 万至 300 万美元/台,这是一个惊人的数字,有可能为整个行业的服务器收入做出巨大贡献。广达并不满足于服务器产品组合的进步,因为除了采用NVIDIA Blackwell GB200 AI 阵容之外,广达还计划在其 AI 服务器中集成各种新技术,其中之一就是液冷能力,因为正如英伟达首席执行官黄仁勋(Jensen Huang)本人强调的那样,NVIDIA新芯片的功耗数字已经突破了天花板,因此有必要摒弃传统的冷却系统。因此,我们可以期待英伟达的 Blackwell AI GPU 和服务器在明年的某个时候面世,届时我们就能清楚地看到该产品线为市场带来了什么。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人