供应链得到改善 NVIDIA大幅缩短AI GPU交付时间

供应链得到改善 NVIDIA大幅缩短AI GPU交付时间 尽管如此,NVIDIA在扩大供应链合作伙伴规模方面已经努力了相当长的一段时间,尤其是在三星代工业务(Samsung Foundry)加入管理 HBM 部门之后。除此之外,台积电和 SK hynix 等现有合作伙伴也迅速扩大了产能,据报道,台积电今年年底的 CoWoS 产量将达到 32000 件,这是一个巨大的数字,因为在 2023 年初,这个数字还要低得多。此外,该公司的晶圆产量也出现了同样的情况,这意味着与一年前相比,全球半导体供应的状况要好得多。然而,对于英伟达来说,并非一切都如彩虹般美好,因为该公司看到了人工智能消费者兴趣的下降,这并不是因为其产品,而是因为该公司被拖入了政治局势之中。由于禁止向中国出口该公司最先进的 H100 和 A100 AI GPU,该公司的销售额已经出现下滑,中国客户在英伟达数据中心领域的整体收入中占了很大一部分。随着"更严厉"的限制措施的实施,NVIDIA已经被切断了联系,而他们设计的新"变通办法"也没有得到目标市场应有的重视。此外,AMD 和华为等竞争对手也在努力缩小与现有产品的差距,这也会对英伟达造成影响,尽管目前影响还不大。英伟达仍然保持着人工智能市场 90% 以上的主导地位,公司如何应对这一局面将是一个有趣的话题,至少在现阶段该公司不能有丝毫懈怠。 ... PC版: 手机版:

相关推荐

封面图片

Intel CEO将宴请台湾供应链:包括被NVIDIA独漏的仁宝电脑

Intel CEO将宴请台湾供应链:包括被NVIDIA独漏的仁宝电脑 报道称此次晚宴名单中共有11位家台厂供应链业者的董事长、副董事长、CEO、总经理,并且大多与英伟达、AMD的主力供应链有所雷同。主要包括鸿海、广达、仁宝、英业达、纬创、和硕、纬颖、华硕、宏碁、技嘉、微星, 而日前在股东会上喊话“被英伟达独漏”的仁宝电脑,也成功入列。台北国际电脑展是全球领先的AIoT和新创产业展览,今年将从6月4日至6月7日在南港展览馆举行。展会期间,将有多位国际AI专家深入探讨AI应用和硬件创新,同时,众多科技界重量级人物也将出席,包括AMD董事长苏姿丰、高通总裁艾蒙等。 ... PC版: 手机版:

封面图片

【英伟达将向中国推出A800GPU】11月8日,记者从GPU巨头英伟达处获悉,该公司将于第三季度投产NVIDIA A800 GP

【英伟达将向中国推出A800GPU】11月8日,记者从GPU巨头英伟达处获悉,该公司将于第三季度投产NVIDIA A800 GPU(以下简称“A800”)。根据英伟达的说法,A800是面向中国客户的NVIDIA A100 GPU(以  #月光新资讯

封面图片

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25%

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25% 在人工智能的热潮中,SMCI(超微计算机公司)在相当长的一段时间里都是市场的头条新闻。该公司不仅股价表现优异,同比增长 182%,而且还成功地与英伟达(NVIDIA)建立了合作关系,成为市场的焦点。SMCI 专注于专为人工智能工作负载设计的高性能服务器和存储系统,在过去几个季度里,订单大量涌入。现在,该公司正寻求将其业务扩展到更先进的NVIDIA Blackwell AI GPU 架构,因为有报道称超微计算机公司已经收到了以 Blackwell 为核心的 AI 服务器机架的巨额订单。台湾《经济日报》报道称,超微计算机公司(SMCI)准备出货 25% 的英伟达(NVIDIA)基于 GB200 的 Blackwell AI 服务器,总量将达到 10000 台以上。这一次,NVIDIA似乎赋予了 SMCI 更多的责任,如果进展顺利,最终将转化为巨大的经济效益。这些系统包括:NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统包含 10 个 GPU 的 5U/4U PCIe GPU 系统SuperBlade 在 8U 机柜中最多可配备 20 个 B100 GPU,在 6U 机柜中最多可配备 10 个 B100 GPU2U Hyper 最多可配备 3 个 B100 GPU配备最多 4 个 B100 GPU 的 Supermicro 2U x86 MGX 系统为了与富士康和广达等巨头竞争,SMCI 决定积极拓展供应链,将 Argosy Research 和 Auras Technology 等公司纳入其中。自今年年初以来,该公司已经积累了NVIDIA公司的Blackwell GB200 AI GPU,以确保供应链流程顺畅,最终保证在竞争中占据优势。此外,超微计算机公司已经在水冷要件方面进行了投资,据说这对较新的 Blackwell AI 服务器至关重要。以下是超微服务器阵容的部分特点:超微公司的NVIDIA HGX B200 8GPU 风冷和液冷系统可实现最高的生成式人工智能训练性能。该系统采用 8 个英伟达 Blackwell GPU,通过第五代 NVLink 与 1.5TB 高带宽内存池(速度达 60TB/s)连接,以加快人工智能训练工作负载的速度。超微最畅销的人工智能训练系统配备NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持英伟达即将推出的 HGX B100 8-GPU。超微机架级解决方案采用 GB200 Superchip 系统作为服务器节点,每个节点配备 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。超微的直接到芯片液冷技术最大限度地提高了密度,在一个 44U ORV3 机架上可安装 72 个 GB200 192GB GPU(每个 GPU 的 TDP 为 1200W)。由此看来,SMCI 希望这次以更积极的方式回归,通过与NVIDIA的密切关系,只要他们能保持供应链和产品质量,就可以继续保持现有的市场地位。 ... PC版: 手机版:

封面图片

NVIDIA数据中心GPU出货量在2023年超400万片 占市场份额的98%

NVIDIA数据中心GPU出货量在2023年超400万片 占市场份额的98% 这是我们第一次看到英伟达公司公布出货量数据,因为在以前,这些数据仅仅是根据总体营收估算的。2023 年是英伟达公司在数据中心和人工智能市场"超级周期"的起点,这得益于 Hopper GPU 和产品为公司带来的巨大需求,以及人工智能热潮的兴起,所有其他大型科技公司都参与了这项技术的整合。由于拥有足够的计算能力是必要的,英伟达是最能利用这一炒作的公司,有趣的是,我们现在有数据来支持这一说法。根据TechInsights的数据,英伟达在2023年的数据中心GPU出货量约为376万片,比2022年多出近100万片。该公司成功获得了高达98%的市场份额,毁灭性地几百了AMD和英特尔等竞争对手。2023 年数据中心 GPU 的总出货量约为 385 万片,考虑到英伟达在其中所占的份额,可以说竞争对手毫无胜算。报告显示,英伟达(NVIDIA)以 362 亿美元的收入占据了 98% 的市场份额,是 2022 年的三倍。有趣的是,由于 AMD 和英特尔的出货量仅为 50 万片左右(AMD 50 万,英特尔 40 万),因此它们在市场总收入中所占的份额很小。TechInsights表示,现在还没有足够的人工智能硬件来维持市场需求,而且由于大部分需求实际上都是针对英伟达的产品,因此竞争对手现在肯定很难取得长足进步,但希望还是有的,因为分析师们期待多样化。随着 Blackwell 产品进入供应链,我们可以想象 NVIDIA 在市场上将会遇到怎样的吸引力。虽然 AMD 和英特尔等竞争对手的替代产品正在获得市场的青睐,但要想挑战英伟达的威力,还需要更多的努力。 ... PC版: 手机版:

封面图片

空客计划2024年交付800架飞机 对供应链看法谨慎

空客计划2024年交付800架飞机 对供应链看法谨慎 空中客车公司计划在今年交付约800架飞机,由于供应链困境持续,且部分飞机因发动机故障仍处于停飞状态,该公司对自身财务前景持谨慎态度。今年的目标相较2023年的交付量高出约10%,但分析师预计的目标是达到825架左右。 PC版: 手机版:

封面图片

瑞银称英伟达大幅缩短AI GPU交付周期 从8-11降至3-4个月

瑞银称英伟达大幅缩短AI GPU交付周期 从8-11降至3-4个月 2月17日消息,根据瑞银分析师近日分享给投资者的备忘录,英伟达大幅缩短了AI GPU的交付周期,从去年年底的8-11个月缩短到了现在的3-4个月。机构认为英伟达大幅缩短AI GPU交付周期存在两种可能:该公司正在规划新的方案提高产能,满足未来的订单;而另一种可能是英伟达目前已具备足够的产能,可以处理积压的订单,当然不排除两个因素叠加的效果。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人