黄仁勋访问台湾 Hopper H200和Blackwell B100 GPU量产在即

黄仁勋访问台湾 Hopper H200和Blackwell B100 GPU量产在即 NVIDIA不仅在其人工智能产品组合中取得了突飞猛进的发展,而且该公司还在努力迎合各个地区的利益,尽管遇到了诸如美国新法规之类的挫折。我们昨天报道了黄仁勋对北京的访问,他不仅参加了与北京新年有关的庆祝活动,而且据说还与阿里巴巴和腾讯等几家中国客户举行了会议,向他们保证英伟达将继续留在这里。据透露,在访问中国之后,黄仁勋还决定前往台湾,拜访台积电和纬创等公司的主要供应商,以了解公司下一代 H200 和 B100 AI GPU 的量产进展。今年将标志着向新一代人工智能产品的过渡,这就是为什么 2024 年不仅对英伟达,而且对其他参与人工智能竞赛的公司来说都是"决定性的"一年。据预测,今年全球人工智能出货量有望大幅增长,预计将达到 35 万片左右,其中NVIDIA将占据相当大的份额。关于英伟达(NVIDIA)即将推出的产品,首先是其 Hopper H200 GPU,它配备了美光的 HBM3e 解决方案,显存容量达 141 GB,带宽高达 4.8 TB/s,与英伟达(NVIDIA)A100 相比,带宽增加了 2.4 倍,容量增加了一倍。在 Llama 2(700 亿参数 LLM)等应用中,与 H100 GPU 相比,这种新的内存解决方案使英伟达的人工智能推理性能提高了近一倍。下一个重磅产品是 Blackwell B100 AI GPU,在性能方面,它将通过采用芯片组设计,在每瓦性能方面带来决定性的提升。英伟达公司的下一代Hopper H200和Blackwell B100人工智能图形处理器预计将在2024年内亮相,据报道,由于Hopper在2024年的采用率较高,B100将被推迟到第四季度。对于整个科技行业来说,今年将是有趣的一年,尤其是人工智能的进步以及与之相关的市场。预计英伟达公司将在 3 月份的 GTC 2024 大会上公布更多有关人工智能和数据中心芯片的信息。 ... PC版: 手机版:

相关推荐

封面图片

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元 NVIDIA 的 Blackwell 产品包括 GPU、超级芯片平台和服务器,是每一家热衷于人工智能的大型科技公司所梦寐以求的。来自汇丰银行的分析师披露了即将推出的组件的预期定价,英伟达的 Blackwell AI 服务器机架这次的价格不菲,将超过 300 万美元大关,B100 GPU 等 AI 加速器单卖的标价也很高。这一消息来自《巴伦周刊》(Barron's)的资深撰稿人@firstadopter引用了汇丰银行(HSBC)对英伟达(NVIDIA)Blackwell产品的分析。从人工智能服务器开始,英伟达 GB200 NVL36 服务器机架的单台售价预计为 180 万美元,而更高级的 NVL72 对应产品的售价则高达 300 万美元。我们在之前的报道中也透露了这一具体数额,因此实际数字可能不会太远。关于单卖的人工智能加速卡,汇丰银行表示,单个 B100 人工智能 GPU 的售价预计约为 3 万至 3.5 万美元,而GB200 超级芯片的单价约为 6 万至 7 万美元。这些超级芯片包含两个 GB100 GPU 和一个 Grace Hopper 芯片,以及一个大型系统内存池(HBM3E)。这些估价也与詹森本人透露的价格基本一致。分析师的估算可能没有考虑实时市场情况、采购量和许多其他因素。因此,根据买家类型和订单的严重程度,实际数字可能会更低甚至更高。现在,如果我们从代际上进行比较,Blackwell 价格肯定要比 Hopper 高。如果 Blackwell AI GPU 架构能够复制 Hopper GPU 的成功应用,那么英伟达的市场份额和主导地位又将会有质的飞跃。谁知道呢,也许它将超越苹果和微软等公司,成为全球最有价值的公司之一。到目前为止,我们已经看到Meta 等公司下达了 Blackwell 订单,微软和 OpenAI 也在其中,而这仅仅是首批订单。NVIDIA公司首席执行官黄仁勋(Jensen Huang)早早识别出人工智能热潮的大手笔确实收到了成效。 ... PC版: 手机版:

封面图片

全球首块英伟达H200 AI超级芯片交付 黄仁勋给OpenAI“送货上门”

全球首块英伟达H200 AI超级芯片交付 黄仁勋给OpenAI“送货上门” H200基于英伟达Hopper架构打造,并配备英伟达H200 Tensor Core GPU,处理速度为4.8TB/秒。H200拥有141GB的内存,与前代产品H100相比,H200的容量几乎翻了一番,运行大模型的综合性能相比前代H100提升了60%到90%。英伟达此前表示,H200在运行GPT-3时的性能,将比原始A100高出18倍,同时也比H100快11倍左右。值得一提的是,H200还将与H100兼容,使用H100训练/推理模型的AI企业,可以无缝更换成最新的H200芯片。 ... PC版: 手机版:

封面图片

英伟达最新人工智能芯片H200开始供货

英伟达最新人工智能芯片H200开始供货 3月27日,英伟达宣布,开始供货尖端图像处理半导体 (GPU) “H200”。H200 是面向人工智能的半导体,性能超过现在的主打 GPU “H100”。英伟达相继推出最新的人工智能半导体,目的是保持较高的市场份额。英伟达3月27日公布了 H200 的性能评测结果。用 Meta 的大规模语言模型 (LLM) “Llama 2”进行了比较,结果显示,与 H100 相比,H200 使生成式人工智能导出答案的处理速度最高提高了45%。

封面图片

NVIDIA Blackwell AI GPU的价格约为3-4万美元 开发成本近100亿美元

NVIDIA Blackwell AI GPU的价格约为3-4万美元 开发成本近100亿美元 NVIDIA的Blackwell人工智能图形处理器是业界的下一个大事件,它取代了Hopper H100和H200平台的市场热度和需求。新阵容的首次亮相在市场上引起了极大的反响,无疑将推动未来的发展。然而,由于所有性能都集中在一个 Blackwell GPU 上,英伟达估计在研发方面花费了巨额资金,有报道称,NVIDIA为开发该平台投入了高达 100 亿美元,打破了此前所有财务记录。该消息来自《巴伦周刊》(Barrons)的资深撰稿人@firstadopter,他透露,英伟达为满足市场对其 Blackwell 平台的期望花费了大量资金,该公司计划创造巨大的投资回报率,因为另一条消息显示,英伟达计划将其 Blackwell AI GPU 的售价控制在 3 万至 4 万美元的范围内,这标志着其价格比一代 Hopper 有了相当大的提升。据说,NVIDIA 的 Blackwell B200 的制造成本将超过 6000 美元,该公司计划利用围绕新 GPU 平台的大量关注来获取巨大收益。NVIDIA Blackwell 是首款采用"独家"MCM 设计的产品,在同一芯片上集成了两个 GPU。与 Hopper 系列产品相比,Blackwell 在所有参数上都有 2 至 5 倍的提升,并拥有高达 192 GB 的 HBM3e 内存配置,它的代际提升是惊人的。NVIDIA似乎不会为竞争对手提供任何空间,尽管 AMD 等公司凭借其最新的人工智能产品赢得了一些市场份额,但我们认为从长远来看,NVIDIA显然是赢家,他们将成为市场的主导者。更不用说该公司有望取得的财务进展了,因为他们的投资回报率预计将随着 Blackwell 平台的推出而翻番。 ... PC版: 手机版:

封面图片

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25%

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25% 在人工智能的热潮中,SMCI(超微计算机公司)在相当长的一段时间里都是市场的头条新闻。该公司不仅股价表现优异,同比增长 182%,而且还成功地与英伟达(NVIDIA)建立了合作关系,成为市场的焦点。SMCI 专注于专为人工智能工作负载设计的高性能服务器和存储系统,在过去几个季度里,订单大量涌入。现在,该公司正寻求将其业务扩展到更先进的NVIDIA Blackwell AI GPU 架构,因为有报道称超微计算机公司已经收到了以 Blackwell 为核心的 AI 服务器机架的巨额订单。台湾《经济日报》报道称,超微计算机公司(SMCI)准备出货 25% 的英伟达(NVIDIA)基于 GB200 的 Blackwell AI 服务器,总量将达到 10000 台以上。这一次,NVIDIA似乎赋予了 SMCI 更多的责任,如果进展顺利,最终将转化为巨大的经济效益。这些系统包括:NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统包含 10 个 GPU 的 5U/4U PCIe GPU 系统SuperBlade 在 8U 机柜中最多可配备 20 个 B100 GPU,在 6U 机柜中最多可配备 10 个 B100 GPU2U Hyper 最多可配备 3 个 B100 GPU配备最多 4 个 B100 GPU 的 Supermicro 2U x86 MGX 系统为了与富士康和广达等巨头竞争,SMCI 决定积极拓展供应链,将 Argosy Research 和 Auras Technology 等公司纳入其中。自今年年初以来,该公司已经积累了NVIDIA公司的Blackwell GB200 AI GPU,以确保供应链流程顺畅,最终保证在竞争中占据优势。此外,超微计算机公司已经在水冷要件方面进行了投资,据说这对较新的 Blackwell AI 服务器至关重要。以下是超微服务器阵容的部分特点:超微公司的NVIDIA HGX B200 8GPU 风冷和液冷系统可实现最高的生成式人工智能训练性能。该系统采用 8 个英伟达 Blackwell GPU,通过第五代 NVLink 与 1.5TB 高带宽内存池(速度达 60TB/s)连接,以加快人工智能训练工作负载的速度。超微最畅销的人工智能训练系统配备NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持英伟达即将推出的 HGX B100 8-GPU。超微机架级解决方案采用 GB200 Superchip 系统作为服务器节点,每个节点配备 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。超微的直接到芯片液冷技术最大限度地提高了密度,在一个 44U ORV3 机架上可安装 72 个 GB200 192GB GPU(每个 GPU 的 TDP 为 1200W)。由此看来,SMCI 希望这次以更积极的方式回归,通过与NVIDIA的密切关系,只要他们能保持供应链和产品质量,就可以继续保持现有的市场地位。 ... PC版: 手机版:

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片 HGX H200 GPU NVIDIA 今天宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。 NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前一代 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。 全球领先的服务器制造商和云服务提供商采用 H200 的系统预计将于 2024 年第二季度开始发货。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人