英伟达发布Blackwell架构GPU:包括B200和GB200,大幅提升AI计算性能http://www.expreview.

None

相关推荐

封面图片

英伟达新一代架构Blackwell来了:RTX 50、B200都要用 功耗将超1000W

英伟达新一代架构Blackwell来了:RTX50、B200都要用功耗将超1000W按照最新爆料,B100将采用两个基于台积电CoWoS-L封装技术的芯片,连接到8个8-HiHBM3e显存堆栈,总容量为192GB,而这还不是唯一。爆料中还提到,B200的下一代BlackwellGP更新将利用12-Hi来实现更高的容量,显存达到了288GB,但不确定是否是HBM4。之前,戴尔首席运营官JeffClarke就曾爆料:英伟达将于2025年推出载有“Blackwell”架构的B200产品,功耗或将达到1000W。事实上基于这个架构的RTX50系列功耗也不会太乐观,之前有消息称,RTX5090用PCIeGen6的16-Pin供电接口后,功耗可以超过600W,而高端系列可以超过450W,中端功耗在300-350W之间。所以在这样架构的功耗下,RTX5090显卡将比RTX4090快60%到70%(近一倍)也不稀奇吧?...PC版:https://www.cnbeta.com.tw/articles/soft/1424050.htm手机版:https://m.cnbeta.com.tw/view/1424050.htm

封面图片

辉达GTC大会》发表顶规GPU架构Blackwell、晶片GB200!但AI概念币齐跌(Near、RNDR、AGIX..)htt

封面图片

英伟达预计Blackwell架构GPU供应依然受限:市场需求远远超过供应量https://www.expreview.com/9

封面图片

英伟达发布用于AI的"世界上最强大芯片"Blackwell B200 GPU

英伟达发布用于AI的"世界上最强大芯片"BlackwellB200GPUNVIDIA首席执行官黄仁勋在GTC现场直播中举起他的新GPU(左边),右边是H100。NVIDIA表示,新的B200GPU拥有2080亿个晶体管,可提供高达20petaflops的FP4算力,而GB200将两个GPU和一个GraceCPU结合在一起,可为LLM推理工作负载提供30倍的性能,同时还可能大大提高效率。NVIDIA表示,与H100相比,它的成本和能耗"最多可降低25倍"。NVIDIA声称,训练一个1.8万亿个参数的模型以前需要8000个HopperGPU和15兆瓦的电力。如今,NVIDIA首席执行官表示,2000个BlackwellGPU就能完成这项工作,耗电量仅为4兆瓦。NVIDIA表示,在具有1750亿个参数的GPT-3LLM基准测试中,GB200的性能是H100的7倍,而NVIDIA称其训练速度是H100的4倍。这就是GB200的样子。两个GPU、一个CPU、一块电路板NVIDIA介绍说,其中一项关键改进是采用了第二代变压器引擎,通过为每个神经元使用四个比特而不是八个比特,将计算能力、带宽和模型大小提高了一倍(前面提到的FP4的20petaflops)。第二个关键区别只有在连接大量GPU时才会出现:新一代NVLink交换机可让576个GPU相互连接,双向带宽达到每秒1.8TB。这就要求NVIDIA打造一个全新的网络交换芯片,其中包含500亿个晶体管和一些自己的板载计算:NVIDIA表示,该芯片拥有3.6teraflops的FP8处理能力。NVIDIA表示将通过Blackwell增加FP4和FP6NVIDIA表示,在此之前,由16个GPU组成的集群有60%的时间用于相互通信,只有40%的时间用于实际计算。当然,NVIDIA还指望企业大量购买这些GPU,并将它们包装成更大的设计,比如GB200NVL72,它将36个CPU和72个GPU集成到一个液冷机架中,可实现总计720petaflops的AI训练性能或1440petaflops(又称1.4exaflops)的推理性能。它内部有近两英里长的电缆,共有5000条独立电缆。GB200NVL72机架上的每个托盘包含两个GB200芯片或两个NVLink交换机,每个机架有18个前者和9个后者。NVIDIA称,其中一个机架总共可支持27万亿个参数模型。据传,GPT-4的参数模型约为1.7万亿。该公司表示,亚马逊、Google、微软和甲骨文都已计划在其云服务产品中提供NVL72机架,但不清楚它们将购买多少。当然,NVIDIA也乐于为公司提供其他解决方案。下面是用于DGXGB200的DGXSuperpod,它将八个系统合而为一,总共拥有288个CPU、576个GPU、240TB内存和11.5exaflops的FP4计算能力。NVIDIA称,其系统可扩展至数万GB200超级芯片,并通过其新型Quantum-X800InfiniBand(最多144个连接)或Spectrum-X800以太网(最多64个连接)与800Gbps网络连接在一起。我们预计今天不会听到任何关于新游戏GPU的消息,因为这一消息是在NVIDIA的GPU技术大会上发布的,而该大会通常几乎完全专注于GPU计算和人工智能,而不是游戏。不过,BlackwellGPU架构很可能也会为未来的RTX50系列桌面显卡提供算力。...PC版:https://www.cnbeta.com.tw/articles/soft/1424163.htm手机版:https://m.cnbeta.com.tw/view/1424163.htm

封面图片

英伟达GB200供不应求追单日月光和京元电等封测厂英伟达以全新Blackwell架构打造的GB200与B系列人工智能芯片获得客户

封面图片

NVIDIA预告:Blackwell B100 GPU的性能将明年将达到Hopper H200 GPU的两倍多

NVIDIA预告:BlackwellB100GPU的性能将明年将达到HopperH200GPU的两倍多在过去的两年里,英伟达依靠其HopperH100和AmpereA100GPU与不同的合作伙伴合作,服务于全球AI与HPC客户的需求,但这一切即将在2024年随着Blackwell的到来而改变。英伟达的数据中心和公司整体收入因人工智能热潮而大幅提升,看起来这辆列车正在加速前进,目标是在2025年之前推出两个全新的GPU系列。英伟达的第一个全新AI/HPCGPU系列将是Blackwell,以DavidHaroldBlackwell(1919-2010年)的名字命名。该GPU将是GH200Hopper系列的后继产品,并将使用B100芯片。公司计划推出多种产品,包括GB200NVL(NVLINK)、标准GB200和用于视觉计算加速的B40。下一代产品阵容预计将在下一届GTC(2024年)上亮相,并于2024年晚些时候发布。目前的传言估计,英伟达将采用台积电3nm工艺节点生产BlackwellGPU,首批客户将在2024年底(第四季度)收到这款芯片。该GPU还有望成为首款采用芯片组设计的HPC/AI加速器,并将与AMD的InstinctMI300加速器竞争。另一款被披露的芯片是GX200,它是Blackwell的后续产品,计划于2025年推出。英伟达的AI和HPC产品一直以两年为一个周期,因此我们很可能只能在2025年看到该芯片的发布,而实际出货则要到2026年。该产品线将基于X100GPU,包括GX200产品线和面向企业客户的单独X40产品线。NVIDIA习惯以知名科学家的名字命名GPU是众所周知的,它已经为其Jetson系列使用了Xavier代号,因此我们可以期待X100系列会有一个不同的科学家名字。除此之外,我们对X100GPU的了解还很少。英伟达还计划通过新的Bluefield和Spectrum产品对Quantum和Spectrum-X进行重大"翻倍"升级,到2024年提供800Gb/s的传输速度,到2025年提供1600Gb/s的传输速度。这些新的网络和互连接口也将极大地帮助高性能计算/人工智能领域实现所需的性能。...PC版:https://www.cnbeta.com.tw/articles/soft/1396621.htm手机版:https://m.cnbeta.com.tw/view/1396621.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人