NVIDIA预告:Blackwell B100 GPU的性能将明年将达到Hopper H200 GPU的两倍多

NVIDIA预告:BlackwellB100GPU的性能将明年将达到HopperH200GPU的两倍多在过去的两年里,英伟达依靠其HopperH100和AmpereA100GPU与不同的合作伙伴合作,服务于全球AI与HPC客户的需求,但这一切即将在2024年随着Blackwell的到来而改变。英伟达的数据中心和公司整体收入因人工智能热潮而大幅提升,看起来这辆列车正在加速前进,目标是在2025年之前推出两个全新的GPU系列。英伟达的第一个全新AI/HPCGPU系列将是Blackwell,以DavidHaroldBlackwell(1919-2010年)的名字命名。该GPU将是GH200Hopper系列的后继产品,并将使用B100芯片。公司计划推出多种产品,包括GB200NVL(NVLINK)、标准GB200和用于视觉计算加速的B40。下一代产品阵容预计将在下一届GTC(2024年)上亮相,并于2024年晚些时候发布。目前的传言估计,英伟达将采用台积电3nm工艺节点生产BlackwellGPU,首批客户将在2024年底(第四季度)收到这款芯片。该GPU还有望成为首款采用芯片组设计的HPC/AI加速器,并将与AMD的InstinctMI300加速器竞争。另一款被披露的芯片是GX200,它是Blackwell的后续产品,计划于2025年推出。英伟达的AI和HPC产品一直以两年为一个周期,因此我们很可能只能在2025年看到该芯片的发布,而实际出货则要到2026年。该产品线将基于X100GPU,包括GX200产品线和面向企业客户的单独X40产品线。NVIDIA习惯以知名科学家的名字命名GPU是众所周知的,它已经为其Jetson系列使用了Xavier代号,因此我们可以期待X100系列会有一个不同的科学家名字。除此之外,我们对X100GPU的了解还很少。英伟达还计划通过新的Bluefield和Spectrum产品对Quantum和Spectrum-X进行重大"翻倍"升级,到2024年提供800Gb/s的传输速度,到2025年提供1600Gb/s的传输速度。这些新的网络和互连接口也将极大地帮助高性能计算/人工智能领域实现所需的性能。...PC版:https://www.cnbeta.com.tw/articles/soft/1396621.htm手机版:https://m.cnbeta.com.tw/view/1396621.htm

相关推荐

封面图片

NVIDIA发布Hopper H200 GPU与基于Grace Hopper的Jupiter超算项目

NVIDIA发布HopperH200GPU与基于GraceHopper的Jupiter超算项目NVIDIA的H100GPU是迄今为止业界需求量最大的人工智能芯片,但NVIDIA希望为客户提供更高的性能。HGXH200是最新的人工智能高性能计算平台,由H200TensorCoreGPU驱动。这些GPU在硬件和软件上都采用了最新的Hopper优化技术,同时提供了迄今为止世界上最快的内存解决方案。NVIDIAH200GPU配备了美光的HBM3e显存解决方案,容量最高可达141GB,带宽达4.8TB/s,与NVIDIAA100相比带宽增加了2.4倍,容量增加了一倍。在Llama2(700亿参数LLM)等应用中,这种新的内存解决方案使英伟达的人工智能推理性能比H100GPU提高了近一倍。在解决方案方面,NVIDIAH200GPU将广泛应用于4路和8路GPU配置的HGXH200服务器。HGX系统中的8路H200GPU配置可提供32PetaFLOPs的FP8计算性能和1.1TB的内存容量。这些GPU还将与现有的HGXH100系统兼容,使客户更容易升级他们的平台。NVIDIA合作伙伴,如华硕(ASUS)、华擎(ASRockRack)、戴尔(Dell)、Eviden、技嘉(GIGABYTE)、惠普(HewlettPackardEnterprise)、英格拉思(Ingrasys)、联想(Lenovo)、QCT、威联(Wiwynn)、超微(Supermicro)和纬创(Wistron),这些厂商将在2024年第二季度H200GPU上市时提供更新的解决方案。除了发布H200GPU之外,NVIDIA还宣布了一项由其GraceHopper超级芯片(GH200)驱动的大型超级计算机项目。这台超级计算机被称为"木星"(Jupiter),位于德国尤利希研究中心(ForschungszentrumJülich),是欧洲高性能计算联合项目(EuroHPCJointUndertaking)的一部分,由Eviden和ParTec公司承包。这台超级计算机将用于材料科学、气候研究、药物发现等领域。这也是英伟达于11月发布的第二台超级计算机,上一台是Isambard-AI,可提供高达21Exaflops的人工智能性能。在配置方面,Jupiter超级计算机基于Eviden的BullSequanaXH3000,采用全液冷架构。它总共拥有24000个英伟达GH200GraceHopper超级芯片,这些芯片通过公司的Quantum-2Infiniband互联。考虑到每个格雷斯CPU包含288个Neoverse内核,我们将看到Jupiter单是CPU方面就有近700万个ARM内核(确切地说是691.2万个)。性能指标包括90Exaflops的人工智能训练和1Exaflop的高性能计算。这台超级计算机预计将于2024年安装完毕。总体而言,这些都是英伟达公司面向未来的重大更新,它将继续以其强大的硬件和软件技术引领人工智能世界的发展。...PC版:https://www.cnbeta.com.tw/articles/soft/1396619.htm手机版:https://m.cnbeta.com.tw/view/1396619.htm

封面图片

NVIDIA“最强AI芯片”Blackwell B200 GPU令业内惊呼新的摩尔定律诞生

NVIDIA“最强AI芯片”BlackwellB200GPU令业内惊呼新的摩尔定律诞生在GTC直播中,黄仁勋左手举着B200GPU,右手举着H100此外,将两个B200GPU与单个GraceCPU结合在一起的GB200,可以为LLM推理工作负载提供30倍的性能,并且显著提高效率。黄仁勋还强调称:“与H100相比,GB200的成本和能耗降低了25倍!关于市场近期颇为关注的能源消耗问题,B200GPU也交出了最新的答卷。黄仁勋表示,此前训练一个1.8万亿参数模型,需要8000个HopperGPU并消耗15MW电力。但如今,2000个BlackwellGPU就可以实现这一目标,耗电量仅为4MW。在拥有1750亿参数的GPT-3大模型基准测试中,GB200的性能是H100的7倍,训练速度是H100的4倍。值得一提的是,B200GPU的重要进步之一,是采用了第二代Transformer引擎。它通过对每个神经元使用4位(20petaflopsFP4)而不是8位,直接将计算能力、带宽和模型参数规模翻了一倍。而只有当这些大量的GPU连接在一起时,第二个重要区别才会显现,那就是新一代NVLink交换机可以让576个GPU相互通信,双向带宽高达1.8TB/秒。而这就需要英伟达构建一个全新的网络交换芯片,其中包括500亿个晶体管和一些自己的板载计算:拥有3.6teraflopsFP8处理能力。在此之前,仅16个GPU组成的集群,就会耗费60%的时间用于相互通信,只有40%的时间能用于实际计算。一石激起千层浪,“最强AI芯片”的推出让网友纷纷赞叹。其中英伟达高级科学家JimFan直呼:Blackwell新王诞生,新的摩尔定律已经应运而生。DGXGrace-BlackwellGB200:单个机架的计算能力超过1Exaflop。黄仁勋交付给OpenAI的第一台DGX是0.17Petaflops。GPT-4的1.8T参数可在2000个Blackwell上完成90天的训练。还有网友感叹:1000倍成就达成!Blackwell标志着在短短8年内,NVIDIAAI芯片的计算能力实现了提升1000倍的历史性成就。2016年,“Pascal”芯片的计算能力仅为19teraflops,而今天Blackwell的计算能力已经达到了20000teraflops。相关文章:全程回顾黄仁勋GTC演讲:Blackwell架构B200芯片登场英伟达扩大与中国车企合作为比亚迪提供下一代车载芯片英伟达进军机器人领域发布世界首款人形机器人通用基础模型台积电、新思科技首次采用NVIDIA计算光刻平台:最快加速60倍NVIDIA共享虚拟现实环境技术将应用于苹果VisionPro黄仁勋GTC演讲全文:最强AI芯片Blackwell问世推理能力提升30倍...PC版:https://www.cnbeta.com.tw/articles/soft/1424217.htm手机版:https://m.cnbeta.com.tw/view/1424217.htm

封面图片

NVIDIA将在"Blackwell"GPU ASIC上采用 GDDR7 内存

NVIDIA将在"Blackwell"GPUASIC上采用GDDR7内存在"Blackwell"一代中,某些GPUASIC类型将坚持使用较旧的内存标准,如GDDR6甚至GDDR6X。这些将是当前AD106和AD107ASIC的后继产品,为RTX4060Ti及以下的SKU提供基础。英伟达与美光科技(MicronTechnology)共同开发了GDDR6X标准,后者是英伟达芯片的独家供应商。GDDR6X可扩展至23Gbps和16Gbit,这意味着英伟达可以利用GDDR6X为其低端产品堆栈提供充足的性能;特别是考虑到其GDDR7实现只能以28Gbps运行,尽管市场上有32Gbps甚至36Gbps的芯片。即使英伟达为其入门级主流芯片选择了普通的GDDR6标准,该技术也可扩展到20Gbps。...PC版:https://www.cnbeta.com.tw/articles/soft/1424481.htm手机版:https://m.cnbeta.com.tw/view/1424481.htm

封面图片

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元

NVIDIABlackwellGPU预计售价3.5万美元AI服务器售价高达300万美元NVIDIA的Blackwell产品包括GPU、超级芯片平台和服务器,是每一家热衷于人工智能的大型科技公司所梦寐以求的。来自汇丰银行的分析师披露了即将推出的组件的预期定价,英伟达的BlackwellAI服务器机架这次的价格不菲,将超过300万美元大关,B100GPU等AI加速器单卖的标价也很高。这一消息来自《巴伦周刊》(Barron's)的资深撰稿人@firstadopter引用了汇丰银行(HSBC)对英伟达(NVIDIA)Blackwell产品的分析。从人工智能服务器开始,英伟达GB200NVL36服务器机架的单台售价预计为180万美元,而更高级的NVL72对应产品的售价则高达300万美元。我们在之前的报道中也透露了这一具体数额,因此实际数字可能不会太远。关于单卖的人工智能加速卡,汇丰银行表示,单个B100人工智能GPU的售价预计约为3万至3.5万美元,而GB200超级芯片的单价约为6万至7万美元。这些超级芯片包含两个GB100GPU和一个GraceHopper芯片,以及一个大型系统内存池(HBM3E)。这些估价也与詹森本人透露的价格基本一致。分析师的估算可能没有考虑实时市场情况、采购量和许多其他因素。因此,根据买家类型和订单的严重程度,实际数字可能会更低甚至更高。现在,如果我们从代际上进行比较,Blackwell价格肯定要比Hopper高。如果BlackwellAIGPU架构能够复制HopperGPU的成功应用,那么英伟达的市场份额和主导地位又将会有质的飞跃。谁知道呢,也许它将超越苹果和微软等公司,成为全球最有价值的公司之一。到目前为止,我们已经看到Meta等公司下达了Blackwell订单,微软和OpenAI也在其中,而这仅仅是首批订单。NVIDIA公司首席执行官黄仁勋(JensenHuang)早早识别出人工智能热潮的大手笔确实收到了成效。...PC版:https://www.cnbeta.com.tw/articles/soft/1430999.htm手机版:https://m.cnbeta.com.tw/view/1430999.htm

封面图片

NVIDIA Blackwell GPU的后继型号为"Rubin" 将于2025年底推出

NVIDIABlackwellGPU的后继型号为"Rubin"将于2025年底推出访问:Saily-使用eSIM实现手机全球数据漫游安全可靠源自NordVPN这一点将变得尤为重要,因为英伟达目前的架构已经接近千瓦级,这样下去计算中心将无法无限制地扩展。天风国际证券分析师郭明𫓹(Mich-ChiKuo)表示,英伟达基于"Rubin"的首款AIGPU--R100预计将于2025年第四季度进入量产,这意味着它可能会在更早的时间内亮相和展示;而部分客户可能会更早地获得芯片,以便进行评估。根据郭明𫓹(Mich-ChiKuo)的说法,R100预计将采用台积电的3纳米EUVFinFET工艺,特别是台积电-N3节点。相比之下,新的"Blackwell"B100使用的是TSMC-N4P。这将是一款芯片级GPU,采用4倍光罩设计(Blackwell采用3.3倍网罩),并与B100一样使用台积电的CoWoS-L封装。预计该芯片将成为HBM4堆叠内存的首批客户之一,具有8个堆叠,堆叠高度尚不清楚。GraceRubenGR200CPU+GPU组合可能采用在3纳米节点上制造的全新"Grace"CPU,很可能采用光学收缩技术以降低功耗。2025年第四季度的量产路线图目标意味着客户将在2026年初开始收到这些芯片。...PC版:https://www.cnbeta.com.tw/articles/soft/1430283.htm手机版:https://m.cnbeta.com.tw/view/1430283.htm

封面图片

GeForce RTX 5090 GPU将采用大面积单片式GB202"Blackwell"芯片

GeForceRTX5090GPU将采用大面积单片式GB202"Blackwell"芯片现在,根据内部人士Kopite7kimi发布的一条新推文,GPU将采用单片式设计。虽然英伟达已经为其HPC/AI芯片(如B100和B200)转向了芯片组设计,但该公司似乎仍希望为其面向消费者的GPU芯片保留单片封装。据说,GB202"Blackwell"GPU将采用物理单片设计,而且从早先的报道中,我们知道它的SM和内核数量预计将是GB203的两倍,而GB203则是用于GeForceRTX5080等产品的更为精简的芯片。这将使两款显卡的性能相差悬殊,但RTX5090将是一款不折不扣的猛兽。让我们先来谈谈GB202"黑井"图形处理器本身,目前可以确认的是它会是单片设计,英伟达可能会将两个GB203芯片封装在一个单片封装上,而不会使其看起来像Chiplet结构。这样可以更好地实现芯片间的通信,而不会出现芯片外通信瓶颈。虽然NVIDIA拥有克服瓶颈的解决方案,如NVLINK和其他互连技术,但它们可能会有点昂贵,因为它们会增加GPU的复杂性。英伟达已经有了一种解决方案,这种解决方案已经以GA100和GH100的形式在市场上推出,GA100和GH100本质上是一个较小芯片的两半,通过互连连接,并通过一个分离的二级缓存进行通信。英伟达的BryanCatanzaro解释说,这种实现方式提高了可扩展性,他们最初向这种设计的过渡非常顺利。预计该芯片还将采用台积电4NP工艺节点(5纳米),密度将提高30%(晶体管),因此除了架构升级外,也会带来不错的改进。现在,NVIDIA可能也会在游戏方面采取同样的做法,这意味着如果整个项目取得成功,那么我们就能在未来看到B100/B200型芯片组产品。现在回到NVIDIAGeForceRTX5090,有多份报告称,我们可能会在这款下一代旗舰显卡上采用512bit接口,而且已经有消息称,新一代怪兽级别显卡将采用全新的冷却和PCB解决方案。考虑到有传言称AMD将凭借其RDNA4阵容退出超高端图形性能领域,看起来英伟达一旦推出BlackwellGPU,可能会进一步推动其在游戏领域的领先地位。GeForceRTX5090预计将在RTX5080上市几周后推出,而RTX5080据传将是首款上架的Blackwell游戏GPU。...PC版:https://www.cnbeta.com.tw/articles/soft/1432488.htm手机版:https://m.cnbeta.com.tw/view/1432488.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人