[图]NVIDIA更新Hopper H100规格:性能比预期更强悍

[图]NVIDIA更新HopperH100规格:性能比预期更强悍NVIDIA官方公开了HopperH100GPU的规格信息,性能要比预期的更加强悍。今年早些时候,NVIDIA宣布了适用于AI数据中心的HopperH100GPU,最高可以达到60TFLOPs和30TFLOPsFP64。PC版:https://www.cnbeta.com/articles/soft/1323519.htm手机版:https://m.cnbeta.com/view/1323519.htm

相关推荐

封面图片

NVIDIA最强显卡H100找到外援 产能大增30%

NVIDIA最强显卡H100找到外援产能大增30%NVIDIA的高端GPU采用了台积电的7nm、5nm工艺代工,但是产能瓶颈不在先进工艺上,而是所用的Cowos先进封装上,此前也是依赖台积电,但后者的产能提升有限,还有AMD等公司的订单抢产能。最新消息称,联电也开始给NVIDIA提供外援了,7月份起每个月增加3000片晶圆的Cowos中介层产能,然后再有另一家封测大厂Amkor安靠封装,三方的合作使得A100、H100的整体产能提升了30%。供应量上来了,A100、H100等显卡的供应情况应该会有所缓解,下半年有望解决加价抢购的麻烦。H100基于GH100GPU核心,定制版台积电4nm工艺制造,800晶体管,集成18432个CUDA核心、576个张量核心、60MB二级缓存,支持6144-bitHBM高带宽内存,支持PCIe5.0。性能方面,FP64/FP3260TFlops(每秒60万亿次),FP162000TFlops(每秒2000万亿次),TF321000TFlops(每秒1000万亿次),都三倍于A100,FP84000TFlops(每秒4000万亿次),六倍于A100。...PC版:https://www.cnbeta.com.tw/articles/soft/1369081.htm手机版:https://m.cnbeta.com.tw/view/1369081.htm

封面图片

NVIDIA预告:Blackwell B100 GPU的性能将明年将达到Hopper H200 GPU的两倍多

NVIDIA预告:BlackwellB100GPU的性能将明年将达到HopperH200GPU的两倍多在过去的两年里,英伟达依靠其HopperH100和AmpereA100GPU与不同的合作伙伴合作,服务于全球AI与HPC客户的需求,但这一切即将在2024年随着Blackwell的到来而改变。英伟达的数据中心和公司整体收入因人工智能热潮而大幅提升,看起来这辆列车正在加速前进,目标是在2025年之前推出两个全新的GPU系列。英伟达的第一个全新AI/HPCGPU系列将是Blackwell,以DavidHaroldBlackwell(1919-2010年)的名字命名。该GPU将是GH200Hopper系列的后继产品,并将使用B100芯片。公司计划推出多种产品,包括GB200NVL(NVLINK)、标准GB200和用于视觉计算加速的B40。下一代产品阵容预计将在下一届GTC(2024年)上亮相,并于2024年晚些时候发布。目前的传言估计,英伟达将采用台积电3nm工艺节点生产BlackwellGPU,首批客户将在2024年底(第四季度)收到这款芯片。该GPU还有望成为首款采用芯片组设计的HPC/AI加速器,并将与AMD的InstinctMI300加速器竞争。另一款被披露的芯片是GX200,它是Blackwell的后续产品,计划于2025年推出。英伟达的AI和HPC产品一直以两年为一个周期,因此我们很可能只能在2025年看到该芯片的发布,而实际出货则要到2026年。该产品线将基于X100GPU,包括GX200产品线和面向企业客户的单独X40产品线。NVIDIA习惯以知名科学家的名字命名GPU是众所周知的,它已经为其Jetson系列使用了Xavier代号,因此我们可以期待X100系列会有一个不同的科学家名字。除此之外,我们对X100GPU的了解还很少。英伟达还计划通过新的Bluefield和Spectrum产品对Quantum和Spectrum-X进行重大"翻倍"升级,到2024年提供800Gb/s的传输速度,到2025年提供1600Gb/s的传输速度。这些新的网络和互连接口也将极大地帮助高性能计算/人工智能领域实现所需的性能。...PC版:https://www.cnbeta.com.tw/articles/soft/1396621.htm手机版:https://m.cnbeta.com.tw/view/1396621.htm

封面图片

NVIDIA发布Hopper H200 GPU与基于Grace Hopper的Jupiter超算项目

NVIDIA发布HopperH200GPU与基于GraceHopper的Jupiter超算项目NVIDIA的H100GPU是迄今为止业界需求量最大的人工智能芯片,但NVIDIA希望为客户提供更高的性能。HGXH200是最新的人工智能高性能计算平台,由H200TensorCoreGPU驱动。这些GPU在硬件和软件上都采用了最新的Hopper优化技术,同时提供了迄今为止世界上最快的内存解决方案。NVIDIAH200GPU配备了美光的HBM3e显存解决方案,容量最高可达141GB,带宽达4.8TB/s,与NVIDIAA100相比带宽增加了2.4倍,容量增加了一倍。在Llama2(700亿参数LLM)等应用中,这种新的内存解决方案使英伟达的人工智能推理性能比H100GPU提高了近一倍。在解决方案方面,NVIDIAH200GPU将广泛应用于4路和8路GPU配置的HGXH200服务器。HGX系统中的8路H200GPU配置可提供32PetaFLOPs的FP8计算性能和1.1TB的内存容量。这些GPU还将与现有的HGXH100系统兼容,使客户更容易升级他们的平台。NVIDIA合作伙伴,如华硕(ASUS)、华擎(ASRockRack)、戴尔(Dell)、Eviden、技嘉(GIGABYTE)、惠普(HewlettPackardEnterprise)、英格拉思(Ingrasys)、联想(Lenovo)、QCT、威联(Wiwynn)、超微(Supermicro)和纬创(Wistron),这些厂商将在2024年第二季度H200GPU上市时提供更新的解决方案。除了发布H200GPU之外,NVIDIA还宣布了一项由其GraceHopper超级芯片(GH200)驱动的大型超级计算机项目。这台超级计算机被称为"木星"(Jupiter),位于德国尤利希研究中心(ForschungszentrumJülich),是欧洲高性能计算联合项目(EuroHPCJointUndertaking)的一部分,由Eviden和ParTec公司承包。这台超级计算机将用于材料科学、气候研究、药物发现等领域。这也是英伟达于11月发布的第二台超级计算机,上一台是Isambard-AI,可提供高达21Exaflops的人工智能性能。在配置方面,Jupiter超级计算机基于Eviden的BullSequanaXH3000,采用全液冷架构。它总共拥有24000个英伟达GH200GraceHopper超级芯片,这些芯片通过公司的Quantum-2Infiniband互联。考虑到每个格雷斯CPU包含288个Neoverse内核,我们将看到Jupiter单是CPU方面就有近700万个ARM内核(确切地说是691.2万个)。性能指标包括90Exaflops的人工智能训练和1Exaflop的高性能计算。这台超级计算机预计将于2024年安装完毕。总体而言,这些都是英伟达公司面向未来的重大更新,它将继续以其强大的硬件和软件技术引领人工智能世界的发展。...PC版:https://www.cnbeta.com.tw/articles/soft/1396619.htm手机版:https://m.cnbeta.com.tw/view/1396619.htm

封面图片

NVIDIA H100计算卡强势垄断AI:性能暴涨4.5倍 对手不存在的

NVIDIAH100计算卡强势垄断AI:性能暴涨4.5倍对手不存在的HopperH100早在2022年3月就发布了,GH100GPU核心,台积电4nm工艺,800亿晶体管,814平方毫米面积。它集成18432个CUDA核心、576个Tensor核心、60MB二级缓存,搭配6144-bit位宽的六颗HBM3/HBM2e高带宽内存,支持第四代NVLink、PCIe5.0总线。相比于ChatGPT等目前普遍使用的A100,H100的理论性能提升了足足6倍。不过直到最近,H100才开始大规模量产,微软、谷歌、甲骨文等云计算服务已开始批量部署。MLPerfInference是测试AI推理性能的行业通行标准,最新版本v3.0,也是这个工具诞生以来的第七个大版本更新。对比半年前的2.1版本,NVIDIAH100的性能在不同测试项目中提升了7-54%不等,其中进步最大的是RetinaNet全卷积神经网络测试,3DU-Net医疗成像网络测试也能提升31%。对比A100,跨代提升更是惊人,无延迟离线测试的变化幅度少则1.8倍,多则可达4.5倍,延迟服务器测试少则超过1.7倍,多则也能接近4倍。其中,DLRM、BERT训练模型的提升最为显著。NVIDIA还颇为羞辱性地列上了Intel最新数据中心处理器旗舰至强铂金8480+的成绩,虽然有56个核心,但毕竟术业有专攻,让通用处理器跑AI训练实在有点为难,可怜的分数不值一提,BERT99.9%甚至都无法运行,而这正是NVIDIAH100的最强项。此外,NVIDIA还第一次公布了L4GPU的性能。它基于最新的Ada架构,只有Tensor张量核心,支持FP8浮点计算,主要用于AI推理,也支持AI视频编码加速。对比上代T4,L4的性能可加速2.2-3.1倍之多,最关键的是它功耗只有72W,再加上单槽半高造型设计,可谓小巧彪悍。几乎所有的大型云服务供应商都部署了T4,升级到L4只是时间问题,Google就已经开始内测。...PC版:https://www.cnbeta.com.tw/articles/soft/1353335.htm手机版:https://m.cnbeta.com.tw/view/1353335.htm

封面图片

AI晶片热潮退? 传微软砍NVIDIA H100订单

AI晶片热潮退?传微软砍NVIDIAH100订单根据市场消息,微软Microsoft365Copilot使用情况不如预期、ChatGPT退潮,传微软下修辉达(NVIDIA)高阶人工智能(AI)伺服器图形处理器(GPU)H100晶片订单,显示出目前大规模AI运算市场对于H100的需求已缓和,近期难再出现客户疯狂下单的情况。https://www.sinchew.com.my/?p=4997879

封面图片

强大的NVIDIA H100 Tensor Core GPU将于10月发货

强大的NVIDIAH100TensorCoreGPU将于10月发货在今天的GTC会议主题演讲中,NVIDIA宣布其H100TensorCoreGPU已全面投产,戴尔、联想、思科、Atos、富士通、技嘉、惠普企业和超微等技术合作伙伴将在下个月开始交付围绕H100构建的产品。PC版:https://www.cnbeta.com/articles/soft/1318635.htm手机版:https://m.cnbeta.com/view/1318635.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人