NVIDIA H100计算卡强势垄断AI:性能暴涨4.5倍 对手不存在的
NVIDIAH100计算卡强势垄断AI:性能暴涨4.5倍对手不存在的HopperH100早在2022年3月就发布了,GH100GPU核心,台积电4nm工艺,800亿晶体管,814平方毫米面积。它集成18432个CUDA核心、576个Tensor核心、60MB二级缓存,搭配6144-bit位宽的六颗HBM3/HBM2e高带宽内存,支持第四代NVLink、PCIe5.0总线。相比于ChatGPT等目前普遍使用的A100,H100的理论性能提升了足足6倍。不过直到最近,H100才开始大规模量产,微软、谷歌、甲骨文等云计算服务已开始批量部署。MLPerfInference是测试AI推理性能的行业通行标准,最新版本v3.0,也是这个工具诞生以来的第七个大版本更新。对比半年前的2.1版本,NVIDIAH100的性能在不同测试项目中提升了7-54%不等,其中进步最大的是RetinaNet全卷积神经网络测试,3DU-Net医疗成像网络测试也能提升31%。对比A100,跨代提升更是惊人,无延迟离线测试的变化幅度少则1.8倍,多则可达4.5倍,延迟服务器测试少则超过1.7倍,多则也能接近4倍。其中,DLRM、BERT训练模型的提升最为显著。NVIDIA还颇为羞辱性地列上了Intel最新数据中心处理器旗舰至强铂金8480+的成绩,虽然有56个核心,但毕竟术业有专攻,让通用处理器跑AI训练实在有点为难,可怜的分数不值一提,BERT99.9%甚至都无法运行,而这正是NVIDIAH100的最强项。此外,NVIDIA还第一次公布了L4GPU的性能。它基于最新的Ada架构,只有Tensor张量核心,支持FP8浮点计算,主要用于AI推理,也支持AI视频编码加速。对比上代T4,L4的性能可加速2.2-3.1倍之多,最关键的是它功耗只有72W,再加上单槽半高造型设计,可谓小巧彪悍。几乎所有的大型云服务供应商都部署了T4,升级到L4只是时间问题,Google就已经开始内测。...PC版:https://www.cnbeta.com.tw/articles/soft/1353335.htm手机版:https://m.cnbeta.com.tw/view/1353335.htm
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人