英伟达 H100 (Hopper ) 首次亮相 MLPerf,测试结果刷新纪录

英伟达 H100 (Hopper ) 首次亮相 MLPerf,测试结果刷新纪录 北京时间 9 月 9 日,MLCommons 社区发布了最新的 MLPerf 2.1 基准测试结果,新一轮基准测试拥有近 5300 个性能结果和 2400 个功耗测量结果,分别比上一轮提升了 1.37 倍和 1.09 倍,MLPerf 的适用范围进一步扩大。 阿里巴巴、华硕、Azure、壁仞科技、戴尔、富士通、技嘉、H3C、HPE、浪潮、英特尔、Krai、联想、Moffett、Nettrix、Neural Magic、英伟达、OctoML、高通、SAPEON 和 Supermicro 均是本轮测试的贡献者。 其中,英伟达表现依然亮眼,首次携 H100 (又名 Hopper)参加 MLPerf 测试,并在所有工作负载中刷新世界纪录。这些测试结果表明,对于那些需要在高级 AI 模型上获得最高性能的用户来说,Hopper 是最优选择。 此外,NVIDIA A100 Tensor Core GPU 和用于 AI 机器人的 NVIDIA Jetson AGX Orin模块在所有 MLPerf 测试中继续表现出整体领先的推理性能,包括图像和语音识别自然语言处理和推荐系统。前文: 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60% 在美国加州圣何塞举行的 AI 特别活动中,AMD 宣布正式推出其旗舰 AI GPU 加速器 MI300X,并称其性能比英伟达的 H100 芯片提高了 60%。 据 AMD 介绍,新芯片为性能最高的芯片,拥有超过 1500 亿个晶体管。与英伟达 H100 芯片相比,AMD 新芯片的内存为其 2.4 倍,内存带宽为其 1.6 倍,训练性能与 H100 芯片相当,在运行 AI 模型方面则比英伟达快得多。 、

封面图片

美国限制向中东地区出口英伟达的 H100 和 A100 GPU

美国限制向中东地区出口英伟达的 H100 和 A100 GPU 美国限制英伟达向中东地区出口的其旗舰 AI 芯片 H100 和 A100 GPU,原因是为了防止这些芯片转售到中国。美国已经限制英伟达向中国出售 H100 和 A100 GPU,英伟达为此专门开发了降低性能的型号 H800 和 A800。中东的阿联酋和沙特都是英伟达的大客户,而这两个国家同时也与中国关系密切,其中沙特还与中国在 AI 项目上展开合作。美国担心英伟达的 H100 和 A100 GPU 可能会从中东国家转手到中国,或者中国会在中东国家训练 AI 模型然后将技术带回中国。来源 , 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

英特尔推出性能超越英伟达 H100 的 Gaudi 3 AI 加速芯片

英特尔推出性能超越英伟达 H100 的 Gaudi 3 AI 加速芯片 英特尔 Vision 2024 大会的第二天,英特尔正式推出了 Gaudi 3 加速芯片。Gaudi 3 使用台积电 5nm 工艺制造,热设计功耗为 900W ,FP8 精度下的峰值性能为 1835 TFLOPS。英特尔称 Gaudi 3 在 16 个芯片组成的加速集群中以 FP8 精度训练 Llama2-13B 时比性能 H100 高出 1.7 倍。同时,英特尔预计 Gaudi 3 的推理性能将比 H200/H100 提高 1.3 倍到 1.5 倍,能效比将高 2.3 倍。英特尔已经向客户提供了样片,并将在第三季度正式批量交付。

封面图片

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求 微软于今天宣布加强和英伟达的合作,将 GPU 从此前的 A100 升级到 H100,推出专门针对人工智能开发的全新的虚拟机。 微软表示该虚拟机主要面向需要整合或开发人工智能的企业,配置如下: ▪8 块英伟达 H100 Tensor Core GPU,通过下一代 NVSwitch 和 NVLink 4.0 互连 ▪在非阻塞(non-blocking)的胖树(Fat-Tree)架构网络下,每块 GPU 的 NVIDIA Quantum-2 CX7 InfiniBand 性能可以达到 400 Gb / s,每台虚拟机可以达到 3.2Tb / s。 ▪通过 NVSwitch 和 NVLink 4.0,每台虚拟机内的 8 个本地 GPU 之间的对分带宽为 3.6TB / s。 ▪采用英特尔第 4 代 Xeon Scalable 处理器 ▪使用 PCIe Gen5 连接 GPU,每个 GPU 带宽为 64GB / s ▪16 通道 4800MHz DDR5 DIMM 微软先前在 Azure OpenAI 服务中宣布了 ChatGPT 相关服务,而本次虚拟机是该服务的补充,它允许第三方通过 Azure 访问聊天机器人技术。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

英伟达的H100都卖给了谁?

英伟达的H100都卖给了谁? •Meta:150000 •微软:150000 •谷歌、亚马逊、甲骨文、腾讯:50000 •CoreWeave:40000 •百度:30000 •阿里巴巴:25000 •字节跳动:20000 •Lambda:20000 •特斯拉:15000 ​​​ #图片 频道:@kejiqu 群组:@kejiquchat

封面图片

英伟达公告,在其此前表示对华出口审批令将影响H100芯片研制及本地客户服务等后,美国政府批准其为完成H100研制、在2023年3

英伟达公告,在其此前表示对华出口审批令将影响H100芯片研制及本地客户服务等后,美国政府批准其为完成H100研制、在2023年3月1日前为向美国的A100芯片客户提供支持、以及在2023年9月1日前为在香港完成A100和H100订单等目的而进行相关出口活动。 (路透社)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人