微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求 微软于今天宣布加强和英伟达的合作,将 GPU 从此前的 A100 升级到 H100,推出专门针对人工智能开发的全新的虚拟机。 微软表示该虚拟机主要面向需要整合或开发人工智能的企业,配置如下: ▪8 块英伟达 H100 Tensor Core GPU,通过下一代 NVSwitch 和 NVLink 4.0 互连 ▪在非阻塞(non-blocking)的胖树(Fat-Tree)架构网络下,每块 GPU 的 NVIDIA Quantum-2 CX7 InfiniBand 性能可以达到 400 Gb / s,每台虚拟机可以达到 3.2Tb / s。 ▪通过 NVSwitch 和 NVLink 4.0,每台虚拟机内的 8 个本地 GPU 之间的对分带宽为 3.6TB / s。 ▪采用英特尔第 4 代 Xeon Scalable 处理器 ▪使用 PCIe Gen5 连接 GPU,每个 GPU 带宽为 64GB / s ▪16 通道 4800MHz DDR5 DIMM 微软先前在 Azure OpenAI 服务中宣布了 ChatGPT 相关服务,而本次虚拟机是该服务的补充,它允许第三方通过 Azure 访问聊天机器人技术。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

微软 Azure ND H100 v5 虚拟机发布:采用 8 至上千个 NVIDIA H100 Tensor Core GPU

微软 Azure ND H100 v5 虚拟机发布:采用 8 至上千个 NVIDIA H100 Tensor Core GPU 微软现推出 ND H100 v5 VM,是 Azure 迄今更强大和高度可伸缩的 AI 虚拟机系列。该虚拟机支持的按需配置可达 8 至上千个通过 Quantum-2 InfiniBand 网络互连的 NVIDIA H100 GPU,使得 AI 模型的性能明显提高。相较上一代 ND A100 v4 VM,本次推出的虚拟机包含以下创新技术: 8x NVIDIA H100 Tensor Core GPU 透过下一代 NVSwitch 和 NVLink 4.0 互连 每个 GPU 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand 在无阻塞胖树网络中每个虚拟机 3.2Tb/s NVSwitch 和 NVLink 4.0 在每个虚拟机中的 3 个本地 GPU 之间具有 6.8TB/s 的对分割带宽 第四代英特尔至强可扩展处理器 PCIE 第 5 代主机到 GPU 互连,每个 GPU 带宽为 64GB/s 16 通道 4800MHz DDR5 内存 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

美国限制向中东地区出口英伟达的 H100 和 A100 GPU

美国限制向中东地区出口英伟达的 H100 和 A100 GPU 美国限制英伟达向中东地区出口的其旗舰 AI 芯片 H100 和 A100 GPU,原因是为了防止这些芯片转售到中国。美国已经限制英伟达向中国出售 H100 和 A100 GPU,英伟达为此专门开发了降低性能的型号 H800 和 A800。中东的阿联酋和沙特都是英伟达的大客户,而这两个国家同时也与中国关系密切,其中沙特还与中国在 AI 项目上展开合作。美国担心英伟达的 H100 和 A100 GPU 可能会从中东国家转手到中国,或者中国会在中东国家训练 AI 模型然后将技术带回中国。来源 , 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Windows Server 2025 将允许多个虚拟机共享一个 GPU

Windows Server 2025 将允许多个虚拟机共享一个 GPU 微软谈到了新更新中将包含的一些新功能,如无需重启操作系统即可下载和安装安全热补丁。本周,微软为使用Windows Server运行虚拟机的用户揭示了另一项新功能。在一篇博客文章中,Windows Server 2025的新功能被称为GPU分区,或GPU-P。管理员可以使用操作系统的这一功能来设置多个虚拟机,这些虚拟机可以只在一个 GPU 芯片上运行。博文补充道:此外,由于计划内或计划外的移动,虚拟机将在集群的不同节点上重新启动,并在这些不同节点上使用 GPU 分区。除了支持集群虚拟机使用 GPU-P,即将发布的操作系统版本还将为使用 GPU-P 的虚拟机提供实时迁移功能。GPU-P的实时迁移使客户能够在整个机群中平衡关键任务工作负载,并在不停止虚拟机的情况下进行硬件维护和软件升级。Windows Server 2025 中的 Windows 管理中心(WAC)应用将允许管理员设置和管理虚拟机,以及如何分配虚拟机访问 GPU 分区,这将使虚拟机的管理和维护变得更加容易。微软还宣布与NVIDIA 合作,使其 GPU 支持 GPU-P 功能。博文引用了 NVIDIA 企业平台副总裁 Bob Pette 的一段话:"微软将与 NVIDIA  合作,使其 GPU 支持 GPU-P 功能:GPU 虚拟化需要先进的安全性、最高的成本效益和精确的马力。借助 Windows Server Datacenter中英伟达 GPU 上现在提供的 GPU-P,客户可以满足这些要求,并运行他们的关键人工智能工作负载,实现更高的效率Windows Server 2025 目前计划于 2024 年秋季正式推出。 ... PC版: 手机版:

封面图片

特斯拉可能拥有多达十余万片英伟达H100 而xAI也拥有大量高性能GPU储备

特斯拉可能拥有多达十余万片英伟达H100 而xAI也拥有大量高性能GPU储备 X 帐户"技术兄弟"最近发布消息称,马克-扎克伯格的 Meta 公司目前已拥有全球最大的 H100 GPU “武器库”之一,数量约为 35 万个。不过,马斯克对该表格中特斯拉和 xAI 的排名不以为然,他指出:"如果衡量正确的话,特斯拉会排在第二位,X/xAI 会排在第三位。"假设其他条件不变,这意味着特斯拉现在拥有 3 万到 35 万块英伟达 H100 GPU。另一方面,xAI 现在可能拥有 2.6 万到 3 万块英伟达AI计算卡。早在今年 1 月,埃隆-马斯克(Elon Musk)在确认对特斯拉 Dojo 超级计算机投资 5 亿美元(相当于约 1 万个 H100 GPU)的同时,还宣布这家电动汽车巨头"今年在英伟达硬件上的花费将超过这个数字",因为"在人工智能领域具有竞争力的赌注目前每年至少有几十亿美元"。在马斯克从DeepMind、OpenAI、Google研究院、微软研究院、特斯拉和多伦多大学聘请人才,从头开始建立自己的人工智能企业时,xAI曾在2023年购买了大约1万台英伟达的GPU。不过,可以合理推断,这些采购很可能与 A100 GPU 有关。此后,从马斯克最新发布的 X 帖子中可以推断,xAI 似乎还积累了大量的 H100 GPU。当然,考虑到人工智能领域的创新速度,这些 H100 GPU 很快就会过时。早在今年 3 月,英伟达就发布了GB200 Grace Blackwell 超级芯片,将一个基于 Arms 的 Grace CPU 与两个 Blackwell B100 GPU 结合在一起。该系统可以部署一个包含27 万亿个参数的人工智能模型,在执行聊天机器人提供答案等任务时,速度有望提高30 倍。 ... PC版: 手机版:

封面图片

英伟达的H100都卖给了谁?

英伟达的H100都卖给了谁? •Meta:150000 •微软:150000 •谷歌、亚马逊、甲骨文、腾讯:50000 •CoreWeave:40000 •百度:30000 •阿里巴巴:25000 •字节跳动:20000 •Lambda:20000 •特斯拉:15000 ​​​ #图片 频道:@kejiqu 群组:@kejiquchat

封面图片

Meta 新建两座数据中心集群:内含超 4.9 万块英伟达 H100 GPU,专门训练 Llama3

Meta 新建两座数据中心集群:内含超 4.9 万块英伟达 H100 GPU,专门训练 Llama3 据悉,这两座数据中心的唯一目的,是在消费者特定应用领域(IT之家注:包含声音或图像识别)中进行 AI 研究和大语言模型的开发,每个集群都包含了 24576 块英伟达 H100 AI GPU,将用于自家大语言模型 Llama 3 的训练。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人