微软 Azure ND H100 v5 虚拟机发布:采用 8 至上千个 NVIDIA H100 Tensor Core GPU

微软 Azure ND H100 v5 虚拟机发布:采用 8 至上千个 NVIDIA H100 Tensor Core GPU 微软现推出 ND H100 v5 VM,是 Azure 迄今更强大和高度可伸缩的 AI 虚拟机系列。该虚拟机支持的按需配置可达 8 至上千个通过 Quantum-2 InfiniBand 网络互连的 NVIDIA H100 GPU,使得 AI 模型的性能明显提高。相较上一代 ND A100 v4 VM,本次推出的虚拟机包含以下创新技术: 8x NVIDIA H100 Tensor Core GPU 透过下一代 NVSwitch 和 NVLink 4.0 互连 每个 GPU 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand 在无阻塞胖树网络中每个虚拟机 3.2Tb/s NVSwitch 和 NVLink 4.0 在每个虚拟机中的 3 个本地 GPU 之间具有 6.8TB/s 的对分割带宽 第四代英特尔至强可扩展处理器 PCIE 第 5 代主机到 GPU 互连,每个 GPU 带宽为 64GB/s 16 通道 4800MHz DDR5 内存 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求 微软于今天宣布加强和英伟达的合作,将 GPU 从此前的 A100 升级到 H100,推出专门针对人工智能开发的全新的虚拟机。 微软表示该虚拟机主要面向需要整合或开发人工智能的企业,配置如下: ▪8 块英伟达 H100 Tensor Core GPU,通过下一代 NVSwitch 和 NVLink 4.0 互连 ▪在非阻塞(non-blocking)的胖树(Fat-Tree)架构网络下,每块 GPU 的 NVIDIA Quantum-2 CX7 InfiniBand 性能可以达到 400 Gb / s,每台虚拟机可以达到 3.2Tb / s。 ▪通过 NVSwitch 和 NVLink 4.0,每台虚拟机内的 8 个本地 GPU 之间的对分带宽为 3.6TB / s。 ▪采用英特尔第 4 代 Xeon Scalable 处理器 ▪使用 PCIe Gen5 连接 GPU,每个 GPU 带宽为 64GB / s ▪16 通道 4800MHz DDR5 DIMM 微软先前在 Azure OpenAI 服务中宣布了 ChatGPT 相关服务,而本次虚拟机是该服务的补充,它允许第三方通过 Azure 访问聊天机器人技术。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Nvidia第三季度售出了 50 万颗 H100

Nvidia第三季度售出了 50 万颗 H100 与此同时,值得注意的是,几乎所有大量购买 Nvidia H100 GPU 的公司也在开发用于 AI、HPC 和视频工作负载的定制芯片。因此,随着时间的推移,随着他们转向自己的芯片,他们对 Nvidia 硬件的购买量可能会下降。 还记得当年特斯拉的被刺吗?

封面图片

ℹ祖克柏透露 Meta 将在 2024 年年底前购买 35 万枚 Nvidia H100 GPU#

ℹ祖克柏透露 Meta 将在 2024 年年底前购买 35 万枚 Nvidia H100 GPU# Meta 并不是这么大手笔的花钱了,在 2022 年 Meta 就在 Reality Labs 部门上花费了约 130 亿美金(约 408...

封面图片

美国限制向中东地区出口英伟达的 H100 和 A100 GPU

美国限制向中东地区出口英伟达的 H100 和 A100 GPU 美国限制英伟达向中东地区出口的其旗舰 AI 芯片 H100 和 A100 GPU,原因是为了防止这些芯片转售到中国。美国已经限制英伟达向中国出售 H100 和 A100 GPU,英伟达为此专门开发了降低性能的型号 H800 和 A800。中东的阿联酋和沙特都是英伟达的大客户,而这两个国家同时也与中国关系密切,其中沙特还与中国在 AI 项目上展开合作。美国担心英伟达的 H100 和 A100 GPU 可能会从中东国家转手到中国,或者中国会在中东国家训练 AI 模型然后将技术带回中国。来源 , 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

学术论文显示NVIDIA H100 AI GPU依然存在于中国研究人员之手

学术论文显示NVIDIA H100 AI GPU依然存在于中国研究人员之手 美国的新政策千方百计阻止向中国等一系列国家进行"技术转让",就在不久前,拜登政府还对人工智能 GPU 的出口实施了严厉的监管,以防止中国人工智能基础设施的快速发展。然而,尽管采取了这些策略,据报道,美国政府可能会发现自己的贸易政策存在漏洞,因为《每日电讯报》披露,据报道,中国科学院的研究人员在多项实验中使用了英伟达的H100人工智能GPU,这表明新法规可能不会有太大效果。四篇发表在"开放获取"科学网站 ArXiv 上的学术论文披露了这一信息,研究内容包括使用人工智能加速器解决复杂的数学和逻辑问题。据说,研究人员能够拿到八张或更少的英伟达 H100,这当然不是一个庞大的数字,但它引起了人们对美国法规执行情况的质疑。不过,由于英伟达的 Hopper GPU 在禁令生效前一直在市场上销售,因此目前还不确定参与研究的人员是购买了新的 H100,还是对市场上的现有 SKU 进行了研究。我们无法确定这些 GPU 最初是如何进入中国市场的,但猜测最大可能是来自中东等美国合规国家的外包。我们曾在中国公司图森未来身上看到过类似的例子,当时美国政府以潜在的技术转让为由,干预了英伟达向该公司销售 A100的事宜。由于图森未来从澳大利亚的一家子公司订购 GPU,因此绕过了美国商务部的监管。对美国来说,封锁人工智能产业所需的关键组件的访问途径并非易事,即使在大力实施之后,个人或黑名单上的公司也会发现所实施的政策存在某些漏洞,最终给政府造成另一种令人担忧的局面。 ... PC版: 手机版:

封面图片

Windows Server 2025 将允许多个虚拟机共享一个 GPU

Windows Server 2025 将允许多个虚拟机共享一个 GPU 微软谈到了新更新中将包含的一些新功能,如无需重启操作系统即可下载和安装安全热补丁。本周,微软为使用Windows Server运行虚拟机的用户揭示了另一项新功能。在一篇博客文章中,Windows Server 2025的新功能被称为GPU分区,或GPU-P。管理员可以使用操作系统的这一功能来设置多个虚拟机,这些虚拟机可以只在一个 GPU 芯片上运行。博文补充道:此外,由于计划内或计划外的移动,虚拟机将在集群的不同节点上重新启动,并在这些不同节点上使用 GPU 分区。除了支持集群虚拟机使用 GPU-P,即将发布的操作系统版本还将为使用 GPU-P 的虚拟机提供实时迁移功能。GPU-P的实时迁移使客户能够在整个机群中平衡关键任务工作负载,并在不停止虚拟机的情况下进行硬件维护和软件升级。Windows Server 2025 中的 Windows 管理中心(WAC)应用将允许管理员设置和管理虚拟机,以及如何分配虚拟机访问 GPU 分区,这将使虚拟机的管理和维护变得更加容易。微软还宣布与NVIDIA 合作,使其 GPU 支持 GPU-P 功能。博文引用了 NVIDIA 企业平台副总裁 Bob Pette 的一段话:"微软将与 NVIDIA  合作,使其 GPU 支持 GPU-P 功能:GPU 虚拟化需要先进的安全性、最高的成本效益和精确的马力。借助 Windows Server Datacenter中英伟达 GPU 上现在提供的 GPU-P,客户可以满足这些要求,并运行他们的关键人工智能工作负载,实现更高的效率Windows Server 2025 目前计划于 2024 年秋季正式推出。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人