微软 Azure ND H100 v5 虚拟机发布:采用 8 至上千个 NVIDIA H100 Tensor Core GPU

微软 Azure ND H100 v5 虚拟机发布:采用 8 至上千个 NVIDIA H100 Tensor Core GPU 微软现推出 ND H100 v5 VM,是 Azure 迄今更强大和高度可伸缩的 AI 虚拟机系列。该虚拟机支持的按需配置可达 8 至上千个通过 Quantum-2 InfiniBand 网络互连的 NVIDIA H100 GPU,使得 AI 模型的性能明显提高。相较上一代 ND A100 v4 VM,本次推出的虚拟机包含以下创新技术: 8x NVIDIA H100 Tensor Core GPU 透过下一代 NVSwitch 和 NVLink 4.0 互连 每个 GPU 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand 在无阻塞胖树网络中每个虚拟机 3.2Tb/s NVSwitch 和 NVLink 4.0 在每个虚拟机中的 3 个本地 GPU 之间具有 6.8TB/s 的对分割带宽 第四代英特尔至强可扩展处理器 PCIE 第 5 代主机到 GPU 互连,每个 GPU 带宽为 64GB/s 16 通道 4800MHz DDR5 内存 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求 微软于今天宣布加强和英伟达的合作,将 GPU 从此前的 A100 升级到 H100,推出专门针对人工智能开发的全新的虚拟机。 微软表示该虚拟机主要面向需要整合或开发人工智能的企业,配置如下: ▪8 块英伟达 H100 Tensor Core GPU,通过下一代 NVSwitch 和 NVLink 4.0 互连 ▪在非阻塞(non-blocking)的胖树(Fat-Tree)架构网络下,每块 GPU 的 NVIDIA Quantum-2 CX7 InfiniBand 性能可以达到 400 Gb / s,每台虚拟机可以达到 3.2Tb / s。 ▪通过 NVSwitch 和 NVLink 4.0,每台虚拟机内的 8 个本地 GPU 之间的对分带宽为 3.6TB / s。 ▪采用英特尔第 4 代 Xeon Scalable 处理器 ▪使用 PCIe Gen5 连接 GPU,每个 GPU 带宽为 64GB / s ▪16 通道 4800MHz DDR5 DIMM 微软先前在 Azure OpenAI 服务中宣布了 ChatGPT 相关服务,而本次虚拟机是该服务的补充,它允许第三方通过 Azure 访问聊天机器人技术。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Nvidia第三季度售出了 50 万颗 H100

Nvidia第三季度售出了 50 万颗 H100 与此同时,值得注意的是,几乎所有大量购买 Nvidia H100 GPU 的公司也在开发用于 AI、HPC 和视频工作负载的定制芯片。因此,随着时间的推移,随着他们转向自己的芯片,他们对 Nvidia 硬件的购买量可能会下降。 还记得当年特斯拉的被刺吗?

封面图片

学术论文显示NVIDIA H100 AI GPU依然存在于中国研究人员之手

学术论文显示NVIDIA H100 AI GPU依然存在于中国研究人员之手 美国的新政策千方百计阻止向中国等一系列国家进行"技术转让",就在不久前,拜登政府还对人工智能 GPU 的出口实施了严厉的监管,以防止中国人工智能基础设施的快速发展。然而,尽管采取了这些策略,据报道,美国政府可能会发现自己的贸易政策存在漏洞,因为《每日电讯报》披露,据报道,中国科学院的研究人员在多项实验中使用了英伟达的H100人工智能GPU,这表明新法规可能不会有太大效果。四篇发表在"开放获取"科学网站 ArXiv 上的学术论文披露了这一信息,研究内容包括使用人工智能加速器解决复杂的数学和逻辑问题。据说,研究人员能够拿到八张或更少的英伟达 H100,这当然不是一个庞大的数字,但它引起了人们对美国法规执行情况的质疑。不过,由于英伟达的 Hopper GPU 在禁令生效前一直在市场上销售,因此目前还不确定参与研究的人员是购买了新的 H100,还是对市场上的现有 SKU 进行了研究。我们无法确定这些 GPU 最初是如何进入中国市场的,但猜测最大可能是来自中东等美国合规国家的外包。我们曾在中国公司图森未来身上看到过类似的例子,当时美国政府以潜在的技术转让为由,干预了英伟达向该公司销售 A100的事宜。由于图森未来从澳大利亚的一家子公司订购 GPU,因此绕过了美国商务部的监管。对美国来说,封锁人工智能产业所需的关键组件的访问途径并非易事,即使在大力实施之后,个人或黑名单上的公司也会发现所实施的政策存在某些漏洞,最终给政府造成另一种令人担忧的局面。 ... PC版: 手机版:

封面图片

马斯克要求 NVIDIA,留给特斯拉的 H100 晶片先供应 X 和 xAI

马斯克要求 NVIDIA,留给特斯拉的 H100 晶片先供应 X 和 xAI (英文) NVIDIA 拒绝发表任何评论,马斯克和特斯拉、X 也没有回应。4 日上午消息传出后,特斯拉股价下跌近 1%。

封面图片

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100 旧金山,3 月 21 日(路透社)主导人工智能 (AI) 芯片市场的美国半导体设计公司 Nvidia Corp 表示,已将其旗舰产品修改为可以合法出口到中国的版本. 美国监管机构去年制定规则,以国家安全问题为由,禁止英伟达向中国客户出售其两款最先进的芯片,即 A100 和更新的 H100。此类芯片对于开发生成式人工智能技术(如 OpenAI 的 ChatGPT 和类似产品)至关重要。 路透社在 11 月报道称,Nvidia设计了一款名为 A800 的芯片,该芯片降低了 A100 的某些功能,使 A800 可以合法出口到中国。 周二,该公司表示,它已经开发出类似的 H100 芯片的中国出口版本。这款名为 H800 的新芯片被阿里巴巴集团控股有限公司、百度公司和腾讯控股有限公司等中国科技公司的云计算部门使用。

封面图片

NVIDIA H100服务器国内黑市现货价大跌超10%

NVIDIA H100服务器国内黑市现货价大跌超10% 虽然美国针对AI芯片有出口禁令,但仍有部分经销商铤而走险,通过一些特殊渠道囤积了H100芯片。比如,此前有报道称,在深圳华强北电子市场,H100芯片的交易仍然存在,只不过全数转入地下化,主要通过采购代理或在海外设立的空壳公司引进大陆,因此国内的一些大学、研究机构、企业,只要通过特殊的经销商渠道,还是能获得英伟达的AI芯片,只不是供应量比较有限,这也导致了不少“黄牛”从中炒货转差价。消息显示,搭载H100的服务器(8张卡)在国内的报价一度高达人民币300多万元(超过42万美元),比官方售价28万至30万美元高出了50%左右,扣掉物流及关税成本,部分中间商可以轻松获利超10%。但是随着H200将于今年二季度开卖,H100也将变成“上一代”的产品,此前囤积H100的中间商因而急于卖出手中库存,开始持续抛货,导致价格快速下跌,近期大陆黑市搭载H100的服务器跌至人民币270万到280万元左右,香港现货价更下跌到约人民币260万元,跌幅都超过10%。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人