美国限制向中东地区出口英伟达的 H100 和 A100 GPU

美国限制向中东地区出口英伟达的 H100 和 A100 GPU 美国限制英伟达向中东地区出口的其旗舰 AI 芯片 H100 和 A100 GPU,原因是为了防止这些芯片转售到中国。美国已经限制英伟达向中国出售 H100 和 A100 GPU,英伟达为此专门开发了降低性能的型号 H800 和 A800。中东的阿联酋和沙特都是英伟达的大客户,而这两个国家同时也与中国关系密切,其中沙特还与中国在 AI 项目上展开合作。美国担心英伟达的 H100 和 A100 GPU 可能会从中东国家转手到中国,或者中国会在中东国家训练 AI 模型然后将技术带回中国。来源 , 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求 微软于今天宣布加强和英伟达的合作,将 GPU 从此前的 A100 升级到 H100,推出专门针对人工智能开发的全新的虚拟机。 微软表示该虚拟机主要面向需要整合或开发人工智能的企业,配置如下: ▪8 块英伟达 H100 Tensor Core GPU,通过下一代 NVSwitch 和 NVLink 4.0 互连 ▪在非阻塞(non-blocking)的胖树(Fat-Tree)架构网络下,每块 GPU 的 NVIDIA Quantum-2 CX7 InfiniBand 性能可以达到 400 Gb / s,每台虚拟机可以达到 3.2Tb / s。 ▪通过 NVSwitch 和 NVLink 4.0,每台虚拟机内的 8 个本地 GPU 之间的对分带宽为 3.6TB / s。 ▪采用英特尔第 4 代 Xeon Scalable 处理器 ▪使用 PCIe Gen5 连接 GPU,每个 GPU 带宽为 64GB / s ▪16 通道 4800MHz DDR5 DIMM 微软先前在 Azure OpenAI 服务中宣布了 ChatGPT 相关服务,而本次虚拟机是该服务的补充,它允许第三方通过 Azure 访问聊天机器人技术。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

特斯拉可能拥有多达十余万片英伟达H100 而xAI也拥有大量高性能GPU储备

特斯拉可能拥有多达十余万片英伟达H100 而xAI也拥有大量高性能GPU储备 X 帐户"技术兄弟"最近发布消息称,马克-扎克伯格的 Meta 公司目前已拥有全球最大的 H100 GPU “武器库”之一,数量约为 35 万个。不过,马斯克对该表格中特斯拉和 xAI 的排名不以为然,他指出:"如果衡量正确的话,特斯拉会排在第二位,X/xAI 会排在第三位。"假设其他条件不变,这意味着特斯拉现在拥有 3 万到 35 万块英伟达 H100 GPU。另一方面,xAI 现在可能拥有 2.6 万到 3 万块英伟达AI计算卡。早在今年 1 月,埃隆-马斯克(Elon Musk)在确认对特斯拉 Dojo 超级计算机投资 5 亿美元(相当于约 1 万个 H100 GPU)的同时,还宣布这家电动汽车巨头"今年在英伟达硬件上的花费将超过这个数字",因为"在人工智能领域具有竞争力的赌注目前每年至少有几十亿美元"。在马斯克从DeepMind、OpenAI、Google研究院、微软研究院、特斯拉和多伦多大学聘请人才,从头开始建立自己的人工智能企业时,xAI曾在2023年购买了大约1万台英伟达的GPU。不过,可以合理推断,这些采购很可能与 A100 GPU 有关。此后,从马斯克最新发布的 X 帖子中可以推断,xAI 似乎还积累了大量的 H100 GPU。当然,考虑到人工智能领域的创新速度,这些 H100 GPU 很快就会过时。早在今年 3 月,英伟达就发布了GB200 Grace Blackwell 超级芯片,将一个基于 Arms 的 Grace CPU 与两个 Blackwell B100 GPU 结合在一起。该系统可以部署一个包含27 万亿个参数的人工智能模型,在执行聊天机器人提供答案等任务时,速度有望提高30 倍。 ... PC版: 手机版:

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60% 在美国加州圣何塞举行的 AI 特别活动中,AMD 宣布正式推出其旗舰 AI GPU 加速器 MI300X,并称其性能比英伟达的 H100 芯片提高了 60%。 据 AMD 介绍,新芯片为性能最高的芯片,拥有超过 1500 亿个晶体管。与英伟达 H100 芯片相比,AMD 新芯片的内存为其 2.4 倍,内存带宽为其 1.6 倍,训练性能与 H100 芯片相当,在运行 AI 模型方面则比英伟达快得多。 、

封面图片

美国 AI 公司将打造漂浮在海上的计算平台,可容纳 10000 个英伟达 H100 GPU

美国 AI 公司将打造漂浮在海上的计算平台,可容纳 10000 个英伟达 H100 GPU 该平台的目标是规避最近美国《人工智能行政命令》和欧盟《人工智能法》施加的限制,因此解决方案是将业务转移到其他地方。

封面图片

学术论文显示NVIDIA H100 AI GPU依然存在于中国研究人员之手

学术论文显示NVIDIA H100 AI GPU依然存在于中国研究人员之手 美国的新政策千方百计阻止向中国等一系列国家进行"技术转让",就在不久前,拜登政府还对人工智能 GPU 的出口实施了严厉的监管,以防止中国人工智能基础设施的快速发展。然而,尽管采取了这些策略,据报道,美国政府可能会发现自己的贸易政策存在漏洞,因为《每日电讯报》披露,据报道,中国科学院的研究人员在多项实验中使用了英伟达的H100人工智能GPU,这表明新法规可能不会有太大效果。四篇发表在"开放获取"科学网站 ArXiv 上的学术论文披露了这一信息,研究内容包括使用人工智能加速器解决复杂的数学和逻辑问题。据说,研究人员能够拿到八张或更少的英伟达 H100,这当然不是一个庞大的数字,但它引起了人们对美国法规执行情况的质疑。不过,由于英伟达的 Hopper GPU 在禁令生效前一直在市场上销售,因此目前还不确定参与研究的人员是购买了新的 H100,还是对市场上的现有 SKU 进行了研究。我们无法确定这些 GPU 最初是如何进入中国市场的,但猜测最大可能是来自中东等美国合规国家的外包。我们曾在中国公司图森未来身上看到过类似的例子,当时美国政府以潜在的技术转让为由,干预了英伟达向该公司销售 A100的事宜。由于图森未来从澳大利亚的一家子公司订购 GPU,因此绕过了美国商务部的监管。对美国来说,封锁人工智能产业所需的关键组件的访问途径并非易事,即使在大力实施之后,个人或黑名单上的公司也会发现所实施的政策存在某些漏洞,最终给政府造成另一种令人担忧的局面。 ... PC版: 手机版:

封面图片

Meta 新建两座数据中心集群:内含超 4.9 万块英伟达 H100 GPU,专门训练 Llama3

Meta 新建两座数据中心集群:内含超 4.9 万块英伟达 H100 GPU,专门训练 Llama3 据悉,这两座数据中心的唯一目的,是在消费者特定应用领域(IT之家注:包含声音或图像识别)中进行 AI 研究和大语言模型的开发,每个集群都包含了 24576 块英伟达 H100 AI GPU,将用于自家大语言模型 Llama 3 的训练。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人