#招标 文件显示 #中国 最近采购了被禁的超微和戴尔 NVIDIA H100 服务器

None

相关推荐

封面图片

招标文件显示中国最近采购了被禁的超微和戴尔 NVIDIA H100 服务器

招标文件显示中国最近采购了被禁的超微和戴尔 NVIDIA H100 服务器 尽管美国去年扩大了对华销售此类技术的禁令,但中国的大学和研究机构最近仍通过经销商获得了英伟达高端人工智能芯片。路透社审查了数百份招标文件后发现,在美国于11月17日扩大禁运范围、使更多芯片和国家受到许可规则约束之后,10家中国实体采购了嵌入在超微电脑公司、戴尔科技公司和台湾技嘉科技股份有限公司制造的服务器产品中的先进英伟达芯片。这11家芯片卖家都是鲜为人知的中国零售商。路透社无法确定他们在履行订单时是否使用了美国11月加强芯片出口限制之前获得的库存。服务器制造商表示,他们遵守了相关法律或将进一步调查。买家包括中国科学院、山东省人工智能研究院、湖北省地震局、山东大学和西南大学、黑龙江省政府旗下的一家科技投资公司、一家国营航空研究中心和一家空间科学中心。 (摘抄部分)

封面图片

NVIDIA H100服务器国内黑市现货价大跌超10%

NVIDIA H100服务器国内黑市现货价大跌超10% 虽然美国针对AI芯片有出口禁令,但仍有部分经销商铤而走险,通过一些特殊渠道囤积了H100芯片。比如,此前有报道称,在深圳华强北电子市场,H100芯片的交易仍然存在,只不过全数转入地下化,主要通过采购代理或在海外设立的空壳公司引进大陆,因此国内的一些大学、研究机构、企业,只要通过特殊的经销商渠道,还是能获得英伟达的AI芯片,只不是供应量比较有限,这也导致了不少“黄牛”从中炒货转差价。消息显示,搭载H100的服务器(8张卡)在国内的报价一度高达人民币300多万元(超过42万美元),比官方售价28万至30万美元高出了50%左右,扣掉物流及关税成本,部分中间商可以轻松获利超10%。但是随着H200将于今年二季度开卖,H100也将变成“上一代”的产品,此前囤积H100的中间商因而急于卖出手中库存,开始持续抛货,导致价格快速下跌,近期大陆黑市搭载H100的服务器跌至人民币270万到280万元左右,香港现货价更下跌到约人民币260万元,跌幅都超过10%。 ... PC版: 手机版:

封面图片

学术论文显示NVIDIA H100 AI GPU依然存在于中国研究人员之手

学术论文显示NVIDIA H100 AI GPU依然存在于中国研究人员之手 美国的新政策千方百计阻止向中国等一系列国家进行"技术转让",就在不久前,拜登政府还对人工智能 GPU 的出口实施了严厉的监管,以防止中国人工智能基础设施的快速发展。然而,尽管采取了这些策略,据报道,美国政府可能会发现自己的贸易政策存在漏洞,因为《每日电讯报》披露,据报道,中国科学院的研究人员在多项实验中使用了英伟达的H100人工智能GPU,这表明新法规可能不会有太大效果。四篇发表在"开放获取"科学网站 ArXiv 上的学术论文披露了这一信息,研究内容包括使用人工智能加速器解决复杂的数学和逻辑问题。据说,研究人员能够拿到八张或更少的英伟达 H100,这当然不是一个庞大的数字,但它引起了人们对美国法规执行情况的质疑。不过,由于英伟达的 Hopper GPU 在禁令生效前一直在市场上销售,因此目前还不确定参与研究的人员是购买了新的 H100,还是对市场上的现有 SKU 进行了研究。我们无法确定这些 GPU 最初是如何进入中国市场的,但猜测最大可能是来自中东等美国合规国家的外包。我们曾在中国公司图森未来身上看到过类似的例子,当时美国政府以潜在的技术转让为由,干预了英伟达向该公司销售 A100的事宜。由于图森未来从澳大利亚的一家子公司订购 GPU,因此绕过了美国商务部的监管。对美国来说,封锁人工智能产业所需的关键组件的访问途径并非易事,即使在大力实施之后,个人或黑名单上的公司也会发现所实施的政策存在某些漏洞,最终给政府造成另一种令人担忧的局面。 ... PC版: 手机版:

封面图片

微软 Azure ND H100 v5 虚拟机发布:采用 8 至上千个 NVIDIA H100 Tensor Core GPU

微软 Azure ND H100 v5 虚拟机发布:采用 8 至上千个 NVIDIA H100 Tensor Core GPU 微软现推出 ND H100 v5 VM,是 Azure 迄今更强大和高度可伸缩的 AI 虚拟机系列。该虚拟机支持的按需配置可达 8 至上千个通过 Quantum-2 InfiniBand 网络互连的 NVIDIA H100 GPU,使得 AI 模型的性能明显提高。相较上一代 ND A100 v4 VM,本次推出的虚拟机包含以下创新技术: 8x NVIDIA H100 Tensor Core GPU 透过下一代 NVSwitch 和 NVLink 4.0 互连 每个 GPU 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand 在无阻塞胖树网络中每个虚拟机 3.2Tb/s NVSwitch 和 NVLink 4.0 在每个虚拟机中的 3 个本地 GPU 之间具有 6.8TB/s 的对分割带宽 第四代英特尔至强可扩展处理器 PCIE 第 5 代主机到 GPU 互连,每个 GPU 带宽为 64GB/s 16 通道 4800MHz DDR5 内存 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Nvidia第三季度售出了 50 万颗 H100

Nvidia第三季度售出了 50 万颗 H100 与此同时,值得注意的是,几乎所有大量购买 Nvidia H100 GPU 的公司也在开发用于 AI、HPC 和视频工作负载的定制芯片。因此,随着时间的推移,随着他们转向自己的芯片,他们对 Nvidia 硬件的购买量可能会下降。 还记得当年特斯拉的被刺吗?

封面图片

美国对中东限售NVIDIA H100/A100加速卡:怕转卖给中国 #抽屉IT

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人