NVIDIA H100服务器国内黑市现货价大跌超10%

NVIDIA H100服务器国内黑市现货价大跌超10% 虽然美国针对AI芯片有出口禁令,但仍有部分经销商铤而走险,通过一些特殊渠道囤积了H100芯片。比如,此前有报道称,在深圳华强北电子市场,H100芯片的交易仍然存在,只不过全数转入地下化,主要通过采购代理或在海外设立的空壳公司引进大陆,因此国内的一些大学、研究机构、企业,只要通过特殊的经销商渠道,还是能获得英伟达的AI芯片,只不是供应量比较有限,这也导致了不少“黄牛”从中炒货转差价。消息显示,搭载H100的服务器(8张卡)在国内的报价一度高达人民币300多万元(超过42万美元),比官方售价28万至30万美元高出了50%左右,扣掉物流及关税成本,部分中间商可以轻松获利超10%。但是随着H200将于今年二季度开卖,H100也将变成“上一代”的产品,此前囤积H100的中间商因而急于卖出手中库存,开始持续抛货,导致价格快速下跌,近期大陆黑市搭载H100的服务器跌至人民币270万到280万元左右,香港现货价更下跌到约人民币260万元,跌幅都超过10%。 ... PC版: 手机版:

相关推荐

封面图片

招标文件显示中国最近采购了被禁的超微和戴尔 NVIDIA H100 服务器

招标文件显示中国最近采购了被禁的超微和戴尔 NVIDIA H100 服务器 尽管美国去年扩大了对华销售此类技术的禁令,但中国的大学和研究机构最近仍通过经销商获得了英伟达高端人工智能芯片。路透社审查了数百份招标文件后发现,在美国于11月17日扩大禁运范围、使更多芯片和国家受到许可规则约束之后,10家中国实体采购了嵌入在超微电脑公司、戴尔科技公司和台湾技嘉科技股份有限公司制造的服务器产品中的先进英伟达芯片。这11家芯片卖家都是鲜为人知的中国零售商。路透社无法确定他们在履行订单时是否使用了美国11月加强芯片出口限制之前获得的库存。服务器制造商表示,他们遵守了相关法律或将进一步调查。买家包括中国科学院、山东省人工智能研究院、湖北省地震局、山东大学和西南大学、黑龙江省政府旗下的一家科技投资公司、一家国营航空研究中心和一家空间科学中心。 (摘抄部分)

封面图片

Nvidia第三季度售出了 50 万颗 H100

Nvidia第三季度售出了 50 万颗 H100 与此同时,值得注意的是,几乎所有大量购买 Nvidia H100 GPU 的公司也在开发用于 AI、HPC 和视频工作负载的定制芯片。因此,随着时间的推移,随着他们转向自己的芯片,他们对 Nvidia 硬件的购买量可能会下降。 还记得当年特斯拉的被刺吗?

封面图片

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100 旧金山,3 月 21 日(路透社)主导人工智能 (AI) 芯片市场的美国半导体设计公司 Nvidia Corp 表示,已将其旗舰产品修改为可以合法出口到中国的版本. 美国监管机构去年制定规则,以国家安全问题为由,禁止英伟达向中国客户出售其两款最先进的芯片,即 A100 和更新的 H100。此类芯片对于开发生成式人工智能技术(如 OpenAI 的 ChatGPT 和类似产品)至关重要。 路透社在 11 月报道称,Nvidia设计了一款名为 A800 的芯片,该芯片降低了 A100 的某些功能,使 A800 可以合法出口到中国。 周二,该公司表示,它已经开发出类似的 H100 芯片的中国出口版本。这款名为 H800 的新芯片被阿里巴巴集团控股有限公司、百度公司和腾讯控股有限公司等中国科技公司的云计算部门使用。

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60% 在美国加州圣何塞举行的 AI 特别活动中,AMD 宣布正式推出其旗舰 AI GPU 加速器 MI300X,并称其性能比英伟达的 H100 芯片提高了 60%。 据 AMD 介绍,新芯片为性能最高的芯片,拥有超过 1500 亿个晶体管。与英伟达 H100 芯片相比,AMD 新芯片的内存为其 2.4 倍,内存带宽为其 1.6 倍,训练性能与 H100 芯片相当,在运行 AI 模型方面则比英伟达快得多。 、

封面图片

英伟达公告,在其此前表示对华出口审批令将影响H100芯片研制及本地客户服务等后,美国政府批准其为完成H100研制、在2023年3

英伟达公告,在其此前表示对华出口审批令将影响H100芯片研制及本地客户服务等后,美国政府批准其为完成H100研制、在2023年3月1日前为向美国的A100芯片客户提供支持、以及在2023年9月1日前为在香港完成A100和H100订单等目的而进行相关出口活动。 (路透社)

封面图片

马斯克:训练Grok 3用了10万块英伟达H100 年底上线 会很特别

马斯克:训练Grok 3用了10万块英伟达H100 年底上线 会很特别 这里所说的H100是英伟达开发的图形处理单元,也称为Hopper,是专门用于处理大语言模型(LLMs)数据的AI芯片。随着科技公司竞相开发更智能的AI产品,这些芯片成了硅谷的热门商品。每块英伟达H100人工智能芯片的价格估计在3万美元左右,也有人估计价格高达4万美元,如果批量购买的话可能会有折扣。通过简单计算,单单训练Grok 3就用了价值30亿至40亿美元的人工智能芯片,目前不确定这些芯片是否是马斯克公司直接购买的,此前报道称,马斯克旗下的xAI公司正在与甲骨文谈判,计划在未来几年内花费100亿美元租用云服务器。近年来,马斯克的公司已直接购买了大量的H100芯片。据报道,马斯克曾将原本供特斯拉使用的价值5亿美元的H100芯片转给了X公司。相较于Grok 2,使用10万块H100训练Grok 3无疑是一个巨大的提升。今年4月,马斯克在接受挪威主权基金负责人尼科莱·坦根(Nicolai Tangen)的采访时表示,训练Grok 2需要大约2万块H100。目前,xAI已发布了Grok-1和Grok-1.5版本,最新版本仅对X平台上的早期测试者和现有用户开放。马斯克在周一的帖子中透露,Grok 2计划于今年8月推出,并暗示Grok 3将于年底发布。xAI没有回应置评请求。10万块H100芯片听起来很多,但其他科技巨头,如Meta,也在大量购买GPU芯片。Meta首席执行官马克·扎克伯格(Mark Zuckerberg)今年1月曾表示,到2024年底,Meta将购买约35万块英伟达H100芯片,并表示包括其他类型的GPU在内,Meta将拥有约60万块芯片。如果是这样的话,Meta将为构建自家人工智能能力花掉大约180亿美元。这些芯片的积累也导致了过去一年中顶尖AI人才的招聘竞争变得异常激烈。AI初创公司Perplexity的创始人兼首席执行官阿拉文德·斯里尼瓦斯(Aravind Srinivas)谈到了他试图从Meta挖角一位资深研究人员的经历,但对方因扎克伯格拥有大量AI芯片而拒绝了他的邀请。“我试图聘请一位非常资深的Meta研究员,他们的回答是:‘等你有了1万块H100 GPU再来找我。’”斯里尼瓦斯说。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人