黄仁勋亲自前往OPENAI送上全球首台NVIDIA DGX H200

黄仁勋亲自前往OPENAI送上全球首台NVIDIA DGX H200 今天英伟达创始人兼首席执行官黄仁勋亲自带着全球首台 NVIDIA DGX H200 加速卡前往 OPENAI 位于美国旧金山的办公室进行交付程序。OPENAI 首席执行官萨姆奥特曼和 OPENAI 联合创始人兼总裁格雷格布罗克曼当面与黄仁勋进行交接,还在上发布了现场照片。 H200 相较于 H100 升级了内存容量和内存带宽,其中内存容量增加 1.8 倍,可以安装 141GB 内存;内存带宽提高 1.4 倍,总内存带宽高达 4.8TB / 秒。NVIDIA H200 的价格传闻是在 25000 美元~40000 美元,DGX H200 服务器可以容纳 4~8 张 H200 加速卡,当然还有 DGX 本身的溢价,所以这台服务器的价格应该还是非常夸张的。来源 , 频道:@kejiqu 群组:@kejiquchat

相关推荐

封面图片

全球首块英伟达H200 AI超级芯片交付 黄仁勋给OpenAI“送货上门”

全球首块英伟达H200 AI超级芯片交付 黄仁勋给OpenAI“送货上门” H200基于英伟达Hopper架构打造,并配备英伟达H200 Tensor Core GPU,处理速度为4.8TB/秒。H200拥有141GB的内存,与前代产品H100相比,H200的容量几乎翻了一番,运行大模型的综合性能相比前代H100提升了60%到90%。英伟达此前表示,H200在运行GPT-3时的性能,将比原始A100高出18倍,同时也比H100快11倍左右。值得一提的是,H200还将与H100兼容,使用H100训练/推理模型的AI企业,可以无缝更换成最新的H200芯片。 ... PC版: 手机版:

封面图片

三星将首秀36GB HBM3E内存:NVIDIA H200单卡就有216GB

三星将首秀36GB HBM3E内存:NVIDIA H200单卡就有216GB NVIDIA H200 AI加速卡将首发采用三星36GB HBM3E,只需要八颗,就能达成6144-bit的位宽、216GB的容量,从而超过192GB HBM3内存的AMD Instinct MI300X。H200还支持四路、八路互连,因此单系统的HBM3E内存容量可以达到864GB、1728GB!按照惯例,NVIDIA可能会出于良品率的考虑,屏蔽一小部分容量,但是单卡超过200GB、单系统超过1.6TB必然是很轻松的。按照NVIDIA的说法,H200虽然还是Hopper架构,但相比H100再次飞跃,700亿参数Llama2、1750亿参数GTP-3模型的推理性能分别提升多达90%、60%,对比前代A100 HPC模拟性能直接翻番。NVIDIA H200计划2024年第二季度出货,三星36GB HBM3E则会在第一季度投入量产,正好赶得上。 ... PC版: 手机版:

封面图片

黄仁勋访问台湾 Hopper H200和Blackwell B100 GPU量产在即

黄仁勋访问台湾 Hopper H200和Blackwell B100 GPU量产在即 NVIDIA不仅在其人工智能产品组合中取得了突飞猛进的发展,而且该公司还在努力迎合各个地区的利益,尽管遇到了诸如美国新法规之类的挫折。我们昨天报道了黄仁勋对北京的访问,他不仅参加了与北京新年有关的庆祝活动,而且据说还与阿里巴巴和腾讯等几家中国客户举行了会议,向他们保证英伟达将继续留在这里。据透露,在访问中国之后,黄仁勋还决定前往台湾,拜访台积电和纬创等公司的主要供应商,以了解公司下一代 H200 和 B100 AI GPU 的量产进展。今年将标志着向新一代人工智能产品的过渡,这就是为什么 2024 年不仅对英伟达,而且对其他参与人工智能竞赛的公司来说都是"决定性的"一年。据预测,今年全球人工智能出货量有望大幅增长,预计将达到 35 万片左右,其中NVIDIA将占据相当大的份额。关于英伟达(NVIDIA)即将推出的产品,首先是其 Hopper H200 GPU,它配备了美光的 HBM3e 解决方案,显存容量达 141 GB,带宽高达 4.8 TB/s,与英伟达(NVIDIA)A100 相比,带宽增加了 2.4 倍,容量增加了一倍。在 Llama 2(700 亿参数 LLM)等应用中,与 H100 GPU 相比,这种新的内存解决方案使英伟达的人工智能推理性能提高了近一倍。下一个重磅产品是 Blackwell B100 AI GPU,在性能方面,它将通过采用芯片组设计,在每瓦性能方面带来决定性的提升。英伟达公司的下一代Hopper H200和Blackwell B100人工智能图形处理器预计将在2024年内亮相,据报道,由于Hopper在2024年的采用率较高,B100将被推迟到第四季度。对于整个科技行业来说,今年将是有趣的一年,尤其是人工智能的进步以及与之相关的市场。预计英伟达公司将在 3 月份的 GTC 2024 大会上公布更多有关人工智能和数据中心芯片的信息。 ... PC版: 手机版:

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片 HGX H200 GPU NVIDIA 今天宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。 NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前一代 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。 全球领先的服务器制造商和云服务提供商采用 H200 的系统预计将于 2024 年第二季度开始发货。

封面图片

英伟达推出新款AI处理器H200

英伟达推出新款AI处理器H200 英伟达升级H100 AI处理器,以巩固在AI计算市场的主导地位。英伟达推出名为H200的新款图形处理器(GPU),具备使用HBM3e高带宽内存的能力,H200集成141 GB内存,在推理或生成问题答案时,性能较H100提高60%-90%。英伟达一度上涨将近1.4%,处于连续第九个交易日上涨之中。 来源:

封面图片

NVIDIA都成世界第一了 黄仁勋为何仍在担心?

NVIDIA都成世界第一了 黄仁勋为何仍在担心? 其次,他对于与客户如微软在芯片部署策略上的潜在摩擦表示忧虑。此外,随着NVIDIA进军软件与云服务领域,公司直接与其最大客户展开了竞争,这无疑增加了市场的复杂性。为了预防芯片需求可能遭遇的瓶颈,NVIDIA开始积极向人工智能开发商销售软件,并成立了自有服务器租赁业务DGX Cloud,直接挑战其最大客户微软、亚马逊等云服务巨头。这一策略在行业内引发了紧张局势,尽管亚马逊最初拒绝了NVIDIA在其数据中心内开展竞争业务的提议,但最终也不得不妥协。黄仁勋还面临着如何维持NVIDIA增长势头和市场领导地位的挑战,避免重蹈硬件巨头因忽视市场变化而衰落的覆辙。为此,他谨慎地管理着NVIDIA的芯片分配策略,避免任何一家公司囤积过多的芯片。在硬件业务方面,NVIDIA正加强对最大客户购买和安装其GPU方式的控制力度,公司试图说服客户采纳与NVIDIA设计完全匹配的机架方案。这一做法引发了与微软等公司的激烈讨论,尽管最终NVIDIA做出了让步,但这一争议也体现了公司在维护其市场地位方面的坚定决心。同时,NVIDIA也在积极转型,致力于打造AI操作系统,为客户提供包括GPU、软件以及用于现代数据中心的完整系统。黄仁勋的目标是构建一个强大的飞轮,通过提供卓越的软件服务来确保客户持续选择NVIDIA的产品。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人