首款GH200主机开卖:售价47500欧元起 专为AI而生

首款GH200主机开卖:售价47500欧元起 专为AI而生 在定位上,它显然不合适为游戏和传统工作站而设计的,更准确点的定位,应该是主打本地运行大语言模型的AI工作站。这款主机配备了480GB LPDDR5X内存,算上GH200中的96GB HBM3内存(甚至144GB HBMe),做到了576GB-624GB。售价上,96GB HBM3内存版本售价为47500欧元(约37万元人民币),现已可购买,其中144GB HBMe版本在2024年预计第二季度推出,售价为59500欧元(约46万人民币)。这款AI工作站的具体配置,搭载的NVIDIA GH200 Grace Hopper处理器拥有72个ARM内核(也有144核的版本),配有专用的NVIDIA H100加速器,因此配备了双2000W电源和超大容量存储,支持各种连接扩展选项(包括 NVIDIA Bluefield / Connect-X)。这款PC的散热系统使用的是猫头鹰风扇,附加组件,可选Nvidia Bluefield-3和ConnectX-7网卡、8TB SSD、30TB HDD、鼠标和键盘,甚至还有RTX 4060。在性能上,这家德国公司声称这台AI工作站可以提供67 teraFLOPS FP64、989 teraFLOPS TF32、1979 teraFLOPS FP16、3958 teraFLOPS FP8、3958 TOPS INT8的计算性能。在Emerald Rapids、Bergamo这类软件的23项测试中,给出的结论是,GH200 Grace CPU的性能可以Intel至强铂金8592+ Emerald Rapids处理器相媲美。 ... PC版: 手机版:

相关推荐

封面图片

moto首款AI旗舰 moto X50 Ultra图赏

moto首款AI旗舰 moto X50 Ultra图赏 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 moto X50 Ultra采用6.7英寸2712*1220p 1.5K 144Hz OLED显示屏,搭载高通骁龙8s Gen3处理器,配备4500mAh电池,支持125W有线闪充。其后置5000万主摄、6400万潜望以及5000万超广角微距摄像头,支持100倍混合变焦,这是迄今为止唯一一款拥有潜望长焦的骁龙8s Gen3旗舰。moto X50 Ultra核心卖点之一就是AI,这款旗舰搭载联想AI智能体联想小天。据悉,联想小天是专属于用户的“个人智能体”,小天由嵌入本地的天禧大模型驱动,通过自然交互,可在工作、学习和生活等诸多场景中为用户带来全新的AI体验。moto X50 Ultra 12GB+256GB售价3999元,12GB+512GB售价4299元,16GB+1TB售价4699元。 ... PC版: 手机版:

封面图片

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元 NVIDIA 的 Blackwell 产品包括 GPU、超级芯片平台和服务器,是每一家热衷于人工智能的大型科技公司所梦寐以求的。来自汇丰银行的分析师披露了即将推出的组件的预期定价,英伟达的 Blackwell AI 服务器机架这次的价格不菲,将超过 300 万美元大关,B100 GPU 等 AI 加速器单卖的标价也很高。这一消息来自《巴伦周刊》(Barron's)的资深撰稿人@firstadopter引用了汇丰银行(HSBC)对英伟达(NVIDIA)Blackwell产品的分析。从人工智能服务器开始,英伟达 GB200 NVL36 服务器机架的单台售价预计为 180 万美元,而更高级的 NVL72 对应产品的售价则高达 300 万美元。我们在之前的报道中也透露了这一具体数额,因此实际数字可能不会太远。关于单卖的人工智能加速卡,汇丰银行表示,单个 B100 人工智能 GPU 的售价预计约为 3 万至 3.5 万美元,而GB200 超级芯片的单价约为 6 万至 7 万美元。这些超级芯片包含两个 GB100 GPU 和一个 Grace Hopper 芯片,以及一个大型系统内存池(HBM3E)。这些估价也与詹森本人透露的价格基本一致。分析师的估算可能没有考虑实时市场情况、采购量和许多其他因素。因此,根据买家类型和订单的严重程度,实际数字可能会更低甚至更高。现在,如果我们从代际上进行比较,Blackwell 价格肯定要比 Hopper 高。如果 Blackwell AI GPU 架构能够复制 Hopper GPU 的成功应用,那么英伟达的市场份额和主导地位又将会有质的飞跃。谁知道呢,也许它将超越苹果和微软等公司,成为全球最有价值的公司之一。到目前为止,我们已经看到Meta 等公司下达了 Blackwell 订单,微软和 OpenAI 也在其中,而这仅仅是首批订单。NVIDIA公司首席执行官黄仁勋(Jensen Huang)早早识别出人工智能热潮的大手笔确实收到了成效。 ... PC版: 手机版:

封面图片

ℹ才开卖不到几天,国外 NVIDIA RTX 4060 Ti 16GB 已经跌破建议售价了#

ℹ才开卖不到几天,国外 NVIDIA RTX 4060 Ti 16GB 已经跌破建议售价了# 果然就如还没开卖前大家猜的一样,NVIDIA GeForce RTX 4060 Ti 16GB 真的蛮惨的,不仅被合作伙伴 MSI 的直播...

封面图片

AMD公布AI加速卡路线图:紧随NVIDIA每年一更新 2025年就出CDNA4架构

AMD公布AI加速卡路线图:紧随NVIDIA每年一更新 2025年就出CDNA4架构 这款加速卡将配备高达288GB的HBM3E内存和6TB/s的内存带宽,提供1.3PFLOPs的FP16和2.6PFLOPs的FP8计算性能,能够处理高达1万亿参数的服务器。AMD还将在2025年推出的MI350系列,该系列将基于下一代CDNA 4架构,并与OAM兼容。MI350系列将基于3nm工艺技术,同样提供高达288GB的HBM3E内存,并支持FP4/FP6数据类型。2026年,AMD计划推出基于全新CDNA架构,简称为"CDNA Next"的MI400系列。在性能方面,CDNA 3架构预计将比CDNA 2提高8倍,而CDNA 4架构预计将比CDNA 3提供大约35倍的AI推理性能提升。AMD还分享了与NVIDIA Blackwell B200 GPU的比较数据,MI350系列预计将提供比B200多50%的内存和多20%的计算TFLOPs。AMD还重申了上周公布的UALink(Ultra Accelerator Link)的最新消息,这是一个由多家厂商包括微软、英特尔、思科、博通、Meta、惠普等共同开发的新型高性能、开放和可扩展的AI互连基础设施。 ... PC版: 手机版:

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片 HGX H200 GPU NVIDIA 今天宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。 NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前一代 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。 全球领先的服务器制造商和云服务提供商采用 H200 的系统预计将于 2024 年第二季度开始发货。

封面图片

英伟达发布用于AI的"世界上最强大芯片"Blackwell B200 GPU

英伟达发布用于AI的"世界上最强大芯片"Blackwell B200 GPU NVIDIA 首席执行官黄仁勋在 GTC 现场直播中举起他的新 GPU(左边),右边是 H100。NVIDIA 表示,新的 B200 GPU 拥有 2080 亿个晶体管,可提供高达 20petaflops 的 FP4 算力,而 GB200 将两个 GPU 和一个 Grace CPU 结合在一起,可为 LLM 推理工作负载提供 30 倍的性能,同时还可能大大提高效率。NVIDIA 表示,与 H100 相比,它的成本和能耗"最多可降低 25 倍"。NVIDIA 声称,训练一个 1.8 万亿个参数的模型以前需要 8000 个 Hopper GPU 和 15 兆瓦的电力。如今,NVIDIA 首席执行官表示,2000 个 Blackwell GPU 就能完成这项工作,耗电量仅为 4 兆瓦。NVIDIA 表示,在具有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的 7 倍,而 NVIDIA 称其训练速度是 H100 的 4 倍。这就是 GB200 的样子。两个 GPU、一个 CPU、一块电路板NVIDIA 介绍说,其中一项关键改进是采用了第二代变压器引擎,通过为每个神经元使用四个比特而不是八个比特,将计算能力、带宽和模型大小提高了一倍(前面提到的 FP4 的 20 petaflops)。第二个关键区别只有在连接大量 GPU 时才会出现:新一代 NVLink 交换机可让 576 个 GPU 相互连接,双向带宽达到每秒 1.8 TB。这就要求 NVIDIA 打造一个全新的网络交换芯片,其中包含 500 亿个晶体管和一些自己的板载计算:NVIDIA 表示,该芯片拥有 3.6 teraflops 的 FP8 处理能力。NVIDIA 表示将通过 Blackwell 增加 FP4 和 FP6NVIDIA 表示,在此之前,由 16 个 GPU 组成的集群有 60% 的时间用于相互通信,只有 40% 的时间用于实际计算。当然,NVIDIA 还指望企业大量购买这些 GPU,并将它们包装成更大的设计,比如 GB200 NVL72,它将 36 个 CPU 和 72 个 GPU 集成到一个液冷机架中,可实现总计 720 petaflops 的 AI 训练性能或 1440 petaflops(又称 1.4exaflops)的推理性能。它内部有近两英里长的电缆,共有 5000 条独立电缆。GB200 NVL72机架上的每个托盘包含两个 GB200 芯片或两个 NVLink 交换机,每个机架有 18 个前者和 9 个后者。NVIDIA 称,其中一个机架总共可支持 27 万亿个参数模型。据传,GPT-4 的参数模型约为 1.7 万亿。该公司表示,亚马逊、Google、微软和甲骨文都已计划在其云服务产品中提供 NVL72 机架,但不清楚它们将购买多少。当然,NVIDIA 也乐于为公司提供其他解决方案。下面是用于 DGX GB200 的 DGX Superpod,它将八个系统合而为一,总共拥有 288 个 CPU、576 个 GPU、240TB 内存和 11.5 exaflops 的 FP4 计算能力。NVIDIA 称,其系统可扩展至数万 GB200 超级芯片,并通过其新型 Quantum-X800 InfiniBand(最多 144 个连接)或 Spectrum-X800 以太网(最多 64 个连接)与 800Gbps 网络连接在一起。我们预计今天不会听到任何关于新游戏 GPU 的消息,因为这一消息是在 NVIDIA 的 GPU 技术大会上发布的,而该大会通常几乎完全专注于 GPU 计算和人工智能,而不是游戏。不过,Blackwell GPU 架构很可能也会为未来的 RTX 50 系列桌面显卡提供算力。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人