首款GH200主机开卖:售价47500欧元起 专为AI而生

首款GH200主机开卖:售价47500欧元起 专为AI而生 在定位上,它显然不合适为游戏和传统工作站而设计的,更准确点的定位,应该是主打本地运行大语言模型的AI工作站。这款主机配备了480GB LPDDR5X内存,算上GH200中的96GB HBM3内存(甚至144GB HBMe),做到了576GB-624GB。售价上,96GB HBM3内存版本售价为47500欧元(约37万元人民币),现已可购买,其中144GB HBMe版本在2024年预计第二季度推出,售价为59500欧元(约46万人民币)。这款AI工作站的具体配置,搭载的NVIDIA GH200 Grace Hopper处理器拥有72个ARM内核(也有144核的版本),配有专用的NVIDIA H100加速器,因此配备了双2000W电源和超大容量存储,支持各种连接扩展选项(包括 NVIDIA Bluefield / Connect-X)。这款PC的散热系统使用的是猫头鹰风扇,附加组件,可选Nvidia Bluefield-3和ConnectX-7网卡、8TB SSD、30TB HDD、鼠标和键盘,甚至还有RTX 4060。在性能上,这家德国公司声称这台AI工作站可以提供67 teraFLOPS FP64、989 teraFLOPS TF32、1979 teraFLOPS FP16、3958 teraFLOPS FP8、3958 TOPS INT8的计算性能。在Emerald Rapids、Bergamo这类软件的23项测试中,给出的结论是,GH200 Grace CPU的性能可以Intel至强铂金8592+ Emerald Rapids处理器相媲美。 ... PC版: 手机版:

相关推荐

封面图片

三星将首秀36GB HBM3E内存:NVIDIA H200单卡就有216GB

三星将首秀36GB HBM3E内存:NVIDIA H200单卡就有216GB NVIDIA H200 AI加速卡将首发采用三星36GB HBM3E,只需要八颗,就能达成6144-bit的位宽、216GB的容量,从而超过192GB HBM3内存的AMD Instinct MI300X。H200还支持四路、八路互连,因此单系统的HBM3E内存容量可以达到864GB、1728GB!按照惯例,NVIDIA可能会出于良品率的考虑,屏蔽一小部分容量,但是单卡超过200GB、单系统超过1.6TB必然是很轻松的。按照NVIDIA的说法,H200虽然还是Hopper架构,但相比H100再次飞跃,700亿参数Llama2、1750亿参数GTP-3模型的推理性能分别提升多达90%、60%,对比前代A100 HPC模拟性能直接翻番。NVIDIA H200计划2024年第二季度出货,三星36GB HBM3E则会在第一季度投入量产,正好赶得上。 ... PC版: 手机版:

封面图片

moto首款AI旗舰 moto X50 Ultra图赏

moto首款AI旗舰 moto X50 Ultra图赏 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 moto X50 Ultra采用6.7英寸2712*1220p 1.5K 144Hz OLED显示屏,搭载高通骁龙8s Gen3处理器,配备4500mAh电池,支持125W有线闪充。其后置5000万主摄、6400万潜望以及5000万超广角微距摄像头,支持100倍混合变焦,这是迄今为止唯一一款拥有潜望长焦的骁龙8s Gen3旗舰。moto X50 Ultra核心卖点之一就是AI,这款旗舰搭载联想AI智能体联想小天。据悉,联想小天是专属于用户的“个人智能体”,小天由嵌入本地的天禧大模型驱动,通过自然交互,可在工作、学习和生活等诸多场景中为用户带来全新的AI体验。moto X50 Ultra 12GB+256GB售价3999元,12GB+512GB售价4299元,16GB+1TB售价4699元。 ... PC版: 手机版:

封面图片

ℹ才开卖不到几天,国外 NVIDIA RTX 4060 Ti 16GB 已经跌破建议售价了#

ℹ才开卖不到几天,国外 NVIDIA RTX 4060 Ti 16GB 已经跌破建议售价了# 果然就如还没开卖前大家猜的一样,NVIDIA GeForce RTX 4060 Ti 16GB 真的蛮惨的,不仅被合作伙伴 MSI 的直播...

封面图片

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元 NVIDIA 的 Blackwell 产品包括 GPU、超级芯片平台和服务器,是每一家热衷于人工智能的大型科技公司所梦寐以求的。来自汇丰银行的分析师披露了即将推出的组件的预期定价,英伟达的 Blackwell AI 服务器机架这次的价格不菲,将超过 300 万美元大关,B100 GPU 等 AI 加速器单卖的标价也很高。这一消息来自《巴伦周刊》(Barron's)的资深撰稿人@firstadopter引用了汇丰银行(HSBC)对英伟达(NVIDIA)Blackwell产品的分析。从人工智能服务器开始,英伟达 GB200 NVL36 服务器机架的单台售价预计为 180 万美元,而更高级的 NVL72 对应产品的售价则高达 300 万美元。我们在之前的报道中也透露了这一具体数额,因此实际数字可能不会太远。关于单卖的人工智能加速卡,汇丰银行表示,单个 B100 人工智能 GPU 的售价预计约为 3 万至 3.5 万美元,而GB200 超级芯片的单价约为 6 万至 7 万美元。这些超级芯片包含两个 GB100 GPU 和一个 Grace Hopper 芯片,以及一个大型系统内存池(HBM3E)。这些估价也与詹森本人透露的价格基本一致。分析师的估算可能没有考虑实时市场情况、采购量和许多其他因素。因此,根据买家类型和订单的严重程度,实际数字可能会更低甚至更高。现在,如果我们从代际上进行比较,Blackwell 价格肯定要比 Hopper 高。如果 Blackwell AI GPU 架构能够复制 Hopper GPU 的成功应用,那么英伟达的市场份额和主导地位又将会有质的飞跃。谁知道呢,也许它将超越苹果和微软等公司,成为全球最有价值的公司之一。到目前为止,我们已经看到Meta 等公司下达了 Blackwell 订单,微软和 OpenAI 也在其中,而这仅仅是首批订单。NVIDIA公司首席执行官黄仁勋(Jensen Huang)早早识别出人工智能热潮的大手笔确实收到了成效。 ... PC版: 手机版:

封面图片

英伟达发布用于AI的"世界上最强大芯片"Blackwell B200 GPU

英伟达发布用于AI的"世界上最强大芯片"Blackwell B200 GPU NVIDIA 首席执行官黄仁勋在 GTC 现场直播中举起他的新 GPU(左边),右边是 H100。NVIDIA 表示,新的 B200 GPU 拥有 2080 亿个晶体管,可提供高达 20petaflops 的 FP4 算力,而 GB200 将两个 GPU 和一个 Grace CPU 结合在一起,可为 LLM 推理工作负载提供 30 倍的性能,同时还可能大大提高效率。NVIDIA 表示,与 H100 相比,它的成本和能耗"最多可降低 25 倍"。NVIDIA 声称,训练一个 1.8 万亿个参数的模型以前需要 8000 个 Hopper GPU 和 15 兆瓦的电力。如今,NVIDIA 首席执行官表示,2000 个 Blackwell GPU 就能完成这项工作,耗电量仅为 4 兆瓦。NVIDIA 表示,在具有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的 7 倍,而 NVIDIA 称其训练速度是 H100 的 4 倍。这就是 GB200 的样子。两个 GPU、一个 CPU、一块电路板NVIDIA 介绍说,其中一项关键改进是采用了第二代变压器引擎,通过为每个神经元使用四个比特而不是八个比特,将计算能力、带宽和模型大小提高了一倍(前面提到的 FP4 的 20 petaflops)。第二个关键区别只有在连接大量 GPU 时才会出现:新一代 NVLink 交换机可让 576 个 GPU 相互连接,双向带宽达到每秒 1.8 TB。这就要求 NVIDIA 打造一个全新的网络交换芯片,其中包含 500 亿个晶体管和一些自己的板载计算:NVIDIA 表示,该芯片拥有 3.6 teraflops 的 FP8 处理能力。NVIDIA 表示将通过 Blackwell 增加 FP4 和 FP6NVIDIA 表示,在此之前,由 16 个 GPU 组成的集群有 60% 的时间用于相互通信,只有 40% 的时间用于实际计算。当然,NVIDIA 还指望企业大量购买这些 GPU,并将它们包装成更大的设计,比如 GB200 NVL72,它将 36 个 CPU 和 72 个 GPU 集成到一个液冷机架中,可实现总计 720 petaflops 的 AI 训练性能或 1440 petaflops(又称 1.4exaflops)的推理性能。它内部有近两英里长的电缆,共有 5000 条独立电缆。GB200 NVL72机架上的每个托盘包含两个 GB200 芯片或两个 NVLink 交换机,每个机架有 18 个前者和 9 个后者。NVIDIA 称,其中一个机架总共可支持 27 万亿个参数模型。据传,GPT-4 的参数模型约为 1.7 万亿。该公司表示,亚马逊、Google、微软和甲骨文都已计划在其云服务产品中提供 NVL72 机架,但不清楚它们将购买多少。当然,NVIDIA 也乐于为公司提供其他解决方案。下面是用于 DGX GB200 的 DGX Superpod,它将八个系统合而为一,总共拥有 288 个 CPU、576 个 GPU、240TB 内存和 11.5 exaflops 的 FP4 计算能力。NVIDIA 称,其系统可扩展至数万 GB200 超级芯片,并通过其新型 Quantum-X800 InfiniBand(最多 144 个连接)或 Spectrum-X800 以太网(最多 64 个连接)与 800Gbps 网络连接在一起。我们预计今天不会听到任何关于新游戏 GPU 的消息,因为这一消息是在 NVIDIA 的 GPU 技术大会上发布的,而该大会通常几乎完全专注于 GPU 计算和人工智能,而不是游戏。不过,Blackwell GPU 架构很可能也会为未来的 RTX 50 系列桌面显卡提供算力。 ... PC版: 手机版:

封面图片

中国特供预估年销900亿 NVIDIA H20细节曝光:核心狂砍41%、性能暴跌28%

中国特供预估年销900亿 NVIDIA H20细节曝光:核心狂砍41%、性能暴跌28% 根据Geekbench 6测试数据,H20配备78组SM,而H100 GPU总共配备144组SM,不过并没有全部打开,其中SXM5版本中启用了132组SM,而PCIe 5.0版本则启用了114组SM。此外,H20配备了96GB的HBM3内存,比原始H100的80GB要高,但低于新版H100的144GB HBM3E内存;同时H20的带宽为4.0 TB/s,低于顶级H100的8.0 TB/s性能方面,NVIDIA H20的INT8为296 TFLOPS,FP16为148 TFLOPS,TF32为74 TFLOPS,FP32为44 TFLOPS,而FP64只有1 TFLOPS。在OpenCL测试中,H20的成绩为248992分,H100 80GB版本大概在280000分,如果是拥有132组SM的H100可达350000分左右,配备了144GB HBM3E的H100分数就更高了。其他方面,H20还配有60MB的L2缓存,支持7个多实例GPU,8路HGX配置,900 GB/s的NVLink带宽,TDP为400W。根据芯片行业咨询公司SemiAnalysis的预测,NVIDIA有望在当前财年交付超过100万个H20芯片,预计每个芯片售价在1.2万至1.3万美元之间。也就意味着H20芯片预估今年销售额将超过120亿美元(约合870亿元人民币),有望超过上一财年NVIDIA的中国区营收。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人