英伟达发布新一代数据中心超级芯片

英伟达发布新一代数据中心超级芯片 在周二的主题演讲中,黄仁勋介绍了下一代 DGX GH200 Grace Hopper 超级芯片,专为 OpenAI 的 ChatGPT 等大内存生成性人工智能模型设计,以扩展全球的数据中心。 在发布会前的新闻发布会上,英伟达的超大规模和高性能计算部门主管 Ian Buck 告诉记者,GH200 比该公司的 H100 数据中心系统容纳了更多的内存和更大的带宽。GH200 采用了英伟达的 Hopper GPU 架构,并将其与 Arm Ltd. 的 Grace CPU 架构结合起来。该芯片拥有 141 GB 的 HBM3 内存,以及每秒 5 TB 的带宽。 GH200 可以在 NVLink 的双 GH200 系统中叠加使用,使内存增加 3.5 倍,带宽增加两倍。这两种产品都将在 2024 年第二季度上市,但英伟达没有透露定价。

相关推荐

封面图片

根据 Phoronix 对 GH100(包含单个 Grace 芯片)的评测,英伟达 Grace 服务器 CPU(72 核 Arm

根据 Phoronix 对 GH100(包含单个 Grace 芯片)的评测,英伟达 Grace 服务器 CPU(72 核 Arm 架构)相比 AMD 和英特尔的产品似乎显得非常具有竞争力,在很多测试项目中都胜过了最顶级的 EPYC 9754 或 Xeon Platinum 8592+ 处理器(但整体性能依然落后于 X86 产品)。 值得一提的是,英伟达不单独销售 Grace 芯片,所以最基础的 GH100 和 GH200(包括一个 Hopper GPU 和一个 72 核的 Grace CPU,配备 480GB LPDDR5X 内存)就是唯一可以测试 Grace CPU 性能的产品。 标签: #英伟达 #Grace #CPU 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

亚马逊叫停英伟达芯片订单以等待新产品

亚马逊叫停英伟达芯片订单以等待新产品 亚马逊的云计算部门叫停了英伟达最先进的“超级芯片”的订单,以等待更强大的新型号芯片。英伟达在今年3月公布新一代处理器架构 Blackwell,距离上一代产品 Hopper 开始向客户发货仅一年。云计算提供商 AWS 表示已将之前下的 Grace Hopper 超级芯片订单“完全转换为”新一代产品 Grace Blackwell 的订单。Grace Hopper 是去年8月推出的。该公司表示,鉴于“Grace Hopper 与 Grace Blackwell 之间的间隔很短”,此举“合乎逻辑”。

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片 HGX H200 GPU NVIDIA 今天宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。 NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前一代 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。 全球领先的服务器制造商和云服务提供商采用 H200 的系统预计将于 2024 年第二季度开始发货。

封面图片

郭明𫓹:英伟达下一代AI芯片R系列/R100将在明年四季度量产

郭明𫓹:英伟达下一代AI芯片R系列/R100将在明年四季度量产 R100的Interposer尺寸尚未定案,有2–3种选择。R100预计将搭配8颗HBM4。GR200的Grace CPU将采台积电的N3制程 (vs. GH200/GB200的CPU采用台积电N5)。目前,英伟达已经意识到,AI服务器的高耗能已成为CSP(云服务提供商)/Hyperscale(超大规模数据中心)采购和数据中心建设的重要挑战。因此,在R系列芯片与系统方案的设计中,除了提升AI算力外,还特别注重了能耗的改善,以满足市场对高效能、低功耗AI解决方案的迫切需求。 ... PC版: 手机版:

封面图片

【游戏收入暴跌 40%,但英伟达其实没那么糟糕】随着大型云数据中心越来越多地将图形芯片用于人工智能计算,英伟达的数据中心迎来了爆

【游戏收入暴跌 40%,但英伟达其实没那么糟糕】随着大型云数据中心越来越多地将图形芯片用于人工智能计算,英伟达的数据中心迎来了爆发式增长。本季度,数据中心以 57% 的营收占比已经成为其绝对的支柱业务。 #抽屉IT

封面图片

英伟达称一年推出一款芯片 Blackwell下一代已在准备中

英伟达称一年推出一款芯片 Blackwell下一代已在准备中 此前英伟达的芯片设计频率稳定在两年一次,从一开始2020年发布的Ampere,到2022年的业界宠儿H100芯片(Hopper系列),再到2024年备受期待的Blackwell。但显然,两年对于英伟达来说似乎是太久了。本月早些时候,知名分析师郭明𫓹就透露,英伟达的下一代AI芯片架构Rubin将于2025年问世,最早明年市场就能获得R100 AI GPU。而这条消息目前看来可信度直线上升。黄仁勋表示,英伟达将以非常快的速度前进,新的CPU、新的GPU、新的网络网卡、新的交换机……大量芯片即将到来。换得快所以卖得也快本周早些时候,亚马逊被曝因为AI芯片迭代速度太快而暂停了向英伟达采购的订单,以等待即将发布的Blackwell芯片。后来,亚马逊否认暂停合同之说,但承认将在超级计算机项目中转向采购Blackwell芯片。这也引发了市场对于英伟达芯片更新速度可能导致该公司当代产品滞销的担忧。对此,黄仁勋回应,英伟达新一代GPU在电气和机械上都能向后兼容,并运行相同的软件,客户可以在现有数据中心中轻松从H100过渡到H200再到B100。他认为,随着市场向H200和Blackwell过渡,我们预计一段时间内需求将超过供应。每个人都急于让其基础设施上线,以尽快盈利,因此其对英伟达GPU的订购并不会停滞。黄仁勋提出了一个有趣的问题:企业是想做发布人工智能竞赛下一阶段重大里程碑的首家公司,还是紧隔几天后宣布将效果提升0.3%的第二家公司呢?除此之外,英伟达的首席财务官Colette Kress透露,汽车将成为今年英伟达数据中心最大的垂类行业,并举例称特斯拉已经购买了3.5万个H100芯片来训练其全自动驾驶系统。汽车之外,Meta之类的消费互联网公司也在强劲增长。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人