英伟达预告下一代 Rubin GPU 架构:HBM4 显存、Vera CPU,2026 年推出 - IT之家

None

相关推荐

封面图片

SK hynix宣布2026年量产HBM4 为下一代AI GPU做准备

SK hynix宣布2026年量产HBM4 为下一代AI GPU做准备 随着人工智能在市场上的应用迅速增加,我们在迈向未来的过程中需要更强的计算能力,值得注意的是,HBM 在人工智能计算如何定位自己的现代生活中发挥了至关重要的作用,因为它是制造人工智能加速器的关键部件。SK hynix 副总裁 Kim Chun-hwan 在 2024 年韩国半导体展(SEMICON Korea 2024)上发表主题演讲时透露,该公司打算在 2026 年之前开始量产 HBM4,并声称这将推动人工智能市场的巨大增长。他认为,除了早日实现下一代产品过渡之外,重要的是要认识到 HBM 行业面临着巨大的需求;因此,创造一种既能无缝供应又具有创新性的解决方案更为重要。Kim 认为,到 2025 年,HBM 市场预计将增长高达 40%,并已提前定位,以充分利用这一市场。关于对 HBM4 的期待,Trendforce分享的路线图预计,首批 HBM4 样品的每个堆栈容量将高达 36 GB,而完整规格预计将在 2024-2025 年下半年左右由 JEDEC 发布。首批客户样品和可用性预计将于 2026 年推出,因此距离我们看到新的高带宽内存人工智能解决方案的实际应用还有很长的时间。目前还不确定哪种类型的人工智能产品将采用新工艺,因此我们暂时无法做出任何预测。随着 SK hynix 的加入,HBM 市场的竞争似乎会变得更加激烈,哪家公司会崛起并登上王者宝座,让我们拭目以待。 ... PC版: 手机版:

封面图片

NVIDIA官宣全新Rubin GPU、Vera CPU 3nm工艺配下代HBM4内存

NVIDIA官宣全新Rubin GPU、Vera CPU 3nm工艺配下代HBM4内存 NVIDIA现有的高性能GPU架构代号“Blackwell”,已经投产,相关产品今年陆续上市,包括用于HPC/AI领域的B200/GB200、用于游戏的RTX 50系列。2025年将看到“Blackwell Ultra”,自然是升级版本,但具体情况没有说。2026年就是全新的下一代“Rubin”,命名源于美国女天文学家Vera Rubin(薇拉·鲁宾),搭配下一代HBM4高带宽内存,8堆栈。根据曝料,Rubin架构首款产品为R100,采用台积电3nm EUV制造工艺,四重曝光技术,CoWoS-L封装,预计2025年第四季度投产。2027年则是升级版的“Rubin Ultra”,HBM4内存升级为12堆栈,容量更大,性能更高。CPU方面下代架构代号“Vera”没错,用一个名字同时覆盖GPU、CPU,真正二合一。Vera CPU、Rubin GPU组成新一代超级芯片也在规划之中,将采用第六代NVLink互连总线,带宽高达3.6TB/s。此外,NVIDIA还有新一代数据中心网卡CX9 SuperNIC,最高带宽可达1600Gbps,也就是160万兆,并搭配新的InfiniBand/以太网交换机X1600。 ... PC版: 手机版:

封面图片

AMD下一代CPU/GPU将引入三星4nm工艺

AMD下一代CPU/GPU将引入三星4nm工艺 近日有网友透露,AMD将采用三星4nm工艺制造客户端CPU和GPU芯片,首先引入的是低端APU芯片,并计划中长期内生产GPU芯片。AMD计划今年到明年推出一系列APU,主要针对移动平台,包括Strix Point、Kracken Point和Fire range等,有着较大的产能需求,且低端芯片对成本也更加敏感。为了争取更多订单,三星都倾向于给予更大的折扣优惠。之前曾传出,新一代Steam Deck将搭载AMD新款定制芯片,名为“Sonoma Valley”,采用Zen 5c架构内核,并选择三星4nm工艺。GPU方面,AMD接下来会引入RDNA 3+架构,比如用于Strix Point,暂时不清楚是否会有独立显卡采用的相同架构芯片。至于RDNA 4架构GPU,应该还会是继续由台积电代工。有消息称,AMD最初计划让三星为索尼PlayStation 5 Pro生产APU,但是后来取消了,不知道是性能或者功耗的问题,还是良品率导致成本的问题。 ... PC版: 手机版:

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片 HGX H200 GPU NVIDIA 今天宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。 NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前一代 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。 全球领先的服务器制造商和云服务提供商采用 H200 的系统预计将于 2024 年第二季度开始发货。

封面图片

英伟达宣布2026年推出下一代Rubin AI平台

英伟达宣布2026年推出下一代Rubin AI平台 英伟达公司首席执行官黄仁勋表示,英伟达计划每年升级其人工智能加速器,并宣布将在明年推出 Blackwell Ultra AI 芯片。他还表示,下一代人工智能平台名称为 Rubin,将在2026推出,该平台将采用 HBM4 内存。英伟达在台湾国际电脑展上还宣布推出 一项人工智能模型推理服务 NVIDIA NIM。全球2800万英伟达开发者可以通过 NIM 将人工智能模型部署在云、数据中心或工作站上,轻松地构建 copilots、ChatGPT 聊天机器人等生成式人工智能应用,所需时间从数周缩短至几分钟。

封面图片

AMD CEO预告下一代基于MCM的Instinct MI200 GPU与Zen3 EPYC - AMD -

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人