郭明𫓹:英伟达下一代AI芯片R系列/R100将在明年四季度量产

郭明𫓹:英伟达下一代AI芯片R系列/R100将在明年四季度量产R100的Interposer尺寸尚未定案,有2–3种选择。R100预计将搭配8颗HBM4。GR200的GraceCPU将采台积电的N3制程(vs.GH200/GB200的CPU采用台积电N5)。目前,英伟达已经意识到,AI服务器的高耗能已成为CSP(云服务提供商)/Hyperscale(超大规模数据中心)采购和数据中心建设的重要挑战。因此,在R系列芯片与系统方案的设计中,除了提升AI算力外,还特别注重了能耗的改善,以满足市场对高效能、低功耗AI解决方案的迫切需求。...PC版:https://www.cnbeta.com.tw/articles/soft/1430064.htm手机版:https://m.cnbeta.com.tw/view/1430064.htm

相关推荐

封面图片

郭明𫓹:预计英伟达下一代 AI 芯片将在 4Q25 量产 能耗亦是重点

郭明𫓹:预计英伟达下一代AI芯片将在4Q25量产能耗亦是重点分析师郭明𫓹预计,英伟达下一代AI芯片R系列/R100将在2025年4季度量产,系统/机柜方案预计将在2026年上半年量产。R100将采台积电的N3制程与CoWoS-L封装(与B100相同)。R100预计将搭配8颗HBM4。英伟达已理解到AI伺服器的耗能已成为CSP/Hyperscale采购与资料中心建置挑战,故R系列的晶片与系统方案,除提升AI算力外,耗能改善亦为设计重点。

封面图片

天风国际分析师郭明预计,英伟达下一代AI芯片R系列/R100将在2025年4季度量产,系统/机柜方案预计将在2026年上半年量

天风国际分析师郭明𫓹预计,英伟达下一代AI芯片R系列/R100将在2025年4季度量产,系统/机柜方案预计将在2026年上半年量产。R100将采台积电的N3制程与CoWoS-L封装(与B100相同)。R100预计将搭配8颗HBM4。英伟达已理解到AI伺服器的耗能已成为CSP/Hyperscale采购与资料中心建置挑战,故R系列的晶片与系统方案,除提升AI算力外,耗能改善亦为设计重点。

封面图片

台积电准备推出基于12和5纳米节点的下一代HBM4基础芯片

台积电准备推出基于12和5纳米节点的下一代HBM4基础芯片访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器作为2024年欧洲技术研讨会演讲的一部分,台积电提供了有关将为HBM4制造的基础芯片的一些新细节,该芯片将使用逻辑工艺构建。由于台积电计划采用其N12和N5工艺的变体来完成这项任务,该公司预计在HBM4制造工艺中占据有利地位,因为内存工厂目前没有能力经济地生产如此先进的逻辑芯片——如果他们能够生产的话他们根本。对于第一波HBM4,台积电准备使用两种制造工艺:N12FFC+和N5。虽然它们服务于相同的目的——将HBM4E内存与下一代AI和HPC处理器集成——但它们将以两种不同的方式用于连接AI和HPC应用程序的高性能处理器的内存。台积电设计与技术平台高级总监表示:“我们正在与主要HBM内存合作伙伴(美光、三星、SK海力士)合作,在先进节点上实现HBM4全堆栈集成。”“N12FFC+具有成本效益的基础芯片可以达到HBM的性能,而N5基础芯片可以在HBM4速度下以低得多的功耗提供更多逻辑。”台积电采用N12FFC+制造工艺(12nmFinFetCompactPlus,正式属于12nm级技术,但其根源于台积电经过充分验证的16nmFinFET生产节点)制造的基础芯片将用于在硅片上安装HBM4内存堆栈片上系统(SoC)旁边的中介层。台积电认为,他们的12FFC+工艺非常适合实现HBM4性能,使内存供应商能够构建12-Hi(48GB)和16-Hi堆栈(64GB),每堆栈带宽超过2TB/秒。“我们还在针对HBM4优化CoWoS-L和CoWoS-R,”台积电高级总监说道。“CoWoS-L和CoWoS-R都[使用]超过八层,以实现HBM4的路由超过2,000个互连,并具有[适当的]信号完整性。”N12FFC+上的HBM4基础芯片将有助于使用TSMC的CoWoS-L或CoWoS-R先进封装技术构建系统级封装(SiP),该技术可提供高达8倍标线尺寸的中介层—足够的空间容纳多达12个HBM4内存堆栈。根据台积电的数据,目前HBM4可以在14mA电流下实现6GT/s的数据传输速率。“我们与Cadence、Synopsys和Ansys等EDA合作伙伴合作,验证HBM4通道信号完整性、IR/EM和热精度,”台积电代表解释道。同时,作为一种更先进的替代方案,内存制造商还可以选择采用台积电的N5工艺来生产HBM4基础芯片。N5构建的基础芯片将封装更多的逻辑,消耗更少的功耗,并提供更高的性能。但可以说,最重要的好处是,这种先进的工艺技术将实现非常小的互连间距,约为6至9微米。这将允许N5基础芯片与直接键合结合使用,从而使HBM4能够在逻辑芯片顶部进行3D堆叠。直接键合可以实现更高的内存性能,这对于总是寻求更多内存带宽的AI和HPC芯片来说预计将是一个巨大的提升。我们已经知道台积电和SK海力士在HBM4基础芯片上进行合作。台积电也可能为美光生产HBM4基础芯片。否则,我们会更惊讶地看到台积电与三星合作,因为该集团已经通过其三星代工部门拥有自己的先进逻辑工厂。台积电特殊工艺产能扩产50%随着德国和日本的新工厂全部建成,以及中国产能的扩张,台积电计划到2027年将其特种技术产能扩大50%。该公司在欧洲技术研讨会上透露本周,台积电预计不仅需要转换现有产能以满足特殊工艺的需求,甚至还需要为此目的建造新的(绿地)晶圆厂空间。这一需求的主要驱动力之一将是台积电的下一个专用节点:N4e,一个4纳米级超低功耗生产节点。“过去,我们总是对即将建成的晶圆厂进行审查阶段,但在台积电很长一段时间以来,我们第一次开始建设绿地晶圆厂,以满足未来的专业技术要求,”台积电业务发展和海外运营办公室高级副总裁KevinZhang博士出席活动时候说。“在未来四到五年内,我们的专业产能实际上将增长1.5倍。通过这样做,我们实际上扩大了制造网络的覆盖范围,以提高整个晶圆厂供应链的弹性。”除了N5和N3E等著名的主要逻辑节点之外,台积电还为功率半导体、混合模拟I/O和超低功耗应用(例如物联网)等应用提供一套专用节点。这些通常基于该公司的落后制造工艺,但无论底层技术如何,这些节点的容量需求都随着台积电主要逻辑节点的需求而增长。所有这些都要求台积电重新评估他们如何规划其专业节点的容量。台积电近年来的扩张战略追求几个目标。其中之一是在台湾以外建立新的晶圆厂;另一个是普遍扩大产能,以满足未来对所有类型工艺技术的需求——这就是该公司正在建设专业节点产能的原因。目前,台积电最先进的专用节点是N6e,是N7/N6的变体,支持0.4V至0.9V之间的工作电压。对于N4e,台积电正在考虑低于0.4V的电压。尽管目前台积电并未透露太多计划节点的技术细节;考虑到该公司在这里的历史,我们预计一旦新流程准备就绪,他们明年将有更多的话题可以讨论。...PC版:https://www.cnbeta.com.tw/articles/soft/1431253.htm手机版:https://m.cnbeta.com.tw/view/1431253.htm

封面图片

英伟达称一年推出一款芯片 Blackwell下一代已在准备中

英伟达称一年推出一款芯片Blackwell下一代已在准备中此前英伟达的芯片设计频率稳定在两年一次,从一开始2020年发布的Ampere,到2022年的业界宠儿H100芯片(Hopper系列),再到2024年备受期待的Blackwell。但显然,两年对于英伟达来说似乎是太久了。本月早些时候,知名分析师郭明𫓹就透露,英伟达的下一代AI芯片架构Rubin将于2025年问世,最早明年市场就能获得R100AIGPU。而这条消息目前看来可信度直线上升。黄仁勋表示,英伟达将以非常快的速度前进,新的CPU、新的GPU、新的网络网卡、新的交换机……大量芯片即将到来。换得快所以卖得也快本周早些时候,亚马逊被曝因为AI芯片迭代速度太快而暂停了向英伟达采购的订单,以等待即将发布的Blackwell芯片。后来,亚马逊否认暂停合同之说,但承认将在超级计算机项目中转向采购Blackwell芯片。这也引发了市场对于英伟达芯片更新速度可能导致该公司当代产品滞销的担忧。对此,黄仁勋回应,英伟达新一代GPU在电气和机械上都能向后兼容,并运行相同的软件,客户可以在现有数据中心中轻松从H100过渡到H200再到B100。他认为,随着市场向H200和Blackwell过渡,我们预计一段时间内需求将超过供应。每个人都急于让其基础设施上线,以尽快盈利,因此其对英伟达GPU的订购并不会停滞。黄仁勋提出了一个有趣的问题:企业是想做发布人工智能竞赛下一阶段重大里程碑的首家公司,还是紧隔几天后宣布将效果提升0.3%的第二家公司呢?除此之外,英伟达的首席财务官ColetteKress透露,汽车将成为今年英伟达数据中心最大的垂类行业,并举例称特斯拉已经购买了3.5万个H100芯片来训练其全自动驾驶系统。汽车之外,Meta之类的消费互联网公司也在强劲增长。...PC版:https://www.cnbeta.com.tw/articles/soft/1432031.htm手机版:https://m.cnbeta.com.tw/view/1432031.htm

封面图片

英伟达发布新一代数据中心超级芯片

英伟达发布新一代数据中心超级芯片在周二的主题演讲中,黄仁勋介绍了下一代DGXGH200GraceHopper超级芯片,专为OpenAI的ChatGPT等大内存生成性人工智能模型设计,以扩展全球的数据中心。在发布会前的新闻发布会上,英伟达的超大规模和高性能计算部门主管IanBuck告诉记者,GH200比该公司的H100数据中心系统容纳了更多的内存和更大的带宽。GH200采用了英伟达的HopperGPU架构,并将其与ArmLtd.的GraceCPU架构结合起来。该芯片拥有141GB的HBM3内存,以及每秒5TB的带宽。GH200可以在NVLink的双GH200系统中叠加使用,使内存增加3.5倍,带宽增加两倍。这两种产品都将在2024年第二季度上市,但英伟达没有透露定价。——

封面图片

英伟达发布下一代AI计算芯片 HGX H200 GPU

英伟达发布下一代AI计算芯片HGXH200GPUNVIDIA今天宣布推出NVIDIAHGX™H200,为全球领先的AI计算平台带来强大动力。该平台基于NVIDIAHopper™架构,配备NVIDIAH200TensorCoreGPU和高级内存,可处理生成AI和高性能计算工作负载的海量数据。NVIDIAH200是首款提供HBM3e的GPU,HBM3e是更快、更大的内存,可加速生成式AI和大型语言模型,同时推进HPC工作负载的科学计算。借助HBM3e,NVIDIAH200以每秒4.8TB的速度提供141GB内存,与前一代NVIDIAA100相比,容量几乎翻倍,带宽增加2.4倍。全球领先的服务器制造商和云服务提供商采用H200的系统预计将于2024年第二季度开始发货。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人