英伟达和AMD的下一代人工智能GPU将主要搭配HBM3内存

英伟达和AMD的下一代人工智能GPU将主要搭配HBM3内存关于HBM3内存,有一个普通的细节不为很多人所知。正如TrendForce所强调的那样,HBM3将以不同的形式出现。据报道,低端HBM3将以5.6至6.4Gbps的速度运行,而高端变体将超过8Gbps。高端变体将被称为"HBM3P、HBM3A、HBM3+和HBM3Gen2"。机构预计,HBM行业的市场份额必将大幅上升,而SK海力士则处于领先地位。预计未来的人工智能GPU,如AMDMI300InstinctGPU和英伟达的H100,都将采用下一代HBM3工艺,而SKHynix在这方面占据了先机,因为它已经进入了制造阶段,并收到了英伟达本身的样品请求。美光(Micron)最近也宣布了其未来的HBM4内存设计计划,但预计要到2026年才会实现,因此即将推出的代号为"GB100"的英伟达BlackwellGPU很可能会采用速度更快的HBM3变体,时间大约在2024-2025年之间。采用第五代工艺技术(10纳米)的HBM3E内存预计将于2024年上半年开始量产,三星/SK海力士预计都将加紧生产。SKhynix率先推出12层HBM3内存,每层24GB容量,向客户提供样品三星和美光(Micron)等竞争对手也在加足马力,有多篇报道都围绕着这两家公司。据说,三星建议英伟达通过其部门负责晶圆和内存的采购。与此同时,据报道美光已与台积电合作,成为英伟达人工智能GPU的内存供应商。在之前的报道中,我们根据TrendForce披露的数据讨论了人工智能产业的前景。据预测,从2023年到2027年,人工智能服务器出货量预计将增长15.4%,复合年增长率(CAGR)预计为12.2%。出货量的大幅增长最终将导致公司之间的竞争加剧,最终推动创新。...PC版:https://www.cnbeta.com.tw/articles/soft/1374607.htm手机版:https://m.cnbeta.com.tw/view/1374607.htm

相关推荐

封面图片

三星电子将于 2025 年推出新一代 HBM4 内存

三星电子将于2025年推出新一代HBM4内存三星量产了HBM2E和HBM3,并开发了每秒9.8千兆比特(Gbps)的HBM3E,我们将很快开始向客户提供样品,以丰富HPC/AI生态系统。展望未来,HBM4预计将于2025年推出,目前正在开发针对高热性能进行优化的技术,如非导电膜(NCF)组装和混合铜键合(HCB)。帖子中提供的信息显示,三星已经获得了潜在客户对其HBM3内存工艺的兴趣,其中英伟达(NVIDIA)等公司处于领先地位。随着人工智能(genAI)的发展,对相关硬件的要求达到了新的高度,因此对HBM3等必要组件的需求也迅速增加。英伟达正试图实现供应链的多元化,而三星电子在这方面就派上了用场,因为该公司拥有充足的设备来满足人工智能加速器对DRAM的需求。除了当前一代的进展,三星还计划快速推进下一代HBM4工艺,预计将于2025年亮相。虽然有关内存类型的具体细节不多,但三星透露,HBM4将采用"非导电薄膜"和"混合铜键合",这将有助于提高内存工艺的能效和散热性能。HBM4的确将标志着向下一代人工智能加速器的过渡,为业界的计算能力打开新的大门。三星正在成为一家"与众不同"的供应商,尤其是该公司还在专注于开发芯片封装设备。鉴于该公司成功地赢得了潜在客户的信任,我们有可能看到这家韩国巨头的存储器部门在未来几年重振雄风。...PC版:https://www.cnbeta.com.tw/articles/soft/1389583.htm手机版:https://m.cnbeta.com.tw/view/1389583.htm

封面图片

英伟达发布下一代人工智能超级计算机芯片,将在深度学习和大型语言模型方面发挥重要作用。新芯片基于Hopper架构,使用HBM3e内

英伟达发布下一代人工智能超级计算机芯片,将在深度学习和大型语言模型方面发挥重要作用。新芯片基于Hopper架构,使用HBM3e内存,提供更大容量和更快速度。发布的关键产品是HGXH200GPU,推理速度比上一代快一倍。另一个关键产品是GH200GraceHopper超级芯片,结合了HGXH200GPU和基于Arm的GraceCPU。GH200将用于全球研究中心、系统制造商和云提供商的AI超级计算机。英伟达希望新的GPU和超级芯片能够帮助其继续增长。

封面图片

英伟达批准三星 HBM3 芯片用于中国市场处理器

英伟达批准三星HBM3芯片用于中国市场处理器三名知情人士表示,三星电子的第四代高带宽内存(或称HBM3)芯片已首次获得英伟达批准用于图形处理器。但知情人士表示,三星电子的HBM3芯片目前仅用于英伟达不太复杂图形处理器的H20,这款是遵守美国出口管制为中国市场开发的。目前尚不清楚英伟达是否会在其他人工智能处理器中使用HBM3芯片,或者芯片是否必须通过额外的测试才能实现。知情人士补充说,三星电子尚未达到英伟达第五代HBM3E芯片的标准,仍在继续芯片测试。——

封面图片

SK hynix宣布2026年量产HBM4 为下一代AI GPU做准备

SKhynix宣布2026年量产HBM4为下一代AIGPU做准备随着人工智能在市场上的应用迅速增加,我们在迈向未来的过程中需要更强的计算能力,值得注意的是,HBM在人工智能计算如何定位自己的现代生活中发挥了至关重要的作用,因为它是制造人工智能加速器的关键部件。SKhynix副总裁KimChun-hwan在2024年韩国半导体展(SEMICONKorea2024)上发表主题演讲时透露,该公司打算在2026年之前开始量产HBM4,并声称这将推动人工智能市场的巨大增长。他认为,除了早日实现下一代产品过渡之外,重要的是要认识到HBM行业面临着巨大的需求;因此,创造一种既能无缝供应又具有创新性的解决方案更为重要。Kim认为,到2025年,HBM市场预计将增长高达40%,并已提前定位,以充分利用这一市场。关于对HBM4的期待,Trendforce分享的路线图预计,首批HBM4样品的每个堆栈容量将高达36GB,而完整规格预计将在2024-2025年下半年左右由JEDEC发布。首批客户样品和可用性预计将于2026年推出,因此距离我们看到新的高带宽内存人工智能解决方案的实际应用还有很长的时间。目前还不确定哪种类型的人工智能产品将采用新工艺,因此我们暂时无法做出任何预测。随着SKhynix的加入,HBM市场的竞争似乎会变得更加激烈,哪家公司会崛起并登上王者宝座,让我们拭目以待。...PC版:https://www.cnbeta.com.tw/articles/soft/1415875.htm手机版:https://m.cnbeta.com.tw/view/1415875.htm

封面图片

美光将于2024年初向英伟达交付HBM3E内存

美光将于2024年初向英伟达交付HBM3E内存美光公司总裁兼首席执行官SanjayMehrotra在公司财报电话会议上表示:"我们推出的HBM3E产品受到了客户的强烈关注和热捧。"美光在HBM市场上处于劣势,仅占10%的市场份额,而领先于竞争对手三星和SKHynix推出HBM3E(该公司也称之为HBM3Gen2)对美光来说是一件大事。该公司显然对其HBM3E寄予了厚望,因为这很可能使其领先于竞争对手(赢得市场份额)提供优质产品(提高收入和利润)。通常情况下,内存制造商往往不会透露其客户的名称,但这次美光强调,其HBM3E是客户路线图的一部分,并特别提到英伟达(NVIDIA)是其盟友。与此同时,NVIDIA迄今公布的唯一支持HBM3E的产品是其GraceHopperGH200计算平台,该平台采用了H100计算GPU和GraceCPU。Mehrotra说:"在整个开发过程中,我们一直与客户密切合作,并正在成为他们人工智能路线图中紧密结合的合作伙伴。美光HBM3E目前正处于英伟达计算产品的资格认证阶段,这将推动HBM3E驱动的人工智能解决方案的发展。"美光的24GBHBM3E模块基于8个堆叠的24Gbit内存模块,采用公司的1β(1-beta)制造工艺。这些模块的日期速率高达9.2GT/秒,使每个堆栈的峰值带宽达到1.2TB/秒,比目前最快的HBM3模块提高了44%。同时,该公司不会止步于基于8-Hi24Gbit的HBM3E组件。该公司已宣布计划在开始量产8-Hi24GB堆叠之后,于2024年推出容量更高的36GB12-HiHBM3E堆叠。美光首席执行官补充说:"我们预计在2024年初开始HBM3E的量产,并在2024财年实现可观的收入。"...PC版:https://www.cnbeta.com.tw/articles/soft/1387065.htm手机版:https://m.cnbeta.com.tw/view/1387065.htm

封面图片

三星 HBM 芯片因发热和功耗问题未通过英伟达测试

三星HBM芯片因发热和功耗问题未通过英伟达测试三位知情人事表示,由于发热和功耗问题,三星电子最新的高带宽内存(HBM)芯片未能通过英伟达的测试,无法用于这家美国公司的人工智能处理器。消息人士表示,这影响了三星的HBM3(第四代)、HBM3E(第五代)芯片。这是首次报道三星未能通过英伟达测试的原因。三星在给路透社的声明中表示,HBM是一种定制的内存产品,需要“根据客户需求进行优化过程”,并补充说,该公司正在通过与客户的密切合作来优化其产品。三星拒绝对具体客户发表评论。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人