美光副总裁表示,英伟达将开始在H200人工智能芯片中使用美光HBM3E。

None

相关推荐

封面图片

美光副总裁:美光预计将占据HBM市场20%左右的份额。

封面图片

美光将于2024年初向英伟达交付HBM3E内存

美光将于2024年初向英伟达交付HBM3E内存美光公司总裁兼首席执行官SanjayMehrotra在公司财报电话会议上表示:"我们推出的HBM3E产品受到了客户的强烈关注和热捧。"美光在HBM市场上处于劣势,仅占10%的市场份额,而领先于竞争对手三星和SKHynix推出HBM3E(该公司也称之为HBM3Gen2)对美光来说是一件大事。该公司显然对其HBM3E寄予了厚望,因为这很可能使其领先于竞争对手(赢得市场份额)提供优质产品(提高收入和利润)。通常情况下,内存制造商往往不会透露其客户的名称,但这次美光强调,其HBM3E是客户路线图的一部分,并特别提到英伟达(NVIDIA)是其盟友。与此同时,NVIDIA迄今公布的唯一支持HBM3E的产品是其GraceHopperGH200计算平台,该平台采用了H100计算GPU和GraceCPU。Mehrotra说:"在整个开发过程中,我们一直与客户密切合作,并正在成为他们人工智能路线图中紧密结合的合作伙伴。美光HBM3E目前正处于英伟达计算产品的资格认证阶段,这将推动HBM3E驱动的人工智能解决方案的发展。"美光的24GBHBM3E模块基于8个堆叠的24Gbit内存模块,采用公司的1β(1-beta)制造工艺。这些模块的日期速率高达9.2GT/秒,使每个堆栈的峰值带宽达到1.2TB/秒,比目前最快的HBM3模块提高了44%。同时,该公司不会止步于基于8-Hi24Gbit的HBM3E组件。该公司已宣布计划在开始量产8-Hi24GB堆叠之后,于2024年推出容量更高的36GB12-HiHBM3E堆叠。美光首席执行官补充说:"我们预计在2024年初开始HBM3E的量产,并在2024财年实现可观的收入。"...PC版:https://www.cnbeta.com.tw/articles/soft/1387065.htm手机版:https://m.cnbeta.com.tw/view/1387065.htm

封面图片

英伟达副总裁Jankowski跳槽至某家初创公司英伟达负责投资者关系与战略融资的副总裁SimonaJankowski跳槽,将在某

封面图片

消息称美光HBM3E正在主要客户处进行质量评估据半导体行业消息人士透露,美光主要客户正在对美光开发的HBM3E进行质量评估。另外

封面图片

NVIDIA Hopper H200将于明年一季度开始采用HBM3e HBM4预计于2026年亮相

NVIDIAHopperH200将于明年一季度开始采用HBM3eHBM4预计于2026年亮相早在9月份就有消息称,三星的HBM产品已通过多项资质审核,获得了NVIDIA的信任,集邦科技目前透露,三星可能会在12月份完成升级流程,明年年初开始陆续有订单流入。除了HBM3之外,下一代HBM3e标准的采用也已步入正轨,因为业内消息人士称,美光、SK海力士和三星等供应商已经启动了HBM3e的出样过程,据说这将是决定性的一步。能否进入商用,结果可能会在2024年某个时候出现。回顾一下,HBM3e预计将在NVIDIA的BlackwellAIGPU中首次亮相,据传该GPU将于2024年第二季度推出,而在性能方面,它将通过采用小芯片设计带来决定性的每瓦性能提升。NVIDIA在2024年为计算客户制定了很多计划,该公司已经发布了H200HopperGPU,预计明年将被大规模采用,随后将推出B100“Blackwell”AIGPU,两者都将基于HBM3e内存技术。除了传统路线外,据传NVIDIA还将针对AI领域推出基于ARM的CPU,这将创造市场多元化格局,同时加剧竞争。英特尔和AMD预计还将推出各自的AI解决方案,其中值得注意的是下一代AMDInstinctGPU和采用HBM3e内存的英特尔GaudiAI加速器。最后,TrendForce给出了我们对HBM4的预期,特别是即将推出的内存标准将在板载芯片配置方面进行全面改造,因为有传言称基本逻辑芯片将采用12纳米工艺来加工晶圆,并将作为3D封装DRAM/GPU背后的工艺,在代工厂和内存供应商之间建立协作环境。HBM4有望标志着下一代计算能力的转变,也可能成为人工智能行业未来突破的关键。...PC版:https://www.cnbeta.com.tw/articles/soft/1400443.htm手机版:https://m.cnbeta.com.tw/view/1400443.htm

封面图片

原GitHub工程副总裁加入OpenSea并担任工程副总裁一职

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人