消息称美光在 HBM 内存领域迅速成为韩厂威胁

消息称美光在HBM内存领域迅速成为韩厂威胁韩媒ETNews近日报道指,在优异能效等因素下,美光正迅速在HBM内存领域成为SK海力士和三星电子两大韩国存储企业的威胁。由于多重影响,美光传统上在HBM领域处于弱势。但美光在2022年大胆放弃了HBM3的量产,将精力集中在了HBM3E内存的研发和改进上。这一决策收获了丰硕的成果:美光已接获HBM最大需方英伟达的订单,并开始向英伟达H200AIGPU出货HBM3E内存。美光迅速成为韩厂威胁的重要原因之一是能效优势,美光宣称其8Hi堆叠的24GBHBM3E内存功耗比竞品低30%。(IT之家)

相关推荐

封面图片

美光领先于SK Hynix 和三星 启动HBM3E内存的生产

美光领先于SKHynix和三星启动HBM3E内存的生产美光透露其正在大规模生产24GB8-HiHBM3E设备,每个设备的数据传输速率为9.2GT/s,峰值内存带宽超过1.2TB/s。与HBM3相比,HBM3E将数据传输速率和峰值内存带宽提高了44%,这对于像NVIDIA的H200这样对带宽要求极高的处理器尤为重要。NVIDIA的H200产品采用Hopper架构,计算性能与H100相同。同时,它配备了141GBHBM3E内存,带宽达4.8TB/s,比H100的80GBHBM3和3.35TB/s带宽有了显著提升。美光使用其1β(1-beta)工艺技术生产其HBM3E,这对该公司来说是一项重大成就,因为该公司将其最新的生产节点用于数据中心级产品,这是对制造技术的一种考验。随着美光即将于2024年3月发布36GB12-HiHBM3E产品,代表着公司的人工智能内存路线图得到了进一步巩固,与此同时这些设备接下来将用于何处还有待观察。领先于竞争对手SKHynix和三星开始量产HBM3E内存是美光公司取得的一项重大成就,目前美光公司在HBM领域占据10%的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。美光科技执行副总裁兼首席业务官SumitSadana表示:"美光在HBM3E这一里程碑上实现了三连冠:领先的上市时间、同类最佳的行业性能以及与众不同的能效特性。人工智能工作负载在很大程度上依赖于内存带宽和容量,美光通过我们业界领先的HBM3E和HBM4路线图,以及我们面向人工智能应用的全套DRAM和NAND解决方案组合,在支持未来人工智能的大幅增长方面处于非常有利的位置。"...PC版:https://www.cnbeta.com.tw/articles/soft/1420987.htm手机版:https://m.cnbeta.com.tw/view/1420987.htm

封面图片

美光将于2024年初向英伟达交付HBM3E内存

美光将于2024年初向英伟达交付HBM3E内存美光公司总裁兼首席执行官SanjayMehrotra在公司财报电话会议上表示:"我们推出的HBM3E产品受到了客户的强烈关注和热捧。"美光在HBM市场上处于劣势,仅占10%的市场份额,而领先于竞争对手三星和SKHynix推出HBM3E(该公司也称之为HBM3Gen2)对美光来说是一件大事。该公司显然对其HBM3E寄予了厚望,因为这很可能使其领先于竞争对手(赢得市场份额)提供优质产品(提高收入和利润)。通常情况下,内存制造商往往不会透露其客户的名称,但这次美光强调,其HBM3E是客户路线图的一部分,并特别提到英伟达(NVIDIA)是其盟友。与此同时,NVIDIA迄今公布的唯一支持HBM3E的产品是其GraceHopperGH200计算平台,该平台采用了H100计算GPU和GraceCPU。Mehrotra说:"在整个开发过程中,我们一直与客户密切合作,并正在成为他们人工智能路线图中紧密结合的合作伙伴。美光HBM3E目前正处于英伟达计算产品的资格认证阶段,这将推动HBM3E驱动的人工智能解决方案的发展。"美光的24GBHBM3E模块基于8个堆叠的24Gbit内存模块,采用公司的1β(1-beta)制造工艺。这些模块的日期速率高达9.2GT/秒,使每个堆栈的峰值带宽达到1.2TB/秒,比目前最快的HBM3模块提高了44%。同时,该公司不会止步于基于8-Hi24Gbit的HBM3E组件。该公司已宣布计划在开始量产8-Hi24GB堆叠之后,于2024年推出容量更高的36GB12-HiHBM3E堆叠。美光首席执行官补充说:"我们预计在2024年初开始HBM3E的量产,并在2024财年实现可观的收入。"...PC版:https://www.cnbeta.com.tw/articles/soft/1387065.htm手机版:https://m.cnbeta.com.tw/view/1387065.htm

封面图片

SK海力士全球首家量产HBM3E内存 1秒处理超1TB数据

SK海力士全球首家量产HBM3E内存1秒处理超1TB数据随后SK海力士发布公告称,其最新的超高性能AI内存产品HBM3E已开始量产,并将从本月下旬起向客户供货。据介绍,在存储半导体三大巨头(三星电子、SK海力士、美光)中,SK海力士是首家实现量产HBM3E供应商。HBM3E每秒可处理1.18TB数据,相当于在1秒内可处理230部全高清(FHD)级电影。在散热方面,SK海力士表示其HBM3E采用了MR-MUF技术,散热性能较上一代产品提高了10%,从而在散热等所有方面都达到了全球最高水平。SK海力士高管表示:“公司通过全球首次HBM3E投入量产,进一步强化了领先用于AI的存储器业界的产品线。”其还表示,公司积累的HBM业务成功经验,将进一步夯实与客户的关系,并巩固全方位人工智能存储器供应商的地位。...PC版:https://www.cnbeta.com.tw/articles/soft/1424206.htm手机版:https://m.cnbeta.com.tw/view/1424206.htm

封面图片

SK海力士正在HBM内存芯片领域处于领先地位 三星为此撤换芯片主管

SK海力士正在HBM内存芯片领域处于领先地位三星为此撤换芯片主管此举是因为三星在其核心业务--内存芯片的一个关键增长领域已经落后。SKHynix在高带宽内存或HBM芯片领域处于领先地位,这种芯片因用于训练人工智能模型而实现了爆炸式增长。三星最近公布了至少自2010年以来最快的营收增长速度,投资者越来越关注三星对其较小竞争对手的回应。这推动SKHynix股价自2024年年初以来上涨了36%,远远超过了变化不大的三星股价。周二,股市最初反应平淡。公告发布后,三星股价保持跌势,跌幅不到1%。SKHynix是全球用于开发类似ChatGPT服务的内存的最大供应商。到明年,其此类芯片的生产能力几乎已被预订一空。该公司计划斥资约146亿美元在韩国建造一座新的综合设施,以满足对HBM芯片的需求,HBM芯片与NVIDIA公司的加速器一起用于创建和托管人工智能平台。此外,该公司还将在印第安纳州建造一座价值40亿美元的封装厂,这也是该公司在美国的第一座封装厂。三星公司也生产逻辑芯片并经营代工业务,它还开始了全球扩张,包括在美国芯片制造领域投资400亿美元。该公司表示已开始量产其最新的HBM产品--8层HBM3E,并计划在第二季度量产12层HBM芯片。该公司预计,与去年相比,2024年的HBM供应量将增加至少三倍。...PC版:https://www.cnbeta.com.tw/articles/soft/1431705.htm手机版:https://m.cnbeta.com.tw/view/1431705.htm

封面图片

路透证实三星HBM内存芯片因发热和功耗问题未能通过英伟达的测试

路透证实三星HBM内存芯片因发热和功耗问题未能通过英伟达的测试HBM即高带宽存储器,这是一种基于3D堆栈工艺的高性能DRAM,主要适用于高存储器带宽需求的场景组合,尤其是图形处理器、网络交换和转发设备。英伟达的AI加速产品都需要极高的带宽来提高性能,因此英伟达最初与SK海力士达成合作,由后者独家供应HBM3内存芯片。不过从今年开始英伟达已经开始接受三星电子和美光提供的HBM3内存芯片,三家供应商里当前似乎也只有三星电子遇到问题,目前英伟达的主力供应商仍然是SK海力士。消息称三星从去年开始就一直在尝试通过英伟达的HBM3和HBM3E的测试,其中8层和12层的HBM3E芯片最近的一次失败测试结果在4月公布。既然没有成功通过英伟达测试,那么三星电子自然还不算是该芯片的供应商,这种情况似乎也凸显三星在HBM芯片上落后于SK海力士和美光了。当然英伟达有自己的测试标准,三星其实也已经向其他客户供应此类芯片,可能是英伟达的要求更高所以暂时三星还不搞定技术难题,只能看着SK海力士和美光了。注:HBM3:指的是HBM第三个标准,每个标准里面还有不同的“代”比如HBM3E,所以这里指的并不是第三代。相关文章:SK海力士正在HBM内存芯片领域处于领先地位三星为此撤换芯片主管...PC版:https://www.cnbeta.com.tw/articles/soft/1432158.htm手机版:https://m.cnbeta.com.tw/view/1432158.htm

封面图片

三大存储巨头集体向英伟达供货第五代HBM3e内存 2024年第一季度完成验证

三大存储巨头集体向英伟达供货第五代HBM3e内存2024年第一季度完成验证而HBM3e进度依据时间轴排列如下表所示:美光已于今年7月底提供8hi(24GB)NVIDIA样品、SK海力士已于今年8月中提供8hi(24GB)样品,三星则于今年10月初提供8hi(24GB)样品。预期2024年第一季完成HBM3e产品验证。HBM(HighBandwidthMemory)即高带宽存储器,属于图形DDR内存的一种,通过使用先进的封装方法(如TSV硅通孔技术)垂直堆叠多个DRAM,与GPU通过中介层互联封装在一起。HBM的优点在于打破了内存带宽及功耗瓶颈。且CPU处理的任务类型更多,且更具随机性,对速率及延迟更为敏感,HBM特性更适合搭配GPU进行密集数据的处理运算。英伟达新一代AI芯片,均搭载HBM内存。HBM产品问世至今,HBM技术已经发展至第四代,分别为HBM、HBM2、HBM2e、HBM3,第五代HBM3e已在路上。四代HBM规格对比至于下一代HBM新品HBM4(第六代),在堆栈的层数上除了现有的12hi(12层)外,也将再往16hi(16层)发展。预计,HBM412hi将于2026年推出,而16hi产品则于2027年问世。据悉,在HBM4中,将首次看到最底层的Logicdie(又名Basedie)将首次采用采用12nm制程晶圆,该部分将由晶圆代工厂提供,使得单颗HBM产品需要晶圆代工厂与存储器厂合作。...PC版:https://www.cnbeta.com.tw/articles/soft/1400111.htm手机版:https://m.cnbeta.com.tw/view/1400111.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人