SK hynix披露2024年HBM供应已售罄 公司预计2025年业绩将大幅增长

SKhynix披露2024年HBM供应已售罄公司预计2025年业绩将大幅增长HBM内存的主要供货商SKhynix正式证实了其前几个月分析报告中"破纪录"的HBM销量,重申其在HBM领域的发展方针,并声称市场将出现反弹。SKhynix副总裁KimKi-tae在一篇博客文章中分享了该公司在HBM市场上的做法,此外,他还重申了SKhynix迈向2024年的期望:随着生成式人工智能服务的多样化和进步,对人工智能内存解决方案HBM的需求也呈爆炸式增长。HBM具有高性能和大容量的特点,是一款具有里程碑意义的产品,打破了内存半导体只是整个系统一部分的传统观念。其中,SKHynixHBM的竞争力尤为突出。2024年,期待已久的"Upturn"时代即将到来。在这个新的飞跃时期,我们将全力以赴,创造最佳业绩。我希望SKhynix的成员们都能在这一年里梦想成真。此外,该公司还透露了HBM领域的惊人需求,声称今年的供应已经售罄,SKhynix已经在为2025财年的主导地位做准备。这一点也不令人震惊,因为进入2024年,人工智能仍在蓬勃发展,英伟达(NVIDIA)和AMD等公司都在为下一代解决方案做准备,显然对HBM的需求也将是巨大的。随着HBM3e和HBM4产品的上市,我们可能会看到更多令人震惊的收入数字。...PC版:https://www.cnbeta.com.tw/articles/soft/1420117.htm手机版:https://m.cnbeta.com.tw/view/1420117.htm

相关推荐

封面图片

SK 海力士 CEO 郭鲁正:2025 年生产的 HBM 产品基本售罄

SK海力士CEO郭鲁正:2025年生产的HBM产品基本售罄韩国存储芯片巨头SK海力士CEO介绍,由于AI爆发对先进存储产品HBM的需求,公司按量产计划2025年生产的HBM产品也基本售罄。此前,公司对外宣布2024年HBM的产能已被客户抢购一空。公司预测,未来专门用于人工智能的“超高速、高容量、低电力”存储器需求将会暴增,目前像HBM和高容量DRAM模块等面向AI的存储器在2023年整个存储市场的占比约为5%,预计到2028年可以达到61%。(界面新闻)

封面图片

SK hynix宣布2026年量产HBM4 为下一代AI GPU做准备

SKhynix宣布2026年量产HBM4为下一代AIGPU做准备随着人工智能在市场上的应用迅速增加,我们在迈向未来的过程中需要更强的计算能力,值得注意的是,HBM在人工智能计算如何定位自己的现代生活中发挥了至关重要的作用,因为它是制造人工智能加速器的关键部件。SKhynix副总裁KimChun-hwan在2024年韩国半导体展(SEMICONKorea2024)上发表主题演讲时透露,该公司打算在2026年之前开始量产HBM4,并声称这将推动人工智能市场的巨大增长。他认为,除了早日实现下一代产品过渡之外,重要的是要认识到HBM行业面临着巨大的需求;因此,创造一种既能无缝供应又具有创新性的解决方案更为重要。Kim认为,到2025年,HBM市场预计将增长高达40%,并已提前定位,以充分利用这一市场。关于对HBM4的期待,Trendforce分享的路线图预计,首批HBM4样品的每个堆栈容量将高达36GB,而完整规格预计将在2024-2025年下半年左右由JEDEC发布。首批客户样品和可用性预计将于2026年推出,因此距离我们看到新的高带宽内存人工智能解决方案的实际应用还有很长的时间。目前还不确定哪种类型的人工智能产品将采用新工艺,因此我们暂时无法做出任何预测。随着SKhynix的加入,HBM市场的竞争似乎会变得更加激烈,哪家公司会崛起并登上王者宝座,让我们拭目以待。...PC版:https://www.cnbeta.com.tw/articles/soft/1415875.htm手机版:https://m.cnbeta.com.tw/view/1415875.htm

封面图片

SK hynix推出24GB容量12层HBM3内存 正向客户提供样品

SKhynix推出24GB容量12层HBM3内存正向客户提供样品"继去年6月量产全球首款HBM3之后,公司成功开发了24GB封装产品,该产品的内存容量比之前的产品增加了50%,"SKhynix说。"我们将从今年下半年开始向市场供应新产品,以配合人工智能驱动的聊天工具行业对高端内存产品不断增长的需求。"SKhynix的工程师通过在最新产品中应用先进的大规模回流模塑(MR-MUF)技术,提高了工艺效率和性能稳定性,而硅通孔(TSV)技术将单个DRAM芯片的厚度减少了40%,实现了与16GB产品相同的堆叠高度水平。"SKhynix通过其在后端工艺中使用的领先技术,能够持续开发一系列超高速和高容量的HBM产品,"SKhynix封装和测试主管SangHooHong说。"公司计划在今年上半年完成新产品的量产准备,以进一步巩固其在人工智能时代的尖端DRAM市场的领导地位。"由SKhynix在2013年首次开发的HBM,因其在实现高性能计算(HPC)系统中运行的生成式人工智能中的关键作用,已经引起了存储芯片行业的广泛关注。...PC版:https://www.cnbeta.com.tw/articles/soft/1355881.htm手机版:https://m.cnbeta.com.tw/view/1355881.htm

封面图片

美光2024年和2025年大部分的HBM3E供应已经售罄

美光2024年和2025年大部分的HBM3E供应已经售罄美光公司首席执行官SanjayMehrotra在本周财报电话会议的准备发言中表示:"我们2024年的HBM已经售罄,2025年的绝大部分供应也已经分配完毕。我们仍然预计,在2025年的某个时候,HBM位数份额将与我们整体DRAM位数份额相当"。美光的首款HBM3E产品是一个8-Hi24GB堆栈,具有1024位接口、9.2GT/s数据传输速率和1.2TB/s的总带宽。英伟达用于人工智能和高性能计算的H200加速器将使用6个这样的立方体,提供总计141GB的可访问高带宽内存。Mehrotra说:"我们有望在2024财年从HBM获得数亿美元的收入,预计从第三财季开始,HBM收入将增加我们的DRAM和整体毛利率。"该公司还开始为其12-Hi36GB堆栈提供样品,容量提高了50%。这些KGSD将于2025年量产,并将用于下一代人工智能产品。与此同时,英伟达的B100和B200看起来不会使用36GBHBM3E堆栈,至少在初期不会。人工智能服务器的需求在去年创下了纪录,看来今年也将保持高位。一些分析师认为,英伟达的A100和H100处理器(以及它们的各种衍生产品)在2023年占据了整个人工智能处理器市场高达80%的份额。虽然今年英伟达在推理方面将面临来自AMD、AWS、D-Matrix、英特尔、Tenstorrent和其他公司更激烈的竞争,但英伟达的H200看起来仍将是人工智能训练的首选处理器,尤其是对于Meta和微软这样的大公司来说,它们已经运行着由数十万英伟达加速器组成的舰队。考虑到这一点,成为英伟达H200的HBM3E的主要供应商对美光来说是一件大事,因为它使美光最终能够在HBM市场上占据相当大的份额。同时,由于HBM堆栈中的每个DRAM器件都有一个较宽的接口,因此在物理尺寸上要大于普通的DDR4或DDR5IC。因此,HBM3E内存的量产将影响美光公司商品DRAM的位数供应。"HBM产量的增长将限制非HBM产品的供应增长,"Mehrotra说。"从整个行业来看,在相同的技术节点上生产一定数量的位,HBM3E消耗的晶圆供应量大约是DDR5的三倍。"...PC版:https://www.cnbeta.com.tw/articles/soft/1424692.htm手机版:https://m.cnbeta.com.tw/view/1424692.htm

封面图片

SK hynix 宣布开发出目前性能最好的HBM3E内存

SKhynix宣布开发出目前性能最好的HBM3E内存SKhynix计划从明年上半年开始量产HBM3E。据该公司称,最新产品不仅在人工智能内存产品的关键规格--速度方面达到了业界最高标准,而且在容量、散热和用户友好性等所有方面都达到了业界最高标准。在速度方面,HBM3E每秒可处理高达1.15TB的数据,相当于在一秒钟内处理230多部每部5GB大小的全高清电影。此外,通过在最新产品中采用先进的大规模回流模塑底部填充(MR-MUF)尖端技术,该产品的散热性能提高了10%。它还具有向后兼容性,即使是为HBM3准备的系统也可以采用最新产品,而无需修改设计或结构。SKhynixDRAM产品规划主管SungsooRyu表示,该公司通过开发HBM3E,进一步增强了HBM产品阵容的完整性,从而巩固了其市场领导地位,而HBM在人工智能技术的发展中备受瞩目。"通过提高高价值HBM产品的供应份额,SKhynix还将寻求快速的业务转型。"...PC版:https://www.cnbeta.com.tw/articles/soft/1378373.htm手机版:https://m.cnbeta.com.tw/view/1378373.htm

封面图片

SK海力士和三星见证HBM3需求激增 2025年前所有产能已排满

SK海力士和三星见证HBM3需求激增2025年前所有产能已排满英伟达(NVIDIA)H100等人工智能GPU需求的快速增长对HBM需求产生了相应的影响,这也是三星和SKHynix等内存制造商抓住这一机遇的原因。SK海力士在第三季度财报中透露,明年的HBM订单已全部排满,三星阵营的情况也类似。HBM(HighBandwidthMemory,高带宽内存)是人工智能GPU的重要组成部分,可提供高传输速度、更快的带宽和更大的内存容量,这也是各家存储技术公司将开发重点转向这一品类的原因。SK海力士目前在HBM行业占据了绝大部分份额,不过,三星等竞争对手正在迅速迎头赶上。SKhynix最近成功获得了英伟达(NVIDIA)和AMD的订单,并向英伟达和其他潜在客户提供了下一代HBM3E内存的样品。HBM3e的出现将标志着行业的新转变,因为该工艺有望带来巨大的性能提升,并可能在英伟达的BlackwellAIGPU和TeamRed的InstinctMI400中首次亮相。在开发现有设备以应对围绕对HBM3e的高度关注时,内存制造商正在迅速行动,而SKHynix的声明也证明了HBM3e对未来人工智能计算的重要性。SK海力士认为,在未来五年内,HBM产业可以增长60%-80%,公司的市场份额将保持主导地位。就三星等竞争对手而言情况同样很乐观。该公司最近发布了"Shinebolt"HBM3e内存,承诺比竞品的速度更快。人工智能的迅猛发展无疑促进了人工智能行业的快速发展,为其他企业的进入创造了机会。...PC版:https://www.cnbeta.com.tw/articles/soft/1394401.htm手机版:https://m.cnbeta.com.tw/view/1394401.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人