台积电准备推出基于12和5纳米节点的下一代HBM4基础芯片

台积电准备推出基于12和5纳米节点的下一代HBM4基础芯片 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 作为 2024 年欧洲技术研讨会演讲的一部分,台积电提供了有关将为 HBM4 制造的基础芯片的一些新细节,该芯片将使用逻辑工艺构建。由于台积电计划采用其 N12 和 N5 工艺的变体来完成这项任务,该公司预计在 HBM4 制造工艺中占据有利地位,因为内存工厂目前没有能力经济地生产如此先进的逻辑芯片如果他们能够生产的话他们根本。对于第一波 HBM4,台积电准备使用两种制造工艺:N12FFC+ 和 N5。虽然它们服务于相同的目的将 HBM4E 内存与下一代 AI 和 HPC 处理器集成但它们将以两种不同的方式用于连接 AI 和 HPC 应用程序的高性能处理器的内存。台积电设计与技术平台高级总监表示:“我们正在与主要 HBM 内存合作伙伴(美光、三星、SK 海力士)合作,在先进节点上实现 HBM4 全堆栈集成。” “N12FFC+ 具有成本效益的基础芯片可以达到 HBM 的性能,而 N5 基础芯片可以在 HBM4 速度下以低得多的功耗提供更多逻辑。”台积电采用 N12FFC+ 制造工艺(12nm FinFet Compact Plus,正式属于 12nm 级技术,但其根源于台积电经过充分验证的 16nm FinFET 生产节点)制造的基础芯片将用于在硅片上安装 HBM4 内存堆栈片上系统 (SoC) 旁边的中介层。台积电认为,他们的 12FFC+ 工艺非常适合实现 HBM4 性能,使内存供应商能够构建 12-Hi (48 GB) 和 16-Hi 堆栈 (64 GB),每堆栈带宽超过 2 TB/秒。“我们还在针对 HBM4 优化 CoWoS-L 和 CoWoS-R,”台积电高级总监说道。“CoWoS-L 和 CoWoS-R 都[使用]超过八层,以实现 HBM4 的路由超过 2,000 个互连,并具有[适当的]信号完整性。”N12FFC+ 上的 HBM4 基础芯片将有助于使用 TSMC 的 CoWoS-L 或 CoWoS-R 先进封装技术构建系统级封装 (SiP),该技术可提供高达 8 倍标线尺寸的中介层 足够的空间容纳多达 12 个 HBM4 内存堆栈。根据台积电的数据,目前HBM4可以在14mA电流下实现6GT/s的数据传输速率。“我们与 Cadence、Synopsys 和 Ansys 等 EDA 合作伙伴合作,验证 HBM4 通道信号完整性、IR/EM 和热精度,”台积电代表解释道。同时,作为一种更先进的替代方案,内存制造商还可以选择采用台积电的 N5 工艺来生产 HBM4 基础芯片。N5 构建的基础芯片将封装更多的逻辑,消耗更少的功耗,并提供更高的性能。但可以说,最重要的好处是,这种先进的工艺技术将实现非常小的互连间距,约为 6 至 9 微米。这将允许 N5 基础芯片与直接键合结合使用,从而使 HBM4 能够在逻辑芯片顶部进行 3D 堆叠。直接键合可以实现更高的内存性能,这对于总是寻求更多内存带宽的 AI 和 HPC 芯片来说预计将是一个巨大的提升。我们已经知道 台积电和 SK 海力士在 HBM4 基础芯片上进行合作。台积电也可能为美光生产 HBM4 基础芯片。否则,我们会更惊讶地看到台积电与三星合作,因为该集团已经通过其三星代工部门拥有自己的先进逻辑工厂。台积电特殊工艺产能扩产50%随着德国和日本的新工厂全部建成,以及中国产能的扩张,台积电计划到 2027 年将其特种技术产能扩大 50%。该公司在欧洲技术研讨会上透露本周,台积电预计不仅需要转换现有产能以满足特殊工艺的需求,甚至还需要为此目的建造新的(绿地)晶圆厂空间。这一需求的主要驱动力之一将是台积电的下一个专用节点:N4e,一个 4 纳米级超低功耗生产节点。“过去,我们总是对即将建成的晶圆厂进行审查阶段,但在台积电很长一段时间以来,我们第一次开始建设绿地晶圆厂,以满足未来的专业技术要求,”台积电业务发展和海外运营办公室高级副总裁Kevin Zhang博士出席活动时候说。“在未来四到五年内,我们的专业产能实际上将增长 1.5 倍。通过这样做,我们实际上扩大了制造网络的覆盖范围,以提高整个晶圆厂供应链的弹性。”除了 N5 和 N3E 等著名的主要逻辑节点之外,台积电还为功率半导体、混合模拟 I/O 和超低功耗应用(例如物联网)等应用提供一套专用节点。这些通常基于该公司的落后制造工艺,但无论底层技术如何,这些节点的容量需求都随着台积电主要逻辑节点的需求而增长。所有这些都要求台积电重新评估他们如何规划其专业节点的容量。台积电近年来的扩张战略追求几个目标。其中之一是在台湾以外建立新的晶圆厂;另一个是普遍扩大产能,以满足未来对所有类型工艺技术的需求这就是该公司正在建设专业节点产能的原因。目前,台积电最先进的专用节点是N6e,是N7/N6的变体,支持0.4V至0.9V之间的工作电压。对于 N4e,台积电正在考虑低于 0.4V 的电压。尽管目前台积电并未透露太多计划节点的技术细节;考虑到该公司在这里的历史,我们预计一旦新流程准备就绪,他们明年将有更多的话题可以讨论。 ... PC版: 手机版:

相关推荐

封面图片

台积电准备推出基于12和5nm工艺节点的下一代HBM4基础芯片

台积电准备推出基于12和5nm工艺节点的下一代HBM4基础芯片 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 作为 2024 年欧洲技术研讨会演讲的一部分,台积电提供了一些有关其将为 HBM4 制造的基础模具的新细节,这些模具将使用逻辑工艺制造。由于台积电计划采用其 N12 和 N5 工艺的变体来完成这项任务,该公司有望在 HBM4 制造工艺中占据有利地位,因为内存工厂目前还不具备经济地生产这种先进逻辑芯片的能力(如果它们能生产的话)。对于第一波 HBM4,台积电准备采用两种制造工艺:N12FFC+ 和 N5。虽然它们的目的相同将 HBM4E 内存与下一代 AI 和 HPC 处理器集成,但它们将以两种不同的方式连接用于 AI 和 HPC 应用的高性能处理器内存。台积电设计与技术平台高级总监表示:"我们正与主要的 HBM 存储器合作伙伴(美光、三星、SK 海力士)合作,在先进节点上实现 HBM4 全堆栈集成。N12FFC+高性价比基础芯片可以达到HBM的性能,而N5基础芯片可以在HBM4速度下以更低的功耗提供更多的逻辑。"台积电采用 N12FFC+ 制造工艺(12 纳米 FinFet Compact Plus,正式属于 12 纳米级别的技术,但其根源来自台积电久经考验的 16 纳米 FinFET 生产节点)制造的基础芯片将用于在系统级芯片(SoC)旁边的硅中间件上安装 HBM4 存储器堆栈。台积电认为,他们的 12FFC+ 工艺非常适合实现 HBM4 性能,使内存供应商能够构建 12-Hi(48 GB) 和 16-Hi 堆栈(64 GB),每堆栈带宽超过 2 TB/秒。高级总监说:"我们还在为 HBM4 优化 CoWoS-L 和 CoWoS-R。CoWoS-L和CoWoS-R都[使用]超过八层,以实现HBM4的2000多个互连的路由,并具有[适当的]信号完整性"。N12FFC+ 上的 HBM4 基础芯片将有助于使用台积电的 CoWoS-L 或 CoWoS-R 先进封装技术构建系统级封装 (SiP),该技术可为内插件提供高达 8 倍网纹尺寸的空间,足以容纳多达 12 个 HBM4 存储器堆栈。根据台积电的数据,目前,HBM4 在电流为 14mA 时的数据传输速率可达 6 GT/s。台积电代表解释说:"我们与 Cadence、Synopsys 和 Ansys 等 EDA 合作伙伴合作,对 HBM4 通道信号完整性、IR/EM 和热精度进行认证。"同时,作为更先进的替代方案,内存制造商还可以选择台积电的 N5 工艺来生产 HBM4 基础芯片。采用 N5 工艺的基础芯片将包含更多的逻辑,功耗更低,性能更高。但可以说最重要的好处是,这种先进的工艺技术将实现非常小的互连间距,大约为 6 至 9 微米。这将使 N5 基本芯片与直接键合技术结合使用,从而使 HBM4 可以直接在逻辑芯片上进行三维堆叠。直接键合技术可实现更高的内存性能,这对于一直在渴求更多内存带宽的人工智能和高性能计算芯片来说将是一个巨大的推动。我们已经知道台积电和 SK Hynix 正合作开发 HBM4 基础芯片。台积电很可能也会为美光生产 HBM4 基础芯片。否则,我们会更惊讶地看到台积电与三星合作,因为这家企业集团已经通过其三星代工部门拥有了自己的先进逻辑晶圆厂。 ... PC版: 手机版:

封面图片

SK 海力士、台积电 宣布合作开发 HBM4 芯片,预期2026年投产

SK 海力士、台积电 宣布合作开发 HBM4 芯片,预期2026年投产 在此次合作前,所有的海力士HBM芯片都是基于公司自己的制程工艺,包括制造封装内最底层的基础裸片,然后将多层DRAM裸片堆叠在基础裸片上。 从HBM4产品开始,海力士准备用台积电的先进逻辑工艺来制造基础裸片。 另外,双方还计划合作优化 HBM 产品和台积电独有的 CoWoS 技术融合(2.5D封装)。

封面图片

SK海力士、台积电宣布合作开发HBM4芯片 预期2026年投产

SK海力士、台积电宣布合作开发HBM4芯片 预期2026年投产 (来源:SK海力士)背景:什么是高带宽内存众所周知,高带宽内存是为了解决传统DDR内存的带宽不足以应对高性能计算需求而开发。通过堆叠内存芯片和通过硅通孔(TSV)连接这些芯片,从而显著提高内存带宽。SK海力士在2013年首次宣布HBM技术开发成功,后来被称为HBM1的芯片通过AMD的Radeon R9 Fury显卡首次登陆市场。后续,HBM家族又先后迎来HBM2、HBM2E、HBM3和HBM3E。SK海力士介绍称,HBM3E带来了10%的散热改进,同时数据处理能力也达到每秒1.18TB的水平。(HBM3E芯片成品,来源:SK海力士)技术的迭代也带来了参数的翻倍。举例而言,根据英伟达官方的规格参数表,H100产品主要搭载的是80GB的HBM3,而使用HBM3E的H200产品,内存容量则达到几乎翻倍的141GB。找台积电做些什么?在此次合作前,所有的海力士HBM芯片都是基于公司自己的制程工艺,包括制造封装内最底层的基础裸片,然后将多层DRAM裸片堆叠在基础裸片上。(HBM3E演示视频,来源:SK海力士)两家公司在公告中表示,从HBM4产品开始,准备用台积电的先进逻辑工艺来制造基础裸片。通过超细微工艺增加更多的功能,公司可以生产在性能、共享等方面更满足客户需求的定制化HBM产品。另外,双方还计划合作优化HBM产品和台积电独有的CoWoS技术融合(2.5D封装)。通过与台积电的合作,SK海力士计划于2026年开始大规模生产HBM4芯片。作为英伟达的主要供应商,海力士正在向AI龙头提供HBM3芯片,今年开始交付HBM3E芯片。对于台积电而言,AI服务器也是在消费电子疲软、汽车需求下降的当下,维持公司业绩的最强劲驱动因素。台积电预计2024财年的总资本支出大约在280-320亿美元之间,约有10%投资于先进封装能力。三巨头激战HBM市场根据公开市场能够找得到的信息,目前国际大厂里只有SK海力士、美光科技和三星电子有能力生产与H100这类AI计算系统搭配的HBM芯片。而眼下,这三家正隔着太平洋展开激烈的竞争。大概比SK海力士早大半个月,美光科技也在今年宣布开始量产HBM3E芯片。今年2月,正在加紧扩展HBM产能的三星也发布了业界容量最大的36GB HBM3E 12H芯片。英伟达上个月表示正在对三星的芯片进行资格认证,以用于AI服务器产品。研究机构Trendforce估算,2024年的HBM市场里,SK 海力士能够占到52.5%的份额,三星和美光则占42.4%和5.1%。另外,在动态随机存取存储器(DRAM)行业内,HBM的收入份额在2023年超过8%,预计在2024年能达到20%。对于SK海力士与台积电合作一事,普华永道高科技行业研究中心主任Allen Cheng认为是“明智的举措”。他表示:“台积电几乎拥有所有开发尖端AI芯片的关键客户,进一步加深伙伴关系,意味着海力士能吸引更多的客户使用该公司的HBM。” ... PC版: 手机版:

封面图片

NVIDIA、SK hynix和台积电结成联盟 为下一代AI标准加速GPU和HBM4开发

NVIDIA、SK hynix和台积电结成联盟 为下一代AI标准加速GPU和HBM4开发 SEMICON 就像半导体行业的 CES,SK hynix 和台积电等大公司都会在这里宣布他们的未来计划。据报道,英伟达公司(NVIDIA)首席执行官黄仁勋、SK hynix 总裁金珠善以及多家顶级公司的高管都将出席此次盛会。预计这次会议的主要焦点是下一代 HBM,特别是革命性的 HBM4 内存,它将开启市场的新纪元。HBM4 内存的推出将对人工智能领域产生巨大的影响,因为各家公司现在都在朝着转换战略的方向发展。SK hynix 是首批实现"多功能 HBM"的公司之一。在现代的实施过程中,先进的内存半导体被紧密地连接到不同的芯片上,如 GPU 芯片,以提高计算效率,而为了将一切连接起来,业界采用了著名的 CoWoS 等封装技术。由于这并不是一条最佳路线,SK hynix 此前透露,他们计划将内存和逻辑半导体整合到一个封装中,这意味着不需要封装技术,而且单个裸片将更接近这种实现方式,事实证明它的性能效率会更高。为了实现这一目标,SK hynix 计划建立一个战略性的"三角联盟",由台积电(TSMC)负责半导体,英伟达(NVIDIA)负责产品设计,最终产品可能具有革命性意义。虽然我们现在还不确定 SK hynix 计划如何实现 HBM4 内存,但考虑到台积电和英伟达(NVIDIA)现在都与这家韩国巨头合作,反映出他们确实已经想好了办法。即将举行的 SEMICON 在这方面非常重要,因为它将为未来采用该内存标准的人工智能加速器定下基调。除此以外,这一联盟还表明,相关公司已准备好利用市场,不给竞争对手任何潜在增长或暴露的空间。在 HBM4 量产时间表方面,业界预计该联盟的解决方案将于 2026 年投入生产,这正好赶上 英伟达下一代 Rubin 架构的到来并在市场上大显身手。 ... PC版: 手机版:

封面图片

台积电在 2025 年首次亮相前向苹果展示下一代芯片技术

台积电在 2025 年首次亮相前向苹果展示下一代芯片技术 据英国《金融时报》报道,台积电已经向苹果公司展示了 2nm 芯片的原型,预计将于 2025 年推出。 据称,苹果与台积电密切合作共同致力于开发和应用 2nm 芯片技术。该技术将在晶体管密度、性能和效率方面超越当前的 3nm 芯片和相关节点。随着其下一代芯片技术开发进展顺利,台积电“N2” 2nm 原型芯片的测试结果已经向苹果和其他几家台积电重要客户展示。 苹果是第一个使用台积电 3nm 工艺的公司,该技术应用于 iPhone 15 Pro/Max 中的 A17 Pro 芯片。这家公司很可能会继续采用台积电的 N2 芯片。台积电 2nm 芯片的计划于 2025 年开始量产,不久后它们可能会首次出现在苹果设备中。 、

封面图片

下一代AI芯片,拼什么?

下一代AI芯片,拼什么? 英伟达的Hopper GPU/Blackwell/Rubin、AMD的Instinct 系列、英特尔的Gaudi芯片,这场AI芯片争霸战拼什么?这是速度之争,以英伟达为首,几家巨头将芯片推出速度提升到了一年一代,展现了AI领域竞争的“芯”速度;是技术的角逐,如何让芯片的计算速度更快、功耗更低更节能、更易用上手,将是各家的本事。尽管各家厂商在AI芯片方面各有侧重,但细看之下,其实存在着不少的共同点。一年一代,展现AI领域"芯"速度虽然摩尔定律已经开始有些吃力,但是AI芯片“狂欢者们”的创新步伐以及芯片推出的速度却越来越快。英伟达Blackwell还在势头之上,然而在不到3个月后的Computex大会上,英伟达就又祭出了下一代AI平台Rubin。英伟达首席执行官黄仁勋表示,以后每年都会发布新的AI芯片。一年一代芯片,再次刷新了AI芯片的更迭速度。英伟达的每一代GPU都会以科学家名字来命名。Rubin也是一位美国女天文学家Vera Rubin的名字命名。Rubin将配备新的GPU、名为Vera的新CPU和先进的X1600 IB网络芯片,将于2026年上市。目前,Blackwell和Rubin都处于全面开发阶段,其一年前在2023年在Computex上发布的GH200 Grace Hopper“超级芯片”才刚全面投入生产。Blackwell将于今年晚些时候上市,Blackwell Ultra将于2025年上市,Rubin Ultra将于2027年上市。紧跟英伟达,AMD也公布了“按年节奏”的AMD Instinct加速器路线图,每年推出一代AI加速器。Lisa Su在会上表示:“人工智能是我们的首要任务,我们正处于这个行业令人难以置信的激动人心的时代的开始。”继去年推出了MI300X,AMD的下一代MI325X加速器将于今年第四季度上市,Instinct MI325X AI加速器可以看作是MI300X系列的强化版,Lisa Su称其速度更快,内存更大。随后,MI350系列将于2025年首次亮相,采用新一代AMD CDNA 4架构,预计与采用AMD CDNA 3的AMD Instinct MI300系列相比,AI推理性能将提高35倍。MI350对标的是英伟达的Blackwell GPU,按照AMD的数据,MI350系列预计将比英伟达B200产品多提供50%的内存和20%的计算TFLOP。基于AMD CDNA“Next”架构的AMD Instinct MI400系列预计将于2026年上市。英特尔虽然策略相对保守,但是却正在通过价格来取胜,英特尔推出了Gaudi人工智能加速器的积极定价策略。英特尔表示,一套包含八个英特尔Gaudi 2加速器和一个通用基板的标准数据中心AI套件将以65,000美元的价格提供给系统提供商,这大约是同类竞争平台价格的三分之一。英特尔表示,一套包含八个英特尔Gaudi 3加速器的套件将以125,000美元的价格出售,这大约是同类竞争平台价格的三分之二。AMD和NVIDIA虽然不公开讨论其芯片的定价,但根据定制服务器供应商Thinkmate的说法,配备八个NVIDIA H100 AI芯片的同类HGX服务器系统的成本可能超过30万美元。一路高歌猛进的芯片巨头们,新产品发布速度和定价凸显了AI芯片市场的竞争激烈程度,也让众多AI初创芯片玩家望其项背。可以预见,三大芯片巨头将分食大部分的AI市场,大量的AI初创公司分得一点点羹汤。工艺奔向3纳米AI芯片走向3纳米是大势所趋,这包括数据中心乃至边缘AI、终端。3纳米是目前最先进工艺节点,3纳米工艺带来的性能提升、功耗降低和晶体管密度增加是AI芯片发展的重要驱动力。对于高能耗的数据中心来说,3纳米工艺的低功耗特性至关重要,它能够有效降低数据中心的运营成本,缓解数据中心的能源压力,并为绿色数据中心的建设提供重要支撑。英伟达的B200 GPU功耗高达1000W,而由两个B200 GPU和一个Grace CPU组成的GB200解决方案消耗高达2700W的功率。这样的功耗使得数据中心难以为这些计算GPU的大型集群提供电力和冷却,因此英伟达必须采取措施。Rubin GPU的设计目标之一是控制功耗,天风国际证券分析师郭明𫓹在X上写道,Rubin GPU很可能采用台积电3纳米工艺技术制造。另据外媒介绍,Rubin GPU将采用4x光罩设计,并将使用台积电CoWoS-L封装技术。与基于Blackwell的产品相比,Rubin GPU是否真的能够降低功耗,同时明显提高性能,或者它是否会专注于性能效率,还有待观察。AMD Instinct系列此前一直采用5纳米/6纳米双节点的Chiplet模式,而到了MI350系列,也升级为了3纳米。半导体知名分析师陆行之表示,如果英伟达在加速需求下对台积电下单需求量大,可能会让AMD得不到足够产能,转而向三星下订单。来源:videocardz英特尔用于生成式AI的主打芯片Gaudi 3采用的是台积电的5纳米,对于 Gaudi 3,这部分竞争正在略微缩小。不过,英特尔的重心似乎更侧重于AI PC,从英特尔最新发布的PC端Lunar Lake SoC来看,也已经使用了3纳米。Lunar Lake包含代号为Lion Cove的新 Lion Cove P核设计和新一波Skymont E 核,它取代了 Meteor Lake 的 Low Power Island Cresmont E 核。英特尔已披露其采用 4P+4E(8 核)设计,禁用超线程/SMT。整个计算块,包括P核和E核,都建立在台积电的N3B节点上,而SoC块则使用台积电N6节点制造。英特尔历代PC CPU架构(来源:anandtech)在边缘和终端AI芯片领域,IP大厂Arm也在今年5月发布了用于智能手机的第五代 Cortex-X 内核以及带有最新高性能图形单元的计算子系统 (CSS)。Arm Cortex-X925 CPU就利用了3纳米工艺节点,得益于此,该CPU单线程性能提高了36%,AI性能提升了41%,可以显著提高如大语言模型(LLM)等设备端生成式AI的响应能力。高带宽内存(HBM)是必需品HBM(High Bandwidth Memory,高带宽存储器)已经成为AI芯片不可或缺的关键组件。HBM技术经历了几代发展:第一代(HBM)、第二代(HBM2)、第三代(HBM2E)、第四代(HBM3)和第五代(HBM3E),目前正在积极发展第六代HBM。HBM不断突破性能极限,满足AI芯片日益增长的带宽需求。在目前一代的AI芯片当中,各家基本已经都相继采用了第五代HBM-HBM3E。例如英伟达Blackwell Ultra中的HBM3E增加到了12颗,AMD MI325X拥有288GB的HBM3e内存,比MI300X多96GB。英特尔的 Gaudi 3封装了八块HBM芯片,Gaudi 3能够如此拼性价比,可能很重要的一点也是它使用了较便宜的HBM2e。英特尔Gaudi 3的HBM比H100多,但比H200、B200或AMD的MI300都少(来源:IEEE Spectrum)至于下一代的AI芯片,几乎都已经拥抱了第六代HBM-HBM4。英伟达Rubin平台将升级为HBM4,Rubin GPU内置8颗HBM4,而将于2027年推出的Rubin Ultra则更多,使用了12颗HBM4。AMD的MI400也奔向了HBM4。从HBM供应商来看,此前AMD、英伟达等主要采用的是SK海力士。但现在三星也正在积极打入这些厂商内部,AMD和三星目前都在测试三星的HBM。6月4日,在台北南港展览馆举行的新闻发布会上,黄仁勋回答了有关三星何时能成为 NVIDIA 合作伙伴的问题。他表示:“我们需要的 HBM 数量非常大,因此供应速度至关重要。我们正在与三星、SK 海力士和美光合作,我们将收到这三家公司的产品。”HBM的竞争也很白热化。SK海力士最初计划在2026年量产HBM4,但已将其时间表调整为更早。三星电子也宣布计划明年开发HBM4。三星与SK海力士围绕着HBM的竞争也很激烈,两家在今年将20%的DRAM产能转向HBM。美光也已加入到了HBM大战行列。炙手可热的HBM也成为了AI芯片大规模量产的掣肘。目前,存储大厂SK Hynix到2025年之前的HBM4产能已基本售罄,供需矛盾日益凸显。根据SK海力士预测,AI芯片的繁荣带动HBM市场到2027年将出现82%的复合年增长率。分析师也认为,预计明年HBM市场将比今年增长一倍以上。三星电子DRAM产品与技术执行副总裁Hwang Sang-joon在KIW 2023上表示:“我们客户当前的(HBM)订单决定比去年增加了一倍多。”三星芯片负责业务的设备解决方案部门总裁兼负责人 Kyung Kye-hyun 在公司会议上更表示,三星将努力拿下一半以上的... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人