韩国封装企业Hana Micron:正为英伟达H100开发2.5D封装技术

韩国封装企业Hana Micron:正为英伟达H100开发2.5D封装技术 Hana Micron是韩国顶尖的后端工艺公司,也是外包半导体组装和测试(OSAT)公司。该公司目前正在开发一种2.5D封装技术,可水平组装不同类型的人工智能(AI)芯片,如高带宽内存(HBM)。公司CEO Lee Dong-cheol近日表示:“我们把未来寄托在HBM和其他人工智能芯片的先进2.5D封装技术上。”他表示,目前正在开发的芯片封装技术对于生产人工智能芯片至关重要,如英伟达的H100人工智能加速器。他还指出,台积电已经研发了英伟达H100的2.5D封装技术。三星和SK海力士以及一些后端公司也在开发。其公司也已经生产出原型,不过还需要一些时间才能进入全面商业化阶段。封装下一个战场封装将芯片置于保护盒中,防止腐蚀,并提供一个接口来组合和连接已生产的芯片。台积电、三星和英特尔等领先的代工企业正在激烈竞争先进的封装技术。封装技术可以提高半导体性能,而无需通过超精细加工来缩小纳米尺寸,这在技术上具有挑战性,而且需要更多时间。随着ChatGPT等生成式人工智能的发展,对此类技术的需求也在迅速增加,这就需要能够快速处理大量数据的半导体。根据咨询公司Yole Intelligence的预测,全球芯片封装市场(包括2.5D和更先进的3D封装)规模将从2022年的443亿美元增长到2028年的786亿美元。Hana Micron的越南业务Hana Micron成立于2001年8月,在韩国、越南和巴西设有生产设施,并在美国、越南和巴西开展海外销售业务。它提供封装服务,处理从芯片封装到模块测试的整个过程。该公司的客户包括三星、SK海力士和恩智浦半导体。该公司目前正在越南大力拓展业务。自2016年在北宁省成立公司进军东南亚市场以来,HanaMicron累计投资高达7000亿韩元(约合5.25亿美元),目前封装芯片的月产量已达5000万片。该公司计划到2025年将月产量提高到2亿个,并预计越南业务的销售额将很快达到万亿韩元。存储芯片封装占该公司销售收入的70%,而中央处理器、应用处理器、指纹识别传感器和汽车芯片等系统芯片的封装则占其余部分。Lee Dong-cheol说:“我们的最终目标是将系统芯片的比例提高到50%,因为它们受市场起伏的影响较小。”金融研究公司FnGuide的数据显示,随着过去几年存储市场的放缓,该公司2023年的营业利润预计为663亿韩元,比上一年下降36%。Lee Dong-cheol表示,鉴于电子产品制造商和人工智能设备制造商对先进芯片的需求不断增长,预计2024年的业绩将有所改善。 ... PC版: 手机版:

相关推荐

封面图片

消息称三星赢得英伟达2.5D封装订单

消息称三星赢得英伟达2.5D封装订单 2.5D封装将CPU、GPU、I/O、HBM等芯片水平放置在中介层上。台积电将其2.5D封装技术称为CoWoS,而三星则将其称为I-Cube。英伟达的A100和H100就是采用此类封装技术制造的,英特尔Gaudi也是如此。三星自去年以来一直致力于为其2.5D封装服务争取客户。三星向客户提议,将为AVP团队分配足够的人员,同时提供自己的中介层晶圆设计。消息人士称,三星将为英伟达提供2.5D封装,其中装有四个HBM芯片。他们补充说,三星已经拥有放置8个HBM芯片的封装技术。同时,为了在12英寸晶圆上安装8个HBM芯片,需要16个中介层,这会降低生产效率。因此,当HBM芯片数量达到8个时,三星为此开发了中介层的面板级封装技术。英伟达将订单交给三星,可能是因为其人工智能(AI)芯片的需求增加,这意味着台积电的CoWoS产能将不足。该订单还可能让三星赢得HBM芯片订单。 ... PC版: 手机版:

封面图片

你见过晶圆大小的芯片吗?这家AI独角兽推新品对标英伟达H100

你见过晶圆大小的芯片吗?这家AI独角兽推新品对标英伟达H100 据悉,该款芯片将4万亿个晶体管组织在90万个核心中。该芯片针对人工智能训练的工作负载进行了优化。Cerebras公司声称,配备了2048个WSE-3芯片的服务器集群可以在一天内训练出市场上最先进的开源语言模型之一Llama 2 70B。替代英伟达Cerebras是一家美国人工智能芯片的独角兽企业,它背后的投资团队也都实力够硬。最新一笔融资是在2021年由Alpha Wave Venture和阿布扎比增长基金领投,融资金额2.5亿美元,其他的投资人士包括:OpenAI创始人山姆·奥特曼、AMD前首席技术官Fred Weber等。2021年,Cerebras公司首次亮相了WSE-2芯片,集成了1.2万亿个晶体管、40万个核心。在同行都在将晶圆分割成数百颗独立芯片之时,Cerebras公司则是选择将整个晶圆做成一颗芯片。而最新发布的WSE-3则是从WSE-2改进而来的。它较WES-2又增加了1.4万亿个晶体管,并拥有90万个计算核心、44GB的板载SRAM内存。强化部分是通过从7纳米制造工艺更新到5纳米节点所实现的。据该公司称,WSE-3在人工智能工作负载方面的性能是其前身的两倍,它的峰值速度可以达到每秒125千万亿次计算。Cerebras还将WSE-3定位为比英伟达显卡更为高效的替代品。根据Cerebras官网的数据,该芯片4万亿个晶体管数完全碾压了英伟达H100 GPU的800亿个;核处理器数是单个英伟达H100 GPU的52倍;片上存储量是H100的880倍。WSE-3芯片为Cerebras公司的CS-3超级计算机提供动力,CS-3可用于训练具有多达24万亿个参数的人工智能模型,对比由WSE-2和其他常规人工智能处理器驱动的超级计算机,这一数据是个重大飞跃。加速数据传输虽说将晶圆大小的芯片和单个英伟达H100 GPU相比较并不公平,不过若从数据传输速度的角度来看,不将晶圆切割成单独的芯片确实有它的优势。根据Cerebras公司的说法,使用单一的大型处理器可以提高人工智能训练工作流程的效率。当WSE-3上的4万亿个晶体管在晶圆上互连时,将会大大加快生成式人工智能的处理时间。人工智能模型就是相对简单的代码片段的集合,这些代码片段被称为人工神经元。这些神经元被重新组织成集合(称为层)。当人工智能模型接收到一个新任务时,它的每一层都会执行任务的一部分,然后将其结果与其他层生成的数据结合起来。由于神经网络太大,无法在单个GPU上运行,因此,这些层需要分布在数百个以上的GPU上,通过频繁地交换数据来协调它们的工作。基于神经网络架构的具体特性,只有获得前一层的全部或部分激活数据,才能在开始分析数据,并提供给下一层。也就意味着,如果这两层的数据运行在不同的GPU上,信息在它们之间传输可能需要很长时间。芯片之间的物理距离越大,数据从一个GPU转移到另一个GPU所需的时间就越长,这会减慢处理速度。而Cerebras的WSE-3有望缩短这一处理时间。如果一个人工智能模型的所有层都在一个处理器上运行,那么数据只需要从芯片的一个角落传输到另一个角落,而不是在两个显卡之间传输。减少数据必须覆盖的距离可以减少传输时间,从而加快处理速度。该公司指出,在如今的服务器集群中,数以万计的GPU被用来处理一个问题,而若是将芯片数量减少50倍以上,就可以降低互连成本以及功效,同时或许也可以解决消耗大量电力的问题。Cerebras联合创始人兼CEO Andrew Feldman称,“当我们八年前开始这一旅程时,每个人都说晶圆级处理器是白日梦…WSE-3是世界上最快的人工智能芯片,专为最新的尖端人工智能工作而打造。”对于新推出地WSE-3芯片,分析公司Intersect360 Research首席执行官Addison Snell认为,Cerebras的WSE-3人工智能芯片和CS-3系统可以使部分高性能计算用户受益。他指出,“该芯片在相同的成本和功率下将性能提高了一倍。”不过,Tirias Research创始人Jim McGregor则较为现实地指出,尽管这家初创公司增长迅速,并且有能力提高其平台的可扩展性,但与占主导地位的人工智能供应商英伟达相比,它仍然是一家规模较小的公司。他还指出,Cerebras专注于人工智能的一个方面,那就是训练,不过训练只是大型语言模型市场的一个利基市场。而英伟达提供了许多其他方面产品。 ... PC版: 手机版:

封面图片

三星加码投资HBM内存封装技术以求与台积电争夺AI业务订单

三星加码投资HBM内存封装技术以求与台积电争夺AI业务订单 路透社的消息来源称,三星购买的设备将帮助其提高芯片产量,而这往往被证明是三星在全球半导体行业应用处理器领域的致命弱点。在人工智能竞赛初期,即使英伟达公司的股价屡创新高,半导体分析师们也在怀疑该行业是否有足够的芯片封装能力来满足对该公司为人工智能工作负载提供动力的 GPU 的旺盛需求。这些制约因素似乎也改变了存储芯片行业的发展趋势,今天的报道援引五位消息人士的话说,三星公司急于在产量方面赶上竞争对手。据该刊物援引分析师的话说,三星的 HBM3 芯片生产良品率仅为 10%至 20%,而其韩国竞争对手 SK Hynix 则高达 70%。良品率是芯片制造的关键部分,因为它决定了硅晶圆中可用芯片的数量。消息人士认为,良品率低是三星在赢得英伟达 HBM3 订单方面落后于其他内存厂商的关键原因。据称,为了弥补这一不足,三星正在采购芯片制造商使用的机器和材料,用环氧树脂填充内存芯片层间的缝隙。三星依靠自己的技术进行 HBM3 封装,并一直抵制向称为 MR-MUF(大规模回流模塑填充)的新技术转移的尝试。SK hynix 的 HBM 技术堆叠路线图该设备用于半导体制造的后一道工序,即封装。芯片制造包括在硅片上印刷电路,然后对最终产品进行封装,使其适合在计算机中使用。SK Hynix 和 Micron 向英伟达出售的 HBM3 芯片与 GPU 协同工作,是任何人工智能系统不可或缺的。潜在的人工智能需求和现有的行业投资催化了今年和 2023 年的半导体行业股票,尽管该行业的消费端受到严重过剩的困扰。冠状病毒大流行后的供需错配导致英伟达(NVIDIA)和 AMD 等公司订单过多,随着市场降温,过剩的库存意味着台湾半导体制造公司(TSMC)等芯片制造商的收入大幅减少。不过,台积电的股价今年迄今仍然上涨了 42%。在最近一次财报电话会议后,台积电管理层强调,台积电在满足任何人工智能厂商的需求方面都处于有利地位。自 2023 年 6 月以来,在韩国股票市场交易的三星股价下跌了 7%。英特尔 2023 年的年收入将达到 487 亿美元,超过三星的 399 亿美元,芯片市场的动荡也撼动了全球半导体行业的排名。这使得英特尔成为全球收入最高的半导体公司如果英伟达首席执行官黄仁勋所设想的万亿美元人工智能数据中心市场得以实现,英伟达的这一桂冠可能会受到挑战。 ... PC版: 手机版:

封面图片

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100 旧金山,3 月 21 日(路透社)主导人工智能 (AI) 芯片市场的美国半导体设计公司 Nvidia Corp 表示,已将其旗舰产品修改为可以合法出口到中国的版本. 美国监管机构去年制定规则,以国家安全问题为由,禁止英伟达向中国客户出售其两款最先进的芯片,即 A100 和更新的 H100。此类芯片对于开发生成式人工智能技术(如 OpenAI 的 ChatGPT 和类似产品)至关重要。 路透社在 11 月报道称,Nvidia设计了一款名为 A800 的芯片,该芯片降低了 A100 的某些功能,使 A800 可以合法出口到中国。 周二,该公司表示,它已经开发出类似的 H100 芯片的中国出口版本。这款名为 H800 的新芯片被阿里巴巴集团控股有限公司、百度公司和腾讯控股有限公司等中国科技公司的云计算部门使用。

封面图片

美国 AI 公司将打造漂浮在海上的计算平台,可容纳 10000 个英伟达 H100 GPU

美国 AI 公司将打造漂浮在海上的计算平台,可容纳 10000 个英伟达 H100 GPU 该平台的目标是规避最近美国《人工智能行政命令》和欧盟《人工智能法》施加的限制,因此解决方案是将业务转移到其他地方。

封面图片

华为引领中国与英伟达 AI 芯片竞争

华为引领中国与英伟达 AI 芯片竞争 华为技术有限公司正在领导一批中国半导体公司寻求存储芯片方面的突破,这可能有助于中国开发出替代英伟达尖端人工智能芯片的国产芯片,因为英伟达的芯片无法在中国销售。据两位接近华为的人士透露,由华为牵头的联盟在中国政府的资助下,计划到2026年生产高带宽内存 (HBM),这是先进图形处理单元的关键组件。该项目于去年开始,其中包括与华为一起受到美国制裁的内存芯片制造商福建晋华集成电路。该联盟还依赖其他中国芯片生产商和封装技术开发商,并将努力根据华为设计的人工智能处理器芯片和支持主板组件定制其内存芯片。 、

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人