韩国封装企业Hana Micron:正为英伟达H100开发2.5D封装技术

韩国封装企业Hana Micron:正为英伟达H100开发2.5D封装技术 Hana Micron是韩国顶尖的后端工艺公司,也是外包半导体组装和测试(OSAT)公司。该公司目前正在开发一种2.5D封装技术,可水平组装不同类型的人工智能(AI)芯片,如高带宽内存(HBM)。公司CEO Lee Dong-cheol近日表示:“我们把未来寄托在HBM和其他人工智能芯片的先进2.5D封装技术上。”他表示,目前正在开发的芯片封装技术对于生产人工智能芯片至关重要,如英伟达的H100人工智能加速器。他还指出,台积电已经研发了英伟达H100的2.5D封装技术。三星和SK海力士以及一些后端公司也在开发。其公司也已经生产出原型,不过还需要一些时间才能进入全面商业化阶段。封装下一个战场封装将芯片置于保护盒中,防止腐蚀,并提供一个接口来组合和连接已生产的芯片。台积电、三星和英特尔等领先的代工企业正在激烈竞争先进的封装技术。封装技术可以提高半导体性能,而无需通过超精细加工来缩小纳米尺寸,这在技术上具有挑战性,而且需要更多时间。随着ChatGPT等生成式人工智能的发展,对此类技术的需求也在迅速增加,这就需要能够快速处理大量数据的半导体。根据咨询公司Yole Intelligence的预测,全球芯片封装市场(包括2.5D和更先进的3D封装)规模将从2022年的443亿美元增长到2028年的786亿美元。Hana Micron的越南业务Hana Micron成立于2001年8月,在韩国、越南和巴西设有生产设施,并在美国、越南和巴西开展海外销售业务。它提供封装服务,处理从芯片封装到模块测试的整个过程。该公司的客户包括三星、SK海力士和恩智浦半导体。该公司目前正在越南大力拓展业务。自2016年在北宁省成立公司进军东南亚市场以来,HanaMicron累计投资高达7000亿韩元(约合5.25亿美元),目前封装芯片的月产量已达5000万片。该公司计划到2025年将月产量提高到2亿个,并预计越南业务的销售额将很快达到万亿韩元。存储芯片封装占该公司销售收入的70%,而中央处理器、应用处理器、指纹识别传感器和汽车芯片等系统芯片的封装则占其余部分。Lee Dong-cheol说:“我们的最终目标是将系统芯片的比例提高到50%,因为它们受市场起伏的影响较小。”金融研究公司FnGuide的数据显示,随着过去几年存储市场的放缓,该公司2023年的营业利润预计为663亿韩元,比上一年下降36%。Lee Dong-cheol表示,鉴于电子产品制造商和人工智能设备制造商对先进芯片的需求不断增长,预计2024年的业绩将有所改善。 ... PC版: 手机版:

相关推荐

封面图片

消息称三星赢得英伟达2.5D封装订单

消息称三星赢得英伟达2.5D封装订单 2.5D封装将CPU、GPU、I/O、HBM等芯片水平放置在中介层上。台积电将其2.5D封装技术称为CoWoS,而三星则将其称为I-Cube。英伟达的A100和H100就是采用此类封装技术制造的,英特尔Gaudi也是如此。三星自去年以来一直致力于为其2.5D封装服务争取客户。三星向客户提议,将为AVP团队分配足够的人员,同时提供自己的中介层晶圆设计。消息人士称,三星将为英伟达提供2.5D封装,其中装有四个HBM芯片。他们补充说,三星已经拥有放置8个HBM芯片的封装技术。同时,为了在12英寸晶圆上安装8个HBM芯片,需要16个中介层,这会降低生产效率。因此,当HBM芯片数量达到8个时,三星为此开发了中介层的面板级封装技术。英伟达将订单交给三星,可能是因为其人工智能(AI)芯片的需求增加,这意味着台积电的CoWoS产能将不足。该订单还可能让三星赢得HBM芯片订单。 ... PC版: 手机版:

封面图片

三星将于2025年推出"SAINT"3D芯片封装服务 为量产HBM4做准备

三星将于2025年推出"SAINT"3D芯片封装服务 为量产HBM4做准备 就三星 3D 封装的细节而言,它是 2.5D 方法的后继者,这一次,这家韩国巨头不再使用硅插层来连接 HBM 和 GPU,而是决定通过将多个芯片堆叠在一起来实现垂直整合。三星计划将其称为SAINT(三星高级互连技术)平台,并将封装分为三种类型:SAINT-S、SAINT-L 和 SAINT-D。它们都处理不同的芯片,如 SRAM、Logic 和 DRAM。与传统的 2.5D 相比,三星的 3D 封装技术具有多项优势。通过垂直堆叠,该公司成功地缩小了芯片之间的距离,从而加快了数据传输的速度。垂直堆叠还能减少碳足迹,这也是广泛采用该技术的另一个好处。韩国媒体称,三星在加利福尼亚州圣何塞举行的"三星代工论坛 2024"上展示了这项技术。这是该公司首次向公众展示这项技术,因为英伟达(NVIDIA)和英伟达(AMD)宣布将推出各自的下一代人工智能硬件。由于 3D 封装将与 HBM4 一起使用,预计三星的服务将与英伟达的 Rubin架构和 AMD 的Instinct MI400 AI 加速器一起亮相。三星还计划到 2027 年发布"一体化异构集成"技术。这项技术将实现统一的人工智能封装,集成商无需处理单独的封装技术。在苹果之后,英特尔在其轻薄设计(如 Lunar Lake CPU)中采用了非常以 SoC 为中心的方法,而 AMD 也在垂直堆叠领域非常活跃,其独特的 HBM、MCD 和 3D V-Cache 堆栈横跨多个芯片,可以广泛满足从消费市场到企业市场的各种客户需求。 ... PC版: 手机版:

封面图片

联发科将采用英伟达技术 开发汽车人工智能和芯片

联发科将采用英伟达技术 开发汽车人工智能和芯片 联发科将采用英伟达的人工智能(AI)加速器和技术套件,打造其互联汽车半导体产品。 作为高通公司在手机芯片领域的竞争对手之一,这家台湾芯片制造商宣布,将在其即将推出的座舱解决方案中集成英伟达新的图形硬件和技术。高通与英伟达在获取汽车制造商客户方面牢牢领先,但联发科正在进入的这个市场仍在增长和发展。 随着汽车制造商新增自动驾驶和互联功能,英伟达正押注于AI和加速计算将提振芯片需求。英伟达与联发科的合作将覆盖从豪华车型到大众市场车型的所有细分市场。 英伟达首席执行官黄仁勋在台北举行的Computex电脑展上表示,汽车行业需要与有实力的大公司联手,在未来几十年稳定合作。他表示,英伟达与联发科的合作现在可以覆盖所有汽车细分市场。 联发科首席执行官蔡力行表示,公司计划在2025年底发布首款与英伟达合作的产品。 标签: #联发科 #英伟达 #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

你见过晶圆大小的芯片吗?这家AI独角兽推新品对标英伟达H100

你见过晶圆大小的芯片吗?这家AI独角兽推新品对标英伟达H100 据悉,该款芯片将4万亿个晶体管组织在90万个核心中。该芯片针对人工智能训练的工作负载进行了优化。Cerebras公司声称,配备了2048个WSE-3芯片的服务器集群可以在一天内训练出市场上最先进的开源语言模型之一Llama 2 70B。替代英伟达Cerebras是一家美国人工智能芯片的独角兽企业,它背后的投资团队也都实力够硬。最新一笔融资是在2021年由Alpha Wave Venture和阿布扎比增长基金领投,融资金额2.5亿美元,其他的投资人士包括:OpenAI创始人山姆·奥特曼、AMD前首席技术官Fred Weber等。2021年,Cerebras公司首次亮相了WSE-2芯片,集成了1.2万亿个晶体管、40万个核心。在同行都在将晶圆分割成数百颗独立芯片之时,Cerebras公司则是选择将整个晶圆做成一颗芯片。而最新发布的WSE-3则是从WSE-2改进而来的。它较WES-2又增加了1.4万亿个晶体管,并拥有90万个计算核心、44GB的板载SRAM内存。强化部分是通过从7纳米制造工艺更新到5纳米节点所实现的。据该公司称,WSE-3在人工智能工作负载方面的性能是其前身的两倍,它的峰值速度可以达到每秒125千万亿次计算。Cerebras还将WSE-3定位为比英伟达显卡更为高效的替代品。根据Cerebras官网的数据,该芯片4万亿个晶体管数完全碾压了英伟达H100 GPU的800亿个;核处理器数是单个英伟达H100 GPU的52倍;片上存储量是H100的880倍。WSE-3芯片为Cerebras公司的CS-3超级计算机提供动力,CS-3可用于训练具有多达24万亿个参数的人工智能模型,对比由WSE-2和其他常规人工智能处理器驱动的超级计算机,这一数据是个重大飞跃。加速数据传输虽说将晶圆大小的芯片和单个英伟达H100 GPU相比较并不公平,不过若从数据传输速度的角度来看,不将晶圆切割成单独的芯片确实有它的优势。根据Cerebras公司的说法,使用单一的大型处理器可以提高人工智能训练工作流程的效率。当WSE-3上的4万亿个晶体管在晶圆上互连时,将会大大加快生成式人工智能的处理时间。人工智能模型就是相对简单的代码片段的集合,这些代码片段被称为人工神经元。这些神经元被重新组织成集合(称为层)。当人工智能模型接收到一个新任务时,它的每一层都会执行任务的一部分,然后将其结果与其他层生成的数据结合起来。由于神经网络太大,无法在单个GPU上运行,因此,这些层需要分布在数百个以上的GPU上,通过频繁地交换数据来协调它们的工作。基于神经网络架构的具体特性,只有获得前一层的全部或部分激活数据,才能在开始分析数据,并提供给下一层。也就意味着,如果这两层的数据运行在不同的GPU上,信息在它们之间传输可能需要很长时间。芯片之间的物理距离越大,数据从一个GPU转移到另一个GPU所需的时间就越长,这会减慢处理速度。而Cerebras的WSE-3有望缩短这一处理时间。如果一个人工智能模型的所有层都在一个处理器上运行,那么数据只需要从芯片的一个角落传输到另一个角落,而不是在两个显卡之间传输。减少数据必须覆盖的距离可以减少传输时间,从而加快处理速度。该公司指出,在如今的服务器集群中,数以万计的GPU被用来处理一个问题,而若是将芯片数量减少50倍以上,就可以降低互连成本以及功效,同时或许也可以解决消耗大量电力的问题。Cerebras联合创始人兼CEO Andrew Feldman称,“当我们八年前开始这一旅程时,每个人都说晶圆级处理器是白日梦…WSE-3是世界上最快的人工智能芯片,专为最新的尖端人工智能工作而打造。”对于新推出地WSE-3芯片,分析公司Intersect360 Research首席执行官Addison Snell认为,Cerebras的WSE-3人工智能芯片和CS-3系统可以使部分高性能计算用户受益。他指出,“该芯片在相同的成本和功率下将性能提高了一倍。”不过,Tirias Research创始人Jim McGregor则较为现实地指出,尽管这家初创公司增长迅速,并且有能力提高其平台的可扩展性,但与占主导地位的人工智能供应商英伟达相比,它仍然是一家规模较小的公司。他还指出,Cerebras专注于人工智能的一个方面,那就是训练,不过训练只是大型语言模型市场的一个利基市场。而英伟达提供了许多其他方面产品。 ... PC版: 手机版:

封面图片

英伟达削弱版人工智能芯片在中国遇冷

英伟达削弱版人工智能芯片在中国遇冷 美国在去年 10 月发布新规禁止英伟达向中国出售尖端人工智能芯片,英伟达迅速为中国开发了特供芯片,以符合收紧的规定。然而,英伟达面临一个更大的问题:中国的云计算大客户对购买英伟达低性能人工智能芯片并不那么热衷。 阿里巴巴集团和腾讯是中国最大的云计算公司,自去年11月以来一直在测试英伟达的样品。知情人士表示,他们已向英伟达表示,今年将从该公司订购的芯片数量将远少于原计划购买其被禁止的前一代芯片的数量。 知情人士表示,阿里巴巴集团和腾讯正在将一些先进半导体订单转移给华为等本土公司,并且更多地依赖公司内部开发的芯片。人工智能领军企业百度和字节跳动也在采取类似的做法。

封面图片

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100 旧金山,3 月 21 日(路透社)主导人工智能 (AI) 芯片市场的美国半导体设计公司 Nvidia Corp 表示,已将其旗舰产品修改为可以合法出口到中国的版本. 美国监管机构去年制定规则,以国家安全问题为由,禁止英伟达向中国客户出售其两款最先进的芯片,即 A100 和更新的 H100。此类芯片对于开发生成式人工智能技术(如 OpenAI 的 ChatGPT 和类似产品)至关重要。 路透社在 11 月报道称,Nvidia设计了一款名为 A800 的芯片,该芯片降低了 A100 的某些功能,使 A800 可以合法出口到中国。 周二,该公司表示,它已经开发出类似的 H100 芯片的中国出口版本。这款名为 H800 的新芯片被阿里巴巴集团控股有限公司、百度公司和腾讯控股有限公司等中国科技公司的云计算部门使用。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人