华为自研芯片技术近日,华为轮值董事长郭平透露了华为最新的自研芯片技术,这是一种堆叠芯片的技术,非常像GPU领域的HBM堆叠显存技

华为自研芯片技术 近日,华为轮值董事长郭平透露了华为最新的自研芯片技术,这是一种堆叠芯片的技术,非常像GPU领域的HBM堆叠显存技术。 可以通过增大厚度的方式,堆叠出更高的性能,从而实现芯片追赶高性能的能力。目前华为内部已经验证了这项技术的可行性,最快今年该技术将会上线,运用到多个领域。 扩展:网友A:真的很期待。网友B:是说奥利奥那样的叠在一起吗。

相关推荐

封面图片

海信即将发布国内首颗自研8K画质自研芯片

海信即将发布国内首颗自研8K画质自研芯片 据财联社消息,海信即将在本月11日发布新款“海信信芯”芯片,据称该芯片是中国首颗全自研8K AI画质芯片。在此前的CES 2022上,海信推出了全球首个8K激光显示技术方案、全球首台120英寸激光电视新品,在激光显示领域首次实现对BT.2020色域范围100%完整覆盖。

封面图片

小米做自研芯片能成功吗?

小米做自研芯片能成功吗? 小蒜苗的回答 本质上,自研这个行为是一个中性词,它是加分项,还是减分项并不取决于自研这个行为,而是这个行为带来的结果。 华为做海思大获成功,这是有目共睹的,但华为的成功是一整套的体系化的策略成功,而不是某一个单一动作的成功。 在11年余总接手终端,坚定发展海思的时候,自研并不是一个加分项。当时的中国科技企业代表还是联想,造不如买,买不如租还是业界主流认知。 14年Mate7大爆发,本质上和自研芯片也没有关系,是Mate7整体的产品定义和渠道策略的成功,甚至于,当时的麒麟芯片其实是拖后腿的。 对于当初的华为手机来说,内核逻辑是凭借华为的体系化能力,实现手机业务的突破,手机业务带动芯片研发的持续性发展,从而实现一个自上而下的体系化的能力建设。 当然,到后期,随着麒麟的成熟,从口碑到技术的框架打造完成,反而过成为终端业务的核心助力,这是另一件事儿,本质上麒麟是终端业务支持下,华为打造的果实,而不是终端崛起的理由。 2018年之后,麒麟给华为手机带来的助力很大: ● 足够的出货量支持下,使得麒麟的成本开始低于高通平台,让华为有了更充足的空间进行价格战,无论是当初搭载麒麟980的nova5 Pro,还是搭载810的荣耀9X,都是麒麟成本优势下的降维打击。 ● 自底层而上的全面能力建设,使得华为的产品优化从黑盒走向白盒子。因为优化的确定下和严格的品控,给华为的手机塑造了极佳的用户口碑。 ● 自主可控的产品节奏,以及规模效应下的资源竞争优势,使得华为可以以最快的速度拿到台积电最先进的制程,这使得华为的节奏一直领先对手。18-19年,华为的旗舰平台基本上在12月之前就可以完成产品的全面铺设,从旗舰到终端。而对手的节奏基本上在三月份之后,接近半年的时间差。 聊完了华为,我们再去看小米的自研芯片,一个关键的问题是,小米自研芯片想要得到的是什么? ● 足够出货量支撑下的成本优势,小米现在和高通的关系非常复杂,如果小米全面自研取代,必然会导致和高通的关系恶化。要知道,在全球市场,高通附加于处理器之上的专利体系保护,是一个关键点。小米的专利实力和华为是两码事儿。华为可以无惧高通的专利覆盖,不代表其他厂商可以。 ● 小米品牌对于处理器的带动能力。华为能做海思,是有时代背景的。在11年这个节点上,手机智能化时代的芯片巨头还没有形成,芯片品牌对于终端的带动其实是有限的。到14年之后高通巨头化完成,麒麟的品牌认知也在快速完成。但2024年不是这样了。 ● 自下而上的体系化能力,使得优化从黑盒走向白盒?当下小米两条线作战,企业重心在转向汽车,这个时候小米是否能够调集足够的资源来完成这件事儿? ● 节奏领先?2024年,台积电愿意给你单独开一条产线,就已经是很不容易了,想要成为核心合作者去争资源,这个我觉得真的不容易。当初华为能够领先高通去和苹果争资源,一方面是海思和台积电的深度绑定,而不是高通在三星和台积电之间反复横跳,另一个则是Mate和P的大崛起,华为每年稳定的几千万颗旗舰芯片的订单保障。 如果小米的目标只是造出来一颗可用的芯片,或者说,小米觉得,华为的成功,关键在于自研,小米只要完成自研这件事儿,就成功了。 那当我没说。 via 知乎热榜 (author: 小蒜苗)

封面图片

Meta今年将部署自研芯片,搭配其他公司的GPU支持AI

Meta今年将部署自研芯片,搭配其他公司的GPU支持AI Meta Platforms(原Facebook)将于2024年部署新款自研的定制款芯片到旗下数据中心,以支持人工智能(AI)。Meta发言人回应称,这款定制芯片将搭配公司购买的现成GPU发挥作用。(路透) 标签: #Meta #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

上车倒计时 消息称蔚来、小鹏等自研智驾芯片将流片

上车倒计时 消息称蔚来、小鹏等自研智驾芯片将流片 报道称,蔚来汽车的自研智能驾驶芯片“神玑NX9031”已经开始流片,并正在进行测试,计划在2025年第一季度,将神玑9031首次应用于其旗舰轿车ET9上。此外,小鹏汽车的自研智驾芯片也已送去流片,预计8月份回片,而理想汽车的智驾芯片项目代号为“舒马赫”,预计同样将在今年内完成流片。官方信息显示,蔚来神玑NX9031是一款5纳米工艺、拥有超过500亿晶体管的智能驾驶芯片,于2023年9月发布。蔚来表示,通过自研的NPU,该芯片能高效运行各类AI算法,李斌曾表示,他们的目标是用一颗自研芯片达到当前业界四颗旗舰智能驾驶芯片的性能,这意味着蔚来的芯片需要与算力超过千Tops的芯片竞争。报道还支持,蔚来自2020年起组建了超过800人的芯片团队,负责人是华为海思出身,直接向蔚来硬件副总裁白剑汇报。除了蔚来,小鹏和理想也在加紧自研智驾芯片,小鹏在与Marvell合作不顺后,转而与索喜合作进行芯片设计。而理想则在去年开始加强芯片团队建设,目前约有200人,值得一提的是,理想的芯片技术负责人秦东,是新势力三家中唯一没有华为海思背景的高层。 ... PC版: 手机版:

封面图片

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU?

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU? 高调自研的Meta转身狂购英伟达芯片Meta首席科学家杨立昆(Yann LeCun)上个月在旧金山举行的一次活动中强调了GPU对于构建通用人工智能(AGI)的重要性。他说:“如果你认为AGI时代正在到来,你就必须购买更多的GPU。这是一场人工智能战争,而英伟达正在提供武器。”Meta第三季度财报显示,2024财年的总支出将在940亿美元至990亿美元之间,部分原因是在算力方面的扩张。矛盾的是:之前,Meta的打算是自研芯片,不依赖英伟达。2023年,Meta公司首度曾公开其自研芯片的进展,表示开始计划开发一种用于训练人工智能模型的内部芯片,他们将这款新型芯片取名Meta训练和推理加速器,简称MTIA(MTIA v1),将其归类为加速人工智能训练和推理工作负载的“芯片家族”,并定计划于2025年推出。这种定制芯片采用开源芯片架构RISC-V,在类型上属于ASIC专用集成电路。巨头自研芯片不顺利2023年OpenAI 大模型爆火以来,互联网巨头对AI芯片的需求一夜爆发,一时间重金难求一卡。为了避免受制于人,节省费用,各大巨头纷纷宣布自研AI芯片。亚马逊似乎占据了先机,已拥有两款AI专用芯片训练芯片Trainium和推理芯片Inferentia;谷歌则拥有第四代张量处理单元(TPU)。相比之下,微软、Meta等还在很大程度上依赖于英伟达、AMD和英特尔等芯片制造商的现成或定制硬件。报道称,微软一直在秘密研发自己的AI芯片,代号雅典娜(Athena)。该芯片由台积电代工,采用5nm先进制程,计划最早于2024年推出。MTIA的 v1,字面性能也很强,采用台积电7nm制程工艺,运行频率800MHz,TDP仅为25W,INT8整数运算能力为102.4 TOPS,FP16浮点运算能力为51.2 TFLOPS。但从目前的进度上看,微软、Meta的进度并不算快,微软一直在订购英伟达的芯片,Meta此次高调宣布购入35万个H100,也表明,自身研发并不顺利。AI算力竞争是否再次展开据OpenAI测算,从2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍。2023年,各巨头对AI芯片的抢购,一度让英伟达H100持续涨价缺货。根据研究机构Raymond James的分析师预测,每个英伟达H100芯片售价为25000至30000美元。按此价格范围计算,Meta在这些芯片上的支出将至少接近百亿美元。Meta为何不吝于成本,斥巨资买入英伟达芯片。扎克伯格在周四的文章中还表示,将把人工智能投资与AR/VR驱动的元宇宙愿景联系起来,并计划推出Llama大型语言模型的下一个版本。从上述表态中可以看出,Meta的自身业务深入发展,需要算力的支持,这是根本原因。对于全球互联网巨头、科技公司来说,2024年的竞争已经开始,新的一轮算力竞争是否就此拉开序幕。 ... PC版: 手机版:

封面图片

微软推出两款自研芯片:Azure Maia 100 和 Azure Cobalt 100

微软推出两款自研芯片:Azure Maia 100 和 Azure Cobalt 100 当地时间 11 月 15 日周三,微软在西雅图举办的 Ignite 全球技术大会上,发布了两款自研芯片:Azure Maia 100 和 Azure Cobalt 100。 微软表示,Azure Maia 100 是一款 AI 加速器芯片,用于 OpenAI 模型、Bing、GitHub Copilot 和 ChatGPT 等 AI 工作负载运行云端训练和推理。Azure Cobalt 100 则是一款基于 Arm 架构的云原生芯片,针对通用工作负载的性能、功率和成本效益进行了优化。 微软还表示,他们不打算出售这些芯片,而是将它们用于为其自己的订阅软件产品提供支持,并作为其 Azure 云计算服务的一部分。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人