英特尔、AMD、微软、博通等科技巨头组建行业小组UALink

英特尔、AMD、微软、博通等科技巨头组建行业小组UALink UALink推广小组周四宣布成立,其成员还包括AMD、惠普企业、博通和思科。该小组提出了一个新的行业标准,用于连接服务器中越来越多的AI加速器芯片。广义上讲,AI加速器是从GPU到为加速AI模型的训练、微调和运行而定制设计的解决方案的芯片。AMD数据中心解决方案总经理Forrest Norrod在周三的简报中对记者表示:“行业需要一个可以快速推进的开放标准,在开放的[格式]中,允许多家公司为整个生态系统增加价值。”“行业需要一个标准,允许创新以不受任何单一公司束缚的快速步伐进行。”提议的标准的第一个版本,UALink 1.0,将在单个计算“pod”中连接多达1024个AI加速器仅限GPU。(该小组将pod定义为服务器中的一个或几个机架。)UALink 1.0基于“开放标准”,包括AMD的无限架构,将允许AI加速器附加的内存之间进行直接加载和存储,并且与现有的互连规格相比,总体上将提高速度并降低数据传输延迟。该小组表示,将在第三季度创建一个联盟,UALink联盟,以监督UALink规范的未来发展。UALink 1.0将在同期向加入联盟的公司提供,更高带宽的更新规范UALink 1.1,计划在2024年第四季度推出。UALink的首批产品将在“未来几年”推出,Norrod说。明显缺席该小组成员名单的是NVIDIA,它是迄今为止最大的AI加速器生产商,估计占有80%到95%的市场份额。NVIDIA拒绝对此发表评论。但不难看出为什么这家芯片制造商不热衷于支持基于竞争对手技术的规范。首先,NVIDIA为其数据中心服务器内的GPU提供了自己的专有互连技术。该公司可能不太愿意支持基于竞争对手技术的标准。然后是NVIDIA从巨大的实力和影响力位置运营的事实。在NVIDIA最近一个财季(2025年第一季度)中,包括其AI芯片销售在内的数据中心销售额比去年同期增长了400%以上。如果NVIDIA继续目前的发展轨迹,它将在今年某个时候超过苹果,成为世界上最有价值的公司。因此,简单来说,如果NVIDIA不想参与,它就不必参与。至于亚马逊网络服务(AWS),这是唯一没有为UALink做出贡献的公共云巨头,它可能处于“观望”模式,因为它正在削减其各种内部加速器硬件努力。也可能是AWS,凭借对云服务市场的控制,没有看到反对NVIDIA的战略意义,NVIDIA为其客户提供了大部分GPU。AWS没有回应TechCrunch的评论请求。事实上,UALink的最大受益者除了AMD和英特尔似乎是微软、Meta和Google,它们已经花费了数十亿美元购买NVIDIA GPU来驱动它们的云并训练它们不断增长的AI模型。所有人都希望摆脱一个他们视为在AI硬件生态系统中过于主导的供应商。Google拥有用于训练和运行AI模型的定制芯片,TPU和Axion。亚马逊拥有几个AI芯片家族。微软去年加入了Maia和Cobalt的竞争。Meta正在完善自己的加速器系列。与此同时,微软及其密切合作伙伴OpenAI据报道计划至少花费1000亿美元用于一台超级计算机,用于训练AI模型,该计算机将配备未来的Cobalt和Maia芯片。这些芯片将需要一些东西将它们连接起来也许它将是UALink。 ... PC版: 手机版:

相关推荐

封面图片

第一财经 - 直播区<b>AMD发布全新AI芯片:用更少的GPU训练更多模型 |</b> AMD在周二展示了其即将推出的GPU专

第一财经 - 直播区 <b>AMD发布全新AI芯片:用更少的GPU训练更多模型 |</b> AMD在周二展示了其即将推出的GPU专用的MI300X AI芯片(其称为加速器),该加速器可以加快ChatGPT和其他聊...| #财经 #新闻 #资讯

封面图片

微软选择英特尔代工其自主设计的芯片

微软选择英特尔代工其自主设计的芯片 两家公司在周三的一次活动中表示,微软计划使用英特尔的 18A 制造工艺来制造其内部设计的芯片。 他们没有透露具体产品,但微软最近宣布了两种自主设计芯片的计划:一款计算机处理器和一款 AI 加速器。英特尔预计其在 2025 年将通过其 18A 工艺重新获得技术前沿地位。

封面图片

英特尔、AMD、苹果:您应该购买哪款AI CPU?

英特尔、AMD、苹果:您应该购买哪款AI CPU? AI CPU 比较英特尔、AMD、苹果和高通已宣布为其最新移动处理器采用新的SoC(片上系统)设计。这些新处理器将CPU、GPU 和 NPU组合集成在一个芯片中,以提供高效的 AI 计算能力。虽然其中一些新的 SoC 仍需等待 2024 年发布,但官方公告、设计规格以及自报和独立基准测试可以帮助我们确定这些即将推出的处理器是否值得等待,或者您是否应该立即购买 AI 笔记本电脑。为了帮助您决定购买哪种 AI 处理器,这里介绍了英特尔、AMD、苹果和高通在 AI 处理器方面的最新进展。英特尔酷睿超 200V (Lunar Lake)英特尔在 2024 年台湾国际电脑展上发布了新款 Lunar Lake 处理器。这款新移动处理器较上一代设计有多项改进,主要侧重于散热、能效、更好的 GPU 和 AI 计算能力,同时仍使用 x86 架构。值得注意的 SoC 设计特点包括:统一内存架构:英特尔 Lunar Lake 处理器现在将 LPDDR5 RAM 集成到其 SoC 设计中。这可以在 RAM 和处理器之间传输数据时实现更高的带宽和更低的功耗。3nm 工艺:借助 3nm 工艺,英特尔在 Lunar Lake 中装入了更多晶体管,从而提高了其性能和电源效率。集成 NPU:Lunar Lake SoC 采用六个 NPU 计算引擎,以 INT8 精度提供高达 40 TOPS(每秒万亿次运算)的 AI 计算能力。禁用超线程:所有八个核心(四个性能核心和四个效率核心)均禁用超线程,以提高电池寿命而不是性能。采用这种新的 SoC 设计,与上一代 Meteor Lake 处理器相比,英特尔 Lunar Lake 处理器的 AI 性能预计将提高 3 倍,图形处理速度将提高 1.5 倍,能效将提高约 40%。AMD Ryzen AI 300(Strix Point)与英特尔在处理 x86 时所采取的节能方法相比,AMD 更注重强调性能,但代价是更高的功耗。以下是使这些处理器强大的一些特性:Zen 5 微架构:为 IPC(每时钟指令数)和整体性能带来显著改进。集成 RDNA 3.5 显卡:对之前的 RDNA 架构进行了改进,在图形和 AI 相关任务上都增加了显着的性能提升。XDNA2 NPU:SoC 上性能最高的 NPU。在 INT8 精度下最高可达 50 TOPS,适用于需要 40 TOPS 的 Copilot+。Block FP16:在几乎不影响性能的情况下实现更高精度的 AI 任务。这使得 AMD 的 Ryzen AI 300 系列处理器成为要求苛刻的 AI 和计算任务的强大选择,并利用先进的图形和 AI 处理功能。苹果 M4Apple M4 使用与 M3 类似的技术,例如 3nm 工艺节点、芯片集成内存、小芯片设计和混合架构。M4 已集成到最新的 iPad Pro 中,提供 9 或 10 个 CPU 内核(3 或 4 个性能内核和 6 个效率内核)、能够达到 35 TOPS 的 16 核 NPU 以及比 M2 快四倍的 10 核 GPU。设计变化并不像英特尔的 Lunar Lake 那样剧烈,主要是因为 M 系列芯片此时已经经过了很好的优化,而 ARM 设备比 x86 设备更节能。高通骁龙 X Elite高通现在正在为 Windows 机器生产功能强大的 ARM 处理器!Snapdragon X Elite 处理器运行在RISC(精简指令集计算)上,而不是大多数 Windows 计算机上常见的 CISC(复杂指令集计算)。高通表示,X Elite SoC 采用 12 核 ARM v8 Oryon CPU、Adreno X1 GPU 和 Hexagon NPU,在 INT8 精度下能够达到 45 TOPS,使其成为功能强大的 Windows Copilot Plus 处理器。RISC 与强大的 SoC 相结合的使用使高通的 Snapdragon X Elite 成为 Apple M 系列芯片的强大竞争对手,后者也是高性能的 RISC 处理器。英特尔、AMD、苹果和高通:人工智能处理器对比以下是英特尔 Lunar Lake、AMD Ryzen AI 300、Apple M4 和 Qualcomm Snapdragon X Elite 的比较表:根据上表,我们有两个 x86(Lunar Lake 和 Ryzen AI 300)和两个 ARM(M4 和 Snapdragon X Elite)AI 处理器。众所周知,ARM 处理器具有更好的能效,而 x86 具有更高的性能。然而,随着 M4 和 X Elite 变得更加强大,以及 Lunar Lake 和 Ryzen AI 300 更加节能,性能和能效之间的差距似乎越来越小。在 X86 处理器的能效方面,英特尔凭借其 3nm 工艺节点、片上内存、禁用超线程和较低的 CPU 核心数,表现更佳。与此同时,AMD 的 Ryzen AI SoC 凭借 24 个线程(CPU 时钟速度略高)、功能更强大的 GPU 和具有块 FP16 功能的 NPU 提供了更好的性能。至于 ARM AI 处理器,由于其硬件加速跟踪功能和对 macOS 应用程序的原生支持,Apple 的 M4 在散热、CPU 甚至 GPU 方面均胜过 X Elite。然而,值得注意的是,尽管存在模拟和其他软件问题,X Elite 芯片仍然是一款强大的基于 ARM 的处理器,可与 Apple 的 M3、英特尔的 Meteor Lake 和 AMD 的 Ryzen 7000 处理器相媲美。您应该购买哪款 AI CPU?笔记本电脑制造商通常会提供不同硬件规格的选项,包括处理器。那么,随着今年新的支持 AI 的 SoC 上市,您应该购买哪款 AI CPU?Apple M4(Donan):最适合 macOS 用户。专为 macOS 设计和优化,提供有竞争力的性能和较长的电池寿命。AMD Ryzen AI 300(Strix Point):游戏玩家的理想之选。其高性能多线程 CPU 搭配强大的集成 GPU,使其成为游戏和其他密集型任务的理想之选。英特尔酷睿超极本 200V(Lunar Lake):性能均衡。它在性能和电池效率之间实现了良好的平衡。适用于游戏(尤其是电子竞技游戏)、生产力任务、媒体消费和一般网页浏览。高通骁龙 X Elite:目前最省电的 Windows AI 处理器。它是首款原生支持 Windows Co-Pilot Plus 的处理器。非常适合一般工作、网页浏览和媒体消费。尽管所有这些处理器都通过其集成的 NPU 具备 AI 功能,但我们可能还需要一段时间才能充分受益于它们。开发人员需要更多时间来创建充分利用 NPU 的软件。虽然现在购买一台新笔记本电脑可能很诱人,但这些新 SoC 上的 AI 功能明显优于 2023 年发布的 SoC。因此,如果 AI 功能对您很重要,那么您要么立即购买 Snapdragon X Elite PC,要么等待今年晚些时候即将推出的 M4、Core Ultra 200V 或 Ryzen AI 笔记本电脑。 ... PC版: 手机版:

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60% 在美国加州圣何塞举行的 AI 特别活动中,AMD 宣布正式推出其旗舰 AI GPU 加速器 MI300X,并称其性能比英伟达的 H100 芯片提高了 60%。 据 AMD 介绍,新芯片为性能最高的芯片,拥有超过 1500 亿个晶体管。与英伟达 H100 芯片相比,AMD 新芯片的内存为其 2.4 倍,内存带宽为其 1.6 倍,训练性能与 H100 芯片相当,在运行 AI 模型方面则比英伟达快得多。 、

封面图片

NVIDIA的AI芯片优势正成为谷歌、英特尔和Arm的目标

NVIDIA的AI芯片优势正成为谷歌、英特尔和Arm的目标 这个名为"统一加速基金会"(UXL)的组织表示,该项目的技术细节应在今年下半年达到"成熟"状态,但没有给出最终的发布目标。该项目目前包括英特尔开发的OneAPI开放标准,旨在消除特定编码语言、代码库和其他工具等要求,使开发人员不再受使用特定架构(如 NVIDIA 的 CUDA 平台)的束缚。上个月,英伟达(NVIDIA)成为首家市值达到 2 万亿美元的芯片制造商,在专注于为人工智能模型提供动力的硬件(如H100和即将推出的H200 GPU)之后,英伟达实现了快速增长。这些英伟达(NVIDIA)芯片将开发者锁定在使用英伟达(NVIDIA)的CUDA架构上,比其他芯片制造商目前生产的任何产品都要优越,但爆炸性的需求造成了产品稀缺,而竞争对手却在继续开发自己的替代品。在 2023 年的 Computex 主题演讲中,NVIDIA 首席执行官黄仁勋表示,有 400 万开发者正在使用 CUDA计算模型。UXL表示,该项目最初的目标是为人工智能应用和高性能计算应用开放选项,但该小组计划最终也支持NVIDIA的硬件和代码。UXL 正在寻求更多芯片制造商以及微软和亚马逊等云计算公司的援助,以确保该解决方案可以部署在任何芯片或硬件上。据传,微软去年曾与 AMD合作开发替代人工智能芯片,以挑战 NVIDIA 在该行业的有效垄断地位。 ... PC版: 手机版:

封面图片

【英特尔、台积电、Arm、AMD等成立行业联盟 制定小芯片互联标准规范“UCIe”】

【英特尔、台积电、Arm、AMD等成立行业联盟 制定小芯片互联标准规范“UCIe”】 3月3日消息,英特尔、AMD、ARM、Google Cloud、Meta(Facebook)、微软、高通、三星、台积电等联合宣布,成立行业联盟,以建立小芯片生态系统,制定小芯片互联标准规范“UCIe”。据悉,UCIe标准的全称为“Universal Chiplet Interconnect Express”,是在芯片封装层面确立互联互通的统一标准。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人