文件显示苹果训练AI用了Google TPU芯片

文件显示苹果训练AI用了Google TPU芯片 为构建苹果的人工智能基础模型,工程师们运用了公司自研的框架软件及多种硬件,包括苹果自有的GPU(图形处理单元)和仅在谷歌云上可用的TPU(张量处理单元)。谷歌已经研发TPU芯片约10年,并已公开其第五代芯片的两种型号。这些芯片可用于人工智能的训练,谷歌宣称其性能可媲美英伟达H100人工智能芯片。在其年度开发者大会上,谷歌宣布将于今年推出第六代TPU芯片。这些芯片专为运行人工智能应用和训练模型而设计,谷歌已围绕这些芯片构建了云计算硬件和软件平台。苹果和谷歌尚未对此事作出回应。苹果未具体透露,与英伟达或其他AI硬件供应商相比,其对谷歌芯片和软件的依赖程度。通常,使用谷歌的芯片需要客户通过其云部门购买访问权限,这类似于客户从亚马逊AWS或微软Azure购买计算时间的方式。 ... PC版: 手机版:

相关推荐

封面图片

苹果利用谷歌芯片训练其人工智能模型

苹果利用谷歌芯片训练其人工智能模型 当地时间周一,苹果公司宣布了新的 Apple Intelligence 人工智能服务。但在活动结束后,苹果发布的一份技术文件的细则中明确显示出,谷歌公司已成为在人工智能领域又一个赢家。为了构建苹果的基础人工智能模型,该公司的工程师使用了自主开发的框架和一系列硬件,特别是自己的内部图形处理单元 (GPU) 和只能在谷歌云端使用的张量处理单元 (TPU) 芯片。苹果并未透露其对谷歌芯片和软件的依赖程度,以及对英伟达或其他人工智能供应商硬件的依赖程度。 谷歌已经开发 TPU 大约 10 年了,并公开讨论了可用于人工智能训练的两种第五代芯片;谷歌表示,第五代芯片的性能版本提供的性能可与英伟达 H100 人工智能芯片相媲美。通常谷歌的芯片并不直接出售给客户,只能通过谷歌云进行访问。

封面图片

苹果自研AI芯片:项目名ACDC

苹果自研AI芯片:项目名ACDC 一些知情人士表示,苹果一直在与其芯片制造合作伙伴台积电密切合作,设计并开始生产此类芯片,但仍不确定他们是否已经取得了明确的结果。一些知情人士表示,对于苹果的服务器芯片,该组件可能会专注于运行人工智能模型(即所谓的推理),而不是训练人工智能模型,芯片制造商英伟达可能会继续占据主导地位。苹果服务器芯片的出现恰逢其时,因为在 OpenAI 的 ChatGPT 服务爆炸性出现后,微软和 Meta 等竞争对手已斥资数十亿美元,并迅速围绕所谓的生成式人工智能重新调整其业务。苹果投资者对该公司在人工智能领域缺乏进展感到越来越不耐烦。科技竞争对手的股价随着人工智能的引人注目的公告而上涨。得益于与 OpenAI 的早期密切合作,微软获得了最大的提升。今年早些时候,微软取代苹果成为全球市值最高的公司,而且其领先地位还在不断扩大。苹果首席执行官Tim Cook试图向投资者保证,公司正在投资这项技术,并且很快就会发布重大的人工智能公告。库克在公司电话会议上表示:“我们相信人工智能的变革力量和前景,我们相信我们拥有的优势将使我们在这个新时代脱颖而出,包括苹果将硬件、软件和服务无缝集成的独特组合。”最近的季度收益。生成式人工智能系统,例如为 ChatGPT 提供支持的大型语言模型,通常使用数据中心托管的计算机服务器来处理大量数据。对于这种计算能力,大多数大型科技公司都严重依赖装有英伟达芯片的服务器,英伟达发现自己正处于人工智能淘金热之中。大多数最大的科技公司都开发了自己的人工智能服务器芯片,或者正在探索摆脱英伟达束缚的可能性,英伟达在此类芯片上的市场份额估计超过 80%。Google可能拥有最成熟的内部人工智能服务器芯片产品及其张量处理单元,该项目于 2013 年启动。据《华尔街日报》此前报道,OpenAI 也在讨论资助一个雄心勃勃的内部芯片项目。苹果现有的芯片实力可能是该公司在人工智能领域比其他科技巨头找到关键优势的途径之一。当该公司于 2010 年首次开始将自己的处理芯片集成到 iPhone 和 iPad 中时,该公司在设计定制芯片方面拥有最悠久的历史和最成功的经验。2017 年,苹果开始将专注于人工智能的处理器整合到其移动芯片中。2020 年,它开始用自己的定制芯片替换 Mac 中的英特尔芯片。这些芯片方面的努力为苹果公司的产品提供了区别于竞争对手的优势。一位消息人士称,目前计划用于其消费产品的苹果 M 系列芯片的高级版本可能能够执行某些人工智能功能,例如服务器中的推理。尽管苹果公司已经成功为其设备开发处理芯片,并且现在正寻求在服务器领域实现这一目标,但该公司一直在努力开发蜂窝无线芯片以取代移动芯片领导者高通公司。据《华尔街日报》去年报道,苹果内部蜂窝调制解调器的推出仍然未能按时完成并被推迟。苹果更喜欢人工智能的大部分使用发生在 iPhone 或 Apple Watch 上,但它仍然需要在通过互联网访问的远程服务器上运行一些进程,此时苹果服务器芯片将接管。通过自己处理更多的任务,甚至使用数据中心的芯片,苹果可以更好地控制其人工智能的命运。苹果股价周一尾盘上涨 1.2%。今年截至收盘,该公司股价已下跌 5.6%。这家总部位于加利福尼亚州库比蒂诺的公司的代表没有立即回应置评请求。苹果一直在生成人工智能领域追赶科技同行,生成人工智能是聊天机器人和其他流行新工具的基础技术。但该公司正准备在下个月的全球开发者大会上公布一项新的人工智能战略。据彭博社报道,其方法预计将重点关注可以帮助用户日常生活的新主动功能。苹果还与 Alphabet Inc. 旗下的Google和 OpenAI 等潜在合作伙伴进行了谈判,以提供生成式人工智能服务。如果苹果继续推出自己的服务器处理器,它将效仿几家最大的科技公司的做法。亚马逊公司的AWS、Google、微软公司和Meta Platforms公司都运营着在某种程度上运行在内部设计的半导体上的数据中心。这些努力削弱了英特尔公司零部件的传统主导地位。Apple 将 M2 Ultra 用于 AI 服务器该报告发布之前,海通国际证券分析师 Jeff Pu 本周表示,苹果正在使用 M2 Ultra 和 M4 芯片来为专门用于 iOS 18 基于人工智能的新功能的服务器提供支持。Pu在一份给投资者的新报告中提供了基于供应链检查的分析。据称,富士康目前正在组装包含 M2 Ultra 的苹果 AI 服务器,并计划在 2025 年末组装由 M4 芯片驱动的 AI 服务器。上个月,微博上的一位知名消息人士称,苹果正在为自己的 AI 开发处理器采用台积电3nm工艺制造的服务器,目标是在 2025 年下半年实现量产,这可能与这份有关 M4 驱动的 AI 服务器的报告相符。苹果决定建立自己的人工智能服务器,反映了该公司持续垂直整合供应链的战略。苹果可能会使用自己的芯片来增强其数据中心和未来依赖云的人工智能工具的性能。尽管有传言称苹果将优先考虑其即将推出的许多人工智能工具的设备上处理,但不可避免的是,某些操作必须在云端进行。当基于 M4 的服务器可以在数据中心运行时,苹果的新人工智能战略应该会顺利进行。与更广泛的行业预期一致,Pu 还预计苹果将在 6 月份的 WWDC 上宣布设备端 AI 功能,例如录音摘要、照片和视频编辑以及实时翻译。虽然iPhone 16系列将宣传一系列人工智能功能,但 2025 年的iPhone 17 机型显然将是更专注于人工智能的设备。该公司预计将在 iOS 18 和 6 月 WWDC 2024 上宣布的其他软件更新中引入许多基于生成式 AI 的功能。苹果还一直在 开发自己的可以离线运行的语言模型。然而,这些模型更加有限,因此拥有在线替代方案将是提供更准确结果的理想选择。有趣的是,之前的报道显示,苹果一直在与 OpenAI 和Google讨论在 iOS 18 中使用他们的人工智能技术。目前尚不清楚苹果是否仍计划与第三方达成交易,或者只是使用自己的服务器。 ... PC版: 手机版:

封面图片

苹果正在为AI服务器开发自己的定制Apple Silicon芯片

苹果正在为AI服务器开发自己的定制Apple Silicon芯片 台积电是苹果公司的重要合作伙伴,为其制造所有定制Apple Silicon芯片。这家芯片制造商的 3nm 技术是目前最先进的半导体工艺之一,与之前的 5nm 和 7nm 节点相比,在性能和能效方面都有显著提高。苹果公司声称要开发一款专业的人工智能服务器处理器,这反映了该公司正在实施的垂直整合供应链的战略。通过设计自己的服务器芯片,苹果可以根据自己的软件需求量身定制硬件,从而可能带来更强大、更高效的技术。苹果可能会使用自己的人工智能处理器来提高其数据中心和未来人工智能工具的性能,而这些人工智能工具都依赖于云。虽然有传言称苹果公司将优先考虑在设备上处理许多即将推出的人工智能工具,但不可避免的是,有些操作必须在云端进行。到 2025 年末,定制处理器可以集成到运行服务器中时,苹果的新人工智能战略应该已经开始实施了。该微博用户之前有许多准确的说法,包括iPhone 7将具有防水功能,iPhone 14标准机型将继续使用 A15 仿生芯片,而更先进的 A16 芯片将为 iPhone 14 Pro 机型所独有。这些预测后来得到了多个可靠消息来源的证实,并在产品发布时被证明是正确的。 ... PC版: 手机版:

封面图片

Google公布下一代 TPU芯片“Trillium” 性能有望提升 4.7 倍

Google公布下一代 TPU芯片“Trillium” 性能有望提升 4.7 倍 宣布下一代 TPU 是 I/O 大会的传统,尽管这些芯片要到今年晚些时候才能推出。不过,皮查伊表示,新一代 TPU 到货后,每块芯片的计算性能将比第五代提升 4.7 倍。在一定程度上,Google是通过扩大芯片的矩阵乘法单元(MXU)和提高整体时钟速度来实现这一目标的。此外,Google还将 Trillium 芯片的内存带宽提高了一倍。更重要的是,Trillium 采用了第三代 SparseCore,Google将其描述为"处理高级排名和推荐工作负载中常见的超大嵌入的专用加速器",该公司认为,这将使 Trillium TPU 能够更快地训练模型,并以更低的延迟为模型提供服务。皮查伊还将新芯片描述为Google迄今为止"最节能"的 TPU,这一点在人工智能芯片需求持续成倍增长的情况下尤为重要。他说:"在过去六年中,行业对 ML 计算的需求增长了 100 万倍,大约每年增长 10 倍。如果不投资降低这些芯片的功耗需求,这种情况将难以为继。Google承诺,新的 TPU 比第五代芯片节能 67%。"Google的 TPU 最近往往有多种变体。到目前为止,Google还没有提供有关新芯片的更多细节,也没有说明在Google云中使用这些芯片的成本。今年早些时候,Google也宣布将成为首批提供英伟达(NVIDIA)下一代 Blackwell 处理器的云计算提供商。不过,这仍然意味着开发人员要等到 2025 年初才能使用这些芯片。皮查伊说:"我们将继续投资基础设施,为我们的人工智能进步提供动力,我们将继续开辟新天地。" ... PC版: 手机版:

封面图片

前谷歌工程师创业造AI芯片 已融资2500万美元

前谷歌工程师创业造AI芯片 已融资2500万美元 在这一背景下,两位前谷歌工程师共同创立了MatX。他们利用在谷歌的经验,识别出现有人工智能芯片的局限性,并致力于开发更高效、成本更低的新型芯片,旨在提高大语言模型的训练和运行效率。MatX信心十足地预测,其芯片的性能将至少比英伟达的GPU好十倍。目前该公司已成功筹集了2500万美元的资金。人工智能时代的到来改变了风险投资对芯片行业的态度,尽管面临英伟达等巨头也在快速发展,但市场对于专门针对大语言模型设计的芯片仍然充满期待。以下是翻译内容大约25年后,感觉硅谷终于又成了“硅”谷。英伟达在驱动人工智能软件的芯片市场上已成绝对主导,促使其他公司决定自行设计芯片。历史告诉我们,这通常是充满灾难的尝试。从头开始设计芯片需要耗费数年时间和数亿美元,而且大多数尝试以失败告终。然而,人工智能的巨大前景促使人们认为这是一次必须的尝试。迈克·冈特(Mike Gunter)和莱纳·波普(Reiner Pope)就是这样的两个探索者。他们创立了MatX公司,旨在设计专为处理大语言模型所需数据而优化的芯片。大语言模型,如OpenAI的ChatGPT和谷歌的Gemini,是多种人工智能应用的基础,它们需要大量昂贵的芯片来运行。如果有公司能制造出更便宜、处理速度更快且更适合人工智能的芯片,那么它将在人工智能软件不断扩张的世界中占据极为有利的地位。冈特和波普此前在Alphabet旗下的谷歌工作,冈特负责设计运行人工智能软件的硬件芯片,而波普则负责编写人工智能软件。多年来,谷歌一直致力于开发TPU(tensor processing unit,张量处理单元),一种专为人工智能设计的芯片。然而,根据MatX高管的说法,这些芯片是在大语言模型普及之前设计的,对当前任务而言不够高效。“在谷歌,我们努力使大语言模型运行得更快,也取得了一些进展,但总是遇到困难,”波普表示,“在公司内部,有很多关于芯片改进的想法,很难只专注于大语言模型。这是我们选择离职的原因。”英伟达在人工智能芯片市场的主导地位有些偶然。它最初生产的GPU芯片是为加速视频游戏和某些计算机设计任务而设计的。这些芯片擅长同时处理大量的小型任务,恰好适合运行人工智能软件,其性能大幅超过了英特尔等公司生产的其他类型的芯片。英伟达在其GPU芯片上划分了资源区块,以适应广泛的计算任务,包括芯片内部的数据传输。这些设计决策似乎更倾向于满足以往计算时代的需求,而非当前人工智能的高速发展,从而在性能方面存在一定的权衡。MatX的创始人相信,在新的人工智能时代,这些额外的资源增加了不必要的成本和复杂性。相比之下,MatX采取了全新的设计方法,开发了只有一个大型处理核心的芯片,目的是尽可能快地完成乘法运算这是大语言模型的主要任务。MatX全力以赴,坚信其芯片在训练大型语言模型和输出结果上至少能比英伟达的GPU高出十倍。“英伟达的产品非常强大,对大多数公司来说是正确的选择,”波普说,“但我们认为我们能做得更好。”MatX已经筹集到2500万美元的资金,最新一轮融资由人工智能行业的投资人纳特·弗里德曼(Nat Friedman)和丹尼尔·格罗斯(Daniel Gross)领投。MatX位于加州山景城,距离硅谷的发源地肖克利半导体实验室(Shockley Semiconductor Laboratory)仅几英里之遥。目前,几十名员工正致力于研发计划于明年推出的芯片。格罗斯表示:“MatX的创始人代表了人工智能领域的一股趋势,他们正在将一些大公司开发的最佳想法商业化,因为那些公司动作过慢,过于官僚化。”如果人工智能软件继续沿着现有的发展路径,对于高成本的计算需求将会巨增。据估计,目前正在研究的每个模型的训练成本约为10亿美元,而未来模型的训练成本可能达到100亿美元。MatX预测,只要能够赢得OpenAI和Anthropic PBC等主要人工智能公司的青睐,它的业务将会蓬勃发展。“这些公司的经济模式与典型公司截然不同,”冈特说,“他们将所有资金都投入到计算资源上,而不是人力资源上。如果这一趋势不改变,他们最终会耗尽资金。”在硅谷,芯片公司随处可见,曾经有几十家芯片初创公司,甚至计算机巨头如惠普、IBM和Sun Microsystems也生产自己的芯片。然而近年来,英特尔凭借其在个人电脑和服务器市场的主导地位击败了许多竞争对手,而三星和高通则主宰了智能手机芯片市场。这导致投资者转而避开芯片初创企业,认为相比软件公司,它们成本更高、周期更长、风险更大。MatX的投资人之一、芯片行业专家拉吉夫·赫马尼(Rajiv Khemani)回忆道:“大约在2014年左右,我曾拜访过一些风投公司,他们已经让所有懂芯片的合伙人离开了。”“我面前的人根本不懂我在说什么。”然而,人工智能的崛起改变了风险和回报的平衡。亚马逊、谷歌和微软等资源雄厚的公司已经开始投资设计自己的芯片,专门用于执行人工智能任务。几年前,如Groq和Cerebras Systems这样的初创公司亮相,推出了一大批针对人工智能专用的芯片。但这些产品都是在大语言模型实现技术突破并开始主导人工智能领域之前设计的。这迫使初创公司必须适应人们对大语言模型的突然兴趣,并在飞速发展中调整自己的产品。MatX可能代表着又一波从头开始、专门开发大语言模型专用芯片的初创企业浪潮。进入芯片行业的一大挑战是,设计和制造新芯片需要三到五年的时间。而在此期间,英伟达也不会停滞不前,它在本月刚刚发布了更快的GPU芯片。初创公司必须预测技术趋势和竞争对手的动向,而且不能犯任何可能导致生产延误的错误。软件公司通常需要重写代码才能在新的芯片上运行,这是一个成本高昂且耗时的过程,只有在能从这种变化中获得巨大收益时才会进行这样的转变。一个经验法则是,新芯片必须在性能上至少比前代产品好10倍,才能说服客户重写他们所有的代码。格罗斯认为,我们目前仍处于构建支持人工智能成为主要计算形式的基础设施的初期阶段。“我认为,我们正处于一个芯片周期的早期阶段,与此相比,其他行业的发展将相形见绌。”如果格罗斯的看法正确,那几乎可以肯定地说,新的芯片巨头将会诞生。 ... PC版: 手机版:

封面图片

苹果公司正开发数据中心人工智能芯片

苹果公司正开发数据中心人工智能芯片 苹果公司已经在开发自己的可以在数据中心服务器中运行人工智能软件的芯片,有望为该公司在 AI 军备竞赛中带来一项关键优势。过去十年间,苹果公司积极推进 iPhone、iPad、Apple Watch 和 Mac 电脑的自研芯片设计。知情人士透露,这个服务器项目内部代号为苹果数据中心芯片 (ACDC) 项目,将利用苹果在自研芯片方面的实力开发服务器芯片。ACDC 项目已经进行了几年,目前还不清楚这款新芯片将于何时亮相,甚至是否会亮相。苹果公司此前承诺将在6月份的全球开发者大会上发布多款新的人工智能产品和相关消息。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人