据英国《金融时报》报道,苹果一直在默默进行一系列收购和招聘,为下一代 iPhone 搭载更加强大的本地人工智能技术铺路。

据英国《金融时报》报道,苹果一直在默默进行一系列收购和招聘,为下一代 iPhone 搭载更加强大的本地人工智能技术铺路。 报道称,有迹象表明,苹果一直专注于解决“如何在移动设备上运行人工智能”这一技术难题。为此,他们收购了多家 AI 初创公司,最近一次是在去年年初收购了以加州公司 WaveOne,该公司提供基于 AI 的视频压缩技术。 此外,摩根士丹利最近的研究报告则指出,苹果近一半的 AI 招聘岗位都提到了“深度学习”这一关键词,而深度学习正是生成式 AI 的核心算法之一。 早前的消息表明,苹果早在 2023 年初就开始测试代号为“Ajax”的大型语言模型(LLM)。与 OpenAI 的 ChatGPT 等 LLM 不同,苹果的重点在于开发可以在设备本身上运行的生成式 AI,而非依赖数据中心的云服务。 然而,实现这一目标并不容易。一方面,需要优化 LLM 模型,减小其体积,另一方面,则需要更强大的移动硬件和更快的芯片的支持。例如,据传苹果计划大幅升级 iPhone 16 的麦克风,以提升基于 AI 的 Siri 体验。 就在上个月,苹果的人工智能研究人员宣布,他们发明了一种新型的闪存利用技术,实现了在内存有限的 iPhone 和其他苹果设备上部署大型语言模型的重大突破。 分析师预计,苹果将于今年 6 月召开的全球开发者大会上,宣布一系列基于生成式 AI 的工具,届时 iOS 18 也将亮相。摩根士丹利分析师认为,iOS 18 将为生成式 AI 提供支持,甚至可能包括由 LLM 驱动的语音助手 Siri,为用户带来全新的智能体验。 via 匿名 标签: #Apple #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

苹果公司收购初创公司和发布招聘信息暗示其大力推进AI发展

苹果公司收购初创公司和发布招聘信息暗示其大力推进AI发展 为此,苹果已经收购了几家与人工智能相关的初创公司,上一次收购发生在去年年初,当时苹果收购了总部位于加利福尼亚州的 WaveOne 公司,该公司提供人工智能驱动的视频压缩功能。摩根士丹利(Morgan Stanley)最近的一份研究报告显示,苹果公司几乎一半的人工智能职位都包含"深度学习"(Deep learning)这一术语,它与用于支持生成式人工智能的算法有关。此前有报道称,苹果早在 2023 年就开始测试其"Ajax"大型语言模型(LLM),但与 OpenAI 的 ChatGPT 等 LLM 不同,苹果的主要目标是开发可在设备上本地运行的生成式人工智能,而不是由数据中心的云服务提供支持。实现这一目标所面临的挑战包括优化 LLM,同时缩小其体积,以及更多依赖高性能移动硬件和更快的Apple Silicon芯片。例如,据说苹果公司正计划对 iPhone 16 麦克风进行重大升级,以改善全新的人工智能增强 Siri 体验。就在上个月,苹果公司的人工智能研究人员表示,他们通过发明一种创新的闪存利用技术,在 iPhone 和其他内存有限的苹果设备上部署大型语言模型 (LLM) 方面取得了关键性突破。据说苹果公司将按计划在 6 月份的全球开发者大会(WWDC)上宣布一系列基于生成式人工智能的工具,届时将预览 iOS 18。摩根士丹利(Morgan Stanley)分析师预计,这些移动软件将以实现生成式人工智能为目标,其中可能包括由 LLM 驱动的语音助手 Siri。 ... PC版: 手机版:

封面图片

苹果收购DarwinAI iOS 18将对生成式AI进行重大更新

苹果收购DarwinAI iOS 18将对生成式AI进行重大更新 苹果收购 DarwinAI 后,DarwinAI 的网站和社交媒体账户已经下线。数十家前 DarwinAI 公司的员工现已并入苹果公司的人工智能部门。人工智能研究员亚历山大-黄(Alexander Wong)曾帮助建立 DarwinAI,现在是苹果公司人工智能部门的董事。苹果公司在确认此次收购时,通常会在被问及收购事宜时发表这样的声明。"苹果时不时会收购一些小型科技公司",但不会讨论其目的或计划。为了在人工智能市场追赶微软、Google等公司,苹果正在努力为其下一代 iOS 18 和 macOS 15 操作系统打造人工智能功能。显而易见,如果苹果想与微软必应、OpenAI 的 ChatGPT 和其他生成式人工智能产品相抗衡,就需要将生成式人工智能集成到一系列产品中。苹果正在测试大型语言模型,据说 Siri、快捷方式、信息、Apple Music 等都将使用人工智能功能。出于保护隐私的考虑,苹果正致力于让人工智能功能在设备上运行,而 DarwinAI 在制造小型人工智能系统方面所做的努力将有助于推动这一努力。苹果公司首席执行官蒂姆-库克(Tim Cook)曾承诺,苹果将在 2024 年在生成式人工智能领域"开辟新天地"。库克说:"我们相信,它将为我们的用户带来变革性的机遇。" ... PC版: 手机版:

封面图片

苹果可能放弃在iOS 18中提供生成式AI

苹果可能放弃在iOS 18中提供生成式AI 古尔曼称其得知苹果仍在研究在利用人工智能中的隐私问题,而且苹果的内部计划将比竞争对手的计划更加保守。因此苹果最终可能会决定放弃与谷歌等其它公司合作,不在iOS 18中提供生成式AI服务。上周有媒体报道,苹果与百度公司已达成合作协议,百度将为iPhone内置的生成式人工智能大模型提供技术支持。报道指出,苹果生成式人工智能大模型的合作伙伴包括谷歌、百度、OpenAI等公司。国行版iPhone的AI功能将由百度提供,而其他市场的AI功能则由谷歌Gemini和OpenAI ChatGPT提供支持。具体情况究竟如何,等到苹果的开发者大会上应该就会见分晓了。 ... PC版: 手机版:

封面图片

LeCun哈佛演讲PPT放出:唱衰自回归LLM 指明下一代AI方向

LeCun哈佛演讲PPT放出:唱衰自回归LLM 指明下一代AI方向 LeCun 给出了一个模块化的认知架构,它可能构成回答这些问题的途径。该架构的核心是一个可预测的世界模型,它允许系统预测其行动的后果,并规划一系列行动来优化一组目标。目标包括保证系统可控性和安全性的护栏。世界模型采用了经过自监督学习训练的分层联合嵌入预测架构(H-JEPA)。LeCun 的演讲围绕多方面展开。开始部分,LeCun 介绍了目标驱动的人工智能。LeCun 指出与人类、动物相比,机器学习真的烂透了,一个青少年可以在大约 20 小时的练习中学会开车,小朋友可以在几分钟内学会清理餐桌。相比之下,为了可靠,当前的 ML 系统需要通过大量试验进行训练,以便在训练期间可以覆盖最意外的情况。尽管如此,最好的 ML 系统在现实世界任务(例如驾驶)中仍远未达到人类可靠性。我们距离达到人类水平的人工智能还差得很远,需要几年甚至几十年的时间。在实现这一目标之前,或许会先实现拥有猫类(或者狗类)级别智能的 AI。LeCun 强调 AI 系统应该朝着能够学习、记忆、推理、规划、有常识、可操纵且安全的方向发展。LeCun 再一次表达了对自回归 LLM 的不满(从 ChatGPT 到 Sora,OpenAI 都是采用的自回归生成式路线),虽然这种技术路线已经充斥了整个 AI 界,但存在事实错误、逻辑错误、不一致、推理有限、毒性等缺陷。此外,自回归 LLM 对潜在现实的了解有限,缺乏常识,没有记忆,而且无法规划答案。在他看来,自回归 LLM 仅仅是世界模型的一种简化的特殊情况。为了实现世界模型,LeCun 给出的解决方案是联合嵌入预测架构(JEPA)。LeCun 花了大量篇幅介绍 JEPA 相关技术,最后他给出了简单的总结:放弃生成模型,支持联合嵌入架构;放弃概率模型,支持基于能量的模型(EBM);放弃对比方法,支持正则化方法;放弃强化学习,支持模型 - 预测控制;仅当规划无法产生结果时才使用强化学习来调整世界模型。在开源问题上,LeCun 认为开源 AI 不应该因为监管而消失,人工智能平台应该是开源的,否则,技术将被几家公司所掌控。不过为了安全起见,大家还是需要设置共享护栏目标。对于 AGI,LeCun 认为根本不存在 AGI,因为智能是高度多维的。虽然现在 AI 只在一些狭窄的领域超越了人类,毫无疑问的是,机器最终将超越人类智能。机器学习烂透了,距离人类水平的 AI 还差得远LeCun 指出 AI 系统应该朝着能够学习、记忆、推理、规划、有常识、可操纵且安全的方向发展。在他看来,与人类和动物相比,机器学习真的烂透了,LeCun 指出如下原因:监督学习(SL)需要大量标注样本;强化学习(RL)需要大量的试验;自监督学习(SSL)效果很好,但生成结果仅适用于文本和其他离散模式。与此不同的是,动物和人类可以很快地学习新任务、了解世界如何运作,并且他们(人类和动物)都有常识。随后,LeCun 表示人类需要的 AI 智能助理需要达到人类级别。但是,我们今天距离人类水平的人工智能还差得很远。举例来说,17 岁的少年可以通过 20 小时的训练学会驾驶(但 AI 仍然没有无限制的 L5 级自动驾驶),10 岁的孩子可以在几分钟内学会清理餐桌,但是现在的 AI 系统还远未达到。现阶段,莫拉维克悖论不断上演,对人类来说很容易的事情对人工智能来说很难,反之亦然。那么,我们想要达到高级机器智能(Advanced Machine Intelligence,AMI),需要做到如下:从感官输入中学习世界模型的 AI 系统;具有持久记忆的系统;具有规划行动的系统;可控和安全的系统;目标驱动的 AI 架构(LeCun 重点强调了这一条)。自回归 LLM 糟糕透了自监督学习已经被广泛用于理解和生成文本,图像,视频,3D 模型,语音,蛋白质等。大家熟悉的研究包括去噪 Auto-Encoder、BERT、RoBERTa。LeCun 接着介绍了生成式 AI 和自回归大语言模型。自回归生成架构如下所示:自回归大语言模型(AR-LLM)参数量从 1B 到 500B 不等、训练数据从 1 到 2 万亿 token。ChatGPT、Gemini 等大家熟悉的模型都是采用这种架构。LeCun 认为虽然这些模型表现惊人,但它们经常出现愚蠢的错误,比如事实错误、逻辑错误、不一致、推理有限、毒性等。此外,LLM 对潜在现实的了解有限,缺乏常识,没有记忆,而且无法规划答案。LeCun 进一步指出自回归 LLM 很糟糕,注定要失败。这些模型不可控、呈指数发散,并且这种缺陷很难修复。此外,自回归 LLM 没有规划,充其量就是大脑中的一小部分区域。虽然自回归 LLM 在协助写作、初稿生成、文本润色、编程等方面表现出色。但它们经常会出现幻觉,并且在推理、规划、数学等方面表现不佳,需要借助外部工具才能完成任务。用户很容易被 LLM 生成的答案所迷惑,此外自回归 LLM 也不知道世界是如何运转的。LeCun 认为当前 AI 技术(仍然)距离人类水平还很远,机器不会像动物和人类那样学习世界的运作方式。目前看来自回归 LLM 无法接近人类智力水平,尽管 AI 在某些狭窄的领域超过了人类。但毫无疑问的是,最终机器将在所有领域超越人类智慧。目标驱动的 AI在 LeCun 看来,目标驱动的 AI 即自主智能(autonomous intelligence)是一个很好的解决方案,其包括多个配置,一些模块可以即时配置,它们的具体功能由配置器(configurator)模块确定。配置器的作用是执行控制:给定要执行的任务,它预先配置针对当前任务的感知(perception)、世界模型(world model)、成本(cost)和参与者(actor)。关于这部分内容,大家可以参考:思考总结 10 年,图灵奖得主 Yann LeCun 指明下一代 AI 方向:自主机器智能目标驱动的 AI 中最复杂的部分是世界模型的设计。设计和训练世界模型关于这部分内容,我们先看 LeCun 给出的建议:放弃生成模型,支持联合嵌入架构;放弃概率模型,支持基于能量的模型(EBM);放弃对比方法,支持正则化方法;放弃强化学习,支持模型 - 预测控制;仅当规划无法产生结果时才使用强化学习来调整世界模型。LeCun 指出生成架构不适用于图像任务,未来几十年阻碍人工智能发展的真正障碍是为世界模型设计架构以及训练范式。训练世界模型是自监督学习(SSL)中的一个典型例子,其基本思想是模式补全。对未来输入(或暂时未观察到的输入)的预测是模式补全的一个特例。在这项工作中,世界模型旨在预测世界状态未来表征。联合嵌入预测架构(JEPA)LeCun 给出的解决方案是联合嵌入预测架构(JEPA),他介绍了联合嵌入世界模型。LeCun 进一步给出了生成模型和联合嵌入的对比:生成式:预测 y(包含所有细节);联合嵌入:预测 y 的抽象表示。LeCun 强调 JEPA 不是生成式的,因为它不能轻易地用于从 x 预测 y。它仅捕获 x 和 y 之间的依赖关系,而不显式生成 y 的预测。下图显示了一个通用 JEPA 和生成模型的对比。LeCun 认为动物大脑的运行可以看作是对现实世界的模拟,他称之为世界模型。他表示,婴儿在出生后的头几个月通过观察世界来学习基础知识。观察一个小球掉几百次,普通婴儿就算不了解物理,也会对重力的存在与运作有基础认知。LeCun 表示他已经建立了世界模型的早期版本,可以进行基本的物体识别,并正致力于训练它做出预测。基于能量的模型(通过能量函数获取依赖关系)演讲中还介绍了一种基于能量的模型(EBM)架构,如图所示,数据点是黑点,能量函数在数据点周围产生低能量值,并在远离高数据密度区域的地方产生较高能量,如能量等高线所示。训练 EBM 有两类方法... PC版: 手机版:

封面图片

苹果开源大模型OpenELM来了,可能用在下一代iPhone上

苹果开源大模型OpenELM来了,可能用在下一代iPhone上 苹果最近在AI代码社区HuggingFace上发布了OpenELM大模型。该模型是一系列开源大型语言模型,具有不同的参数大小,可在端侧设备上运行。据了解,该系列模型包含4个不同参数版本,分别为2.7亿、4.5亿、11亿和30亿。由于参数较小,这些模型可以在端侧设备上独立运行,而无需连接云端服务器。总体而言,该系列包括4个预训练模型和4个指令调优模型。这些模型可以在笔记本电脑甚至智能手机上运行。苹果举例称,其中一款模型在MacBookPro上运行,配备了M2Max芯片和64GBRAM,操作系统为macOS14.4.1。 来源:格隆汇

封面图片

苹果取得技术突破:有望在 iPhone 上运行大型语言模型

苹果取得技术突破:有望在 iPhone 上运行大型语言模型 IT之家消息:苹果的人工智能研究人员表示,他们已取得一项重大突破,通过一种创新的闪存利用技术,成功地在内存有限的苹果设备上部署了大型语言模型(LLM)。这一成果有望让更强大的 Siri、实时语言翻译以及融入摄影和增强现实的尖端 AI 功能登陆未来 iPhone。|

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人