“苹果智能” 为何专注于小模型?

“苹果智能” 为何专注于小模型? 在周二凌晨的 WWDC 大会上,苹果以 Apple Intelligence 取代 Artificial Intelligence 作为 AI 的代名词,大有重新定义 AI 的意思。原本吵得最凶最受关注的和 OpenAI 的合作,其实也只不过是提供一个 ChatGPT 接口而已,用不用都随用户。从某种程度上来说,苹果的确称得上重新定义了 AI与业内其他科技巨头追求“大力出奇迹”、模型参数越高越好不同,苹果更在意的是如何让 AI 无缝融入操作系统,优化用户体验。定制化小型模型 确保用户体验根据苹果在 WWDC 大会上透露的信息,“苹果智能”的关键,在于众多专门为了操作系统中的某个特定需求,而打造的小型模型。据苹果软件工程高级副总裁Craig Federighi在 WWDC 大会上的介绍,很多苹果AI模型都可以完全在由A17+或M系列芯片驱动的设备上运行,从而消除了将个人数据发送到远程服务器的风险。这些模型都在定制数据集上完成了训练,参数不高,智慧程度有限,也没有 GPT 或 Claude 这些大型模型那么全能。以系统内置的总结文本、改写文本等功能为例,苹果预计,这些请求生成的结果会比较单一。这其实是综合考虑了运行速度、算力需求的结果,大部分苹果自家的模型在手机上就能跑,不需要云服务器,响应速度也很快。虽然参数量小,但苹果智能胜在模型数量足够多。因为苹果预先针对不同的任务训练了大量模型,所以苹果智能可以实现的用户需求非常广泛。从处理照片、文本,到各种复杂的跨应用操作,都能应对得来。隐私还是第一位不过,如果涉及到比较复杂的用户请求,苹果可能会引入第三方模型,如OpenAI的ChatGPT和GoogleGemini。在这种情况下,系统会提示用户是否愿意与外部共享相关信息(没有此类提示,则表明用户请求正在使用苹果自有模型处理)。这个机制有助于缓解用户的隐私顾虑,隐私优先也是苹果一贯的策略。华尔街见闻此前文章提到过,如果需要用到更强大的、依赖云端的大模型,苹果会使用专门以自家芯片驱动的服务器来处理。Federighi强调,这些服务器都内置使用Swift语言编写的安全工具,苹果AI“只发送完成任务所需的相关数据”到这些服务器,不会给予对设备上下文信息的完全访问权限。而且,苹果表示,这些数据不会被保存以供将来服务器访问或用于进一步训练苹果的基于服务器的模型。苹果并未明确哪些操作需要云端处理,因为这种情况会随时变化。有些今天需要云计算的任务,将来可能在设备本地即可完成。设备内计算并非总是第一选择,因为速度只是苹果智能系统决定是否要调用云计算时考虑的众多参数之一。不过,某些用户请求将永远在设备内执行。其中最显著的是设备端人工智能图片生成器Image Playground,它将完整的扩散模型存储在本地,可以生成三种不同风格的图像。即使在目前的早期测试阶段,Image Playground的图像生成速度也非常惊艳,通常只需几秒钟,当然,效果也没法和更大的模型媲美。 ... PC版: 手机版:

相关推荐

封面图片

苹果开源大模型OpenELM来了,可能用在下一代iPhone上

苹果开源大模型OpenELM来了,可能用在下一代iPhone上 苹果最近在AI代码社区HuggingFace上发布了OpenELM大模型。该模型是一系列开源大型语言模型,具有不同的参数大小,可在端侧设备上运行。据了解,该系列模型包含4个不同参数版本,分别为2.7亿、4.5亿、11亿和30亿。由于参数较小,这些模型可以在端侧设备上独立运行,而无需连接云端服务器。总体而言,该系列包括4个预训练模型和4个指令调优模型。这些模型可以在笔记本电脑甚至智能手机上运行。苹果举例称,其中一款模型在MacBookPro上运行,配备了M2Max芯片和64GBRAM,操作系统为macOS14.4.1。 来源:格隆汇

封面图片

苹果的人工智能为何与众不同?高管这样说

苹果的人工智能为何与众不同?高管这样说 在开发者大会期间的小组讨论中,苹果软件主管克雷格·费德里吉(Craig Federighi)和人工智能主管约翰·詹纳安德里亚(John Giannandrea)均表示,苹果在人工智能技术的应用上采取了与硅谷其他竞争对手截然不同的策略。与那些为广泛在产品领域开发人工智能的公司不同,苹果专注于为其销售的设备量身定制人工智能,并且仅在确保隐私和安全的前提下利用用户的个人数据。苹果提出了一种更为实际和有限的方法,不过分关注技术的未来潜力,而是集中于目前可实施的小任务,同时保证不会大量消耗电池电量。费德里吉表示:“我们认为人工智能的角色不是替代用户,而是赋予他们更大的能力。”苹果二十亿用户可能首次深度体验人工智能技术。如果其人工智能功能相较于微软或谷歌基于云端的竞品更受欢迎,那么这不仅可能改变人工智能基础设施的建设方式,还可能重新定义这一技术在产品上的应用方向。目前,吸引投资者和技术人员关注的人工智能开发,主要聚焦于构建或确保配备英伟达芯片的强大超级计算机,以开发更为复杂且耗电量更高的人工智能模型。而用户通常需要通过互联网与同样强大的服务器进行交互,才能访问这些人工智能软件。苹果对人工智能的愿景并非局限于构建庞大的模型,而是聚焦于一系列轻量级、高效的小模型,这些模型不需要太多的算力支撑和内存,能够直接在苹果设备和芯片上运行。若手机内的人工智能无法满足特定需求,苹果或其应用程序将转向云端,以访问更为强大的人工智能模型。例如,苹果已与OpenAI合作,当Siri无法提供答案时,用户能够求助ChatGPT。当然,这些功能仅在用户明确授权的情况下才会启用。苹果高管并未将这种策略简单地描述为采用一种或多种模型,而是将其统称为“苹果智能”。詹南德里亚说:“我们坚信,为不同应用场景提供一系列多样化、尺寸各异的模型是正确的方法。”他补充说,作为苹果智能的一部分,该公司正致力于打造一个拥有30亿参数的模型。相比之下,GPT-3(ChatGPT在2020年依赖的模型)的参数数量高达1750亿。通常情况下,参数越多,运行模型所需的内存和计算能力就越多。苹果的方法相较于基于云的解决方案更为迅捷,并且在保护用户隐私方面拥有显著优势。然而,当模型规模过小而无法胜任某项任务时,挑战也随之而来。不过,苹果坚信,通过用户的iPhone,其人工智能能够收集到关于用户的约会、位置以及日常活动的个人数据。费德里吉举例说,他的手机甚至能够识别出他女儿的身份。苹果还表示,它将确保这些小型智能模型仅在其擅长的任务上发挥作用,而非提供一个开放式的聊天机器人界面。费德里吉补充说:“至关重要的一点是,我们不会让一个未经训练的‘新手’去驾驶飞机。”苹果在周一公布的多项人工智能功能,与今年已经出现的许多产品功能相似。这些功能包括文档总结与重写、小图像生成以及实时对话翻译。特别值得一提的是,用户甚至可以在不连接互联网的情况下,使用人工智能生成全新的表情符号。这些新功能预计将在今年秋天以测试版的形式发布。苹果的隐私策略变了?随着苹果逐步深入人工智能领域,隐私保护成为了其面临的核心挑战之一。多年来,苹果一直将保护用户隐私作为品牌的核心价值之一,强调其商业模式不依赖于广告定位,而是始终将用户的最大利益置于首位,而非迎合数据经纪人和垃圾邮件发送者的需求。其他人工智能公司在收集和使用用户数据方面的做法,与苹果的隐私政策背道而驰。因此,在周一的演讲中,苹果宣称其已采取多项措施,以消除外界对其可能利用用户数据改进人工智能的疑虑。詹南德里亚说:“我们不会将这些数据发送到遥远的云端,因为我们追求的是极致的私密性,无论是本地运行还是在云计算服务上,我们都将确保用户数据的隐私和安全。”虽然苹果没有详细披露用于训练其人工智能模型的具体数据,但已知的是,它使用了从公共网络上收集的文档、新闻档案和库存照片等授权数据。为了确保用户数据的隐私和安全,苹果开发了基于苹果芯片的专有服务器,即“苹果私有云”。这一举措旨在防止用户数据在发送至人工智能服务器后被存储或滥用。值得注意的是,苹果还允许第三方对其人工智能服务器软件进行审查,这对于一家通常以保密著称、不轻易分享基础设施信息的公司来说,无疑是一个令人瞩目的举措。费德里吉在解释为何苹果会采取这一开放姿态时表示:“即使一家公司可能承诺不会滥用用户数据,但消费者往往无法验证这一承诺的真实性。因此,我们决定通过允许第三方检查我们的软件,来增强用户对我们保护隐私承诺的信任。”更多人工智能即将到来尽管苹果在人工智能领域的最新进展有时被视作其战略的重大转变,但该公司更倾向于将其视为已有机器学习工作的自然延续,这些工作包括编辑照片、转录文本,以及在芯片上集成特定的人工智能模块。费德里吉表示:“直至最近,其他公司才突然宣称某种新技术类别的诞生,但实际上这些功能我们早已开发并投入使用了很长时间。”然而,苹果并未将所有赌注押在单一策略上。相反,它在操作系统中集成了ChatGPT,为用户提供了免费使用OpenAI模型的机会,并为用户带来了更强大、参数更丰富的人工智能体验。不过,值得注意的是,OpenAI的ChatGPT在苹果软件中会被明确标记,以告知用户数据将被发送至运行在微软云上的OpenAI服务器。这一透明举措旨在确保用户了解数据流向,并明确答案来源于ChatGPT。展望未来,苹果表示可能会推出更多不同的人工智能模型,这显示出“苹果智能”并非其希望客户唯一使用的人工智能系统。费德里吉指出,未来,部分客户可能期望在苹果产品中集成医疗人工智能系统、法律人工智能模型,或是像谷歌Gemini这样的其他模型。他补充说:“我们期待未来与包括谷歌Gemini在内的各种模型进行整合。虽然目前尚无具体公告,但这正是我们努力的方向。” ... PC版: 手机版:

封面图片

大摩解读“苹果智能”:利好果链、利好内存 观察中国Android是否跟进

大摩解读“苹果智能”:利好果链、利好内存 观察中国Android是否跟进 摩根士丹利分析师Erik Woodring等人在最新发布的报告中指出,WWDC大会的成果超出该行预期,有望加速新一轮的苹果设备换机潮,利好台积电、鸿海等果链企业。WWDC成果高于预期 利好果链企业分析师表示,总体来看,WWDC的成果略高于大摩预期,为苹果从25财年开始推动设备换新奠定了重要基础。由于最新的AI功能苹果智能系统仅能在搭载A17 Pro和M系列芯片的设备上使用,约占现役苹果设备总数的8%。所以,要体验苹果的AI,就必须要更换新设备,大摩预计WWDC苹果智能的推出有望拉动一轮苹果设备换机潮。和其他科技巨头高度依赖英伟达芯片进行AI训练和推理不同,苹果智能系统的服务器芯片非常特别,使用的是自家的M系列芯片,大摩推测是M2 Ultra芯片,这部分需求有望为台积电贡献大量收入:我们最近对供应链的检查结果表明,苹果在 24 年上半年可能为人工智能服务器生产了约 200 万块 M2 Ultra(4 纳米节点的苹果芯片)。M2 Ultra 芯片采用台积电的 InFO LSI 封装,以将两个 M2 Max 芯片拼接在一起 (使用台积电的 4nm 晶圆工艺),我们估计一个 M2 Ultra 芯片可为台积电带来 350-400 美元的收入。这意味着苹果 AI 服务器芯片可能会在 2024 年为台积电带来高达20亿美元的收入,约占台积电总收入的 2%。鉴于私有云计算的用户群不断扩大,我们预计苹果将在 2025 年使用 3 纳米 M3 或 M4 用于 AI 服务器芯片。而在 2026 年,我们认为苹果可能会采用台积电的 2 纳米和 SoIC 技术,在 AI 服务器中使用功能更强大的苹果芯片。苹果的A系列芯片将承载iPhone上的边缘计算任务。根据WWDC大会公开的信息,苹果推出了一个约 30 亿参数的设备端大语言模型,只能在A17 Pro 芯片上使用,目前只有苹果旗舰型号 iPhone15 Pro 搭载了A17 Pro芯片。摩根士丹利指出,即将推出的苹果 iPhone 16 基本款将采用 A18 处理器,高端型号iPhone 16 Pro 机型可能会搭载新设计的 A18 Pro,其尺寸可能比 A18 大 15-20%,以挤入更多图形和人工智能计算单元。考虑到AI服务对性能的需求,内存芯片行业也会迎来利好。该行认为,如果基础模型保持在约30亿的参数量级,新款iPhone 16基本款的DRAM容量预计将从iPhone 15的6GB升级到8GB(驱动苹果端侧大模型的最低配置要求),而iPhone 16 Pro的DRAM容量将保持在8GB。考虑到M2芯片的内存密度有限(192GB),不断增长的苹果AI服务器将消耗大量LPDDR5。展望未来,大摩指出,苹果智能系统有苹果强大的研发能力加持,还打通了和OpenAI的合作。该行称,下一步还需要观察中国Android厂商的AI体验能否赶上iOS18的用户体验,以检验苹果的技术实力。但总体而言,分析师相信,在苹果引领下,设备端大模型会慢慢普及,对硬件换代的需求可以催生消费电子行业的新周期。2030年全球AI相关的云计算支出将达到3000亿美元摩根士丹利还在报告中列出了今年的AI服务器采购数据。如下图所示,总体而言,超大规模企业在人工智能服务器采购方面更加积极。所有企业中,AI支出提升最多的是特斯拉,只有微软降低了人工智能在其资本支出中的分配。经过分析师测算,2030年全球AI相关的云计算支出将达到3000亿美元,人工智能芯片资本支出将达到 2300 亿美元,人工智能硬件将达到 700 亿美元。2030年定制化专用集成电路 (ASIC) 市场规模将达到 800 亿美元,设计服务市场将达到 400 亿美元。 ... PC版: 手机版:

封面图片

微软发布全新多模态人工智能小语种模型Phi-3-vision

微软发布全新多模态人工智能小语种模型Phi-3-vision 新模型名为 Phi-3-vision,顾名思义,这种 SML 不仅可以处理文本提示,还可以接受图像和文本提示来生成问题答案。微软表示,使用这种模式的人可以获得有关他们提交的图表的问题答案,也可以就 Phi-3-vision 模式接收到的图像提出任何开放式问题。Phi-3-vision 包括 42 亿个参数,比 38 亿个参数的 Phi-3 迷你模式大,但比 70 亿个参数的 Phi-3 小型模式和 140 亿个参数的 Phi-3 中型模式小得多。微软表示,Phi-3-vision 可以回答有关"一般视觉推理任务以及图表、图形和表格推理"的问题。新的Phi-3-vision模型目前是预览版,但还不知道何时会全面上市。不过,Phi-3 Mini、Phi-3 Small 和 Phi-3 Medium 现在都可以通过微软的 Azure AI 模型即服务进行访问。在 Build 2024 的相关新闻中,微软表示 Azure AI Studio 现已全面可用。该公司表示:pro-code 平台支持负责任的生成式人工智能开发,包括开发协同驾驶员,以支持复杂的应用程序和任务,如内容生成、数据分析、项目管理、日常任务自动化等。该公司表示,Azure AI Studio 支持"代码优先"功能和"友好的用户界面",因此开发人员可以选择如何在自己的编码项目中使用这些工具。微软还宣布,OpenAI 的最新大型语言模型ChatGPT-4o 现在可以通过 Azure AI Studio 和 API 普遍使用。 ... PC版: 手机版:

封面图片

古尔曼:苹果致力于开发用于生成式人工智能功能的设备端大型语言模型

古尔曼:苹果致力于开发用于生成式人工智能功能的设备端大型语言模型 据彭博社的马克·古尔曼报道,苹果公司正在开发自己的大型语言模型 (LLM),该模型可在设备上运行,以优先考虑速度和隐私。古尔曼在他的“Power On”时事通讯中写道,苹果公司的大语言模型为即将推出的生成式人工智能功能奠定了基础。“所有迹象”似乎表明,它将完全在设备上运行,而不是像大多数现有人工智能服务那样通过云端运行。由于苹果公司的人工智能工具将在设备上运行,因此在某些情况下,可能不如直接基于云的竞争对手,但古尔曼表示,该公司可以通过从谷歌和其他人工智能服务提供商获得技术许可来“填补空白”。

封面图片

苹果新发布20个Core ML模型和4个数据集 全部开源供开发者们使用

苹果新发布20个Core ML模型和4个数据集 全部开源供开发者们使用 苹果日前在知名 AI 模型托管平台 HuggingFace 上新发布了 20 个 Core ML 模型和 4 个数据集,这些模型全部采用 Apache 2.0 许可证进行开源,所有开发者均可使用。这些采用 Core ML 框架的新模型在功能上都有所不同,不过侧重点都是在设备端本地运行 AI 模型执行任务,这样数据不需要上云解决潜在的隐私问题。例如开发者可以构建一款用于图像分类的应用程序,在获得用户授权图库访问权限后,可以调用设备端模型进行处理;或者构建一个可以快速去除图像背景的应用程序,使用设备端模型也可以不上传图片,解决用户的隐私担忧。当然采用设备端模型还有个好处就是响应速度会非常快,借助云端处理开发者需要提供性能更强的服务器才能支撑并发使用,而服务器响应和处理都需要使用,本地处理则不需要使用网络,因此也免去了响应时间问题。目前设备端运行 AI 模型最大的问题在于芯片性能,例如苹果推出的苹果智能仅支持 A17 Pro 和 Apple M 系列芯片,对于更旧的芯片还是得第三方开发者们提供支持,虽然这也会存在性能问题。HuggingFace 创始人称这是一次重大更新,苹果将许多基于 Core ML 的新模型上传到了 HuggingFace 存储库,而 Core ML 模型严格在设备端运行无需网络连接,这可以让开发者的应用保持 “闪电般” 的速度,还可以确保用户数据的私密性。有兴趣的开发者们可以访问 HuggingFace 上的苹果主页获取这些模型,苹果也为部分模型提供了论文描述,开发者可以根据论文说明快速了解这些模型的性能: ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人