“苹果智能” 为何专注于小模型?

“苹果智能”为何专注于小模型?在周二凌晨的WWDC大会上,苹果以AppleIntelligence取代ArtificialIntelligence作为AI的代名词,大有重新定义AI的意思。原本吵得最凶最受关注的和OpenAI的合作,其实也只不过是提供一个ChatGPT接口而已,用不用都随用户。从某种程度上来说,苹果的确称得上重新定义了AI——与业内其他科技巨头追求“大力出奇迹”、模型参数越高越好不同,苹果更在意的是如何让AI无缝融入操作系统,优化用户体验。定制化小型模型确保用户体验根据苹果在WWDC大会上透露的信息,“苹果智能”的关键,在于众多专门为了操作系统中的某个特定需求,而打造的小型模型。据苹果软件工程高级副总裁CraigFederighi在WWDC大会上的介绍,很多苹果AI模型都可以完全在由A17+或M系列芯片驱动的设备上运行,从而消除了将个人数据发送到远程服务器的风险。这些模型都在定制数据集上完成了训练,参数不高,智慧程度有限,也没有GPT或Claude这些大型模型那么全能。以系统内置的总结文本、改写文本等功能为例,苹果预计,这些请求生成的结果会比较单一。这其实是综合考虑了运行速度、算力需求的结果,大部分苹果自家的模型在手机上就能跑,不需要云服务器,响应速度也很快。虽然参数量小,但苹果智能胜在模型数量足够多。因为苹果预先针对不同的任务训练了大量模型,所以苹果智能可以实现的用户需求非常广泛。从处理照片、文本,到各种复杂的跨应用操作,都能应对得来。隐私还是第一位不过,如果涉及到比较复杂的用户请求,苹果可能会引入第三方模型,如OpenAI的ChatGPT和GoogleGemini。在这种情况下,系统会提示用户是否愿意与外部共享相关信息(没有此类提示,则表明用户请求正在使用苹果自有模型处理)。这个机制有助于缓解用户的隐私顾虑,隐私优先也是苹果一贯的策略。华尔街见闻此前文章提到过,如果需要用到更强大的、依赖云端的大模型,苹果会使用专门以自家芯片驱动的服务器来处理。Federighi强调,这些服务器都内置使用Swift语言编写的安全工具,苹果AI“只发送完成任务所需的相关数据”到这些服务器,不会给予对设备上下文信息的完全访问权限。而且,苹果表示,这些数据不会被保存以供将来服务器访问或用于进一步训练苹果的基于服务器的模型。苹果并未明确哪些操作需要云端处理,因为这种情况会随时变化。有些今天需要云计算的任务,将来可能在设备本地即可完成。设备内计算并非总是第一选择,因为速度只是苹果智能系统决定是否要调用云计算时考虑的众多参数之一。不过,某些用户请求将永远在设备内执行。其中最显著的是设备端人工智能图片生成器ImagePlayground,它将完整的扩散模型存储在本地,可以生成三种不同风格的图像。即使在目前的早期测试阶段,ImagePlayground的图像生成速度也非常惊艳,通常只需几秒钟,当然,效果也没法和更大的模型媲美。...PC版:https://www.cnbeta.com.tw/articles/soft/1434415.htm手机版:https://m.cnbeta.com.tw/view/1434415.htm

相关推荐

封面图片

苹果开源大模型OpenELM来了,可能用在下一代iPhone上

苹果开源大模型OpenELM来了,可能用在下一代iPhone上苹果最近在AI代码社区HuggingFace上发布了OpenELM大模型。该模型是一系列开源大型语言模型,具有不同的参数大小,可在端侧设备上运行。据了解,该系列模型包含4个不同参数版本,分别为2.7亿、4.5亿、11亿和30亿。由于参数较小,这些模型可以在端侧设备上独立运行,而无需连接云端服务器。总体而言,该系列包括4个预训练模型和4个指令调优模型。这些模型可以在笔记本电脑甚至智能手机上运行。苹果举例称,其中一款模型在MacBookPro上运行,配备了M2Max芯片和64GBRAM,操作系统为macOS14.4.1。来源:格隆汇

封面图片

【#苹果开源大模型OpenELM来了,它可能用在下一代iPhone上】据VentureBeat报道,苹果近日在AI代码社区Hug

【#苹果开源大模型OpenELM来了,它可能用在下一代iPhone上】据VentureBeat报道,苹果近日在AI代码社区HuggingFace上发布了OpenELM大模型。这是一个由不同参数大小构成的一系列开源大型语言模型,可运行在端侧设备上。据了解,该系列模型包含2.7亿、4.5亿、11亿和30亿共4个不同参数版本。基于较小的参数量,这些模型可在端侧设备上独立运行,而不必连接云端服务器。具体而言,其一共包括4个预训练模型和4个指令调优模型。这些模型可运行在笔记本电脑甚至智能手机上,苹果举例称,其中一台是配备M2Max芯片、64GBRAM,运行macOS14.4.1的MacBookPro。(界面)

封面图片

大摩解读“苹果智能”:利好果链、利好内存 观察中国Android是否跟进

大摩解读“苹果智能”:利好果链、利好内存观察中国Android是否跟进摩根士丹利分析师ErikWoodring等人在最新发布的报告中指出,WWDC大会的成果超出该行预期,有望加速新一轮的苹果设备换机潮,利好台积电、鸿海等果链企业。WWDC成果高于预期利好果链企业分析师表示,总体来看,WWDC的成果略高于大摩预期,为苹果从25财年开始推动设备换新奠定了重要基础。由于最新的AI功能苹果智能系统仅能在搭载A17Pro和M系列芯片的设备上使用,约占现役苹果设备总数的8%。所以,要体验苹果的AI,就必须要更换新设备,大摩预计WWDC苹果智能的推出有望拉动一轮苹果设备换机潮。和其他科技巨头高度依赖英伟达芯片进行AI训练和推理不同,苹果智能系统的服务器芯片非常特别,使用的是自家的M系列芯片,大摩推测是M2Ultra芯片,这部分需求有望为台积电贡献大量收入:我们最近对供应链的检查结果表明,苹果在24年上半年可能为人工智能服务器生产了约200万块M2Ultra(4纳米节点的苹果芯片)。M2Ultra芯片采用台积电的InFOLSI封装,以将两个M2Max芯片拼接在一起(使用台积电的4nm晶圆工艺),我们估计一个M2Ultra芯片可为台积电带来350-400美元的收入。这意味着苹果AI服务器芯片可能会在2024年为台积电带来高达20亿美元的收入,约占台积电总收入的2%。鉴于私有云计算的用户群不断扩大,我们预计苹果将在2025年使用3纳米M3或M4用于AI服务器芯片。而在2026年,我们认为苹果可能会采用台积电的2纳米和SoIC技术,在AI服务器中使用功能更强大的苹果芯片。苹果的A系列芯片将承载iPhone上的边缘计算任务。根据WWDC大会公开的信息,苹果推出了一个约30亿参数的设备端大语言模型,只能在A17Pro芯片上使用,目前只有苹果旗舰型号iPhone15Pro搭载了A17Pro芯片。摩根士丹利指出,即将推出的苹果iPhone16基本款将采用A18处理器,高端型号iPhone16Pro机型可能会搭载新设计的A18Pro,其尺寸可能比A18大15-20%,以挤入更多图形和人工智能计算单元。考虑到AI服务对性能的需求,内存芯片行业也会迎来利好。该行认为,如果基础模型保持在约30亿的参数量级,新款iPhone16基本款的DRAM容量预计将从iPhone15的6GB升级到8GB(驱动苹果端侧大模型的最低配置要求),而iPhone16Pro的DRAM容量将保持在8GB。考虑到M2芯片的内存密度有限(192GB),不断增长的苹果AI服务器将消耗大量LPDDR5。展望未来,大摩指出,苹果智能系统有苹果强大的研发能力加持,还打通了和OpenAI的合作。该行称,下一步还需要观察中国Android厂商的AI体验能否赶上iOS18的用户体验,以检验苹果的技术实力。但总体而言,分析师相信,在苹果引领下,设备端大模型会慢慢普及,对硬件换代的需求可以催生消费电子行业的新周期。2030年全球AI相关的云计算支出将达到3000亿美元摩根士丹利还在报告中列出了今年的AI服务器采购数据。如下图所示,总体而言,超大规模企业在人工智能服务器采购方面更加积极。所有企业中,AI支出提升最多的是特斯拉,只有微软降低了人工智能在其资本支出中的分配。经过分析师测算,2030年全球AI相关的云计算支出将达到3000亿美元,人工智能芯片资本支出将达到2300亿美元,人工智能硬件将达到700亿美元。2030年定制化专用集成电路(ASIC)市场规模将达到800亿美元,设计服务市场将达到400亿美元。...PC版:https://www.cnbeta.com.tw/articles/soft/1435461.htm手机版:https://m.cnbeta.com.tw/view/1435461.htm

封面图片

苹果新发布20个Core ML模型和4个数据集 全部开源供开发者们使用

苹果新发布20个CoreML模型和4个数据集全部开源供开发者们使用苹果日前在知名AI模型托管平台HuggingFace上新发布了20个CoreML模型和4个数据集,这些模型全部采用Apache2.0许可证进行开源,所有开发者均可使用。这些采用CoreML框架的新模型在功能上都有所不同,不过侧重点都是在设备端本地运行AI模型执行任务,这样数据不需要上云解决潜在的隐私问题。例如开发者可以构建一款用于图像分类的应用程序,在获得用户授权图库访问权限后,可以调用设备端模型进行处理;或者构建一个可以快速去除图像背景的应用程序,使用设备端模型也可以不上传图片,解决用户的隐私担忧。当然采用设备端模型还有个好处就是响应速度会非常快,借助云端处理开发者需要提供性能更强的服务器才能支撑并发使用,而服务器响应和处理都需要使用,本地处理则不需要使用网络,因此也免去了响应时间问题。目前设备端运行AI模型最大的问题在于芯片性能,例如苹果推出的苹果智能仅支持A17Pro和AppleM系列芯片,对于更旧的芯片还是得第三方开发者们提供支持,虽然这也会存在性能问题。HuggingFace创始人称这是一次重大更新,苹果将许多基于CoreML的新模型上传到了HuggingFace存储库,而CoreML模型严格在设备端运行无需网络连接,这可以让开发者的应用保持“闪电般”的速度,还可以确保用户数据的私密性。有兴趣的开发者们可以访问HuggingFace上的苹果主页获取这些模型,苹果也为部分模型提供了论文描述,开发者可以根据论文说明快速了解这些模型的性能:https://huggingface.co/apple...PC版:https://www.cnbeta.com.tw/articles/soft/1435170.htm手机版:https://m.cnbeta.com.tw/view/1435170.htm

封面图片

据苹果官方介绍,Apple Intelligence拥有两个基础模型:

据苹果官方介绍,AppleIntelligence拥有两个基础模型:本地模型:设备上约30亿参数的语言模型,测试得分高于诸多70亿参数的开源模型(Mistral-7B或Gemma-7B);云上模型:可通过私有云计算并在Apple芯片服务器上运行的更大的基于服务器的语言模型;在指令跟踪评估(IFEval)测试中,本地模型性能优于包括Phi-3-mini、Mistral-7B和Gemma-7B等模型,且与DBRX-Instruct、Mixtral-8x22B和GPT-3.5-Turbo相比毫不逊色,同时效率很高;而云上模型水平基本与GPT-4-Turbo持平。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

古尔曼:苹果致力于开发用于生成式人工智能功能的设备端大型语言模型

古尔曼:苹果致力于开发用于生成式人工智能功能的设备端大型语言模型据彭博社的马克·古尔曼报道,苹果公司正在开发自己的大型语言模型(LLM),该模型可在设备上运行,以优先考虑速度和隐私。古尔曼在他的“PowerOn”时事通讯中写道,苹果公司的大语言模型为即将推出的生成式人工智能功能奠定了基础。“所有迹象”似乎表明,它将完全在设备上运行,而不是像大多数现有人工智能服务那样通过云端运行。由于苹果公司的人工智能工具将在设备上运行,因此在某些情况下,可能不如直接基于云的竞争对手,但古尔曼表示,该公司可以通过从谷歌和其他人工智能服务提供商获得技术许可来“填补空白”。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人