“苹果智能”:专注小模型跟小内存有关系吗?

None

相关推荐

封面图片

“苹果智能” 为何专注于小模型?

“苹果智能” 为何专注于小模型? 在周二凌晨的 WWDC 大会上,苹果以 Apple Intelligence 取代 Artificial Intelligence 作为 AI 的代名词,大有重新定义 AI 的意思。原本吵得最凶最受关注的和 OpenAI 的合作,其实也只不过是提供一个 ChatGPT 接口而已,用不用都随用户。从某种程度上来说,苹果的确称得上重新定义了 AI与业内其他科技巨头追求“大力出奇迹”、模型参数越高越好不同,苹果更在意的是如何让 AI 无缝融入操作系统,优化用户体验。定制化小型模型 确保用户体验根据苹果在 WWDC 大会上透露的信息,“苹果智能”的关键,在于众多专门为了操作系统中的某个特定需求,而打造的小型模型。据苹果软件工程高级副总裁Craig Federighi在 WWDC 大会上的介绍,很多苹果AI模型都可以完全在由A17+或M系列芯片驱动的设备上运行,从而消除了将个人数据发送到远程服务器的风险。这些模型都在定制数据集上完成了训练,参数不高,智慧程度有限,也没有 GPT 或 Claude 这些大型模型那么全能。以系统内置的总结文本、改写文本等功能为例,苹果预计,这些请求生成的结果会比较单一。这其实是综合考虑了运行速度、算力需求的结果,大部分苹果自家的模型在手机上就能跑,不需要云服务器,响应速度也很快。虽然参数量小,但苹果智能胜在模型数量足够多。因为苹果预先针对不同的任务训练了大量模型,所以苹果智能可以实现的用户需求非常广泛。从处理照片、文本,到各种复杂的跨应用操作,都能应对得来。隐私还是第一位不过,如果涉及到比较复杂的用户请求,苹果可能会引入第三方模型,如OpenAI的ChatGPT和GoogleGemini。在这种情况下,系统会提示用户是否愿意与外部共享相关信息(没有此类提示,则表明用户请求正在使用苹果自有模型处理)。这个机制有助于缓解用户的隐私顾虑,隐私优先也是苹果一贯的策略。华尔街见闻此前文章提到过,如果需要用到更强大的、依赖云端的大模型,苹果会使用专门以自家芯片驱动的服务器来处理。Federighi强调,这些服务器都内置使用Swift语言编写的安全工具,苹果AI“只发送完成任务所需的相关数据”到这些服务器,不会给予对设备上下文信息的完全访问权限。而且,苹果表示,这些数据不会被保存以供将来服务器访问或用于进一步训练苹果的基于服务器的模型。苹果并未明确哪些操作需要云端处理,因为这种情况会随时变化。有些今天需要云计算的任务,将来可能在设备本地即可完成。设备内计算并非总是第一选择,因为速度只是苹果智能系统决定是否要调用云计算时考虑的众多参数之一。不过,某些用户请求将永远在设备内执行。其中最显著的是设备端人工智能图片生成器Image Playground,它将完整的扩散模型存储在本地,可以生成三种不同风格的图像。即使在目前的早期测试阶段,Image Playground的图像生成速度也非常惊艳,通常只需几秒钟,当然,效果也没法和更大的模型媲美。 ... PC版: 手机版:

封面图片

这种跟频道有关系吗?

封面图片

谷歌:手机运行人工智能模型将占用大量内存

谷歌:手机运行人工智能模型将占用大量内存 谷歌设备和服务软件副总裁 Seang Chau 在自家的“Made by Google”播客中解释了这一决定,他表示:“Pixel 8 Pro 拥有 12GB 内存,非常适合用来运行‘Gemini Nano’,让我们可以尽情探索它的潜力。但 Pixel 8 只有 8GB 内存,如果贸然启用该功能,可能会影响用户的使用体验。”

封面图片

跟水果内存价格有的比吗

封面图片

苹果利用谷歌芯片训练其人工智能模型

苹果利用谷歌芯片训练其人工智能模型 当地时间周一,苹果公司宣布了新的 Apple Intelligence 人工智能服务。但在活动结束后,苹果发布的一份技术文件的细则中明确显示出,谷歌公司已成为在人工智能领域又一个赢家。为了构建苹果的基础人工智能模型,该公司的工程师使用了自主开发的框架和一系列硬件,特别是自己的内部图形处理单元 (GPU) 和只能在谷歌云端使用的张量处理单元 (TPU) 芯片。苹果并未透露其对谷歌芯片和软件的依赖程度,以及对英伟达或其他人工智能供应商硬件的依赖程度。 谷歌已经开发 TPU 大约 10 年了,并公开讨论了可用于人工智能训练的两种第五代芯片;谷歌表示,第五代芯片的性能版本提供的性能可与英伟达 H100 人工智能芯片相媲美。通常谷歌的芯片并不直接出售给客户,只能通过谷歌云进行访问。

封面图片

#秦奋 所以,这件事跟阿娇有关系? ​​​

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人