分析师称苹果公司专注于本地AI模型和授权LLM可能是一个制胜组合

分析师称苹果公司专注于本地AI模型和授权LLM可能是一个制胜组合 根据摩根大通的一份说明,苹果在开发小型本地机型的同时,可能会与一家 LLM 提供商合作,这可能会帮助苹果领先于其他制造商。如果报道属实,苹果将专注于自己的强项,如设备上的处理,而不是建立专有的 LLM。最近有报道称,苹果公司正在与Google洽谈授权其 Gemini LLM 用于iPhone 的事宜。就在该报道发布的前一天,苹果公司发表了一篇关于 MM1 的研究论文,MM1 是一种较小的预训练模型,可以在用户的 iPhone 上本地运行。摩根大通的报道表明,苹果公司双管齐下的做法可能会让它占得先机。苹果可以专注于保护用户隐私的小型设备模型,而不是发布依赖于网络数据的有争议的 LLM,客户将获得两者的最佳利益。如果这听起来很熟悉,那么它很像苹果与Google达成的搜索协议。Google将成为默认的网络搜索引擎,而苹果则提供一个名为 Spotlight 的强大而私密的本地搜索工具。更多的证据证实了苹果公司的计划,有消息称苹果公司内部有一款名为 Ask 的工具,可以在本地知识数据库中进行训练。它比 LLM更具适应性,能灵活应对数据库的变化,而 MM1 模型应能胜任这些工作。该报告重点介绍了苹果公司采用这种方法取得的财务成功,认为这种方法节省了基础设施建设成本,并为消费者带来了更好的应用体验。摩根大通维持对苹果的增持评级,目标价为 215 美元。 ... PC版: 手机版:

相关推荐

封面图片

Shutterstock授权苹果公司使用数百万张图片来训练其人工智能模型

Shutterstock授权苹果公司使用数百万张图片来训练其人工智能模型 此前曾有消息称,苹果公司与多家出版商就类似的人工智能大型语言模型 (LLM) 培训进行了谈判,并使用了来自新闻文章的内容。据称,Conde Nast IAC 和 NBC 等大型媒体都曾与苹果公司洽谈过内容授权事宜。预计苹果公司将在今年 6 月的WWDC 大会上宣布一些重大消息,努力在其操作系统中加入更多人工智能技术。虽然在人工智能整合方面,苹果经常被认为落后于竞争对手,但它自己也进行了一些创新。在过去的一年里,苹果设备用户可能已经注意到了苹果"机器学习"技术的微小改进。例如,预测文本在适应特定用户偏好的词汇方面变得越来越准确,Siri翻译常用短语的能力也得到了提高。据传,苹果公司的下一代处理器将包含更强大的神经引擎。苹果公司全球营销高级副总裁格雷格-乔斯维克(Greg Joswiak)在社交媒体上调侃说,下一届 WWDC 大会将是"绝对令人难以置信的",暗示这次大会将主要围绕iOS18 和其他苹果操作系统中新增的人工智能类型功能展开。苹果在使用人工智能技术方面面临的最大挑战是维持其用户隐私标准,而其他大型人工智能技术公司并不关心这个问题。 苹果公司最近透露,它打算开发可以尽可能使用本地设备算力的模型。 ... PC版: 手机版:

封面图片

苹果公司收购初创公司和发布招聘信息暗示其大力推进AI发展

苹果公司收购初创公司和发布招聘信息暗示其大力推进AI发展 为此,苹果已经收购了几家与人工智能相关的初创公司,上一次收购发生在去年年初,当时苹果收购了总部位于加利福尼亚州的 WaveOne 公司,该公司提供人工智能驱动的视频压缩功能。摩根士丹利(Morgan Stanley)最近的一份研究报告显示,苹果公司几乎一半的人工智能职位都包含"深度学习"(Deep learning)这一术语,它与用于支持生成式人工智能的算法有关。此前有报道称,苹果早在 2023 年就开始测试其"Ajax"大型语言模型(LLM),但与 OpenAI 的 ChatGPT 等 LLM 不同,苹果的主要目标是开发可在设备上本地运行的生成式人工智能,而不是由数据中心的云服务提供支持。实现这一目标所面临的挑战包括优化 LLM,同时缩小其体积,以及更多依赖高性能移动硬件和更快的Apple Silicon芯片。例如,据说苹果公司正计划对 iPhone 16 麦克风进行重大升级,以改善全新的人工智能增强 Siri 体验。就在上个月,苹果公司的人工智能研究人员表示,他们通过发明一种创新的闪存利用技术,在 iPhone 和其他内存有限的苹果设备上部署大型语言模型 (LLM) 方面取得了关键性突破。据说苹果公司将按计划在 6 月份的全球开发者大会(WWDC)上宣布一系列基于生成式人工智能的工具,届时将预览 iOS 18。摩根士丹利(Morgan Stanley)分析师预计,这些移动软件将以实现生成式人工智能为目标,其中可能包括由 LLM 驱动的语音助手 Siri。 ... PC版: 手机版:

封面图片

苹果公司寻求Photobucket数十亿张图片的授权以训练人工智能模型

苹果公司寻求Photobucket数十亿张图片的授权以训练人工智能模型 生成式人工智能的兴起刺激了对多样化数据集的需求,而像 Photobucket 这样的公司能够提供大量的视觉数据,训练人工智能根据文本提示生成内容。在 ChatGPT 于 2022 年底推出后不久,苹果公司就与 Shutterstock 达成了数百万张图片的授权协议,据信这笔交易的价值在 2500 万美元到 5000 万美元之间。追求"道德来源"和合法明确的数据,标志着苹果与早先随意采集网络数据的做法不同。据报道,苹果公司准备在 6 月份的 WWDC 大会上展示iOS 18及其他主要软件更新所带来的一系列人工智能功能。相关文章:Shutterstock授权苹果公司使用数百万张图片来训练其人工智能模型 ... PC版: 手机版:

封面图片

苹果公司 CEO 蒂姆・库克今日现身上海,界面新闻询问库克“iPhone 在 AI 上有何进展?”库克回答道,AI 已经运用在了

苹果公司 CEO 蒂姆・库克今日现身上海,界面新闻询问库克“iPhone 在 AI 上有何进展?”库克回答道,AI 已经运用在了苹果产品的各方面,例如 Apple Watch 的摔倒检测以及 iPhone 的预测性文本输入等功能,都是由 AI 来完成驱动的。 据报道,这也是库克首度在中国谈及 AI 话题。库克同时重申,“苹果的生成式 AI,在今年晚些时候会有新闻宣布。”苹果在决定停止造车之后,已明确会将更多精力放在 AI 上,尤其是大语言模型方面的表现。 而在 2 月 29 日的苹果年度股东大会上,库克在谈到苹果的 AI 计划时表示,公司将在 2024 年在生成式人工智能领域“开辟新天地(break new ground)”。他强调:“我们相信这将为用户带来变革性的机遇。” 彭博社、《纽约时报》近期均称苹果公司正在和谷歌磋商,计划在 iOS / iPadOS 系统中引入 Gemini 模型,为 iPhone / iPad 提供某些 AI 功能。苹果公司确实已经和谷歌开始商讨,在下一代 iPhone 中使用 Gemini 的生成式 AI 模型。 三位知情人士说,这些谈判是初步的,潜在交易的具体范围尚未确定。其中一位知情人士说,苹果公司还与其它人工智能公司进行了讨论,苹果公司希望充分使用大型语言模型的力量,分析大量数据并自行生成文本。 两位熟悉其开发情况的人士透露,苹果固然在开发自己的大型语言模型,但和 ChatGPT、Gemini 的差距短时间内是无法追上的。 而摩根大通在投资备忘录中推测,苹果一方面专注于 iPhone 本地运行的小模型,另一方面通过和其它厂商合作引入大语言模型(LLM)。摩根大通认为相比较 OpenAI 的 ChatGPT 和谷歌的 Gemini,苹果目前在大语言模型方面处于落后状态,苹果公司也深知这一点,因此将重心放在可以本地运行的小模型方面,从而更好地发挥自己的优势。 via 匿名 标签: #Apple #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。

:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。 主要提供: 为多个本地 LLM 模型提供高性能、高效和可靠的服务 可选择通过 CUDA 或 Metal 进行 GPU 加速 可配置的 LLM 完成任务(提示、召回、停止令牌等) 通过 HTTP SSE 流式传输完成响应,使用 WebSockets 聊天 使用 JSON 模式对完成输出进行有偏差的采样 使用向量数据库(内置文件或 Qdrant 等外部数据库)进行记忆检索 接受 PDF 和 DOCX 文件并自动将其分块存储到内存中 使用静态 API 密钥或 JWT 标记确保 API 安全 简单、单一的二进制+配置文件服务器部署,可水平扩展 附加功能: 用于轻松测试和微调配置的 Web 客户端 用于本地运行模型的单二进制跨平台桌面客户端

封面图片

苹果公司发表四款开源新模型 有助于提高未来人工智能的准确性

苹果公司发表四款开源新模型 有助于提高未来人工智能的准确性 这些指导模型被称为开源高效 LLMs 或 OpenELMs,托管在协作平台 Hugging Face 上。Hugging Face 用于托管人工智能模型,以及对其进行训练和与他人合作改进。OpenELM 是指一个开源库,它利用进化算法将多个大型语言模型 (LLM) 结合在一起。这四个 OpenELM 模型采用"分层缩放策略",在变压器机器学习模型的各层中分配参数,以提高精确度。这些模型使用 CoreNet 库进行了预训练。苹果公司提供了使用 2.7 亿、4.5 亿、11 亿和 30 亿个参数的预训练和指令调整模型。预训练数据集由 Dolma v1.6 子集、RefinedWeb、重复 PILE 和 RedPajama 子集组合而成。这样得到的数据集约有 1.8 万亿个标记。在本周二发布的一篇相关论文中,该项目的研究人员表示,大型语言模型的可重复性和透明度"对于推进开放式研究至关重要"。它还有助于确保结果的可信度,并允许对模型偏差和风险进行调查。至于模型的准确性,据解释,在使用 10 亿个参数预算的情况下,OpenELM 比 OLMo 的准确性提高了 2.36%,而所需的预训练代币数量仅为 OLMo 的一半。模型和论文的作者包括 Sachin Mehta、Mohammad Hossein Sekhavat、Qingqing Cao、Maxwell Horton、Yanzi Jin、Chenfan Sun、Iman Mirzadeh、Mahyar Najibi、Dmitry Belenko、Peter Zatloukal 和 Mohammad Rastegari。发布这些模型的源代码是苹果公司宣传其人工智能和机器学习发展成果的最新尝试。这并不是苹果公司第一次公开发布人工智能程序。今年10 月,苹果分享了一个名为 Ferret 的开源 LLM,它改进了模型分析图像的方式。今年 4 月,Ferret 的新版本增加了解析应用程序截图中数据点的功能,并能大致了解应用程序的功能。此外,还发布了关于生成式人工智能动画工具和创建人工智能头像的论文。预计 6 月份的 WWDC 将包括苹果产品在人工智能方面的许多进展。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人