【 #苹果 开源大模型OpenELM来了,它可能用在下一代iPhone上】

【 #苹果 开源大模型OpenELM来了,它可能用在下一代iPhone上】 据VentureBeat报道,苹果近日在AI代码社区Hugging Face上发布了OpenELM大模型。这是一个由不同参数大小构成的一系列开源大型语言模型,可运行在端侧设备上。据了解,该系列模型包含2.7亿、4.5亿、11亿和30亿共4个不同参数版本。基于较小的参数量,这些模型可在端侧设备上独立运行,而不必连接云端服务器。具体而言,其一共包括4个预训练模型和4个指令调优模型。这些模型可运行在笔记本电脑甚至智能手机上,苹果举例称,其中一台是配备M2 Max芯片、64GB RAM,运行macOS 14.4.1的MacBook Pro。(界面)

相关推荐

封面图片

苹果开源大模型OpenELM来了,可能用在下一代iPhone上

苹果开源大模型OpenELM来了,可能用在下一代iPhone上 苹果最近在AI代码社区HuggingFace上发布了OpenELM大模型。该模型是一系列开源大型语言模型,具有不同的参数大小,可在端侧设备上运行。据了解,该系列模型包含4个不同参数版本,分别为2.7亿、4.5亿、11亿和30亿。由于参数较小,这些模型可以在端侧设备上独立运行,而无需连接云端服务器。总体而言,该系列包括4个预训练模型和4个指令调优模型。这些模型可以在笔记本电脑甚至智能手机上运行。苹果举例称,其中一款模型在MacBookPro上运行,配备了M2Max芯片和64GBRAM,操作系统为macOS14.4.1。 来源:格隆汇

封面图片

Meta 新语言模型能运行在单张显卡上

Meta 新语言模型能运行在单张显卡上 Meta 上周宣布了一个新的大语言模型 LLaMA-13B,称其参数规模更小但性能强于 OpenAI 的 GPT-3 模型,且它能运行在单张显卡上。 语言模型的规模在从 70 亿到 650 亿参数,而 OpenAI GPT-3 模型有 1750 亿个参数。Meta 使用 Common Crawl、维基百科和 C4 等公开数据集训练其模型,它有可能公开其源代码和权重。今天绝大部分最先进的语言模型都没有公开源代码。Meta 称 LLaMA 为其基础模型,它将是未来该公司更先进模型的基础。它的 LLaMA-13B 模型在 BoolQ、PIQA、SIQA、HellaSwag、WinoGrande、ARC 和 OpenBookQA 等标准测试中的表现超过了 GPT-3。GPT-3 等衍生模型需要数据中心规模的计算能力进行处理,而 LLaMA-13B 能运行在单张显卡上,为在消费者硬件上实现类似 ChatGPT 的性能打开了大门。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

基于 LLaMA 的 AI 聊天机器人开源实现

基于 LLaMA 的 AI 聊天机器人开源实现 Meta 的大语言模型 LLaMA 最近引起了广泛关注,它的一大优势是参数规模更小但性能强于 OpenAI 的 GPT-3 模型,而且能运行在单张显卡上,让普通消费者的硬件也有可能提供类似 ChatGPT 性能的 AI 聊天机器人。LLaMA 是一组大语言模型的集合,其参数规模从 70 亿到 650 亿,它最新的 LLaMA-13B 模型有 130 亿个参数,不到 GPT-3 模型 1750 亿个参数的十分之一。现在AI 推出了首个基于人类反馈强化学习的 LLaMA AI 聊天机器人开源实现 。 来源 ,前文: 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

【通义千问开源首个MoE模型】

【通义千问开源首个MoE模型】 据 #阿里 通义千问官微,通义千问团队开源首个MoE模型,名为Qwen1.5-MoE-A2.7B。它仅有27亿个激活参数,但性能可与当前公认最先进的70亿参数模型(Mistral 7B、Qwen1.5-7B等)相媲美。

封面图片

苹果公司发表四款开源新模型 有助于提高未来人工智能的准确性

苹果公司发表四款开源新模型 有助于提高未来人工智能的准确性 这些指导模型被称为开源高效 LLMs 或 OpenELMs,托管在协作平台 Hugging Face 上。Hugging Face 用于托管人工智能模型,以及对其进行训练和与他人合作改进。OpenELM 是指一个开源库,它利用进化算法将多个大型语言模型 (LLM) 结合在一起。这四个 OpenELM 模型采用"分层缩放策略",在变压器机器学习模型的各层中分配参数,以提高精确度。这些模型使用 CoreNet 库进行了预训练。苹果公司提供了使用 2.7 亿、4.5 亿、11 亿和 30 亿个参数的预训练和指令调整模型。预训练数据集由 Dolma v1.6 子集、RefinedWeb、重复 PILE 和 RedPajama 子集组合而成。这样得到的数据集约有 1.8 万亿个标记。在本周二发布的一篇相关论文中,该项目的研究人员表示,大型语言模型的可重复性和透明度"对于推进开放式研究至关重要"。它还有助于确保结果的可信度,并允许对模型偏差和风险进行调查。至于模型的准确性,据解释,在使用 10 亿个参数预算的情况下,OpenELM 比 OLMo 的准确性提高了 2.36%,而所需的预训练代币数量仅为 OLMo 的一半。模型和论文的作者包括 Sachin Mehta、Mohammad Hossein Sekhavat、Qingqing Cao、Maxwell Horton、Yanzi Jin、Chenfan Sun、Iman Mirzadeh、Mahyar Najibi、Dmitry Belenko、Peter Zatloukal 和 Mohammad Rastegari。发布这些模型的源代码是苹果公司宣传其人工智能和机器学习发展成果的最新尝试。这并不是苹果公司第一次公开发布人工智能程序。今年10 月,苹果分享了一个名为 Ferret 的开源 LLM,它改进了模型分析图像的方式。今年 4 月,Ferret 的新版本增加了解析应用程序截图中数据点的功能,并能大致了解应用程序的功能。此外,还发布了关于生成式人工智能动画工具和创建人工智能头像的论文。预计 6 月份的 WWDC 将包括苹果产品在人工智能方面的许多进展。 ... PC版: 手机版:

封面图片

为节省成本 苹果可能用塑料制造下一代 Apple Watch SE

为节省成本 苹果可能用塑料制造下一代 Apple Watch SE 不过,苹果公司正在考虑对下一代 Apple Watch SE 进行重大改动。根据彭博社记者马克-古尔曼(Mark Gurman)的报道,苹果可能会放弃铝制手表,推出塑料材质的下一代 Apple Watch SE。古尔曼(Gurman)在他的《Power On》时事通讯中报道说,下一代 Apple Watch SE 可能会放弃铝制外壳,转而采用硬质塑料设计。据说这样做是为了降低价格。古尔曼指出该公司还在开发低价 Apple Watch SE 的新版本,上一次更新是在 2022 年。该公司测试过的一个想法是将铝制外壳换成硬质塑料。目前,苹果公司提供的 Apple Watch SE 采用铝制材料,与更高端的 Apple Watch 型号类似。不过,在 2022 年推出升级版 Apple Watch SE 时,它取消了背壳上的陶瓷材料,转而采用了一种新的"尼龙复合材料"。遗憾的是,马克-古尔曼(Mark Gurman)没有透露有关下一代 Apple Watch SE 的更多细节。在理想的情况下,如果苹果开始用塑料制造 Apple Watch SE,那么它应该会降低手表的起步价。目前 Apple Watch SE 的起售价为 249 美元。相比之下,三星最实惠的手表起价为 199 美元。对于苹果公司来说,它的Apple Watch Ultra/Ultra 2有了一个明确的竞争对手,那就是三星 Galaxy Watch Ultra。据传,Galaxy Watch Ultra将于 7 月 10 日在巴黎卢浮宫博物馆举行的 Unpacked 活动上首次亮相。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人