苹果开源大模型OpenELM来了,可能用在下一代iPhone上

苹果开源大模型OpenELM来了,可能用在下一代iPhone上 苹果最近在AI代码社区HuggingFace上发布了OpenELM大模型。该模型是一系列开源大型语言模型,具有不同的参数大小,可在端侧设备上运行。据了解,该系列模型包含4个不同参数版本,分别为2.7亿、4.5亿、11亿和30亿。由于参数较小,这些模型可以在端侧设备上独立运行,而无需连接云端服务器。总体而言,该系列包括4个预训练模型和4个指令调优模型。这些模型可以在笔记本电脑甚至智能手机上运行。苹果举例称,其中一款模型在MacBookPro上运行,配备了M2Max芯片和64GBRAM,操作系统为macOS14.4.1。 来源:格隆汇

相关推荐

封面图片

阿里通义千问开源 320 亿参数模型

阿里通义千问开源 320 亿参数模型 4 月 7 日,阿里云通义千问开源 320 亿参数模型 。通义千问此前已开源 5 亿、18 亿、40 亿、70 亿、140 亿和 720 亿参数 6 款大语言模型。 此次开源的 320 亿参数模型,将在性能、效率和内存占用之间实现更理想的平衡。例如,相比通义千问 14B 开源模型,32B 在智能体场景下能力更强;相比通义千问 72B 开源模型,32B 的推理成本更低。通义千问团队希望 32B 开源模型能为企业和开发者提供更高性价比的模型选择。 目前,通义千问共开源了 7 款大语言模型,在海内外开源社区累计下载量突破 300 万。来源, 频道:@kejiqu 群组:@kejiquchat

封面图片

为节省成本 苹果可能用塑料制造下一代 Apple Watch SE

为节省成本 苹果可能用塑料制造下一代 Apple Watch SE 不过,苹果公司正在考虑对下一代 Apple Watch SE 进行重大改动。根据彭博社记者马克-古尔曼(Mark Gurman)的报道,苹果可能会放弃铝制手表,推出塑料材质的下一代 Apple Watch SE。古尔曼(Gurman)在他的《Power On》时事通讯中报道说,下一代 Apple Watch SE 可能会放弃铝制外壳,转而采用硬质塑料设计。据说这样做是为了降低价格。古尔曼指出该公司还在开发低价 Apple Watch SE 的新版本,上一次更新是在 2022 年。该公司测试过的一个想法是将铝制外壳换成硬质塑料。目前,苹果公司提供的 Apple Watch SE 采用铝制材料,与更高端的 Apple Watch 型号类似。不过,在 2022 年推出升级版 Apple Watch SE 时,它取消了背壳上的陶瓷材料,转而采用了一种新的"尼龙复合材料"。遗憾的是,马克-古尔曼(Mark Gurman)没有透露有关下一代 Apple Watch SE 的更多细节。在理想的情况下,如果苹果开始用塑料制造 Apple Watch SE,那么它应该会降低手表的起步价。目前 Apple Watch SE 的起售价为 249 美元。相比之下,三星最实惠的手表起价为 199 美元。对于苹果公司来说,它的Apple Watch Ultra/Ultra 2有了一个明确的竞争对手,那就是三星 Galaxy Watch Ultra。据传,Galaxy Watch Ultra将于 7 月 10 日在巴黎卢浮宫博物馆举行的 Unpacked 活动上首次亮相。 ... PC版: 手机版:

封面图片

通义千问开源千亿级参数模型

通义千问开源千亿级参数模型 通义千问开源1100亿参数模型Qwen1.5-110B,成为全系列首个千亿级参数开源模型。通义千问1100亿参数模型延续了Qwen1.5系列的Transformer解码器架构,采用了分组查询注意力方法(GQA),使得模型在推理时更加高效。110B模型支持32K上下文长度,具备优秀的多语言能力,支持中、英、法、德、西、俄、日、韩、越、阿拉伯等多种语言。 来源:雪球7X24资讯

封面图片

苹果要在iPhone上运行AI大模型?

苹果要在iPhone上运行AI大模型? (英文) (英文) 研究人员在一篇名为“LLM in a flash: Efficient Large Language Model Inference with Limited Memory”论文中提到,闪存在移动设备中比传统上用于运行LLMs的RAM更丰富。

封面图片

苹果新发布20个Core ML模型和4个数据集 全部开源供开发者们使用

苹果新发布20个Core ML模型和4个数据集 全部开源供开发者们使用 苹果日前在知名 AI 模型托管平台 HuggingFace 上新发布了 20 个 Core ML 模型和 4 个数据集,这些模型全部采用 Apache 2.0 许可证进行开源,所有开发者均可使用。这些采用 Core ML 框架的新模型在功能上都有所不同,不过侧重点都是在设备端本地运行 AI 模型执行任务,这样数据不需要上云解决潜在的隐私问题。例如开发者可以构建一款用于图像分类的应用程序,在获得用户授权图库访问权限后,可以调用设备端模型进行处理;或者构建一个可以快速去除图像背景的应用程序,使用设备端模型也可以不上传图片,解决用户的隐私担忧。当然采用设备端模型还有个好处就是响应速度会非常快,借助云端处理开发者需要提供性能更强的服务器才能支撑并发使用,而服务器响应和处理都需要使用,本地处理则不需要使用网络,因此也免去了响应时间问题。目前设备端运行 AI 模型最大的问题在于芯片性能,例如苹果推出的苹果智能仅支持 A17 Pro 和 Apple M 系列芯片,对于更旧的芯片还是得第三方开发者们提供支持,虽然这也会存在性能问题。HuggingFace 创始人称这是一次重大更新,苹果将许多基于 Core ML 的新模型上传到了 HuggingFace 存储库,而 Core ML 模型严格在设备端运行无需网络连接,这可以让开发者的应用保持 “闪电般” 的速度,还可以确保用户数据的私密性。有兴趣的开发者们可以访问 HuggingFace 上的苹果主页获取这些模型,苹果也为部分模型提供了论文描述,开发者可以根据论文说明快速了解这些模型的性能: ... PC版: 手机版:

封面图片

【大佬在苹果MacBook上跑LLaMA,130亿参数大模型仅占8GB】语言模型的成本已经下降到个人电子设备也可用的地步。经过4

【大佬在苹果MacBook上跑LLaMA,130亿参数大模型仅占8GB】语言模型的成本已经下降到个人电子设备也可用的地步。经过4-bit量化之后,模型被缩小,LLaMA甚至可以在配备M1芯片的MacBook上运行。 #抽屉IT

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人