Meta AI 研发能在智能手机上运行的紧凑大模型

Meta AI 研发能在智能手机上运行的紧凑大模型 Meta A 的研究人员正在开发智能手机上运行的紧凑型大模型 MobileLLM。研究人员致力于优化参数规模低于 10 亿的大模型,相比下 OpenAI GPT-4 的参数规模据称超过 1 万亿。研究人员报告利用一系列新技术,MobileLLM 在基准测试任务上的表现比类似规模的模型改进了 2.7%-4.3%,3.5 亿参数规模的 MobileLLM 在某些任务的准确率与 70 亿参数规模的 LLaMA-2 模型相当。这意味着在特定任务上,紧凑型大模型能提供比更大规模大模型相似的能力,同时计算开销更低。 via Solidot

相关推荐

封面图片

Meta 新语言模型能运行在单张显卡上

Meta 新语言模型能运行在单张显卡上 Meta 上周宣布了一个新的大语言模型 LLaMA-13B,称其参数规模更小但性能强于 OpenAI 的 GPT-3 模型,且它能运行在单张显卡上。 语言模型的规模在从 70 亿到 650 亿参数,而 OpenAI GPT-3 模型有 1750 亿个参数。Meta 使用 Common Crawl、维基百科和 C4 等公开数据集训练其模型,它有可能公开其源代码和权重。今天绝大部分最先进的语言模型都没有公开源代码。Meta 称 LLaMA 为其基础模型,它将是未来该公司更先进模型的基础。它的 LLaMA-13B 模型在 BoolQ、PIQA、SIQA、HellaSwag、WinoGrande、ARC 和 OpenBookQA 等标准测试中的表现超过了 GPT-3。GPT-3 等衍生模型需要数据中心规模的计算能力进行处理,而 LLaMA-13B 能运行在单张显卡上,为在消费者硬件上实现类似 ChatGPT 的性能打开了大门。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

中信建投:AI大模型与智能手机结合有望驱动新一轮换机周期

中信建投:AI大模型与智能手机结合有望驱动新一轮换机周期 中信建投研报指出,2023年全球智能手机市场跌幅收窄,2024年有望实现反弹,AI大模型与智能手机结合有望驱动新一轮换机周期,引领行业发展趋势:大模型驱动智能化升级,云端混合将是一段时间内的主流解决方案;大模型轻量化与硬件升级支撑本地运行更强大AI大模型;AI赋能操作系统内核,个人智慧助理式操作系统成为趋势;“堆叠硬件”竞争局限有望被打破…… - 电报频道 - #娟姐新闻: @juanjienews

封面图片

德国电信在MWC上展示智能手机概念:完全依赖AI 不运行任何应用

德国电信在MWC上展示智能手机概念:完全依赖AI 不运行任何应用 德国电信(Deutsche Telekom)在 MWC 2024 上展示了一款不运行任何应用程序的智能手机概念。在演讲中,德国电信公司首席执行官蒂姆-霍伊特吉斯(Tim Hoettges)显得信心十足,他声称 10 年后将不会再有人使用应用程序,并暗示人工智能将处理所有这些工作,这无疑是一个大胆的言论。据悉,德国电信展示的这款概念智能手机拥有一个无应用程序的用户界面,虽然它还没有准备好实际进入通信市场,但它可以实现一些功能。例如,它可以响应提示,推荐旅游目的地,或为智能手机的主人购买产品。其他可以完成的任务包括向联系人发送图片和视频,不过这些功能已经可以由应用程序通过几个单一的步骤来完成。假设所有这些功能都将以语音指令提示的形式完成,那么人工智能模型就需要接受如何准确地向其他收件人发送内容或如何提供搜索结果的训练。 ... PC版: 手机版:

封面图片

大型AI模型出现的不可预测的能力

大型AI模型出现的不可预测的能力 在去年组织的一次测试中,研究人员输入不同的提示去测试不同规模大语言模型的能力。其中之一是一个女孩和三条鱼的绘文字,询问它们描述了哪部电影。最小的模型产生了超现实的答案:“The movie is a movie about a man who is a man who is a man”。中等复杂度的模型猜测是《Emoji大电影》,最复杂的模型一锤定音《海底总动员(Finding Nemo)》。计算机科学家对大语言模型的表现非常吃惊。语言模型已经研究了几十年,五年前最强大的模型是基于递归神经网络,本质上是根据提供的文本字符串猜测下一个单词是什么,所谓递归是从输出中不断学习,利用反馈去改进性能。2017 年 Google Brain 的研究人员提出了被称为 transformer 的新型架构。递归网络是逐字分析句子,transformer 则是同时处理所有单词,它能并行处理大块文本。Transformers 能通过增加模型的参数快速扩展语言模型的复杂度。2020 年 OpenAI 的研究人员发现随着参数规模的增加语言模型改进了其能力和准确度。但大语言模型也同时带来了一些始料未及的东西。研究人员发现大语言模型产生了数以百计的“新”能力,这种行为被称为涌现。研究人员如今正努力去识别新的涌现能力,以及找出背后的原因本质上是去尝试预测不可预测性。了解涌现可揭示出 AI 和一般机器学习深层问题的答案,如复杂模型是真的在做新事情,还是极其擅长统计。它还可帮助研究人员去利用潜在的益处和减少涌现风险。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

中国智能手机需求大幅下滑

中国智能手机需求大幅下滑 中国的智能手机需求正在迅速降温,因为新冠疫情的再次爆发削弱了消费者支出,促使包括苹果公司(Apple Inc., AAPL)在内的手机制造商以及芯片制造商在最近几周对这个全球最大的智能手机市场发出警告。 中国工业和信息化部下属的中国信息通信研究院(CAICT)本周的数据显示,中国4月份的智能手机发货量同比下降了34%,至1,770万部。该机构表示,今年头四个月智能手机发货量下降30%,至约8,600万部。 苹果公司曾于4月底警告说,中国新一波新冠疫情可能会使本季度销售额减少多达80亿美元。中国智能手机制造商小米集团(Xiaomi Corp.,)本月表示,其1-3月的智能手机收入比上年同期下降了11%,一定程度上因为中国严格的新冠防控政策导致国内物流紧缩、商店关闭和零部件短缺。 华尔街日报

封面图片

专为智能手机设计的高性能大型语言模型推理框架,支持高达47B参数的MoE模型,速度高达每秒11.68个token,比现有框架快2

专为智能手机设计的高性能大型语言模型推理框架,支持高达47B参数的MoE模型,速度高达每秒11.68个token,比现有框架快22倍。即使在7B模型上,通过在手机上放置50%的FFN权重,也能保持领先速度 | #框架

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人