大型 AI 模型已可自动生成小型 AI 工具

大型 AI 模型已可自动生成小型 AI 工具 来自麻省理工学院、加州大学多个校区和 AI 科技公司 Aizip 的科学家团队表示,他们已经能够让大型人工智能模型(如 ChatGPT 运行的模型)基本上实现自我复制。 “目前,我们正在使用大型模型来构建小型模型,就像哥哥帮助弟弟进步一样。这是朝着 AI 自主进化迈出的第一步,”Aizip 首席执行官 Yan Sun 称,“也是首次证明 AI 模型能够自主创造其他 AI 模型。” 研究人员之一 Yubei Chen 补充说:“我们的技术是一个突破,因为我们首次设计了完全自动化的流程,可以在没有人工干预的情况下设计一个 AI 模型。”来源 , 频道:@kejiqu 群组:@kejiquchat

相关推荐

封面图片

微软推出小型 AI 模型 Phi-3-mini

微软推出小型 AI 模型 Phi-3-mini 微软公布了一种低成本的小型人工智能模型 Phi-3-mini,该模型可以在使用更少量数据的情况下执行内容创建和社交媒体帖子等任务。微软表示,Phi-3-mini 在各种评估语言、编码和数学能力的基准测试中,它的表现可以超过两倍于它的模型。 来源:财经慢报频道

封面图片

Opera 成为首个内置本地 AI 模型的浏览器

Opera 成为首个内置本地 AI 模型的浏览器 当地时间4月3日,Opera 宣布将在开发者流中为其 Opera One 浏览器中添加对来自大约50个模型系列的150个本地 LLM (大型语言模型) 变体的实验性支持。此举标志着首次可以通过内置功能从浏览器轻松访问和管理本地 LLM。本地 AI 模型是 Opera 在线 Aria AI 服务的免费补充。支持的本地 LLM 包括:Meta 的 Llama、Vicuna、谷歌的 Gemma、Mistral AI 的 Mixtral 等。使用本地大型语言模型意味着用户的数据保存在本地设备上,使他们能够使用生成式人工智能,而无需将信息发送到服务器。

封面图片

人工智能公司正在转向“小型”语言模型以获利

人工智能公司正在转向“小型”语言模型以获利 投入数十亿美元构建所谓的大型语言模型以推动生成式人工智能产品的人工智能公司,现在正寄望于一种新的收入增长方式:小型语言模型。苹果、微软、Meta 和谷歌最近都发布了新的人工智能模型,这些模型的“参数”较少,但功能仍然强大。 通常来说,参数的数量越多,人工智能软件的性能就越好,能处理的任务也就越复杂和微妙。本周公布的 OpenAI 的最新模型 GPT-4o 和谷歌的 Gemini 1.5 Pro,据估计都拥有超过1万亿个参数。而 Meta 正在训练其开源 Llama 模型的4000亿参数版本。 除了努力说服一些企业客户支付运行生成式人工智能产品所需的大额费用外,对数据和版权责任的担忧也阻碍了其广泛应用。这促使像 Meta 和谷歌这样的科技集团推出只有几十亿参数的小型语言模型,作为更经济、更节能、可定制的替代方案,这些模型在训练和运行时所需的电力更少,同时还能保护敏感数据。

封面图片

微软推出其规模最小的人工智能模型 Phi-3

微软推出其规模最小的人工智能模型 Phi-3 微软推出了其轻量级人工智能模型 Phi-3 Mini 的下一个版本,这是该公司计划发布的三款小型模型中的第一款。Phi-3 Mini 可测量 38 亿个参数,其训练数据集比 GPT-4 等大型语言模型要小。现在可在 Azure、Hugging Face 和 Ollama 上使用。微软计划发布 Phi-3 Small (7B 参数) 和 Phi-3 Medium (14B 参数)。参数指的是模型能理解多少复杂指令。与大型人工智能模型相比,小型人工智能模型通常运行成本更低,并且在手机和笔记本电脑等个人设备上表现更好。

封面图片

Stability AI推出了更小、更高效的Stable LM 2 1.6B语言模型

Stability AI推出了更小、更高效的Stable LM 2 1.6B语言模型 Stable LM是一种文本内容生成 LLM,稳定人工智能公司于 2023 年 4 月首次推出了 30 亿和 70 亿参数模型。新的 StableLM 模型实际上是 Stability AI 在 2024 年发布的第二个模型,此前该公司在本周早些时候发布了 Stable Code 3B。新的 Stable LM 模型结构紧凑、功能强大,旨在降低门槛,让更多开发人员能够参与到生成式人工智能生态系统中,并将英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语等七种语言的多语言数据纳入其中。该模型利用语言建模方面的最新算法进步,实现了 Stability AI 所希望的速度与性能之间的最佳平衡。Stability AI 公司语言团队负责人卡洛斯-里克尔梅(Carlos Riquelme)告诉 VentureBeat:"一般来说,在类似数据上用类似的训练配方训练出来的大型模型往往比小型模型表现更好。不过,随着时间的推移,随着新模型能够实现更好的算法,并在更多和更高质量的数据上进行训练,我们有时会看到最近的较小模型表现优于旧的较大模型。"据 Stability AI 称,该模型在大多数基准测试中的表现都优于其他参数低于 20 亿的小型语言模型,包括微软的 Phi-2(27 亿)、 TinyLlama 1.1B 和 Falcon 1B。较小的新型 Stable LM 甚至能够超越一些较大的型号,包括 Stability AI 早先推出的 Stable LM 3B 型号。Riquelme 说:"Stable LM 2 1.6B。比几个月前训练的一些更大的型号性能更好。考虑到电脑、电视机或微型芯片类似的趋势,它们随着时间的推移变得更小、更薄、更好。"需要明确的是,较小的 Stable LM 2 1.6B 由于体积小,因而确实存在一些缺点。由于小型、低容量语言模型的特性,Stable LM 2 1.6B 可能同样会表现出一些常见问题,如高幻觉率或潜在的有毒语言。在过去几个月里,Stability AI 一直在研究更小更强大的 LLM 选项。2023 年 12 月, StableLM Zephyr 3B型号发布,与 4 月份发布的初始型号相比,它的尺寸更小,但性能更强。新的 Stable LM 2 模型在更多数据上进行了训练,包括除英语外的 6 种语言(西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语)的多语言文档。Riquelme 强调的另一个有趣的方面是在训练过程中向模型展示数据的顺序。他指出,在不同的训练阶段关注不同类型的数据可能会有所收获。更进一步的是,Stability AI 正在提供预训练和微调选项的新模型,以及一种研究人员称之为"......预训练冷却前的最后一个模型检查点"的格式。里克尔梅说:"我们的目标是为个人开发者提供更多的工具和工件,以便他们在现有模型的基础上进行创新、改造和构建。在这里,我们提供了一个具体的半成品模型供人们使用。"在训练过程中,模型会依次更新,其性能也会随之提高。在这种情况下,第一个模型什么都不知道,而最后一个模型已经消耗了数据的大部分内容,并有望学到这些内容。同时,模型在训练快结束时可能会变得不那么灵活,因为它们是被迫结束学习的。他说:"我们决定在开始最后一个阶段的训练之前,以目前的形式提供模型,这样希望可以更容易地将它专门用于人们可能想要使用的其他任务或数据集。我们不确定这样做的效果是否会很好,但我们真的相信人们有能力以令人惊叹的方式利用新工具和模型。" ... PC版: 手机版:

封面图片

AI图片生成 AI视频生成工具 限免 快手大模型团队自研打造-可灵 AI

AI图片生成 AI视频生成工具 限免 快手大模型团队自研打造-可灵 AI #AI工具 #趣站 #AI #AI图片生成 #AI视频生成 https://www.ahhhhfs.com/60059/

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人