Stability AI 发布最新语言模型:Stable LM 3B

Stability AI 发布最新语言模型:Stable LM 3B Stability AI 发布了其最新语言模型:,设计用于在手持设备和笔记本电脑等便携式数字设备上运行。 Stable LM 3B 拥有30 亿个参数(业界通常使用的参数为 70 亿到 700 亿个),是一种紧凑型语言模型。Stable LM 3B 的主要优势之一是其更小的尺寸和更高的效率。与大型模型不同,这些模型需要的资源更少,因此大多数用户都可以轻松使用它们。 与之前的稳定 LM 版本相比,该版本在保持了快速的执行速度的同时,在生成文本方面明显更好。在常见自然语言处理基准测试(包括常识推理和常识测试)中,它的的下游性能得到了提高。

相关推荐

封面图片

Stability AI推出了更小、更高效的Stable LM 2 1.6B语言模型

Stability AI推出了更小、更高效的Stable LM 2 1.6B语言模型 Stable LM是一种文本内容生成 LLM,稳定人工智能公司于 2023 年 4 月首次推出了 30 亿和 70 亿参数模型。新的 StableLM 模型实际上是 Stability AI 在 2024 年发布的第二个模型,此前该公司在本周早些时候发布了 Stable Code 3B。新的 Stable LM 模型结构紧凑、功能强大,旨在降低门槛,让更多开发人员能够参与到生成式人工智能生态系统中,并将英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语等七种语言的多语言数据纳入其中。该模型利用语言建模方面的最新算法进步,实现了 Stability AI 所希望的速度与性能之间的最佳平衡。Stability AI 公司语言团队负责人卡洛斯-里克尔梅(Carlos Riquelme)告诉 VentureBeat:"一般来说,在类似数据上用类似的训练配方训练出来的大型模型往往比小型模型表现更好。不过,随着时间的推移,随着新模型能够实现更好的算法,并在更多和更高质量的数据上进行训练,我们有时会看到最近的较小模型表现优于旧的较大模型。"据 Stability AI 称,该模型在大多数基准测试中的表现都优于其他参数低于 20 亿的小型语言模型,包括微软的 Phi-2(27 亿)、 TinyLlama 1.1B 和 Falcon 1B。较小的新型 Stable LM 甚至能够超越一些较大的型号,包括 Stability AI 早先推出的 Stable LM 3B 型号。Riquelme 说:"Stable LM 2 1.6B。比几个月前训练的一些更大的型号性能更好。考虑到电脑、电视机或微型芯片类似的趋势,它们随着时间的推移变得更小、更薄、更好。"需要明确的是,较小的 Stable LM 2 1.6B 由于体积小,因而确实存在一些缺点。由于小型、低容量语言模型的特性,Stable LM 2 1.6B 可能同样会表现出一些常见问题,如高幻觉率或潜在的有毒语言。在过去几个月里,Stability AI 一直在研究更小更强大的 LLM 选项。2023 年 12 月, StableLM Zephyr 3B型号发布,与 4 月份发布的初始型号相比,它的尺寸更小,但性能更强。新的 Stable LM 2 模型在更多数据上进行了训练,包括除英语外的 6 种语言(西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语)的多语言文档。Riquelme 强调的另一个有趣的方面是在训练过程中向模型展示数据的顺序。他指出,在不同的训练阶段关注不同类型的数据可能会有所收获。更进一步的是,Stability AI 正在提供预训练和微调选项的新模型,以及一种研究人员称之为"......预训练冷却前的最后一个模型检查点"的格式。里克尔梅说:"我们的目标是为个人开发者提供更多的工具和工件,以便他们在现有模型的基础上进行创新、改造和构建。在这里,我们提供了一个具体的半成品模型供人们使用。"在训练过程中,模型会依次更新,其性能也会随之提高。在这种情况下,第一个模型什么都不知道,而最后一个模型已经消耗了数据的大部分内容,并有望学到这些内容。同时,模型在训练快结束时可能会变得不那么灵活,因为它们是被迫结束学习的。他说:"我们决定在开始最后一个阶段的训练之前,以目前的形式提供模型,这样希望可以更容易地将它专门用于人们可能想要使用的其他任务或数据集。我们不确定这样做的效果是否会很好,但我们真的相信人们有能力以令人惊叹的方式利用新工具和模型。" ... PC版: 手机版:

封面图片

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0 今天,Stability AI 宣布推出 Stable Diffusion XL 1.0,这是该公司迄今为止描述为“最先进”的文本到图像模型。Stable Diffusion XL 1.0 可在上以开源形式使用,并提供给 Stability 的和消费者应用程序和 。Stability 声称,与其前代产品相比,Stable Diffusion XL 1.0 提供了“更生动”和“更准确”的颜色,更好的对比度、阴影和照明效果。 在接受采访时,Stability AI 的应用机器学习负责人Joe Penna 指出,Stable Diffusion XL 1.0 包含 35亿个参数,可以“在几秒钟内”生成多种长宽比的 100万像素分辨率的完整图像。“参数”是模型从训练数据中学习到的部分,基本上定义了模型在解决问题上的技能水平。 上一代稳定扩散模型稳定扩散 XL 0.9 也可以生成更高分辨率的图像,但需要更多的计算能力。 、

封面图片

网站Stable Code Instruct 3B

网站Stable Code Instruct 3B 网站功能:AI 编程 网站简介:一个由 Stability AI 开发的编程语言模型,它具有 2.7 亿参数,专门针对编程任务进行了预训练。这个模型在多种编程语言上表现出色,包括 Python、JavaScript、Java、C、C++ 和 Go 等。 能够自动生成代码片段 支持在代码中间填充缺失部分。 可以执行数据库查询任务。 能够将代码从一种语言翻译成另一种语言。 不仅可以解释代码,还能创造新的代码结构。 网站链接:点击打开 体验地址:点击查看 频道 群聊 投稿 商务

封面图片

Stability AI 宣布 Stable Diffusion 3

Stability AI 宣布 Stable Diffusion 3 AI 创业公司 Stability AI 宣布其最新一代的文本图像模型 Stable Diffusion 3 开放预览。感兴趣的用户可以申请加入等候名单。Stability AI 称开放预览是为了在正式发布前收集与性能和安全性相关的用户反馈。Stable Diffusion 3 模型的参数规模从 8 亿 到 80 亿不等,其架构组合了 diffusion transformer 和 flow matching,技术报告将在晚些时候公布。来源, 频道:@kejiqu 群组:@kejiquchat

封面图片

Stable Diffusion 的母公司 Stability AI 宣布开源一款全新的大语言模型 StableLM

Stable Diffusion 的母公司 Stability AI 宣布开源一款全新的大语言模型 StableLM 模型的 Alpha 版本有 30 亿和 70 亿参数,并将于后续开放 150 亿和 650 亿的参数模型。 Stability AI 的创始人 Emad Mostaque 自 2020 年从 OpenAI 团队离开后,一直秉承着开源开放的理念,持续推出了多款 AI 开源模型。其中影响力最广的,便有大家所熟知的文本生成图像模型 Stable Diffusion。 本次开源的 StableLM,基础功能跟 GPT 一样,支持生成文本和代码,在未来可以给不少应用提供基础技术支持。在项目中,StableLM 提供了几个基础演示,包括聊天、撰写书信、小说创作、代码编写等功能。来源 (,) 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Stability AI 发布日语 StableLM 模型

Stability AI 发布日语 StableLM 模型 Stability AI 今天发布了日语 StableLM Alpha,将其语言模型产品扩展至国际市场,这是面向日语使用者的性能最佳的公开语言模型。 新的70亿参数通用语言模型旨在为日本用户提供增强的人工智能文本生成能力。Stability AI 表示,在该公司进行的评估中,日语 StableLM 的表现优于其他四种基准日语模型。 新模型发布了两个版本: 和。 基础模型设计用于使用大规模日语和英语训练数据进行一般文本生成。指令模型使用监督微调技术进行额外调整,以遵循用户提示和说明。 此次发布为日本人工智能开发人员和研究人员提供了适合其语言的新生成模型。这也标志着 Stability AI 首次扩展到 Stable Diffusion 等英语语言模型之外。此举标志着随着全球生成式人工智能应用的增加,未来可能会进入其他国际市场。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人