不是所有声称开源的 AI 模型是真的开源

不是所有声称开源的 AI 模型是真的开源 AI 研究人员表示,Meta 和微软等科技巨头称其 AI 模型是开源模型,但它们并没有披露模型底层技术的重要信息。荷兰 Radboud 大学语言科学家 Mark Dingemanse 表示,大公司正从宣称开源模型上受益,但与此同时试图尽可能少的披露信息。这种做法被称为“open-washing”。Dingemanse 指出,相比下资源更少的小型 AI 企业则表现更令人称赞。他和同事创建了一个最开放和最不开放模型排行榜。他们评估了 40 个声称开源或开放的大模型,根据代码和训练数据的可用性、文档以及模型易访问性等 14 个参数制定了排行榜。研究人员发现, Meta 的 Llama 以及 Google DeepMind 的 Gemma 虽然自称开源或开放,但实际上只是开放权重,外部研究人员可以访问和使用预训练模型,但无法检查或定制模型,也不知道模型如何针对特定任务进行微调。根据他们的排行榜,BigScience 的 BloomZ 是最开源开放的模型,其次是 Allen Institute for AI 的 OLMo,Mistral AI 的 Mistral 7B-Instruct。 via Solidot

相关推荐

封面图片

AI 大事记:Apple 带来开源模型的运行软件框架MLX

AI 大事记:Apple 带来开源模型的运行软件框架MLX 今天由Apple 研究团队发布了MLX,一个高效的机器学习框架,专为苹果芯片(即M系列)设计。视频为 MLX 实现的 Llama v1 7B 模型,在 M2 Ultra 上运行。 参考要点 - Apple AI 研究科学家 Awni Hannum 提供了演示视频, MLX 有各种示例,包括支持训练Transformer大模型或使用 LoRA 进行微调;使用 Mistral 生成文本;利用Stable Diffusion 生成图像;使用 Whisper 进行语音识别。 - MLX 是 Apple 芯片上用于机器学习的阵列框架,由 Apple 机器学习研究团队提供。 - Jim Fan 评价为,这可能是苹果公司迄今为止在开源人工智能方面的最大举措。该版本在设计深度学习受众熟悉的 API 方面做得非常出色,并在大多数人关心的开放源码软件模型上展示了极简的示例:Llama、LoRA、Stable Diffusion 和 Whisper。 MLX Github地址: 文档齐全、独立的示例库: Invalid media:

封面图片

Mistral AI 开源 Mistral 8x22B Moe 大模型

Mistral AI 开源 Mistral 8x22B Moe 大模型 Mistral AI 公司刚刚再次用磁力链接开源了一款大模型 Mistral 8x22B,模型文件大小为 281.24 GB。从模型的名字来看,Mistral 8x22B 是去年开源的「mixtral-8x7b」的超级大杯版本,参数规模增长三倍不止,由 8 个 220 亿参数规模 (8×22B) 的专家网络组成。 磁力链接地址:magnet:?xt=urn:btih:9238b09245d0d8cd915be09927769d5f7584c1c9&dn=mixtral-8x22b&tr=udp%3A%2F%2Fopen.demonii.com%3A1337%2Fannounce&tr=http%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce 、

封面图片

32K上下文,Mistral 7B v0.2基模型突然开源了

32K上下文,Mistral 7B v0.2基模型突然开源了 这次开源的 Mistral 7B v0.2 Base Model ,是 Mistral-7B-Instruct-v0.2 背后的原始预训练模型,后者属于该公司的“Mistral Tiny”系列。此次更新主要包括三个方面:将 8K 上下文提到了 32K;Rope Theta = 1e6;取消滑动窗口。下载链接:…更新之后的性能对比是这样的:场外观众迅速跟进。有人评价说:“Mistral 7B 已经是同尺寸级别中最好的模型,这次改进是一个巨大的进步。 我将尽快在这个模型上重新训练当前的许多微调。”Mistral AI 的第一个 7B 模型发布于 2023 年 9 月,在多个基准测试中实现了优于 Llama 2 13B 的好成绩,让 Mistral AI 一下子就打出了知名度。这也导致目前很多开源大模型都已不再对标 Llama 2,而是将 Mistral AI 旗下的各系列模型作为直接竞争对手。而 Mistral 7B v0.2 Base Model 对应的指令调优版本 Mistral-7B-Instruct-v0.2 在 2023 年 12 月就已开放测试,据官方博客介绍,该模型仅适用于英语,在 MT-Bench 上能够获得 7.6 分的成绩,逊于 GPT-3.5。此次开放基础模型之后,开发者们就可以根据自己的需求对这个“当前最好的 7B 模型”进行微调了。不过,7B 模型只能算是 Mistral AI 众多惊艳成果中的一项。这家公司的长远目标是对标 OpenAI。上个月底,Mistral AI 正式发布了“旗舰级”大模型 Mistral Large。与此前的一系列模型不同,这一版本性能更强,体量更大,直接对标 OpenAI 的 GPT-4。随着 Mistral Large 上线,Mistral AI 推出了名为 Le Chat 的聊天助手,也实现了对标 ChatGPT。而新模型的发布,也伴随着公司大方向的一次转型。人们发现, Mistral Large 并不是一个开源大模型 有跑分、 API 和应用,就是不像往常一样有 GitHub 或是下载链接。与 Mistral Large 发布同时发生的,是 Mistral AI 与微软达成了长期合作的协议,不仅会将 Mistral Large 引入 Azure,还收获了微软 1600 万美元的投资。Mistral AI 对路透社表示,作为交易的一部分,微软将持有该公司少数股权,但未透露细节。未来,二者的合作主要集中在三个核心领域:超算基础设施:微软将通过 Azure AI 超级计算基础设施支持 Mistral AI ,为 Mistral AI 旗舰模型的 AI 训练和推理工作负载提供一流的性能和规模;市场推广:微软和 Mistral AI 将通过 Azure AI Studio 和 Azure 机器学习模型目录中的模型即服务(MaaS)向客户提供 Mistral AI 的高级模型。除 OpenAI 模型外,模型目录还提供了多种开源和商业模型。人工智能研发:微软和 Mistral AI 将探索为特定客户训练特定目的模型的合作。当被问及公司是否正在改变其开源商业模式时,Mistral AI 联合创始人 Arthur Mensch 在采访中表示:“我们从开源模式开始,任何人都可以免费部署,因为这是广泛分发它们并创造需求的一种方式。但从一开始,我们就提供了一种具有优化模型的商业模式,这让使该公司能够为模型开发所需的昂贵研究提供资金。”参考链接: 2024)即将于 2024 年 3 月 30 日至 31 日在上海徐汇西岸美高梅酒店举行。本次大会由中国人工智能学会(CAAI)主办,CAAI 具身智能专委会(筹)、同济大学、中国科学院计算技术研究所、上海交通大学、中国经济信息社上海总部联合承办,全球高校人工智能学术联盟协办,机器之心独家 AI 媒体合作。盛会将为具身智能领域的学术与产业界搭建一个交流合作的顶级平台,以广泛促进学术分享与交流、产业合作与互动,推动产学研联动发展,提升我国具身智能技术的研究与应用水平。 ... PC版: 手机版:

封面图片

Scale AI发布首个大语言模型排行榜 对特定领域的AI模型性能进行排名

Scale AI发布首个大语言模型排行榜 对特定领域的AI模型性能进行排名 SEAL 排行榜显示,OpenAI 的 GPT 系列 LLM 在其用于人工智能模型排名的四个初始领域中的三个领域排名第一,Anthropic PBC 广受欢迎的 Claude 3 Opus 在第四个领域排名第一。Google LLC 的 Gemini 模型也表现出色,在其中几个领域与 GPT 模型并列第一。Scale AI表示,它之所以创建SEAL排行榜,是因为现在有数以百计的LLM可供公司使用,而人工智能的表现却缺乏透明度。这些排行榜由 Scale AI 的安全、评估和对齐实验室(Safety, Evaluations, and Alignment Lab)开发,并声称通过拒绝透露其用于评估 LLM 的提示的性质来保持中立性和完整性。该公司指出,虽然也有其他对LLM进行排名的努力,如MLCommons的基准和斯坦福HAI的透明度指数,但其在人工智能训练数据方面的专业知识意味着它在克服人工智能研究人员所面临的一些挑战方面具有独特的优势。例如,Scale AI指出,MLCommon的基准是公开的,因此公司可以对其模型进行专门训练,以准确响应他们使用的提示。SEAL 开发了私有的评估数据集,以保持其排名的完整性,据说其测试是由经过验证的领域专家创建的。此外,所使用的提示和给出的排名都经过仔细评估,以确保其可信度,同时通过公布所使用评估方法的明确解释来确保透明度。Scale AI 表示,在 Scale Coding 领域,每个模型都要在随机选择的提示上与评估中的其他模型进行至少 50 次比较,以确保结果的准确性。编码评估试图评估每个模型生成计算机代码的能力,排行榜显示,OpenAI 的 GPT-4 Turbo Preview 和 GPT-4o 模型与Google的 Gemini 1.5 Pro(I/O 后)并列第一。之所以将它们并列第一,是因为 Scale AI 只声称其评估分数的置信度为 95%,而且前三名之间的差距很小。尽管如此,GPT-4 Turbo Preview 似乎略胜一筹,获得了 1155 分,GPT-4o 以 1144 分位居第二,Gemini 1.5 Pro(Post I/O)获得了 1112 分。在多语言领域,GPT-4o 和 Gemini 1.5 Pro(Post I/O)并列第一,得分分别为 1139 分和 1129 分,GPT-4 Turbo 和 Gemini Pro 1.5(Pre I/O)紧随其后,并列第三。GPT-4o 在"指令跟踪"领域也名列前茅,获得 88.57 分,GPT-4 Turbo Preview 以 87.64 分名列第二。结果表明,Google在这一领域仍需努力,因为 OpenAI 最接近的竞争对手是 Meta Platforms 公司的开源 Llama 3 70b Instruct(得分 85.55)和 Mistral 公司的 Mistral Large Latest LLM(得分 85.34)。最后,Scale AI 测试了 LLM 的数学能力。事实证明,Anthropic 的 Claude 3 Opus 以 95.19 的高分拔得头筹,无可争议地获得了第一名,超过了 95.10 的 GPT-4 Turbo Preview 和 94.85 的 GPT-4o。这些比较很有意思,但似乎还不能说明全部问题,因为有很多备受瞩目的龙8国际娱乐城似乎没有被纳入评估范围。例如,AI21实验室公司的Jurassic和Jamba以及Cohere公司的Aya和Command LLM在所有四项评估中都明显缺席,埃隆-马斯克(Elon Musk)的生成式人工智能初创公司xAI Corp.建立的Grok模型也是如此。好消息是,Scale AI 可能会解决LLM排行榜不完整的问题。该公司表示,它打算每年多次更新排行榜,以确保其与时俱进。它将在"可用时"添加新的前沿模型。此外,它还计划在排行榜上添加新的领域,力争成为最值得信赖的大模型第三方评估机构。 ... PC版: 手机版:

封面图片

Mistral AI发布了新的开源模型。该模型以39B活跃参数实现141B参数规模,极大提升了模型规模与成本效率。

Mistral AI发布了新的开源模型。该模型以39B活跃参数实现141B参数规模,极大提升了模型规模与成本效率。 Mixtral 8x22B支持英语、法语、意大利语、德语和西班牙语,并具有强大的数学和编程能力。其支持函数调用,可大规模实现应用开发和技术栈现代化。 Mistral AI坚信开源的力量,Mixtral 8x22B以最宽松的Apache 2.0许可证发布。 Mistral AIModels追求卓越的成本效率。Mixtral 8x22B相较同规模模型,提供最佳的性能价格比。其稀疏激活可提升速度。 Mixtral 8x22B在推理、知识、多语言、编程、数学等多个基准测试上,表现优于其他开源模型。后续会发布指导版本,数学表现更佳。

封面图片

开源 AI、大模型和许可证

开源 AI、大模型和许可证 在前不久举行的 FOSDEM 2024 会议上,有多场演讲探讨了开源 AI、许可证中的伦理限制和开源数据集。训练大模型需要投入大量的算力和资金,企业如 OpenAI 既没有公开模型也没有发布数据集,但这没有阻止各类企业和组织发布开源大模型,这些开源模型使用了不同的许可证,有着不同的限制。以 Meta 的 Llama 2 大模型为例,它禁止将大模型用于暴力或恐怖活动,以及“任何其他犯罪活动”。欧洲自由软件基金会(FSFE)的项目经理 Niharika Singhal 认为,为了维护 AI 的“开放性”,AI 模型的许可证必须与自由软件许可证有互操作性。许可证不能代替监管,此类对道德的限制不应该包含在许可证中,这些属于监管范围。开源促进会(Open Source Initiative)正致力于对开源 AI 进行定义,它认为如果一个模型被归类为开源,它需要具有开源软件所拥有的四个基本自由使用、学习、分享及改善之自由。开源促进会计划在今年 10 月底发布开源 AI 定义的 1.0 版本。来源 , 频道:@kejiqu 群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人