Mistral 正式发布 Mistral Large,在基准测试中仅次于GPT-4,超过其他所有模型。

Mistral 正式发布 Mistral Large,在基准测试中仅次于GPT-4,超过其他所有模型。 Mistral Large具有新的功能和优势: 它在英语、法语、西班牙语、德语和意大利语方面拥有母语般流利的能力,并对语法和文化背景有细致的理解。 其32K令牌的上下文窗口允许从大型文档中精确地寻找信息。 它精确的指令跟随能够让开发者设计他们的管理政策 - 我们用它来建立 le Chat 的系统级管理。 它本身就能够进行函数调用。这一点,再加上在la Plateforme上实现的受限输出模式,使得应用程序开发和技术栈现代化能够大规模进行。 支持在La Plateforme、Azure和私有部署。 了解更多:

相关推荐

封面图片

Mistral Large 大语言模型发布

Mistral Large 大语言模型发布 Mistral Large 是 Mistral 新的尖端文本生成模型。它达到了顶级的推理能力,可用于复杂的多语言推理任务,包括文本理解、转换和代码生成。Mistral Large 在常用基准测试中取得了优异的成绩,使其成为世界上排名第二的可通过 API 普遍使用的模型(仅次于 GPT-4)。该模型也可以通过 Azure 直接调用。 Mistral Large 具有以下特点 - 支持英语、法语、西班牙语、德语和意大利语。 - 32K 标记上下文窗口。 - 精确的指令遵循使开发人员能够设计他们的审核策略。 - 原生支持函数调用。 Mistral 还发布了一个新的优化模型 Mistral Small,针对延迟和成本进行了优化,其性能优于 Mixtral 8x7B,并且延迟较低,这使其成为开源型号和旗舰型号之间的中间解决方案。

封面图片

微软入股、数值碾压Meta AI新贵Mistral发布旗舰大模型

微软入股、数值碾压Meta AI新贵Mistral发布旗舰大模型 Mistral AI正式成立于2023年5月。在去年这个时候,创办这家公司的三个法国年轻人还分别在谷歌DeepMind、Facebook上班。到去年12月,随着英伟达、赛富时以及一众华尔街资本挥舞支票,赶忙参与公司价值超4.5亿欧元(接近4.9亿美元)的融资,Mistral AI的市值已然超过20亿美元。(Mistral AI的三位创始人Guillaume Lample, Arthur Mensch, Timothée Lacroix都只有30多岁)发布最新大模型&首个聊天机器人Mistral AI周一宣布,正式推出最新旗舰模型Mistral Large。公司声称该模型具有“顶级的推理能力”,能用于处理复杂的多语言推理任务,包括文本理解、转换和代码生成。在AI理解能力测试基准MMLU的对比中,Mistral Large的得分仅次于GPT-4,略好于Anthropic开发的Claude 2。至于谷歌的Gemini Pro以及Meta的LLaMA 2 70B模型,则被甩开了一个身位。(来源:Mistral AI)据悉,这个模型拥有3.2万tokens的上下文窗口。按照一个token约等于0.75个英文单词的惯用算法,Mistral Large能够一次性从接近2.4万个英文单词的文档中精确提取信息。公司介绍称,该模型对英语、法语、西班牙语、德语和意大利语具有母语级流利程度,并对语法和文化背景有细致的理解。不过与一众大模型一样,实测下来中文也是能用的(后面有测试案例)。当然,最重要的是Mistral AI的开源属性除了使用云服务部署外,还能直接下载部署到本地。与封闭AI模型的龙头OpenAI不同,Mistral AI的大模型可以在“抱抱脸”等代码平台上下载,不过目前还没看到Large模型的文档。(来源:公司官网)公司也在周一发布首个聊天机器人LE CHAT,可以选用刚刚发布的Large模型,以及对延迟、成本进行优化的Mistral Small,还有一个名为Next的下一代原型模型。总而言之,提供了一个试用的窗口。从短暂的上手实测来看,这个模型哪怕使用中文,回答简单的推理题完全没有问题。(来源:LE CHAT)对于美国历史和法国历史,这个模型也能答得上来。不过在追加测试中,这个模型对中国文化历史的了解可以说是....惨不忍睹,不过Mistral本身也没说这个模型懂中国历史。这也是国外开源AI模型存在的通病。(来源:LE CHAT、文心一言)微软收购公司部分股权同样在周一,Mistral AI与微软宣布达成了一项新的合作伙伴关系。从公告上来看,双方的合作主要包含三个方面:1、微软向Mistral AI提供开发和运营模型所需的算力;2、Mistral AI的大模型上架微软云服务,供全球用户部署;3、双方将探索合作,为特定客户制作特定模型。除了提供算力和云服务客户外,这份合作协议也使得微软持有Mistral AI“一小部分股权”。值得一提的是,Mistral这个法文单词的原意指的是“法国吹来的强风”,公司创立的愿景是搞AI其实不需要那么多钱,许多公司白白浪费了非常多的资金。创始人兼首席执行官Arthur Mensch直言,公司要做AI世界里资本效率最高的。Mensch透露,周一发布的Large模型,整个开发成本低于2000万欧元。作为对比,奥尔特曼去年提到过GPT-4的开发成本可能要超过1亿美元。对于微软而言,不管是代表封闭生态的OpenAI,还是开源社区的Mistral或Meta跑赢,公司都将是AI赛道的大赢家。这三家的AI模型都已经上架Azure的云服务,现在美股“股王”还持有前两家公司的股权。 ... PC版: 手机版:

封面图片

微软钦点OpenAI备胎:GPT-4级大模型上线即挤爆 成本仅2200万美元

微软钦点OpenAI备胎:GPT-4级大模型上线即挤爆 成本仅2200万美元 同时推出在线聊天机器人平台Le Chat,即使有了微软Azure算力资源,服务器还是被挤爆了。由于其API比GPT-4最新版便宜20%,已经吸引了部分创业者去尝试。根据HyperWriteAI创始人测试,Mistral Large跑分看起来只比排第三的Claude 2好一点,但是实测效果还要好更更更多。不过也有开发者认为便宜只是暂时的,非常确信GPT-4也有降价空间。总之,这个价格战真的打起来就更妙了。网页版开放,但服务器被挤爆Mistral Large属于他家商用系列的大杯,不开源,也不免费。主要亮点如下:32k上下文窗口支持多语言,代码能力强,擅长推理原生支持函数调用和输出JSON格式模块化的审查控制机制在多项推理和知识能力测试中,成绩仅次于GPT-4除此之外,并无更多消息透露,从之前小杯、中杯的情况看,技术报告可能也不会有了。不过创始人Arthur Mensch透露,Mistral Large训练成本不到2200万美元,相比之下GPT-4可能超过1亿美元。API价格比gpt-4-turbo便宜20%,输出一百万token要24美元,约173人民币元。gpt-4-turbo同样输出一百万token要30美元,约216人民币。两者输入token价格都是输出tokend的1/3。除了通过API访问之外,这次Mistral也开放了相当于ChatGPT的网页版Le Chat聊天助手。这里还有一个小彩蛋。Le Chat在法语里相当于英语The Cat,在原本的M字Logo下加上两个点代表眼睛,这样空白处就成了猫耳朵。切换到夜间模式,还会变成Le Chat Noir,也就是The Black Cat。很可惜,现在再注册已经需要排队了。如果现在想体验Mistral Large, 还可以去Poe.com或大模型竞技场LMSYS Chatbot Arena。不过由于太火了,目前全平台无法响应……在最新Chatbot Arena排行榜上,Mistral中杯版已经与GPT-4早期版本差距不大,大杯版的表现也值得期待。微软不再独宠OpenAI微软CEO纳德拉宣布,已与Mistral AI建立多年合作伙伴关系。微软将持有Mistral AI少量股份,并提供算力基础设施用于w训练和推理部署大模型。新模型优先通过微软Azure云提供给客户,暂不登录亚马逊Google云等其他云平台。Mistral也成了微软Azure上除了OpenAI以外,第二个商业闭源模型供应商。有网友开玩笑说,早看出来他们两家有点子关系,Mistral AI的Logo一看就是用Word艺术字画的。 ... PC版: 手机版:

封面图片

32K上下文,Mistral 7B v0.2基模型突然开源了

32K上下文,Mistral 7B v0.2基模型突然开源了 这次开源的 Mistral 7B v0.2 Base Model ,是 Mistral-7B-Instruct-v0.2 背后的原始预训练模型,后者属于该公司的“Mistral Tiny”系列。此次更新主要包括三个方面:将 8K 上下文提到了 32K;Rope Theta = 1e6;取消滑动窗口。下载链接:…更新之后的性能对比是这样的:场外观众迅速跟进。有人评价说:“Mistral 7B 已经是同尺寸级别中最好的模型,这次改进是一个巨大的进步。 我将尽快在这个模型上重新训练当前的许多微调。”Mistral AI 的第一个 7B 模型发布于 2023 年 9 月,在多个基准测试中实现了优于 Llama 2 13B 的好成绩,让 Mistral AI 一下子就打出了知名度。这也导致目前很多开源大模型都已不再对标 Llama 2,而是将 Mistral AI 旗下的各系列模型作为直接竞争对手。而 Mistral 7B v0.2 Base Model 对应的指令调优版本 Mistral-7B-Instruct-v0.2 在 2023 年 12 月就已开放测试,据官方博客介绍,该模型仅适用于英语,在 MT-Bench 上能够获得 7.6 分的成绩,逊于 GPT-3.5。此次开放基础模型之后,开发者们就可以根据自己的需求对这个“当前最好的 7B 模型”进行微调了。不过,7B 模型只能算是 Mistral AI 众多惊艳成果中的一项。这家公司的长远目标是对标 OpenAI。上个月底,Mistral AI 正式发布了“旗舰级”大模型 Mistral Large。与此前的一系列模型不同,这一版本性能更强,体量更大,直接对标 OpenAI 的 GPT-4。随着 Mistral Large 上线,Mistral AI 推出了名为 Le Chat 的聊天助手,也实现了对标 ChatGPT。而新模型的发布,也伴随着公司大方向的一次转型。人们发现, Mistral Large 并不是一个开源大模型 有跑分、 API 和应用,就是不像往常一样有 GitHub 或是下载链接。与 Mistral Large 发布同时发生的,是 Mistral AI 与微软达成了长期合作的协议,不仅会将 Mistral Large 引入 Azure,还收获了微软 1600 万美元的投资。Mistral AI 对路透社表示,作为交易的一部分,微软将持有该公司少数股权,但未透露细节。未来,二者的合作主要集中在三个核心领域:超算基础设施:微软将通过 Azure AI 超级计算基础设施支持 Mistral AI ,为 Mistral AI 旗舰模型的 AI 训练和推理工作负载提供一流的性能和规模;市场推广:微软和 Mistral AI 将通过 Azure AI Studio 和 Azure 机器学习模型目录中的模型即服务(MaaS)向客户提供 Mistral AI 的高级模型。除 OpenAI 模型外,模型目录还提供了多种开源和商业模型。人工智能研发:微软和 Mistral AI 将探索为特定客户训练特定目的模型的合作。当被问及公司是否正在改变其开源商业模式时,Mistral AI 联合创始人 Arthur Mensch 在采访中表示:“我们从开源模式开始,任何人都可以免费部署,因为这是广泛分发它们并创造需求的一种方式。但从一开始,我们就提供了一种具有优化模型的商业模式,这让使该公司能够为模型开发所需的昂贵研究提供资金。”参考链接: 2024)即将于 2024 年 3 月 30 日至 31 日在上海徐汇西岸美高梅酒店举行。本次大会由中国人工智能学会(CAAI)主办,CAAI 具身智能专委会(筹)、同济大学、中国科学院计算技术研究所、上海交通大学、中国经济信息社上海总部联合承办,全球高校人工智能学术联盟协办,机器之心独家 AI 媒体合作。盛会将为具身智能领域的学术与产业界搭建一个交流合作的顶级平台,以广泛促进学术分享与交流、产业合作与互动,推动产学研联动发展,提升我国具身智能技术的研究与应用水平。 ... PC版: 手机版:

封面图片

Mistral AI发布了新的开源模型。该模型以39B活跃参数实现141B参数规模,极大提升了模型规模与成本效率。

Mistral AI发布了新的开源模型。该模型以39B活跃参数实现141B参数规模,极大提升了模型规模与成本效率。 Mixtral 8x22B支持英语、法语、意大利语、德语和西班牙语,并具有强大的数学和编程能力。其支持函数调用,可大规模实现应用开发和技术栈现代化。 Mistral AI坚信开源的力量,Mixtral 8x22B以最宽松的Apache 2.0许可证发布。 Mistral AIModels追求卓越的成本效率。Mixtral 8x22B相较同规模模型,提供最佳的性能价格比。其稀疏激活可提升速度。 Mixtral 8x22B在推理、知识、多语言、编程、数学等多个基准测试上,表现优于其他开源模型。后续会发布指导版本,数学表现更佳。

封面图片

大模型实时打《街霸》捉对PK GPT-4居然不敌3.5

大模型实时打《街霸》捉对PK GPT-4居然不敌3.5 这种新玩法吸引了不少网友来围观。由于项目是在Mistral举办的黑客马拉松活动上开发,所以开发者只使用OpenAI和Mistral系列模型进行了测试。排名结果也很出人意料。经过342场对战后,根据棋类、电竞常用的ELO算法得出的排行榜如下:最新版gpt-3.5-turbo成绩断崖式领先,Mistral小杯排第二。更小的模型超过了更大的如GPT-4和Mistral中杯大杯。开发者认为,这种新型基准测试评估的是大模型理解环境并根据特定情况采取行动的能力。与传统的强化学习也有所不同,强化学习模型相当于根据奖励函数“盲目地”采取不同行动,但大模型完全了解自身处境并有目的的采取行动。考验AI的动态决策力AI想在格斗游戏里称王,需要哪些硬实力呢?开发者给出几个标准:反应要快:格斗游戏讲究实时操作,犹豫就是败北脑子要灵:高手应该预判对手几十步,未雨绸缪思路要野:常规套路人人会,出奇制胜才是制胜法宝适者生存:从失败中吸取教训并调整策略久经考验:一局定胜负不说明问题,真正的高手能保持稳定的胜率具体玩法如下:每个大模型控制一个游戏角色,程序向大模型发送屏幕画面的文本描述,大模型根据双方血量、怒气值、位置、上一个动作、对手的上一个动作等信息做出最优决策。第一个挑战是定位人物在场景中的位置,通过检测像素颜色来判断。由于目前大模型数学能力还都不太行,直接发送坐标值效果不好,最终选择了将位置信息改写成自然语言描述。所以对于AI来说,实际上他们在玩的是一种奇怪的文字冒险游戏。再把大模型生成的动作招式映射成按键组合,就能发送给游戏模拟器执行了。在试验中发现,大模型可以学会复杂的行为,比如仅在对手靠近时才攻击,可能的情况下使用特殊招式,以及通过跳跃来拉开距离。从结果上可以看出,与其他测试方法不同,在这个规则下似乎更大的模型表现越差。开发者对此解释到:目标是评估大模型的实时决策能力,规则上允许AI提前生成3-5个动作,更大的模型能提前生成更多的动作,但也需要更长的时间。在推理上的延迟差距是有意保留的,但后续或许会加入其他选项。后续也有用户提交了流行开源模型的对战结果,在7B及以下量级的战斗中,还是7B模型排名更靠前。从这个角度看,这种新型基准测试为评估大模型的实用性提供了新思路。现实世界的应用往往比聊天机器人复杂得多,需要模型具备快速理解、动态规划的本领。正如开发者所说,想要赢,要在速度和精度之间做好权衡。GitHub项目: ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人