Mistral 宣布最新开放大模型 Mixtral 8x22B
Mistral宣布最新开放大模型Mixtral8x22B法国AI创业公司Mistral宣布了其最新的开放大模型,公布的测试显示它是目前最先进的开放模型。Mistral称8x22B是真正开放的模型,使用Apache2.0许可证,允许任何人不受限制的使用。它是一种稀疏Mixture-of-Experts(SMoE)模型,有1410亿参数,但活跃参数仅为390亿,在其规模下提供了无与伦比的成本效率。Mixtral8x22B的优点包括:精通英语、法语、意大利语、德语和西班牙语,具有强大的数学和编码能力,原生能函数调用,64K令牌上下文窗口。来源,频道:@kejiqu群组:@kejiquchat
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人