Mistral AI 开源 Mistral 8x22B Moe 大模型
MistralAI开源Mistral8x22BMoe大模型MistralAI公司刚刚再次用磁力链接开源了一款大模型Mistral8x22B,模型文件大小为281.24GB。从模型的名字来看,Mistral8x22B是去年开源的「mixtral-8x7b」的超级大杯版本,参数规模增长三倍不止,由8个220亿参数规模(8×22B)的专家网络组成。磁力链接地址:magnet:?xt=urn:btih:9238b09245d0d8cd915be09927769d5f7584c1c9&dn=mixtral-8x22b&tr=udp%3A%2F%2Fopen.demonii.com%3A1337%2Fannounce&tr=http%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce——、
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人