MiniMax 将发布国内首个 MoE 大模型
MiniMax将发布国内首个MoE大模型中国大模型创业企业MiniMax副总裁魏伟在数字中国论坛成立大会暨数字化发展论坛的一场分论坛上透露称,将于近期发布国内首个基于MoE(Mixture-of-Experts)架构的大模型,对标OpenAIGPT-4。MoE全称专家混合,是一种深度学习技术,它通过将多个模型直接结合在一起,以加快模型训练的速度,获得更好的预测性能。近期,由来自谷歌、UC伯克利、MIT等机构的研究者联合发表的一篇论文证实,MoE与指令调优的结合能够让大型语言模型的性能大幅提升。(第一财经)
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人