有人发现用2019年 GPT-2 的 1.5B 模型为基础,使用大规模指令集进行微调之后,模型指标竟然超越了2023年的羊驼 7
有人发现用2019年 GPT-2 的 1.5B 模型为基础,使用大规模指令集进行微调之后,模型指标竟然超越了2023年的羊驼 7B 模型。 OpenAI 这是领先了多少。。 恐怖如斯 (同时GPT-2当时国内每家大公司应该都搞了。。 anton: Fine tuned GPT-2 a 1.5B model from 2019 outperforming Alpaca LLaMA a 7B model from 2023...
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人