RT 你们快速测了一下LLaMa,用的4B的模型,文件4个G。本地跑速度极快(3060显卡),m2的mac也极快(我没测,只有一
RT 你们 快速测了一下LLaMa,用的4B的模型,文件4个G。本地跑速度极快(3060显卡),m2的mac也极快(我没测,只有一台乞丐版m1)。水平比GPT3差一点,明天测一下13B的那个数据。 这个的意义在于能够离网本地跑,如果能把私人的数据向量化喂给它,做一个个人信息资料和信息助手,应该前景可以。
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人