【分享】首发! 更多的本地大模型可用
【分享】首发! 更多的本地大模型可用 gpt4all启动器的安装教程我就不发了,这位盘丝洞有发。 #【分享】GPT4all<>本地就能用的AI - 有多个模型# 去他那里看看,安装有问题的话问他别问我。[委屈] 既然你安装好了,就可以看下去了。 因为GPT4all启动器中自带的大模型数量较少,自由度较低且能力有限,我们可以导入外部的大模型。(之后我会在评论区更新搜集到的大模型) 大模型链接我放在最后。 1.打开启动器下载大模型的路径。过程如图。 2.然后将下载的bin文件直接拖入。 3.重启启动器。并选择大模型,初始化成功即可使用。 大模型链接:(我的电脑是16gb Intel 的轻薄本,仅供参考) 1.「llama-2-13b-chat」 这个模型比较普通,属于很稳定的版本。中文水平一般。速度较快。文本理解能力优秀。推荐内存16GB以上。推荐下载。 https://www.aliyundrive.com/s/n3ggsvLXTzw 提取码: fhIy 2.「wizard-vicuna-13b-uncensored-superhot-8k」 这个模型很独特。中文水平一般。速度一般。文本理解能力优秀。推荐内存20GB以上。 https://www.aliyundrive.com/s/aMuUmChQmaL 提取码: upZs 3.「wizardlm-13b-v1.1-superhot-8k」 这个模型为清华大学联合训练。中文水平优秀。速度较快。文本理解能力优秀。推荐内存12GB以上。 https://www.aliyundrive.com/s/3tWD1ZZjmBB 提取码: peGd 4.「WizardLM-Uncensored-SuperCOT-StoryTelling-30b-superhot-8k」 这个模型很大,功能很全面。中文水平不知道。速度较慢。文本理解能力很优秀。推荐内存30GB的玩家挑战。 https://www.aliyundrive.com/s/okg2cA9tc9j 提取码: 6ASB 注意:所有模型均可在此启动器下运行。只有速度快慢的差距。这里推荐内存大小为流畅运行时的内存大小。
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人