【分享】首发! 更多的本地大模型可用

【分享】首发! 更多的本地大模型可用 gpt4all启动器的安装教程我就不发了,这位盘丝洞有发。 #【分享】GPT4all<>本地就能用的AI - 有多个模型# 去他那里看看,安装有问题的话问他别问我。[委屈] 既然你安装好了,就可以看下去了。 因为GPT4all启动器中自带的大模型数量较少,自由度较低且能力有限,我们可以导入外部的大模型。(之后我会在评论区更新搜集到的大模型) 大模型链接我放在最后。 1.打开启动器下载大模型的路径。过程如图。 2.然后将下载的bin文件直接拖入。 3.重启启动器。并选择大模型,初始化成功即可使用。 大模型链接:(我的电脑是16gb Intel 的轻薄本,仅供参考) 1.「llama-2-13b-chat」 这个模型比较普通,属于很稳定的版本。中文水平一般。速度较快。文本理解能力优秀。推荐内存16GB以上。推荐下载。 https://www.aliyundrive.com/s/n3ggsvLXTzw 提取码: fhIy 2.「wizard-vicuna-13b-uncensored-superhot-8k」 这个模型很独特。中文水平一般。速度一般。文本理解能力优秀。推荐内存20GB以上。 https://www.aliyundrive.com/s/aMuUmChQmaL 提取码: upZs 3.「wizardlm-13b-v1.1-superhot-8k」 这个模型为清华大学联合训练。中文水平优秀。速度较快。文本理解能力优秀。推荐内存12GB以上。 https://www.aliyundrive.com/s/3tWD1ZZjmBB 提取码: peGd 4.「WizardLM-Uncensored-SuperCOT-StoryTelling-30b-superhot-8k」 这个模型很大,功能很全面。中文水平不知道。速度较慢。文本理解能力很优秀。推荐内存30GB的玩家挑战。 https://www.aliyundrive.com/s/okg2cA9tc9j 提取码: 6ASB 注意:所有模型均可在此启动器下运行。只有速度快慢的差距。这里推荐内存大小为流畅运行时的内存大小。

相关推荐

封面图片

【分享】单独的秋叶启动器,开启你的AICG之路~

【分享】单独的秋叶启动器,开启你的AICG之路~ 只有启动器,完整的整合包可以直接去B站搜索来下载 sd,又称为stable diffusion,是一种以扩散模型来生成图像的程序 最低需求: 显卡:1650 4g 运行内存:16g 融合模型需要虚拟内存 训练模型最低需要6g 只推荐N卡,因为N卡的cuda环境是最适合ai的 链接: https://pan.baidu.com/s/18US_YHmhLEDN71cCKr0Uhw?pwd=6666 提取码: 6666 复制这段内容后打开百度网盘手机App,操作更方便哦 推荐配置 显卡:3060 12G 运行内存:32G 中上配置 显卡:2080ti 22G 如果只使用生产力的程序的话可以直接选择专业卡 专业卡推荐:p40

封面图片

:在本地启动并运行大语言模型 | #工具

:在本地启动并运行大语言模型 | #工具 Ollama 是一款命令行工具,可在 macOS 和 Linux 上本地运行 Llama 2、Code Llama 和其他模型。适用于 macOS 和 Linux,并计划支持 Windows。 Ollama 目前支持近二十多个语言模型系列,每个模型系列都有许多可用的 "tags"。 Tags 是模型的变体,这些模型使用不同的微调方法以不同的规模进行训练,并以不同的级别进行量化,以便在本地良好运行。量化级别越高,模型越精确,但运行速度越慢,所需的内存也越大。

封面图片

【分享】PocketPal手机部署本地Deepseek模型

【分享】PocketPal手机部署本地Deepseek模型 免费开源的手机离线部署模型应用,预置了多种轻量化模型,包括 DeepSeek-R1、Qwen、Llama、Gemma、Phi 等。 【应用名称】:PocketPal 【应用包名】:com.pocketpalai 【应用版本】:1.6.9 【应用大小】:52.0MB 【适用平台】:安卓 / iOS 【官方介绍】:今天分享这款「PocketPal AI」免费开源的手机离线部署模型应用,预置了多种轻量化模型,包括 DeepSeek-R1、Qwen、Llama、Gemma、Phi 等,并支持用户自定义加载 GGUF 格式模型。对比手机安装 Ollama,这款「PocketPal AI」还提供了内存释放机制,当应用切换至后台时自动释放模型占用的内存,返回前台时快速重新加载。 【下载地址】: 【备用地址】 DeepSeek模型下载: 往期精彩 #【分享】海阔视界8.76浏览器海量功能等你探索# #【分享】迅雷浏览器1.30.0.5796简洁无广浏览器# #【蛇年大吉】DeepSeek1.0.7超越ChatGPT# 截图 【使用方法】: 这款「PocketPal AI」应用提供了安卓和 iOS 版本,这里以安卓版为使用介绍,安卓端通过 MLC-LLM 等框架优化 GPU 资源调用,提升推理速度。 安装好后,需要先下载模型,点击 + 添加模型,支持在线下载模型,从 Add from Hugging Face 进行下载。搜索关键词 DeepSeek,此时可能需要魔法,选择你需要的模型进行下载。手机端部署,建议选择 1.5B 或者 7B。当然也可以自己下载导入。等待模型下载完毕后,在模型管理里面,点击 Load 启动。然后就可以使用离线版本 DeepSeek 了。聊天生成设置功能方面,可以对上下文设置,用户可设置生成内容的最大长度,默认建议调整为 4096 或 8000,支持选择不同预置模板,实时性能指标等。如果网络问题下载不了 DeepSeek 模型,那么也可以通过本地加载 GGUF 格式模型。点击 + 本地加载模型(Add Local Model)- 载入你下载好的模型 - 模型管理 - 点击 Load 启动。 拿走回复一句话,可以是吱吱吱,祝福语等,好用记得回来反馈哈 拿走回复一句话,可以是吱吱吱,祝福语等,好用记得回来反馈哈 拿走回复一句话,可以是吱吱吱,祝福语等,好用记得回来反馈哈 免责声明: 本人所发布的一切学习资料仅限用于学习目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。 本社区信息来自网络,版权争议与本社区无关。 您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。 如果您喜欢该资源,请支持购买正版,得到更好的正版服务。 如有侵权请与我们联系处理。

封面图片

计图大模型推理库 - 笔记本没有显卡也能跑大模型

计图大模型推理库 - 笔记本没有显卡也能跑大模型 本大模型推理库JittorLLMs有以下几个特点: 1. 成本低:相比同类框架,本库可大幅降低硬件配置要求(减少80%),没有显卡,2G内存就能跑大模型,人人皆可在普通机器上,实现大模型本地部署;是目前已知的部署成本最低的大模型库; 2. 支持广:目前支持了4种大模型:ChatGLM大模型;鹏程盘古大模型;BlinkDL的ChatRWKV;国外Meta的LLaMA大模型;后续还将支持MOSS等国内优秀的大模型,统一运行环境配置,降低大模型用户的使用门槛。 3. 可移植:用户不需要修改任何代码,只需要安装Jittor版torch(JTorch),即可实现模型的迁移,以便于适配各类异构计算设备和环境。 4. 速度快:大模型加载速度慢,Jittor框架通过零拷贝技术,大模型加载开销降低40%,同时,通过元算子自动编译优化,计算性能相比同类框架提升20%以上。 |

封面图片

【分享】Llama 3.1 最强开源大模型!一键本地部署!开源!

【分享】Llama 3.1 最强开源大模型!一键本地部署!开源! 支持 Windows、Mac,可离线使用!最强AI本地工具 【资源名称】:LIama 【资源版本】:v2024.3.1 【资源大小】:300MB 【测试机型】:WindowsMAClinux 【资源介绍】: Llama 3.1 是由 Meta 开发的一款大型语言模型,它被设计用于处理各种任务和应用场景。下面是一些关于 Llama 3.1 的基本信息: 概述 Llama 3.1 是一款基于 transformer 架构的预训练语言模型,旨在捕捉到人类语言中复杂的语义、语法和上下文关系。 特点 大规模: Llama 3.1 的参数数量超过了 100 亿,这使得它能够处理非常复杂且抽象的问题。 多任务能力: 这款模型可以用于各种任务,包括但不限于问答、生成文本、翻译等。 自适应性强: Llama 3.1 能够根据上下文和任务调整其行为,以实现更好的效果。 优势 高效率: 利用 GPU 和 TPU 等硬件加速器,Llama 3.1 可以在短时间内完成复杂计算。 强大生成能力: 这款模型能够根据上下文产生非常自然和连贯的文本。 应用场景 问答系统: Llama 3.1 可用于构建高效、准确且自适应的问答系统,适合于各种行业和领域。 生成文本工具: 这款模型可以帮助开发者创建能够根据上下文产生自然语言的应用程序。 【下载链接】 评论区放教程 链接:  https://caiyun.139.com/m/i?185CDlDLQzYvf 拿走吱一声

封面图片

- 笔记本没有显卡也能跑大模型

- 笔记本没有显卡也能跑大模型 推理库JittorLLMs有以下几个特点: 成本低:相比同类框架,本库可大幅降低硬件配置要求(减少80%),没有显卡,2G内存就能跑大模型,人人皆可在普通机器上,实现大模型本地部署;是目前已知的部署成本最低的大模型库; 支持广:目前支持了4种大模型:ChatGLM大模型;华为盘古大模型;BlinkDL的ChatRWKV;国外Meta的LLaMA大模型;后续还将支持MOSS等国内优秀的大模型,统一运行环境配置,降低大模型用户的使用门槛。 可移植:用户不需要修改任何代码,只需要安装Jittor版torch(JTorch),即可实现模型的迁移,以便于适配各类异构计算设备和环境。 速度快:大模型加载速度慢,Jittor框架通过零拷贝技术,大模型加载开销降低40%,同时,通过元算子自动编译优化,计算性能相比同类框架提升20%以上。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人