写个如何用 Ollama 在 Mac 本地跑 LLM,并且用在 Obsidian 上处理自己的笔记和内容的小教程。我们开始具体的
写个如何用 Ollama 在 Mac 本地跑 LLM,并且用在 Obsidian 上处理自己的笔记和内容的小教程。我们开始具体的教程: 首先需要去Ollama的网站下载安装包, 下载完之后直接安装然后打开就行。 之后我们可以在他的 Github 上找到所有的命令,选择一个你需要的复制那个命令,找到你电脑里终端这个软件,然后粘贴刚才的命令,然后回车。比如:ollama run mistral Github 地址: 之后就能看到开始有进度条在走了,我们需要等待模型下载完成。 模型下载完成之后就会自动加载,当出现下面的内容的时候就可以开始在终端跟模型对话了。 现在模型已经跑起来了我们需要去 Obsidian 装个Ollama 的插件,进到设置里面,选择第三方插件,浏览社区插件市场,搜索Ollama然后安装就行。 安装之后在设置里就会出现Ollama的插件设置,这里可以自定义操作,他这里预置的都是 Llama2 的命令,我们需要自定义成我们的mistral模型。 很简单就是复制他下面的命令,然后在新增命令这里起个别的名字填上就行,比如Explain selection-mistral,然后模型名称那里写上你现在在运行的模型就行,比如mistral。 然后就是使用了,回到你的文档用快捷键 Commad+P 打开命令栏,搜索刚才的命令名称比如Explain selection-mistral,直接回车,就会看到出现了一个笔的图标,稍微等一会就可以看到输出的内容。 OK 教程到这里就结束了,Ollama的Github 页面还有很多其他的插件和客户端可以玩,可以找感兴趣的试试。
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人