写个如何用 Ollama 在 Mac 本地跑 LLM,并且用在 Obsidian 上处理自己的笔记和内容的小教程。我们开始具体的

写个如何用 Ollama 在 Mac 本地跑 LLM,并且用在 Obsidian 上处理自己的笔记和内容的小教程。我们开始具体的教程: 首先需要去Ollama的网站下载安装包, 下载完之后直接安装然后打开就行。 之后我们可以在他的 Github 上找到所有的命令,选择一个你需要的复制那个命令,找到你电脑里终端这个软件,然后粘贴刚才的命令,然后回车。比如:ollama run mistral Github 地址: 之后就能看到开始有进度条在走了,我们需要等待模型下载完成。 模型下载完成之后就会自动加载,当出现下面的内容的时候就可以开始在终端跟模型对话了。 现在模型已经跑起来了我们需要去 Obsidian 装个Ollama 的插件,进到设置里面,选择第三方插件,浏览社区插件市场,搜索Ollama然后安装就行。 安装之后在设置里就会出现Ollama的插件设置,这里可以自定义操作,他这里预置的都是 Llama2 的命令,我们需要自定义成我们的mistral模型。 很简单就是复制他下面的命令,然后在新增命令这里起个别的名字填上就行,比如Explain selection-mistral,然后模型名称那里写上你现在在运行的模型就行,比如mistral。 然后就是使用了,回到你的文档用快捷键 Commad+P 打开命令栏,搜索刚才的命令名称比如Explain selection-mistral,直接回车,就会看到出现了一个笔的图标,稍微等一会就可以看到输出的内容。 OK 教程到这里就结束了,Ollama的Github 页面还有很多其他的插件和客户端可以玩,可以找感兴趣的试试。

相关推荐

封面图片

今天给大家分享一款SD的脸部重绘插件,它叫After Detailer,简称ADetler

今天给大家分享一款SD的脸部重绘插件,它叫After Detailer,简称ADetailer 它能自动检测图片中的人脸,然后进行修复或者是替换,主要是速度快,而且效果非常的自然 更多详情请戳 我们先用liblibai的线上SD做一张效果图 从图中可以发现,即使用SD里自带的高清修复功能,但人物的面部还是有些拉胯,其主要原因是因为我们在一个比较低的像素画不布上,绘出了一个全身的图,所以导致给脸部分配的像素不够 然后在SD UI界面打开我们的ADetailer 插件,启动它,然后选择适合写实的模型:mediapipe_face_full 再下面的提示词里随便写一个面部的描述,然后其他参数保持默认 然后看下生成后的对比效果图,效果确实真的很自然 其实,这个插件本质就是自动识别图片中的人脸,然后做了一个局部重绘,我们就可以通过提示词,去控制它的面部重绘的走向 当然还有其他功能与参数的设置 比如:在第二单元的界面,选择手部重绘的模型,就可以同时进行面部和手部的重绘动作,具体看实际情况而定 接下来是安装教程: 插件安装链接: 这里分享两个安装方案: 第一种就是直接下载插件包,进行安装 第二种是在SD UI界面的拓展里,找到从网页安装,粘贴上面的插件链接,即可进行安装 第三种就是我用的liblibai的线上SD,它是直接安装好了的 其次是模型下载地址: 如果你们的ADetailer 插件里没有以下模型,可以自己根据需求自行下载即可 然后把模型按照下图的地址放进去就可以啦

封面图片

答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐

答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐的部分,主要介绍了音源的处理,模型的使用和后期音轨的合成。 看在藏师傅生病肝教程的份上希望各位多多支持,下面是具体步骤,图片顺序跟文字顺序对应 详细教程和文件下载可以看这里: 要使用模型进行推理的话你首先需要一段已经演唱好的声音垫进去,所以我们需要先对你垫进去的声音进行处理。 首先要安装UVR_v5.5.0,完成后我们需要给UVR增加一个模型解压UVR5模型文件将里面的两个文件夹粘贴到安装目录下的Ultimate Vocal Removermodels就行。 在处理之前你需要把你声音的格式转换成WAV格式,因为So-VITS-SVC 4.0只认WAV格式的音频文件,现在处理了后面会省事点。可以用这个工具处理:https:// 处理完音频文件后我们就要开始利用UVR去掉背景音了,一共需要过两次,每次的设置都是不同的,下面两张图分别是两次的参数。 接下来我们就要运行整合包的Web UI来推理声音了,如果你用的其他人的模型的话你需要先把模型文件放进整合包对应的文件夹下面: 首先是模型文件夹下面后缀为pth和pt的两个文件放到整合包的logs44k文件夹下。 之后是模型文件里那个叫config.json的json文件,放到整合包的configs文件夹下面。 接下来我们就可以运行整合包的Web UI了,打开整合包根目录下的【启动webui.bat】这个文件他会自动运行并打开Web UI的网页,经常玩Stable Diffusion的朋友肯定对这个操作不陌生。 下面就是Web UI的界面我们使用模型的时候主要用的是推理这个功能。 之后就是选择我们的模型,如果你刚才已经把模型放到合适的位置的话你现在应该能在下图的两个位置选择到你的模型和配置文件,如果有报错会在输出信息的位置显示。 选择完模型之后我们需要点击加载模型,等待一段时间Loading之后模型会加载完成。Output Message这里会输出加载的结果。之后就是上传我们处理好的需要垫的音频文件了,把文件拖动到红框位置就行。

封面图片

LLM排行榜更新:谷歌Bard超过GPT-4 中国玩家未进前十

LLM排行榜更新:谷歌Bard超过GPT-4 中国玩家未进前十 排行榜介绍这个LLMs 排行榜(Chatbot Arena基准平台)是由 UC伯克利研究人员主导的LMSYS (Large Model Systems Organization)组织发起的。通过在LLMs 间进行随机匿名的 1V1 battle 方式,并基于 Elo 评级系统得出排名。如下图所示,你可以随便问一个问题,左侧是模型A的回答,右侧是模型B的回答。然后你可以给这两个模型的回答打分,一共有四个选项“A更好;B更好;A和B一样好;A和B一样差”,如果一轮聊天判断不出来,你可以继续聊天,直到选出你认为更好的,但如果在聊天过程中暴露了大模型的身份,则投票将不被计算在内。下图显示了模型A在对战模型B时获胜几率(不包含平局 )的比例分布图:下图显示了每种模型组合的battle次数(无平局))下图显示了单个模型相对于所有其他模型的平均胜率:OpenAI霸榜,中国玩家未进前十下图是该榜单目前排名的 Top 10,可以看出GPT-系列模型还是占据绝对优势的(前四名中占据了其三),而 Anthropic旗下的 Claude 系列模型则是在前十中占据了三席。号称是欧洲版OpenAI的 Mistral公司,这次也有两个模型进入前十。另外请看上图最右侧一列,排名 Top 10的模型中,有9家都是闭源的私有模型,这说明开源模型还是有一段路要走。遗憾的是中国玩家的大语言模型没有进入前十。其中排名最高的是李开复创业公司零一万物旗下的 Yi-34B-Chat模型,位居13名。其次是阿里旗下的 通义千问 Qwen-14B-chat模型,排名36:再之后是清华教授唐杰创业公司智谱AI旗下的ChatGLM系列模型:需要说明三点:1、有很多中国大厂研发的模型可能没有参与到该榜单排名;2、该榜单是面向全球公众的,所以选择用英文来聊天的用户要远比中文多,这可能对中国玩家研发的大语言模型不利;3、该榜单仅仅统计了20w用户的随机提问和聊天,代表了用户和LLMs聊天的真实评价,但由于用户的提问和专业程度参差不齐,所以评价具有一定的主观性。最后我们说回Google,在裁员和科学家离职创业的内忧外患之际(详情请移步Google危机大爆发!科学家纷纷离职创业、员工裁员不断...),Google24年究竟能不能完成“帝国反击战”呢?让我们拭目以待吧! ... PC版: 手机版:

封面图片

易用性有时候是值得损失部分准确性的

易用性有时候是值得损失部分准确性的 阅读 Ben Thompson 的文章OpenAI Dev Day 之后 ChatGPT 似乎淡化了 Plugin 的概念,而推出了新的产品交互形态,对比下前后两者的差别: 之前:用户如果需要使用某一插件(如PDF总结),必须搜索安装插件,并在对话前切换打开插件,然后对话; 之后:用户不再需要特意安装插件,直接点到侧边栏的 GPTs(为某一场景专门定制的GPT),对话即可; 这其中,虽然用户还是做了一次选择,但一开始插件就已经被集成到了 GPTs 中,这个整体操作和交互体验改变很大,它降低了用户的思考成本,只需要在合适的时候做一个简单的点击即可。 作者由此引出自己的观点: 1. 消费者关心事物的方式和你赋予他们的期望可能不同,他们优先考虑易用性,对于模块化解决方案的“接缝感”会表现出明显的不满(比如 ChatGPT 之前的 Plugin 使用方式就是一种模块化方案)。 2. 综合的解决方案最终能够获胜,因为没有什么是“足够好的”,综合的解决方案也许会有缺陷(比如 ChatGPT 有时欠缺准确性),但是,这种缺陷是可以接受的,易用性是值得损失部分准确性的。 3. 客户会说自己需要准确性和第三方工具,但是他们的行动会证明,方便和易用才是最重要的。 以上的观点启发很大,可见 OpenAI 正在从一家主要关注技术能力的公司,转变为同时关注产品能力和用户体验的公司。

封面图片

试了一下lllyasviel的Web UI分支Forge,太强了。

试了一下lllyasviel的Web UI分支Forge,太强了。 在我的电脑上测试的时候图片生成速度快了一倍左右,Web UI需要3.7秒的图Forge只需要1.9秒。 而且lllyasviel还在Forge预装了很多非常有用的功能,比如提高图像质量的FreeU以及可以帮助SD1.5直接生成大图的Kohya的HRFix。 如果你平时就是用Web UI画画图不装一些奇怪复杂插件的话,或者你的显卡比较差,都推荐替换为Forge。 安装方式直接从下面链接替换整合包就行,如果你需要用你WebUI的模型文件的话可以鼠标右键用记事本打开web ui根目录的webui-user.bat文件。 把第二张图位置加上这段内容就行,文件夹目录改成你需要的目录(注意斜杠):ckpt-dir D:/sd/novelai-webui-aki-v2/models/Stable-diffusion vae-dir D:/sd/novelai-webui-aki-v2/models/VAE lora-dir D:/sd/novelai-webui-aki-v2/models/Lora gfpgan-models-path D:/sd/novelai-webui-aki-v2/models/GFPGAN esrgan-models-path D:/sd/novelai-webui-aki-v2/models/ESRGAN controlnet-dir D:/sd/novelai-webui-aki-v2/models/ControlNet 这里安装:

封面图片

现在可以在笔记本电脑、手机和 Raspberry Pi 上运行 GPT-3 级别的 AI 模型

现在可以在笔记本电脑、手机和 Raspberry Pi 上运行 GPT-3 级别的 AI 模型 通常,运行 GPT-3 需要多个数据中心级A100 GPU(此外,GPT-3 的权重不公开),但 LLaMA 引起了轰动,因为它可以在单个强大的消费类 GPU 上运行。现在,通过使用一种称为量化的技术来减小模型大小的优化,LLaMA 可以在 M1 Mac 或较小的 Nvidia 消费者 GPU 上运行。 周五,一位名叫 Georgi Gerganov 的软件开发人员创建了一个名为“”的工具,可以在 Mac 笔记本电脑本地运行 Meta 的新 GPT-3 类 AI 大型语言模型LLaMA 。此后不久,人们也想出了如何在 。然后有人展示了它在 Pixel 6 手机上运行,接下来是(尽管运行速度非常慢)。 如果这种情况持续下去,我们可能会在不知不觉中看到一个口袋大小的ChatGPT 竞争对手。 在撰写本文时,在 Mac 上运行 LLaMA 仍然是一项相当技术性的练习。您必须安装 Python 和 Xcode 并熟悉在命令行上工作。威利森为任何想尝试的人提供了很好的。但随着开发人员继续编写代码,这种情况可能很快就会改变。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人