:跨平台桌面应用程序,可在本机下载和运行大型语言模型(LLM),允许在本地使用AI对话,无需联网,保护隐私,可自由表达想法

None

相关推荐

封面图片

:注重隐私的编程助手,可在本地系统上运行候选平台的LLM(语言模型),可以选择Mistral、CodeLLama等热门的LLM。

封面图片

苹果正利用大语言模型改造Siri 无需联网本地运行

苹果正利用大语言模型改造Siri无需联网本地运行随着ChatGPT的兴起,不少大厂到开始自研AI大模型,苹果出于安全考虑禁止员工使用ChatGPT。不过,有苹果员工曾抱怨Siri工作效率低下,Siri之所以逐渐走向没落,是因为内部团队混乱、决策缓慢、代码笨重,导致在Siri和AI开发上受到严重阻碍。如今,苹果打算加码AI,想必也是不少人所期待的,升级后的Siri据说在本地运行响应时间更快、不需要网络连接,且更具隐私性。...PC版:https://www.cnbeta.com.tw/articles/soft/1395647.htm手机版:https://m.cnbeta.com.tw/view/1395647.htm

封面图片

Reor 是一款用于创建笔记的应用程序,它集成了人工智能,可在本地运行模型。

Reor是一款用于创建笔记的应用程序,它集成了人工智能,可在本地运行模型。它能自动链接观点、提供语义搜索并回答笔记中的问题。支持Mac、Linux和Windows。可直接与Llama.cpp库交互,也允许用户插入自己的本地模型或使用与OpenAI兼容的API。可从其他应用程序导入笔记。https://github.com/reorproject/reor网站:https://www.reorproject.org/#tools#AI

封面图片

苹果发布可在本地运行的开放模型 OpenELM

苹果发布可在本地运行的开放模型OpenELM苹果发布了它的开放模型,可以在本地设备而不是云端运行。OpenELM的权重、训练的不同检查点(checkpoints)、预训练评估微调等的指南都公布在HuggingFace平台上。示例代码许可并不禁止商业使用或修改,只是要求在重新发布时包含苹果完整且没有修改过的声明。OpenELM由一组旨在高效执行文本生成任务的小模型组成,共八个模型,四个预训练四个指令微调,参数规模从2.7亿到30亿。来源,频道:@kejiqu群组:@kejiquchat

封面图片

专为苹果芯片设计的高效机器学习框架,本地运行LLM模型,实时在苹果芯片上运行LLM(如Llama、Mistral)模型的全新原生

封面图片

Ollama:在本地启动并运行大语言模型 | #工具

:在本地启动并运行大语言模型#工具Ollama是一款命令行工具,可在macOS和Linux上本地运行Llama2、CodeLlama和其他模型。适用于macOS和Linux,并计划支持Windows。Ollama目前支持近二十多个语言模型系列,每个模型系列都有许多可用的"tags"。Tags是模型的变体,这些模型使用不同的微调方法以不同的规模进行训练,并以不同的级别进行量化,以便在本地良好运行。量化级别越高,模型越精确,但运行速度越慢,所需的内存也越大。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人