ChatLLM 是一个 VSCode 扩展,用于以灵活且长格式的方式与 LLM API 进行交互。它利用 VSCode 笔记本支

ChatLLM 是一个 VSCode 扩展,用于以灵活且长格式的方式与 LLM API 进行交互。它利用 VSCode 笔记本支持来实现此目的,创建一种新型笔记本 (.chatllm) 文件,你可以在其中通过长文档与(基于 API 的)LLM 系统进行交互。 注意:此插件需要你有自己的 OpenAI API 密钥(或其他 LLM API 密钥);它不适用于免费版本的 ChatGPT。 特点包括: 利用现有的笔记本用户体验,直接在 VSCode IDE 中进行聊天对话。 在本地存储和操作长格式聊天对话,无需依赖云存储。 将文件动态展开为提示,以更新提示以响应编辑。 支持不同的LLM API(目前是OpenAI、Together、Google),支持多种不同的模型。 | #扩展

相关推荐

封面图片

用LlamaIndex、Redis和OpenAI与PDF文档进行交互,包含一个Jupyter笔记本,演示了如何使用Redis作为

用LlamaIndex、Redis和OpenAI与PDF文档进行交互,包含一个Jupyter笔记本,演示了如何使用Redis作为向量数据库来存储和检索文档向量,还展示了如何使用LlamaIndex在文档中执行语义搜索,以及如何利用OpenAI提供类似聊天机器人的体验 |

封面图片

:一个开源的零依赖库,可使用单一API调用30多种LLM,可以在单个响应中发送多个提示到多个LLM,并将结果返回。

:一个开源的零依赖库,可使用单一API调用30多种LLM,可以在单个响应中发送多个提示到多个LLM,并将结果返回。 llm.ts支持各种不同的LLM,包括文本生成、代码生成、知识库和对话模型等。llm.ts可以在Node、Deno和浏览器等任何地方使用,用户需要自己提供API密钥

封面图片

:为大型语言模型(LLM)设计的结构化生成语言,旨在加速和更好地控制与LLM的交互。

:为大型语言模型(LLM)设计的结构化生成语言,旨在加速和更好地控制与LLM的交互。 特点包括:灵活的前端语言,允许轻松编程LLM应用,支持多个连锁生成调用、高级提示技术、控制流、多模式、并行处理和外部交互;具备高性能运行时,使用RadixAttention可以显著加速复杂LLM程序的执行,自动跨多个调用重复使用KV缓存,同时支持连续批处理和张量并行处理。

封面图片

:用于交互式计算的本地笔记本,通过双击打开任意Jupyter Notebook,提供了一个精美的桌面应用,可以在强大的远程内核上

:用于交互式计算的本地笔记本,通过双击打开任意Jupyter Notebook,提供了一个精美的桌面应用,可以在强大的远程内核上运行40种编程语言的代码,并支持实时多人协作。 Jute的目标是简化Jupyter前端,以提高速度、简单性和易用性,尤其强调了无需繁琐的安装、加载时间、不安全的浏览器环境、内核设置等问题,使用户能够轻松编写交互式代码和共享交互式文档。

封面图片

Reor 是一款用于创建笔记的应用程序,它集成了人工智能,可在本地运行模型。

Reor 是一款用于创建笔记的应用程序,它集成了人工智能,可在本地运行模型。 它能自动链接观点、提供语义搜索并回答笔记中的问题。 支持 Mac、Linux 和 Windows。 可直接与Llama.cpp库交互,也允许用户插入自己的本地模型或使用与OpenAI兼容的 API。 可从其他应用程序导入笔记。 网站: #tools #AI

封面图片

:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。

:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。 主要提供: 为多个本地 LLM 模型提供高性能、高效和可靠的服务 可选择通过 CUDA 或 Metal 进行 GPU 加速 可配置的 LLM 完成任务(提示、召回、停止令牌等) 通过 HTTP SSE 流式传输完成响应,使用 WebSockets 聊天 使用 JSON 模式对完成输出进行有偏差的采样 使用向量数据库(内置文件或 Qdrant 等外部数据库)进行记忆检索 接受 PDF 和 DOCX 文件并自动将其分块存储到内存中 使用静态 API 密钥或 JWT 标记确保 API 安全 简单、单一的二进制+配置文件服务器部署,可水平扩展 附加功能: 用于轻松测试和微调配置的 Web 客户端 用于本地运行模型的单二进制跨平台桌面客户端

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人