Zep: 适用于LLM应用的长期记忆库,可以存储、汇总、嵌入、索引和丰富LLM应用/聊天机器人的历史记录,并通过简单、低延迟的A

Zep: 适用于LLM应用的长期记忆库,可以存储、汇总、嵌入、索引和丰富LLM应用/聊天机器人的历史记录,并通过简单、低延迟的API公开这些信息。特点包括长期记忆持久性、基于可配置消息窗口的自动摘要、向量搜索、自动记忆令牌计数等 ||

相关推荐

封面图片

:一个对话式搜索和分析平台,适用于复杂的非结构化数据,例如文档、演示文稿、成绩单、嵌入式表格和内部知识存储库。

:一个对话式搜索和分析平台,适用于复杂的非结构化数据,例如文档、演示文稿、成绩单、嵌入式表格和内部知识存储库。 它通过将人工智能引入数据准备、索引和检索来检索和综合高质量的答案。 Sycamore 可以轻松准备用于搜索和分析的非结构化数据,提供用于数据清理、信息提取、丰富、汇总和生成封装数据语义的向量嵌入的工具包。 Sycamore 使用你选择的生成式 AI 模型来使这些操作变得简单而有效,并且可以实现快速实验和迭代。此外,Sycamore 使用 OpenSearch 进行索引,支持混合(向量 + 关键字)搜索、检索增强生成 (RAG) 管道、过滤、分析功能、会话记忆和其他功能来改进信息检索。 特征 自然语言、对话界面,可针对非结构化数据提出复杂问题。包括对来源段落和对话记忆的引用。 包括对非结构化数据的各种查询操作,包括混合搜索、检索增强生成 (RAG) 和分析函数。 通过高级数据分段、用于数据丰富的 LLM 支持的 UDF、使用 Python 进行的高性能数据操作以及使用各种 AI 模型的向量嵌入,准备和丰富用于搜索和分析的复杂非结构化数据。 自动数据爬虫(Amazon S3 和 HTTP)和 Jupyter 笔记本支持等有用的功能可用于创建和迭代数据准备脚本。 可扩展、安全且可定制的 OpenSearch 后端,用于索引和数据检索。

封面图片

是一种用于生成人工智能应用程序的检索和长期记忆服务。

是一种用于生成人工智能应用程序的检索和长期记忆服务。 通过对上传到服务的新文档运行提取模型(例如嵌入、NER 等),索引始终保持最新。Indexify 有一个内置的分布式提取调度程序,允许为生产用例索引大量数据。 它还为 LLM 应用程序提供 API 以从索引中检索信息。代理可以存储长期记忆并实时查询它们,以个性化副驾驶或基于聊天的应用程序。 除了用于语义搜索的嵌入向量索引之外,Indexify 还可以构建包含 NER 模型、意图理解等提取的 K/V 或 JSON 文档的索引。

封面图片

LLMFlows 是一个框架,用于构建简单、明确和透明的 LLM(大语言模型)应用程序,如聊天机器人、问答系统和代理。

LLMFlows 是一个框架,用于构建简单、明确和透明的 LLM(大语言模型)应用程序,如聊天机器人、问答系统和代理。 LLMFlows 的核心是提供一套简约的抽象,让你可以利用 LLM 和向量存储,构建结构良好、清晰明了的应用程序,这些应用程序没有隐藏的提示或 LLM 调用。LLM Flows 可确保每个组件完全透明,从而使监控、维护和调试变得简单。 | #框架

封面图片

:LLM应用栈工具、项目和供应商列表,旨在更全面地覆盖每个类别中的所有可用选项,涵盖了数据管道、嵌入模型、向量数据库、沙盒、编排

:LLM应用栈工具、项目和供应商列表,旨在更全面地覆盖每个类别中的所有可用选项,涵盖了数据管道、嵌入模型、向量数据库、沙盒、编排器、API / 插件、LLM缓存、日志/监视/评估、验证器、LLM API(专有)、LLM API(开源)、应用程序托管平台、云提供商、有见解的云项目列表等类别。

封面图片

:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。

:用Rust编写的GPU加速语言模型(LLM)服务器,可高效提供多个本地LLM模型的服务。 主要提供: 为多个本地 LLM 模型提供高性能、高效和可靠的服务 可选择通过 CUDA 或 Metal 进行 GPU 加速 可配置的 LLM 完成任务(提示、召回、停止令牌等) 通过 HTTP SSE 流式传输完成响应,使用 WebSockets 聊天 使用 JSON 模式对完成输出进行有偏差的采样 使用向量数据库(内置文件或 Qdrant 等外部数据库)进行记忆检索 接受 PDF 和 DOCX 文件并自动将其分块存储到内存中 使用静态 API 密钥或 JWT 标记确保 API 安全 简单、单一的二进制+配置文件服务器部署,可水平扩展 附加功能: 用于轻松测试和微调配置的 Web 客户端 用于本地运行模型的单二进制跨平台桌面客户端

封面图片

: 用 Redis 作为矢量数据库,以简化在 Redis 中存储、检索以及对向量执行复杂语义和混合搜索的过程,对LLM应用提供更

: 用 Redis 作为矢量数据库,以简化在 Redis 中存储、检索以及对向量执行复杂语义和混合搜索的过程,对LLM应用提供更好的支持 RedisVL 具有许多强大的功能,旨在简化矢量数据库操作。 索引管理:RedisVL 允许轻松创建、更新和删除索引。每个索引的模式可以在 yaml 中定义,也可以直接在 python 代码中定义,并在索引的整个生命周期中使用。 嵌入创建:RedisVL 与 OpenAI、HuggingFace 和 GCP VertexAI 集成,以简化矢量化非结构化数据的过程。图像支持即将推出。提交新矢量化器的 PR。 向量搜索:RedisVL 提供强大的搜索功能,使您能够同步和异步查询向量。还支持利用标签、地理、数字和其他过滤器(如全文搜索)的混合查询。 强大的抽象:语义缓存:LLMCache是直接内置于 RedisVL 中的语义缓存接口。它允许缓存 GPT-3 等 LLM 生成的输出。由于语义搜索用于检查缓存,因此可以设置阈值来确定缓存结果是否足够相关以返回。如果没有,则调用模型并缓存结果以供将来使用。这可以提高 QPS 并降低在生产中使用 LLM 模型的成本。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人