Codefuse-ChatBot:一个开源的 AI 智能助手,专为软件开发的全生命周期而设计,涵盖设计、编码、测试、部署和运维等

:一个开源的AI智能助手,专为软件开发的全生命周期而设计,涵盖设计、编码、测试、部署和运维等阶段。通过知识检索、代码检索,工具使用和沙箱执行,Codefuse-ChatBot不仅能回答你在开发过程中遇到的专业问题,还能通过对话界面协调多个独立分散的平台。项目核心差异技术、功能点:智能调度核心:构建了体系链路完善的调度核心,支持多模式一键配置,简化操作流程。代码整库分析:实现了仓库级的代码深入理解,以及项目文件级的代码编写与生成,提升了开发效率。文档分析增强:融合了文档知识库与知识图谱,通过检索和推理增强,为文档分析提供了更深层次的支持。垂类专属知识:为DevOps领域定制的专属知识库,支持垂类知识库的自助一键构建,便捷实用。垂类模型兼容:针对DevOps领域的小型模型,保证了与DevOps相关平台的兼容性,促进了技术生态的整合。依托于开源的LLM与Embedding模型,本项目可实现基于开源模型的离线私有部署。此外,本项目也支持OpenAIAPI的调用。

相关推荐

封面图片

史料RAG:用向量数据库基于RAG(检索增强生成)方式搭建一个中国历史问答应用,这个应用接受用户的询问,从历史语料库中检索相关的

:用向量数据库基于RAG(检索增强生成)方式搭建一个中国历史问答应用,这个应用接受用户的询问,从历史语料库中检索相关的历史资料片段,利用大语言模型给出较为可靠的回答。相比于直接询问大模型,这种方式具有回答准确率高,不容易产生大模型的“幻觉”问题等优点。本项目实现了两种使用方式:“Milvus方案“在本地启动一个Milvus向量数据库的Docker服务,使用LlamaIndex框架和本地BAAI/bge-base-zh-v1.5Embedding模型实现RAG的业务逻辑。“ZillizCloudPipelines方案”使用云上的知识库检索服务ZillizCloudPipelines,该服务包括了RAG流程的文档切片、向量化、向量检索等功能。两种方案均使用OpenAI的GPT4作为大语言模型。

封面图片

北大推出“最强编程助手”:代码大模型 CodeShell-7B 开源

北大推出“最强编程助手”:代码大模型CodeShell-7B开源10月19日消息,北京大学软件工程国家工程研究中心知识计算实验室联合四川天府银行AI实验室,今天正式开源旗下70亿参数的代码大模型CodeShell,号称“同等规模最强代码基座”。官方已经在GitHub开源了模型、相关配套方案及IDE插件,支持商用。有兴趣的可以。项目详情中介绍,CodeShell-7B基于5000亿Tokens进行了冷启动训练,上下文窗口长度为8192,架构设计上融合了StarCoder和Llama两者的核心特性。官方声称,CodeShell的原始训练数据基于自家爬取的Github数据、Stack和StarCoder数据集,以及少量“高质量的中英文数据”,这些预训练数据均经过了“数据判重、数据过滤规则、数据质量模型一系列流水线”。——

封面图片

AnythingLLM:一个可打造成企业内部知识库的私人专属 GPT。

:一个可打造成企业内部知识库的私人专属GPT。它不仅是一个高效、可定制的开源企业级文档聊天机器人解决方案,同时也是一个全能的应用。可以将任何文档、资源或内容转换为大语言模型(LLM)知识库,使得在对话过程中可引用到里面的内容。特点:支持多用户实例和权限管理;支持多种文档类型,如PDF、TXT、DOCX等等;提供简易的UI界面管理向量数据库中的文档;提供两种聊天模式:对话模式可以保留之前的问题和回答,而查询模式可基于你的文档进行简单的问答;聊天中内容可引用链接到原始文档的来源和文本;项目使用到的技术栈简单,可快速迭代开发;支持在本地运行,也支持100%云部署;提供“自带大语言模型”的模式,支持任何开源llama.cpp兼容模型、OpenAI、Claude等;具有高效节约成本的措施,不需要支付多次Embedding大量文档的费用,这点比其他类似解决方案节省90%成本;提供完整的开发者API,可方便自定义集成。

封面图片

libLLM: 专为在普通个人电脑和移动设备上高效推理大型语言模型(LLM)而设计的开源项目。

:专为在普通个人电脑和移动设备上高效推理大型语言模型(LLM)而设计的开源项目。核心使用C++14编写,没有第三方依赖(BLAS、SentencePiece等),能在各种设备中无缝运行。特点为日常设备进行优化:libLLM经过优化,可在常见的个人电脑上平稳运行,确保大型语言模型的强大功能面向更广泛的用户。C++代码:采用标准C++14编写,简单高效。无外部依赖:核心功能无需第三方依赖(BLAS、SentencePiece等),所需的GEMM内核均在内部实现(avx2、avx512)。支持CUDA:支持使用CUDA加速推理。

封面图片

动手学大模型应用开发:旨在帮助小白开发者通过实践构建个人知识库助手,学习大模型应用开发的基础入门

:旨在帮助小白开发者通过实践构建个人知识库助手,学习大模型应用开发的基础入门主要内容包括:大模型简介,何为大模型、大模型特点是什么、LangChain是什么,针对小白开发者的简单介绍;如何调用大模型API,本节介绍了国内外知名大模型产品API的多种调用方式,包括调用原生API、封装为LangChainLLM、封装为Fastapi等调用方式,同时将包括百度文心、讯飞星火、智谱AI等多种大模型API进行了统一形式封装;大模型开发流程及架构,大模型应用开发的基本流程、一般思想和本项目的架构分析;数据库搭建,不同类型知识库文档的加载、处理,向量数据库的搭建;Prompt设计,如何设计Prompt来让大模型完成特定任务,PromptEngineering的原则和技巧有哪些;验证迭代,大模型开发如何实现验证迭代,一般的评估方法有什么;前后端开发,如何使用Gradio、FastAPI等框架快速开发大模型Demo,展示应用能力。

封面图片

epoChat-200k

项目名称:RepoChat-200k项目功能:AI编程项目简介:一个可以与聊天机器人进行互动对话的开源工具。通过提问或提供输入,聊天机器人将从向量数据库中检索相关文档,然后将用户的输入和检索到的文档一起发送给语言模型,以生成响应。这个项目使用了200k上下文窗口的Claude模型,而不是RAG模型,以提高对话的相关性和准确性。项目地址:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人