:本地部署的基于llama.cpp大模型的编程助手

None

相关推荐

封面图片

:iOS/MacOS上的离线大语言模型App(使用GGML库),基于Georgi Gerganov的ggml和llama.cpp

封面图片

有同学本地部署了 llama 模型,然后使用 OpenCat 当作客户端,运行成功

封面图片

《》基于Linux环境快速部署开源大模型 | #指南

《》基于Linux环境快速部署开源大模型 | #指南 本项目是一个围绕开源大模型、针对国内初学者、基于 AutoDL 平台的中国宝宝专属大模型教程,针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导,简化开源大模型的部署、使用和应用流程,让更多的普通学生、研究者更好地使用开源大模型,帮助开源、自由的大模型更快融入到普通学习者的生活中。 本项目的主要内容包括: 基于 AutoDL 平台(可扩展,例如阿里云)的开源 LLM 环境配置指南,针对不同模型要求提供不同的详细环境配置步骤; 针对国内外主流开源 LLM 的部署使用教程,包括 LLaMA、ChatGLM、InternLM 等; 开源 LLM 的部署应用指导,包括命令行调用、在线 Demo 部署、LangChain 框架集成等; 开源 LLM 的全量微调、高效微调方法,包括分布式全量微调、LoRA、ptuning 等。

封面图片

:基于书生·浦语大模型工具链的全链路微调、量化部署与评测教程,助力开发者快速掌握 Llama 3 的应用与优化

封面图片

北大推出“最强编程助手”:代码大模型 CodeShell-7B 开源

北大推出“最强编程助手”:代码大模型 CodeShell-7B 开源 10 月 19 日消息,北京大学软件工程国家工程研究中心知识计算实验室联合四川天府银行 AI 实验室,今天正式开源旗下 70 亿参数的代码大模型 CodeShell,号称“同等规模最强代码基座”。 官方已经在 GitHub 开源了模型、相关配套方案及 IDE 插件,支持商用。有兴趣的可以。 项目详情中介绍,CodeShell-7B 基于 5000 亿 Tokens 进行了冷启动训练,上下文窗口长度为 8192,架构设计上融合了 StarCoder 和 Llama 两者的核心特性。 官方声称,CodeShell 的原始训练数据基于自家爬取的 Github 数据、Stack 和 StarCoder 数据集,以及少量“高质量的中英文数据”,这些预训练数据均经过了“数据判重、数据过滤规则、数据质量模型一系列流水线”。

封面图片

华为 AI 编程助手来了,研发大模型 CodeArts Snap 明日公测 #抽屉IT

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人