: 用于表格问答的工具包,支持LLM模型,提供可扩展的设计、全面的数据集和强大的方法,支持LLM的提示和微调方法、统一的数据接口

None

相关推荐

封面图片

持续更新的中文指令微调数据集,支持双语微调和数据修正。

持续更新的中文指令微调数据集,支持双语微调和数据修正。 本数据集包括中文和英文的混合数据集,方便双语微调,以及后续做持续的数据修正。 原始的Alpaca英文数据集也存在不少的问题,个别的数学类的sample是错的,有少部分output字段需要修正,一些的标签没有对齐等。本数据集会对原始的数据集进行修改和修正。再此基础上,翻译出对应的中文版本,中文版基本是原始sample的翻译,但是对于一些比如押韵类、时态类的一些instruction,直接翻译导致韵脚丢失,时态不一致等。需要对应的进行人工改写。主要分为以下几个方面: 修改原始英文数据集的一些问题 翻译为中文数据集 调整直译导致的一些sample code等一些特殊的输出不进行翻译 对齐一些特殊的标签 或者拒绝生成等输出 | #数据集

封面图片

开源LLM微调训练指南:如何打造属于自己的LLM模型

封面图片

用来微调大模型的轻量工具包 | #工具

封面图片

QLoRA 是一种LLM微调的新技术。

QLoRA 是一种LLM微调的新技术。 - 12小时的单个消费级GPU上训练,性能就可以达到了ChatGPT的97% - 4bit训练,但是性能与16bit相当 这个数据有点离谱。。 Tim Dettmers: QLoRA: 4-bit finetuning of LLMs is here! With it comes Guanaco, a chatbot on a single GPU, achieving 99% ChatGPT performance on the Vicuna benchmark: Paper: Code+Demo: Samples: Colab:

封面图片

:用于实验、评估和部署基于检索增强生成 (RAG) 的系统的工具包,支持各种大语言模型 (LLM),旨在减少 LLM 幻觉风险并

封面图片

:开源大模型的统一后端接口,支持多种开源大模型

:开源大模型的统一后端接口,支持多种开源大模型 该项目为开源大模型的推理实现统一的接口接口,与OpenAI响应保持一致,具有以下特性: 以OpenAI ChatGPT API这样的方式调用开源分布式大模型 支持流式响应,实现打印机效果 实现文本嵌入模型,为文档知识问答提供支持 支持大规模语言模型开发工具langchain 的广泛功能 要简单的修改环境变量即可将开源模型作为chatgpt的替代模型,为大众应用提供反馈支持 支持加载经过自行训练的lora模型

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人