None
持续更新的中文指令微调数据集,支持双语微调和数据修正。 本数据集包括中文和英文的混合数据集,方便双语微调,以及后续做持续的数据修正。 原始的Alpaca英文数据集也存在不少的问题,个别的数学类的sample是错的,有少部分output字段需要修正,一些的标签没有对齐等。本数据集会对原始的数据集进行修改和修正。再此基础上,翻译出对应的中文版本,中文版基本是原始sample的翻译,但是对于一些比如押韵类、时态类的一些instruction,直接翻译导致韵脚丢失,时态不一致等。需要对应的进行人工改写。主要分为以下几个方面: 修改原始英文数据集的一些问题 翻译为中文数据集 调整直译导致的一些sample code等一些特殊的输出不进行翻译 对齐一些特殊的标签 或者拒绝生成等输出 | #数据集
QLoRA 是一种LLM微调的新技术。 - 12小时的单个消费级GPU上训练,性能就可以达到了ChatGPT的97% - 4bit训练,但是性能与16bit相当 这个数据有点离谱。。 Tim Dettmers: QLoRA: 4-bit finetuning of LLMs is here! With it comes Guanaco, a chatbot on a single GPU, achieving 99% ChatGPT performance on the Vicuna benchmark: Paper: Code+Demo: Samples: Colab:
:开源大模型的统一后端接口,支持多种开源大模型 该项目为开源大模型的推理实现统一的接口接口,与OpenAI响应保持一致,具有以下特性: 以OpenAI ChatGPT API这样的方式调用开源分布式大模型 支持流式响应,实现打印机效果 实现文本嵌入模型,为文档知识问答提供支持 支持大规模语言模型开发工具langchain 的广泛功能 要简单的修改环境变量即可将开源模型作为chatgpt的替代模型,为大众应用提供反馈支持 支持加载经过自行训练的lora模型
🔍 发送关键词来寻找群组、频道或视频。