基于ChatGLM-6B的中文问诊模型 |

None

相关推荐

封面图片

LaWGPT:基于中文法律知识的大语言模型

LaWGPT:基于中文法律知识的大语言模型 该系列模型在通用中文基座模型(如 Chinese-LLaMA、ChatGLM 等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。在此基础上,构造法律领域对话问答数据集、中国司法考试数据集进行指令精调,提升了模型对法律内容的理解和执行能力。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

:首个中文微调LLaMa 3模型,基于 Meta-Llama-3-8B-Instruct 模型,使用 ORPO 对其进行了微调,

封面图片

:海外中文开源大语言模型,基于 Llama-7B, -13B, -33B, -65B 进行领域上的持续预训练,使用了接近15M条

封面图片

:本地部署的基于llama.cpp大模型的编程助手

封面图片

已经有人发布了第一个基于Stable Cascade微调的模型HelloWorld SC 1B。

已经有人发布了第一个基于Stable Cascade微调的模型HelloWorld SC 1B。 看起来效果不错,不过还是没有比 SDXL 好太多目前微调 SC 模型的成本也很高。 这个模型总共使用了740张真实的训练图像,涵盖肖像、科幻等主题。所有图像均使用我们的开源 GPT4V 标记器进行标记。 使用的显卡是一张 48G VRAM RTX6000ada。总训练时间为3.5小时。上述参数在训练时会占用约45G的显存。 下面是一些作者的图片示例,这里下载模型:

封面图片

ChatGPT Mirror-基于 gpt-3.5-turbo 模型的 ChatGPT 镜像

ChatGPT Mirror-基于 gpt-3.5-turbo 模型的 ChatGPT 镜像 #GitHub项目 #趣站 #ChatGPT https://www.ahhhhfs.com/39726/

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人