关于Sakura模型介绍

关于Sakura模型 介绍 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型。 #网站分享

相关推荐

封面图片

关于Sakura模型介绍

关于Sakura模型 介绍 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型。 项目地址 #网站分享 from 夏风小分队 via 鸭累鸭累

封面图片

大语言模型(LLM)微调技术笔记 || #笔记

大语言模型(LLM)微调技术笔记 || #笔记 在预训练后,大模型可以获得解决各种任务的通用能力。然而,越来越多的研究表明,大语言模型的能力可以根据特定目标进一步调整。这就是微调技术,目前主要有两种微调大模型的方法 1:指令微调,目标是增强(或解锁)大语言模型的能力。 2:对齐微调,目标是将大语言模型的行为与人类的价值观或偏好对齐。

封面图片

《卢菁博士AI大模型微调实战训练营》

《卢菁博士AI大模型微调实战训练营》 简介:《卢菁博士AI大模型微调实战训练营》由卢菁博士主讲,是专注于AI大模型微调的实战课程。课程详细介绍AI大模型微调的原理、方法和技巧,通过实际案例和项目,指导学员掌握如何根据具体任务需求对预训练大模型进行微调,以提高模型性能和应用效果,适合AI开发者、数据科学家等专业人士学习 标签: #AI大模型 #模型微调 #实战训练 #AI开发 #数据科学 文件大小:NG 链接:

封面图片

modihand:独立部署,训练属于你的文本大模型

modihand:独立部署,训练属于你的文本大模型 只需要上传你的 json 数据集,然后在网页点几下,就可以训练属于你的文本大模型 支持 Lora,Ptuning,Freeze 等多种微调训练方式;支持多个开源大模型作为基底,可以完整下载训练完的模型权重,自己部署,断网离线使用

封面图片

《极客时间彭靖田AI大模型微调训练营》|简介:极客时间彭靖田的AI大模型微调训练营,围绕AI大模型微调技术展开,课程详细讲解模型

《极客时间彭靖田AI大模型微调训练营》|简介:极客时间彭靖田的AI大模型微调训练营,围绕AI大模型微调技术展开,课程详细讲解模型微调的原理、方法和技巧,通过实际项目训练,帮助学员掌握在不同场景下对大模型进行微调的能力,满足特定业务需求|标签:#彭靖田AI微调营#AI大模型微调#极客时间课程#技术实战训练| 文件大小 NG |链接:

封面图片

大模型微调实战营-应用篇 - 带源码课件

大模型微调实战营-应用篇 - 带源码课件 描述:本课程包括大模型基础,大模型指令微调,常用的开源模型微调,大模型对齐,垂直领域大模型应用5个阶段,内容涵盖大模型微调应用场景,大模型基座,LoRA参数微调,模型压缩,QLoRA参数微调,DeepSpeed训练框架解析,Megatron-LM训练框架解析,Flash Attention技术应用,微调模型Benchmark,ChatGLM,LLaMA,Mistral,MoE,大模型对齐,RLHF,DPO,垂直领域大模型应用等前沿技术等全方位知识讲解,并结合8个实战项目,帮助同学们实现学以致用。 链接: 大小:NG 标签:#学习 #知识 #课程 #资源 #大模型微调实战营 #quark 频道:@yunpanshare 群组:@yunpangroup

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人