之后就是选择与训练分支了,【vec768-layer12】好像效果会好一些,所以这里我选了这个分支。后就是点击【数据预处理】。

之后就是选择与训练分支了,【vec768-layer12】好像效果会好一些,所以这里我选了这个分支。后就是点击【数据预处理】。 注意这里有个大坑,昨天折腾了我好久,你需要看一下你数据集里面有多少条数据,如果有几百条的的话,你需要把虚拟内存调大点,至于如何调整虚拟内存,这个百度就行,有很多教程。 开始数据预处理之后这个框会有非常多的信息,基本都是进度到百分之几了,如果预处理出错,在这个框的最后会展示报错信息,如果没错这个回显的基本就到100%就结束了。 如果你数据预处理完了,不想看那一堆信息的话可以点那个【清空输出信息】。 数据处理完之后我们来看一下下面的几个参数,调整一下,准备开始训练。 每多少步生成一次评估日志这里,用默认的200步就行 【每隔多少步(steps)验证并保存一次模型】这里默认的800步也就够了,他的意思是每训练800步就会保存一次模型,这个保存的模型你是可以用的 【仅保留最新的X个模型】这个就是字面意思如果每800步保存一次模型的话,你训练到8800的时候第800步的模型就会被自动删除,一个模型大概有1G左右这里看你的硬盘 【批量大小】这个参数跟你的显卡的显存有关,6G建议是4,我的4070Ti是12G我昨天设置的8,我有点怂,其实12也行,我怕爆显存。 上面几个参数设置完之后,我们选择当前训练分支跟我们数据预处理的时候的一致就行,然后点击写入配置文件,输出信息那里会有写入的结果,如果有报错也会显示在那里。 如果你是第一次训练点击这个【从头开始训练】就行,如果你之前训练过你还想继续训练的话就点这个【继续上一次训练进度】。如果你之前有训练进度,然后你点了【从头开始】的话你的训练进度就会被清空,从新开始从第0步训练。 在你点击按钮之后会弹出这样一个弹窗里面就是训练进度,我框起来的地方就是每200步输出的信息,那个loss的值就是判断模型质量好坏的标准,越低越好。 如果你觉得现在的已经可以了的话按CTAL+C键就会停止训练,你可以去推理tab下尝试你的模型,如果不满意还是可以重新回来训练的。 注意你如果设置的 每800步保存的话起码要到800才能暂停训练,不然没有保存的模型供你使用。 如果你觉得可以了暂停训练之后回到推理 Tab 就能看到你刚才训练的模型了,可能会有好几个因为你选的最多保留十个。按照我们第一期的内容正常使用就可以了。 以上就是AI歌手的最后一部分内容了,感谢各位,如果觉得对你有帮助的话可以推荐给你的朋友。 详细教程和文件可以在这里查看:

相关推荐

封面图片

麻了,ComfyUI链接万物了这下,有人推出了ComfyUI Lora训练节点。

麻了,ComfyUI链接万物了这下,有人推出了ComfyUI Lora训练节点。 可以直接在Comfy UI中训练Lora模型。而且设置挺简单的,可以直接在comfyui里面手搓妙鸭了。 训练结束后模型会保存在ComfyUI lora文件夹里面,训练后刷新就可以使用和测试。老哥甚至想在Comfy UI中集成Tensorboard。 你可以在这里安装这个节点,里面也有作者的教程,非常详细:

封面图片

RT 归藏手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。

RT 归藏 手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。 这个林俊杰是我自己训练的4800步的模型,对比一下上一篇教程里的孙燕姿模型有两万多步,数据的质量也很重要。 感谢各位的支持,下面是具体步骤

封面图片

发现了个好东西,这个老哥开源了一门课程《从头开始构建大型语言模型》,这门课程将一步步地指导你创建自己的LLM。#AI# #llm

发现了个好东西,这个老哥开源了一门课程《从头开始构建大型语言模型》,这门课程将一步步地指导你创建自己的LLM。#AI# #llm# 每个阶段都有清晰的文本、图表和实例来解释相关概念。 课程内容包括: 1. 从基础理解注意力机制 2. 构建并预训练一个类似于GPT的模型 3. 学习如何加载预训练的权重 4. 对模型进行分类任务的微调 5. 使用直接偏好优化进行指令微调模型 课程地址:

封面图片

手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。

手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。 感谢各位的支持,下面是具体步骤 详细教程和文件下载可以看这里: 首先我们需要准备你训练的人的声音素材,尽量找质量比较高人声比较清晰的音频。 歌手的声音素材是比较好找的,因为他们的歌就是天然的素材,我们在训练的时候最少要准备30分钟以上的人声素材,一般一个小时到两个小时最好。但是声音的质量大于时间长度,不要为了凑数搞一些质量不那么好的素材。 在准备好足够的声音素材之后我们开始对素材进行处理,跟第一期一样,先把我们的素材转换为WAV格式,批量转换的话还是用格式工厂之类的本地软件比较快。 获取到我们个WAV格式素材之后,继续进行跟上个教程一样的步骤利用UVR去掉我们素材的伴奏以及混响之类的声音,只留下单纯的人声。 处理完成后扔掉分离出来的伴奏,只留下人声素材,整理好备用。类似我下图这样扔到一个文件夹里。 接下来我们要对处理好的人声文件进行分割,因为如果训练的时候每段文件过长的话容易爆显存。 这个时候就要用到下载文件里的【slicer-gui】这个软件了,它可以自动把声音素材分割成合适的大小。我们先打开slicer-gui,刚开始的参数按我的来就行。 把你你准备好的人声素材拖到【Task List】里面,在Output位置设置好输出文件夹的位置,然后点Start就可以开始分割了。 处理好的文件,基本上就是下面这个文件的样子,处理完成后在输出文件夹把文件从大到小排序,看一下最大的文件时多长的,分割完的素材每一段尽量不要超过15秒。不然有可能会爆显存。 如果你发现有几条素材比较大的话可以拖进slicer-gui里面重新分割一下,参数按我下面图片设置就行。 所有数据处理好之后,我们准备开始训练了首先需要把准备好的素材移动到so-vits-svcdataset_raw这个文件夹下,注意不要直接把素材放在dataset_raw文件夹里,拿个文件夹装好放进去,所有的目录不要有中文字符。 我们开始模型训练,运行so-vits-svc根目录的【启动webui.bat】打开Web UI界面,切换到训练Tab下面。然后点击识别数据集,这时候上面就会展示你数据集文件夹的名字,也会是你模型的名字。

封面图片

Meta 的 AI 图像生成器用了 11 亿 Instagram 和 Facebook 照片训练

Meta 的 AI 图像生成器用了 11 亿 Instagram 和 Facebook 照片训练 Meta 发布了一个免费的文本图像生成网站 (需要登陆)。它的图像生成器是基于其 Emu 图像合成模型,用了 11 亿 Instagram 和 Facebook 上公开可见的照片训练。你的 Facebook 或 Instagram 的公开照片很可能被用于训练 Emu 了,不想被训练的话可以将自己的照片设为私有。Instagram 上每天上传的照片数以亿计,Meta 只使用了很小一部分去训练其模型。在 Imagine with Meta AI 上输入提示词,它会返回四张 1280×1280 像素的图像,可以以 JPEG 格式下载保存,图像左下方会打上水印 Imagined with AI。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

试了一下lllyasviel的Web UI分支Forge,太强了。

试了一下lllyasviel的Web UI分支Forge,太强了。 在我的电脑上测试的时候图片生成速度快了一倍左右,Web UI需要3.7秒的图Forge只需要1.9秒。 而且lllyasviel还在Forge预装了很多非常有用的功能,比如提高图像质量的FreeU以及可以帮助SD1.5直接生成大图的Kohya的HRFix。 如果你平时就是用Web UI画画图不装一些奇怪复杂插件的话,或者你的显卡比较差,都推荐替换为Forge。 安装方式直接从下面链接替换整合包就行,如果你需要用你WebUI的模型文件的话可以鼠标右键用记事本打开web ui根目录的webui-user.bat文件。 把第二张图位置加上这段内容就行,文件夹目录改成你需要的目录(注意斜杠):ckpt-dir D:/sd/novelai-webui-aki-v2/models/Stable-diffusion vae-dir D:/sd/novelai-webui-aki-v2/models/VAE lora-dir D:/sd/novelai-webui-aki-v2/models/Lora gfpgan-models-path D:/sd/novelai-webui-aki-v2/models/GFPGAN esrgan-models-path D:/sd/novelai-webui-aki-v2/models/ESRGAN controlnet-dir D:/sd/novelai-webui-aki-v2/models/ControlNet 这里安装:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人