答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐
答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐的部分,主要介绍了音源的处理,模型的使用和后期音轨的合成。看在藏师傅生病肝教程的份上希望各位多多支持,下面是具体步骤,图片顺序跟文字顺序对应详细教程和文件下载可以看这里:https://mp.weixin.qq.com/s/bXD1u6ysYkTEamt-PYI1RA要使用模型进行推理的话你首先需要一段已经演唱好的声音垫进去,所以我们需要先对你垫进去的声音进行处理。首先要安装UVR_v5.5.0,完成后我们需要给UVR增加一个模型解压UVR5模型文件将里面的两个文件夹粘贴到安装目录下的UltimateVocalRemovermodels就行。在处理之前你需要把你声音的格式转换成WAV格式,因为So-VITS-SVC4.0只认WAV格式的音频文件,现在处理了后面会省事点。可以用这个工具处理:https://www.aconvert.com/cn/audio/mp4-to-wav/处理完音频文件后我们就要开始利用UVR去掉背景音了,一共需要过两次,每次的设置都是不同的,下面两张图分别是两次的参数。接下来我们就要运行整合包的WebUI来推理声音了,如果你用的其他人的模型的话你需要先把模型文件放进整合包对应的文件夹下面:首先是模型文件夹下面后缀为pth和pt的两个文件放到整合包的logs44k文件夹下。之后是模型文件里那个叫config.json的json文件,放到整合包的configs文件夹下面。接下来我们就可以运行整合包的WebUI了,打开整合包根目录下的【启动webui.bat】这个文件他会自动运行并打开WebUI的网页,经常玩StableDiffusion的朋友肯定对这个操作不陌生。下面就是WebUI的界面我们使用模型的时候主要用的是推理这个功能。之后就是选择我们的模型,如果你刚才已经把模型放到合适的位置的话你现在应该能在下图的两个位置选择到你的模型和配置文件,如果有报错会在输出信息的位置显示。选择完模型之后我们需要点击加载模型,等待一段时间Loading之后模型会加载完成。OutputMessage这里会输出加载的结果。之后就是上传我们处理好的需要垫的音频文件了,把文件拖动到红框位置就行。