答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐

答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐的部分,主要介绍了音源的处理,模型的使用和后期音轨的合成。 看在藏师傅生病肝教程的份上希望各位多多支持,下面是具体步骤,图片顺序跟文字顺序对应 详细教程和文件下载可以看这里: 要使用模型进行推理的话你首先需要一段已经演唱好的声音垫进去,所以我们需要先对你垫进去的声音进行处理。 首先要安装UVR_v5.5.0,完成后我们需要给UVR增加一个模型解压UVR5模型文件将里面的两个文件夹粘贴到安装目录下的Ultimate Vocal Removermodels就行。 在处理之前你需要把你声音的格式转换成WAV格式,因为So-VITS-SVC 4.0只认WAV格式的音频文件,现在处理了后面会省事点。可以用这个工具处理:https:// 处理完音频文件后我们就要开始利用UVR去掉背景音了,一共需要过两次,每次的设置都是不同的,下面两张图分别是两次的参数。 接下来我们就要运行整合包的Web UI来推理声音了,如果你用的其他人的模型的话你需要先把模型文件放进整合包对应的文件夹下面: 首先是模型文件夹下面后缀为pth和pt的两个文件放到整合包的logs44k文件夹下。 之后是模型文件里那个叫config.json的json文件,放到整合包的configs文件夹下面。 接下来我们就可以运行整合包的Web UI了,打开整合包根目录下的【启动webui.bat】这个文件他会自动运行并打开Web UI的网页,经常玩Stable Diffusion的朋友肯定对这个操作不陌生。 下面就是Web UI的界面我们使用模型的时候主要用的是推理这个功能。 之后就是选择我们的模型,如果你刚才已经把模型放到合适的位置的话你现在应该能在下图的两个位置选择到你的模型和配置文件,如果有报错会在输出信息的位置显示。 选择完模型之后我们需要点击加载模型,等待一段时间Loading之后模型会加载完成。Output Message这里会输出加载的结果。之后就是上传我们处理好的需要垫的音频文件了,把文件拖动到红框位置就行。

相关推荐

封面图片

手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。

手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。 感谢各位的支持,下面是具体步骤 详细教程和文件下载可以看这里: 首先我们需要准备你训练的人的声音素材,尽量找质量比较高人声比较清晰的音频。 歌手的声音素材是比较好找的,因为他们的歌就是天然的素材,我们在训练的时候最少要准备30分钟以上的人声素材,一般一个小时到两个小时最好。但是声音的质量大于时间长度,不要为了凑数搞一些质量不那么好的素材。 在准备好足够的声音素材之后我们开始对素材进行处理,跟第一期一样,先把我们的素材转换为WAV格式,批量转换的话还是用格式工厂之类的本地软件比较快。 获取到我们个WAV格式素材之后,继续进行跟上个教程一样的步骤利用UVR去掉我们素材的伴奏以及混响之类的声音,只留下单纯的人声。 处理完成后扔掉分离出来的伴奏,只留下人声素材,整理好备用。类似我下图这样扔到一个文件夹里。 接下来我们要对处理好的人声文件进行分割,因为如果训练的时候每段文件过长的话容易爆显存。 这个时候就要用到下载文件里的【slicer-gui】这个软件了,它可以自动把声音素材分割成合适的大小。我们先打开slicer-gui,刚开始的参数按我的来就行。 把你你准备好的人声素材拖到【Task List】里面,在Output位置设置好输出文件夹的位置,然后点Start就可以开始分割了。 处理好的文件,基本上就是下面这个文件的样子,处理完成后在输出文件夹把文件从大到小排序,看一下最大的文件时多长的,分割完的素材每一段尽量不要超过15秒。不然有可能会爆显存。 如果你发现有几条素材比较大的话可以拖进slicer-gui里面重新分割一下,参数按我下面图片设置就行。 所有数据处理好之后,我们准备开始训练了首先需要把准备好的素材移动到so-vits-svcdataset_raw这个文件夹下,注意不要直接把素材放在dataset_raw文件夹里,拿个文件夹装好放进去,所有的目录不要有中文字符。 我们开始模型训练,运行so-vits-svc根目录的【启动webui.bat】打开Web UI界面,切换到训练Tab下面。然后点击识别数据集,这时候上面就会展示你数据集文件夹的名字,也会是你模型的名字。

封面图片

RT 归藏手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。

RT 归藏 手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。 这个林俊杰是我自己训练的4800步的模型,对比一下上一篇教程里的孙燕姿模型有两万多步,数据的质量也很重要。 感谢各位的支持,下面是具体步骤

封面图片

一个懒人 LoRA 制作指南,手把手教你用 OneTrainer 训练自己的 AI 绘画模型,无需深入理论,轻松掌握关键步骤。

一个懒人 LoRA 制作指南,手把手教你用 OneTrainer 训练自己的 AI 绘画模型,无需深入理论,轻松掌握关键步骤。 作者是用XL生成的图片,你可以用MIdjoureny生成效果比较好。 我完整翻译了内容,并且重新整理了适合推特阅读的版本,或者你可以在下面看完整翻译的内容: - 1⃣ LoRA 模型制作教程 作者作为一名 LoRA 模型制作的新手,通过自己的学习实践,总结了一份简明扼要的制作教程。 这份教程不涉及太多理论知识,而是直奔主题,手把手教初学者如何训练自己的 LoRA 模型。 作者坦诚分享了自己从最初尝试 Embedding 和 LoRA 时遇到的问题,以及后来找到的解决方法,为读者提供了宝贵的经验参考。 所需工具介绍 要制作 LoRA 模型,需要准备一些必要的工具。作者推荐使用自己喜欢的模型和图像生成工具,他个人使用的是 StableSwarmUI 和 GhostXL 模型。 此外,还需要一个训练工具,作者选择了 OneTrainer,因为有人说它比另一个常用的工具 Kohya 更易用。作者还提到,训练时如果需要将 SDXL 格式的图像转换为 SD 格式,需要在设置中开启分辨率覆盖选项。 2⃣ LoRA 模型制作步骤 作者将 LoRA 模型的制作过程分为三个主要步骤: 第一步是用现有的模型生成大量高质量的图像作为训练数据; 第二步是人工检查挑选图像,剔除所有质量不合格的; 第三步是使用 OneTrainer 进行训练,调整必要的参数设置。 作者还特别提到,在训练时如果需要将 SDXL 格式的图像转换为 SD 格式,一定要记得开启分辨率覆盖选项,否则训练会出问题。 训练参数调整心得 作为一名新手,作者在调整训练参数时主要参考了一份网上的指南。 他尝试调整了 Lora 设置中的 rank 参数,将其从默认的 16 改为 32,解决了模型训练中遇到的问题。作者分享了这份参数调整指南的链接,供其他学习者参考。 3⃣ 作者的训练数据集分享 为了帮助更多学习者,作者慷慨地分享了自己完整的训练图像数据集,其中还包含了他使用的 OneTrainer 配置文件。这些数据可供其他 LoRA 制作人下载参考和使用。数据集已经过作者的筛选,图像质量有保证。 4⃣ 训练成果展示

封面图片

Stability AI正式发布了我们期待已久的SDXL 1.0。下面是模型的介绍和使用方式。

Stability AI正式发布了我们期待已久的SDXL 1.0。下面是模型的介绍和使用方式。 SDXL的特点: SDXL有两个模型组成第二个模型可以生成更鲜艳、更准确的颜色,并且比其前身具有更好的对比度、光照和阴影。 SDXL 1.0 是所有开放获取图像模型中参数数量最多的模型之一,拥有 3.5B 参数基础模型和 6.6B 参数模型集成管道。 如何使用SDXL 1.0: 首先你可以在Github上下载开源的模型文件,前几天Web UI已经支持了SDXL模型: 如果你想要立即体验的话可以在clipdrop线上尝试: 也可以在stability API调用相关接口: 最后在dream studio也可以在线体验SDXL: 祝各位玩的愉快。期待大佬们的新丹和ControlNet的支持。

封面图片

如果你正在使用 Instagram 或 Facebook,那么 Meta 正在利用你的数据来训练其 AI 模型。该公司使用帖子作

如果你正在使用 Instagram 或 Facebook,那么 Meta 正在利用你的数据来训练其 AI 模型。该公司使用帖子作为其生成式 AI 系统的训练材料。 如果不是因为欧洲的隐私立法,我们可能永远不会知道 Meta 正在使用我们的数据来训练其 AI 模型。这些法律迫使公司披露他们获取、处理和保留数据的方式,并提供选择退出的选项。 为了遵守规定,公司今天正在给 Instagram 和 Facebook 用户发送邮件。 随着我们在 Meta 扩展人工智能,我们正在更新我们的隐私政策(点击展开) Hi <Name>,  我们正准备将 Meta 的 AI 体验扩展到你们地区。Meta 的 AI 是我们一系列生成式 AI 功能和体验的集合,包括 Meta AI 和 AI 创意工具,以及支持它们的模型。 这对你意味着什么 为了帮助将这些体验带给你,我们现在将依靠合法权益这一法律依据来使用你的信息,以开发和改进 Meta 的人工智能。这意味着你有权反对你的信息被用于这些目的。如果你的反对被接受,那么从那时起就会生效。 我们正在更新隐私政策以反映这些变化。更新将于 2024 年 6 月 26 日生效。 公司的邮件说,如果你的反对意见被接受,他们才会从其 AI 训练中删除你的数据,这表明这不是自动进行的。 当你点击链接提出异议时,会要求你说明理由。 这两种做法在法律上都有些可疑,因为它们让人觉得你需要为自己的请求找个理由。实际上,在这种情况下,如果公司只是为了自己的商业利益使用你的数据,那么它必须遵守你的退出要求。 标签: #Meta #DMA #隐私 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

试了一下lllyasviel的Web UI分支Forge,太强了。

试了一下lllyasviel的Web UI分支Forge,太强了。 在我的电脑上测试的时候图片生成速度快了一倍左右,Web UI需要3.7秒的图Forge只需要1.9秒。 而且lllyasviel还在Forge预装了很多非常有用的功能,比如提高图像质量的FreeU以及可以帮助SD1.5直接生成大图的Kohya的HRFix。 如果你平时就是用Web UI画画图不装一些奇怪复杂插件的话,或者你的显卡比较差,都推荐替换为Forge。 安装方式直接从下面链接替换整合包就行,如果你需要用你WebUI的模型文件的话可以鼠标右键用记事本打开web ui根目录的webui-user.bat文件。 把第二张图位置加上这段内容就行,文件夹目录改成你需要的目录(注意斜杠):ckpt-dir D:/sd/novelai-webui-aki-v2/models/Stable-diffusion vae-dir D:/sd/novelai-webui-aki-v2/models/VAE lora-dir D:/sd/novelai-webui-aki-v2/models/Lora gfpgan-models-path D:/sd/novelai-webui-aki-v2/models/GFPGAN esrgan-models-path D:/sd/novelai-webui-aki-v2/models/ESRGAN controlnet-dir D:/sd/novelai-webui-aki-v2/models/ControlNet 这里安装:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人