手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。

手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。感谢各位的支持,下面是具体步骤详细教程和文件下载可以看这里:https://mp.weixin.qq.com/s/IeeW1PbMUbxMlLl529JTYQ首先我们需要准备你训练的人的声音素材,尽量找质量比较高人声比较清晰的音频。歌手的声音素材是比较好找的,因为他们的歌就是天然的素材,我们在训练的时候最少要准备30分钟以上的人声素材,一般一个小时到两个小时最好。但是声音的质量大于时间长度,不要为了凑数搞一些质量不那么好的素材。在准备好足够的声音素材之后我们开始对素材进行处理,跟第一期一样,先把我们的素材转换为WAV格式,批量转换的话还是用格式工厂之类的本地软件比较快。获取到我们个WAV格式素材之后,继续进行跟上个教程一样的步骤利用UVR去掉我们素材的伴奏以及混响之类的声音,只留下单纯的人声。处理完成后扔掉分离出来的伴奏,只留下人声素材,整理好备用。类似我下图这样扔到一个文件夹里。接下来我们要对处理好的人声文件进行分割,因为如果训练的时候每段文件过长的话容易爆显存。这个时候就要用到下载文件里的【slicer-gui】这个软件了,它可以自动把声音素材分割成合适的大小。我们先打开slicer-gui,刚开始的参数按我的来就行。把你你准备好的人声素材拖到【TaskList】里面,在Output位置设置好输出文件夹的位置,然后点Start就可以开始分割了。处理好的文件,基本上就是下面这个文件的样子,处理完成后在输出文件夹把文件从大到小排序,看一下最大的文件时多长的,分割完的素材每一段尽量不要超过15秒。不然有可能会爆显存。如果你发现有几条素材比较大的话可以拖进slicer-gui里面重新分割一下,参数按我下面图片设置就行。所有数据处理好之后,我们准备开始训练了首先需要把准备好的素材移动到so-vits-svcdataset_raw这个文件夹下,注意不要直接把素材放在dataset_raw文件夹里,拿个文件夹装好放进去,所有的目录不要有中文字符。我们开始模型训练,运行so-vits-svc根目录的【启动webui.bat】打开WebUI界面,切换到训练Tab下面。然后点击识别数据集,这时候上面就会展示你数据集文件夹的名字,也会是你模型的名字。

相关推荐

封面图片

RT 归藏手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。这个林

封面图片

答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐

答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐的部分,主要介绍了音源的处理,模型的使用和后期音轨的合成。看在藏师傅生病肝教程的份上希望各位多多支持,下面是具体步骤,图片顺序跟文字顺序对应详细教程和文件下载可以看这里:https://mp.weixin.qq.com/s/bXD1u6ysYkTEamt-PYI1RA要使用模型进行推理的话你首先需要一段已经演唱好的声音垫进去,所以我们需要先对你垫进去的声音进行处理。首先要安装UVR_v5.5.0,完成后我们需要给UVR增加一个模型解压UVR5模型文件将里面的两个文件夹粘贴到安装目录下的UltimateVocalRemovermodels就行。在处理之前你需要把你声音的格式转换成WAV格式,因为So-VITS-SVC4.0只认WAV格式的音频文件,现在处理了后面会省事点。可以用这个工具处理:https://www.aconvert.com/cn/audio/mp4-to-wav/处理完音频文件后我们就要开始利用UVR去掉背景音了,一共需要过两次,每次的设置都是不同的,下面两张图分别是两次的参数。接下来我们就要运行整合包的WebUI来推理声音了,如果你用的其他人的模型的话你需要先把模型文件放进整合包对应的文件夹下面:首先是模型文件夹下面后缀为pth和pt的两个文件放到整合包的logs44k文件夹下。之后是模型文件里那个叫config.json的json文件,放到整合包的configs文件夹下面。接下来我们就可以运行整合包的WebUI了,打开整合包根目录下的【启动webui.bat】这个文件他会自动运行并打开WebUI的网页,经常玩StableDiffusion的朋友肯定对这个操作不陌生。下面就是WebUI的界面我们使用模型的时候主要用的是推理这个功能。之后就是选择我们的模型,如果你刚才已经把模型放到合适的位置的话你现在应该能在下图的两个位置选择到你的模型和配置文件,如果有报错会在输出信息的位置显示。选择完模型之后我们需要点击加载模型,等待一段时间Loading之后模型会加载完成。OutputMessage这里会输出加载的结果。之后就是上传我们处理好的需要垫的音频文件了,把文件拖动到红框位置就行。

封面图片

机器学习方案手册,一本包含逐步说明为各种任务训练深度学习模型的书。内容覆盖自然语言处理、计算机视觉、图像与文字

机器学习方案手册,一本包含逐步说明为各种任务训练深度学习模型的书。内容覆盖自然语言处理、计算机视觉、图像与文字本书分为3个部分:自然语言处理(NLP)计算机视觉(CV)图片和文字以下是本节各章的简要概述:命名实体识别-讨论使用conllpp数据集识别命名实体的训练转换器模型。我们将使用的特定模型称为bert-base-cased。该模型是原始BERT的较小版本,并且区分大小写,这意味着它将大写和小写字母视为不同。掩蔽语言建模-与填空问题类似,我们训练一个模型来使用xsum数据集预测句子中的掩蔽词。我们将使用的特定模型称为distilbert-base-uncased。这是bertbaseuncased模型的精炼版本,它以相同的方式处理大写和小写字母。机器翻译——在本章中,训练一个模型将文本从英语翻译成西班牙语。我们将在新闻评论数据集上训练来自赫尔辛基NLP小组的变压器模型。总结——在本章中,训练了一个多语言模型来总结英语和西班牙语句子。使用的模型是T5Transformer模型的多语言版本,使用的数据集是amazonreviewsdataset。因果语言建模-本章重点介绍训练模型以自动完成Python代码。为此,我们将使用用于训练代码鹦鹉模型的数据。计算机视觉部分涵盖了该领域下最常见的任务。本节中的章节使用pytorch闪电、pytorch图像模型(timm)、albumentations库和权重和偏差平台。以下是本节各章的简要概述:图像分类-我们将训练卷积神经网络(CNN)模型对动物图像进行分类。我们将使用的CNN模型是“resnet34”,使用的数据集是动物图像数据集。图像分割-本章侧重于训练模型以分割给定图像中的道路。我们将使用U-net模型来完成此任务。物体检测——在本章中,我们将专注于检测图像中的汽车。我们将预测与图像中包围汽车的边界框相对应的坐标。对于这个任务,我们将使用fast-rcnn模型。最后一节包含训练模型以在给定图像的情况下生成标题的章节。它将有一个视觉转换器作为编码器,gpt-2模型作为解码器。#电子书#机器学习#手册

封面图片

一个懒人 LoRA 制作指南,手把手教你用 OneTrainer 训练自己的 AI 绘画模型,无需深入理论,轻松掌握关键步骤。

一个懒人LoRA制作指南,手把手教你用OneTrainer训练自己的AI绘画模型,无需深入理论,轻松掌握关键步骤。作者是用XL生成的图片,你可以用MIdjoureny生成效果比较好。我完整翻译了内容,并且重新整理了适合推特阅读的版本,或者你可以在下面看完整翻译的内容:-----------------------------1⃣LoRA模型制作教程作者作为一名LoRA模型制作的新手,通过自己的学习实践,总结了一份简明扼要的制作教程。这份教程不涉及太多理论知识,而是直奔主题,手把手教初学者如何训练自己的LoRA模型。作者坦诚分享了自己从最初尝试Embedding和LoRA时遇到的问题,以及后来找到的解决方法,为读者提供了宝贵的经验参考。所需工具介绍要制作LoRA模型,需要准备一些必要的工具。作者推荐使用自己喜欢的模型和图像生成工具,他个人使用的是StableSwarmUI和GhostXL模型。此外,还需要一个训练工具,作者选择了OneTrainer,因为有人说它比另一个常用的工具Kohya更易用。作者还提到,训练时如果需要将SDXL格式的图像转换为SD格式,需要在设置中开启分辨率覆盖选项。2⃣LoRA模型制作步骤作者将LoRA模型的制作过程分为三个主要步骤:第一步是用现有的模型生成大量高质量的图像作为训练数据;第二步是人工检查挑选图像,剔除所有质量不合格的;第三步是使用OneTrainer进行训练,调整必要的参数设置。作者还特别提到,在训练时如果需要将SDXL格式的图像转换为SD格式,一定要记得开启分辨率覆盖选项,否则训练会出问题。训练参数调整心得作为一名新手,作者在调整训练参数时主要参考了一份网上的指南。他尝试调整了Lora设置中的rank参数,将其从默认的16改为32,解决了模型训练中遇到的问题。作者分享了这份参数调整指南的链接,供其他学习者参考。3⃣作者的训练数据集分享为了帮助更多学习者,作者慷慨地分享了自己完整的训练图像数据集,其中还包含了他使用的OneTrainer配置文件。这些数据可供其他LoRA制作人下载参考和使用。数据集已经过作者的筛选,图像质量有保证。4⃣训练成果展示

封面图片

“ChatGPT之父”:OpenAI早已不使用客户数据来训练模型

“ChatGPT之父”:OpenAI早已不使用客户数据来训练模型OpenAI是近期爆火的AI聊天机器人ChatGPT的开发商,而阿尔特曼提到的“大语言模型”就是ChatGPT背后的关键技术。据了解,开发商在训练大语言模型时需要摄取网络上的海量数据,才能提高模型生成自然语言的能力。阿尔特曼在专访中说道,“用户们显然希望我们不要使用他们的数据进行训练,所以我们已经改变了我们的计划,未来我们也不会这样做了。”网络记录也显示,今年3月1日,OpenAI悄然更新了其服务条款:“不会使用通过其API提交的任何数据来‘服务改进’,包括AI模型训练,除非客户或组织选择加入。”此外,该公司同时添加了30天的数据保留政策,API用户可以选择“根据用户需求”进行更严格的保留,并简化其条款和数据所有权,以明确用户拥有模型的输入和输出。鉴于新的隐私规则仅适用于API用户,这也意味着,普通用户和ChatGPT之间的对话内容,只要用户切换“关闭聊天记录”按钮,仍会进入到模型的训练资料库。长期以来,开发人员一直对OpenAI先前的数据处理政策颇有异议,声称这会带来隐私风险并允许公司从他们的数据中获利。目前,亚马逊等公司已经颁布了禁止员工分享敏感数据的措施,以防范ChatGPT这样的大语言模型窃取公司机密。另有消息称,三星电子本周也推出了一项新政策,要求员工不得在工作场所使用ChatGPT等生成式人工智能。此前,该公司的半导体业务部门曝出了三起机密资料外泄案件,其中两起与半导体设备有关的文件可能已经录入到ChatGPT的学习资料库中。本周早些时候,美国作家协会(WGA)与电影公司之间为期六周的合同谈判破裂,好莱坞面临15年来首次编剧罢工。而究其原因,是美国作家协会要求限制人工智能编写电影和电视剧剧本。美国作家协会谈判委员会成员JohnAugust表示,编剧对人工智能主要有两个不满:他们不想让自己的作品成为“喂饱”AI的材料,也不想以后只能修改AI草率的初稿。...PC版:https://www.cnbeta.com.tw/articles/soft/1358383.htm手机版:https://m.cnbeta.com.tw/view/1358383.htm

封面图片

AI耗电巨高推动巨头提前部署 微软正训练大模型加速核电站审批

AI耗电巨高推动巨头提前部署微软正训练大模型加速核电站审批核能审批流程长、花费多?交给AI来解决在全球走向碳中和的过程中,核能正在受到热捧。与投资者熟悉的光伏、风能不同,核能的优势在于能够提供全天候的稳定能源。但这项能源也有一个极其显著的障碍:令人生畏、成本高昂的核能监管程序。举例而言,眼下核能产业正在加速攻关“小型模组化反应炉”(SMR)的商用落地。现在整个美国现在只有NuScale能源的SMR设计拿到监管批文。据悉,NuScale的整个审批过程花费超5亿美元,总共提交了1.2万页的申请表,支持这些文件的材料则超过200万页。在这样的背景下,虽然核能看上去前景广阔,但地球上的情况却是核能发电量正在持续下降。上周发布的《世界核产业现状报告》中提及,去年核电占全球发电量的9.2%,处于近40年最低的位置。随着新能源项目的建设成本逐渐下降,传统化石燃料发电价格也在暴涨后回落,都使得核电变成“不那么经济”的选项。但对于渴望获得24小时稳定、大量电力的AI巨头而言,核能依然是长期发展目标中难以割舍的项目。据悉,从半年前开始,微软内部就部署了一个团队,专门使用美国核能监管方面的文件来训练AI,目标是训练出一个能够快速减少核电站建设审批时间和成本的专用大模型。具体来说,微软正在与一家名为TerraPraxis的非营利组织合作,后者的目标是推进老旧煤电厂改建为小型核电站。微软方面提供代码,TerraPraxis提供核监管领域的专业知识。TerraPraxis联席CEOEricIngersoll解释称,AI能够将获取新核电站批文所需的人类文字工作时间减少90%,同时对于其他新能源开发商而言,AI也有可能减少环评等流程所需的时间。为了使用监管文件训练AI,微软和TerraPraxis团队正在将这些文件分解成更小的部分。Ingersoll表示,我们所做的事情是在非常具体、高度结构化的文件上训练(大语言模型),以生成与以前的文件几乎完全相同的另一个高度结构化文件。在这个过程中不会出现那些“AI幻觉”问题。TerraPraxis的另一名联席CEOKirstyGogan进一步解释称,这个想法是自动化常规工作,从而让专业的监管机构和开发商来处理“需要人而不是机器解决的问题”。微软的可持续政策高级主管MichellePatron总结道,我们对人工智能在这个领域改变游戏规则的潜力感到非常兴奋。微软领跑其他“用电大户”也在观望众所周知,微软创始人比尔·盖茨早在2008年就投资创办了小型核电站初创企业TerraPower,之后他一直都是核能的坚定拥趸。在他2021年出版的书《如何避免气候灾害》中,他曾提到“没有其他清洁能源比核能更可靠,也没有任何可靠能源比核能更干净”。在今年5月的《盖茨笔记》中,他也提到TerraPower正在怀俄明州建设一家新型核电站,预计能够在2030年投入运营。前世界首富透露,新型核电站不仅使用液钠(代替水)进行散热,同时在设计过程中也大量使用超算模拟可能出现的事故,确保核电站在各种情况下依然能保持安全。除了展望十年后的核电站外,微软的数据中心现在已经用上了核电。在美国拥有最多核电站的联合能源公司今年6月与微软达成协议,将在风电和光伏供应不足的情况下,向微软弗吉尼亚州数据中心提供“精确到秒”的电力供应。联合能源的CEOJosephDominguez赞叹称,数据中心与核能就是“天作之合”。联合能源同时预期,随着AI的爆发,数据中心的电力需求将是电动车充电需求的5至6倍。作为微软的竞争对手,谷歌现在并没有开始采购核电,但已经对小型核电站表达了兴趣。谷歌清洁能源和去碳化发展全球主管MaudTexier表示,核能、特别是先进核能,正在取得很大进展。Texier也将核能项目的成本与15年前风电和光伏相比,强调成本下降将会成为部署的动能。顺便一提,由于核能开发目前的成本高企,恐怕也只有微软这样的“大金主”才能玩得起。前文提到的那家NuScale能源虽然拿到了政府批文,但公司的首个商业化项目却在上个月正式告吹。原本NuScale的犹他州项目有机会成为美国第一个SMR,但由于开发成本上升,多个村镇选择退出这个项目。究其原因,是因为NuScale在今年1月预测这个核电站的目标价格为89美元/兆瓦时,较此前预计的53美元美元/兆瓦时提高了接近50%,当地的电力公司担忧没有足够多的客户会为此买单。...PC版:https://www.cnbeta.com.tw/articles/soft/1403965.htm手机版:https://m.cnbeta.com.tw/view/1403965.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人