一个懒人 LoRA 制作指南,手把手教你用 OneTrainer 训练自己的 AI 绘画模型,无需深入理论,轻松掌握关键步骤。

一个懒人LoRA制作指南,手把手教你用OneTrainer训练自己的AI绘画模型,无需深入理论,轻松掌握关键步骤。作者是用XL生成的图片,你可以用MIdjoureny生成效果比较好。我完整翻译了内容,并且重新整理了适合推特阅读的版本,或者你可以在下面看完整翻译的内容:-----------------------------1⃣LoRA模型制作教程作者作为一名LoRA模型制作的新手,通过自己的学习实践,总结了一份简明扼要的制作教程。这份教程不涉及太多理论知识,而是直奔主题,手把手教初学者如何训练自己的LoRA模型。作者坦诚分享了自己从最初尝试Embedding和LoRA时遇到的问题,以及后来找到的解决方法,为读者提供了宝贵的经验参考。所需工具介绍要制作LoRA模型,需要准备一些必要的工具。作者推荐使用自己喜欢的模型和图像生成工具,他个人使用的是StableSwarmUI和GhostXL模型。此外,还需要一个训练工具,作者选择了OneTrainer,因为有人说它比另一个常用的工具Kohya更易用。作者还提到,训练时如果需要将SDXL格式的图像转换为SD格式,需要在设置中开启分辨率覆盖选项。2⃣LoRA模型制作步骤作者将LoRA模型的制作过程分为三个主要步骤:第一步是用现有的模型生成大量高质量的图像作为训练数据;第二步是人工检查挑选图像,剔除所有质量不合格的;第三步是使用OneTrainer进行训练,调整必要的参数设置。作者还特别提到,在训练时如果需要将SDXL格式的图像转换为SD格式,一定要记得开启分辨率覆盖选项,否则训练会出问题。训练参数调整心得作为一名新手,作者在调整训练参数时主要参考了一份网上的指南。他尝试调整了Lora设置中的rank参数,将其从默认的16改为32,解决了模型训练中遇到的问题。作者分享了这份参数调整指南的链接,供其他学习者参考。3⃣作者的训练数据集分享为了帮助更多学习者,作者慷慨地分享了自己完整的训练图像数据集,其中还包含了他使用的OneTrainer配置文件。这些数据可供其他LoRA制作人下载参考和使用。数据集已经过作者的筛选,图像质量有保证。4⃣训练成果展示

相关推荐

封面图片

《如何提升专注力:手把手教你用7项改变打造10倍速效率人生》

名称:《如何提升专注力:手把手教你用7项改变打造10倍速效率人生》描述:专注力是你最宝贵的资源之一。它就像一个乘数因子,让时间的价值翻倍。全神贯注的一小时与心不在焉的一小时相比,前者的价值可能是后者的十倍。同时,专注力是一种可以培养的能力。在这本作品中,告诉读者如何从外因与内力2个维度打败分心:一方面如何排除网络年代的信息干扰、如何树立边界与友情回避无用社交,从而建立你的外部舒适区;另一方面如何进行注意力阶梯式训练、如何利用你的拖延症,从而探索你的内在原动力。链接:https://pan.quark.cn/s/dce4b4cc66c1大小:N标签:#电子书#如何提升专注力#quark频道:@yunpanshare群组:@yunpangroup

封面图片

麻了,ComfyUI链接万物了这下,有人推出了ComfyUI Lora训练节点。

麻了,ComfyUI链接万物了这下,有人推出了ComfyUILora训练节点。可以直接在ComfyUI中训练Lora模型。而且设置挺简单的,可以直接在comfyui里面手搓妙鸭了。训练结束后模型会保存在ComfyUIlora文件夹里面,训练后刷新就可以使用和测试。老哥甚至想在ComfyUI中集成Tensorboard。你可以在这里安装这个节点,里面也有作者的教程,非常详细:https://www.reddit.com/r/comfyui/comments/193vnxg/lora_training_directly_in_comfyui/

封面图片

答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐

答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐的部分,主要介绍了音源的处理,模型的使用和后期音轨的合成。看在藏师傅生病肝教程的份上希望各位多多支持,下面是具体步骤,图片顺序跟文字顺序对应详细教程和文件下载可以看这里:https://mp.weixin.qq.com/s/bXD1u6ysYkTEamt-PYI1RA要使用模型进行推理的话你首先需要一段已经演唱好的声音垫进去,所以我们需要先对你垫进去的声音进行处理。首先要安装UVR_v5.5.0,完成后我们需要给UVR增加一个模型解压UVR5模型文件将里面的两个文件夹粘贴到安装目录下的UltimateVocalRemovermodels就行。在处理之前你需要把你声音的格式转换成WAV格式,因为So-VITS-SVC4.0只认WAV格式的音频文件,现在处理了后面会省事点。可以用这个工具处理:https://www.aconvert.com/cn/audio/mp4-to-wav/处理完音频文件后我们就要开始利用UVR去掉背景音了,一共需要过两次,每次的设置都是不同的,下面两张图分别是两次的参数。接下来我们就要运行整合包的WebUI来推理声音了,如果你用的其他人的模型的话你需要先把模型文件放进整合包对应的文件夹下面:首先是模型文件夹下面后缀为pth和pt的两个文件放到整合包的logs44k文件夹下。之后是模型文件里那个叫config.json的json文件,放到整合包的configs文件夹下面。接下来我们就可以运行整合包的WebUI了,打开整合包根目录下的【启动webui.bat】这个文件他会自动运行并打开WebUI的网页,经常玩StableDiffusion的朋友肯定对这个操作不陌生。下面就是WebUI的界面我们使用模型的时候主要用的是推理这个功能。之后就是选择我们的模型,如果你刚才已经把模型放到合适的位置的话你现在应该能在下图的两个位置选择到你的模型和配置文件,如果有报错会在输出信息的位置显示。选择完模型之后我们需要点击加载模型,等待一段时间Loading之后模型会加载完成。OutputMessage这里会输出加载的结果。之后就是上传我们处理好的需要垫的音频文件了,把文件拖动到红框位置就行。

封面图片

微软这个研究相当强啊,可以不经过训练直接融合多个 Lora 不损失效果,而且他们提出的通过 GPT-4V 评价图像质量的方法也很

微软这个研究相当强啊,可以不经过训练直接融合多个Lora不损失效果,而且他们提出的通过GPT-4V评价图像质量的方法也很有参考性。项目介绍:本项目旨在通过新的文本至图像生成方法,着重采用多重低秩适应(Low-RankAdaptations,LoRAs)技术,创造高度个性化且细节丰富的图像。我们介绍了LoRA开关(LoRASwitch)与LoRA组合(LoRAComposite),这两种方式的目标是在精确度和图像质量上超越传统技术,特别是在处理复杂图像组合时。项目特色:免训练方法LoRA开关和LoRA组合支持动态精确地整合多个LoRA,无需进行微调。我们的方法不同于那些融合LoRA权重的做法,而是专注于解码过程,并保持所有LoRA权重不变。ComposLoRA测试平台这是一个全新的综合性测试平台,包含480套组合和22个在六大类别中预训练好的LoRA。ComposLoRA专为评估基于LoRA的可组合图像生成任务而设计,支持定量评估。基于GPT-4V的评估工具我们提出采用GPT-4V作为评估工具,用以判定组合效果及图像质量。该评估工具已证实在与人类评价的相关性上有更好的表现。卓越性能无论是自动化还是人类评价,我们的方法都显著优于现有的LoRA合并技术。在生成复杂图像组合的场景中,我们的方法表现出更加突出的优势。详尽分析我们对每种方法在不同场景下的优势进行了深入的分析。同时,我们还探讨了采用GPT-4V作为评估工具可能存在的偏差。项目地址:

封面图片

手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。

手把手教你训练你自己的AI歌手,最重要的一步来了。如何训练歌手的模型。这一步主要由两部分组成数据处理和模型训练。感谢各位的支持,下面是具体步骤详细教程和文件下载可以看这里:https://mp.weixin.qq.com/s/IeeW1PbMUbxMlLl529JTYQ首先我们需要准备你训练的人的声音素材,尽量找质量比较高人声比较清晰的音频。歌手的声音素材是比较好找的,因为他们的歌就是天然的素材,我们在训练的时候最少要准备30分钟以上的人声素材,一般一个小时到两个小时最好。但是声音的质量大于时间长度,不要为了凑数搞一些质量不那么好的素材。在准备好足够的声音素材之后我们开始对素材进行处理,跟第一期一样,先把我们的素材转换为WAV格式,批量转换的话还是用格式工厂之类的本地软件比较快。获取到我们个WAV格式素材之后,继续进行跟上个教程一样的步骤利用UVR去掉我们素材的伴奏以及混响之类的声音,只留下单纯的人声。处理完成后扔掉分离出来的伴奏,只留下人声素材,整理好备用。类似我下图这样扔到一个文件夹里。接下来我们要对处理好的人声文件进行分割,因为如果训练的时候每段文件过长的话容易爆显存。这个时候就要用到下载文件里的【slicer-gui】这个软件了,它可以自动把声音素材分割成合适的大小。我们先打开slicer-gui,刚开始的参数按我的来就行。把你你准备好的人声素材拖到【TaskList】里面,在Output位置设置好输出文件夹的位置,然后点Start就可以开始分割了。处理好的文件,基本上就是下面这个文件的样子,处理完成后在输出文件夹把文件从大到小排序,看一下最大的文件时多长的,分割完的素材每一段尽量不要超过15秒。不然有可能会爆显存。如果你发现有几条素材比较大的话可以拖进slicer-gui里面重新分割一下,参数按我下面图片设置就行。所有数据处理好之后,我们准备开始训练了首先需要把准备好的素材移动到so-vits-svcdataset_raw这个文件夹下,注意不要直接把素材放在dataset_raw文件夹里,拿个文件夹装好放进去,所有的目录不要有中文字符。我们开始模型训练,运行so-vits-svc根目录的【启动webui.bat】打开WebUI界面,切换到训练Tab下面。然后点击识别数据集,这时候上面就会展示你数据集文件夹的名字,也会是你模型的名字。

封面图片

《五小时吃透小红书(商业版)》手把手教你小红书如何变现

名称:《五小时吃透小红书(商业版)》手把手教你小红书如何变现描述:本书聚焦于小红书的流量增长与商业变现,从流量洼地、流量获取、流量运营、流量变现、流量投放5个方面展开,为读者解读了小红书的商业价值、在小红书获取和运营流量的方法、变现的路径、营销投放和“种草”的策略。同时,本书还提供了大量精彩的实战案例,读者可以从中获得启发,找到运营好小红书账号、进行商业变现的方法。总之,本书对小红书商业化做出了系统、翔实的讲解,能够为读者提供有效的、切实可行的指导。提供PDF、azw3、mobi、epub格式。链接:https://pan.quark.cn/s/52c6455184cc大小:61.9MB标签:#商业#办公#图书#五小时吃透小红书#quark频道:@yunpanshare群组:@yunpangroup

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人