麻了,ComfyUI链接万物了这下,有人推出了ComfyUI Lora训练节点。

麻了,ComfyUI链接万物了这下,有人推出了ComfyUILora训练节点。可以直接在ComfyUI中训练Lora模型。而且设置挺简单的,可以直接在comfyui里面手搓妙鸭了。训练结束后模型会保存在ComfyUIlora文件夹里面,训练后刷新就可以使用和测试。老哥甚至想在ComfyUI中集成Tensorboard。你可以在这里安装这个节点,里面也有作者的教程,非常详细:https://www.reddit.com/r/comfyui/comments/193vnxg/lora_training_directly_in_comfyui/

相关推荐

封面图片

卧槽,期待的东西终于来了,AnyNode 这个 ComfyUI 节点牛哇。

卧槽,期待的东西终于来了,AnyNode这个ComfyUI节点牛哇。你可以输入提示词让LLM帮你编写任何功能的节点。AnyNode会根据你的要求编写一个Python函数,然后把这个节点链接到你要求的输出格式节点就行。比如作者案例里面就通过提示词实现了文本总结节点、颜色通道调整节点,Ins滤镜节点,甚至一个边缘检测器。插件地址:https://github.com/lks-ai/anynode

封面图片

一个懒人 LoRA 制作指南,手把手教你用 OneTrainer 训练自己的 AI 绘画模型,无需深入理论,轻松掌握关键步骤。

一个懒人LoRA制作指南,手把手教你用OneTrainer训练自己的AI绘画模型,无需深入理论,轻松掌握关键步骤。作者是用XL生成的图片,你可以用MIdjoureny生成效果比较好。我完整翻译了内容,并且重新整理了适合推特阅读的版本,或者你可以在下面看完整翻译的内容:-----------------------------1⃣LoRA模型制作教程作者作为一名LoRA模型制作的新手,通过自己的学习实践,总结了一份简明扼要的制作教程。这份教程不涉及太多理论知识,而是直奔主题,手把手教初学者如何训练自己的LoRA模型。作者坦诚分享了自己从最初尝试Embedding和LoRA时遇到的问题,以及后来找到的解决方法,为读者提供了宝贵的经验参考。所需工具介绍要制作LoRA模型,需要准备一些必要的工具。作者推荐使用自己喜欢的模型和图像生成工具,他个人使用的是StableSwarmUI和GhostXL模型。此外,还需要一个训练工具,作者选择了OneTrainer,因为有人说它比另一个常用的工具Kohya更易用。作者还提到,训练时如果需要将SDXL格式的图像转换为SD格式,需要在设置中开启分辨率覆盖选项。2⃣LoRA模型制作步骤作者将LoRA模型的制作过程分为三个主要步骤:第一步是用现有的模型生成大量高质量的图像作为训练数据;第二步是人工检查挑选图像,剔除所有质量不合格的;第三步是使用OneTrainer进行训练,调整必要的参数设置。作者还特别提到,在训练时如果需要将SDXL格式的图像转换为SD格式,一定要记得开启分辨率覆盖选项,否则训练会出问题。训练参数调整心得作为一名新手,作者在调整训练参数时主要参考了一份网上的指南。他尝试调整了Lora设置中的rank参数,将其从默认的16改为32,解决了模型训练中遇到的问题。作者分享了这份参数调整指南的链接,供其他学习者参考。3⃣作者的训练数据集分享为了帮助更多学习者,作者慷慨地分享了自己完整的训练图像数据集,其中还包含了他使用的OneTrainer配置文件。这些数据可供其他LoRA制作人下载参考和使用。数据集已经过作者的筛选,图像质量有保证。4⃣训练成果展示

封面图片

最近和朋友七黔在琢磨基于 SDXL 训练的 AI 美甲工具,有两件让我特别兴奋的事情!

最近和朋友七黔在琢磨基于SDXL训练的AI美甲工具,有两件让我特别兴奋的事情!第一是,除了穿戴甲LoRA在SDXL上训练效果比1.5好了特别多以外,还可以通过训练LoRA直接实现美甲上手效果!!!另一个是可以通过最新的ControlNet模型IP-Adapter根据参考图直接提取图像设计出美甲款式,这一点也太有想象空间了。我们把demo部署了一下,如果感兴趣可以试试看:https://sdx1.yamin.eu.org/t#AI工作流

封面图片

Civitai终于上了免费的图片生成的功能,你现在可以直接在Civit上使用站内的CKPT模型和Lora模型,C站应该是现在

Civitai终于上了免费的图片生成的功能,你现在可以直接在Civitai上使用站内的CKPT模型和Lora模型,C站应该是现在SD模型最多的地方了一些简单的图可以直接去试试了。目前应该是不支持SDXL的模型,也不支持ControlNet,图像分辨率是固定的三个。我下面简单介绍一下生成功能的用法:你可以在https://civitai.com/页面右下角找到Create的按钮点击就可以打开创建的弹窗。你可以点击“AddModel”添加CKPT模型基本上可以搜到站内所有的模型,但是目前不能添加SDXL模型。接下来就是提示词和反向提示词的填写,“Maturecontent”开启后可以生成那啥内容。最后可以选择生成图片的尺寸,然后点击“Advanced”的三角可以展开各种高级设置。然后点击Generate就可以生成图片了。然后在“Queue”可以看到你图片生成的队列,在“Feed”里面可以看到所有生成过图片的大图。教程基本就这些了,相较于国内那几个webUI套壳改的模型网站的生成功能Civitai的这个交互看起来还是做过优化有思考的,而且随便写一些提示词生成的效果也不错应该是有一些其他的优化。趁现在还免费可以先去试试:https://civitai.com/

封面图片

总结一下我自己在做模型训练时关注到的一些很喜欢的 AI 前沿探索者,以及工具和资源。

总结一下我自己在做模型训练时关注到的一些很喜欢的AI前沿探索者,以及工具和资源。1.StableDiffusion入门推荐:腾讯技术工程《开源图像模型StableDiffusion入门手册》https://mp.weixin.qq.com/s/8czNX-pXyOeFDFhs2fo7HA推荐理由:目前总结的最好的,没有花里胡哨的内容,信息量大且系统,很难相信是直接开源的文章分享,反复读的文章之一了。2.LoRA角色模型训练:YouTube频道@BernardMaltaishttps://www.youtube.com/watch?v=N4_-fB62Hwk&t=338s推荐理由:Kohya训练脚本的作者,上下两集共90分钟讲解了Lora模型的训练,从数据集收集到处理到训练参数。建议这种教程能看开发者做的就看开发者做的,很多追热点的up经常为了图快没玩明白就出攻略,我跟着很多油管的教程操作,常被带进坑里……3.微调风格模型训练:Twitter@Nitrosockehttps://github.com/nitrosocke/dreambooth-training-guide推荐理由:Nitro训练过很多非常棒的模型,他的GitHub页面有详细讲风格模型怎么训练的教程。他自己本身是设计师出身,在去年年底微调了几个很厉害的风格模型后,现在被StabilityAI挖走了。4.ControlNet插件研发用户推荐Twitter@toyxyzhttps://toyxyz.gumroad.com/推荐理由:他做了利用Blender来辅助AI出图的免费插件,打通工作流3D辅助AI的第一人哈哈。最近他在研究的方向是ControlNet动画,总之是厉害、前沿又无私的开发者。5.AI放大工具推荐TopazGigapixel:用过最好用的,可以批量放大,基本所有图片训练前我都会用这个过一遍Upscayl:会增加细节,但是只能给常见物体增加细节Gigagan:还没出,但看效果挺值得关注#AI工作流#AI的神奇用法

封面图片

开源社区终于有一个好的视频转绘项目了!

开源社区终于有一个好的视频转绘项目了!还提供了Colab笔记,直接运行就可以,不需要摆弄麻烦的Comfyui流程和一堆模型了。Diffutoon能够以动漫风格渲染出细节丰富、高分辨率和长时间的视频。它还可以通过一个附加模块根据提示编辑内容。项目地址,里面有Colab笔记可以直接运行:https://github.com/modelscope/DiffSynth-Studio/tree/main/examples/DiffutoonInvalidmedia:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人