昨天的 line2normal 我在 ComfyUI 里搭出来了

昨天的 line2normal 我在 ComfyUI 里搭出来了 工作流在评论区,也可以在 OpenArt 上下载: 需要接对应的 LoRA 和 controlnet 模型: Line2Normal LoRA(权重1.2-1.5):https:// ControlNet-LoRA: ControlNet 的预处理器接 lineart 或者 canny 都可以,我觉得 lineart 效果更好。 我还接了一个 WD14 自动打标,因为发现效果和描述也有关系。 动画的底模效果也会更好,因为 LoRA 是 SDXL 上训练的,所以底模要用 XL 的,我用的 animagine xl 3.1 或者 realcartoonxl_v5

相关推荐

封面图片

最近和朋友七黔在琢磨基于 SDXL 训练的 AI 美甲工具,有两件让我特别兴奋的事情!

最近和朋友七黔在琢磨基于 SDXL 训练的 AI 美甲工具,有两件让我特别兴奋的事情! 第一是,除了穿戴甲 LoRA在 SDXL 上训练效果比1.5好了特别多以外,还可以通过训练 LoRA 直接实现美甲上手效果!!! 另一个是可以通过最新的 ControlNet 模型 IP-Adapter 根据参考图直接提取图像设计出美甲款式,这一点也太有想象空间了。 我们把 demo 部署了一下,如果感兴趣可以试试看: #AI工作流

封面图片

Lora分层控制拯救了我之前做的废模型。一两个月前在调研虚拟人的Lora模型训练,提高下同事生产图片的效率。开始给到我的训练图片

Lora分层控制拯救了我之前做的废模型。一两个月前在调研虚拟人的Lora模型训练,提高下同事生产图片的效率。开始给到我的训练图片不多,而且当时训练也没做太多处理,导致当时做的Lora出图面部经常受到训练集图片里的一些乱七八糟元素的影响,而且模型泛化也不太好,背景经常会带上训练集里的背景。后来又优化了几版,后面也学到了用Lora分层控制来结合人物Lora、画风Lora、衣服Lora。想到应该可以用这个来拯救下之前觉得废弃的模型,还加上了一些优化的正负向text inversion embeddings,效果还不错,废片率大幅度下降。(调了下prompt让人物的特征和画风与训练用的虚拟人形象保持一定区别) 底模除了Chilloutmix之外,最近发现这个底模比较好用,模型页也没有明确的对商用场景的限制: 另外推荐一些优化任务的正负向的Text Inversion Embedding: pureerosface: ulzzang-6500: ng_deepnegative_v1_75t: easynegative: badhandv4:

封面图片

最近发现很多朋友学会了Stable Diffusion后,都是停留在“玩”的层面。但我觉得让大家“用”起来,才是关键

最近发现很多朋友学会了Stable Diffusion后,都是停留在“玩”的层面。但我觉得让大家“用”起来,才是关键 于是我思考了很久,找出了SD在“应用”层面,最重要的两个功能:Lora和ControlNet Lora负责把自己生活中有关联的人或物炼制成模型 详情戳 ControlNet负责更好地“控制”这个“模型” 两者结合,你就能真正把SD用起来,无论是定制自己的真人模特,还是给某个商业产品做成模型,都可以实现

封面图片

我的 ComfyUI 基础七课录完了!

我的 ComfyUI 基础七课录完了! 其实起初只是教身边的朋友如何用 comfyui 文生图组件入门,但问我的朋友实在太多了,决定直接放到 B 站。 以后没看完这些视频不准向我提问! 1. 安装部署: 2. 界面介绍: 3. 文生图、图生图: 4. ComfyUI 中使用 ControlNet: 5. ComfyUI 中不同放大图像方式: 6. ComfyUI InstantID: 7. ComfyUI Ipadapter 老版: 7.2 ComfyUI Ipadapter 新版: 另外还录了一个自认为非常干货的用 AI 做分镜的经验分享,并且用上了行活的几个工具网站,虽然有30分钟,但是是非常值得看的内容啦!: 之后应该很长时间不会更新教程视频啦~ 这次回馈下开源社区,介绍入门基础组件,很适合新手,希望对大家起到帮助!

封面图片

忍不住再推荐一次 Layer Diffusion,直接生成 PNG 素材真的对设计师太太太友好了~~~~~甚至能直接生成发丝和透

忍不住再推荐一次 Layer Diffusion,直接生成 PNG 素材真的对设计师太太太友好了~~~~~甚至能直接生成发丝和透明玻璃杯! 这工作流兼容 SDXL 系列的所有模型和 Lora,我用的模型是 DreamshaperXL Turbo,4~8步就能生成效果很好的素材,直接把生成速度压缩到秒级,见图1。 ▶ 插件安装和部署: ▶ DreamShaper XL 下载: 最近和@海辛Hyacinth 做的鸡尾酒单就是用它来加的装饰素材( 你甚至可以把整个流程反过来 给现成的 PNG 素材生成背景,工作流见图7。 这简直是所有产品展示场景的刚需! 最后补充一个冷知识:Layer Diffusion 的作者之一就是 Controlnet 的作者 Lvmin Zhang~! 谢谢,不愧是你! #AI绘画

封面图片

这个真不错,TCD 模型解决了 LCM 模型由于多步采样中累积的错误导致的图像细节丢失和性能下降的问题。

这个真不错,TCD 模型解决了 LCM 模型由于多步采样中累积的错误导致的图像细节丢失和性能下降的问题。 可以快速生成图片,并且保证生成图片的质量和细节。还支持 SDXL 生态的所有内容,比如 Lora 和 Controlnet 。 详细介绍: 潜在一致性模型(Latent Consistency Model, LCM)通过将一致性模型扩展到潜在空间,并利用引导一致性蒸馏技术,在加速文本到图像合成方面取得了令人印象深刻的性能。然而,研究人员观察到LCM在生成清晰且细节精致的图像方面存在困难。 为了解决这一限制,研究人员首先深入研究并阐明了潜在的原因,发现主要问题源自三个不同的领域的错误。因此,他们引入了轨迹一致性蒸馏(Trajectory Consistency Distillation, TCD),包括轨迹一致性函数(Trajectory Consistency Function, TCF)和战略性随机采样(Strategic Stochastic Sampling, SSS)。 轨迹一致性函数通过扩大自我一致性边界条件的范围,减少了蒸馏错误,并使TCD能够准确追踪整个概率流常微分方程(Probability Flow ODE)的轨迹。此外,战略性随机采样专门设计用于规避多步一致性采样中固有的累积错误,这种采样方式被精心设计以补充TCD模型。 实验表明,TCD不仅在低噪声函数评估次数(Number of Function Evaluations, NFEs)时显著提高了图像质量,而且与教师模型相比,在高NFEs时产生了更详细的结果。TCD在低NFEs和高NFEs时都保持了优越的生成质量,甚至超过了带有原始SDXL的DPM-Solver++(2S)的性能。值得注意的是,在训练期间没有额外的鉴别器或LPIPS监督。研究人员展示了在20 NFEs下的一些示例。 与Turbo系列相比,TCD采样的NFEs可以随意变化,而不会对结果质量产生不利影响;与LCMs相比,TCD解决了由于多步采样中累积的错误导致的图像细节丢失和性能下降的问题。 在推理过程中,可以通过调整一个超参数gamma来简单地修改图像的细节水平,这不需要引入任何额外的参数。TCD可以适应社区中基于SDXL的各种扩展和插件,例如LoRA、ControlNet、IP Adapter以及其他基础模型,例如Animagine XL。 项目地址: Invalid media:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人