昨天的 line2normal 我在 ComfyUI 里搭出来了

昨天的 line2normal 我在 ComfyUI 里搭出来了 工作流在评论区,也可以在 OpenArt 上下载: 需要接对应的 LoRA 和 controlnet 模型: Line2Normal LoRA(权重1.2-1.5):https:// ControlNet-LoRA: ControlNet 的预处理器接 lineart 或者 canny 都可以,我觉得 lineart 效果更好。 我还接了一个 WD14 自动打标,因为发现效果和描述也有关系。 动画的底模效果也会更好,因为 LoRA 是 SDXL 上训练的,所以底模要用 XL 的,我用的 animagine xl 3.1 或者 realcartoonxl_v5

相关推荐

封面图片

最近和朋友七黔在琢磨基于 SDXL 训练的 AI 美甲工具,有两件让我特别兴奋的事情!

最近和朋友七黔在琢磨基于 SDXL 训练的 AI 美甲工具,有两件让我特别兴奋的事情! 第一是,除了穿戴甲 LoRA在 SDXL 上训练效果比1.5好了特别多以外,还可以通过训练 LoRA 直接实现美甲上手效果!!! 另一个是可以通过最新的 ControlNet 模型 IP-Adapter 根据参考图直接提取图像设计出美甲款式,这一点也太有想象空间了。 我们把 demo 部署了一下,如果感兴趣可以试试看: #AI工作流

封面图片

Lora分层控制拯救了我之前做的废模型。一两个月前在调研虚拟人的Lora模型训练,提高下同事生产图片的效率。开始给到我的训练图片

Lora分层控制拯救了我之前做的废模型。一两个月前在调研虚拟人的Lora模型训练,提高下同事生产图片的效率。开始给到我的训练图片不多,而且当时训练也没做太多处理,导致当时做的Lora出图面部经常受到训练集图片里的一些乱七八糟元素的影响,而且模型泛化也不太好,背景经常会带上训练集里的背景。后来又优化了几版,后面也学到了用Lora分层控制来结合人物Lora、画风Lora、衣服Lora。想到应该可以用这个来拯救下之前觉得废弃的模型,还加上了一些优化的正负向text inversion embeddings,效果还不错,废片率大幅度下降。(调了下prompt让人物的特征和画风与训练用的虚拟人形象保持一定区别) 底模除了Chilloutmix之外,最近发现这个底模比较好用,模型页也没有明确的对商用场景的限制: 另外推荐一些优化任务的正负向的Text Inversion Embedding: pureerosface: ulzzang-6500: ng_deepnegative_v1_75t: easynegative: badhandv4:

封面图片

我的 ComfyUI 基础七课录完了!

我的 ComfyUI 基础七课录完了! 其实起初只是教身边的朋友如何用 comfyui 文生图组件入门,但问我的朋友实在太多了,决定直接放到 B 站。 以后没看完这些视频不准向我提问! 1. 安装部署: 2. 界面介绍: 3. 文生图、图生图: 4. ComfyUI 中使用 ControlNet: 5. ComfyUI 中不同放大图像方式: 6. ComfyUI InstantID: 7. ComfyUI Ipadapter 老版: 7.2 ComfyUI Ipadapter 新版: 另外还录了一个自认为非常干货的用 AI 做分镜的经验分享,并且用上了行活的几个工具网站,虽然有30分钟,但是是非常值得看的内容啦!: 之后应该很长时间不会更新教程视频啦~ 这次回馈下开源社区,介绍入门基础组件,很适合新手,希望对大家起到帮助!

封面图片

忍不住再推荐一次 Layer Diffusion,直接生成 PNG 素材真的对设计师太太太友好了~~~~~甚至能直接生成发丝和透

忍不住再推荐一次 Layer Diffusion,直接生成 PNG 素材真的对设计师太太太友好了~~~~~甚至能直接生成发丝和透明玻璃杯! 这工作流兼容 SDXL 系列的所有模型和 Lora,我用的模型是 DreamshaperXL Turbo,4~8步就能生成效果很好的素材,直接把生成速度压缩到秒级,见图1。 ▶ 插件安装和部署: ▶ DreamShaper XL 下载: 最近和@海辛Hyacinth 做的鸡尾酒单就是用它来加的装饰素材( 你甚至可以把整个流程反过来 给现成的 PNG 素材生成背景,工作流见图7。 这简直是所有产品展示场景的刚需! 最后补充一个冷知识:Layer Diffusion 的作者之一就是 Controlnet 的作者 Lvmin Zhang~! 谢谢,不愧是你! #AI绘画

封面图片

朋友发的一张图到朋友圈,我拿来用 Ai 画图。先用 #StableDiffusion 图片转文字,再用 Text2Prompt

朋友发的一张图到朋友圈,我拿来用 Ai 画图。先用 #StableDiffusion 图片转文字,再用 Text2Prompt 插件拓展找关键词,最后用 ControlNet 插件绑定骨骼开始换关键词试效果。 对于这种特定的画面,做出来的图还是非常不错的感觉。

封面图片

最近在做的项目几乎是清一色的 comfyui + animatediff + lcm,忙里偷闲和 @Simon阿文 做了一个《低

最近在做的项目几乎是清一色的 comfyui + animatediff + lcm,忙里偷闲和 @Simon阿文 做了一个《低俗小说》里舞蹈的转绘版本,阿文的版本在这里( ) 我做的是女生的部分。人物、麦穗和天空分为三层控制生成,达成了不同层有不同自由程度 (不同闪烁程度 X) 的控制效果。 工作流参考的朋友 Jerry Davos 的工作流,他将 AI 动画的工作流切成了 controlnet 提取、lcm 生成、refine、face fix 四步,8G 显存的显卡都可以跑 非常菩萨,欢迎通过他的 patreon 支持他:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人