最近发现很多朋友学会了Stable Diffusion后,都是停留在“玩”的层面。但我觉得让大家“用”起来,才是关键

最近发现很多朋友学会了Stable Diffusion后,都是停留在“玩”的层面。但我觉得让大家“用”起来,才是关键 于是我思考了很久,找出了SD在“应用”层面,最重要的两个功能:Lora和ControlNet Lora负责把自己生活中有关联的人或物炼制成模型 详情戳 ControlNet负责更好地“控制”这个“模型” 两者结合,你就能真正把SD用起来,无论是定制自己的真人模特,还是给某个商业产品做成模型,都可以实现

相关推荐

封面图片

Nvidia 的新驱动可将 Stable Diffusion 生成速度提升 2 倍以上,这个技术被称为 TensorRT。

Nvidia 的新驱动可将 Stable Diffusion 生成速度提升 2 倍以上,这个技术被称为 TensorRT。 如果使用 TensorRT 进行加速,对 U-Net 进行动态更改的插件都将无法使用(例如ControlNet、LoRA等技术)。 如果想要使用 TensorRT 技术需要安装 SD-WebUI 插件才可启用。

封面图片

RT 归藏Stable Diffusion最新的模型 Stable Diffusion XL正式开放使用了。我也对其做了详细的测

RT 归藏 Stable Diffusion最新的模型 Stable Diffusion XL正式开放使用了。我也对其做了详细的测试。 这次没有在Stability AI自己的平台上而是在他们收购的clipdrop平台上,可能也觉得自己没有做产品的基因把,之前的体验真是一言难尽。这个模型的参数是SD2.1的2.5倍,完整模型是几乎不能在消费级设备上跑的。…

封面图片

《耗时7天,终于把15种ControlNet模型搞明白了!》

《耗时7天,终于把15种ControlNet模型搞明白了!》 各位好,我是吴东子 这篇文章是SD三部曲的第三篇「ControlNet的终极攻略」 前面我们说到如果想真正把SD应用起来,最重要的两个功能是:Lora和ControlNet Lora负责把想要画面的“主体”或“场景”炼制成模型 ControlNet负责更好地“控制”这个“模型”或画面 Lora教程之前已经出了,感兴趣的朋友可以去翻看 ControlNet一共有15种模型,每种模型对应不同的采集方式,再对应不同的应用场景,每种应用场景又有不同的变现空间 我花了一周时间彻底把15种模型研究了一遍,跑了一次全流程,终于写完了本文 文章包含了ControlNet的功能介绍,安装方法,模型采集方式,实操案例,以及下面几个目前很好玩的功能 1.动漫转真人 2.真人转动漫 3.控制人物姿势、表情 4.线稿AI上色 5.固定主角 大家只要跟着一步一步操作,一定能学会 另外,需要用到的整合包和模型也都给大家打包好放在网盘(链接在文章末尾) 花了很多时间才整理出来,希望对你有帮助

封面图片

《耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!》

《耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!》 大家好,我是吴东子。花了很长时间终于整理好了这份万字SD的使用教程! 从手把手安装部署,到界面功能讲解,再到实战案例制作,到下载优质模型,每一步都有详细教程,并且用一个又一个的例子展示,让你不止是枯燥地学,而是学完立刻也能做出一样的图片出来! 同时,无论是安装包,大模型,lora,关键词的文件都给大家打包好了,不用再自己这找找那找找,希望能做到让大家学SD,看这一篇就够! 如果有什么疑问的地方,欢迎在评论区留言噢! 为了更好的阅读体验,大家可以点击链接查看

封面图片

Stability AI推出Stable Diffusion 3 提示文本理解更好、图像质量更强

Stability AI推出Stable Diffusion 3 提示文本理解更好、图像质量更强 Stable Diffusion 3的参数在8亿80亿之间,也就是说Stable Diffusion 3可能是专为移动设备开发的,AI算力消耗将更低,推理速度却更快。目前,Stable Diffusion 3支持申请使用,未来会扩大测试范围。申请地址: Diffusion 3的技术内容,但指出其核心架构使用了Transformer和Flow FMatching(简称“FM”)。Transformer大家都很熟悉了,ChatGPT、T5 、BERT等很多著名模型都是基于该架构开发的。而FM是Meta AI和魏茨曼科学研究所在2022年10月发布的,一种全新高效建模、训练技术概念。Flow Matching论文地址: Matching简单介绍目前,很多文生图模型使用的是CNF(连续正规化流动)训练方法,主要使用常微分方程对流动进行建模,实现从一种已知分布到目标分布的平滑映射。但由于训练过程需要进行大量的微分方程模拟,会导致算力成本高、模型设计复杂、可解释性差等缺点。FM则是放弃微分方程的直接模拟,而是通过回归固定条件概率轨迹来实现无模拟训练。研究人员设计了条件概率分布与向量场的概念,利用边缘分布的结合可以建立总体目标概率轨迹与向量场,从而消除了模拟过程对梯度计算的影响。1)条件概率路径构建:FM需要给出一个目标概率路径,该路径从简单分布演变到逼近数据分布。然后利用条件概率路径构建了目标路径,这样每个样本有一个对应的条件路径。2)变换层:构成FM的基本单元,每个变换层都是可逆的。这意味着从输入到输出的每一步映射都可以精确地反转,从而允许从目标分布反推到原始分布。3)耦合层:将输入分成两部分,对其中一部分应用变换,而变换函数可以是任意的神经网络,其参数由另一部分决定,保证了变换的可逆性。目前,FM技术已在图像生成与超分辨率、图像理解、图像修复与填充、条件图像生成、图像风格迁移与合成、视频处理等领域得到广泛应用。Stable Diffusion 3案例展示本次的发布页面也是由Stable Diffusion 3生成的,提示词:史诗般的动漫艺术风格,一位巫师站在夜间的山顶上,向黑暗的天空施放咒语,上面写着由彩色能量生成的“Stable Diffusion 3”文字教室桌子上有一个红苹果,电影风格,背景的黑板上用粉笔写着“要么做大,要么回家”一名宇航员骑着一只穿着蓬蓬裙的猪,撑着一把粉色的伞,猪旁边的地上有一只戴着高帽的知更鸟,角落里写着"Stable Diffusion"的字样。一只变色龙,黑色背景,摄影风格。一辆跑车的夜间照片,侧面写有“SD3”字样,汽车在赛道上高速行驶,巨大的路标上写着“更快”的文字。波浪冲击苏格兰灯塔的鱼眼镜头照片,黑色波浪。 ... PC版: 手机版:

封面图片

试了一下lllyasviel的Web UI分支Forge,太强了。

试了一下lllyasviel的Web UI分支Forge,太强了。 在我的电脑上测试的时候图片生成速度快了一倍左右,Web UI需要3.7秒的图Forge只需要1.9秒。 而且lllyasviel还在Forge预装了很多非常有用的功能,比如提高图像质量的FreeU以及可以帮助SD1.5直接生成大图的Kohya的HRFix。 如果你平时就是用Web UI画画图不装一些奇怪复杂插件的话,或者你的显卡比较差,都推荐替换为Forge。 安装方式直接从下面链接替换整合包就行,如果你需要用你WebUI的模型文件的话可以鼠标右键用记事本打开web ui根目录的webui-user.bat文件。 把第二张图位置加上这段内容就行,文件夹目录改成你需要的目录(注意斜杠):ckpt-dir D:/sd/novelai-webui-aki-v2/models/Stable-diffusion vae-dir D:/sd/novelai-webui-aki-v2/models/VAE lora-dir D:/sd/novelai-webui-aki-v2/models/Lora gfpgan-models-path D:/sd/novelai-webui-aki-v2/models/GFPGAN esrgan-models-path D:/sd/novelai-webui-aki-v2/models/ESRGAN controlnet-dir D:/sd/novelai-webui-aki-v2/models/ControlNet 这里安装:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人