Nvidia 的新驱动可将 Stable Diffusion 生成速度提升 2 倍以上,这个技术被称为 TensorRT。

Nvidia 的新驱动可将 Stable Diffusion 生成速度提升 2 倍以上,这个技术被称为 TensorRT。 如果使用 TensorRT 进行加速,对 U-Net 进行动态更改的插件都将无法使用(例如ControlNet、LoRA等技术)。 如果想要使用 TensorRT 技术需要安装 SD-WebUI 插件才可启用。

相关推荐

封面图片

最近发现很多朋友学会了Stable Diffusion后,都是停留在“玩”的层面。但我觉得让大家“用”起来,才是关键

最近发现很多朋友学会了Stable Diffusion后,都是停留在“玩”的层面。但我觉得让大家“用”起来,才是关键 于是我思考了很久,找出了SD在“应用”层面,最重要的两个功能:Lora和ControlNet Lora负责把自己生活中有关联的人或物炼制成模型 详情戳 ControlNet负责更好地“控制”这个“模型” 两者结合,你就能真正把SD用起来,无论是定制自己的真人模特,还是给某个商业产品做成模型,都可以实现

封面图片

【好文推荐】《优化 Stable Diffusion XL 的终极指南》

【好文推荐】《优化 Stable Diffusion XL 的终极指南》 详细介绍和测试了 SDXL 的模型优化方式,可以让 SDXL 在低显存显卡上稳定运行。同时大幅提高生成速度降低图像质量的损失。 推荐有部署和优化 SDXL 需求的朋友收藏阅读,写的真的很好。 详细介绍- 该文详细介绍了如何优化Stable Diffusion XL (SDXL)以在任何显卡上获得最佳质量和性能。文章的核心目标是通过不同的优化技术,使SDXL能够在仅使用6GB内存的情况下生成图像,从而允许使用低端显卡。 作者使用Hugging Face的diffusers库进行脚本编写和开发,旨在让读者了解和应用这些优化技术,以便在各种应用中,如Automatic1111的Stable Diffusion web UI或特别是ComfyUI中,充分利用它们。 测试使用RunPod平台在Secure Cloud上生成了一个搭载RTX 3090显卡的GPU Pod进行。文章比较了不同优化技术的性能,包括感知图像质量、生成每张图像所需时间、以及使用的最大内存量。 优化技术包括CUDA和PyTorch版本选择、注意力机制优化、FP16、TF32、以及多种管道优化技术,如模型CPU卸载、批处理处理、Stable Fast、DeepCache和TensorRT。 文章的结论部分提供了一个表格,总结了所有测试的结果,并提供了在寻求质量、速度或在内存限制下运行推理过程时的建议。 例如,FP16优化通过使用半精度浮点格式显著降低了内存使用量并提高了计算速度,而Stable Fast项目通过运行时优化显著提高了推理速度。DeepCache通过使用缓存系统在保持较小的内存使用增加的同时,大幅减少了推理时间,但可能会略微降低图像质量。 总的来说,这篇文章为那些希望在不同硬件配置下优化Stable Diffusion XL性能的开发者提供了一份详尽的指南,展示了通过各种优化技术实现性能提升的可能性。 文章地址:

封面图片

ImageBind+Stable Diffusion相结合,能从任意内容生成图像的工具。

ImageBind+Stable Diffusion相结合,能从任意内容生成图像的工具。 利用统一潜空间和Stable Diffusion技术实现图像生成,无需进行训练。 可与Diffusers集成,并提供在线演示和Huggingface Gradio的演示。 支持的任务包括从音频、音频+文本、音频+图像、图像和文本生成图像 | #工具

封面图片

Stable Diffusion V4 一键安装包下载,秋叶aaaki 本地部署懒人包

Stable Diffusion V4 一键安装包下载,秋叶aaaki 本地部署懒人包 描述:来自B站up@秋叶aaaki,近期发布了Stable Diffusion整合包v4版本,一键在本地部署Stable Diffusion!! 适用于零基础想要使用AI绘画的小伙伴~ 本次整合包升级内容: torch2、xformers0.0.17、cudnn 8.8打开无需任何操作即可满速(包括40系显卡)升级其它各种依赖版本预置了Tagger(图反推关键词)的模型预置了ControlNet、MultiDiffusion插件优化了一些其他设置 本次升级还增加了在线升级功能! 链接: 大小:12.8GB 标签:#AI #stable #diffusion 来自:雷锋 频道:@Aliyundrive_Share_Channel 群组:@alyd_g 投稿:@AliYunPanBot

封面图片

Stability AI产量很高啊,推出了一个新的 AI 图像生成模型Stable Cascade,还会发布对应的微调、Cont

Stability AI产量很高啊,推出了一个新的 AI 图像生成模型Stable Cascade,还会发布对应的微调、ControlNet 和 LoRA 训练的脚本。 这个模型基于Würstchen架构,可以显著降低模型训练的算力成本,比 SD2.1 的算力成本降低了 10 倍左右。另外推理速度会比现有的 SD 模型快一倍左右。 更多功能: 除了标准的文本到图像生成之外,Stable Cascade 还可以执行图像变化和图像到图像生成。 会跟随模型一起发布的 Controlnet: 局部重绘:输入与文本提示附带的蒙版配对的图像。该模型根据提供的文本提示填充图像的遮罩部分。 Canny Edge:通过跟踪输入到模型的现有图像的边缘来生成新图像。该测试也可以从草图进行扩展。 2x超分辨率:也可用于C阶段生成的潜在空间。 了解更多:

封面图片

试了一下lllyasviel的Web UI分支Forge,太强了。

试了一下lllyasviel的Web UI分支Forge,太强了。 在我的电脑上测试的时候图片生成速度快了一倍左右,Web UI需要3.7秒的图Forge只需要1.9秒。 而且lllyasviel还在Forge预装了很多非常有用的功能,比如提高图像质量的FreeU以及可以帮助SD1.5直接生成大图的Kohya的HRFix。 如果你平时就是用Web UI画画图不装一些奇怪复杂插件的话,或者你的显卡比较差,都推荐替换为Forge。 安装方式直接从下面链接替换整合包就行,如果你需要用你WebUI的模型文件的话可以鼠标右键用记事本打开web ui根目录的webui-user.bat文件。 把第二张图位置加上这段内容就行,文件夹目录改成你需要的目录(注意斜杠):ckpt-dir D:/sd/novelai-webui-aki-v2/models/Stable-diffusion vae-dir D:/sd/novelai-webui-aki-v2/models/VAE lora-dir D:/sd/novelai-webui-aki-v2/models/Lora gfpgan-models-path D:/sd/novelai-webui-aki-v2/models/GFPGAN esrgan-models-path D:/sd/novelai-webui-aki-v2/models/ESRGAN controlnet-dir D:/sd/novelai-webui-aki-v2/models/ControlNet 这里安装:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人