这几天 SD 圈子还有一件事情,就是 Controlnet 的作者lllyasviel,他跟 UI 界面杠上了,除了之前他维护的

这几天 SD 圈子还有一件事情,就是 Controlnet 的作者lllyasviel,他跟 UI 界面杠上了,除了之前他维护的Fooocus之外还新发布了一个 Web UI Forge。 这个新的 UI 跟原有的 Web UI 交互和样式完全一致,但是解决了两个 Web UI比较重要的问题: 首先是他大幅优化了低显存显卡的显存占用和推理速度,6G 显存的显卡推理速度会提高 60% 到 75%,显存占用会降低800MB 到 1.5GB。 另一个是降低了一些 SD 支持项目在 Web UI的实现成本,使用 Unet Patcher,Self-Attention Guidance、Kohya High Res Fix、FreeU、StyleAlign、Hypertile 等方法都可以在大约 100 行代码中实现。 项目地址:

相关推荐

封面图片

试了一下lllyasviel的Web UI分支Forge,太强了。

试了一下lllyasviel的Web UI分支Forge,太强了。 在我的电脑上测试的时候图片生成速度快了一倍左右,Web UI需要3.7秒的图Forge只需要1.9秒。 而且lllyasviel还在Forge预装了很多非常有用的功能,比如提高图像质量的FreeU以及可以帮助SD1.5直接生成大图的Kohya的HRFix。 如果你平时就是用Web UI画画图不装一些奇怪复杂插件的话,或者你的显卡比较差,都推荐替换为Forge。 安装方式直接从下面链接替换整合包就行,如果你需要用你WebUI的模型文件的话可以鼠标右键用记事本打开web ui根目录的webui-user.bat文件。 把第二张图位置加上这段内容就行,文件夹目录改成你需要的目录(注意斜杠):ckpt-dir D:/sd/novelai-webui-aki-v2/models/Stable-diffusion vae-dir D:/sd/novelai-webui-aki-v2/models/VAE lora-dir D:/sd/novelai-webui-aki-v2/models/Lora gfpgan-models-path D:/sd/novelai-webui-aki-v2/models/GFPGAN esrgan-models-path D:/sd/novelai-webui-aki-v2/models/ESRGAN controlnet-dir D:/sd/novelai-webui-aki-v2/models/ControlNet 这里安装:

封面图片

Stability AI推出适用于普通电脑的文本生成图像模型SD3 Medium

Stability AI推出适用于普通电脑的文本生成图像模型SD3 Medium Stable Diffusion 系列文本生成图形模型开发商 Stability AI 今天宣布基于 SD3 推出了新版本 SD3 Medium 版,该版本尺寸体积非常小只有 2B 参数,因此适合在消费级笔记本电脑、台式机和企业级 GPU 上运行。和之前的 SD 系列模型一样,SD3 Medium 版也是免费提供的,属于开放但非开源的模型,如果需要商业性使用则应当购买授权。Stable Diffusion 3 Medium 版具有以下特点:参数规模仅为 20 亿照片级真实感:克服手部和面部常见的瑕疵,无需复杂的工作流程即可生成高质量图像遵守复杂的提示词:可以理解涉及空间关系、构图元素、动作和风格的复杂提示词内容排版:在 Diffusion Transformer 架构的帮助下,大幅度改进生成文本内容时的伪影和拼写错误问题高效利用资源:占用的显存非常小,非常适合在消费级 PC 和笔记本电脑上运行并且不会降低性能微调:能够从小数据集中吸收细微的细节,因此也适合进行定制哪些消费级显卡 / 企业级显卡支持 SD3 Medium 版:Stability AI 与英伟达和 AMD 合作,在部分消费级和企业级显卡上优化 SD3 Medium 的推理,其中还为英伟达推出了特别版本。支持的英伟达显卡主要是 NVIDIA RTX 系列,Stability AI 利用 RTX 显卡和 TensorRT 来提升性能,其中 TensorRT 优化版本提供更好的性能,用户可以下载英伟达专版的 SD3 Medium。AMD 方面支持 AMD 最新的 APU、消费级 GPU 和米兰 300X 系列企业级 GPU,经过 AMD 优化后也可以使用 SD3 Medium,不过性能方面可能要比英伟达专版的要低些。从哪里获取 SD3 Medium 版:其中英伟达专版的 TensorRT 版 SD3 Medium 可以在这里下载: AMD 的通用版本可以在这里下载: ... PC版: 手机版:

封面图片

《他告诉我的最后一件事 》

《他告诉我的最后一件事 》 简介:女主在丈夫失踪后,根据他留下的线索展开调查,在这个过程中发现了许多隐藏的秘密,剧情围绕女主的追寻之旅,充满悬疑与情感纠葛 标签:#他告诉我的最后一件事#悬疑情感剧#失踪谜团揭秘 文件大小 NG 链接:

封面图片

【好文推荐】《优化 Stable Diffusion XL 的终极指南》

【好文推荐】《优化 Stable Diffusion XL 的终极指南》 详细介绍和测试了 SDXL 的模型优化方式,可以让 SDXL 在低显存显卡上稳定运行。同时大幅提高生成速度降低图像质量的损失。 推荐有部署和优化 SDXL 需求的朋友收藏阅读,写的真的很好。 详细介绍- 该文详细介绍了如何优化Stable Diffusion XL (SDXL)以在任何显卡上获得最佳质量和性能。文章的核心目标是通过不同的优化技术,使SDXL能够在仅使用6GB内存的情况下生成图像,从而允许使用低端显卡。 作者使用Hugging Face的diffusers库进行脚本编写和开发,旨在让读者了解和应用这些优化技术,以便在各种应用中,如Automatic1111的Stable Diffusion web UI或特别是ComfyUI中,充分利用它们。 测试使用RunPod平台在Secure Cloud上生成了一个搭载RTX 3090显卡的GPU Pod进行。文章比较了不同优化技术的性能,包括感知图像质量、生成每张图像所需时间、以及使用的最大内存量。 优化技术包括CUDA和PyTorch版本选择、注意力机制优化、FP16、TF32、以及多种管道优化技术,如模型CPU卸载、批处理处理、Stable Fast、DeepCache和TensorRT。 文章的结论部分提供了一个表格,总结了所有测试的结果,并提供了在寻求质量、速度或在内存限制下运行推理过程时的建议。 例如,FP16优化通过使用半精度浮点格式显著降低了内存使用量并提高了计算速度,而Stable Fast项目通过运行时优化显著提高了推理速度。DeepCache通过使用缓存系统在保持较小的内存使用增加的同时,大幅减少了推理时间,但可能会略微降低图像质量。 总的来说,这篇文章为那些希望在不同硬件配置下优化Stable Diffusion XL性能的开发者提供了一份详尽的指南,展示了通过各种优化技术实现性能提升的可能性。 文章地址:

封面图片

:大语言模型裁剪工具。通过对大语言模型的冗余词表进行裁剪,减少模型参数量,降低显存占用,提升训练速度,并且能够保留预训练中学习到

:大语言模型裁剪工具。通过对大语言模型的冗余词表进行裁剪,减少模型参数量,降低显存占用,提升训练速度,并且能够保留预训练中学习到的知识。 大语言模型(LLM, Large Language Model)犹如雨后春笋般,其虽然效果惊艳,但参数量巨大,让普通玩家望而却步。 如今的大语言模型大多为多语种大预言模型(Multilingual Large Language Model),如LLaMA、mT5、Bloom等,其词表规模巨大,占据非常大部分的模型参数,如Bloom具有25万词表。 在训练模型时,词表权重将会消耗非常大的显存,降低训练速度,产生OOM的现象。 但在许多下游任务中,一般只会用到一两种语言,例如在中文场景中,一般只会用到中英文。 我们可以对大语言模型的词表进行裁剪,只留下所需的部分,这样不仅能够充分保留模型的预训练知识,并且能够使用更少的显卡进行下游任务的finetune,提升训练效率。 | #工具

封面图片

当你遇到一件事情 你问成功的人 他会说一件事情做不好 反复做 坚持做 勇敢做 一定会成功的 你问半途而废放弃的人他会说不要做 做

当你遇到一件事情 你问成功的人 他会说一件事情做不好 反复做 坚持做 勇敢做 一定会成功的 你问半途而废放弃的人他会说不要做 做了也白费。一生中我们会遇到很多人 有的人会一直挺你 有的人会一直损你 也许你遇到的一件事 你坚持做了你就会成功 你不做就一定会后悔 而给自己留下遗憾 加油吧 年轻人!

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人