重磅!!新的一期喂饭教程来辣!

重磅!!新的一期喂饭教程来辣! “【一文掌握AI绘图】Stable Diffusion 绘图喂饭教程” 本次教程分为上下两篇,主打一手喂饭级别,内容包括学习路径和经验总结,让你在小白→入门→进阶的各个阶段中平滑过度,这次还看不会,我V你50! ​

相关推荐

封面图片

新的一期关于AI绘图教程来辣!快看起来!

新的一期关于AI绘图教程来辣!快看起来! 如果你身边还有小伙伴不了解AI绘图,还以为只是用来图一乐的玩具,那就把这篇图文甩在他脸上,让他看看现在AI强大的绘图能力,是有可能颠覆内容生产的强大利器! 【上】让AI绘图从玩具变成生产利器的插件ControlNet 一篇图文让你了解AI绘图的魅力(飞书在线文档)

封面图片

看了一期关于 stable diffusion (另一个AI绘画工具)的教程,发现这个相比 Midjourney ,可视化操作界

看了一期关于 stable diffusion (另一个AI绘画工具)的教程,发现这个相比 Midjourney ,可视化操作界面和配置性上都强大。 目前在 Midjourney 里写 prompt 的感受是,所有的东西都融合在那么小一个对话框里了。所以我都在 flomo 里先写好,再贴过去。要改,也就在 flomo 里改。//此处很想呼吁 flomo 网页版的全屏模式回归 而 stable diffusion 就有好几个大框框,正面提示词和负面提示词可以分开写。多好啊!多清晰! 如果直接把 prompt 结构也都给我整成不同的框框,这个框写主体描述、那个框写场景描述,有就写、没有就不写。那我就再也不需要去记这个结构了,可以大大提高操作便捷性。 又比如,Midjourney 的关键词权重是靠顺序来调整的,但不能精确控制,很魔幻;但 stable diffuasion 看起来就可以,至少人可以让你添加权重数值,看起来控制感强很多。 这个 stable diffusion 的教程真不戳 【Nenly同学的个人空间-哔哩哔哩】 如果 Midjourney 的界面操作可以做得更小白点儿,使用人数一定远远超出现在。不会写代码只能望洋兴叹

封面图片

本来想整理一份 Stable Diffusion 的教程学习清单,但整理的时候发现了一个宝藏UP主 Nenly同学,真的,看他

本来想整理一份 Stable Diffusion 的教程学习清单,但整理的时候发现了一个宝藏UP主 Nenly同学,真的,看他就够了。 不仅系统,语速舒适,而且制作精良到……有时候我甚至走神了去研究视频的包装哈哈哈。 ▶ 教程地址: ▶ UP主:Nenly同学 同时,你也可以搭配 hking 的这篇文章来查漏补缺: 质量有多高?连@海辛 都用来当复习资料。 还是那句:吃点好的吧,还免费。

封面图片

分享内部的几个教程文档,每天一个小技巧。

分享内部的几个教程文档,每天一个小技巧。 推荐AI绘图工具 0712MJ优质提示词分享 0711MJ设计落地页H5实战 0710MJ生成多类图标的20+提示词 0707MJ生成电商商品图化妆品 0706MJ进阶诗意水墨风 0705MJ生成电商商品图 0704MJ生成中国风盲盒变现 0703MJ进阶玩法-极简头像风格 0701MJ生成服装设计 : 0621MJ制作绘本上架亚马逊: 0619MJ生成饮料包装: 0617MJ生成父亲节海报:虚假的618电商节,真实的618父亲节 0616MJ生成手账搞钱思路: 0615MJ生成端午节海报 : 0614MJ制作IP进行变现:

封面图片

《耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!》

《耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!》 大家好,我是吴东子。花了很长时间终于整理好了这份万字SD的使用教程! 从手把手安装部署,到界面功能讲解,再到实战案例制作,到下载优质模型,每一步都有详细教程,并且用一个又一个的例子展示,让你不止是枯燥地学,而是学完立刻也能做出一样的图片出来! 同时,无论是安装包,大模型,lora,关键词的文件都给大家打包好了,不用再自己这找找那找找,希望能做到让大家学SD,看这一篇就够! 如果有什么疑问的地方,欢迎在评论区留言噢! 为了更好的阅读体验,大家可以点击链接查看

封面图片

答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐

答应大家的AI歌手教程来了,手把手教你训练你自己的AI歌手,主要分为使用模型和训练模型两部分,这里是第一部分如何使用模型生成音乐的部分,主要介绍了音源的处理,模型的使用和后期音轨的合成。 看在藏师傅生病肝教程的份上希望各位多多支持,下面是具体步骤,图片顺序跟文字顺序对应 详细教程和文件下载可以看这里: 要使用模型进行推理的话你首先需要一段已经演唱好的声音垫进去,所以我们需要先对你垫进去的声音进行处理。 首先要安装UVR_v5.5.0,完成后我们需要给UVR增加一个模型解压UVR5模型文件将里面的两个文件夹粘贴到安装目录下的Ultimate Vocal Removermodels就行。 在处理之前你需要把你声音的格式转换成WAV格式,因为So-VITS-SVC 4.0只认WAV格式的音频文件,现在处理了后面会省事点。可以用这个工具处理:https:// 处理完音频文件后我们就要开始利用UVR去掉背景音了,一共需要过两次,每次的设置都是不同的,下面两张图分别是两次的参数。 接下来我们就要运行整合包的Web UI来推理声音了,如果你用的其他人的模型的话你需要先把模型文件放进整合包对应的文件夹下面: 首先是模型文件夹下面后缀为pth和pt的两个文件放到整合包的logs44k文件夹下。 之后是模型文件里那个叫config.json的json文件,放到整合包的configs文件夹下面。 接下来我们就可以运行整合包的Web UI了,打开整合包根目录下的【启动webui.bat】这个文件他会自动运行并打开Web UI的网页,经常玩Stable Diffusion的朋友肯定对这个操作不陌生。 下面就是Web UI的界面我们使用模型的时候主要用的是推理这个功能。 之后就是选择我们的模型,如果你刚才已经把模型放到合适的位置的话你现在应该能在下图的两个位置选择到你的模型和配置文件,如果有报错会在输出信息的位置显示。 选择完模型之后我们需要点击加载模型,等待一段时间Loading之后模型会加载完成。Output Message这里会输出加载的结果。之后就是上传我们处理好的需要垫的音频文件了,把文件拖动到红框位置就行。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人