《耗时7天,终于把15种ControlNet模型搞明白了!》

《耗时7天,终于把15种ControlNet模型搞明白了!》各位好,我是吴东子这篇文章是SD三部曲的第三篇——「ControlNet的终极攻略」前面我们说到如果想真正把SD应用起来,最重要的两个功能是:Lora和ControlNetLora负责把想要画面的“主体”或“场景”炼制成模型ControlNet负责更好地“控制”这个“模型”或画面Lora教程之前已经出了,感兴趣的朋友可以去翻看ControlNet一共有15种模型,每种模型对应不同的采集方式,再对应不同的应用场景,每种应用场景又有不同的变现空间我花了一周时间彻底把15种模型研究了一遍,跑了一次全流程,终于写完了本文文章包含了ControlNet的功能介绍,安装方法,模型采集方式,实操案例,以及下面几个目前很好玩的功能1.动漫转真人2.真人转动漫3.控制人物姿势、表情4.线稿AI上色5.固定主角大家只要跟着一步一步操作,一定能学会另外,需要用到的整合包和模型也都给大家打包好放在网盘(链接在文章末尾)花了很多时间才整理出来,希望对你有帮助https://mp.weixin.qq.com/s/E6VhbAXRi6w0ljBHu1x_JQ

相关推荐

封面图片

最近发现很多朋友学会了Stable Diffusion后,都是停留在“玩”的层面。但我觉得让大家“用”起来,才是关键

最近发现很多朋友学会了StableDiffusion后,都是停留在“玩”的层面。但我觉得让大家“用”起来,才是关键于是我思考了很久,找出了SD在“应用”层面,最重要的两个功能:Lora和ControlNetLora负责把自己生活中有关联的人或物炼制成模型详情戳https://mp.weixin.qq.com/s/qPPh6Vdnm0zlzu0nuN1BIA今天这篇是Lora的炼丹教程篇ControlNet负责更好地“控制”这个“模型”两者结合,你就能真正把SD用起来,无论是定制自己的真人模特,还是给某个商业产品做成模型,都可以实现

封面图片

Civitai终于上了免费的图片生成的功能,你现在可以直接在Civit上使用站内的CKPT模型和Lora模型,C站应该是现在

Civitai终于上了免费的图片生成的功能,你现在可以直接在Civitai上使用站内的CKPT模型和Lora模型,C站应该是现在SD模型最多的地方了一些简单的图可以直接去试试了。目前应该是不支持SDXL的模型,也不支持ControlNet,图像分辨率是固定的三个。我下面简单介绍一下生成功能的用法:你可以在https://civitai.com/页面右下角找到Create的按钮点击就可以打开创建的弹窗。你可以点击“AddModel”添加CKPT模型基本上可以搜到站内所有的模型,但是目前不能添加SDXL模型。接下来就是提示词和反向提示词的填写,“Maturecontent”开启后可以生成那啥内容。最后可以选择生成图片的尺寸,然后点击“Advanced”的三角可以展开各种高级设置。然后点击Generate就可以生成图片了。然后在“Queue”可以看到你图片生成的队列,在“Feed”里面可以看到所有生成过图片的大图。教程基本就这些了,相较于国内那几个webUI套壳改的模型网站的生成功能Civitai的这个交互看起来还是做过优化有思考的,而且随便写一些提示词生成的效果也不错应该是有一些其他的优化。趁现在还免费可以先去试试:https://civitai.com/

封面图片

《爆肝7天!AI艺术字终极攻略,光影、隐藏、嵌入、海报4种艺术字全拆解!》

《爆肝7天!AI艺术字终极攻略,光影、隐藏、嵌入、海报4种艺术字全拆解!》各位好,我是吴东子随着AIGC技术迭代,越来越多有趣的玩法也被逐渐挖掘了出来,像最近特别火的AI艺术字我花了一周的时间把所有的玩法研究了一遍,整理出来一套完整的制作流程文章包含了从制作底图、选大模型、写关键词和ControlNet参数四大步骤,你只需要一步一步跟着操作,也能做出同款的AI艺术字1.光影文字2.嵌入文字3.隐藏文字4.海报文字每种都有对应的使用场景和变现方式,真正地帮助了生产者提高生产力以及拓宽了变现渠道另外,文中需要用到的模型文件,也都给大家打包好放在末尾的网盘链接里,不需要大家再自己到处去找花了很多时间才整理出来,希望对你有帮助「图文版」:https://mp.weixin.qq.com/s/0VGObVBedo9gz6qsGWCwPA「视频版」:https://www.bilibili.com/video/BV1GM4y147AB/

封面图片

今天是教学关,大概用了一天时间琢磨出来怎么接近完美的p精了

今天是教学关,大概用了一天时间琢磨出来怎么接近完美的p精了需要用到:stablediffusion及其大模型和lora模型,ps1.先去c站下载三次元或者2.5D大模型,有能力的混一个inpaint版本效果更佳,其次搜索"facial"也就是颜射有关的lora模型,建议多下两个,一块用效果更佳2.选择你的图片,选择大模型和lora模型,lora权重大概0.5,0.6的样子,重绘幅度0.5左右,蒙版留下眼睛(如果是闭眼的可以考虑一块重绘)开始重绘,尝试多画几幅,择优3.打开ps,将AI重绘好的图片和原图的图层完全重合,选择这两个图层,选择"编辑→自动混合图层→堆叠图层→确认",等待加载完毕以上步骤能搞定90%的正脸图,侧脸图就比较吃模型的鲁棒性,可以尝试把重绘幅度降低保证脸型不走样(走样不严重的可以利用ps液化把形找回来)剩下的就是一些细节处理了,可弄可不弄,还是用ps[投稿点我]#ai#p精#教学#sd

封面图片

周鸿祎:只有把大模型变成场景背后的能力,产业才能发展起来

周鸿祎:只有把大模型变成场景背后的能力,产业才能发展起来“搜索这20多年来没有发生变化,我们希望这次能来一场革命。”近日,360集团召开发布会,推出全新360AI搜索及360AI浏览器,周鸿祎在会上表示,“模型即产品”的观点已经不能适应AI发展趋势,只有把大模型变成场景背后的能力,在场景上解决用户的痛点和刚需,国内大模型产业才能发展起来。而其中的关键在于能否找到明星场景,用大模型重塑产品。周鸿祎介绍,AI行业全面爆发,各应用场景呈碎片化发展,但对于用户来说理解门槛高,应用获取门槛高。“用户需要找到匹配场景下的优质AI工具,AI应用开发者也需要流量触达用户。”为构建AI开发场景应用生态,打造AI开发者和用户双向奔赴平台,360同步上线AI工具服务平台“360AI甄选”,目前已有200余款AI应用入驻。

封面图片

LLM 相关的基础文章很多人整理,AI 图像生成的比较少,刚好发现了一个,我又自己筛选了一下,一共 15 篇内容,都在这里了,如

LLM相关的基础文章很多人整理,AI图像生成的比较少,刚好发现了一个,我又自己筛选了一下,一共15篇内容,都在这里了,如果想深入研究SD,建议看看。主要包括三个部分:图片生成简介、图像生成基础模型的精细调整和构建AI生成服务,。都放在下面的这个个链接里,打开一个就都有了。元旦我也会找时间把这些内容翻译一下,然后发出来,可以收藏这条回来看。等不及可以直接看,下面是具体的分类和文章目录:图像生成技术简介:◆人工智能和艺术:机器学习如何改变创造性工作(报告)◆平面设计师如何创建他们自己的AI工具(博客文章)◆AI图像生成器的工作原理以及扩散是什么(视频)◆什么是Diffusion模型?(视频)◆Diffusion模型的工作原理(1小时课程)◆初学者指南:Stablediffusion(指南)基础模型的精细调整:◆SD1.5通用目的模型的全面精细调整指南(博客文章)◆SD模型的基准测试与混合(博客文章)◆解耦文本编码器和UNET学习率(博客文章)◆D适应:再见学习率困扰?(博客文章)◆自己精细调整通用稳定扩散模型指南(博客文章)构建AI生成服务的后端:◆如何构建一个生成AI服务的后端◆Stablediffusion提示:权威指南◆SD提示的精细调整:修改Stablediffusion提示的GPT3.5(博客文章)◆SD提示的目录(目录)所有内容链接:https://arc.net/folder/10431A09-4798-4002-B99A-2769BD9131FF

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人