Civitai终于上了免费的图片生成的功能,你现在可以直接在Civit上使用站内的CKPT模型和Lora模型,C站应该是现在

Civitai终于上了免费的图片生成的功能,你现在可以直接在Civitai上使用站内的CKPT模型和Lora模型,C站应该是现在SD模型最多的地方了一些简单的图可以直接去试试了。 目前应该是不支持SDXL的模型,也不支持ControlNet,图像分辨率是固定的三个。我下面简单介绍一下生成功能的用法: 你可以在页面右下角找到Create的按钮点击就可以打开创建的弹窗。 你可以点击“Add Model”添加CKPT模型基本上可以搜到站内所有的模型,但是目前不能添加SDXL模型。 接下来就是提示词和反向提示词的填写,“Mature content”开启后可以生成那啥内容。 最后可以选择生成图片的尺寸,然后点击“Advanced”的三角可以展开各种高级设置。然后点击Generate就可以生成图片了。 然后在“Queue”可以看到你图片生成的队列,在“Feed”里面可以看到所有生成过图片的大图。 教程基本就这些了,相较于国内那几个web UI套壳改的模型网站的生成功能Civitai的这个交互看起来还是做过优化有思考的,而且随便写一些提示词生成的效果也不错应该是有一些其他的优化。趁现在还免费可以先去试试:

相关推荐

封面图片

Image to Prompt,一个根据图片生成Stable Diffusion提示词的网站,支持PNG和JPG格式的图片,最大

Image to Prompt,一个根据图片生成Stable Diffusion提示词的网站,支持PNG和JPG格式的图片,最大支持4MB,上传图片后点击Generate prompt,稍等片刻即可生成Stable Diffusion提示词,可以直接复制使用。 AI根据图片生成提示词 Image to Prompt:

封面图片

早上尝试Stable Cascade的时候,试了几张图发现 SC 模型生成图片质量比 SDXL 刚发布的时候好不少。

早上尝试Stable Cascade的时候,试了几张图发现 SC 模型生成图片质量比 SDXL 刚发布的时候好不少。 于是就做了一个更详细的测试,SC 和 Midjoureny 使用完全相同的提示词,Midjoureny不是用特殊的参数,一次生成 4 张,各选出一张比较好的进行测试。 下面是对应的测试图,先说我的结论: 在写实场景 SC 生成的内容在美学表现上和细节上跟 Midjourney 差别不是很大,细节上差一些,偶尔可以替代使用。 SC 由于模型规模的原因对于一些概念的理解不够,提示词响应比 SDXL 好但是比 Midjourney 要差。 整体美学表现上相比 SDXL 更发布的时候有大幅提高,虽然还是不如 Midjourney,但是风格表现上很相似,估计拿 MJ 图片做的训练。

封面图片

玩了一会儿这个搞笑的小网页,灵魂画手生成图片,虽然图片都很粗糙,但会忍不住笑出声,适合与家人玩耍。没找到收费信息,应该是免费玩的

玩了一会儿这个搞笑的小网页,灵魂画手生成图片,虽然图片都很粗糙,但会忍不住笑出声,适合与家人玩耍。没找到收费信息,应该是免费玩的吧。 体验地址 https://scribblediffusion.com/

封面图片

字节发布了一个用类似 SDXL Turbo 的模型SDXL-Lightning,只需几步即可生成高质量的 1024px 图像。

字节发布了一个用类似 SDXL Turbo 的模型SDXL-Lightning,只需几步即可生成高质量的 1024px 图像。 包括了 unet 模型和 Lora 模型都已经发布,Lora 模型可以用在其他 SDXL 模型上。感兴趣可以试试。 模型下载:

封面图片

Stability AI试图通过新的图像生成人工智能模型保持领先地位

Stability AI试图通过新的图像生成人工智能模型保持领先地位 Stable Cascade 可以生成照片,并对所创建的图片进行修改,或尝试提高现有图片的分辨率。其他文本到图片的编辑功能还包括内画和外画(模型只对图片的特定部分进行填充编辑),以及可视边缘(用户可利用现有图片的边缘制作新照片)。根据提示"一张拟人企鹅坐在咖啡馆里看书喝咖啡的电影照片"生成的Stable Cascade图像。新模型可在GitHub 上供研究人员使用,但不能用于商业用途。在Google甚至苹果等公司发布自己的图像生成模型时,新模型也带来了更多选择。与 Stability 的旗舰产品 Stable Diffusion 模型不同,Stable Cascade 并不是一个大型语言模型,而是三个不同的模型,它们都依赖于Würstchen 架构。Stable Cascade与其他模型的推理时间比较将请求分解成更小的比特后,请求所需的内存更少(在那些很难找到的 GPU 上训练的时间也更少),运行速度更快,同时在"提示对齐和美学质量"方面表现更佳。创建一幅图像大约需要 10 秒,而目前使用的 SDXL 模型需要 22 秒。Stability AI公司帮助普及了Stable Diffusion方法,同时也成为了几起诉讼的对象,这些诉讼指控Stable Diffusion公司在未经权利人许可的情况下对受版权保护的数据进行了训练 - Getty图片公司对Stability AI公司的诉讼将于 12 月开庭审理 。该公司于 12 月开始通过订阅的方式提供商业许可,并表示这是帮助其研究获得资金所必需的。 ... PC版: 手机版:

封面图片

Midjourney危险了!Stable Diffusion最强模型SDXL已上线(含保姆级体验教程)!

Midjourney危险了!Stable Diffusion最强模型SDXL已上线(含保姆级体验教程)! 看到没多少人写sdxl,这里我就给想尝鲜的朋友,写一个如何快速体验SDXL效果的教程。 免下载模型,sdxl体验步骤: 1、sd为什么会搞出sdxl? 这次,SD看着营收上亿的Mj,终于坐不住了。 它发布了全新模型SDXL 1.0,号称是“迄今为止最牛逼的图像生成大模型”。 那你肯定好奇,为什么会搞出这样一个产品? 很简单,SD看到Mj赚了几个亿坐不住了。 我要是sd,我现在大腿都要拍肿了。 人家mj十几个人居然搞出来了上亿美元的收入,你sd那么多的人还在亏损??? 这不对标mj搞出个史诗级的新模型,你家投资人都坐不住了。 毕竟,搞研究是要花钱的,这次的sdxl很显然就是冲着后续抢用户+收费来的。 2、SDXL体验+测评效果总结 根据我的经验,SDXL是一个过渡期的产品,想要尝鲜的朋友一定不要错过。 首先要给第一次接触的朋友讲一下,作为一个拥有35亿参数基础模型和66亿参数模型的生物。 这个SDXL到底比之前几个版本的sd牛逼在哪里? (1)对撰写提示词的要求大大降低。 除了提示词更加精简之外,它的效果主要是体现在不需要质量提升词和负面提示词上。 你不需要输入masterpiece这些常见的品质优化词,就可以实现非常棒的画面效果。 同样的,你也不必像之前那样输入大量的负面提示词,来控制ai对画面的生成。 比如最常见的手部结构出问题,是大家能识别ai的好方法,而现在ai更加能够生成无缺陷的手部结构了。 (2)加强了对自然语言的理解能力。 这个其实也是为了解决目前撰写提示词上的痛点,比如目前ai绘画的提示词都是一个个用逗号连接起来的词条。 而到了SDXL这个版本,即使你输入一连串的自然对话,它也可以理解了。 也就是说,写提示词这件事儿,真的会越来越简单了。 (3)支持更大尺寸的照片,分辨率高很多。 比如你可以直接生成1024x1024大小的图片了。 之前你想直接出这类高清图片其实需要使用高清修复或者其他方法才能达到。 (4)ai终于会写字了。 SDXL已经能识别和生成文字了。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人