Civitai终于上了免费的图片生成的功能,你现在可以直接在Civit上使用站内的CKPT模型和Lora模型,C站应该是现在

Civitai终于上了免费的图片生成的功能,你现在可以直接在Civitai上使用站内的CKPT模型和Lora模型,C站应该是现在SD模型最多的地方了一些简单的图可以直接去试试了。目前应该是不支持SDXL的模型,也不支持ControlNet,图像分辨率是固定的三个。我下面简单介绍一下生成功能的用法:你可以在https://civitai.com/页面右下角找到Create的按钮点击就可以打开创建的弹窗。你可以点击“AddModel”添加CKPT模型基本上可以搜到站内所有的模型,但是目前不能添加SDXL模型。接下来就是提示词和反向提示词的填写,“Maturecontent”开启后可以生成那啥内容。最后可以选择生成图片的尺寸,然后点击“Advanced”的三角可以展开各种高级设置。然后点击Generate就可以生成图片了。然后在“Queue”可以看到你图片生成的队列,在“Feed”里面可以看到所有生成过图片的大图。教程基本就这些了,相较于国内那几个webUI套壳改的模型网站的生成功能Civitai的这个交互看起来还是做过优化有思考的,而且随便写一些提示词生成的效果也不错应该是有一些其他的优化。趁现在还免费可以先去试试:https://civitai.com/

相关推荐

封面图片

早上尝试Stable Cascade的时候,试了几张图发现 SC 模型生成图片质量比 SDXL 刚发布的时候好不少。#ai画图#

早上尝试StableCascade的时候,试了几张图发现SC模型生成图片质量比SDXL刚发布的时候好不少。于是就做了一个更详细的测试,SC和Midjoureny使用完全相同的提示词,Midjoureny不是用特殊的参数,一次生成4张,各选出一张比较好的进行测试。下面是对应的测试图,先说我的结论:在写实场景SC生成的内容在美学表现上和细节上跟Midjourney差别不是很大,细节上差一些,偶尔可以替代使用。SC由于模型规模的原因对于一些概念的理解不够,提示词响应比SDXL好但是比Midjourney要差。整体美学表现上相比SDXL更发布的时候有大幅提高,虽然还是不如Midjourney,但是风格表现上很相似,估计拿MJ图片做的训练。

封面图片

可令 AI 模型“输入狗生成猫”,黑客展示为训练数据集“下毒”的 Nightshade 工具

可令AI模型“输入狗生成猫”,黑客展示为训练数据集“下毒”的Nightshade工具日前有黑客展示了一款名为Nightshade的工具,该工具可在不破坏观感的情况下轻微修改图片,若有AI模型在训练时使用了这些被“下毒”的图片,模型生图结果便会被毁坏。据悉,Nightshade工具是一种专从提示词入手的攻击手法,号称“手法相对目前‘在提示词中加入触发字’的后门攻击法更简单”,不需介入模型的训练及部署等过程。Nightshade工具的作用,主要是轻微修改图片内容,当这些被修改的图片内容成为 AI模型训练数据后,整个 AI 模型就有可能被彻底破坏。黑客选择了StabilityAI的StableDiffusionV2、SDXL及DeepFloyd验证攻击效果。测试显示,只需要少量“下毒样本”就扰乱AI模型的文生图模型。黑客使用不到100张经过修改的“狗的照片”,便污染了SDXL模型已经养成的“狗”概念,使该模型在接受外界输入“生成狗的图片”提示后,反而生成了猫的图片。此外,黑客声称经过Nightshade工具“下毒”的图片难以辨别,因为该工具主要影响训练数据集的“特征空间”。来源:https://www.ithome.com/0/727/542.htm投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

Midjourney危险了!Stable Diffusion最强模型SDXL已上线(含保姆级体验教程)!

Midjourney危险了!StableDiffusion最强模型SDXL已上线(含保姆级体验教程)!看到没多少人写sdxl,这里我就给想尝鲜的朋友,写一个如何快速体验SDXL效果的教程。免下载模型,sdxl体验步骤:https://mp.weixin.qq.com/s/Fz7U355XxmkrAztn84CNcA1、sd为什么会搞出sdxl?这次,SD看着营收上亿的Mj,终于坐不住了。它发布了全新模型SDXL1.0,号称是“迄今为止最牛逼的图像生成大模型”。那你肯定好奇,为什么会搞出这样一个产品?很简单,SD看到Mj赚了几个亿坐不住了。我要是sd,我现在大腿都要拍肿了。人家mj十几个人居然搞出来了上亿美元的收入,你sd那么多的人还在亏损???这不对标mj搞出个史诗级的新模型,你家投资人都坐不住了。毕竟,搞研究是要花钱的,这次的sdxl很显然就是冲着后续抢用户+收费来的。2、SDXL体验+测评效果总结根据我的经验,SDXL是一个过渡期的产品,想要尝鲜的朋友一定不要错过。首先要给第一次接触的朋友讲一下,作为一个拥有35亿参数基础模型和66亿参数模型的生物。这个SDXL到底比之前几个版本的sd牛逼在哪里?(1)对撰写提示词的要求大大降低。除了提示词更加精简之外,它的效果主要是体现在不需要质量提升词和负面提示词上。你不需要输入masterpiece这些常见的品质优化词,就可以实现非常棒的画面效果。同样的,你也不必像之前那样输入大量的负面提示词,来控制ai对画面的生成。比如最常见的手部结构出问题,是大家能识别ai的好方法,而现在ai更加能够生成无缺陷的手部结构了。(2)加强了对自然语言的理解能力。这个其实也是为了解决目前撰写提示词上的痛点,比如目前ai绘画的提示词都是一个个用逗号连接起来的词条。而到了SDXL这个版本,即使你输入一连串的自然对话,它也可以理解了。也就是说,写提示词这件事儿,真的会越来越简单了。(3)支持更大尺寸的照片,分辨率高很多。比如你可以直接生成1024x1024大小的图片了。之前你想直接出这类高清图片其实需要使用高清修复或者其他方法才能达到。(4)ai终于会写字了。SDXL已经能识别和生成文字了。

封面图片

终于有普通人可以立刻使用的类 Sora 视频生成工具了!#ai# #sora#

终于有普通人可以立刻使用的类Sora视频生成工具了!#ai视频##sora#海外产品viva发布了首个开放给全部用户使用的Sora同架构视频生成模型,而且现阶段免费。支持文本生成视频、图片生成视频以及4K分辨率放大功能,另外也支持提示词的自动优化。文生视频单次可以生成一条5秒的视频,图生视频是4秒视频我测试了一下应该是目前运动幅度最大的视频生成模型,同时图像分辨率也是现在可以用的视频生成产品中最大的。文生视频的效果比图生视频要更好,同时如果要是用的话建议把运动幅度调到20左右比较合适。viva优势领域就是可以生成比较好的竖屏视频,目前很多视频模型的演示都是横屏视频,竖屏的表现并不好,但是短视频又是视频内容的大头,所以竖屏视频的生成质量是个很重要的指标。但是一致性有一部分测试中保持的不是很好,同时没有表现出Sora那样强大的物理特性模拟以及3D一致性。跟谷歌刚发布的Veo模型对比来看在写实内容上其实以及差不多了。下面是viva的视频演示,15秒开始有相同的提示词跟谷歌刚发布的Veo模型的对比。这里体验viva:https://vivago.ai/video?type=1

封面图片

商汤自研大模型生成图片涉嫌抄袭?公司回应称也提供第三方社区开源模型

商汤自研大模型生成图片涉嫌抄袭?公司回应称也提供第三方社区开源模型据了解,在现场演示中,该模型底部有显示civitai的文字注释。据此前报道,4月10日,商汤科技正式发布“日日新SenseNova”大模型体系,以及自研的中文语言大模型应用平台“商量”(SenseChat),参数量达千亿,可实现文本生成、图像生成、多模态内容生成等能力与场景应用。超10亿参数自研文生图生成模型“秒画”,支持二次元等多种生成风格。单卡A100支持,2秒生成1张512K分辨率的图片。用户可基于单卡A100自训练。基于平台发布的模型,可设置toB服务API(应用程序编程接口),结合商汤大算力对外提供服务。...PC版:https://www.cnbeta.com.tw/articles/soft/1354371.htm手机版:https://m.cnbeta.com.tw/view/1354371.htm

封面图片

图像生成模型 Stable Diffusion XL 1.0 开源发布

图像生成模型StableDiffusionXL1.0开源发布SDXL1.0的性能5倍优于SD1.5(开源社区主流),是开源世界最大参数的图像模型,也是StabilityAI最新&最先进的模型。现可通过Github、HuggingFace、API、AWS、Clipdrop、DreamStudio直接访问。SDXL1.0拥有3.5B参数的基础模型(可单独使用)和6.6B参数的专家混合管道(多了一个单独执行最终去噪的精炼模型),精炼模型可以为基础模型的输出添加更准确的颜色、更高的对比度和更精细的细节。微调SDXL1.0的图像需求量也急剧下降,现在只需5到10张图像就可以快速微调出一个专门生成特定人物、事物的模型。投稿:@ZaiHuaBot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人