刚看到小红书有人分享的内容:

刚看到小红书有人分享的内容:SD在线免费版来了,无配置要求,大神已上线stablediffusion在线免费版终于开放试用了,收藏起来,可以直接在discord里面直接使用,我们先一起来看生成的效果,是不是很赞啊!接下来我教你怎么操作,首先我们要通过链接邀请stablediffusion机器人加入discord,再找到公共场合中的bot1或者bot2,点击进入后我们可以看到其它创作者生成的图片效果,我们这里先自己简单写一段魔法指令,复制一下,来到sd在线版,选择这个月亮图标,在对话框中输入斜杠dream,然后将魔法指令粘贴到prompt中,再点击添加,选择negative,添加反向关键词,再点击添加,选择style,并设置其中一种风格模型,最后点添加,选择aspect设置图片比例或尺寸,完成好后敲回车生成图片。明天起床就来试试!

相关推荐

封面图片

LLM 相关的基础文章很多人整理,AI 图像生成的比较少,刚好发现了一个,我又自己筛选了一下,一共 15 篇内容,都在这里了,如

LLM相关的基础文章很多人整理,AI图像生成的比较少,刚好发现了一个,我又自己筛选了一下,一共15篇内容,都在这里了,如果想深入研究SD,建议看看。主要包括三个部分:图片生成简介、图像生成基础模型的精细调整和构建AI生成服务,。都放在下面的这个个链接里,打开一个就都有了。元旦我也会找时间把这些内容翻译一下,然后发出来,可以收藏这条回来看。等不及可以直接看,下面是具体的分类和文章目录:图像生成技术简介:◆人工智能和艺术:机器学习如何改变创造性工作(报告)◆平面设计师如何创建他们自己的AI工具(博客文章)◆AI图像生成器的工作原理以及扩散是什么(视频)◆什么是Diffusion模型?(视频)◆Diffusion模型的工作原理(1小时课程)◆初学者指南:Stablediffusion(指南)基础模型的精细调整:◆SD1.5通用目的模型的全面精细调整指南(博客文章)◆SD模型的基准测试与混合(博客文章)◆解耦文本编码器和UNET学习率(博客文章)◆D适应:再见学习率困扰?(博客文章)◆自己精细调整通用稳定扩散模型指南(博客文章)构建AI生成服务的后端:◆如何构建一个生成AI服务的后端◆Stablediffusion提示:权威指南◆SD提示的精细调整:修改Stablediffusion提示的GPT3.5(博客文章)◆SD提示的目录(目录)所有内容链接:https://arc.net/folder/10431A09-4798-4002-B99A-2769BD9131FF

封面图片

Civitai终于上了免费的图片生成的功能,你现在可以直接在Civit上使用站内的CKPT模型和Lora模型,C站应该是现在

Civitai终于上了免费的图片生成的功能,你现在可以直接在Civitai上使用站内的CKPT模型和Lora模型,C站应该是现在SD模型最多的地方了一些简单的图可以直接去试试了。目前应该是不支持SDXL的模型,也不支持ControlNet,图像分辨率是固定的三个。我下面简单介绍一下生成功能的用法:你可以在https://civitai.com/页面右下角找到Create的按钮点击就可以打开创建的弹窗。你可以点击“AddModel”添加CKPT模型基本上可以搜到站内所有的模型,但是目前不能添加SDXL模型。接下来就是提示词和反向提示词的填写,“Maturecontent”开启后可以生成那啥内容。最后可以选择生成图片的尺寸,然后点击“Advanced”的三角可以展开各种高级设置。然后点击Generate就可以生成图片了。然后在“Queue”可以看到你图片生成的队列,在“Feed”里面可以看到所有生成过图片的大图。教程基本就这些了,相较于国内那几个webUI套壳改的模型网站的生成功能Civitai的这个交互看起来还是做过优化有思考的,而且随便写一些提示词生成的效果也不错应该是有一些其他的优化。趁现在还免费可以先去试试:https://civitai.com/

封面图片

LinkedIn新推工具将为创作者提供更多分享视觉内容的方式

LinkedIn新推工具将为创作者提供更多分享视觉内容的方式LinkedIn今日宣布,它正在为创作者推出新的功能,旨在使其更容易在社交网络上分享视觉内容。该功能的推出标志着LinkedIn为创建内容和争取创作者的平台所做的最新努力。在未来几周内,LinkedIn上的创作者将能在他们的图片和视频上直接添加一个可点击的链接以推动他们的网站或其他资源的流量,无论他们是否在LinkedIn上。比如像该公司指出的,创作者可以使用这个新功能来链接到他们最近的新闻简报或他们的个人网站。用户可以在移动端创建一个带有图片或视频的新帖子后,然后点击“添加链接”图标来添加一个可点击的链接。另外,该公司还推出了一个新的模板功能,以此来帮助创作者确保他们的文本帖子在用户的feeds中脱颖而出。模板的设计则是为了给文本帖子增添色彩,使它们在视觉上更悦目并更加吸引观众的注意力。创建者将能在未来几周内通过进入分享框或在移动端点击“发布”,然后选择“使用模板”访问新模板。在那里,用户可以从众多可定制的背景和字体中选择,添加自己的文字,然后点击“分享”。用户甚至可以在模板上添加一个可点击的链接。此外,LinkedIn已经开始推出“轮播(Carousels)”,这是一种新的内容格式,允许用户在以滑动的形式向自己的关注者展示信息时混合图片和视频。LinkedIn表示,用户今日将开始在他们的Feed中看到轮播。该公司计划对该功能进行调整并在今年晚些时候更广泛地发布。新功能的推出是因为LinkedIn称它看到人们在他们的帖子中添加视觉内容的数量同比增长了20%。在过去一年的时间里,LinkedIn加大了对其平台创作者的争取力度,甚至在2021年9月推出了2500万美元的创作者基金。当LinkedIn推出该基金时,考虑到TikTok、Instagram和Facebook等平台早在LinkedIn之前就已经宣布了数亿美元的创作者基金,为其平台带来更多的原创内容,因此启动基金以激励创作者为某一特定平台制作视频的想法并不完全新鲜。虽然LinkedIn有8.3亿用户,但它所容纳的内容跟与用户在TikTok和Instagram上找到的内容有很大的不同。然而这并没有阻止该平台试图追求创作者并将自己定位为创造内容的家园。PC版:https://www.cnbeta.com/articles/soft/1303501.htm手机版:https://m.cnbeta.com/view/1303501.htm

封面图片

Stability AI 发布了他们最强的图片生成模型 Stable Diffusion 3 的技术报告,披露了 SD3 的更多

StabilityAI发布了他们最强的图片生成模型StableDiffusion3的技术报告,披露了SD3的更多细节。据他们所说,SD3在排版质量、美学质量和提示词理解上超过了目前所有的开源模型和商业模型,是目前最强的图片生成模型。技术报告要点如下:◆根据人类偏好评估,SD3在排版质量和对提示的理解程度上,均优于目前最先进的文本生成图像系统,例如DALL·E3、Midjourneyv6和Ideogramv1。◆提出了新的多模态扩散Transformer(MultimodalDiffusionTransformer,简称MMDiT)架构,其使用独立的权重集分别表示图像和语言。与SD3的先前版本相比,该架构改善了系统对文本的理解能力和拼写能力。◆SD38B大小的模型可以在GTX409024G显存上运行。◆SD3将发布多个参数规模不等的模型方便在消费级硬件上运行,参数规模从800M到8B。◆SD3架构以DiffusionTransformer(简称"DiT",参见Peebles&Xie,2023)为基础。鉴于文本嵌入和图像嵌入在概念上存在较大差异,我们为这两种模态使用了独立的权重集。◆通过这种方法,信息得以在图像Token和文本Token之间流动,从而提高了模型生成结果的整体理解力和排版质量。我们在论文中还讨论了如何轻松地将这一架构扩展至视频等多模态场景。◆SD3采用了矫正流(RectifiedFlow,简称RF)的公式(Liuetal.,2022;Albergo&Vanden-Eijnden,2022;Lipmanetal.,2023),在训练过程中,数据和噪声被连接在一条线性轨迹上。这导致了更直的推理路径,从而可以使用更少的步骤进行采样。◆扩展矫正流Transformer模型:使用重新加权的RF公式和MMDiT主干网络,对文本到图像的合成任务开展了模型扩展研究。我们训练了一系列模型,其规模从15个。Transformer块(4.5亿参数)到38个块(80亿参数)不等。

封面图片

AI领域里面大家可能更多关注的是LLM相关的内容,但是AI画图的一些数据往往难以找到。

AI领域里面大家可能更多关注的是LLM相关的内容,但是AI画图的一些数据往往难以找到。今天一个团队发布了一份关于AI画图领域的数据分析,里面的数据显示过去一年多时间AI生产的图片数量已经超过了150年间人类拍摄的所有照片数量,太离谱了。详细的内容可以看这里:https://mp.weixin.qq.com/s/h-xNxw5flsleubiqQTmrTQ下面是这个数据分析的主要内容:→自去年以来,使用文本转图像算法创建了超过150亿张图像。客观地说,从1826年拍摄第一张照片到1975年,摄影师花了150年的时间才达到150亿张大关。→DALLE-2推出以来,人们平均每天创建3400万张图像。→增长最快的产品是AdobeFirefly,自推出以来仅三个月内就创建了10亿张图像。→Midjourney拥有1500万用户,是公开统计的所有图像生成平台中最大的用户群。→大约80%的图像(即125.9亿张)是使用基于开源StableDiffusion的模型、服务、平台和应用程序创建的。DALL-E22022年4月,OpenAI发布了其图像生成模型DALL-E2。然后OpenAI报告称,用户每天使用DALL-E2生成超过200万张图像。我们不确定OpenAI所说的这个数字意味着什么时间段,或者他们是否获取了生成的平均图像量。我们假设这是一个平均值,这意味着15个月内在单个平台上生成了大约9.16亿张图像。MidjourneyMidjourney于2022年7月上线。根据Photutorial的估计,Midjourney的Discord(该算法只能通过Discord获得)每秒接收约20至40个作业,拥有1500万注册用户和150万至250万活跃用户任何特定时间的成员。考虑到这一点,我们使用每秒30个作业作为平均创建图像数,每天创建多达250万个图像。因此,自Midjourney推出以来,已创建了9.64亿张图像。StableDiffusion

封面图片

今天给大家分享一款SD的脸部重绘插件,它叫After Detailer,简称ADetler

今天给大家分享一款SD的脸部重绘插件,它叫AfterDetailer,简称ADetailer它能自动检测图片中的人脸,然后进行修复或者是替换,主要是速度快,而且效果非常的自然更多详情请戳https://mp.weixin.qq.com/s/e_vxSVSibbw4YiKhSEBZSQ我们先用liblibai的线上SD做一张效果图从图中可以发现,即使用SD里自带的高清修复功能,但人物的面部还是有些拉胯,其主要原因是因为我们在一个比较低的像素画不布上,绘出了一个全身的图,所以导致给脸部分配的像素不够然后在SDUI界面打开我们的ADetailer插件,启动它,然后选择适合写实的模型:mediapipe_face_full再下面的提示词里随便写一个面部的描述,然后其他参数保持默认然后看下生成后的对比效果图,效果确实真的很自然其实,这个插件本质就是自动识别图片中的人脸,然后做了一个局部重绘,我们就可以通过提示词,去控制它的面部重绘的走向当然还有其他功能与参数的设置比如:在第二单元的界面,选择手部重绘的模型,就可以同时进行面部和手部的重绘动作,具体看实际情况而定接下来是安装教程:插件安装链接:https://github.com/Bing-su/adetailer.git这里分享两个安装方案:第一种就是直接下载插件包,进行安装第二种是在SDUI界面的拓展里,找到从网页安装,粘贴上面的插件链接,即可进行安装第三种就是我用的liblibai的线上SD,它是直接安装好了的其次是模型下载地址:https://huggingface.co/Bingsu/adetailer/tree/main如果你们的ADetailer插件里没有以下模型,可以自己根据需求自行下载即可然后把模型按照下图的地址放进去就可以啦

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人