Stability AI正式发布了DeepFloyd IF图像生成模型,这是一个有文本编码器和三个级联的diffusion模块组

StabilityAI正式发布了DeepFloydIF图像生成模型,这是一个有文本编码器和三个级联的diffusion模块组合的模型。这个模型的效率要比原有的satblediffusion效率要高很多。我尝试了一下,看起来效果也比SD2.0强一些。划重点,这个模型是认字的生成出来的英文非常工整。文章链接:https://stability.ai/blog/deepfloyd-if-text-to-image-model可以在这里体验模型:https://huggingface.co/spaces/DeepFloyd/IFGithub:https://github.com/deep-floyd/IF模型网站:https://deepfloyd.ai/if

相关推荐

封面图片

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0

StabilityAI发布最新图像生成模型StableDiffusionXL1.0今天,StabilityAI宣布推出StableDiffusionXL1.0,这是该公司迄今为止描述为“最先进”的文本到图像模型。StableDiffusionXL1.0可在上以开源形式使用,并提供给Stability的和消费者应用程序和。Stability声称,与其前代产品相比,StableDiffusionXL1.0提供了“更生动”和“更准确”的颜色,更好的对比度、阴影和照明效果。在接受采访时,StabilityAI的应用机器学习负责人JoePenna指出,StableDiffusionXL1.0包含35亿个参数,可以“在几秒钟内”生成多种长宽比的100万像素分辨率的完整图像。“参数”是模型从训练数据中学习到的部分,基本上定义了模型在解决问题上的技能水平。上一代稳定扩散模型稳定扩散XL0.9也可以生成更高分辨率的图像,但需要更多的计算能力。——、

封面图片

https://stability.ai/news/stable-video-diffusion-open--video-m

https://stability.ai/news/stable-video-diffusion-open-ai-video-model今天,我们发布了稳定视频扩散,这是我们第一个基于图像模型@StableDiffusion的生成人工智能视频的基础模型。作为本研究预览的一部分,代码、权重和研究论文现已提供。此外,今天您可以注册我们的候补名单,以访问即将推出的全新网络体验,该体验具有文本转视频界面。要访问模型并注册我们的候补名单,请访问我们的网站:https://stability.ai/contact

封面图片

Stability AI正式发布了我们期待已久的SDXL 1.0。下面是模型的介绍和使用方式。

StabilityAI正式发布了我们期待已久的SDXL1.0。下面是模型的介绍和使用方式。SDXL的特点:SDXL有两个模型组成第二个模型可以生成更鲜艳、更准确的颜色,并且比其前身具有更好的对比度、光照和阴影。SDXL1.0是所有开放获取图像模型中参数数量最多的模型之一,拥有3.5B参数基础模型和6.6B参数模型集成管道。如何使用SDXL1.0:首先你可以在Github上下载开源的模型文件,前几天WebUI已经支持了SDXL模型:https://github.com/Stability-AI/generative-models如果你想要立即体验的话可以在clipdrop线上尝试:https://clipdrop.co/stable-diffusion也可以在stabilityAPI调用相关接口:https://platform.stability.ai/docs/release-notes最后在dreamstudio也可以在线体验SDXL:https://dreamstudio.ai祝各位玩的愉快。期待大佬们的新丹和ControlNet的支持。

封面图片

图像生成模型 Stable Diffusion XL 1.0 开源发布

图像生成模型StableDiffusionXL1.0开源发布SDXL1.0的性能5倍优于SD1.5(开源社区主流),是开源世界最大参数的图像模型,也是StabilityAI最新&最先进的模型。现可通过Github、HuggingFace、API、AWS、Clipdrop、DreamStudio直接访问。SDXL1.0拥有3.5B参数的基础模型(可单独使用)和6.6B参数的专家混合管道(多了一个单独执行最终去噪的精炼模型),精炼模型可以为基础模型的输出添加更准确的颜色、更高的对比度和更精细的细节。微调SDXL1.0的图像需求量也急剧下降,现在只需5到10张图像就可以快速微调出一个专门生成特定人物、事物的模型。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

Stability AI推出Stable Diffusion 3 提示文本理解更好、图像质量更强

StabilityAI推出StableDiffusion3提示文本理解更好、图像质量更强StableDiffusion3的参数在8亿——80亿之间,也就是说StableDiffusion3可能是专为移动设备开发的,AI算力消耗将更低,推理速度却更快。目前,StableDiffusion3支持申请使用,未来会扩大测试范围。申请地址:https://stability.ai/stablediffusion3stability.ai没有过多的介绍StableDiffusion3的技术内容,但指出其核心架构使用了Transformer和FlowFMatching(简称“FM”)。Transformer大家都很熟悉了,ChatGPT、T5 、BERT等很多著名模型都是基于该架构开发的。而FM是MetaAI和魏茨曼科学研究所在2022年10月发布的,一种全新高效建模、训练技术概念。FlowMatching论文地址:https://arxiv.org/abs/2210.02747FlowMatching简单介绍目前,很多文生图模型使用的是CNF(连续正规化流动)训练方法,主要使用常微分方程对流动进行建模,实现从一种已知分布到目标分布的平滑映射。但由于训练过程需要进行大量的微分方程模拟,会导致算力成本高、模型设计复杂、可解释性差等缺点。FM则是放弃微分方程的直接模拟,而是通过回归固定条件概率轨迹来实现无模拟训练。研究人员设计了条件概率分布与向量场的概念,利用边缘分布的结合可以建立总体目标概率轨迹与向量场,从而消除了模拟过程对梯度计算的影响。1)条件概率路径构建:FM需要给出一个目标概率路径,该路径从简单分布演变到逼近数据分布。然后利用条件概率路径构建了目标路径,这样每个样本有一个对应的条件路径。2)变换层:构成FM的基本单元,每个变换层都是可逆的。这意味着从输入到输出的每一步映射都可以精确地反转,从而允许从目标分布反推到原始分布。3)耦合层:将输入分成两部分,对其中一部分应用变换,而变换函数可以是任意的神经网络,其参数由另一部分决定,保证了变换的可逆性。目前,FM技术已在图像生成与超分辨率、图像理解、图像修复与填充、条件图像生成、图像风格迁移与合成、视频处理等领域得到广泛应用。StableDiffusion3案例展示本次的发布页面也是由StableDiffusion3生成的,提示词:史诗般的动漫艺术风格,一位巫师站在夜间的山顶上,向黑暗的天空施放咒语,上面写着由彩色能量生成的“StableDiffusion3”文字教室桌子上有一个红苹果,电影风格,背景的黑板上用粉笔写着“要么做大,要么回家”一名宇航员骑着一只穿着蓬蓬裙的猪,撑着一把粉色的伞,猪旁边的地上有一只戴着高帽的知更鸟,角落里写着"StableDiffusion"的字样。一只变色龙,黑色背景,摄影风格。一辆跑车的夜间照片,侧面写有“SD3”字样,汽车在赛道上高速行驶,巨大的路标上写着“更快”的文字。波浪冲击苏格兰灯塔的鱼眼镜头照片,黑色波浪。...PC版:https://www.cnbeta.com.tw/articles/soft/1420259.htm手机版:https://m.cnbeta.com.tw/view/1420259.htm

封面图片

Stability AI 推出 Stable Video Diffusion 模型,可根据图片生成视频

StabilityAI推出StableVideoDiffusion模型,可根据图片生成视频StableVideoDiffusion这款模型能够通过现有图片生成视频,是基于之前发布的StableDiffusion文本转图片模型的延伸,也是目前为止市面上少有的能够生成视频的AI模型之一。不过,这款模型目前并不是对所有人开放的。StableVideoDiffusion目前处于StabilityAI所谓的“研究预览”阶段。想要使用这款模型的人必须同意一些使用条款,其中规定了StableVideoDiffusion的预期应用场景(例如“教育或创意工具”、“设计和其他艺术过程”等)和非预期的场景(例如“对人或事件的事实或真实的表达”)()投稿:@ZaiHuaBot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人