https://stability.ai/news/stable-video-diffusion-open--video-m

https://stability.ai/news/stable-video-diffusion-open-ai-video-model今天,我们发布了稳定视频扩散,这是我们第一个基于图像模型@StableDiffusion的生成人工智能视频的基础模型。作为本研究预览的一部分,代码、权重和研究论文现已提供。此外,今天您可以注册我们的候补名单,以访问即将推出的全新网络体验,该体验具有文本转视频界面。要访问模型并注册我们的候补名单,请访问我们的网站:https://stability.ai/contact

相关推荐

封面图片

Stability AI 发布 Stable Video Diffusion

StabilityAI发布StableVideoDiffusionAI创业公司StabilityAI发布了它的视频生成模型StableVideoDiffusion,源代码采用MITLicense发布在上,权重发布在HuggingFace上。StableVideoDiffusion基于StableDiffusion,有两种输出形式,能以每秒3-30帧的定制帧速生成14和25帧。StabilityAI称其模型的表现好于私有模型。来源,频道:@kejiqu群组:@kejiquchat

封面图片

Stable Diffusion 3模型发布

StableDiffusion3在多主题提示、图像质量和拼写能力方面的性能得到了极大提高。StableDiffusion3模型目前参数范围为800M到8B。采用了diffusiontransformer架构。申请候补名单:https://stability.ai/stablediffusion3via匿名标签:#StableDiffusion#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

Stability AI 推出 Stable Video Diffusion 模型,可根据图片生成视频

StabilityAI推出StableVideoDiffusion模型,可根据图片生成视频StableVideoDiffusion这款模型能够通过现有图片生成视频,是基于之前发布的StableDiffusion文本转图片模型的延伸,也是目前为止市面上少有的能够生成视频的AI模型之一。不过,这款模型目前并不是对所有人开放的。StableVideoDiffusion目前处于StabilityAI所谓的“研究预览”阶段。想要使用这款模型的人必须同意一些使用条款,其中规定了StableVideoDiffusion的预期应用场景(例如“教育或创意工具”、“设计和其他艺术过程”等)和非预期的场景(例如“对人或事件的事实或真实的表达”)()投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

Stability AI 宣布 Stable Diffusion 3

StabilityAI宣布StableDiffusion3AI创业公司StabilityAI宣布其最新一代的文本图像模型StableDiffusion3开放预览。感兴趣的用户可以申请加入等候名单。StabilityAI称开放预览是为了在正式发布前收集与性能和安全性相关的用户反馈。StableDiffusion3模型的参数规模从8亿到80亿不等,其架构组合了diffusiontransformer和flowmatching,技术报告将在晚些时候公布。来源,频道:@kejiqu群组:@kejiquchat

封面图片

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0

StabilityAI发布最新图像生成模型StableDiffusionXL1.0今天,StabilityAI宣布推出StableDiffusionXL1.0,这是该公司迄今为止描述为“最先进”的文本到图像模型。StableDiffusionXL1.0可在上以开源形式使用,并提供给Stability的和消费者应用程序和。Stability声称,与其前代产品相比,StableDiffusionXL1.0提供了“更生动”和“更准确”的颜色,更好的对比度、阴影和照明效果。在接受采访时,StabilityAI的应用机器学习负责人JoePenna指出,StableDiffusionXL1.0包含35亿个参数,可以“在几秒钟内”生成多种长宽比的100万像素分辨率的完整图像。“参数”是模型从训练数据中学习到的部分,基本上定义了模型在解决问题上的技能水平。上一代稳定扩散模型稳定扩散XL0.9也可以生成更高分辨率的图像,但需要更多的计算能力。——、

封面图片

Stability AI推出Stable Diffusion 3 提示文本理解更好、图像质量更强

StabilityAI推出StableDiffusion3提示文本理解更好、图像质量更强StableDiffusion3的参数在8亿——80亿之间,也就是说StableDiffusion3可能是专为移动设备开发的,AI算力消耗将更低,推理速度却更快。目前,StableDiffusion3支持申请使用,未来会扩大测试范围。申请地址:https://stability.ai/stablediffusion3stability.ai没有过多的介绍StableDiffusion3的技术内容,但指出其核心架构使用了Transformer和FlowFMatching(简称“FM”)。Transformer大家都很熟悉了,ChatGPT、T5 、BERT等很多著名模型都是基于该架构开发的。而FM是MetaAI和魏茨曼科学研究所在2022年10月发布的,一种全新高效建模、训练技术概念。FlowMatching论文地址:https://arxiv.org/abs/2210.02747FlowMatching简单介绍目前,很多文生图模型使用的是CNF(连续正规化流动)训练方法,主要使用常微分方程对流动进行建模,实现从一种已知分布到目标分布的平滑映射。但由于训练过程需要进行大量的微分方程模拟,会导致算力成本高、模型设计复杂、可解释性差等缺点。FM则是放弃微分方程的直接模拟,而是通过回归固定条件概率轨迹来实现无模拟训练。研究人员设计了条件概率分布与向量场的概念,利用边缘分布的结合可以建立总体目标概率轨迹与向量场,从而消除了模拟过程对梯度计算的影响。1)条件概率路径构建:FM需要给出一个目标概率路径,该路径从简单分布演变到逼近数据分布。然后利用条件概率路径构建了目标路径,这样每个样本有一个对应的条件路径。2)变换层:构成FM的基本单元,每个变换层都是可逆的。这意味着从输入到输出的每一步映射都可以精确地反转,从而允许从目标分布反推到原始分布。3)耦合层:将输入分成两部分,对其中一部分应用变换,而变换函数可以是任意的神经网络,其参数由另一部分决定,保证了变换的可逆性。目前,FM技术已在图像生成与超分辨率、图像理解、图像修复与填充、条件图像生成、图像风格迁移与合成、视频处理等领域得到广泛应用。StableDiffusion3案例展示本次的发布页面也是由StableDiffusion3生成的,提示词:史诗般的动漫艺术风格,一位巫师站在夜间的山顶上,向黑暗的天空施放咒语,上面写着由彩色能量生成的“StableDiffusion3”文字教室桌子上有一个红苹果,电影风格,背景的黑板上用粉笔写着“要么做大,要么回家”一名宇航员骑着一只穿着蓬蓬裙的猪,撑着一把粉色的伞,猪旁边的地上有一只戴着高帽的知更鸟,角落里写着"StableDiffusion"的字样。一只变色龙,黑色背景,摄影风格。一辆跑车的夜间照片,侧面写有“SD3”字样,汽车在赛道上高速行驶,巨大的路标上写着“更快”的文字。波浪冲击苏格兰灯塔的鱼眼镜头照片,黑色波浪。...PC版:https://www.cnbeta.com.tw/articles/soft/1420259.htm手机版:https://m.cnbeta.com.tw/view/1420259.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人