Stability AI试图通过新的图像生成人工智能模型保持领先地位

StabilityAI试图通过新的图像生成人工智能模型保持领先地位StableCascade可以生成照片,并对所创建的图片进行修改,或尝试提高现有图片的分辨率。其他文本到图片的编辑功能还包括内画和外画(模型只对图片的特定部分进行填充编辑),以及可视边缘(用户可利用现有图片的边缘制作新照片)。根据提示"一张拟人企鹅坐在咖啡馆里看书喝咖啡的电影照片"生成的StableCascade图像。新模型可在GitHub上供研究人员使用,但不能用于商业用途。在Google甚至苹果等公司发布自己的图像生成模型时,新模型也带来了更多选择。与Stability的旗舰产品StableDiffusion模型不同,StableCascade并不是一个大型语言模型,而是三个不同的模型,它们都依赖于Würstchen架构。StableCascade与其他模型的推理时间比较将请求分解成更小的比特后,请求所需的内存更少(在那些很难找到的GPU上训练的时间也更少),运行速度更快,同时在"提示对齐和美学质量"方面表现更佳。创建一幅图像大约需要10秒,而目前使用的SDXL模型需要22秒。StabilityAI公司帮助普及了StableDiffusion方法,同时也成为了几起诉讼的对象,这些诉讼指控StableDiffusion公司在未经权利人许可的情况下对受版权保护的数据进行了训练-Getty图片公司对StabilityAI公司的诉讼将于12月开庭审理。该公司于12月开始通过订阅的方式提供商业许可,并表示这是帮助其研究获得资金所必需的。...PC版:https://www.cnbeta.com.tw/articles/soft/1418229.htm手机版:https://m.cnbeta.com.tw/view/1418229.htm

相关推荐

封面图片

Stable Diffusion 是人工智能公司 Stability AI 背后的文本到图像模型,于 2022 年 8 月发布。

StableDiffusion是人工智能公司StabilityAI背后的文本到图像模型,于2022年8月发布。StabilityAI首席执行官EmadMostaque表示,StableDiffusion在所有渠道拥有超过1000万用户。如果我们推断一下《Midjourney》的数据和趋势,就会发现,通过官方的StableDiffusion渠道,用户每天会生成200万张图片,而在发布一年多的时间里,这个数字已经达到了6.9亿张图像。如果加上其他流行模型(例如Runway,我们单独统计)和StabilityAI的官方渠道,使用StableDiffusion创建的图像数量将增加到125.9亿张,占所有使用文本转文字创建的AI图像的80%。AdobeFireflyAdobeAdobe推出了Firefly,于2023年3月发布。上线6周内,用户创建了超过1亿资产。随着Firefly于2023年5月集成到AdobePhotoshop,考虑到全球使用Photoshop的人数,图像数量呈指数级增长。Adobe在最新的新闻稿中分享了其AI图像统计数据:推出仅3个月,使用AdobeFirefly创建的图像数量就已达到10亿张。使用StableDiffusion、AdobeFirefly、Midjourney和DALLE-2总共生成了超过150亿张人工智能创建的图像。这比Shutterstock的整个照片、矢量图和插图库还要多,而且是Instagram上传的图片数量的三分之一。

封面图片

Stability AI发布最新图像生成模型Stable Diffusion XL 1.0

StabilityAI发布最新图像生成模型StableDiffusionXL1.0今天,StabilityAI宣布推出StableDiffusionXL1.0,这是该公司迄今为止描述为“最先进”的文本到图像模型。StableDiffusionXL1.0可在上以开源形式使用,并提供给Stability的和消费者应用程序和。Stability声称,与其前代产品相比,StableDiffusionXL1.0提供了“更生动”和“更准确”的颜色,更好的对比度、阴影和照明效果。在接受采访时,StabilityAI的应用机器学习负责人JoePenna指出,StableDiffusionXL1.0包含35亿个参数,可以“在几秒钟内”生成多种长宽比的100万像素分辨率的完整图像。“参数”是模型从训练数据中学习到的部分,基本上定义了模型在解决问题上的技能水平。上一代稳定扩散模型稳定扩散XL0.9也可以生成更高分辨率的图像,但需要更多的计算能力。——、

封面图片

【Adobe发布名为“Firefly”的图像生成人工智能模型】

【Adobe发布名为“Firefly”的图像生成人工智能模型】2023年03月22日11点03分3月22日消息,Adobe公司发布名为“Firefly”的图像生成人工智能模型,目前主要专注于图像生成和文本效果,如文字生成矢量/笔刷/模板、根据自定义风格生成图像、指定纵横比扩展图像、据3D模型生成图像、为黑白图像上色、使用画笔修改图像并用文字描述的风格进行填充等。未来,Firefly将被实装在Adobe全家桶中。该模型的学习数据来源于Adobe旗下AdobeStock数据库、经授权的作品以及版权已过期的公共内容。据Adobe表示,用户的内容不会被用来训练Firefly。

封面图片

Stability AI 发布单幅图像生成 3D 对象的 Stable Zero123

StabilityAI发布单幅图像生成3D对象的StableZero123StabilityAI发布了能根据单幅图像生成对象各个角度视图的模型StableZero123。StableZero123是基于StableDiffusion1.5,生成一个视图消耗的内存与StableDiffusion1.5相同,但如果要生成3D视图需要更多时间和更多内存,建议24GB。StableZero123目前只支持研究目的的非商业使用。代码和权重发布在上。来源,频道:@kejiqu群组:@kejiquchat

封面图片

Stability AI 推出 Stable Video Diffusion 模型,可根据图片生成视频

StabilityAI推出StableVideoDiffusion模型,可根据图片生成视频StableVideoDiffusion这款模型能够通过现有图片生成视频,是基于之前发布的StableDiffusion文本转图片模型的延伸,也是目前为止市面上少有的能够生成视频的AI模型之一。不过,这款模型目前并不是对所有人开放的。StableVideoDiffusion目前处于StabilityAI所谓的“研究预览”阶段。想要使用这款模型的人必须同意一些使用条款,其中规定了StableVideoDiffusion的预期应用场景(例如“教育或创意工具”、“设计和其他艺术过程”等)和非预期的场景(例如“对人或事件的事实或真实的表达”)()投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

Google图像生成人工智能Imagen 3迎来升级

Google图像生成人工智能Imagen3迎来升级Google人工智能研究部门DeepMind负责人德米斯-哈萨比斯(DemisHassabis)说,与前代产品Imagen2相比,Imagen3能更准确地理解文字提示,并将其转化为图像,而且在生成图像方面更具"创造性和细节"。此外,该模型产生的"干扰人工智能"和错误也更少。哈萨比斯补充说:"这也是我们目前渲染文本的最佳模型,而渲染文本一直是图像生成模型面临的挑战。"为了消除人们对深度伪造可能性的担忧,Google表示,Imagen3将使用DeepMind开发的SynthID方法,在媒体上应用隐形加密水印。在Google的ImageFX工具中可以注册Imagen3的私人预览版,Google表示,该模型将"很快"提供给使用Google企业生成式人工智能开发平台VertexAI的开发人员和企业客户。Google通常不会透露太多用于训练人工智能模型的数据来源,这次也不例外。这是有原因的。大部分训练数据来自网络上的公共网站、资源库和数据集。而其中的一些训练数据,特别是未经内容创作者许可的受版权保护的数据,是知识产权相关诉讼的源头。Google的网站发布者控制功能允许网站管理员阻止搜索引擎与AI爬虫从他们的网站上获取数据,包括照片和视频。但是,Google并没有提供"退出"工具,而且与某些竞争对手不同的是,Google并没有承诺对权利人(在某些情况下是在不知情的情况下)为训练数据集做出的贡献进行补偿。缺乏透明度并不令人惊讶,但令人失望的尤其是像Google这样拥有丰富资源的公司。...PC版:https://www.cnbeta.com.tw/articles/soft/1430907.htm手机版:https://m.cnbeta.com.tw/view/1430907.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人