GEN-2 (视频版 Midjourney) 免费开放

GEN-2 (视频版 Midjourney) 免费开放 是由 Stable Diffusion和《瞬息全宇宙》背后技术公司Runway 联合推出的AI视频编辑工具,目前可以免费试用了! 目前官网可免费体验Gen2的功能是文生视频(Text to Video),但Gen1也开放了视频生视频(Video to Video)的功能。网页端和移动端(仅限iOS系统)现在均可正式开始体验。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

终于来了, Runway 的GEN-2 现已实装上线!

终于来了, Runway 的GEN-2 现已实装上线! AIGC 视频领域,重量级玩家Runway 正式推出了 Gen2 ,这是业界备受瞩目的text 2 Video 强大模型。 此次大版本更新,令人惊喜的在于,Web端和iPhone 同时更新,现在就可以在手机上体验了。iOS 地址 「凡是你所能想象,皆可成真 」 艺术创作和个体表达的黄金时代,正在加速到来,Amazing~ 欢迎各位评论区,分享你的早期作品 Invalid media:

封面图片

#AIRunway 的 Gen-2 模型免费开放

#AI Runway 的 Gen-2 模型免费开放 一个通过文本和图片生成 4 秒视频的 AI 工具,被网友称赞为“视频界的 Midjourney”,由 Stable Diffusion 和《瞬息全宇宙》背后技术公司 Runway 出品。 目前免费提供 100 秒左右的视频生成额度,据网友反馈,生成的视频帧率并不高,严重的犹如幻灯片一般,目前还不清楚的是,这究竟是技术上的问题,还是 Runway 试图节省计算成本。 另外,它生成的视频往往有着某种共同的颗粒感或模糊感,其它地方也会出现假象,比如当视角旋转或绕过物体时,物体周围会出现像素化现象。 频道 @WidgetChannel 投稿 @WidgetPlusBot

封面图片

Runway 刚也发布了文字生成视频的模型 Gen-2 (对,Gen-1 的内测还没拿到,2 就来了...)

Runway 刚也发布了文字生成视频的模型 Gen-2 (对,Gen-1 的内测还没拿到,2 就来了...) 功能没什么好讲的,就是文字生成视频。宣传视频中同时提到风格化模型 Gen-1 也进行了优化。 ▶ 项目地址: ▶ 论文地址: 从生成结果来看,个人觉得 Gen-1 的可玩性高于 Gen-2,毕竟对现有的视频风格化肯定比无中生有更稳定。 最后再补一下 Gen-1 的介绍和内测申请: Invalid media:

封面图片

@onlychigua Runway 发布视频生成模型 Gen-2 的运动笔刷功能

@onlychigua Runway 发布视频生成模型 Gen-2 的运动笔刷功能 "Motion Brush/运动笔刷"的发布代表了模型可控性的一个重要里程碑,用户只需绘制一个区域或主题,选择一个方向并为运动添加强度即可。运动笔刷允许您为您的生成添加受控运动,从而更好地控制生成的内容。

封面图片

人工智能初创公司 Runway 发布文本到视频模型 Gen-2

人工智能初创公司 Runway 发布文本到视频模型 Gen-2 Gen-2 支持从文本到视频、图像到视频、文本+图像到视频各种场景,可以从几句用户提示中生成简短的视频片段。用户可通过 Runway 的加入 Gen-2 候补名单。 Runway 同时协助开发了开源图像生成模型 Stable Diffusion,比起拥有巨大资源的科技巨头,Runway 只是一个45人团队的人工智能初创公司,这也反映着初创公司在生成式AI上的潜力有多么惊人。

封面图片

网站Gen-2 Runway

网站Gen-2 Runway 网站功能:AI视频生成 网站简介:Gen-2是一个多模态AI系统,可以根据文本、图像或视频片段生成新的视频。它可以逼真且一致地合成新的视频,无论是将图像或文本提示的构图和风格应用到源视频的结构上(视频到视频),还是仅使用文字(文本到视频)。 网站网址:点击打开

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人