#AIRunway 的 Gen-2 模型免费开放

#AI Runway 的 Gen-2 模型免费开放 一个通过文本和图片生成 4 秒视频的 AI 工具,被网友称赞为“视频界的 Midjourney”,由 Stable Diffusion 和《瞬息全宇宙》背后技术公司 Runway 出品。 目前免费提供 100 秒左右的视频生成额度,据网友反馈,生成的视频帧率并不高,严重的犹如幻灯片一般,目前还不清楚的是,这究竟是技术上的问题,还是 Runway 试图节省计算成本。 另外,它生成的视频往往有着某种共同的颗粒感或模糊感,其它地方也会出现假象,比如当视角旋转或绕过物体时,物体周围会出现像素化现象。 频道 @WidgetChannel 投稿 @WidgetPlusBot

相关推荐

封面图片

人工智能初创公司 Runway 发布文本到视频模型 Gen-2

人工智能初创公司 Runway 发布文本到视频模型 Gen-2 Gen-2 支持从文本到视频、图像到视频、文本+图像到视频各种场景,可以从几句用户提示中生成简短的视频片段。用户可通过 Runway 的加入 Gen-2 候补名单。 Runway 同时协助开发了开源图像生成模型 Stable Diffusion,比起拥有巨大资源的科技巨头,Runway 只是一个45人团队的人工智能初创公司,这也反映着初创公司在生成式AI上的潜力有多么惊人。

封面图片

GEN-2 (视频版 Midjourney) 免费开放

GEN-2 (视频版 Midjourney) 免费开放 是由 Stable Diffusion和《瞬息全宇宙》背后技术公司Runway 联合推出的AI视频编辑工具,目前可以免费试用了! 目前官网可免费体验Gen2的功能是文生视频(Text to Video),但Gen1也开放了视频生视频(Video to Video)的功能。网页端和移动端(仅限iOS系统)现在均可正式开始体验。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

网站Gen-2 Runway

网站Gen-2 Runway 网站功能:AI视频生成 网站简介:Gen-2是一个多模态AI系统,可以根据文本、图像或视频片段生成新的视频。它可以逼真且一致地合成新的视频,无论是将图像或文本提示的构图和风格应用到源视频的结构上(视频到视频),还是仅使用文字(文本到视频)。 网站网址:点击打开

封面图片

Runway 刚也发布了文字生成视频的模型 Gen-2 (对,Gen-1 的内测还没拿到,2 就来了...)

Runway 刚也发布了文字生成视频的模型 Gen-2 (对,Gen-1 的内测还没拿到,2 就来了...) 功能没什么好讲的,就是文字生成视频。宣传视频中同时提到风格化模型 Gen-1 也进行了优化。 ▶ 项目地址: ▶ 论文地址: 从生成结果来看,个人觉得 Gen-1 的可玩性高于 Gen-2,毕竟对现有的视频风格化肯定比无中生有更稳定。 最后再补一下 Gen-1 的介绍和内测申请: Invalid media:

封面图片

字节发布文生图开放模型SDXL-Lightning

字节发布文生图开放模型SDXL-Lightning 界面新闻从知情人士处获悉,字节发布文生图开放模型 SDXL-Lightning。据知情人士透露,字节跳动的 SDXL-Lightning 通过渐进式对抗蒸馏的技术,实现前所未有的生成速度。该模型能够在2步或4步内生成极高质量和分辨率的图像,将生成速度加快十倍,是1024分辨率下速度最快的文生图模型,计算成本则降低为十分之一。该模型已经在 AI 开源社区 Hugging Face 上公开,跻身模型趋势榜,同时也成为 Hugging Face Spaces 上的热门模型。 、

封面图片

剑指 Sora:Picsart AI 团队联合发布 StreamingT2V 模型,可生成 1200 帧 2 分钟视频

剑指 Sora:Picsart AI 团队联合发布 StreamingT2V 模型,可生成 1200 帧 2 分钟视频 Picsart AI Resarch 等团队联合发布了 StreamingT2V,可以生成长达 1200 帧、时长为 2 分钟的视频,同时质量也很不错。并且,作者表示,两分钟并不是模型的极限,就像之前 Runway 的视频可以延长一样,StreamingT2V 理论上可以做到无限长。 同时,作为开源世界的强大组件,StreamingT2V 可以无缝兼容 SVD 和 animatediff 等模型。不但比 Sora 长,而且免费开源! 论文地址: Demo 试用: 开源代码: 频道:@kejiqu 群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人