目前网上看到的 90% 的 AI 短片用的都是 image to video 工作流,先抽卡再拼接。
目前网上看到的 90% 的 AI 短片用的都是 image to video 工作流,先抽卡再拼接。 之前一直懒得试,趁元宵节有空就和 @海辛Hyacinth 玩了一下,顺便分享一下我们的流程,希望对你有用。 【1】第一步,先找音乐。 根据音乐确定视频节奏,估算需要的镜头&剪辑点。顺便推荐一下我们一直在用的版权音乐素材库 Epidemic Sound,BGM和音效都很全,还可以根据情绪来搜索。 ▶ Epidemic Sound: (当然,也有很多开源 AI 音乐库,只是我们不想再多抽一个环节的卡而已。) 【2】第二步,先发散找现成的静帧参考,确定风格,不是上来就抽卡。 目前 Midjourney 官网上的搜索已经足够好用了,你能在上面找到足够多的设计参考,简直是 AI 版的 Pinterest 。 ▶ Midjourney: 【3】第三步,根据景别组装时间线,不是上来就抽卡。 当你收集了足够多的参考图后,就可以用来组建时间线了。我们一直用 Milanote 这个画布工具来进行线上协作,支持大部分的媒体类型,自由又直观。 ▶ Milanote: 【4】第四步,抽静帧的卡,把风格参考图改成自己的生成图。 用 Midjourney 的一大好处就是可以抄作业,直接 【Copy Prompts】再调整一下关键词,一个风格完全一致的静帧就出来了,抽不到想要的再自己写。 【5】第五步,抽视频的卡,但不要只局限在一个平台。 其实除了主流的 Runway,还有很多值得一试的视频生成工具,Morph Studio、Stable Video 都是很好的选择。 ▶ Morph Studio:(对,就是 @海辛Hyacinth 她们家产品,欢迎给她下需求) ▶ Stable Video: (对,就是 SVD 的在线版,新用户有免费额度) 如果你本地也部署了SVD,甚至可以线上线下一起跑,效率翻倍。 【6】剪辑。 反正我用剪映,我很喜欢它的自动踩点功能,找剪辑点超级方便。
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人