央视这个AI视频做得真的很不错。初步拆解下,这个AI的工作流大概是mj+sd+runway/pika,sd有用到animat

None

相关推荐

封面图片

Ai的想象力在某些时刻是很棒的。一个很不错的方向,用Ai拓展电影片段,故事性、冲突和新内容带来的张力。用到的工具应该是类似ps的

封面图片

牛逼!!这个人把所有已公开的AIGC教程文档给收集起来了!想要了解AI工作流的朋友可以冲!!文档链接:https://qwu28

封面图片

这个用动捕和AI做的动画也太强了,应该是第一部完整工作流程都是用了AI,真正按正常动画质量来要求制作的内容了。

这个用动捕和AI做的动画也太强了,应该是第一部完整工作流程都是用了AI,真正按正常动画质量来要求制作的内容了。使用了Lora训练了演员的模型,然后用了controlnet捕捉动作,背景和人物是分开跑然后合成的。感觉最核心的人是他们降噪的方法,这里我没看懂。视频链接:https://www.youtube.com/watch?v=GVT3WUa-48Y&t=0sInvalidmedia:

封面图片

牛逼!!这个人把所有已公开的大厂AIGC落地项目文档给收集起来了!想要了解大厂AI工作流的朋友可以冲https://www.yu

封面图片

牛逼!!这个人把所有已公开的大厂AIGC落地项目文档给收集起来了!想要了解大厂AI工作流的朋友可以冲文档链接:https://w

封面图片

这个利用 3D 制作白膜然后 SD 重绘生成视频的项目,最后的效果非常好,同时作者给了相对详细的操作步骤。##ai画图

这个利用3D制作白膜然后SD重绘生成视频的项目,最后的效果非常好,同时作者给了相对详细的操作步骤。下面是他的工作流:基础渲染:首先在Cinema4D软件中创建并动画化了一个3D虚拟角色,这个角色的体型和面部结构都是依照客户的样貌设计的。我还细致地给这个3D角色做了纹理处理,以便使用EbSynth软件更好地追踪角色身体的不同部位。这里还涉及到了我为角色设计的3D服装,我将它们作为一个独立的渲染通道,在后期合成阶段加入。AI输出:接着,我利用了一个AI模型(SD1.5版本,当然是得到客户许可后进行的)来处理客户的相貌特征,并使用了一个名为WarpFusion的技术来生成你现在看到的图像序列。使用WarpFusion的过程非常耗时,主要是因为它需要不断地尝试和调整。去闪烁:这是最复杂的一个步骤。我使用EbSynth进行初步处理,然后通过DavinciResolve和TopazVideoAI软件来平滑化WarpFusion的输出结果,同时尽量保持细节。此外,我还使用了GoogleResearch的帧插值工具来优化角色脸部的某些动作(这些动作在EbSynth中无法得到很好的处理),然后在AfterEffects软件中把这些处理后的画面加入到视频中。3D服装:这一步主要是把之前“基础渲染”阶段制作的服装渲染通道加入进来,并尽可能地进行蒙版处理和合成。由于去闪烁过程对角色动作的插值有所改变,所以服装渲染并不完全同步于角色,但效果依然可以接受。后期处理:这个步骤主要是在AfterEffects中进行常规的视频合成工作。来源:Reddit用户Jushooter

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人