这个用动捕和AI做的动画也太强了,应该是第一部完整工作流程都是用了AI,真正按正常动画质量来要求制作的内容了。

这个用动捕和AI做的动画也太强了,应该是第一部完整工作流程都是用了AI,真正按正常动画质量来要求制作的内容了。使用了Lora训练了演员的模型,然后用了controlnet捕捉动作,背景和人物是分开跑然后合成的。感觉最核心的人是他们降噪的方法,这里我没看懂。视频链接:https://www.youtube.com/watch?v=GVT3WUa-48Y&t=0sInvalidmedia:

相关推荐

封面图片

AIGC Weekly #11更新了,本期主要介绍了ChatGPT API发布的内容以及相关工具,AI生成动画短片的工作流程。下

AIGCWeekly#11更新了,本期主要介绍了ChatGPTAPI发布的内容以及相关工具,AI生成动画短片的工作流程。下面是上周一些行业动态和产品推荐,更多详细的内容可以去图里的竹白查看:https://op7418.zhubai.love/posts/2244331214758957056本周精选:ChatGPTAPI上周正式发布了下面是一些相关信息:官方介绍文章:https://openai.com/blog/introducing-chatgpt-and-whisper-apis官方API文档:https://platform.openai.com/docs/guides/chat/chat-vs-completionsToken计数规则文档:https://github.com/openai/openai-cookbook/blob/main/examples/How_to_count_tokens_with_tiktoken.ipynbToken可视化计数工具:https://tiktokenizer.vercel.app/官方Playground页面:https://platform.openai.com/playground?mode=chat同时开放的API还有OpenAI已经开源的Whisper语音识别模型:https://platform.openai.com/docs/guides/speech-to-textANIMEROCK,PAPER,SCISSORS-完全使用AI绘图技术制作的高水平动画:https://www.youtube.com/watch?v=GVT3WUa-48Y他们使用的主要工具为:StableDiffusion模型+DreamBooth微调ControlNet匹配动捕画面姿势虚幻引擎+资产存储3D模型Img2Img+DeFlickering效果大量的老式的VFX合成产品推荐:OpenCat-ChatGPTMac桌面客户端:https://apps.apple.com/app/opencat/id6445999201?mt=12bob-plugin-openai-translator-BOBChatGPT翻译插件:https://t.co/Sp3tMyDsB2

封面图片

总结一下我自己在做模型训练时关注到的一些很喜欢的 AI 前沿探索者,以及工具和资源。

总结一下我自己在做模型训练时关注到的一些很喜欢的AI前沿探索者,以及工具和资源。1.StableDiffusion入门推荐:腾讯技术工程《开源图像模型StableDiffusion入门手册》https://mp.weixin.qq.com/s/8czNX-pXyOeFDFhs2fo7HA推荐理由:目前总结的最好的,没有花里胡哨的内容,信息量大且系统,很难相信是直接开源的文章分享,反复读的文章之一了。2.LoRA角色模型训练:YouTube频道@BernardMaltaishttps://www.youtube.com/watch?v=N4_-fB62Hwk&t=338s推荐理由:Kohya训练脚本的作者,上下两集共90分钟讲解了Lora模型的训练,从数据集收集到处理到训练参数。建议这种教程能看开发者做的就看开发者做的,很多追热点的up经常为了图快没玩明白就出攻略,我跟着很多油管的教程操作,常被带进坑里……3.微调风格模型训练:Twitter@Nitrosockehttps://github.com/nitrosocke/dreambooth-training-guide推荐理由:Nitro训练过很多非常棒的模型,他的GitHub页面有详细讲风格模型怎么训练的教程。他自己本身是设计师出身,在去年年底微调了几个很厉害的风格模型后,现在被StabilityAI挖走了。4.ControlNet插件研发用户推荐Twitter@toyxyzhttps://toyxyz.gumroad.com/推荐理由:他做了利用Blender来辅助AI出图的免费插件,打通工作流3D辅助AI的第一人哈哈。最近他在研究的方向是ControlNet动画,总之是厉害、前沿又无私的开发者。5.AI放大工具推荐TopazGigapixel:用过最好用的,可以批量放大,基本所有图片训练前我都会用这个过一遍Upscayl:会增加细节,但是只能给常见物体增加细节Gigagan:还没出,但看效果挺值得关注#AI工作流#AI的神奇用法

封面图片

今天没有晚安提示词,今天在Reddit发现一个老哥画的天龙八部插图,惊为天人。整个画面的张力还有人物动作表现,画面风格的一致性人

今天没有晚安提示词,今天在Reddit发现一个老哥画的天龙八部插图,惊为天人。整个画面的张力还有人物动作表现,画面风格的一致性人物的一致性都非常牛皮。作者也发了一些自己作图的过程稿,还有制作的思路。不过帖子里非常零碎,我就想整理一下方便学习思路。总的来说就是通过各种方式获得画面的草稿,然后利用ContorlNet的各种能力获得整个画面的内容,之后对不满意的地方通过PS处理之后使用局部重绘,然后就是PS和局部重绘的不断循环,但是他获得草稿的方式有很多种,下面我分别介绍一下。首先是第一张张图,他利用Blender制作了整个场景的白模,之后分别用ControlNet的线稿模式绘制场景,然后用openpose绘制人物动作。然后就是不断地局部重绘流程。图上的字是PS后期加上的。第三张图里没有用ContorlNet他直接用网上的素材在PS里面拼了一个场景出来,然后直接Img2Img。场景合适之后就用ps加了桥上的两个剪影开始不断地局部重绘,直到达到满意的效果。第五张图,他为了精准控制人物的动作和姿势还有位置,用了ContorlNet的线稿、姿势控制、深度图三种能力。最后说一下作者是如何保证人物脸型和画面风格的,作者训练了两个Lora,一个是用来控制男性人物的,另一个是用来控制场景的画面风格的。这样整套图的风格和关键人物脸型就能保持一致。Reddit的原帖在这里,还需要了解更多细节的可以去翻一翻,老哥应该也是国人,如果能录个全过程的视频就太强了。这套流程应该是AI辅助绘画的顶级流程了。所以这就是为什么我一直在说AI其实不会让那些会画画的失业,反而会让他们更加强大,原有的美学素养保证了他们出图的质量,AI又极大的提高了效率。[https://www.reddit.com/r/StableDiffusion/comments/1376d37/use_sd_to_graphic_my_beloved_swordsman_novelpart2/][https://www.reddit.com/r/StableDiffusion/comments/13067z7/use_sd_to_graphic_my_beloved_swordsman_novel/]

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人