是一种多视角草图引导的文本到3D生成模型,能生成类似于多视角草图的高保真度3D对象,利用预训练2D扩散模型来优化神经辐射场(Ne

None

相关推荐

封面图片

:基于文本条件的扩散概率模型,能生成高保真音频,适用于文本到音频的生成任务,提供预训练模型和开源实现

封面图片

AtomoVideo:阿里巴巴开发的高保真图像到视频生成开源模型 可以生成符合真实世界运动状态的

:阿里巴巴开发的高保真图像到视频生成开源模型可以生成符合真实世界运动状态的视频主要功能:1、高保真视频生成:AtomoVideo可以从单一静态图像生成高保真的视频序列,视频中的内容不仅与原始图片保持高度一致,而且动作自然流畅。2、动作强度和连贯性:AtomoVideo生成的视频具有自然流畅的动作和良好的时间连贯性。视频中的运动看起来既自然又符合逻辑,没有突兀或不自然的过渡。为了让视频里的动作看起来自然,AtomoVideo引入了时间卷积和时间注意力模块,这些模块专门处理视频帧之间的时间关系,帮助模型预测下一帧画面的变化,从而实现连贯的视频动作。AtomoVideo会特别处理视频的时间信息,让图片中的物体像在真实世界那样随时间移动和变化。3、个性化适配:AtomoVideo能够与不同的个性化文本到图像(T2I)模型兼容,无需进行特定调整,这让它能够广泛适用于各种场景。AtomoVideo还能结合文字描述来生成视频。比如,你给它一张静态的海边图片,并告诉它“海浪轻轻拍打沙滩”,它就能根据这个描述生成一段海浪真的拍打沙滩的视频。

封面图片

AI建模领域新模型发布,单张2D图片生成3D模型。项目地址:https://3d-diffusion.github.io/开发者

封面图片

极致3D女声车载音乐合集描述:高保真车载极致发烧女声,环绕3D,百听不厌、车载专用。链接:https://pan.quar

封面图片

Gen-3 Alpha:视频生成技术的新前沿,实现高保真度、可控性生成

:视频生成技术的新前沿,实现高保真度、可控性视频生成-与视频和图像联合训练,支持从文字到视频、从图像到视频以及从文字到图像等工具,同时保留运动笔刷、高级相机控制、导演模式等控制模式。-引入了一系列安全保障措施,包括内部视觉审查系统和C2PA来源标准。-训练数据包含描述性细致和时间密集的描述,支持场景元素的富有想象力的过渡和精确的关键帧设置。-表现出色的生成式真人角色,可以展示广泛的动作、手势和情绪,解锁新的叙事方式。-由跨学科团队的科研人员、工程师和艺术家合作训练,旨在解释各种风格和电影术语。-与主要娱乐和媒体组织合作,为Gen-3创建定制版本,允许更具风格的控制和一致的字符,达到特定的艺术和叙事要求。-所有示例视频均完全由Gen-3Alpha生成,无任何修改。-Gen-3Alpha代表了高保真、可控视频生成的新前沿。它为艺术家提供了强大的新工具,为多种行业带来自定义解决方案的可能性。

封面图片

Reddit 上的一个帖子,很厉害,利用简陋的 3D 模型动画和 Animatediff 生成 高度自定义的 2D 动画。#ai

Reddit上的一个帖子,很厉害,利用简陋的3D模型动画和Animatediff生成高度自定义的2D动画。B站前段时间胶囊计划有个片子也是类似的处理方式。具体的工作流为:将文本转化为3D效果:由LumaLabs提供技术支持背景设计:使用ComfyUI和Photoshop的生成式填充功能3D动画制作:采用Mixamo和Blender工具2D风格动画:由ComfyUI提供支持所有其他特效:通过AfterEffects实现

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人