是一种多视角草图引导的文本到3D生成模型,能生成类似于多视角草图的高保真度3D对象,利用预训练2D扩散模型来优化神经辐射场(Ne

是一种多视角草图引导的文本到3D生成模型,能生成类似于多视角草图的高保真度3D对象,利用预训练2D扩散模型来优化神经辐射场(NeRF)表示的3D场景,提出一种新的同步生成和重构方法来有效优化NeRF。 实验结果表明,Sketch2NeRF能在细粒度草图控制和文本提示的高保真度方面实现3D一致的内容。在草图相似性和文本对齐方面,该方法达到了最先进的性能水平。

相关推荐

封面图片

:阿里巴巴开发的高保真图像到视频生成开源模型 可以生成符合真实世界运动状态的

:阿里巴巴开发的高保真图像到视频生成开源模型 可以生成符合真实世界运动状态的视频 主要功能: 1、高保真视频生成:AtomoVideo可以从单一静态图像生成高保真的视频序列,视频中的内容不仅与原始图片保持高度一致,而且动作自然流畅。 2、动作强度和连贯性:AtomoVideo生成的视频具有自然流畅的动作和良好的时间连贯性。视频中的运动看起来既自然又符合逻辑,没有突兀或不自然的过渡。 为了让视频里的动作看起来自然,AtomoVideo引入了时间卷积和时间注意力模块,这些模块专门处理视频帧之间的时间关系,帮助模型预测下一帧画面的变化,从而实现连贯的视频动作。AtomoVideo会特别处理视频的时间信息,让图片中的物体像在真实世界那样随时间移动和变化。 3、个性化适配:AtomoVideo能够与不同的个性化文本到图像(T2I)模型兼容,无需进行特定调整,这让它能够广泛适用于各种场景。AtomoVideo还能结合文字描述来生成视频。比如,你给它一张静态的海边图片,并告诉它“海浪轻轻拍打沙滩”,它就能根据这个描述生成一段海浪真的拍打沙滩的视频。

封面图片

新的Meta 3D Gen可在一分钟内根据文本生成高质量的3D素材

新的Meta 3D Gen可在一分钟内根据文本生成高质量的3D素材 Meta 的人工智能研究团队最近推出了 Meta 3D Gen (3DGen),这是一种用于文本到 3D 素材生成的最先进的新系统。Meta 声称,这一新系统可以在一分钟内生成高质量的 3D 素材。生成的三维素材将具有高分辨率纹理和材质贴图。3DGen 还支持基于物理的渲染(PBR)和对以前生成的 3D 素材进行生成再纹理。Meta 3D Gen 结合了两个主要组件:文本到 3D 生成和文本到纹理生成。下面是它的工作原理:第一阶段:三维素材生成根据用户提供的文本提示,第一阶段使用 Meta 的三维素材生成模型(AssetGen)创建初始三维素材。这一步将生成带有纹理和 PBR 材质贴图的 3D 网格。推理时间约为 30 秒。第 2 阶段:用例 1:生成三维纹理细化根据阶段 1 生成的三维素材和初始文本提示,阶段 2 将为该素材生成更高质量的纹理和 PBR 贴图。它使用 Meta 的文本到纹理生成器 Meta 3D TextureGen。推理时间约为 20 秒。用例 2:生成三维(再)纹理给定一个未纹理化的三维网格和一个描述其所需外观的提示。阶段 2 还可以从头开始为该三维素材生成纹理(网格可以是以前生成的,也可以是艺术家创建的)。推理时间约为 20 秒。您可以在这里阅读 Meta 3D Gen 的技术论文全文。Meta 公司还发表了技术论文,介绍他们用于高质量三维模型生成和基于文本提示的纹理生成的方法,这些方法是 Meta 3D Gen 系统的基础。 ... PC版: 手机版:

封面图片

草图大师SKP快速浏览40多种主流3D及2D图纸、观察SKP草图和修改3D图纸。

草图大师SKP 快速浏览40多种主流3D及2D图纸、观察SKP草图和修改3D图纸。 1、支持导入和查看3D图纸,快速打开3D图纸。 2、可以快速方便地浏览40多种主流3D及2D图纸、观察SKP草图和修改3D图纸。 3、可在便携移动设备上展示和协作3D图纸,支持查看主流三维模型的零件集CAD看图、SU草图、CAD批注、CATPart、CAD分享、prt 、CAD图纸设计、asm、CAD图纸标注、sldprt、 CAD图纸测量、sldasm、dwg看图、stp、3D看图、三维看图于一体的手机看图纸软件。通过单点或多点触控实现图纸的预览、视角、旋转、剖切、放大、缩小、爆炸、漫游、剖视、测量等操作。 4、素材库模块为广大设计师、美术工作者、学者、学生、老师、工程制图人员、工程师及相关从业者提供模型素材下载功能,里面的素材分类齐全,不仅可以直接下载使用,还可以开拓您的视野。 5、多种格式,同步支持SolidWorks、ProE/Creo、sview、CATIA、Fbx、Ifc、Inventor、JT、Parasolid、PDMS、Rhino、U3D、UG、CGR、maya、LightWave等主流格式软件,支持解析浏览dae、max、3ds、obj、ABC、FBX、DAE、OBJ、BVH、DXF、PSK、STL、PLY、X3D、JCD、svp等格式图纸,支持将cdr图纸转换为PDF。 【使用方法】解锁会员免登陆 压缩包里面三个软件都需要安装,成功安装后打开『会员版·喜凤』即可奔放永久会员!打开本体软件会员不生效!!! 免费资源频道:@ZYPD123 全网搜索群:@soso_Group

封面图片

:可以把一个人的表情和动作精准的复制到另一个人的3D模型上。

:可以把一个人的表情和动作精准的复制到另一个人的3D模型上。 通过这项技术,你可以让一个虚拟的3D人物模型模仿真实人的表情和头部动作。这个过程是实时的,通过摄像头输入,当真人改变表情或头部姿势时,3D模型也会立即做出相同的反应。 主要特点: 3D感知一次性头部再现:能够完美复制头部动作和表情,同时保持源图像的身份特征。而且只需要一次性的输入数据。 全息显示:设计允许在全息显示设备上实时渲染头部模型。 多视角渲染:能够同时渲染多达45个不同的视角,适用于需要从多个角度展示头部模型的应用。 高保真度:VOODOO 3D在保持源身份的同时,能够准确再现驱动视频中的表情和动作。

封面图片

OpenAI发布Shap・E模型:通过输入文本创建逼真3D模型

OpenAI发布Shap・E模型:通过输入文本创建逼真3D模型 OpenAI最近发布了名为Shap・E的模型,可以通过输入文本创建逼真且多样化的3D模型。这种模型与现有的只能输出点云或体素的模型不同,可以生成高质量的3D资产,具有细粒度纹理和复杂形状。 Shap・E不仅仅是一个3D模型生成器,而且可以直接生成隐式函数的参数,这些参数可以用于渲染纹理网格和神经辐射场(NeRF)。NeRF是一种具有隐式场景表示的新型视场合成技术,在计算机视觉领域引起了广泛的关注。它可以用于视图合成和三维重建,广泛应用于机器人、城市地图、自主导航、虚拟现实/增强现实等领域。 值得注意的是,Shap・E模型还可以生成神经辐射场,这是一种新型的三维场景表示方法。通过这种方法,Shap・E可以呈现更加真实的光照效果和材质感,让3D图像更加生动、逼真。未来,这种模型可能会被广泛应用于游戏、电影、建筑等领域,为人们带来更加精彩、逼真的视觉体验。#AI 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

NVIDIA 正在设法大幅提高生成 AI 图像和视频的速度

NVIDIA 正在设法大幅提高生成 AI 图像和视频的速度 Nvidia 多伦多人工智能实验室的研究人员正在解决生成图像和视频的时间问题,本周在该公司的 GTC 2024 会议上,他们概述了这项工作的一些成果,展示了旨在实现这一目标的进步更快(因此更经济)生成“噪音”明显更少的图像和更详细的 3D 图像,将时间从几周或几个月缩短为几天或几分钟。 对于图像生成,研究人员着眼于加速扩散模型的工作,该模型用于解决生成高保真度高分辨率图像的棘手问题,并且是 OpenAI 的 Dall-E3 等文本到图像模型的基础谷歌的图像。从本质上讲,它们消除了“噪声”图像原始场景内容中不存在的伪影,但这些伪影可能使图像看起来模糊、像素化、颗粒状或以其他方式表现不佳。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人