OpenAI发布Shap・E模型:通过输入文本创建逼真3D模型

OpenAI发布Shap・E模型:通过输入文本创建逼真3D模型 OpenAI最近发布了名为Shap・E的模型,可以通过输入文本创建逼真且多样化的3D模型。这种模型与现有的只能输出点云或体素的模型不同,可以生成高质量的3D资产,具有细粒度纹理和复杂形状。 Shap・E不仅仅是一个3D模型生成器,而且可以直接生成隐式函数的参数,这些参数可以用于渲染纹理网格和神经辐射场(NeRF)。NeRF是一种具有隐式场景表示的新型视场合成技术,在计算机视觉领域引起了广泛的关注。它可以用于视图合成和三维重建,广泛应用于机器人、城市地图、自主导航、虚拟现实/增强现实等领域。 值得注意的是,Shap・E模型还可以生成神经辐射场,这是一种新型的三维场景表示方法。通过这种方法,Shap・E可以呈现更加真实的光照效果和材质感,让3D图像更加生动、逼真。未来,这种模型可能会被广泛应用于游戏、电影、建筑等领域,为人们带来更加精彩、逼真的视觉体验。#AI 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

【三次元的文本到图像AI成了:单GPU不到一分钟出货】OpenAI 开源的 Point-E 可以基于定文本提示创建3D模型。通过

【三次元的文本到图像AI成了:单GPU不到一分钟出货】OpenAI 开源的 Point-E 可以基于定文本提示创建3D模型。通过一块Nvidia V100GPU,Point-E可以在一至两分钟内生成3D模型。 #抽屉IT

封面图片

新的Meta 3D Gen可在一分钟内根据文本生成高质量的3D素材

新的Meta 3D Gen可在一分钟内根据文本生成高质量的3D素材 Meta 的人工智能研究团队最近推出了 Meta 3D Gen (3DGen),这是一种用于文本到 3D 素材生成的最先进的新系统。Meta 声称,这一新系统可以在一分钟内生成高质量的 3D 素材。生成的三维素材将具有高分辨率纹理和材质贴图。3DGen 还支持基于物理的渲染(PBR)和对以前生成的 3D 素材进行生成再纹理。Meta 3D Gen 结合了两个主要组件:文本到 3D 生成和文本到纹理生成。下面是它的工作原理:第一阶段:三维素材生成根据用户提供的文本提示,第一阶段使用 Meta 的三维素材生成模型(AssetGen)创建初始三维素材。这一步将生成带有纹理和 PBR 材质贴图的 3D 网格。推理时间约为 30 秒。第 2 阶段:用例 1:生成三维纹理细化根据阶段 1 生成的三维素材和初始文本提示,阶段 2 将为该素材生成更高质量的纹理和 PBR 贴图。它使用 Meta 的文本到纹理生成器 Meta 3D TextureGen。推理时间约为 20 秒。用例 2:生成三维(再)纹理给定一个未纹理化的三维网格和一个描述其所需外观的提示。阶段 2 还可以从头开始为该三维素材生成纹理(网格可以是以前生成的,也可以是艺术家创建的)。推理时间约为 20 秒。您可以在这里阅读 Meta 3D Gen 的技术论文全文。Meta 公司还发表了技术论文,介绍他们用于高质量三维模型生成和基于文本提示的纹理生成的方法,这些方法是 Meta 3D Gen 系统的基础。 ... PC版: 手机版:

封面图片

OPENAI发布从文本创建视频的AI模型

OPENAI发布从文本创建视频的AI模型 当地时间周四,OPENAI宣布推出Sora,这是一种从文本创建视频的AI模型。可以根据文本提示创建现实且富有想象力的场景。Sora可以生成长达一分钟的视频,同时保持视觉质量并遵守用户的提示。 、

封面图片

Adobe Substance 3D的人工智能功能可将文字变成背景和纹理

Adobe Substance 3D的人工智能功能可将文字变成背景和纹理 第一项功能是 Substance 3D 采样器的"文本到纹理"功能,Adobe 称该功能可以根据提示描述生成"逼真或风格化的纹理",例如按比例缩放的皮肤或编织物。然后,这些纹理可以直接应用到 3D 模型中,使设计师不必再寻找合适的参考资料。第二个功能是 Substance 3D Stager 的新"生成背景"工具。它允许设计师使用文本提示为他们合成到 3D 场景中的对象生成背景图片。巧妙之处在于,这两项功能实际上都使用了 2D 成像技术,就像 Adobe 以前在Photoshop 和 Illustrator 中使用的 Firefly 工具一样。Firefly 并不生成 3D 模型或文件,相反,Substance 使用的是通过文字描述生成的 2D 图像,并以 3D的方式加以应用。Substance 3D Sampler 4.4 测试版和 Stager 3.0 测试版分别提供了新的"文本到纹理"和"生成背景"功能。这两项功能在测试版中都是免费的,并已在 Adobe 拥有的资产(包括公司制作的参考资料和获得许可的 Adobe 库存)上进行了培训。 ... PC版: 手机版:

封面图片

Stability AI 太惨了老是发消息被忽略,昨晚他们还跟Tripo AI 联合推出了 TripoSR 3D 生成模型,可以

Stability AI 太惨了老是发消息被忽略,昨晚他们还跟Tripo AI 联合推出了 TripoSR 3D 生成模型,可以在不到 1 秒的时间里生成高质量的 3D 模型。 TripoSR的推理只需要极低的算力,甚至都不需要 GPU,极大的降低了生产成本。权重模型允许商业化使用。 性能:TripoSR可以在其他模型所需时间的一小部分时间内创建详细的3D模型。在Nvidia A100上进行测试时,它可以在大约0.5秒内生成初步质量的3D输出(纹理网格),表现优于其他开放的图像到3D模型,如OpenLRM。 技术细节:训练数据准备包括多种数据渲染技术,更贴近真实世界中图像的分布,显著提高了模型的泛化能力。精心策划了一个CC-BY,即Objaverse数据集的高质量子集,用于训练数据。在模型方面,还对基础LRM模型进行了多项技术改进,包括通道数优化、蒙版监督和更高效的裁剪渲染策略。 详细信息:

封面图片

Bark是由Suno创建的文本提示生成音频模型。Bark可以生成高度逼真的多语言语音以及其他音频 - 包括音乐,背景噪音和简单的

Bark是由Suno创建的文本提示生成音频模型。Bark可以生成高度逼真的多语言语音以及其他音频 - 包括音乐,背景噪音和简单的音效。该模型还可以产生非语言交流,如笑、叹息和哭泣。Bark已经过测试,可以在CPU和GPU上运行(CUDA 11.7和CUDA 12.0)。pytorch 2.0+,可用于商业用途。 链接: 标签:#AI #语音合成 群聊:@appmiu

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人