【三次元的文本到图像AI成了:单GPU不到一分钟出货】OpenAI 开源的 Point-E 可以基于定文本提示创建3D模型。通过

【三次元的文本到图像AI成了:单GPU不到一分钟出货】OpenAI 开源的 Point-E 可以基于定文本提示创建3D模型。通过一块Nvidia V100GPU,Point-E可以在一至两分钟内生成3D模型。 #抽屉IT

相关推荐

封面图片

OPENAI发布从文本创建视频的AI模型

OPENAI发布从文本创建视频的AI模型 当地时间周四,OPENAI宣布推出Sora,这是一种从文本创建视频的AI模型。可以根据文本提示创建现实且富有想象力的场景。Sora可以生成长达一分钟的视频,同时保持视觉质量并遵守用户的提示。 、

封面图片

OpenAI发布Shap・E模型:通过输入文本创建逼真3D模型

OpenAI发布Shap・E模型:通过输入文本创建逼真3D模型 OpenAI最近发布了名为Shap・E的模型,可以通过输入文本创建逼真且多样化的3D模型。这种模型与现有的只能输出点云或体素的模型不同,可以生成高质量的3D资产,具有细粒度纹理和复杂形状。 Shap・E不仅仅是一个3D模型生成器,而且可以直接生成隐式函数的参数,这些参数可以用于渲染纹理网格和神经辐射场(NeRF)。NeRF是一种具有隐式场景表示的新型视场合成技术,在计算机视觉领域引起了广泛的关注。它可以用于视图合成和三维重建,广泛应用于机器人、城市地图、自主导航、虚拟现实/增强现实等领域。 值得注意的是,Shap・E模型还可以生成神经辐射场,这是一种新型的三维场景表示方法。通过这种方法,Shap・E可以呈现更加真实的光照效果和材质感,让3D图像更加生动、逼真。未来,这种模型可能会被广泛应用于游戏、电影、建筑等领域,为人们带来更加精彩、逼真的视觉体验。#AI 来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

新的Meta 3D Gen可在一分钟内根据文本生成高质量的3D素材

新的Meta 3D Gen可在一分钟内根据文本生成高质量的3D素材 Meta 的人工智能研究团队最近推出了 Meta 3D Gen (3DGen),这是一种用于文本到 3D 素材生成的最先进的新系统。Meta 声称,这一新系统可以在一分钟内生成高质量的 3D 素材。生成的三维素材将具有高分辨率纹理和材质贴图。3DGen 还支持基于物理的渲染(PBR)和对以前生成的 3D 素材进行生成再纹理。Meta 3D Gen 结合了两个主要组件:文本到 3D 生成和文本到纹理生成。下面是它的工作原理:第一阶段:三维素材生成根据用户提供的文本提示,第一阶段使用 Meta 的三维素材生成模型(AssetGen)创建初始三维素材。这一步将生成带有纹理和 PBR 材质贴图的 3D 网格。推理时间约为 30 秒。第 2 阶段:用例 1:生成三维纹理细化根据阶段 1 生成的三维素材和初始文本提示,阶段 2 将为该素材生成更高质量的纹理和 PBR 贴图。它使用 Meta 的文本到纹理生成器 Meta 3D TextureGen。推理时间约为 20 秒。用例 2:生成三维(再)纹理给定一个未纹理化的三维网格和一个描述其所需外观的提示。阶段 2 还可以从头开始为该三维素材生成纹理(网格可以是以前生成的,也可以是艺术家创建的)。推理时间约为 20 秒。您可以在这里阅读 Meta 3D Gen 的技术论文全文。Meta 公司还发表了技术论文,介绍他们用于高质量三维模型生成和基于文本提示的纹理生成的方法,这些方法是 Meta 3D Gen 系统的基础。 ... PC版: 手机版:

封面图片

Google推出Lumiere生成式AI 可基于文本提示创建逼真的图像和视频

Google推出Lumiere生成式AI 可基于文本提示创建逼真的图像和视频 这听起来可能并不令人印象深刻,但有了最新的生成式人工智能工具的帮助,我们就能走得更远,创造出令人惊叹的作品。Lumiere 还使用扩散概率模型来帮助生成图像。这与时空 U-Net 相结合。对于那些不了解的人来说,U-Net 是一种架构,它能带来时间上的放大和缩小,以及添加到图像中的注意力区块。最棒的是,这种新的生成式人工智能工具可以与许多其他模型一起使用,这将有助于创建比我们之前看到的任何图像和视频都更加逼真的图像和视频。Lumiere 可用于创建以下内容:电影胶片将图像的单一部分制作成动画动画视频中的一个物体可以被另一个物体取代风格化生成:任何创作的艺术风格都可以改变为其他风格图像到视频:帮助制作任何所需图像的动画视频到视频:允许用户创建不同艺术风格的视频在撰写本文时,Lumiere创建的视频长度最长仅为 5 秒,而且还不具备创建视频转换和多角度摄像的功能。另外值得注意的是,如果你想试用 Lumiere,仅靠标准 GPU 是不行的。PC本身必须有强大的图形处理能力,否则该工具根本无法运行。访问试用: ... PC版: 手机版:

封面图片

AI生成模型合集AI文本生成图像模型

AI生成模型合集 AI文本生成图像模型 DALL-E 2:https://openai.com/product/dall-e-2 Stable Diffusion:https://stablediffusionweb.com/ Craiyon:https://www.craiyon.com/ Jasper:https://www.jasper.ai/ Imagen:https://imagen.research.google/ Midjourney: 网站:https://midjourney.com/ 教程:https://www.uisdc.com/midjourney 关键词:https://github.com/willwulfken/MidJourney-Styles-and-Keywords-Reference NightCafe:https://nightcafe.studio/ GauGAN2: http://gaugan.org/gaugan2/ https://blogs.nvidia.com/blog/2021/11/22/gaugan2-ai-art-demo/ WOMBO :https://www.wombo.ai/ pixray/text2image:https://replicate.com/pixray/text2image neural.love:https://neural.love/ AI文本生成视频模型 Runway:https://runwayml.com/ Fliki:https://fliki.ai/ Synthesia:https://www.synthesia.io/ Meta AI:https://ai.facebook.com/ Google AI:https://ai.google/ Phenaki:https://phenaki.video/ AI文本生成音频模型 Play.ht:https://play.ht/ Murf:https://murf.ai/ Resemble AI:https://www.resemble.ai/ WellSaid:https://wellsaidlabs.com/ Descript:https://www.descript.com/ AI文本生成文本模型 Simplified:https://simplified.com/ Jasper:https://www.jasper.ai/ Frase:https://www.frase.io/ EleutherAI:https://www.eleuther.ai/ AI21 Labs:https://www.ai21.com/ Hub Spot:https://www.hubspot.com/ InferKit:https://inferkit.com/ GooseAI:https://goose.ai/ Research AI:https://researchai.co/ Writesonic:https://writesonic.com/ Cohere:https://cohere.ai/ Chibi:https://chibi.ai/ Ideas AI:https://ideasai.com/ Copysmith:https://app.copysmith.ai/ Flowrite:https://www.flowrite.com/ Nichesss:https://nichesss.com/ Sudowrite:https://www.sudowrite.com/ ideasbyai:https://ideasby.ai/ TextCortex:https://textcortex.com/ OpenAI GPT-3:https://beta.openai.com/playground Blog Idea Generator:https://www.usetopic.com/blog-idea-generator AI文本生成Motion模型 Tree:https://tree.industries/ MDM: Human Motion Diffusion Model: https://guytevet.github.io/mdm-page/ AI文本生成代码模型 replitGhostwriter code:https://replit.com/site/ghostwriter Github copilot:https://github.com/features/copilot AI文本生成NFT模型 LensAI:https://www.lens.xyz/ AI文本生成3D模型 DreamFusion:https://dreamfusion3d.github.io/ CLIP-Mesh:https://www.nasir.lol/clipmesh GET3D:https://nv-tlabs.github.io/GET3D/ AI音频生成文本模型 Descript:https://www.descript.com/ AssemblyAI:https://www.assemblyai.com/ Whisper (OpenAI):https://openai.com/blog/whisper/ AI音频生成音频模型 AudioLM: https://google-research.github.io/seanet/audiolm/examples/ Voicemod:https://www.voicemod.net/ AI-Brain生成文本模型 speech from brain(metaAI): https://ai.facebook.com/blog/ai-speech-brain-activity/ Non-invasive brain recordings: https://www.biorxiv.org/content/10.1101/2022.09.29.509744v1 AI图像生成文本模型 Neural.love:https://neural.love/ GPT-3 x Image Captions:https://www.auxiliary.tools #实用资源收集 #AI#合集

封面图片

NVIDIA 正在设法大幅提高生成 AI 图像和视频的速度

NVIDIA 正在设法大幅提高生成 AI 图像和视频的速度 Nvidia 多伦多人工智能实验室的研究人员正在解决生成图像和视频的时间问题,本周在该公司的 GTC 2024 会议上,他们概述了这项工作的一些成果,展示了旨在实现这一目标的进步更快(因此更经济)生成“噪音”明显更少的图像和更详细的 3D 图像,将时间从几周或几个月缩短为几天或几分钟。 对于图像生成,研究人员着眼于加速扩散模型的工作,该模型用于解决生成高保真度高分辨率图像的棘手问题,并且是 OpenAI 的 Dall-E3 等文本到图像模型的基础谷歌的图像。从本质上讲,它们消除了“噪声”图像原始场景内容中不存在的伪影,但这些伪影可能使图像看起来模糊、像素化、颗粒状或以其他方式表现不佳。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人