谷歌的研究人员宣布了一种名为MusicLM的新型生成式AI模型,该模型可以根据文本描述创建音乐音频https://google-research.github.io/seanet/musiclm/examples/投稿:@ZaiHuabot频道:@TestFlightCN

None

相关推荐

封面图片

GoogleMusicLM从文本/图像生成音乐的AI模型样本演示:https://google-research.github.io/seanet/musiclm/examples/投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

包名为io.github.nekoinvertere.hviewer的

封面图片

GitHub换新UI了投稿人:Hanako投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

OpenAI发布Shap・E模型:通过输入文本创建逼真3D模型

OpenAI发布Shap・E模型:通过输入文本创建逼真3D模型OpenAI最近发布了名为Shap・E的模型,可以通过输入文本创建逼真且多样化的3D模型。这种模型与现有的只能输出点云或体素的模型不同,可以生成高质量的3D资产,具有细粒度纹理和复杂形状。Shap・E不仅仅是一个3D模型生成器,而且可以直接生成隐式函数的参数,这些参数可以用于渲染纹理网格和神经辐射场(NeRF)。NeRF是一种具有隐式场景表示的新型视场合成技术,在计算机视觉领域引起了广泛的关注。它可以用于视图合成和三维重建,广泛应用于机器人、城市地图、自主导航、虚拟现实/增强现实等领域。值得注意的是,Shap・E模型还可以生成神经辐射场,这是一种新型的三维场景表示方法。通过这种方法,Shap・E可以呈现更加真实的光照效果和材质感,让3D图像更加生动、逼真。未来,这种模型可能会被广泛应用于游戏、电影、建筑等领域,为人们带来更加精彩、逼真的视觉体验。#AI来源,https://github.com/openai/shap-e来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

阿里巴巴达摩院发布开源文本转视频AI该模型基于多阶段文本到生成扩散模型,输入描述文本,返回符合文本描述的,支持英文输入。整体模型参数约17亿,模型需要硬件配置大约是16GB内存和16GBGPU显存。可在或试用。投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

Windows12在线体验!非官方tjy-gitnub.github.io/win12/desktop.html仓库地址:https://github.com/tjy-gitnub/win12投稿:@ZaiHuaBot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人