Meta公司发布开源AI作曲项目 MusicGen

Meta公司发布开源AI作曲项目MusicGenMeta的MusicGen可以根据文本提示生成短小的音乐片段,还可以选择性地与现有的旋律对齐。和大多数当前的语言模型一样,MusicGen基于Transformer模型。就像语言模型预测句子中的下一个字符一样,MusicGen预测音乐作品中的下一个部分。研究人员使用Meta的EnCodec音频分词器将音频数据分解成更小的组件。作为一个单阶段模型,它可以并行处理标记,因此MusicGen快速而高效。团队使用了20,000小时的授权音乐进行训练。特别是他们依赖于一个内部数据集,其中包括10,000首高质量的音乐曲目,以及来自Shutterstock和Pond5的音乐数据。——

相关推荐

封面图片

Meta 发布开源 AI 工具 AudioCraft,用户可通过文本提示创作音乐、音频

Meta发布开源AI工具AudioCraft,用户可通过文本提示创作音乐、音频Meta开源了一款生成式AI工具AudioCraft,可帮助用户通过文本提示创作音乐和音频。根据Meta官方介绍,AudioCraft包含了三个核心组件:1、MusicGen:使用Meta拥有/特别授权的音乐进行训练,根据文本提示生成音乐。2、AudioGen:使用公共音效进行训练生成音频或扩展现有音频,后续还可生成环境音效(如狗叫、汽车鸣笛、木地板上的脚步声)。3、EnCodec(改进版):基于神经网络的音频压缩解码器,可生成更高质量的音乐并减少人工痕迹,或对音频文件进行无损压缩。该工具经过开源之后,相关研究人员和从业人员可以使用自己的数据集训练模型。官方宣称AudioCraft系列模型能够长期稳定地生成高质量音频,而且易于使用,能够为音乐家和声音设计师“提供灵感”,帮助他们快速集思广益,并“以新的方式迭代他们的作品”。AudioCraft项目地址:——、

封面图片

文字可生成音乐!Meta发布的AI工具AudioCraft有何不同之处?

文字可生成音乐!Meta发布的AI工具AudioCraft有何不同之处?(来源:Meta官网)Meta在官网介绍称,MusicGen接受过Meta拥有的和特别授权的音乐训练,可以从文本提示生成音乐,而AudioGen接受过公共音效训练,可从文本提示生成音频,比如模拟狗叫或脚步声;再加上EnCodec编解码器的改进版本,用户可以更高效率地生成更高质量的音乐。在6月初,Meta推出了名为MusicGen的开源人工智能模型,这是一种深度学习语言模型,可以根据文本提示生成音乐。Meta的EnCodec是一个基于深度学习的音频编解码器,由人工智能驱动,可以在音频质量没有损失的前提下,将音频压缩到比MP3格式还要小10倍的程度。AudioGen则是一个来自Meta和耶路撒冷希伯来大学的研究团队的人工智能模型,可以通过输入文本来生成音频,亦可以扩展现有音频。AudioGen可以区分不同的声音对象,并在声学上将它们分开。Meta还演示了MusicGen和AudioGen工作的流程图,并表示将让这些模型开源,让研究人员和从业人员可以用自己的数据集训练适合自己的模型,并帮助推进人工智能生成音频和音乐领域的发展。与其他音乐模型相比,AudioCraft系列模型能够生成长期一致的高质量音乐和音频,还简化了音频生成模型的整体设计,使得该工具简单易用。Meta相信它的模型可以引领新一波歌曲潮流,就像合成器改变音乐一样。“我们认为MusicGen可以变成一种新型的乐器,就像最初出现的合成器一样。”当然,Meta也承认创作复杂而又优秀的音乐还是比较困难的,因此它选择将AudioCraft开源,以使用于训练它的数据多样化。今年早些时候,谷歌也发布了名为MusicLM的音乐生成模型,并于5月向上月向所有用户开放。除此之外,目前较为常见的音乐模型还有Riffusion、Mousai和Noise2Music等。...PC版:https://www.cnbeta.com.tw/articles/soft/1374669.htm手机版:https://m.cnbeta.com.tw/view/1374669.htm

封面图片

Meta发布开源AI工具AudioCraft,可帮助用户创作音乐和音频

Meta发布开源AI工具AudioCraft,可帮助用户创作音乐和音频美东时间周三,Meta发布了一款开源人工智能(AI)工具,该工具可以帮助用户根据文本提示创作音乐和音频。Meta表示,这款人工智能工具将AudioGen、EnCodec和MusicGen三种模型或技术融为一炉,可用文本内容生成高质量、逼真的音频和音乐。来源,https://github.com/facebookresearch/audiocraft来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

【Meta推出AI生成式音乐工具】

【Meta推出AI生成式音乐工具】2023年08月04日05点57分老不正经报道,Facebook和Instagram的母公司Meta推出了一套生成式人工智能模型,称为AudioCraft,目的是通过各种输入进行音乐创作。这套生成式人工智能工具包括MusicGen和AudioGen,它们通过基于文本的输入来创建新的音频,还有另一个名为EnCodec的工具,它可以用更少的音损生成更高质量的音乐。Meta在公告中提到,其MusicGen模型是用其拥有或专门许可的音乐进行训练的。此工具可与谷歌今年发布的类似工具MusicLM相媲美。

封面图片

Meta 发布 AI 音乐模型 MusicGen

Meta发布AI音乐模型MusicGen近日,Meta以开源方式发布了AI音乐生成模型MusicGen的代码,该AI模型利用Transformer架构,可以根据文本和旋律提示创作音乐。与Riffusion、Mousai、MusicLM和Noise2Music等其他音乐模型相比,MusicGen在音乐与文本之间的匹配度以及作曲的可信度等客观和主观指标上表现得更加优异。频道:@TestFlightCN

封面图片

Stable Audio Open 开源 AI 模型发布

StableAudioOpen开源AI模型发布StabilityAI立足StableDiffusion文生图模型,进一步向音频领域拓展,推出了,可以基于用户输入的提示词,生成高质量音频样本。StableAudioOpen最长可以创建47秒的音乐,非常适合鼓点、乐器旋律、环境音和拟声音效,该开源模型基于transforms扩散模型(DiT),在自动编码器的潜在空间中操作,提高生成音频的质量和多样性。StableAudioOpen目前已经开源,感兴趣的用户可以在上试用。据说它使用了来自FreeSound和FreeMusicArchive等音乐库的486000多种采样进行训练。StabilityAI公司表示:“虽然它可以生成简短的音乐片段,但并不适合完整的歌曲、旋律或人声”。StableAudioOpen和StableAudio2.0不同是,前者为开源模型,专注于短音频片段和音效,而后者能够生成最长3分钟的完整音频。来源,频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人