首页 AI写作 正文

文字可生成音乐!Meta发布的AI工具AudioCraft有何不同之处?

文字可生成音乐!Meta发布的AI工具AudioCraft有何不同之处?

言语可以创造音乐!Meta发布的AI工具AudioCraft有何不同?

财经新闻网8月3日电(编辑牛占林)美东时间周三,Meta发布了一款开源人工智能(AI)工具AudioCraft(直译为音频工艺),可以帮助用户根据文字提示创作音乐和音频。

(来源:Meta官网)

Meta表示,这款人工智能工具集成了AudioGen、EnCodec和MusicGen三种模型或技术,可以利用文本内容生成高质量、逼真的音频和音乐。

Meta在其官网表示,MusicGen接受过Meta拥有且特别授权的音乐培训,可以根据文本提示生成音乐,而AudioGen则接受过公开音效培训,可以根据文本提示生成音频,例如模拟狗叫声或脚步声;再加上改进版本的EnCodec编解码器,用户可以更高效地生成更高质量的音乐。

6月初,Meta推出了名为MusicGen的开源人工智能模型,这是一种深度学习语言模型,可以根据文本提示生成音乐。

Meta的EnCodec是一种由人工智能驱动的基于深度学习的音频编解码器,可以将音频压缩到比MP3格式小10倍的级别,而不会损失音频质量。

AudioGen是Meta和耶路撒冷希伯来大学研究团队开发的人工智能模型,可以通过输入文本生成音频,还可以扩展现有音频。AudioGen可以区分不同的声音对象并在声学上将它们分开。

Meta还展示了MusicGen和AudioGen的工作流程图,并表示将把这些模型开源,让研究人员和从业者可以使用自己的数据集来训练适合自己的模型,帮助推进人工智能生成音频和音乐领域。。

与其他音乐模型相比,AudioCraft系列模型能够随着时间的推移生成一致的高品质音乐和音频。它还简化了音频生成模型的整体设计,使该工具简单易用。

Meta相信它的模型可以引领新一波歌曲,就像合成器改变音乐一样。“我们认为MusicGen可以成为一种新型乐器,就像最初的合成器一样。”

当然,Meta也承认,创作复杂而优秀的音乐仍然很困难,因此它选择开源AudioCraft,以使其用于训练的数据多样化。

今年早些时候,谷歌还发布了名为MusicLM的音乐生成模型,并于5月上个月向所有用户开放。另外,目前比较常见的音乐模型还有Riffusion、Mousai和Noise2Music。

本文转载自互联网,如有侵权,联系删除

本文地址:https://www.5i818.cn/2502.html

相关推荐

发布评论

文章目录