【澳纽网编译】人工智能已经慢慢渗入音乐行业,创造出病毒式歌曲,让我们最喜欢的歌手的声音起死回生,甚至有资格获得格莱美奖(某种程度上)。Meta 发布了新的人工智能工具,这将使使用人工智能生成音乐变得更加容易。
周二,Meta 发布了AudioCraft,这是一套生成式 AI模型,据 Meta 称,可以根据文本创建“高质量且逼真”的音乐。
[xyz-ihs snippet=”In-article-ads”]🎵 Today we’re sharing details about AudioCraft, a family of generative AI models that lets you easily generate high-quality audio and music from text.https://t.co/04XAq4rlap pic.twitter.com/JreMIBGbTF
— Meta Newsroom (@MetaNewsroom) August 2, 2023
Audiocraft 由 Meta 的三个生成式 AI 模型组成:MusicGen、AudioGen 和 EnCodec。MusicGen 和 AudioGen 都从文本生成声音,其中一种生成音乐,后者生成特定的音频和声音效果。
您可以访问 HuggingFace 上的MusicGen 并玩演示。对于提示,您可以描述您想听的任何时代的任何类型的音乐。例如,Meta 分享了这样的例子:“一首 80 年代流行歌曲,背景是沉重的鼓和合成器垫”。
EnCodec 是一种由神经网络组成的音频编解码器,可压缩音频并重建输入信号。据新闻稿称,作为公告的一部分,Meta 发布了 Encodec 的最改进版本,可以用更少的工件生成更高质量的音乐。
[xyz-ihs snippet=”GoogleADresponsive”]Meta 还发布了预先训练的 AudioGen 模型,使用户可以生成环境声音和声音效果,例如狗叫或地板吱吱作响。
最后,Meta 共享了所有三个开源模型的权重和代码,以便研究人员和从业者可以利用它来训练其他模型。
Meta 在新闻稿中表示,AudioCraft 有潜力成为一种新型标准乐器,就像曾经的合成器一样。
“通过更多的控制,我们认为 MusicGen 可以变成一种新型乐器 – 就像合成器首次出现时一样,”Meta 说。
这并不是第一个这种性质的生成人工智能模型。谷歌在一月份发布了MusicLM,这是它自己的模型,可以将文本转换为音乐。最近的一篇研究论文显示,谷歌还利用人工智能从人类大脑活动中重建音乐。
[xyz-ihs snippet=”MoreTechNews”] [xyz-ihs snippet=”multiple-ads”]13,467 views