介绍谷歌最新的AI音乐模型突破

AI的发展变得比以往任何时候都更加庞大,特别是在生成AI领域。从生成类似与人对话的文本到从文本生成图像,现在都成为可能。
这种进展也进入了音乐生成领域,谷歌推出了一种名为MusicLM的音乐生成模型。该模型于2023年1月发布,人们从那时起一直在尝试其能力。那么,MusicLM究竟是什么,如何尝试它呢?让我们来讨论一下。
Google MusicLM
MusicLM首次在Agostinelli等人(2023)的论文中引入,研究小组在论文中将MusicLM解释为一种从文本描述生成高保真音乐的模型。该模型通常建立在AudioLM之上,实验表明,该模型能够在24 kHz下生成几分钟的高质量音乐,并仍然符合文本描述。
此外,该研究还提供了名为musiccaps的公共文本到音乐数据集,供希望开发类似模型或扩展研究的人使用。该数据由专业音乐家手工策划和精选。
此外,MusicLM还采用了负责任的模型开发实践,以应对因音乐生成可能导致的创作内容滥用的担忧。通过扩展Carlini等人(2022)的工作,MusicLM生成的令牌与训练数据显著不同。
尝试MusicLM
如果您想探索MusicLM的结果样本,谷歌研究小组为我们提供了一个简单的网站,以展示MusicLM的能力。例如,您可以在该网站上探索从文本标题生成的音频样本。

另一个例子是我最喜欢的样本,即故事模式音乐生成,可以通过使用几个文本提示将不同风格的音乐集成到一起。

还可以根据绘画标题生成音乐,可能捕捉图像的情绪。

结果听起来很棒,但我们如何尝试这个模型呢?幸运的是,自2023年5月起,谷歌已经接受了MusicLM的测试注册,可以前往该网站并使用您的谷歌账号注册。

注册后,我们需要等待轮到我们尝试MusicLM。所以,请密切关注您的电子邮件。

暂时就这些,希望您能尽快轮到尝试这个令人兴奋的MusicLM。
总结
MusicLM是谷歌研究小组提供的一种从文本生成音乐的模型。该模型可以提供数分钟的高质量音乐,并遵循文本指令。我们可以通过注册AI测试厨房来尝试MusicLM。不过,如果我们只对样本结果感兴趣,也可以访问谷歌研究网站。Cornellius Yudha Wijaya是一位数据科学助理经理和数据作家。在全职工作于Allianz Indonesia期间,他喜欢通过社交媒体和写作媒体分享Python和数据技巧。