AWS DeepComposer 是一种创新的机器学习入门方法,在 AWS re:Invent 2019 大会上推出了预览版。今天我特别高兴地宣布,DeepComposer 现已向所有 AWS 客户开放并增加了多项新功能。
AWS DeepComposer 基础
如果您还不熟悉 AWS DeepComposer,请参考下面的入门步骤。
登录 AWS DeepComposer 控制台。
了解该服务以及它如何使用生成式 AI。
使用控制台中的虚拟键盘或物理键盘(可在 Amazon.com 订购)录制一段短乐音。
选择您喜爱种类的预训练模型。
以您的乐音为基础,使用此模型生成新的复调乐曲。
在控制台中播放乐曲。
导出乐曲或在 SoundCloud 上分享。
现在我们来看新增的功能,借助这些新功能可以更轻松开始使用生成式 AI。
学习胶囊
DeepComposer 采用生成式对抗网络(简称 GAN,参阅研究报告)技术。GAN 是一种专为利用现有数据集生成新样本而构建的神经网络架构。GAN 包含两个相互对抗的不同神经网络,根据样本输入生成原创数字作品:借助 DeepComposer,您可以训练并优化 GAN 模型以创作原创音乐。
在此之前,希望提升 GAN 技能的开发人员并没有轻松的入门方法。为了帮助他们提升,而不论他们的 ML 或音乐背景如何,我们构建了一系列的轻松学习胶囊,介绍了关键的概念以及如何训练和评估 GAN。这包括一个动手实验室,其中包含了构建 GAN 模型的详细分步操作说明和代码。
在您熟悉 GAN 后,您将能够开始训练自己的模型!
控制台中训练
您现在可以在 DeepComposer 控制台中直接训练自己的生成式模型,无需编写任何机器学习代码。
首先选择一个 GAN 架构:
MuseGAN(由 Hao-Wen Dong、Wen-Yi Hsiao、Li-Chia Yang 和 Yi-Hsuan Yang 开发,参阅研究报告,见 Github):MuseGAN 专为生成音乐而设计。MuseGAN 中的生成器由一个共享网络和一系列私有网络组成,该共享网络用于学习歌曲的高级别表现,私有网络用于学习如何生成单个音轨。
U-Net(由 Olaf Ronneberger、Philipp Fischer 和 Thomas Brox 开发,参阅研究报告,见项目页面):U-Net 在图像转换领域尤其成功(例如将冬季图像转换为夏季图像),也可以用于音乐生成。它的架构比 MuseGAN 更简单,因此更便于初学者理解。如果您想更深入了解,则可以通过此 Jupyter 笔记本进一步了解 U-Net 架构。
假设我们使用 MuseGAN 并给新模型取一个名称。
然后我会选择我要用于训练模型的数据集。
当然我也可以设置超参数(即训练参数),但这次我将使用默认设置。最后,我单击“开始训练”,AWS DeepComposer 将会启动一个训练作业并代我完成所有的基础设施和机器学习设置。
大约 8 小时后,模型训练完成,我可以使用它来生成乐曲。此处我可以添加新推出的“旋律助手”功能,它会帮助纠正输入中的音符定时,并确保音符与节拍保持一致。
**入门
**AWS DeepComposer 现已在美国东部(弗吉尼亚北部)区域开放。
此服务为所有 AWS 客户提供了 12 个月的免费套餐,因此您可以使用我们的示例模型免费生成 500 首乐曲。
除提供免费套餐外,在美国境内通过 Amazon.com 订购键盘并将它关联到 DeepComposer 控制台,还将享受另外 3 个月的免费试用机会!
本文转载自 AWS 技术博客。
原文链接:https://mp.weixin.qq.com/s/GZplCs7Ei8Jzj_TKsueo1A
评论