AudioX – 港科大联合月之暗面推出的扩散变换器多模态模型,任意生成高质量音频音乐。

资讯2周前发布 up博主
50 0

港科大AudioX ,堪称声音界的”万能打印机”!这个由顶尖实验室打造的AI音效引擎,只需任意输入文字/图片/视频,就能任意内容生成音频和音乐!

AudioX是什么

AudioX 是香港科技大学和月之暗面联合提出的统一扩散变压器模型,专门用于从任意内容生成音频和音乐。模型能处理多种输入模态,包括文本、视频、图像、音乐和音频,生成高质量的音频输出。核心创新在于多模态掩码训练策略,通过随机掩码输入模态,迫使模型从不完整的输入中学习,增强跨模态表示能力。

AudioX – 港科大联合月之暗面推出的扩散变换器多模态模型,任意生成高质量音频音乐。AudioX – 港科大联合月之暗面推出的扩散变换器多模态模型,任意生成高质量音频音乐。

AudioX的主要功能

  • 多模态输入支持
    • 文本到音频(Text-to-Audio):根据文本描述生成相应的音效。例如,输入“狗吠声”,模型可以生成狗吠的音频。
    • 视频到音频(Video-to-Audio):根据视频内容生成与之匹配的音效。例如,输入一个汽车行驶的视频,模型可以生成汽车发动机的声音。
    • 图像到音频(Image-to-Audio):根据图像内容生成相应的音效。例如,输入一张暴风雨的图片,模型可以生成暴风雨的声音。
    • 音乐生成(Music Generation):根据文本描述或视频内容生成音乐。例如,输入“轻松的钢琴曲”,模型可以生成一段轻松的钢琴音乐。
    • 音频修复(Audio Inpainting):根据上下文信息修复音频中的缺失部分。例如,输入一段有空白的音频,模型可以填补空白部分,使音频完整。
    • 音乐补全(Music Completion):根据给定的音乐片段生成后续部分。例如,输入一段音乐的开头,模型可以生成后续的音乐片段。
  • 高质量音频生成:AudioX 使用扩散模型(Diffusion Model)技术,能生成高质量、高保真的音频和音乐,确保生成的音频在音质和细节上接近真实音频。
  • 灵活的自然语言控制:用户可以通过自然语言描述来精确控制生成的音频内容。例如,用户可以指定音效的类型、音乐的风格、乐器的使用等,使生成的音频更符合需求。
  • 跨模态学习能力:AudioX 能处理多种模态的输入,将它们有效整合,生成与输入条件一致的音频。例如,同时输入文本和视频,模型可以综合考虑两者的语义信息,生成更贴合场景的音频。
  • 强大的泛化能力:在多个数据集和任务上表现出色,包括 AudioCaps、VGGSound、MusicCaps、V2M-bench 等,证明了其在不同场景下的泛化能力和适应性。
  • 零样本生成能力:没有针对特定模态(如图像)的专门训练,AudioX 能在零样本条件下生成高质量的音频,展示了强大的通用生成能力。

AudioX的技术原理

  • 扩散模型(Diffusion Model):AudioX 使用扩散模型的核心思想,将输入数据逐步添加噪声,然后通过一个逆向过程逐步去除噪声,最终生成高质量的音频或音乐。
    • 前向扩散过程:将输入数据逐步添加高斯噪声,生成一系列含噪的潜变量。
    • 反向去噪过程:通过训练一个去噪网络(通常是一个 Transformer),逐步去除噪声,重建干净的音频数据。
  • 多模态掩码训练策略:为了增强模型的跨模态学习能力,AudioX 采用了多模态掩码训练策略。在训练过程中,模型会随机掩码部分输入模态,迫使模型从不完整的输入中学习,提高模型的鲁棒性和泛化能力。
  • 多模态编码器和解码器:AudioX 集成了多种专用编码器,分别处理不同模态的输入数据,然后将这些编码后的特征融合到一个统一的潜空间中。
    • 视频编码器:使用 CLIP-ViT-B/32 提取视频帧的特征。
    • 文本编码器:使用 T5-base 提取文本的特征。
    • 音频编码器:使用自编码器提取音频的特征。
    • 特征融合:将不同模态的特征通过线性变换和连接操作融合到一个统一的多模态嵌入向量中。
  • 扩散过程中的条件嵌入:在扩散过程中,多模态嵌入向量作为条件输入,帮助模型生成与输入条件一致的音频或音乐。将融合后的多模态特征与扩散时间步一起输入到扩散模型中。通过逐步去除噪声,生成与输入条件匹配的高质量音频或音乐。
  • 数据集和训练:为了训练 AudioX,研究人员构建了两个大规模的多模态数据集:vggsound-caps,基于 VGGSound 数据集,包含 190K 音频字幕。V2M-caps,基于 V2M 数据集,包含 600 万音乐字幕。

AudioX的项目地址

  • 项目官网:https://zeyuet.github.io/AudioX/
  • Github仓库:https://github.com/ZeyueT/AudioX
  • arXiv技术论文:https://arxiv.org/pdf/2503.10522

AudioX的应用场景

  • 视频配乐:根据视频内容自动生成背景音乐或音效,提升视频的吸引力和情感共鸣。
  • 动画音效:为动画场景生成匹配的音效,如脚步声、风声、爆炸声等,增强动画的沉浸感。
  • 音乐生成:根据文本描述或风格要求生成音乐,为音乐创作者提供灵感或辅助创作。
  • 语言学习:生成与语言学习内容相关的音效或背景音乐,增强学习体验。
© 版权声明

相关文章

暂无评论

none
暂无评论...