CORC  > 自动化研究所  > 中国科学院自动化研究所  > 毕业生  > 博士学位论文
题名基于任务关联特征建模的音频分类方法研究
作者戴佳
答辩日期2017-06
授予单位中国科学院研究生院
授予地点北京
导师刘文举
关键词音频分类 音频特征 特征建模 分类器 深度学习
英文摘要

随着大数据时代的发展,音频内容分析对海量数据的存储和利用有着越来越重要的作用,但目前存在的声学特征已经无法很好地表征日渐复杂的音频内容,也无法满足人们越来越高的分类精度的要求。对此,本文在认真总结前人关于音频分类与特征变换的基础上,提出了一系列的基于任务关联的音频特征建模方法,通过对低层特征进行建模,可以得到更符合当前分类任务的高层特征。本文的主要工作和创新点如下:
(1) 针对环境声分类任务,提出了一种通过发掘音频细节来描述音频内容的特征建模方法。我们认为音频的内容可以通过一些表达音频细节要素的描述单元(“音频单元”)来表述,这些“音频单元”通过不同的组合规则形成不同类别的音频,通过识别这些“音频单元”的分布,可以区分不同的音频类别。本文在传统bag-of-word模型的框架之上,提出了一种新的生成“音频单元”的方法,采用自组织映射神经网络来表征“音频单元”,相比传统方法采用k-means聚类得到的聚类中心来表征而言,这种生成方法可以通过足够多的训练步骤和较好的训练策略来尽量避免生成的“音频单元”集合出现局部最优问题。接着,本文提出了一种基于多元投票法的策略来生成描述“音频单元”分布的概率直方图,相比现存的矢量量化方法而言,该方法对边界点更鲁棒。
(2) 针对小数据分类任务,提出了一种能提高小数据音乐流派分类性能的深度学习特征建模方法。我们需要大量的标注数据来训练一个鲁棒的深度神经网络模型,虽然周围充斥着大量的数据,但是大数据标注的成本过高,在很多任务中一般无法获得足够多的标注数据。数据量过少,容易造成深度模型过拟合,虽然可以通过一些无监督的方法利用无标注的数据,但是在许多任务中,这种方法的效果并不明显。针对标注数据缺乏的问题,本文提出了一种融合半监督的迁移学习和bottleneck DNN对音频特征进行建模的方法,利用无标注的集外数据进行半监督地训练迁移学习模型,然后结合bottleneck DNN模型进行特征建模,实验结果在测评数据库上得到了最高的结果。
(3) 针对音乐流派分类任务,提出了一种融合时序信息特征和统计特征的段特征建模方法。音频的时序信息是音频文件的一个重要特性,对音频内容的表征有着重要的作用。为了提取包含时序信息的音频特征,本文采用长短时记忆递归神经网络(LSTM-RNN)进行时序建模,但时序建模存在着一些缺陷,导致采用多数投票得到的段正确率提高不明显。为此,本文首先尝试将时序特征和原始特征进行融合建模,但直接将带有时序信息的帧级别时序特征与不带时序信息的帧级别的原始特征融合,将会造成混淆,影响特征的区分性。为此,本文提出融合时序信息特征和统计段特征的段特征建模方法,对帧特征进一步提取统计段特征再进行融合,得到最终的融合段特征。实验证明,融合的段特征相比原来的特征更具有区分性,在实验中取得了较好的分类效果。
(4) 针对音乐流派分类任务,提出了一种利用集外数据学习“音频单元”的段特征建模方法。一段音乐信号完美的表征形式一定包含着许多的重要特性,如节拍、旋律、响度、歌手信息、所用乐器或者其他特征描述等等,但是目前这些特性的提取(如旋律)并没有一个很好的方法。本文并不直接地学习这些特性的表达,而是从另外的角度出发,用更详细的描述单元(“音频单元”)来描述。本文采用高斯分布来拟合并生成不同的“音频单元”,假设每种音乐类别可以用一个高斯混合模型描述,而高斯混合模型中每个高斯分量都可以看作一个“音频单元”。在基于I-vector的特征建模框架中,采用基于高斯混合模型的全局背景模型(GMM-UBM)进行无监督地学习“音频单元”。在理论上,如果有足够多的数据和高斯个数,高斯混合模型可以拟合任意的数据分布。因此为了使学到的“音频单元”更充分,本文结合了Multilingual模型,通过网上下载的大量的无标签的音乐数据训练GMM-UBM模型,得到最终的基于Multilingual I-vector的“音频单元”表征的特征,实验证明通过该方法得到的特征能很好地表征音乐信号内容,实验的成功对网上无标签数据的利用有着重要的意义。

学科主题模式识别与智能系统
内容类型学位论文
源URL[http://ir.ia.ac.cn/handle/173211/14680]  
专题毕业生_博士学位论文
作者单位中科院自动化研究所
推荐引用方式
GB/T 7714
戴佳. 基于任务关联特征建模的音频分类方法研究[D]. 北京. 中国科学院研究生院. 2017.
个性服务
查看访问统计
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。


©版权所有 ©2017 CSpace - Powered by CSpace