资源描述:
《语音识别算法的现状教学文案.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、语音识别算法的现状混沌神经网络小波混沌神经网络神经网络和遗传算法动态优化神经网络K均值和神经网络集成HMM与自组织神经网络的结合正交基函数对向传播过程神经网络HMM和新型前馈型神经网络目前的语音识别算法特征空间随机映射SVM多类分类算法特征参数归一化多频带谱减法独立感知理论分段模糊聚类算法VQ-HMM优化的竞争算法目前的语音识别算法双高斯GMM特征参数MFCC和GMMMFCCs和PNNSBC和SMMMEL倒谱系数和矢量量化DTWLPCC和MFCC隐马尔科夫模型HMM目前的语音识别算法BP算法在神经网络的层数增多时
2、容易陷入局部最优的困境,也很容易产生过拟合的问题。20世纪90年代,各种各样的浅层机器学习模型相继被提出,如支撑向量机(SupportVectorMachines,SVM)、Boosting、最大熵方法(如LogisticRegression,LR)等。这些模型具有高效的学习算法,且不存在局部最优的问题,在理论分析与实际应用中都获得了巨大的成功。相比之下,MLP的训练需要很多经验和技巧,多层前馈神经网络的研究逐渐变得冷清。随着2006年深度神经网络(DNN)和深度学习(deep丨earning)概念的提出,神经网
3、络又成为机器(统计)学习领域的研究热点。这些名词由多伦多大学的GeoffHinton研究组于2006年创造。Hinton研究组提出1)多隐藏层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类;2)深度神经网络在训练上的难度,可以通过“逐层预训练”(layer-wisepre-training)来有效克服。关于预训练有助于深度学习的原因,最直接的解释是预训练将网络参数训练到一组合适的初始值,从这组初始值出发会得到一个较优的局部最优解。卷积神经网络(Convo丨utio
4、nalNeuralNetwork,CNN)由纽约大学的Yann1^60111[6]于1998年提出(如图1.2所示),在手写体认别、交通标志识别等图像分类任务中得到了广泛应用。CNN本质上是一个多层感知机,其成功的原因关键在于它所采用的局部连接和共享权值的方式,一方面减少了的权值的数量使得网络易于优化,另一方面降低了过拟合的风险。卷积神经网络圆圈代表神经网络的一个输入值,“+1”标识的圆圈称为偏置神经元,也就是截距项。神经网络最左边的一层叫做输入层,最右的一层叫做输出层(本例中,输出层只有一个神经元)。中间所有神
5、经元组成的一层叫做隐藏层,隐藏层神经元功能是以某种方式介入输入与输出之间。可以看到,图1.1神经网络有3个输入单元(偏置单元不计算在内),1个隐藏层及1个输出单元。CNNs由一组或多组卷积层convolutionallayer+采样层poolinglayer构成。一个卷积层中包含若干个不同的卷积器,这些卷积器对语音的各个局部特征进行观察。采样层通过对卷积层的输出结点做固定窗长的采样,减少下一层的输入结点数,从而控制模型的复杂度。一般采样层采用最大采样算法(maxpoo-ling),即对固定窗长内的结点选取最大值进
6、行输出。最后,通过全网络层将采样层输出值综合起来,得到最终的分类判决结果。此课件下载可自行编辑修改,仅供参考!感谢您的支持,我们努力做得更好!谢谢