实验报告_基于gmm-hmm的语音识别

实验报告_基于gmm-hmm的语音识别

ID:35621446

大小:372.98 KB

页数:15页

时间:2019-04-03

实验报告_基于gmm-hmm的语音识别_第1页
实验报告_基于gmm-hmm的语音识别_第2页
实验报告_基于gmm-hmm的语音识别_第3页
实验报告_基于gmm-hmm的语音识别_第4页
实验报告_基于gmm-hmm的语音识别_第5页
资源描述:

《实验报告_基于gmm-hmm的语音识别》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、.多媒体技术实验报告——基于GMM-HMM的语音识别姓名:学号:2015年5月24日...目录——基于GMM-HMM的语音识别1一、马尔科夫初步概念理解2(一)两个重要的图2(二)问题:马尔科夫的开始状态如何确定?3二、马尔科夫的三种问题,以及解法3(一)解码,3解法一:最大似然路径3解法二:Viterbialgorithm3(二)已知A,B,根据骰子掷出的结果,求出掷出这个结果的概率(模型检验)5解法一:穷举5解法二:前向算法5(三)知道骰子状态有几种,不知道A,知道B,观察到很多次投骰子的结果

2、(可见状态链),我想反推出A。5三、HMM算法使用条件5(一)隐性状态的转移必须满足马尔可夫性5(二)隐性状态必须能够大概被估计。5四、EM算法GMM(高斯混合模型)。6(一)单高斯分布模型GSM7(三)样本分类已知情况下的GMM8(四)样本分类未知情况下的GMM8五、HMM-GMM模型在语音识别中的应用10...(一)语言识别的过程10(二)其中HMM与GMM的作用11六、实验结果11(一)代码阅读以及注释11(二)实验结果对比11(三)与DTW结果对比12(四)实验感想与收获12(五)困难与改

3、进12...一、马尔科夫初步概念理解(一)两个重要的图...(一)问题:马尔科夫的开始状态如何确定?一、马尔科夫的三种问题,以及解法(一)解码,已知A,B(隐含状态的数量以及转换概率以及B),根据掷骰子掷出的结果(可见状态链),想知道每次掷出来的都是哪种骰子(隐含状态链)解法一:最大似然路径Ø基本思想:求一串骰子序列,这串骰子序列产生观测结果的概率最大Ø算法:穷举解法二:Viterbialgorithm,求出每次掷出的骰子分别是某种骰子的概率Ø基本思想:...Ø算法:类似于动态规划;:...(一)

4、已知A,B,根据骰子掷出的结果,求出掷出这个结果的概率(模型检验)解法一:穷举Ø思想:穷举所有骰子序列(),计算每个骰子序列对应的概率,然后把这些概率相加Ø算法:呵呵解法二:前向算法Ø基本思想:结果递推,有点像动态规划,就是一步一步往后算,通过前向算法,算出概率加和,其中要用到A和B(二)知道骰子状态有几种,不知道A,知道B,观察到很多次投骰子的结果(可见状态链),我想反推出A。一、HMM算法使用条件但是使用HMM进行建模的问题,必须满足以下条件,(一)隐性状态的转移必须满足马尔可夫性。(状态转移

5、的马尔可夫性:一个状态只与前一个状态有关)...(一)隐性状态必须能够大概被估计。在满足条件的情况下,确定问题中的隐性状态是什么,隐性状态的表现可能又有哪些.HMM适用于的问题在于,真正的状态(隐态)难以被估计,而状态与状态之间又存在联系。一、EM算法GMM(高斯混合模型)。聚类的方法有很多种,k-means要数最简单的一种聚类方法了,其大致思想就是把数据分为多个堆,每个堆就是一类。每个堆都有一个聚类中心(学习的结果就是获得这k个聚类中心),这个中心就是这个类中所有数据的均值,而这个堆中所有的点到

6、该类的聚类中心都小于到其他类的聚类中心(分类的过程就是将未知数据对这k个聚类中心进行比较的过程,离谁近就是谁)。其实k-means算的上最直观、最方便理解的一种聚类方式了,原则就是把最像的数据分在一起,而“像”这个定义由我们来完成,比如说欧式距离的最小,等等。想对k-means的具体算法过程了解的话,请看这里。而在这篇博文里,我要介绍的是另外一种比较流行的聚类方法----GMM(GaussianMixtureModel)。  GMM和k-means其实是十分相似的,区别仅仅在于对GMM来说,我们引

7、入了概率。说到这里,我想先补充一点东西。统计学习的模型有两种,一种是概率模型,一种是非概率模型。所谓概率模型,就是指我们要学习的模型的形式是P(Y

8、X),这样在分类的过程中,我们通过未知数据X可以获得Y取值的一个概率分布,也就是训练后模型得到的输出不是一个具体的值,而是一系列值的概率(对应于分类问题来说,就是对应于各个不同的类的概率),然后我们可以选取概率最大的那个类作为判决对象(算软分类softassignment)。而非概率模型,就是指我们学习的模型是一个决策函数Y=f(X),输入数据X是多少

9、就可以投影得到唯一的一个Y,就是判决结果(算硬分类hardassignment)。回到GMM,学习的过程就是训练出几个概率分布,所谓混合高斯模型就是指对样本的概率密度分布进行估计,而估计的模型是几个高斯模型加权之和(具体是几个要在模型训练前建立好)。每个高斯模型就代表了一个类(一个Cluster)。对样本中的数据分别在几个高斯模型上投影,就会分别得到在各个类上的概率。然后我们可以选取概率最大的类所为判决结果。... 得到概率有什么好处呢?我们知道人很聪明,就是在于我们会用各种不同的

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。