欢迎来到天天文库
浏览记录
ID:35106554
大小:7.72 MB
页数:78页
时间:2019-03-18
《基于高阶隐马尔科夫模型的人体行为识别研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、T'分类号密级UDC^-V:.:i:C^禹考J;吝硕±学位论文基于高阶隐马尔科夫模型的人体行为识别研究————前'一-其1.哪人纖'巡’,作者姓名:李思岑沁— ̄":学科、专业电化与电器’叫,:巧>学号:心。1。。1^曲;:^:7?:.,.:..L滅—......k;施西华大学学位论文独创性声明作者郑重声明:所呈交的学位论文,是本人在导师的指导下进行研究工作所取得的成果。尽我所知,除文中己经注明引用内容和致谢的地方外,本论文不包含其他个人或集体巴经发表的巧究成果,也不包含其他&
2、申请学位或其他用途使巧过的成果一。与我同工作的同志对本研究所做的贡献均&在论文中做了明确的说明并表示了谢意。若有不实之处,本人愿意承担相关法律责任。|、学位论文作者签名^^受^指导教师签名:曰期:口日期-令瓜.、G.口女i(西华大学学位论文版权使用授权书本学位论文作者完全了解学校有关保留、使巧学位论文的规定,在校攻读学位期间论文工作的知识产权属于西华大学,同意学校保留并向国家有关部口或机构送交论文的复印件和电子版,允许论文被查阅和借阅,西华大学可将本论文的全部或部分内容编入有关数据库进行检索,可采用影印、缩印或扫描等复印手段保存和汇编
3、本学位论文。(保密的论文在解密后遵守此规定)学位论文作者签名指导教师签名:^^曰期:曰期IClassifiedIndex:UDC:XihuaUniversityMasterDegreeDissertationResearchonHumanBehaviorRecognitionbasedonhigh-orderhiddenmarkovmodelCandidate:LiSicenMajor:ElectricalMachineryandApplianceStudentID:212013080801001Supervisor:Prof.WangPingMarch,2016
4、西华大学硕士学位论文摘要人体行为识别一直以来都是计算机视觉领域里的热门研究方向,其根本目标是让计算机系统可以像人眼一样去认识和识别摄像头所采集到的各种行为信息。要达到识别效果,则需要将人工智能技术、模式识别技术和计算机视觉技术等加以综合运用。随着计算机技术的高速发展,人们在人体行为识别领域也取得了较大进步,出现了一些科研成果。但当前的研究成果还不能满足在实际生活中的应用要求,某些关键问题亟待解决。本文主要研究了以下几方面的内容:(1)通过对当前关于图像预处理方面的技术经验进行归纳和对比,本文选择了自适应中值滤波的方法并进行了仿真试验。提出将传统的自适应中值滤波法与直方图均衡化法相结合,
5、处理结果得到了进一步的提高,这为接下来的工作顺利进行提供了保障。该方法能有效保留图像细节,同时,能有效抑制噪声干扰,具备良好的去噪功能。(2)研究比较了几种检测技术,侧重研究了以下几种常用的检测算法:光流检测技术、背景减除检测技术、帧间差检测技术。经过大量的实验对比,在总结各种方法优缺点的基础上,根据本文的特定场景和实际情况,提出一种新的检测方法——基于边缘提取的连续三帧帧间差分运动目标检测方法,并根据本文所使用视频的实际情况,将提出的改进三帧差分算法同背景减除法相融合做前景提取,通过仿真实现了预期结果。(3)开展特征提取方法研究。文章对常用Haar-like特征提取方法、形状上下文特
6、征提取方法以及sift特征提取方法进行了研究,并将傅里叶特征提取与sift特征提取做了实验比较,最终提出了一种采用边界中心距的傅里叶描述子提取人体行为特征方法并对提取结果进行矢量量化以适应旋转不变性。(4)对高阶隐马尔科夫模型中的估值问题、解码问题和学习问题进行了研究,并将高阶隐马尔科夫模型运用到人体行为识别当中。现阶段主要是通过使用一阶隐马尔科夫模型对人体不同姿态进行模型构建,但由于一阶隐马尔科夫模型成立的前提条件是假定状态转移概率和符号发出概率都只与当前时刻的状态有关。这样的假定使得一阶隐马尔科夫模型在获取人体行为信息上存在一定的局限性,影响了后面识别过程中的准确度。本文提出了一种
7、基于高阶隐马尔科夫模型的人体行为识别方法,其克服了一阶隐马尔科夫模型获取信息不全面的缺陷,可以更好对人体行为特征进行建模。该模型与一阶模型相比具有更好的时序结构,同时高阶隐马尔科夫模型可以纳入更多统计特征。经验证,该模型具备更好的实际运用价值。关键词:运动目标;图像检测;高阶马尔科夫模型I基于高阶隐马尔科夫的人体行为识别AbstractHumanbehaviorrecognitionhasalwaysbeenahotresearchdirect
此文档下载收益归作者所有