欢迎来到天天文库
浏览记录
ID:35180226
大小:2.55 MB
页数:65页
时间:2019-03-20
《基于时空特征和深度学习的人体动作识别研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、分类号TP391.4密级公开UDC621.39学位论文编号D-10617-30852-(2016)-01038重庆邮电大学硕士学位论文中文题目基于时空特征和深度学习的人体动作识别研究英文题目ResearchonHumanActionRecognitionBasedonTemporalandSpatialCharacteristicsandDeepLearning学号S130131047姓名李旭阳学位类别工程硕士学科专业电子与通信工程指导教师李伟生教授完成日期2016年6月8日重庆邮电大学硕士学位论文
2、摘要摘要视频中人体动作识别研究是目前计算机视觉领域的热门课题。人体动作识别分为两个步骤:特征提取描述和分类识别。特征提取描述是采用特征描述子来对人体动作进行表达,而如何在复杂背景下准确地提取人体动作特征描述是研究的难点;同时,分类识别是对特征描述子进行分类并判断动作类别,而如何设计和选择分类器是分类识别的难点。针对上述难点,本文提出两种人体动作识别方法,本文的具体研究工作如下:(1)基于时空兴趣点和三维梯度方向直方图(3DHistogramofOrientedGradients,HOG-3D)描述子
3、的人体动作识别方法。首先,基于灰度级视频帧提取密集时空兴趣点;其次,在视频帧和时空兴趣点的基础上,构建HOG-3D描述子;最后,采用K-means聚类算法建立词袋模型,以构建视频特征的直方图信息,并使用支持向量机(SupportVectorMachine,SVM)实现人体动作分类识别。(2)基于卷积神经网络和时空兴趣点的人体动作识别方法。首先,基于灰度级视频帧提取密集时空兴趣点;其次,将整段视频的时空兴趣点融合为一帧图像;最后,将融合后的图像作为卷积神经网络的输入,并采用人工标签进行分类识别。KTH
4、数据集具有拍摄环境简单、条件统一及人体动作简单等特点;Hollywood2数据集更加贴近生活场景,但其视频的拍摄过程中存在抖动,且该视频中的人体动作相对于KTH数据集更加复杂。为此,本文基于上述两个数据集,对所提方法的有效性进行验证。实验结果表明,两种方法均能取得较高的识别率并具有较强的鲁棒性。关键词:时空兴趣点,HOG-3D,支持向量机,融合兴趣点,卷积神经网络I重庆邮电大学硕士学位论文AbstractAbstractTheresearchonhumanactionrecognitioninvid
5、eoisextremehot.Humanactionrecognitionisdividedintotwosteps:featureextractiondescriptorandfeatureclassification.Featureextractiondescriptoristodescribethehumanactionusingthefeatureextraction.Buttheproblemishowtoextractthefeatureofhumanactionaccuratelyun
6、dercomplexunderground.Meanwhile,featureclassificationistoclassifythefeaturedescriptoranddecidethedifferentkindsofaction.However,Themainproblemsthedesignandchoiceoftheproperclassifier.Tosolvetheaboveproblem,wepresenttwoapproachestohumanactionrecognition
7、,themainresearchworksofthisthesisareasfollows:(1)Thehumanactionrecognitionmethodbasedonspatial-temporalinterestpointsandHOG-3Ddescriptorsisproposedinthisthesis.Firstly,collectingthedensespatial-temporalinterestpointsbasedonthegrayscalevideoframes.Secon
8、dly,theHOG-3Ddescriptorsofdensespatial-temporalinterestpointsareconstructedfromcollectedgrayscalevideoframes.Thirdly,theHOG-3Ddescriptorsisestablishedbasedongrayscalevideoframesandspatial-temporalinterestpoints.Finally,theestablishmento
此文档下载收益归作者所有