欢迎来到天天文库
浏览记录
ID:35066446
大小:4.60 MB
页数:80页
时间:2019-03-17
《基于机器视觉的场景目标检测与分类研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、括大嗦中硕±学位论文题目:基于机器视觉的场景目祿检测与分类研究研究生任陈攸专业控制理论与控制工程指导教师刘壬荣教授完成日期201116年3月日杭州电子科技大学硕士学位论文基于机器视觉的场景目标检测与分类研究研究生:任陈俊指导教师:刘士荣教授2016年3月DissertationSubmittedtoHangzhouDianziUniversityfortheDegreeofMasterResearchonSceneObjectDetectionandObjectClassificationBasedo
2、nMachineVisionCandidate:RenChenJunSupervisor:ProfessorLiuShirongMarch,2016杭州电子科技大学学位论文原创性声明和使用授权说明原创性声明本人郑重声明:所呈交的学位论文,是本人在导师的指导下,独立进行巧。究工作所取得的成果除文中已经注明引用的内容外,本论文不含任何其他个人或集体已经发表或撰写过的作品或成果。对本文的研究做出重要贡献的个人和集■。体,均已在文中^^^明确方式标明一申请学位论文与资料若有不实之处,本人承担切相关责任。本/裝^:论文作
3、者签名:j曰期年月,曰多《(学位论文使用授权说明本人完全了解杭州电子科技大学关于保留和使用学位论文的规定,目P:研究生在校攻读学位期间论文工作的知识产权单位属杭州电子科技大学。本人保证毕业离校后,发表论文或使用论文工作成果时署名单位仍然为杭州电子科技大学。学校有权保留送交论文的复印件,允许查阅和借阅论文;学校可公布论文的全部或部分内容,可W允许采用影印、缩印或其它复制手段保存论文。(保密论文在解密后遵守此规定)心论文作者签名:U{隻曰期:年月柏Jj指导教师签名曰期年^月曰杭州电子科技大学硕士学位
4、论文摘要场景目标检测与分类技术是机器视觉研究领域的热点问题。目标的检测、分类以及语义分析是实现场景理解的先决条件。场景理解的主要信息来源有图像和视频,再结合需要检测的处理对象不同,将场景目标检测分为基于视频序列和基于单帧图像的目标检测。前者常利用多帧图像信息检测出动态变化的区域,再进行目标分类和跟踪。后者是在单幅图像中识别并提取出所有已学习过的感兴趣类别目标。目标正确识别及在原图中的精准定位是高层次视觉分析任务的基础步骤之一。近年来,深度卷积神经网络具有通过对大数据样本的学习而自主获取物体特征的特性,避免了传统识别算法中复杂的特征提取和数据重
5、建过程,是解决各类计算机视觉问题的一类有效方法。本文主要研究内容如下:(1)提出了基于卷积神经网络(ConvolutionNeuralNetwork,CNN)的动态目标分类方法。在整个方法中利用逻辑性分析解决了高斯混合模型(GMM)提取的运动区域存在多目标融合的情况,得到较为完整且独立的运动目标。再利用深度卷积神经网络去学习运动目标的固有静态特征,结合softmax回归分类器进行分类。该方法通过实验说明在运动目标区域检测不完整和同类别重叠等情况仍能准确分类,同时拥有分类精度高、处理速度快的优点。(2)提出基于ACF(AggregatedCha
6、nnelsFeature)及卷积神经网络的图像目标检测方法。针对ACF检测图像行人和车辆目标存在部分误检的问题,利用经卷积神经网络对候选框进行二次识别,剔除误检的背景框。该方法既利用了ACF召回率高的特点,也结合了卷积神经网络高识别率的特点。最后通过实验说明了改进方法在不影响检测实时性和召回率的同时大大提升了检测准确率。(3)提出基于ACF及多任务式学习的卷积神经网络的图像目标检测方法。此方法不仅能够准确快速的检测出图像中的目标,还可以根据多任务式学习的特点对目标增加丰富的语义信息。通过行人和车辆检测实验,说明了该方法在提高检测准确率的同时可
7、以获得行人、车辆目标的混合行为语义。如一个候选框在判别为是一个行人的基础上,还可以判别其运动方向是正或侧以及运动状态是行走或奔跑。该方法可以应用在移动机器人平台上,利用场景中多个行人、车辆的图像位置信息和混合行为语义共同分析场景异常行为。关键词:目标检测,ACF算法,目标分类,卷积神经网络,多任务式学习,混合行为语义I杭州电子科技大学硕士学位论文ABSTRACTTargetdetectionandclassificationarehotspotsinmachinevision.Targetdetection,classificationand
8、semanticanalysisaretheprerequisitesforsceneunderstanding.Maininformationsourcesofs
此文档下载收益归作者所有