基于深度卷积神经网络的室外场景理解研究

基于深度卷积神经网络的室外场景理解研究

ID:35067129

大小:5.47 MB

页数:83页

时间:2019-03-17

基于深度卷积神经网络的室外场景理解研究_第1页
基于深度卷积神经网络的室外场景理解研究_第2页
基于深度卷积神经网络的室外场景理解研究_第3页
基于深度卷积神经网络的室外场景理解研究_第4页
基于深度卷积神经网络的室外场景理解研究_第5页
资源描述:

《基于深度卷积神经网络的室外场景理解研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、硕士学位论文题目:基于深度卷积神经网络的室外场景理解研究研究生文俊专业控制理论与控制工程指导教师刘士荣教授张波涛讲师完成日期2016年3月11日杭州电子科技大学学位论文原创性声明巧使用授权说巧原创性声明’本人郑重声明:所呈交的学位论文,是本人在导师的指导下,独立进行研究工作所取得的成果。除文中己经注明引用的内容外,本论文不含任何其他个人或集体已经发表或撰写。,均已在文中W明确方式标明过的作品或成果。对本文的研究做出重要贡献的个人和集体一切相关责任。申请学位论文与资料若

2、有不实之处,本人承担期;|年月/真日论文作者签名:曰户白^学位论文使用授权说明目P:本人完全T解杭州电子科技大学关于保留和使用学位论义的规定,研充生在校攻读学位期间论文工作的知识产权单位属杭州电子科技大学。本人保证毕此离校后,发表论文或使用论文工作成果时署名单位仍然为杭州电子科技大学。学校有权保留送交论文的复印.、缩巧和借阅论文学校可臥公布论文的全部或部分内容,可化允许采用影印件,允许查间()或其它复制手段保巧论文。保密论义在解密后遵守此规定/〇)1论文作者签

3、名:欠成曰期年真曰'指导教师签名H斯I占文巧备口杭州电子科技大学硕士学位论文基于深度卷积神经网络的室外场景理解研究研究生:文俊指导教师:刘士荣教授张波涛讲师2016年3月11日DissertationSubmittedtoHangzhouDianziUniversityfortheDegreeofMasterResearchonOutdoorSceneUnderstandingUsingDeepConvolutionalNeuralNetworksCandidate:WenJunSup

4、ervisor:ProfessorLiuShirongLecturerZhangBotaoMarch11th,2016杭州电子科技大学硕士学位论文摘要场景理解是计算机视觉和人工智能领域的研究热点,其研究成果已被广泛应用于机器人导航、网络搜索、安防监控、医疗卫生等众多领域。场景理解的各个分支任务,如目标检测、图像语义分割等,近年来都取得了突破性进展,但仍然存在众多不足之处。如由于目标自身形变和外界因素干扰,通常难以获得可靠、鲁棒的特征用于场景中的动态目标分类。深度卷积神经网络(DeepConvol

5、utionalNeuralNetworks,DCNN)通过端到端的特征学习,能有效实现对场景图片的语义分类,但却难以实现对场景图片的精确语义分割。围绕上述问题,本文的主要研究内容如下:1)首先,提出一种基于多任务空间金字塔池化DCNN的动态目标分类方法。该方法首先通过高斯混合模型提取出视频中场景动态目标物体,经图像形态学处理而获得较为准确、完整的目标图像块。然后将获得的目标图像块送入多任务空间金字塔池化DCNN而实现对该目标图像块的分类,同时获得其语义标签。实验结果表明,高层卷积特征对部分遮挡、

6、重叠、视角变化等具有较强的鲁棒性,多任务空间金字塔池化DCNN在动态目标分类任务上能取得很高的分类精度并给出较为准确的目标语义标签。2)其次,针对传统手工特征鲁棒性和表达能力的不足,提出一种将DCNN与MeanShift图像分割算法相结合的室外场景语义分割方法。该方法首先通过MeanShift算法对场景图像进行预分割,然后在分割后的各局部区域随机采集样本图像块并将其送入DCNN获得其类别概率,最后将各局部区域的样本图像块的类别概率进行平均获得其语义标签进而实现语义分割。关于DCNN卷积核大小、卷

7、积核个数和训练数据集的扩展等因素对场景图像语义分割结果的影响做了研究分析。与基于SIFT局部特征描述子的SEVI-BOVW方法进行对比的实验结果表明,本方法在准确率和识别速度上均有较大提升。3)最后,基于DCNN,提出了一种联合物体检测与语义分割的场景理解方法,并将其与基于HOG(HistogramofOrientedGradients)纹理特征及支持向量机(SupportVectorMachine,SVM)分类算法的背景物体语义分割方法相结合应用于机器人的校园导航。该场景理解方法由Faster

8、R-CNN算法检测场景图片中的前景目标物体,通过Deeplab-CRFs模型对场景图片中的前景目标物体进行语义预分割,最后由GrabCut前景提取算法将二者的检测、分割结果相结合而实现对目标物体更精确、更完整的语义分割。实验证明,该方法能准确、全面地对目标进行检测及语义分割,并有效用于机器人的校园导航。关键词:DCNN,场景理解,动态目标分类,目标检测,语义分割1杭州电子科技大学硕士学位论文ABSTRACTSceneunderstanding,asachallengingresearchhots

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。