欢迎来到天天文库
浏览记录
ID:34608390
大小:2.88 MB
页数:52页
时间:2019-03-08
《基于生成对抗网络的模糊图像复原研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、学校代码10530学号201510171903分类号TP391密级公开硕士学位论文基于生成对抗网络的模糊图像复原研究学位申请人张云飞指导教师欧阳建权教授学院名称信息工程学院学科专业计算机技术研究方向智能图像处理二○一八年六月五日ResearchonBlurredImagerestorationBasedonGenerativeAdversarialNetworksCandidateYunfeiZhangSupervisorProf.JianquanOuyangCollegeCollegeofInformationEngineeringProgramComputerTe
2、chnologySpecializationIntelligentImageProcessingDegreeMasterofEngineeringUniversityXiangtanUniversityDateJune2018摘要随着互联网、大数据、超级计算、物联网以及通信等技术的加速突破和广泛应用,人工智能进入了一个新的阶段。深度学习作为人工智能的核心技术,扮演着重要的角色,生成对抗网络GANs自2014年问世以来,成为深度学习界的一匹黑马,脱颖而出,而且呈现不可阻挡的趋势。目前GANs在图像处理领域取得巨大的成绩,GANs作为一个优异的生成模型,已经在图像生成、修
3、补、去噪、风格转换、自然语言处理等方面取得了广泛的应用。图像复原一直是图像处理领域的一个研究热点和难点,对于图像的退化问题诸如本文研究的运动模糊、高斯模糊、椒盐噪声以及马赛克模糊等,严重影响人们的视觉体验、科学研究和工业上的应用。因此,对此类模糊图像进行复原研究是非常有研究价值和意义。针对此类模糊图像,本文提出了一种基于生成对抗网络的模糊图像复原的研究模型。本文的主要创新如下:(1)本文采用当前比较火的条件生成对抗网络,建立了一个以数据为驱动的端到端图像去模糊模型。该模型是半监督方式的,在模型训练阶段需要模糊图像与原始图像的配对数据。模型训练结束后,不再需要配对的图像
4、数据,输入模糊图像,输出为生成的去模糊图像。(2)由于之间的神经网络等方法计算图像的损失都是基于像素值来计算的,如L1、L2损失,与人类对图像质量的感知不相关。因此,本文提出了一个基于图像结构相似性SSIM为指标的内容损失函数,SSIM能够捕捉人类视觉系统(HVS)的复杂特征。(3)不同于传统去模糊方法只能针对单种模糊图像进行处理,本文提出的方法在模型训练充分的条件下,能够实现对多种模糊图像的处理。在本文提出的几种模糊图像类型,对于输入模糊图像是训练过的未知模糊类型的图像,可以直接进行去模糊,不需要预先进行模糊类型判断再选择相应图像复原的方法,实现了完全性“端到端”的
5、智能化模糊图像复原。关键词:图像去模糊;生成对抗;数据驱动;端到端;SSIMIAbstractWiththeacceleratedbreakthroughandwidespreaduseofInternet,bigdata,supercomputing,InternetofThings,andcommunications,artificialintelligencehasenteredanewphase.Deeplearningasthecoretechnologyofartificialintelligenceplaysanimportantrole.AndGANs
6、hasbecomeadarkhorseandemergedasanirresistibletrendinginthedeeplearningcommunitysinceitsinceptionin2014.Atpresent,GANshavemadegreatachievementsinthefieldofimageprocessing.GANs,asanexcellentgenerativemodel,hasbeenwidelyusedinimagegeneration,patching,denoising,styleconversion,andnaturallan
7、guageprocessing.Imagerestorationhasalwaysbeenaresearchhotspotanddifficultyinthefieldofimageprocessing.Imagedegradationproblemssuchasthemotionblur,Gaussianblur,saltandpeppernoise,andmosaicblurmentionedinthispaperseriouslyaffectspeople'svisualexperienceandscientificresearchandind
此文档下载收益归作者所有