欢迎来到天天文库
浏览记录
ID:32034517
大小:2.11 MB
页数:67页
时间:2019-01-30
《【硕士论文】正则超分辨率图像复原算法研究.pdf》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、西北工业大学硕士学位论文正则超分辨率图像复原算法研究姓名:张正贤申请学位级别:硕士专业:计算数学指导教师:蒋大为20060301Jti.1Li:业人学硕士学位论文摘要超分辨率图像复原是不适定的反问题,需要通过正则化方法求解。超分辨率图像复原算法涉及多幅低分辨率图像和高分辨率图像,它的计算量非常大。对低分辨率图像退化模型及其参数的估计和亚像素精度的运动估计都难免会产生误差,退化过程中加法性噪声的类型也很难确定。因此,在实际应用中,需要建立快速的超分辨率图像复原算法,并且希望该算法对噪声和模糊估计误差都具有稳健性。在传统的空f刚域正则化图像复原或超分辨率图像复原方法中,是用向量2.范数度
2、量数据逼近项和『F则项。S.Farsiu等人指出用向量1.范数来度量数据逼近项和难则项可以得到稳健的超分辨图像复原方法,这是采用2一范数所不能达到的:但没有从理论上讨论用向量l一范数来度量数据逼近项和正则项所得目标泛函极小点的唯一性。此外,用最速下降迭代算法来求解该同标泛函极小点的收敛性,迭代步长因子和正则参数如何选取等问题都没有讨论。本文对这些问题做了进一步的探讨,得出了一些重要的结论。本文从理论上探讨用向量p.范数(1sPs2)度量数据逼近项和难则项的所得目标泛函极小点的唯一性。若1
3、补这个数学上的缺陷,可以用p-范数(p为比l略大的数)来代替,而取得几乎相同的复原效果。本文给出了一种确定『F则参数的方法。对用最速下降算法来求解该目标泛函极小点的性能做了探讨,提出分段设置迭代步长因子的思想,以达到减少迭代次数,改善图像复原效果的目的。采用Robert交叉梯度算于构造;EⅢIJ项,得到计算复杂度较低的超分辨率图像复原算法,而且在某些情形下其效果要比采用双边全变差算子略好。发现用向量1.范数来度量数据逼近项和爪则项的正则化方法,对模糊估计误差的稳健性比用向量2.范数得到的方法要好。因此,将其用于盲目超分辨率图像复原,得到稳健的盲目超分辨率图像复原算法。关键词:超分辨率
4、图像复原正则化盲目图像复原最速下降算法胡北r业人学硕十学位论文摘要AbstractSuper-resolutionimagerestorationisill-posedinverseproblem;itshouldberesolvedbyregularizationmethod.Super—resolutionimagerestorationinvolvesinmulti—flamelowresolutionimageandaflamehighresolutionimage,soitscomputationalcomplexityislarge.While,theestimation
5、ofdegrademodelanditsparameterandthesub—pixelmotionestimationareliabletocreateerror.Theadditionalnoisetypeindegradeprocessisdifficulttodetermine.Consequently,weneedtofindfastalgorithmandweexpectithaverobustnesstoaboveerrors.Intraditionalapproach,peopleuse,2一normtomeasuredataapproximationitemandr
6、egularizationiteminregularizedimagerestorationandsuper-restorationinspatialdomain.S.Farsiuetalpointoutuse,.一normtomeasuredataapproximationitemandregularizationitemandprovideusarobustsuper-resolutionmethod,whilewecan’tobtainsorobustnessby,2一norm.Theydidn’tdiscusstheuniquenessofminimumpointofobje
7、ctivefunctionalintheory.Besidesthisproblem,theconvergenceofsteepestdescendalgorithmusedtofindtheminimumpointofobjectivefunctionalandhowtochoosestepsizeparameterandregularizationparameteraren’tdiscussed.Thispapergivefurtherdiscussa
此文档下载收益归作者所有