资源描述:
《遥感图像数据融合方法与评价方法(1)[1]》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库。
1、遥感图像数据融合方法与评价方法(1)[1]-----------------------Page1-----------------------第33卷第1期河北农业大学学报Vol.33No.12010年1月JOURNALOFAGRICULTURALUNIVERSITYOFHEBEIJan.2010文章编号:10001573(201001009305遥感图像数据融合方法与评价方法111,21,3孟京辉,陆元昌,刘刚,王懿祥*(1.中国林业科学研究院资源信息研究所,北京100091;2.华中农业大学园艺林学学院,湖北武汉430070;3.浙江林学院环境科技学院,浙江
2、临安311300摘要:为了对比分析不同融合方法的融合效果,本文采用Brovey、IntensityHueSaturation(IHS、Principalcomponent(PC、GramSchmit和Wavelet融合方法对北京和三亚地区的两幅ETM+遥感影像进行融合。对于融合后的图像,采用衡量信息量的信息熵、标准差,衡量光谱保真能力的偏差指数和相关系数进行了融合效果评价。结果表明:Brovey方法融合后的图像在对原有波谱信息的保留上具有最大的优势,但是其空间信息的详细程度最差;IntensityHueSaturation(IHS方法融合后的图像,具有最大程度的空
3、间细节信息,而对原光谱信息的保留能力最差。PC、GramSchmit以及Wavelet融合方法无论在空间信息的详细程度还是在对原图像光谱保真能力上,都相差不大,其融合效果非常接近。关键词:融合方法;信息熵;标准差;偏差指数;相关系数中图分类号:TP391文献标志码:AStudyonfusionandevaluationmethodsforremotesensingimages111,21,3MENGJinghui,LUYuanchang,LIUGang,WANGYixiang(1.InstituteofForestResourceInformationTechni
4、ques,ChineseAcademyofForestry,Beijing100091,China;2.CollegeofHorticultureandForestryscience,HuazhongAgriculturalUniversity,Wuhan430070,China;3.SchoolofEnvironmentalTechnology,ZhejiangForestryCollege,Lin'an311300,ChinaAbstract:DifferentfusionmethodssuchasBrovey,IHS,PC,GramSchmitandWave
5、letwere+appliedontwoETMimagesofBeijingandSanyatoevaluatethefusioneffects.Fortheprocessedimages,standardvariationandinformationentropywereusedtoevaluatethespatialinformation.Biasindexandcorrelationcoefficientwereusedtoevaluatespectralfidelity.TheresultsshowedthatBroveyfusionmethodhasth
6、emostadvantageinspectralfidelitybuthasthelowestspatialinformation.Incontrast,IHSfusionmethodhasthemostspatialinformationbutlowestinspectralfidelity.PC,GramSchmitandWaveletfusionmethodshavealmostthesameeffectsintermsofspatialinformationandspectralfidelity.Keywords:Fusionmethods;informa
7、tionentropy;standardvariation;biasindex;correlationcoefficient遥感图像融合是对多遥感器的图像数据和其它生成一幅具有新的空间、波谱、时间特征的合成图[1]信息的处理过程。它着重于把那些在空间或时间上像。图像融合能减少或抑制被感知对象或环境解冗余的多元数据,按一定的规则(或算法进行运算释中可能存在的多义性、不完全性、不确定性和误处理,获得比任何单一数据更精确、更丰富的信息,差,增强影像判读的可靠性和影像的解译能力,从而*收稿日期:20090415基金项目:国家十一五科技支撑计划(2006BAD23B01;国
8、家自然科学