欢迎来到天天文库
浏览记录
ID:6138008
大小:676.50 KB
页数:6页
时间:2018-01-04
《实验一 灰度图像信息熵的相关计算与分析》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、实验一灰度图像信息熵的相关计算与分析姓名:学号:姓名:学号:姓名:学号:姓名:学号:一、实验目的1、复习信息熵,条件熵,联合熵,互信息,相对熵的基本定义,掌握其计算方法,学习互信息与相对熵的区别之处并比较两者的有效性,加深对所学理论理论知识的理解。2、掌握图像的的基本处理方法,了解图像的编码原理。3、学习使用matlab,掌握matlab的编程。4、通过对比分析,。在解决问题的过程中,锻炼自身对问题的研究能力。二、实验内容与要求1、计算灰度图像的信息熵,条件熵,联合熵,互信息,相对熵,并比较互信息和相对熵在判别两幅图像的联
2、系与区别。2、利用matlab编程计算,并书写完整实验报告。三、实验原理1、信息熵离散随机变量X的熵H(X)为:图像熵是一种特征的统计形式,它反映了图像中平均信息量的多少。图像的一维熵表示图像中灰度分布的聚集特征所包含的信息量,将图像的灰度值进行数学统计,便可得到每个灰度值出现的次数及概率,则定义灰度图像的一元灰度熵为:利用信息熵的计算公式便可计算图像的信息熵,求出任意一个离散信源的熵(平均自信息量)。自信息是一个随机变量,它是指某一信源发出某一消息所含有的信息量。所发出的消息不同,它们所含有的信息量也就不同。任何一个消息
3、的自信息量都代表不了信源所包含的平均自信息量。信息熵的意义:信源的信息熵H是从整个信源的统计特性来考虑的。它是从平均意义上来表征信源的总体特性的。对于某特定的信源,其信息熵只有一个。不同的信源因统计特性不同,其熵也不同。图像的一维熵可以表示图像灰度分布的聚集特征,却不能反映图像灰度分布的空间特征,为了表征这种空间特征,可以在一维熵的基础上引入能够反映灰度分布空间特征的特征量来组成图像的二维熵。选择图像的邻域灰度均值作为灰度分布的空间特征量,与图像的像素灰度组成特征二元组,记为(i,j),其中i表示像素的灰度值,j表示邻域灰
4、度,上式能反应某像素位置上的灰度值与其周围像素灰度分布的综合特征,其中f(i,j)为特征二元组(i,j)出现的频数,N为图像的尺度,定义离散的图像二维熵为:构造的图像二维熵可以在图像所包含信息量的前提下,突出反映图像中像素位置的灰度信息和像素邻域内灰度分布的综合特征。2、联合熵离散型随机变量(X,Y)的联合分布函数为,其联合熵:3、条件熵若,则条件熵为:4、相对熵相对熵是对两种分布之间的偏移的测量,在统计学中,以概率比的对数的期望形式出现。相对熵是两个概率分布P和Q差别的非对称性的度量。是用来度量使用基于Q的编码来编码来自
5、P的样本平均所需的额外的比特个数。典型情况下,P表示数据的真实分布,Q表示数据的理论分布,模型分布,或P的近似分布。相对熵的定义如下:p(x)和q(x)之间相关熵为5、互信息互信息是一个随机变量包含另一个随机变量多少的一个量度,是一个随机变量由另一个随机变量的信息其不确定性的减少。互信息的定义如下:两个随机变量X和Y,联合概率分布函数p(x,y),边缘概率分布函数为p(x)和p(y),互信息为联合分布和分布乘积之间的相对熵。互信息是一有用的信息度量,指两个事件集合之间的相关性,互信息的值越大(小),相关程度越高(低)。相对
6、熵是两个概率分布差别的非对称性的度量,是用来度量使用基于一个的编码来编码来自另一个的样本平均所需的额外的比特个数,相对熵的值越大(小),非对称性的量度越大(小),侧面反映相关程度的低(高)。两者都可以用来衡量两幅图像的相关程度,但是也有区别。四、实验步骤1)输入一幅图像,并将其转换成灰度图像。2)统计出图像中每个灰度阶象素概率。3)统计出图像中相邻两象素的灰度阶联合分布矩阵。4)计算出每幅图像的熵和成对图像的条件熵,联合熵,互信息,相对熵5)分析实验结果。五、实验结果及分析1)表1.各个图片的信息熵与图一之间的联合熵,互信
7、息,条件熵以及相对熵。 信息熵联合熵互信息条件熵相对熵图一7.597614.75570.50427.09930.0174图二7.66247.1581图一7.597614.86690.44257.15500.0395图三7.71197.2693图一7.597614.93640.39927.19840.0599图四7.73807.3388图一7.597614.52110.73236.86520.0088图五7.65596.92352)实验中生成的灰度图像:图一对比图对比图与图一相同部分3)结果分析:从原始图像可以看出图1分别与
8、图2,图3,图4的差别原来越大。从计算结果上看,它们的互信息的值越来越小、相对熵的值越来越大,与实际相符,结果正确。回顾互信息与相对熵的定义,我们可以了解到互信息是一种有用的信息度量,它是指两个事件集合之间的相关性,因此互信息越大,二者的相似程度就越高。而相对熵基于熵来定义,其直观意义是用p进行编码平均
此文档下载收益归作者所有