中南大学信息论与编码第二章信息度量2

中南大学信息论与编码第二章信息度量2

ID:40062230

大小:282.50 KB

页数:18页

时间:2019-07-18

中南大学信息论与编码第二章信息度量2_第1页
中南大学信息论与编码第二章信息度量2_第2页
中南大学信息论与编码第二章信息度量2_第3页
中南大学信息论与编码第二章信息度量2_第4页
中南大学信息论与编码第二章信息度量2_第5页
资源描述:

《中南大学信息论与编码第二章信息度量2》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、非负性对称性最大离散熵定理:信源X中包含n个不同离散消息时,信源熵H(X)有,当且仅当X中各个消息出现的概率全相等时,上式取等号。表明等概率信源的不确定性最大,具有最大熵,且为2.3.5信源熵的基本性质和定理举例(3)应用对于离散随机变量,当其可能的取值等概分布时,其熵达到最大值。即:其中:N为X可能取值得个数。例1.3:二元熵函数是对0-1分布的随机变量所求的熵:XP(x)=01p1-pH(X)=-plogp-(1-p)log(1-p)=H(p)H’(X)=-logp-p/p+log(1-p)+(1-p)/(1-p)=log(1-p)/p

2、则:而:可以证明,p=1/2时,H(p)取最大值,为log2=1。而p=0或1时,H(p)=0,故二元熵函数的曲线如图所示:1.01.00.50pH(p)/bit二元熵函数曲线等概时(p=0.5):随机变量具有最大的不确定性,p=0,1时:随机变量的不确定性消失。扩展性确定性(不确定性完全消失)可加性(证明P27)极值性其它表述及证明(思考?)证明(5)思考(5):1.证明条件熵小于无条件熵,即H(Y/X)H(Y)2.H(XY)H(X)+H(Y)上凸性(6)对任何和任何两个概率矢量P,Q唯一性香农指出,存在这样的不确定性的度量,它是概率分布

3、的函数,且该函数应满足以下三个先验条件:连续性条件:应是的连续函数。等概时为单调增函数:应为N的增函数可加性条件:当随机变量的取值不是通过一次试验而是若干次试验才最后得到的,随机变量在各次试验中的不确定程度应该可加,且其和始终与通过一次试验取得结果的不确定程度相同,即香农证明,当函数满足上述三个条件时,其形式唯一,如下所示:递增性(递推性)若原信源X中有一元素划分(或分割)成m个元素(符号),而这m个元素的概率之和等于原元素的概率,则新信源的熵增加。思考与证明?证明P24-25若条件放宽,会形成其它唯一的熵2.4.1平均互信息量定义互信息量

4、是定量地研究信息流通问题的重要基础。但它只能定量地描述输入随机变量发出某个具体消息,输出变量出现某一个具体消息时,流经信道的信息量;此外还是随和变化而变化的随机变量。互信息量不能从整体上作为信道中信息流通的测度。这种测度应该是从整体的角度出发,在平均意义上度量每通过一个符号流经信道的平均信息量。定义互信息量在联合概率空间中的统计平均值为Y对X的平均互信息量,简称平均互信息,也称平均交互信息量或交互熵。2.4平均互信息量了解Y后,X的不确定度的减少量平均互信息克服了互信息量的随机性,可作为信道中流通信息量的整体测度。三种表达方式2.4.2平均

5、互信息的物理意义从三种不同角度说明从一个事件获得另一个事件的平均互信息需要消除不确定度,一旦消除了不确定度,就获得了信息。了解y后,x的不确定度的减少1)了解y后,x的不确定度的减少;2)或者说是X,Y之间的统计依存程度的信息度量;举例(1-4)平均互信息量的性质(怎样理解?X,y独立?)对称性:非负性:怎样理解?大于0说明了解一事物对另一事物有帮助,等于0说明x,y独立极值性:怎样理解?说明互信息的极大值为:x和y有确定的函数关系若x确定yH(Y/X)=0I(X;Y)=H(Y)凸函数性平均互信息量是输入信源概率分布的上凸函数,研究信道容量

6、的理论基础。(等概率时)平均互信息量是输道转移概率的下凸函数,研究信源的信息率失真函数的理论基础。(独立时)数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。举例证明(4-10)2.4.3平均互信息量的性质举例计算(10)离散互信息当随机变量X和Y之间有确定的关系时1、X可以唯一确定Y,此时:故:2、Y可以唯一确定X,此时:故:是对X和Y之间统计依存程度的信息量度数据处理定理(信息不增原理)P(Y/X)P(Z/Y)XYZ两级串联信道的情况举例证明(12)名称符号关系图示无条件熵条件熵条件

7、熵联合熵交互熵总结1各种熵之间的关系2熵VS互信息信息熵是表征随机变量本身统计特性的一个物理量,它是随机变量平均不确定性的度量,是从总体统计特性上对随机变量的一个客观描述。互信息I(U;V),我们又称它信息量一般是针对观测到另一个随机变量时而言的,是一个相对量,是指观测者从随机变量V中所获得的关于随机变量U的信息度量。在通信中,互信息是针对接收者而言的,是指接收者收到的关于信源的信息度量,当通信中无干扰时,接受者获得的信息量数量上就等于信源给出的信息熵,但是两者的概念不一样;当信道有干扰时,不仅概念上不一样,而且数量上也不相等。信息熵也可理

8、解为信源输出的信息量。3对信息论基本概念的若干评注信息论基本概念熵、互信息分别给出了随机变量不确定性的度量以及消除或减少这一不确定性时所获信息的度量。香农定义的熵是随机变量不确定

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。