第6讲 联合熵与条件熵.doc

第6讲 联合熵与条件熵.doc

ID:60754050

大小:164.00 KB

页数:8页

时间:2020-12-13

第6讲 联合熵与条件熵.doc_第1页
第6讲 联合熵与条件熵.doc_第2页
第6讲 联合熵与条件熵.doc_第3页
第6讲 联合熵与条件熵.doc_第4页
第6讲 联合熵与条件熵.doc_第5页
资源描述:

《第6讲 联合熵与条件熵.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、__________________________________________________第6讲联合熵与条件熵信息熵H(X)反映了随机变量X的取值不确定性。当X是常量时,其信息熵最小,等于0;当X有n个取值时,当且仅当这些取值的机会均等时,信息熵H(X)最大,等于logn比特。我们拓展信息熵H(X)的概念,考虑两个随机变量X和Y的联合熵H(XY)和条件熵H(Y

2、X)。1.联合熵设X,Y是两个随机变量,则(X,Y)是二维随机变量,简写为XY。二维随机变量XY的联合概率分布记为p(xy),即根据信

3、息熵的定义可知,XY的信息熵为定义1.1二维随机变量XY的信息熵H(XY)称为X与Y的联合熵(jointentropy)。它反映了二维随机变量XY的取值不确定性。我们把它理解为X和Y取值的总的不确定性。练习:假设有甲乙两只箱子,每个箱子里都存放着100个球。甲里面有红蓝色球各50个,乙里面红、蓝色的球分别为99个和1个。试计算H(XY)我们将联合熵概念推广到任意多离散型随机变量上。定义1.2一组随机变量的联合熵定义为注:为了简化记号,我们有时把记为XN,把记为xN。收集于网络,如有侵权请联系管理员删除_

4、_________________________________________________物理意义:(1)是这一组随机变量平均每一批取值所传递的信息量。(2)若N-维随机变量表示某信源产生的任意一条长度为N的消息,则是平均每条长度为N的消息的信息量。因此,若该信源产生一个长度为N的消息,则在不知道其它条件的情况下,对该消息所含信息量的最优估计为N-维信息熵。联合熵的性质:联合熵熵函数的一种特殊形式,所以熵函数的任何数学性质都适用于联合熵,包括:非负性、可加性、严格上凸性和最大离散熵原理,等等。当

5、然,联合熵还有自己的特殊性质。定理1.4(联合熵的独立界)其中等号成立的充要条件是所有随机变量相互独立。证明:这里仅证明,一般情形可类似证明。设对于XY的联合分布为p(xy),X和Y的概率分布简记为p(x),p(y)。由于我们有注意,构成一个概率分布。应用信息不等式可得其中等号成立的充要条件是,即X与Y相互独立。证毕1.条件熵收集于网络,如有侵权请联系管理员删除__________________________________________________条件自信息:对于任何取值x,是一个带条件的随

6、机变量,其信息熵为再对所有x求熵的平均值可得如下条件熵:定义2.1设X,Y是两个离散型随机变量,联合分布为p(xy)。X相对于Y的条件熵H(X

7、Y)定义为条件自信息I(X

8、Y)的期望,即物理意义:H(X

9、Y)表示在已知Y取值的前提下,X取值的不确定性,亦即X的每个取值平均所提供的与Y无关的信息量。定理2.2(条件熵非负性)对于任何离散型随机变量X与Y,都有H(Y

10、X)≥0,其中等号成立当且仅当Y是X的函数,即X的取值可确定Y的取值。证明根据定义由于上述加式中各加项都≤0,所以该加式=0的充要条件是各加项

11、=0,即对于任何x和y,p(y

12、x)=1或者p(y

13、x)=0,亦即对于任何x,P(Y

14、x)是退化分布。这表明当X的取值确定时,Y的取值随即确定,即Y是X的函数。证毕定理2.3(熵的链法则)对于随机变量序列X1,X2,…和任何N≥1简记为其中H1=H(X1),H2=H(X2

15、X1),…,HN=H(XN

16、X1X2…XN-1)。证明:首先根据定义直接可得H(XY)=H(X)+H(Y

17、X)收集于网络,如有侵权请联系管理员删除____________________________________________

18、______应用上述等式,对N用归纳法可证明熵的链法则。细节略。证毕意义:将多个随机变量的联合熵转化为这些随机变量的条件熵之和,可简化计算。注:链法则与熵的可加性是等价的。思考:下列不等式是否成立,其中各等号成立的充要条件是什么?这个性质说明什么?请读者尝试命名该性质。定理2.4(条件熵递减性)对于任何随机变量X和Y,有H(Y

19、X)≤H(Y)其中等号成立的充要条件是Y与X相互独立。证明一:根据链法则,H(XY)=H(X)+H(Y

20、X)再根据联合熵的独立界定理,立刻可得H(Y

21、X)≤H(Y)其中等号成立的

22、充要条件是X与Y统计独立。证毕在条件熵中,条件越少,熵值越大。相反,条件越多,熵值越小。这可理解为,我们知道的越多,则事物的不确定性越小。证明二:应用Jessen不等式证明。证毕1.计算公式令X,Y为离散的随机变量。收集于网络,如有侵权请联系管理员删除__________________________________________________公式1.公式2.其中P(X)是X的概率分布,为行向量,P(Y

23、X)是X到Y的条件概率矩阵,是

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。