平均互信息量和各种熵关系

平均互信息量和各种熵关系

ID:39609680

大小:254.00 KB

页数:24页

时间:2019-07-07

平均互信息量和各种熵关系_第1页
平均互信息量和各种熵关系_第2页
平均互信息量和各种熵关系_第3页
平均互信息量和各种熵关系_第4页
平均互信息量和各种熵关系_第5页
资源描述:

《平均互信息量和各种熵关系》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、第2章信源熵2.1单符号离散信源2.1.1单符号离散信源的数学模型2.1.2自信息和信源熵2.1.3信源熵的基本性质和定理2.1.4加权熵的概念及基本性质2.1.5平均互信息量一、平均互信息量定义二、平均互信息量物理意义二、平均互信息量性质2.1.6各种熵之间的关系1离散集的平均互信息量不同概率空间集合之间的平均互信息量对于通信问题的探讨十分重要。通信的目的是在接收端准确地或以尽可能小的失真复现发送的消息。一般通信系统的输入和输出存在一定的概率关系。令X和Y分别表示一个通信系统的输入事件集和输出事件集。讨论输入X、输

2、出Y均为离散的情况。研究离散集X和Y的平均互信息量。这时输入和输出均可用离散概率空间描述。P(Y/X)XY2互信息量—信道中信息流通的测度?互信息量I(xi;yj)是定量研究信息流通问题的重要基础。它只能定量地描述输入随机变量发出某个具体消息xi,输出变量出现某一具体消息yj时,流经信道的信息量。“输入xi,输出yj”是一个概率为p(xiyj)的随机事件,相应的I(xi;yj)也是随xi和yj变化而变化的随机量。互信息量I(xi;yj)不能从整体上作为信道中信息流通的测度。这种测度应该是从整体的角度出发,在平均意义上

3、度量每通过一个符号流经信道的平均信息量。作为一个测度,它不能是随机量,而是一个确定的量。3输入X、输出Y的离散概率空间描述4输入X、输出Y的联合空间XY5平均条件互信息量定义:在联合集XY上,由提供的关于集X的平均条件互信息量等于由所提供的互信息量在整个X中以后验概率加权的平均值,其定义式为由于互信息是表示观测到后获得的关于事件的信息量,即故平均条件互信息量又可以表示为6定理定理:联合集XY上的平均条件互信息量有等号成立当且仅当X集中的各个都与事件相互独立。平均条件互信息量表示观测到yj后获得的关于集X的平均信息量。

4、I(X;yj)仍然是一个随机变量,随yj的变化而变化,因此,不能作为信道中流通信息量的整体测度。7定理I(X;yj)≥0的证明8平均互信息量定义:平均互信息量I(X;Y)是平均条件互信息量I(X;yj)在整个集Y上的概率加权平均值。其定义式为定义:互信息量I(xi;yj)在联合概率空间P(XY)中的统计平均值称I(X;Y)是Y对X的平均互信息量,简称平均互信息,也称平均交互信息量或交互熵。平均互信息I(X;Y)克服了互信息量I(xi;yj)的随机性,成为一个确定的量,因此,可以作为信道中流通信息量的整体测度。9平均互

5、信息量的其它定义平均互信息量I(X;Y)也可定义为10平均互信息的性质平均互信息量有以下基本性质:1、互易性(对称性)2、非负性3、极值性4、凸函数性5、数据处理定理平均互信息和各类熵的关系11平均互信息的性质1、互易性(对称性)I(X;Y)=I(Y;X)该性质表示从集Y中获得关于X的信息量等于从集X中获得关于Y的信息量。当集X和集Y统计独立时,有I(X;Y)=I(Y;X)=0它意味着不能从一个集获得关于另一个集的任何信息2、非负性I(X;Y)≥0当且仅当X与Y相互独立时,等号成立。即如果X与Y相互独立,它们之间相互

6、不能提供任何信息。12性质1:非负性I(X;Y)≥0的证明13性质2:对称性I(X;Y)=I(Y;X)的证明证明:按定义14平均互信息的性质(续)3、极值性I(X;Y)≤H(X);I(X;Y)≤H(Y)证明:因为I(X;Y)=H(X)-H(X/Y),条件熵H(X/Y)为非负,故两个不等式成立。4、凸函数性平均互信息量I(X;Y)是信源概率分布p(xi)的上凸函数;该性质是研究信道容量的理论基础平均互信息量I(X;Y)是信道传递概率p(yj/xi)的下凸函数。该性质是研究率失真函数的理论基础15平均互信息量I(X;Y)

7、的凸函数性-例题0011qq1-q1-q二元对称信道16求平均互信息I(X;Y)-例题17离散无记忆信源熵-例题18第2章信源熵2.1单符号离散信源2.1.1单符号离散信源的数学模型2.1.2自信息和信源熵2.1.3信源熵的基本性质和定理2.1.4加权熵的概念及基本性质2.1.5平均互信息量2.1.6各种熵之间的关系19平均互信息和各类熵的关系平均互信息和各类熵的关系I(X;Y)=H(X)-H(X/Y)I(X;Y)=H(Y)-H(Y/X)I(X;Y)=H(X)+H(Y)-H(XY)20几个关系式的证明21维拉图平均互

8、信息量I(X;Y)和各类熵的关系可用维拉图表示。当集X和Y统计独立时,I(X;Y)=0,得到H(X,Y)max=H(X)+H(Y)H(Y)H(X)H(X,Y)I(X;Y)H(X/Y)H(Y/X)22损失熵H(X/Y)条件熵H(X/Y)表示在已知输出Y的条件下输入X的剩余不确定性,即信道损失。根据互信息量I(X;Y)与条件熵H(X/Y)的关系可看

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。