信息论举例讲解信息量熵及互信息量

信息论举例讲解信息量熵及互信息量

ID:39278701

大小:989.50 KB

页数:26页

时间:2019-06-29

信息论举例讲解信息量熵及互信息量_第1页
信息论举例讲解信息量熵及互信息量_第2页
信息论举例讲解信息量熵及互信息量_第3页
信息论举例讲解信息量熵及互信息量_第4页
信息论举例讲解信息量熵及互信息量_第5页
资源描述:

《信息论举例讲解信息量熵及互信息量》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、信息论基础信息量、熵和互信息量在上一次课中我们提到香农对信息定性的定义——事物运动状态或存在方式的不确定性的描述。事实上,香农对信息不仅作了定性描述,而且还进行了定量分析。信源发出的消息常常是随机的,具有不确定性。如果信源中某一消息的不确定性越大,一旦发生,并为收信者收到,消除的不确定性就越大,获得的信息也就越大。同时事件发生的不确定性与事件发生的概率有关,概率越小,不确定性就越大。研究通信系统的目的就是要找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统最优化。离散集自信息量的性质因此,某事件x发生所提供的信息量I(x)应

2、该是该事件发生的先验概率p(x)的函数:I(x)=f(p(x))(4)当p(x)=0时,I(x)=∞:表示不可能事件一旦发生,信息量将无穷大。且应满足以下四点:(1)I(x)应该是事件概率p(x)的单调递减函数;(2)信息量应具有可加性:对于两个独立事件,其信息量应等于各自信息量之和;(3)当p(x)=1时,I(x)=0:表示确定事件发生得不到任何信息;自信息量的计算公式综合上述条件,在概率上已经严格证明了自信息量的单位:若这里的对数底取2,则单位为比特bit,由于在计算机上是二进制,我们一般都采用比特。其他单位以及相互之间转换关系查阅教材。其中p(x)为消息的先验概

3、率。计算自信息量的例子例1:信源消息X={0,1,2}的概率模型如下:xi012P(xi)1/31/61/2xi012P(xi)1/31/61/2I(xi)log3log6log2则该信源各消息的自信息量分别为:单位:比特自信息量的涵义自信息量代表两种含义:二、当事件x发生以后,I(x)表示事件x所提供的信息量(在无噪情况下)。在通信系统模型中,不仅可以用自信息量来研究信源中的每个消息,对信宿也可同样可以。一、事件x发生以前,I(x)表示事件x发生的不确定性;自信息量计算的应用例2:假设一条电线上串联了8个灯泡x1,x2,…,x8,这8个灯泡损坏的可能性是等概率的,假

4、设有也只有一个灯泡损坏,用万用表去测量,获得足够的信息量,才能获知和确定哪个灯泡xi损坏。下面就来看我们最少需要获得多少信息量才能判断出。第三次测量获得的信息量:故共需要3bit信息量.第二次测量获得的信息量:[解]第一次测量获得的信息量:信源熵前面我们根据信源或信宿的概率模型,通过自信息量的计算,能得到信源以及信宿中每个消息的不确定性。然而,事实上,人们往往关注的并不紧紧是每个消息的不确定性,而是整个系统的不确定性的统计特性即整个信源自信息量的统计平均值——熵。xi01P(xi)0.50.5yi01P(yi)0.990.01我们先来看一个例子:例3有两个信源X和Y:

5、在现实中,能找到很多类似的模型,我们想知道这两个信源本质的区别在哪里?平均自信息量——熵的定义设X是一个集合(即信息系统如信源或信道),其概率模型为{xi,p(xi)},则定义系统X的平均自信息量——熵为:熵的单位是比特/符号.我们知道,I(xi)是唯一确定xi所需要的信息量,那么H(X)就是唯一确定X中任一事件所需的平均信息量。它反映了X中事件xi出现的平均不确定性。熵的几条性质(4)极值性——最大离散熵定理:设

6、X

7、为信源消息的个数,则有H(X)小于等于log

8、X

9、,等号当且仅当信源X中各消息等概率时成立,即各消息等概率分布时(p=1/

10、X

11、),信源熵最大.(3)

12、确定性:若离散事件是确定事件,则H(X)=0(2)非负性:H(X)≥0;(1)对称性:熵只和分布有关,不关心某一具体事件对应哪个概率;计算熵的例子例4计算下面一个信源的熵:xi000001010011100101110111q(xi)1/41/41/81/81/161/161/161/16[解]由定义有:(比特/符号)我们再回过头来看一下例3中两个信源熵分别是多少,结果反映了一个怎样的事实?[例3解答]由定义有:显然,H(X)>>H(Y),这表示信源X的平均不稳定性远远大于信源Y的平均不稳定性。条件自信息量前面我们引入自信息量以及熵的概念,用以描述信源或信宿,事实上,

13、信宿收到的消息是与信源发出的消息密切相关。并且接受信息与发送信息之间的关系往往是判定一个信道的好坏的最佳标准。所以,我们需要引入互信息量。在学习互信息量之前我们先来了解条件信息量的概念。设消息x发出的先验概率为p(x),收到消息y是由x发出的条件概率为p(x

14、y),则在收到y是由x发出的条件自信息量I(x

15、y)定义为:(比特)计算条件自信息量的例子例5在二进制对称信道BSC中,若信道转移概率矩阵为:计算下列条件自信息量(若p(0)=p(1)=1):[解答]由已知条件可得:量的定义得由条件自信息单位为比特我们知道,在通信之前,消息x具有不确定性p(x)

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。