信息论与编码第2章.ppt

信息论与编码第2章.ppt

ID:56303541

大小:2.49 MB

页数:133页

时间:2020-06-10

信息论与编码第2章.ppt_第1页
信息论与编码第2章.ppt_第2页
信息论与编码第2章.ppt_第3页
信息论与编码第2章.ppt_第4页
信息论与编码第2章.ppt_第5页
资源描述:

《信息论与编码第2章.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、第二章 信源及信源熵2.1信源的描述与分类2.1.1信源的分类信源的分类方法依信源特性而定,一般按照信源发出的消息在时间上和幅度上的分布情况,把信源分为:连续信源:发出在时间上和幅度上都是连续分布的连续消息的信源,如语音、图像、图形等都是连续消息。离散信源:发出在时间上和幅度上都是离散分布的信源,如文字、数字、数据等符号都是离散消息。1第二章 信源及信源熵离散信源又可以细分为:(1)离散无记忆信源:所发出的各个符号之间相互独立,发出的符号序列中各个符号之间没有统计关联性,各个符号的出现概率是其自身的先验概率。可细分为发出单个符号

2、的无记忆信源与发出符号序列的无记忆信源。布袋摸球实验:每次取1个球,球的颜色作为消息输出;每次先后取2个球,由两个球的颜色组成的消息就是符号序列,记录完颜色后球被放回。(2)离散有记忆信源:发出的各个符号之间不是相互独立的,各个符号出现的概率是有关联的。可细分为发出符号序列的平稳有记忆信源与发出符号序列的非平稳有记忆信源,后者诸如:发出符号序列的马尔可夫信源。每次先后取2个球,但记录完颜色后球不放回。2第二章 信源及信源熵2.1.2离散信源的描述与度量发送方消息的选择具有随机性,否则就没有通信的必要了。换句话说,我们在收到消息之

3、前,并不知道信源将要发出什么消息,信源是随机的、不确定的,因此,可用随机变量或随机矢量来描述信源输出的消息。或者说,用概率空间来描述信源。离散信源的数学模型就是离散型的概率空间:3第二章 信源及信源熵发出单个符号的无记忆信源输出的都是单个符号的消息,出现的消息数是有限的,且只可能是符号集中的一种,即符合完备性——信源可能取的消息(符号)只有q个:  ,且每次必定取其中一个。4第二章 信源及信源熵然而,很多实际信源输出的消息往往是由一系列符号所组成的。例如:中文信源的样本空间集合x是所有中文字母及标点符号的集合。由这些单字和标点符

4、号组成的消息即是中文句子和文章。从时间上看,中文信源的输出是时间上离散的一系列符号,而其中每个符号的出现是随机的,由此构成了不同的中文消息。5第二章 信源及信源熵例如:对离散化的平面图像来说,从空间上来看是一系列离散的符号,而空间每一点的符号(灰度)又都是随机的,由此形成了不同的图像。因此,可以将一般信源输出的消息看作为时间或空间上离散的一系列随机变量,即随机矢量。符号序列信源的输出可用N维随机矢量来描述,其中N可为有限正整数或可数的无限值。6第二章 信源及信源熵在上述随机矢量中,若每个随机变量都是离散的,则可用N重离散概率空间

5、来描述这类信源。即若N维随机矢量  中则7第二章 信源及信源熵信源的N重概率空间为:这个空间共有个元素。8第二章 信源及信源熵在某些简单的情况下,信源先后发出的一个个符号彼此是统计独立的,则N维随机矢量的联合概率分布满足即N维随机矢量的联合概率分布可用随机矢量中单个随机变量的概率乘积来表示。这种信源就是离散无记忆信源。9第二章 信源及信源熵有记忆信源:输出的随机序列X中各随机变量之间有依赖关系。例如在中文字母组成的中文消息中,前后文字的出现是有依赖的,不能认为是彼此不相关的,放在N维随机矢量的联合概率分布中,就必然要引入条件概率

6、分布来说明它们之间的关联。此外,对弈时,当前怎样走,通常是与先前已走步数所形成的局势有关。10第二章 信源及信源熵描述有记忆信源要比表述无记忆信源困难得多。比较特殊的情况:信源发出的符号往往只与前面几个符号的依赖关系较强,而与更前面的符号依赖关系就弱。为此可以限制随机序列的记忆长度。m阶马尔可夫信源:信源每次发出的符号只与前m个符号有关,与更前面的符号无关。齐次马尔可夫信源:上述条件概率与时间起点i无关11第二章 信源及信源熵2.1.3概率复习12第二章 信源及信源熵13第二章 信源及信源熵2.2离散信源熵和互信息信息的度量信息

7、的可度量性----建立信息论的基础;信息度量的方法:结构度量﹑统计度量﹑语义度量﹑模糊度量等;统计度量:用事件统计发生概率的对数来描述事物的不确定性,得到消息的信息量,建立熵的概念;熵概念是香农信息论最基本最重要的概念。14第二章 信源及信源熵2.2.1自信息量在讨论了信源的数学模型,即信源的数学描述问题后,很自然接着会提出这样一个问题,即信源发出某一符号后,它提供多少信息量?这就是要解决信息的度量问题。在通信的一般情况下,信宿所获取的信息量,在数量上等于通信前后不确定性的消除(减少)的量。信息量=不确定性的减少量15第二章 信

8、源及信源熵事件发生的不确定性与事件发生的概率有关。事件发生的概率越小,猜测它有没有发生的困难程度就越大,不确定性就越大;而事件发生的概率越大,猜测这事件发生的可能性就越大,不确定性就越小;对于发生概率等于1的必然事件,就不存在不确定性。信源发生的概率越小,一旦它

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。