欢迎来到天天文库
浏览记录
ID:24784621
大小:1.47 MB
页数:74页
时间:2018-11-14
《信息论与编码--------第24讲-总复习》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、2021/8/131信息与消息和信号的区别消息:是指包含有信息的语言、文字和图像等,可表达客观物质运动和主观思维活动的状态。信号:把消息变换成适合信道传输的物理量,这种物理量称为信号(如电信号、光信号、声音信号等)。第一章概论2021/8/132信息“本体论”层次定义:信息是该事物运动的状态和状态改变的方式。认识论层次的信息是同时考虑语法信息、语义信息和语用信息的全信息。全信息:同时考虑外在形式/语法信息、内在含义/语义信息、效用价值/语用信息,称为全信息。语法信息:事物运动状态和状态改变的方式;语义信息:事物运动状
2、态和方式的具体含义;语用信息:事物运动状态和方式及其含义对观察者的效用。研究信息论的目的:它的主要目的是提高信息系统的可靠性、有效性和安全性以便达到系统最优化。第一章概论2021/8/133单符号离散信源自信息量用概率测度定义信息量设离散信源X,其概率空间为如果知道事件xi已发生,则该事件所含有的自信息定义为当事件xi发生以前:表示事件xi发生的不确定性。当事件xi发生以后:表示事件xi所含有(或所提供)的信息量第二章信源熵2021/8/134联合自信息量当X和Y相互独立时,p(xiyj)=p(xi)p(yj)第二章
3、信源熵2021/8/135条件自信息量:已知yj的条件下xi仍然存在的不确定度。自信息量、条件自信息量和联合自信息量之间的关系第二章信源熵2021/8/136互信息量:yj对xi的互信息量定义为的后验概率与先验概率比值的对数。第二章信源熵2021/8/137观察者站在输出端:两个不确定度之差是不确定度被消除的部分,即等于自信息量减去条件自信息量。观察者站在输入端:观察者得知输入端发出xi前、后对输出端出现yj的不确定度的差。观察者站在通信系统总体立场上:通信后的互信息量,等于前后不确定度的差。第二章信源熵2021/8
4、/138平均信息量—信源熵:自信息的数学期望。也称为信源的信息熵/信源熵/香农熵/无条件熵/熵函数/熵。信息熵的意义:信源的信息熵H是从整个信源的统计特性来考虑的。它是从平均意义上来表征信源的总体特性的。对于某特定的信源,其信息熵只有一个。不同的信源因统计特性不同,其熵也不同。信源熵的三种物理含义信源熵H(X)是表示信源输出后每个消息/符号所提供的平均信息量;信源熵H(X)是表示信源输出前,信源的平均不确定性;用信源熵H(X)来表征变量X的随机性。第二章信源熵2021/8/139条件熵:是在联合符号集合XY上的条件自
5、信息的数学期望。第二章信源熵2021/8/1310信道疑义度—H(X/Y):表示信宿在收到Y后,信源X仍然存在的不确定度。是通过有噪信道传输后引起的信息量的损失,故也可称为损失熵。噪声熵—H(Y/X):表示在已知X的条件下,对于符号集Y尚存在的不确定性(疑义),这完全是由于信道中噪声引起的。第二章信源熵2021/8/1311联合熵H(XY):表示输入随机变量X,经信道传输到达信宿,输出随机变量Y。即收、发双方通信后,整个系统仍然存在的不确定度。第二章信源熵2021/8/1312最大离散熵定理(极值性):离散无记忆信源
6、输出n个不同的信息符号,当且仅当各个符号出现概率相等时(即p(xi)=1/n),熵最大。H[p(x1),p(x2),…,p(xn)]≤H(1/n,1/n,…,1/n)=log2n出现任何符号的可能性相等时,不确定性最大。第二章信源熵2021/8/1313平均互信息量定义:互信息量I(xi;yj)在联合概率空间P(XY)中的统计平均值。从一个事件获得另一个事件的平均互信息需要消除不确定度,一旦消除了不确定度,就获得了信息。第二章信源熵2021/8/1314站在输出端:I(X;Y)—收到Y前、后关于X的不确定度减少的量。
7、从Y获得的关于X的平均信息量。站在输入端:I(Y;X)—发出X前、后关于Y的先验不确定度减少的量。站在总体:I(X;Y)—通信前、后整个系统不确定度减少量。第二章信源熵2021/8/1315BSC信道的平均互信息量设二进制对称信道的输入概率空间为转移概率如图2.1.8所示。第二章信源熵2021/8/1316平均互信息量当q不变(固定信道特性)时,可得I(X;Y)随输入概率分布p变化的曲线,如图2.1.9所示;二进制对称信道特性固定后,输入呈等概率分布时,平均而言在接收端可获得最大信息量。第二章信源熵2021/8/13
8、17当固定信源特性p时,I(X;Y)就是信道特性q的函数,如图2.1.10所示;当二进制对称信道特性q=/q=1/2时,信道输出端获得信息量最小,即等于0。说明信源的全部信息信息都损失在信道中了。这是一种最差的信道。第二章信源熵2021/8/1318离散无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍,即H(X)=H(XN)=NH(X)离
此文档下载收益归作者所有