欢迎来到天天文库
浏览记录
ID:55023450
大小:695.00 KB
页数:7页
时间:2020-04-26
《信息论与编码期末考试题----学生复习用.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、《信息论基础》参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。3、三进制信源的最小熵为0,最大熵为bit/符号。4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr=Hr(S))。5、当R=C或(信道剩余度为0)时,信源与信道达到匹配。6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。8、若连续信源输出信号的平均功率为,则输出信号幅度的
2、概率密度是高斯分布或正态分布或时,信源具有最大熵,其值为值。9、在下面空格中选择填入数学符号“”或“”(1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)=H(Y)+H(X)。(2)(3)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)>0,H(Y/X)=0,I(X;Y)3、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为0.5。计算:(1)信息传输速率。(2)将这些数据通过一个带宽为B=2000kHz的加性白高斯噪声信道传输,噪声的单边功率谱密度为。试计算正确传输这些数据最少需要的发送功率P。解:(1)(2)五、一个一阶马尔可夫信源,转移概率为。(1)画出状态转移图。(2)计算稳态概率。(3)计算马尔可夫信源的极限熵。(4)计算稳态下,及其对应的剩余度。解:(1)(2)由公式有得(3)该马尔可夫信源的极限熵为:(4)在稳态下:对应的剩余度为六、设有扰信道的传输情4、况分别如图所示。试求这种信道的信道容量。解:信道传输矩阵如下可以看出这是一个对称信道,L=4,那么信道容量为七、设X、Y是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算(1)(2)(3)(4);解:(1)Z01P(Z)3/41/4(2)(3)(4)八、设离散无记忆信源的概率空间为,通过干扰信道,信道输出端的接收符号集为,信道传输概率如下图所示。(1)计算信源中事件包含的自信息量;(2)计算信源的信息熵;(3)计算信道疑义度;(4)计算噪声熵;(5)计算收到消息后获得的平均互信息量。解:(1)(2)(3)转5、移概率:xyy1y2x15/61/6x23/41/4联合分布:xyy1y2x12/312/154/5x13/201/201/549/6011/601/5(4)(5)()1、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。2、信息的可度量性是建立信息论的基础。3、统计度量是信息度量最常用的方法。4、熵是香农信息论最基本最重要的概念。。12、自信息量的单位一般有比特、奈特和哈特。13、必然事件的自信息是0。14、不可能事件的自信息量是∞。15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。16、数据处理定理:当消息经过多级处理后6、,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。18、离散平稳有记忆信源的极限熵,。19、对于n元m阶马尔可夫信源,其状态空间共有nm个不同的状态。25、若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为3。26、m元长度为ki,i=1,2,···n的异前置码存在的充要条件是:。27、若把掷骰子的结果作为一离散信源,则其信源熵为log26。28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自7、信息量是log218(1+2log23)。30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为。31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续信道。32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为无记忆信道。33、具有一一对应关系的无噪信道的信道容量C=log2n。34、强对称信道的信道容量C=log2n-Hni。35、对称信道的信道容量C=log2m-Hmi。36、对于离散无记忆信道和信源的N次扩展,其信道容量CN=NC。43、信道编码定理是一个理想编码8、的存在性定理,即:信道无失真传递信息的条件是信息率小
3、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为0.5。计算:(1)信息传输速率。(2)将这些数据通过一个带宽为B=2000kHz的加性白高斯噪声信道传输,噪声的单边功率谱密度为。试计算正确传输这些数据最少需要的发送功率P。解:(1)(2)五、一个一阶马尔可夫信源,转移概率为。(1)画出状态转移图。(2)计算稳态概率。(3)计算马尔可夫信源的极限熵。(4)计算稳态下,及其对应的剩余度。解:(1)(2)由公式有得(3)该马尔可夫信源的极限熵为:(4)在稳态下:对应的剩余度为六、设有扰信道的传输情
4、况分别如图所示。试求这种信道的信道容量。解:信道传输矩阵如下可以看出这是一个对称信道,L=4,那么信道容量为七、设X、Y是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算(1)(2)(3)(4);解:(1)Z01P(Z)3/41/4(2)(3)(4)八、设离散无记忆信源的概率空间为,通过干扰信道,信道输出端的接收符号集为,信道传输概率如下图所示。(1)计算信源中事件包含的自信息量;(2)计算信源的信息熵;(3)计算信道疑义度;(4)计算噪声熵;(5)计算收到消息后获得的平均互信息量。解:(1)(2)(3)转
5、移概率:xyy1y2x15/61/6x23/41/4联合分布:xyy1y2x12/312/154/5x13/201/201/549/6011/601/5(4)(5)()1、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。2、信息的可度量性是建立信息论的基础。3、统计度量是信息度量最常用的方法。4、熵是香农信息论最基本最重要的概念。。12、自信息量的单位一般有比特、奈特和哈特。13、必然事件的自信息是0。14、不可能事件的自信息量是∞。15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。16、数据处理定理:当消息经过多级处理后
6、,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。18、离散平稳有记忆信源的极限熵,。19、对于n元m阶马尔可夫信源,其状态空间共有nm个不同的状态。25、若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为3。26、m元长度为ki,i=1,2,···n的异前置码存在的充要条件是:。27、若把掷骰子的结果作为一离散信源,则其信源熵为log26。28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自
7、信息量是log218(1+2log23)。30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为。31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续信道。32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为无记忆信道。33、具有一一对应关系的无噪信道的信道容量C=log2n。34、强对称信道的信道容量C=log2n-Hni。35、对称信道的信道容量C=log2m-Hmi。36、对于离散无记忆信道和信源的N次扩展,其信道容量CN=NC。43、信道编码定理是一个理想编码
8、的存在性定理,即:信道无失真传递信息的条件是信息率小
此文档下载收益归作者所有