欢迎来到天天文库
浏览记录
ID:10885295
大小:32.00 KB
页数:3页
时间:2018-07-08
《eda技术实用教程f复习资料》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库。
1、1本体论层次定义:定义事物的信息是该事物运动的状态和状态改变的方式。2全信息:同时考虑事物运动状态及变换方式的外在形式,内在含义和多用价值的认识论层次信息3认识论:同时考虑与发信息,语义信息和语用信息的全信息。4离散信息:一类信源输出的消息常常以一个符号的形式出现,这样的信息成为离散信源。5自信息量:一个随机事件中发生某一结果后所带来的信息量。6离散平稳无记忆信源:假定随机变量序列的长度是有限的,如果信源输出的消息序列中符号之间物互相依赖的关系7马尔可夫信源:用条件概率反应记忆特性的一类信源8连续信源:是指输出的信息在时间和取值上都是连续的信
2、源9信道容量:总能找到某一信源,使信道所能传送的信息率为最大,定义这个最大的信息传出率为信道容量10信环码:是采用循环移位特性界定的一类线性分组码11BCH码和RS码:是两类能够先确定纠错能力域最小码距d,然后设计码长和生成多项式的循环码12信源熵的三种物理意义:(1)信源熵H(x)表示信源输出后平均每个离散消息所提供的信息量(2)信源熵H(x)表示信源输出前信源的平均不确定度(3)信源熵H(x)反应了变量x的随机性13按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。信息的可度量性是建立信息论的基础14熵是香农信息论最基本最重要的
3、概念。事物的不确定度是用时间统计发生概率的对数来描述的15离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍16一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为log2(b-a)。17具有一一对应关系的无噪信道的信道容量C=log2n。18、强对称信道的信道容量C=log2n-Hni。19、对称信道的信道容量C=log2m-Hmi。20、对于限峰值功率的N维连续信源,当概率密度均匀分布时连续信源熵具有最大值。21、对于限平均功率的一维连续信源,当概率密度高斯分布时,信源熵有最大值。22对于离散无记忆信道和信源的N次扩展,
4、其信道容量CN=NC23、对于二元序列0011100000011111001111000001111111,其相应的游程序列是23652457。24、L-D编码适合于冗余位较多或较少的情况。25n位重复码的编码效率是1/n26马尔可夫信源和一般记忆信源的区别:m阶马尔可夫信源和消息长度为m的有记忆信源,m阶马尔可夫信源的记忆长度虽为有限m,但符号间的依赖关系延伸到无穷,通常用状态转移概率(条件概率)来描述这种关系。可理解为马尔可夫信源以转移概率发出每个信源符号,所以平均每个符号提供的信息量应该为极限熵Hm+1,而对于长度为m的有记忆信源X,发
5、出的则是一组组符号序列,每m个符号构成一个符号序列组,代表一个消息。组与组之间相互统计独立的,因此符号之间的相互依赖关系仅限于每组之间的m个符号,一般用这个m个符号的联合概率来描述符号间依赖关系。1、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。3、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。11、一个随机事件发生某一结果后所
6、带来的信息量称为自信息量,定义为其发生概率对数的负值。12、自信息量的单位一般有比特、奈特和哈特15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与19、对于n元m阶马尔可夫信源,其状态空间共有nm个不同的状态。20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为log2(b-a)。27、若把掷骰子的结果作为一离散信源,则其信源熵为log26。28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是log218
7、(1+2log23)。38、多用户信道的信道容量用多维空间的一个区域的界限来表示。39、多用户信道可以分成几种最基本的类型:多址接入信道、广播信道和相关信源信道。40、广播信道是只有一个输入端和多个输出端的信道。41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为加性连续信道。73、按照不同的编码目的,编码可以分为三类:分别是信源编码、信道编码和安全编码。74、信源编码的目的是:提高通信的有效性。75、一般情况下,信源编码可以分为离散信源编码、连续信源编码和相关信源编码。
此文档下载收益归作者所有