通信原理第01章讲义.pdf

通信原理第01章讲义.pdf

ID:50220703

大小:41.52 KB

页数:5页

时间:2020-03-12

通信原理第01章讲义.pdf_第1页
通信原理第01章讲义.pdf_第2页
通信原理第01章讲义.pdf_第3页
通信原理第01章讲义.pdf_第4页
通信原理第01章讲义.pdf_第5页
资源描述:

《通信原理第01章讲义.pdf》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、第1章绪论本章大纲:常用通信术语通信系统的组成和分类,通信方式数字通信系统的主要特点离散信源的信息量,平均信息量(熵)码元速率,信息速率,频带利用率,误码率一、基本概念1.常用术语通信:克服距离上的障碍,交换和传递消息。消息:待于传输的文字,符号,数据和语音,活动图片等,分离散消息(指消息状态是可数的或离散的),连续消息(指消息状态连续变化)。信号:与消息相对应的电量或光量。数字信号(电信号的该参量离散取值)模拟信号(电信号的该参量连续取值)通信系统:传递信息所需的一切技术设备的总和。按照信道中传输的是模拟信号还是数字信号,相应地把通信系

2、统分为模拟通信系统和数字通信系统。2.通信系统的组成(1)一般模型如图1-1所示。图1-1通信系统的一般模型阐述各部分的功能。(2)数字通信系统的模型如图1-2所示。图1-2数字通信系统模型数字通信的主要特点z抗干扰能力强,可消除噪声积累z差错可控,传输性能好z便于与各种数字终端接口,用现代计算技术对信号进行处理、加工、变换、存储,形成智能网z便于集成化,从而使通信设备微型化z便于加密处理,且保密强度高z占据更宽的系统频带(缺点)3.通信系统的分类按传输媒介分类:通信系统可分为有线(包括光纤)和无线通信两大类。按传输信号的特征分类:按照信

3、道中所传输的是模拟信号还是数字信号,可以相应地把通信系统分成两类,即模拟通信系统和数字通信系统。按调制方式分类:祥见表1-1。按传输信号的复用方式分类:如频分复用、时分复用、码分复用。等等4.通信方式按消息传递的方向与时间关系,通信方式可分为单工、半双工及全双工通信三种。单工通信,是指消息只能单方向传输的工作方式,如遥测、遥控就是单工通信方式。半双工通信,是指通信双方都能收发消息,但不能同时进行收发的工作方式,例如,使用同一载频工作的无线电对讲机,就是按这种通信方式工作的。全双工通信,是指通信双方可同时进行收发消息的工作方式,例如,普通电

4、话就是一种最常见的全双工通信方式。二、信息及其度量通信的目的在于传递信息,消息以具体信号形式表现出来,而信息则是抽象的、本质的内容。只有消息中不确定的内容才构成信息,所以信息就是对这种不确定性的定量描述。1.离散消息的信息量直观经验告诉我们:消息出现的可能性(概率)越小,则消息中包含的信息量就越大;当消息出现的概率为1时,则它传递的信息量为0;若干独立消息之和的信息量是每个消息所含信息量的线性叠加,即信息具有相加性。综上所述,某离散消息x所携带的信息量1I=log=−logp(x)ap(x)1I=log=−logp(x)(1−1)aap(

5、x)式中,P(x)为该消息发生的概率。当对数底a取2时,信息量的单位为比特(bit);当a取e时,信息量的单位为奈特(nit)。目前广泛使用的单位为bit。例1已知二进制离散信源(0,1),每一符号波形等概独立发送,求传送二进制波形之一的信息量。解由于每一波形出现的概率为P=1/2,故其信息量1I=log=log2=1(bit)22p(x)可见:发送等概的二进制波形之一的信息量为1bit。例2已知四进制离散信源(0,1,2,3),独立等概发送,求传送每一波形的信息量。解由于每一波形出现的概率为P=1/4,故其信息量1I=log=log4=

6、2(bit)22p可见:四进制的每一波形所含的信息量,恰好是二进制每一波形包含信息量的2倍。这是由于每一个四进制波形需要用2个二进制波形表示。K推广:M)(M=2进制的每一波形所含的信息量,恰好是二进制每一波形包含信息量的K倍。例3已知二进制离散信源(0,1),若“0”出现概率为1/3,求出现“1”的信息量。解由于全概率为1,因此出现“1”的概率为2/3,故其信息量3I=log=0.585(bit)22以上是单一符号出现时的信息量。对于由一串符号构成的消息,则可根据信息相加性概念计算整个消息的信息量,但当消息很长时,则可用平均信息量的概念

7、来计算。2.离散信源的平均信息量所谓平均信息量是指信源中每个符号所含信息量的统计平均值。统计独立的M个符号的离散信息源的平均信息量MH=−∑p(xi)log2p(xi)(bit/符号)(1−2)i=1由于H同热力学中的熵形式一样,故通常又称它为信息源的熵,其单位为bit/符号。可以证明,信息源的最大熵,发生在信源中每个符号等概独立出现时,此时最大熵M11H=−∑log2=log2M(bit/符号)(1−3)i=1MM例4某离散信源由0,1,2,3四个符号组成,它们出现的概率分别为3/8,1/4,1/4,1/8,且每个符号的出现都是独立的。

8、求消息201020130213001203210100321010023102002010312032100120210的信息量。解用信息相加性概念来计算,此消息中,0出现23次,1出现14次

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。