欢迎来到天天文库
浏览记录
ID:52554479
大小:4.76 MB
页数:82页
时间:2020-04-10
《信息处理技术基础.ppt》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、1第2章:信息处理技术基础卢燕飞课程:《多媒体信息处理和传输技术》2信息压缩编码的基本过程数字化:把媒体信息变化为数字的方式采样和量化编码:以编码的方式来变现数字化的内容编码的基本理论:香农理论编码的主要方法分类无损编码:熵编码有损编码:熵压缩编码3第一节:数字化:采样和量化采样和量化是一个信源数字化的过程;用空间或时间函数表示的物理量;电信号;数字量——bit;数字化的过程:采样:时间(空间)的离散化;量化:信号幅度的离散化;编码:以最佳的方式保存量化值,变为码字;41.1采样对模拟信号在时间或空间上进行离散化一个模拟信号的一般表示:S=
2、f(t),S=f(x,y,z),S=f(x,y,z,t)对于f(t),以时间间隔Ts采样,采样值为f(nTs);其中:Ts称为采样周期,fs=1/Ts为采样频率;采样定理:如果对某一模拟信号进行采样,则采样后可还原的最高信号频率分量只有采样频率的一半,或者说只要采样频率高于输入信号最高频率的两倍,就能从采样信号系列重构原始信号。fs>=2f或者Ts=3、量)量化71.标量量化标量量化:对单个样本或单个参数的幅值进行量化(1)均匀量化(线性量化)等间隔对采样值进行量化;过载:输入超过最大值或最小值;颗粒噪声:输入值在范围之内,量化误差在量化间隔的一半以内;8(2)非均匀量化针对均匀量化的局限性量化误差的绝对值较平稳,相对值差异较大;不同样本概率分布采用相同的策略;非均匀量化的策略小样本值,量化步长小,大样本值,量化步长大;PCM编码中的A律和μ律;小概率值,量化精度低,大概率值,量化精度高;9图像像素量化的一个例子10使得量化器达到最佳效果压缩效果:尽量好失真效果:尽量小实现方法:客观准则:4、最小均方误差量化器主观准则:对人感觉敏感的数据提高量化精度;对人感觉不敏感的数据降低量化精度;一个概念:最佳量化二者相互矛盾112.矢量量化定义:对样本值进行数据分组,每组K个数,构成一个K维矢量,然后以矢量为单元,逐个矢量进行量化,称为矢量量化VQ矢量量化的基本过程K0i模式0模式I模式k数据流矢量0数据流矢量1数据流矢量n原始数据流码本量化后的数据12码本码本搜索(发送端)查表(接收端)传送向量在码表中最佳匹配的索引矢量量化的编解码框图输出矢量输入矢量码本的确定和匹配原则的确定是矢量量化的难点;13利用矢量量化进行编码14利用矢量量化进5、行编码15第2节:压缩编码的基本理论压缩编码的理论基础是——信息论。从信息论的角度看,压缩就是:去掉信息中的冗余,即保留不确定的信息,去除确定的信息(可推知的);也就是用一种更接近信息本质的描述来代替原有冗余的描述。这个本质的东西就是信息量(即不确定因素)。16信息量的计算例如要从256个数中选定某一个数可以先提问“是否大于128?’,不论回答是与否,则半数的可能事件被取消。如果继续询问下去,每次询问将对应一个1bit的信息量。随着每次询问,都将有半数的可能事件被取消,这个过程由下列公式表示:log2256=8bit从公式看出,对于256个6、数的询问只要进行8次,即可确定一个具体的数。设从N个数中选定任意一个数x的概率为产p(x).假定选定任意一个数的概率都相等,即p(x)=1/N,则信息量为:17举个例子,对下面这条只出现了abc三个字符的字符串:aabbaccbaa,字符串长度为10,字符a,b,c分别出现了5,3,2次,则abc在信息中出现的概率分别为0.5,0.3,0.2,他们的熵分别为:Ea=-log2(0.5)=1Eb=-log2(0.3)=1.737Ec=-log2(0.2)=2.322整条信息的熵也即表达整个字符串需要的位数为:E=Ea*5+Eb*3+Ec*2=7、14.855位如果按照常规处理,需要多少位(bit)?18第二节:无损编码对于多媒体数据压缩编码的方法根据其解码后信息量有无损失,分为:有损编码无损编码也叫冗余压缩或熵编码,目的是去除数据中的冗余(相关性);压缩前的数据==解码后的数据主要用于文本和数据压缩;19有损编码和无损压缩202.1无损编码的基础根据信息论的原理可以找到的最佳数据压缩编码方法;数据压缩的理论极限是信息熵;信息与熵信息是用不确定性的度量来定义;熵就是这种度量信息熵编码原理Shannon理论认为,无失真编码的极限就是信源中包含的熵;如何理解?熵编码的方法Huffman、8、游程编码、算术编码等;212.2变长编码1、什么是变长编码定长码(fixed-lengthcode):采用相同的位数(bit)对数据进行编码。大多数存储数字信息的编码系统都采用定
3、量)量化71.标量量化标量量化:对单个样本或单个参数的幅值进行量化(1)均匀量化(线性量化)等间隔对采样值进行量化;过载:输入超过最大值或最小值;颗粒噪声:输入值在范围之内,量化误差在量化间隔的一半以内;8(2)非均匀量化针对均匀量化的局限性量化误差的绝对值较平稳,相对值差异较大;不同样本概率分布采用相同的策略;非均匀量化的策略小样本值,量化步长小,大样本值,量化步长大;PCM编码中的A律和μ律;小概率值,量化精度低,大概率值,量化精度高;9图像像素量化的一个例子10使得量化器达到最佳效果压缩效果:尽量好失真效果:尽量小实现方法:客观准则:
4、最小均方误差量化器主观准则:对人感觉敏感的数据提高量化精度;对人感觉不敏感的数据降低量化精度;一个概念:最佳量化二者相互矛盾112.矢量量化定义:对样本值进行数据分组,每组K个数,构成一个K维矢量,然后以矢量为单元,逐个矢量进行量化,称为矢量量化VQ矢量量化的基本过程K0i模式0模式I模式k数据流矢量0数据流矢量1数据流矢量n原始数据流码本量化后的数据12码本码本搜索(发送端)查表(接收端)传送向量在码表中最佳匹配的索引矢量量化的编解码框图输出矢量输入矢量码本的确定和匹配原则的确定是矢量量化的难点;13利用矢量量化进行编码14利用矢量量化进
5、行编码15第2节:压缩编码的基本理论压缩编码的理论基础是——信息论。从信息论的角度看,压缩就是:去掉信息中的冗余,即保留不确定的信息,去除确定的信息(可推知的);也就是用一种更接近信息本质的描述来代替原有冗余的描述。这个本质的东西就是信息量(即不确定因素)。16信息量的计算例如要从256个数中选定某一个数可以先提问“是否大于128?’,不论回答是与否,则半数的可能事件被取消。如果继续询问下去,每次询问将对应一个1bit的信息量。随着每次询问,都将有半数的可能事件被取消,这个过程由下列公式表示:log2256=8bit从公式看出,对于256个
6、数的询问只要进行8次,即可确定一个具体的数。设从N个数中选定任意一个数x的概率为产p(x).假定选定任意一个数的概率都相等,即p(x)=1/N,则信息量为:17举个例子,对下面这条只出现了abc三个字符的字符串:aabbaccbaa,字符串长度为10,字符a,b,c分别出现了5,3,2次,则abc在信息中出现的概率分别为0.5,0.3,0.2,他们的熵分别为:Ea=-log2(0.5)=1Eb=-log2(0.3)=1.737Ec=-log2(0.2)=2.322整条信息的熵也即表达整个字符串需要的位数为:E=Ea*5+Eb*3+Ec*2=
7、14.855位如果按照常规处理,需要多少位(bit)?18第二节:无损编码对于多媒体数据压缩编码的方法根据其解码后信息量有无损失,分为:有损编码无损编码也叫冗余压缩或熵编码,目的是去除数据中的冗余(相关性);压缩前的数据==解码后的数据主要用于文本和数据压缩;19有损编码和无损压缩202.1无损编码的基础根据信息论的原理可以找到的最佳数据压缩编码方法;数据压缩的理论极限是信息熵;信息与熵信息是用不确定性的度量来定义;熵就是这种度量信息熵编码原理Shannon理论认为,无失真编码的极限就是信源中包含的熵;如何理解?熵编码的方法Huffman、
8、游程编码、算术编码等;212.2变长编码1、什么是变长编码定长码(fixed-lengthcode):采用相同的位数(bit)对数据进行编码。大多数存储数字信息的编码系统都采用定
此文档下载收益归作者所有