资源描述:
《图象数据压缩编码》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、第六章图象数据压缩编码图像压缩基础无损压缩有损压缩静止图像压缩编码的技术标准JPEG基本内容数字图象通常有很大的比特数,这给图象的传输和存储带来相当大的困难。数据的压缩是必不可少的。图象压缩的必要性thetotalbytenumberis:460×520×3=700kB一部90分钟的彩色电影,每秒放映24帧。把它数字化,每帧512×512象素,每象素的R、G、B三分量分别占1byte,总比特数为90×60×24×3×512×512=101922MB若用一张可存600兆字节数据的CD光盘存储这部电影,光图象(还有声音)就需要170张CD光盘。图象压缩的必要性
2、对图象数据进行压缩显得非常必要本章讨论的问题:在满足一定条件下,能否减小图象比特数,以及用什么样的编码方法使之减少。图象压缩的必要性图象压缩是可能的一般原始图象中存在很大的冗余度用户通常允许图象失真当信道的分辨率不及原始图象的分辨率时,降低输入的原始图象的分辨率对输出图象分辨率影响不大。用户所关心的图像区域有限,可对其余部分图像采用空间和灰级上的粗化。根据人的视觉特性对不敏感区进行降分辨率编码(视觉冗余)。图象压缩是可能的原始图象越有规则,各象素之间的相关性越强,它可能压缩的数据就越多。值得指出的是:当前采用的编码方法得到的结果,离可能压缩的极限还相差很远
3、,这说明图象数据压缩的潜力是很大的,直到目前为止,它还是个正在继续研究的领域。图象压缩是可能的6.1图像压缩基础图像压缩所解决的问题是尽量减少表示数字图像时需要的数据量。减少数据量的基本原理是除去其中多余的数据。以数学的观点看,这一过程实际上就是将二维像素阵列变换为一个在统计上无关联的数据集合。图像熵图像像素灰度级集合为{d1,d2,…,dm},对应概率为p(d1),p(d2),…,p(dm),则图像熵定义为H表示对输入灰度级集合进行编码时所需要的平均位数的下限。di出现的概率相等时,熵最大。图像编码压缩名词术语平均码长l为灰度级rk所对应的码字长度。编码
4、效率图像熵与平均码长之比香农无干扰编码定理在无干扰条件下,存在一种无失真的编码方法,使编码的平均码长和信源的熵任意接近。压缩比Ls为源代码长度,Ld为压缩后代码长度保真度标准保真度标准——评价压缩算法的标准(1)客观保真度标准(2)主观保真度标准a)输入图和输出图之间的均方根(rms)误差b)输入图和输出图的均方根信噪比(1)客观保真度标准(2)主观保真度标准通过视觉比较两个图像,给出一个定性的评价,如很粗、粗、稍粗、相同、稍好、较好、很好,这种评价被称为主观保真度标准。冗余在数字图像压缩中的三种基本的数据冗余:编码冗余像素间冗余心理视觉冗余编码冗余通过图
5、像灰度级直方图可以深入了解编码结构,从而减少表达图像所需的数据量。例:由于任何给定的像素值,原理上都可以通过它的邻居预测到,所以单个像素携带的信息相对是小的。为减少图像中的像素间冗余,二维像素阵列必须变换为更有效的形式。像素间冗余空间冗余几何冗余帧间冗余例:原图像数据:234223231238235压缩后数据:23411-8-73心理视觉冗余在正常的视觉处理过程中各种信息的相对重要程度不同,那些不重要的信息称做心理视觉冗余无损压缩与有损压缩无损压缩基于统计模型,减少源数据流中的冗余,同时保持信息不变。又称为冗余压缩。典型代表有Huffman编码,算术编码、
6、游程长度编码等。有损压缩以牺牲部分信息量为代价而换取缩短平均码长的编码压缩方法。在压缩中丢失了部分信息,又称为熵压缩。典型代表有离散余弦变换编码、有损预测编码等。一般地,有损压缩的压缩效率高于无损压缩。实验二图像增强下周二做,地点不变(交邮政编码分割程序)No.136.2无损压缩在很多应用中,如医疗和商业文档的归档、卫星成像的处理、数字X光照相术,无损压缩时唯一可以接受的数据压缩方式。无损压缩常由两种彼此独立的操作组成:(1)为减少像素间冗余建立一种可替代的图像表达方式;(2)对这种表达方式进行编码以便消除编码冗余。一、基本原理通过减少编码冗余来达到压缩的
7、目的。将在图像中出现次数多的像素值给一个短的编码,将出现次数少的像数值给一个长的编码。二、霍夫曼编码是即时码:是唯一可译码,其中任意一个码字都只能与一种信号存在对应关系,而且任意一个码字都不能是其他码字的前缀。6.2.1霍夫曼编码(属于统计编码)信号源a={a1,a2,a3,a4,a5,a6},其概率分布为p1=0.1p2=0.4p3=0.06p4=0.1p5=0.04p6=0.3,求最佳Huffman码。方法:将信源符号按出现概率从大到小排成一列,然后把最末两个符号的概率相加,合成一个概率。二、Huffman编码举例Huffman编码方法:把这个符号的概
8、率与其余符号的概率按从大到小排列,然后再把最末两个符号的概率加起来