第八章图象压缩

第八章图象压缩

ID:19647926

大小:213.00 KB

页数:34页

时间:2018-10-04

第八章图象压缩_第1页
第八章图象压缩_第2页
第八章图象压缩_第3页
第八章图象压缩_第4页
第八章图象压缩_第5页
资源描述:

《第八章图象压缩》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、第八章图象数据压缩8.1概述1、图象数据压缩是为了检索、存储、传输的需要图象经常用到搜索(查找分区、判别边界都要搜索)如何搜索算法。为了提高搜索速度涉及两个问题:存贮分式及存贮结构(图象的数据结构)。存贮方式有两大类:一类为文件管理系统下数据结构,即作为标准的数据文件;另一类为在系统的外部卷,即作为系统驱动程序下直接读写,其卷结构由设计者自己规定,这种结构的优点:1、空间节省(可更充分利用存贮介质);2、读写速度快。2.图象一大特点是数据量大,给存贮、传输带来困难,需压缩例:电话线传输速率一般为56Kbits/s(波特率)一幅彩色图像512×512×24bit=6Mbits大小。传一幅图

2、象需2分钟左右。实时传送更难:512×512×24bits×25帧/秒=150Mbits/S如压缩20倍,传一幅图6秒左右,可以接受,实用。实时,要专用信道(卫星、微波网、专线网等技术);另外,大量资料需存贮遥感、故宫、医学CT、MR,需要压缩。图像数据可压缩性分析:从统计观点出发,简单直观地讲,就是某一象素的灰度值,总是和周围其他象素灰度值有某种关系,应用某种编码方法提取并减少这些相关特性,便可实现图象信息的数据压缩。图象数据压缩的目的可以是节省图象存贮器容量,也可以是减少传输信道容量,还可以是为了缩短图象加工处理的时间。编码例子:8个灰级,总计64*64=4096像素的图像DAnkP

3、r(rk)编码1长度编码2长度07900.1900031121/710230.2500130122/78500.2101031023/76560.16011300134/73290.081003000145/72450.0610130000156/71220.03110300000167/7810.0211130000006编码1平均码长:3bits;编码2平均码长:2.7bits(1)压缩方法:按时间分:静图:静止图象(要求质量高)动图:活动的序列图象(相对质量要求低,压缩倍数要高)压缩比=未压缩的图象的存贮字节数/压缩后图象存贮字节数按失真与否分:无失真压缩:经压缩后再恢复图象与原图

4、象无任何区别,一般压缩倍数<2有限失真压缩:单帧(静)4~20倍。图象序列(x、y、t)50~200倍(2)压缩失真度衡量标准:a.客观:输出与输入之差:e(x,y)=g(x,y)-f(x,y)整图差:均方差:量纲:灰度级。也可将输出与输入之差看作噪声,此时:输出图象均方信噪比定义为:g2(x,y)/e2(x,y)常用:峰值信噪比一般σ<2,或PSNR≥40dB人眼看不出来<30dB的图象不能用~35dB可接受[到目前为上,很难找出一个通用的评价图象压缩的客观标准,仍然是很好的研究课题]b.主观(人判别)--专家投票的方法,实用。人的视觉的主观亮度是光强的对数函数。人眼对黑暗区误差比

5、明亮区更敏感。人眼对灰度突变边缘比较敏感。(3)图象压缩的技术指标:a.保真度--与用途有关,例如侦察与体育比赛关心内容不同b.压缩比:原图象数据量/压缩后数据量或0.3bit/pixelc.误码扩散程度d.实时性--与压缩算法、系统速度有关e.保密性--传输中防止被盗,SPOT是数据需解码(高明压缩方法,压缩后仍是一幅图)数字水印技术(信息安全)--watermarking8.2四叉树(金字塔pyramid或Quadtree)适用于N=2n图象四叉树:0层1层2层……n层象素数:4041424n四叉树全部保留,总数据量为:全分辨率图:4n点数,数据量增加1/3,对搜索有好处,找到有关

6、兴趣区域后再提取感应趣的下一层图象。8.3信息有关的基本概念1.信息的度量:7月份天气报:“明天下雨”,信息量小10月份天气报:“明天下雪”--小概率事件发生,信息量大即:概率低--信息量大概率高--信息量小怎么定量?戈壁滩一年下雨概率1/128,睛概率127/128。对天气预报的信息量多少?引入-log2p代表信息量如:-log21/128=7有雨-log2127/128≈0晴信息具有可加性:一个9×9方阵,一个士兵在某一位置的概率1/81,信息=-log21/81=6.34在特定行上的概率1/9:信息=-log21/9=3.17在特定列上的概率1/9:信息=-log21/9=3.17

7、行、列信息量和:3.17+3.17=6.34引入一个信息度量I(P)特点:0p<1信息量I(P)连续变化P=0,I(P)=P=1,I(P)=0P1>P2,I(P2)>I(P1)I(p•q)=I(p)+I(q)I(P)=-logbp—一般b=22.信息熵(Entropy)预期能得到的平均信息量,I(Pi)的数学期望值。对于M个灰阶:Pii=1,2,….,M例1,当Pi=1/4,i=1,2,3,4H=2当P1=1/2,P2

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。