欢迎来到天天文库
浏览记录
ID:25170710
大小:83.55 KB
页数:15页
时间:2018-11-18
《JPEGLS(LOCOI)图像编码算法分析和研究.docx》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、JPEG-LS(LOCO-I)图像编码算法分析和研究 (2011-12-1620:00:48)转载▼标签: jpeg-ls分类: 图像视频类JPEG-LS图像编码算法分析和研究 摘要 JPEG-LS是在ISO/ITU的新标准中用于对静态连续色调图像进行无损或进无损压缩的一种算法。该算法具有实现复杂度低,保真度高等特点,因而广泛应用于数字相机、网络传输、无线通讯以及医学成像等领域。本文就JPEG-LS的核心算法LOCO-I以及其编码流程进行详细的分析和研究。 1.简介 无损压缩就是指经过压缩并重建后的图像和原图像完全一样,没有任何损失。
2、如果重建图像和原图像存在差距,而误差被限制在一定的范围内就称作近无损压缩。近无损压缩虽然有所损失,但对视觉影像却很小,也可以认为是无损的。有很多无损或近无损的图像压缩算法,例如传统的JPEG无损模式、FELICS、CALIC等等。首先,我们来大概了解一下其中一些有名的算法。JPEG无损模式:它是JPEG标准中用于无损压缩的一种独立模式,它使用基于空间域的非量化的DPCM预测编码(差分脉冲编码),然后对预测误差进行Huffman编码。因此,用这种方式压缩的图像经重构以后和原图像完全一样的。它仅使用周围的几个像素对当前像素进行预测,预测公
3、式如下: 对于a1、a、a3、a4这四个系数,可以从预测表中选择,该表提供了8中不同的系数的线性组合。显然,这种方法的好处是简单,但其缺点是很难到达较高的压缩比。FELICS(Fast,Efficient,LosslessImagecompression):FELICS是一种和JPEG无损模式的压缩比相当的压缩算法,但是其速度却是JPEG无损模式的将近5倍。这种算法巧妙的运用的当前像素的两个相邻像素进行预测和误差建模。它使用单比特,修正的二进制码,以及Golomb-Rice编码。该编码系统在保持较低的压缩比损失的情况下,大大提高了编码
4、速度。FELICS使用了光栅扫描顺序,并使用当前像素最邻近的两个像素来直接获取一个近似的误差概率分布,有效的结合了预测和残差建模的相关步骤。在编码时,它会再一个误差模型集合中选择最适合的一个,最终用该模型对应的前缀码来完成编码。CALIC(Context-basedAdaptiveLossless/Nearly-LosslessCoding):它是一个用于连续色调静态图像的基于上下文的只适应的无损/近无损预测编码体系。他使用当前像素行的前两行像素作为上下文模板,并使用一个巧妙的非线性上下文预测器。CALIC有连续色调模式和二进制模式两
5、种。正常情况下使用连续色调模式,对像素进行预测和误差建模然后使用自适应的算术编码;而当进入大片的色调变化很平坦的区域时则进入二进制模式,即对当前平坦区域中的两种较单调的色调信息进行编码。高效的上下文建模和量化技术使得CALIC同时有着较低的时间、空间复杂度。目前为止,CALIC编码的平均比特最少。 2.JPEG-LS JPEG-LS是一种新的针对连续色调静态图像的无损/进无损的压缩标准,ISO-14495-1/ITU-T.87。他的核心算法是LOCO-I(LOwComplexityLosslessCompressionforImage
6、s)。它是一种新颖的压缩算法,它结合了Huffman编码的简单地复杂度和上下文建模的压缩潜力,因此被描述为“enjoyingthebestofbothworlds”。LOCO-I算法可以获得和目前的诸多基于算术编码的压缩算法相似甚至更好的压缩效率,同时又能保持较低的复杂度。它的整体编码框图如图1所示。图1:JPEG-LS编码框图无损图像压缩通常由两个独立的部分组成:建模和编码。建模部分可以归结为一个归纳推导过程,在这个过程中,按照事先规定的某种顺序(例如光栅扫描顺序)观察每一个像素。在扫描过前i个像素xi=x1x2…xi之后,我们希望
7、指定一个条件概率分布p(·
8、xi)来推断下一个像素xi的值。在理想情况下,xi+1的平均编码长度为-logp(xi+1
9、xi)bits,其中对数的基为2。因此,我们期望得到一个非均匀的概率分布,使得下一个像素有一个坑能性较大的值。在顺序模式,概率分布p(·
10、xi)从过去像素学习而得,由于在解码端同样按顺序解码出以前的像素,所以同样可以得到这个概率分布。而在双行程方法中,条件概率分布经过第一次扫描从整个图像学习而得,而第二次扫描才开始真正的编码,同时这个概率分布模型必须以头信息的格式被传送到解码端。因而在这种模式下,总的编码长度包括信息
11、头的长度。理论上,我们可以通过大规模的条件区域或“上下文”来获得更加歪斜或不均匀的概率分布,但是这无疑会增加统计模型的参数数量,从而导致建模代价抵消了部分编码效率,形成“上下文稀释”效应。不管在顺序模式还是双行程方法中,
此文档下载收益归作者所有