基于视差的恰可察觉误差模型的立体视频编码研究.pdf

基于视差的恰可察觉误差模型的立体视频编码研究.pdf

ID:51896348

大小:7.61 MB

页数:87页

时间:2020-03-18

基于视差的恰可察觉误差模型的立体视频编码研究.pdf_第1页
基于视差的恰可察觉误差模型的立体视频编码研究.pdf_第2页
基于视差的恰可察觉误差模型的立体视频编码研究.pdf_第3页
基于视差的恰可察觉误差模型的立体视频编码研究.pdf_第4页
基于视差的恰可察觉误差模型的立体视频编码研究.pdf_第5页
资源描述:

《基于视差的恰可察觉误差模型的立体视频编码研究.pdf》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、基于视差的恰可察觉误差模型的立体视频编码研究作者姓名薛飞导师姓名、职称郑喆坤教授一级学科控制科学与工程二级学科模式识别与智能系统申请学位类别工学硕士提交毕业论文日期2014年11月学校代码10701学号1202121228分类TN82号TP37密级公开西安电子科技大学硕士学位论文基于视差的恰可察觉误差模型的立体视频编码研究作者姓名:薛飞一级学科:控制科学与工程二级学科:模式识别与智能系统学位类别:工学硕士指导教师姓名、职称:郑喆坤教授提交日期:2014年11月AStudyonPerceptualStereoscopicVideoCodingbasedonDispa

2、rity-basedJust-Noticeable-DistortionModelsAthesissubmittedtoXIDIANUNIVERSITYinpartialfulfillmentoftherequirementsforthedegreeofMasterinControlScienceandEngineeringByXuefeiSupervisor:CheolkonJungNovember2014西安电子科技大学学位论文独创性(或创新性)声明秉承学校严谨的学风和优良的科学道德,本人声明所呈交的论文是我个人在导师指导下进行的研究工作及取得的研究成果。尽我

3、所知,除了文中特别加以标注和致谢中所罗列的内容以外,论文中不包含其他人已经发表或撰写过的研究成果;也不包含为获得西安电子科技大学或其它教育机构的学位或证书而使用过的材料。与我一同工作的同志对本研究所做的任何贡献均已在论文中作了明确的说明并表示了谢意。学位论文若有不实之处,本人承担一切法律责任。本人签名:日期:西安电子科技大学关于论文使用授权的说明本人完全了解西安电子科技大学有关保留和使用学位论文的规定,即:研究生在校攻读学位期间论文工作的知识产权单位属于西安电子科技大学。学校有权保留送交论文的复印件,允许查阅、借阅论文;学校可以公布论文的全部或部分内容,允许采用影

4、印、缩印或其它复制手段保存论文。同时本人保证,获得学位后结合学位论文研究成果撰写的文章,署名单位为西安电子科技大学。保密的学位论文在年解密后适用本授权书。本人签名:导师签名:日期:日期:摘要摘要近年来,由于人们对逼真的视觉体验需求逐渐增强,3D电视技术的发展十分迅速。由不同视角的多台摄像机捕获同一个场景所产生的多视点视频,可以给用户带来更生动的视觉体验。然而,随着摄像机数量的增多,立体视频的存储空间和传输带宽会成倍的增加。因此,在视频处理领域如何进行有效的立体视频压缩尤为重要。由于通常情况下视频信号的最终接收者是人类视觉系统(HVS),所以由人类视觉感知因子和视频

5、编码的融合形成的感知立体视频编码受到了极大的关注。在本文中,通过对H.264和多视点视频编码(MVC)的深入研究,描述了多种恰可察觉误差模型(JND)的建模和估计算法,并且将此类模型应用于图像、视频编码,剖析了各自的优点和对应的缺点。通过视差与人类视觉敏感度的关系首先提出了一个改进的基于视差的恰可察觉误差模型的估计算法;其次,提出了一个基于人类色度感知的色度域JND模型;然后,考虑到深度注意模糊理论(DOF)与人类视觉的特性,优化了基于视差的JND模型;最后,将这些模型用于立体视频编码,不仅有效的压缩了码率并且改善了图片、视频的感知质量。本文深入讨论了JND模型的

6、算法改进以及与视频编码的结合,主要从以下几个方面开展了工作:1.提出了一个基于视差的JND模型。基于图像分割的立体匹配得到边缘更加准确的视差信息,利用视差和人类视觉敏感度改进了传统的时间和空间JND模型,并用于立体视频编码。实验结果证明,改善后的方法有效的减少了双目立体视频的视间冗余,并降低了码率。2.提出了一个基于人类色度感知的色度域JND模型。根据视锥细胞在视网膜上的分布,利用高斯分布来建模,并且应用到MVC编码中。实验结果显示,本方法在保证了色度感知质量的前提下成功的消除了色度冗余,节省了码率。3.通过深度模糊理论和JND的结合,提出了一个基于DOF的JND

7、模型。利用视差信息将前景和背景有效的分离,分别对不同区域使用不同的量化参数,并且对亮度JND模型加入了高斯滤波器实现DOF效应,有效的将需要模糊化的背景区域的码率分配给了需要提高质量的前景区域。实验结果表明,该方法大幅度的消除了背景区域的冗余,节省了码率,并且提高了前景区域的质量,改善了视觉舒适度。本论文得到中韩国际合作项目(2014DFG12780)和国家自然科学基金(No.61271298)的资助。I西安电子科技大学硕士学位论文关键词:立体视频编码,JND模型,视差估计,DOF,人类视觉系统论文类型:应用基础研究类IIABSTRACTABSTRACTInrec

8、entye

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。