资源描述:
《面向电影二转三的评测数据集与深度恢复质量评测标准》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、面向电影二转三的评测数据集与深度恢复质量评测标准1)1)*1)2)2)3)3)蒋沁宏,章国锋,陶煜波,姜翰青,董子龙,王慧燕,王勋,鲍虎军1)1)(浙江大学计算机辅助设计与图形学国家重点实验室杭州310058)2)(杭州道玄影视科技有限公司杭州312215)3)(浙江工商大学杭州310012)zhangguofeng@cad.zju.edu.cn摘要:电影二转三过程中的一个关键步骤是深度或三维信息的恢复.然而目前在电影数据深度恢复评测方面尚不存在统一的评价标准,同时也没有专门针对电影二转三的评测数据集可供不同方法进行定量测试,这严重
2、阻碍了相关研究的发展.传统的深度评测标准关注恢复的深度值的绝对误差,而在电影二转三中我们更多地是关注场景中物体的相对深度以及边缘的准确性;同时现有的深度数据集往往都是利用深度摄像头直接拍摄,场景大多静止,而电影数据中往往存在大量动态物体.本文旨在为电影二转三中深度信息恢复的研究提供一套完整的评价标准和评测数据集.我们从数部电影中挑选出共600余帧数据,利用人工手动建模的方式为每一帧标定出相对深度信息,同时我们还为大多数图像数据提供了前背景的分割掩模,使得可以将场景准确地分割为前后景;进一步我们针对电影二转三深度要求的特殊性提出了一套
3、评价标准,并对现有的深度恢复方法在数据集上进行了效果评测;最后我们提出了一套针对电影数据集的深度恢复方法.通过数据集的构建,我们为电影二转三中的深度恢复提供了一个测试数据集,并提供了符合电影深度恢复需求的评价标准,使得不同的研究方法能够进行定量的比较,从而促进相关研究工作的发展.关键词:深度恢复;电影二转三;评测标准DepthRecoveryBenchmarkfor2Dto3DConversionofMovies1)1)*1)2)2)3)QianhongJiang,GuofengZhang,YuboTao,HanqingJiang,
4、ZilongDong,HuiyanWang,3)1)XunWangandHujunBao1)(StateKeyLabofCAD&CG,ZhejiangUniversity,Hangzhou310058)2)(HangzhouTaovisionFilmTech.Co.Ltd,Hangzhou312215)3)(ZhejiangGongshangUniversity,Hangzhou310012)Abstract:Akeystepintheprocessofconverting2Dfilmto3Disthedepthor3Dinform
5、ationrecovery.However,currently,therearenouniformevaluationfordepthrecoveryofmoviedata,andnoappropriatedatasetsforquantitativeevaluationofmoviedepthrecoveryquality,whichrestrictsthedevelopmentof2Dto3Dconversionofmovies.Traditionaldepthevaluationmethodsfocusontheabsolut
6、eerroroftherecovereddepth.However,for2Dto3Dconversionofmovies,wearemoreconcernedabouttheaccuracyofrelativedepthandedgeboundaries.Meanwhileexistingdepthdatasetsoftenusedepthcameratodirectlycapturedata,wherethescenesaremostlystatic.Incontrast,thefilmdatagenerallycontaina
7、largenumberofdynamicobjects.Inthispaper,weaimtoprovideacompletebenchmarkwhichcontainsanevaluationcriterionandadatasetforquantitativeevaluationoffilmdepthrecovery.Weselectabout600framesfromseveralmoviesanduseamanualmodelingmethodtorecoverthedepthforeachframe.Wealsoprovi
8、demasksformostoftheframes,whichcanbeusedtoaccuratelyseparatetheframesceneintoforegroundandbackground.Furthermore,wepr