资源描述:
《鲁棒性主成份分析综述 - 中国图象图形学报.doc》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、中图法分类号:TP391.4文献标识码:A文章编号:1006-8961论文引用格式:CaiN,ZhouY.Asurvey:robustprincipalcomponentanalysismethodsformovingobjectdetection[J].JournalofImageandGraphics.[蔡念,周杨,刘根1,杨志景1,凌永权.基于鲁棒主成分分析的运动目标检测研究进展[J]•中国图像图形学报]鲁棒主成分分析的运动目标检测综述蔡念,周杨,刘根,杨志景,凌永权广东工业大学信息工程学院,广州510006摘要:目的运动目标检测在许多
2、计算机视觉任务屮发挥了重要的作用。背景建模是运动目标检测中传统而又常用的方法。然而,许多背景建模方法是基于像素点的,对背景方面的考虑过于简单,难于处理真实视频。最近,将基于低秩和稀疏分解的鲁棒主成分分析应用于运动目标检测成为计算机视觉领域内的研究热点。为使更多国内外运动目标检测的研究者对鲁棒主成分分析方法进行探索和应用,本文对其进行系统综述。方法融入最新研究进展,基于误差抑制、贝叶斯理论、时间和空间信息、多特征和多因素耦合,对各种国内外的鲁棒主成分分析模型进行归纳,并理论分析其优缺点。结果本文采用变化检测数据集(changedetection
3、dataset)中不同场景的视频序列來对不同算法进行对比实验。从实验结果可知,属T第3类方法的DECOLOR的检测效果优于其他算法,在均值对比中得到的召回率、精确率和F-measure分别为0.7、0.706和0.66。总体来说,当前改进算法都能有效地弥补最初鲁棒主成分分析方法的缺陷,捉高了运动目标检测的精度。结论鲁棒主成分分析在运动目标检测上取得了较多的研究与应用成果,在智能视频监控应用领域拥有广阔的应用前景。但是,其仍需针对鲁棒主成分分析存在的••些局限性进行深入的研究。融入前景运动目标在视频中的先验知识是基于鲁棒主成分分析的运动目标检测
4、的发展趋势。关键词:目标检测:计算机视觉:背铢建模:鲁棒主成分分析:综述Surveyofrobustprincipalcomponentanalysismethodsformoving-objectdetectionCaiNian,ZhouYang,LiuGen,YangZhijing,LinYongquanSchoolofInformationEngineering,GuangdongUniversityofTechnology,Guangzhou510006,ChinaAbstract:Objective:Moving・objcctdct
5、cctionisimportantinmanycomputervisiontasks・Backgroundmodelingisatraditionalandusualmethodformoving-objectdetection.However,mostofthesemethodsarcpixel-based,whichonlymakeoverlysimpleconsiderationsonbackgroundandencounterdifficultyinhandlingrealvideos・Recently,robustprincipal
6、componentanalysis(RPCA),whichisbasedonlowrankandsparsedecomposition,hasbeenstudiedinthefieldofmoving-objectdetectionbyagrowingnumberofresearchers.ToenablemoreresearcherstohaveacomprehensiveunderstandingofRPCAandtoemployRPCAinmoving-objectdetection,thissurveyconductsathoroug
7、hreviewofmoving-objcctdctcctionalgorithmsbasedonRPCA.Method:Inrcccntyears,RPCAhasreceivedsubstantialattentionfromresearchersincomputervisionbecauseofitsexcellentadvantagesofcapturingslightvariationsinbackgroundappearancevialow-rankmatrix.Untiltoday,manyimprovedalgorithmsand
8、applicationsbasedonRPCAhaveemergedinthecomputervisionfield.Inthispaper,recentstudi