翻译:Boosting Bottom-up and Top-down Visual Features for Saliency Estimation

翻译:Boosting Bottom-up and Top-down Visual Features for Saliency Estimation

ID:38526253

大小:985.00 KB

页数:15页

时间:2019-06-14

翻译:Boosting Bottom-up and Top-down Visual Features for Saliency Estimation_第1页
翻译:Boosting Bottom-up and Top-down Visual Features for Saliency Estimation_第2页
翻译:Boosting Bottom-up and Top-down Visual Features for Saliency Estimation_第3页
翻译:Boosting Bottom-up and Top-down Visual Features for Saliency Estimation_第4页
翻译:Boosting Bottom-up and Top-down Visual Features for Saliency Estimation_第5页
资源描述:

《翻译:Boosting Bottom-up and Top-down Visual Features for Saliency Estimation》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、BoostingBottom-upandTop-downVisualFeaturesforSaliencyEstimation提高自下而上和自上而下的视觉特征的显著性估计摘要自由观赏自然场景时,最好的视觉显著模型尽管有显著的最新进展,在预测眼睛注视与人类的表现仍然落后。多数模型是基于低层次的视觉特点,自顶向下的特点的重要性尚未得到充分探讨或建模。在这里,我们结合了低级别的功能,如方向,颜色,强度,以前最好的自下而上的模式,采用自顶向下的视觉认知功能(例如,脸,人类,汽车等)的显著图,使用回归、SVM和AdaBoost分类,从这些特

2、点里学习直接映射这些功能的的眼睛注视。通过广泛的试验三个基准眼球跟踪数据集,使用三种流行的评价分数,我们展示了:我们的Boosting模型优于27个最先进的模型,是迄今为止在注视预测最准确接近人体模型。此外,我们的模型成功地检测到的最显著的一个场景中的对象,没有如区域分割这样复杂的图像处理。1、简介视觉注意是一个认知过程,帮助人类和灵长类动物从一个场景迅速选择高度相关的信息。然后将这些信息处理更精细的高层次的视觉过程,如现场了解和识别物体。相关的概念是由两个因素决定。第一个,通常被称为自底向上的视觉显著,是一种独立任务的组成部分,

3、只有低级别和基于图像的离群和醒目的基础上。第二部分基于意志控制机制的基础上,确定地区生活的任务,如驾驶场景的重要性的。视觉注意力的过程中一直是许多心理学,神经科学,计算机视觉等研究的对象。相应地,一些计算模型已经在机器学习,计算机视觉和机器人领域引起关注。几个应用程序也已经被提出,并进一步提出了在这一领域的兴趣,包括:图像拇指钉[7],自动创建拼贴[5],视网膜中央凹的图像/视频压缩[6][9],非真实渲染[8],广告设计[10]。自下而上的显著性的模型经常被评估,在自由观看任务中,预测人的注视。今天,许多显著性模型基于各种各样令

4、人信服的技术,仍然每年都会有人引进新模型。然而,在预测眼睛注视时,模型和人类间观察员(IO)有很大的差距。IO模型“对于一个给定的刺激的输出,通过整合眼睛注视建成地图,而不是观看那个刺激。该模型预计将提供预测模型的准确度的程度,不同的人可能是对方的最好的预测者。上面提到的模型和人类之间的差距主要是由于自顶向下的因素的作用(参照图1)。它被认为是自由观看的早期阶段(第一几百毫秒),主要是基于图像醒目性的注意,后来,高层次的因素(例如,行动和事件)指导眼球运动[53][39]。这些高层次的因素可能不一定转化为自下而上的显著性(例如,根

5、据颜色,强度或方向),应考虑分开。举例来说,一个人的头部可能在其余的场景中不会特别突出,但可能会引起人们的注意。因此,结合高层次概念和低层次的功能扩展现有模型,并达到人类的表现似乎是不可避免的。自由观看一些自上而下的因素都已经知道,虽然积极调查仍可以继续发现更多的语义因素。比如,Einhauser等[11]提出的对象更好地预测注视比自下而上的显著性。瑟夫等[14]表明面孔和文字吸引人类的目光。Elazary和Itti12]表明,有趣的对象(注释从LabelMe数据集[46])更加突出。Subramanian等。[13],在一个大的

6、情感图像数据集的记录眼睛注视,观察,注视指向不再对这种刺激的情绪和行动的刺激和持续的注视。同样,Judd等[1],通过绘制图像区域的顶部突出的位置的人的显著图(录制品制成的),在一个场景中,观察人,脸,汽车,文本,和动物吸引人的注视可能因为他们传达更多的信息。一些个人的经验,年龄,文化等特点,也改变了人类看图像的关注面[54]。由[1]的启发,我们提出了三个贡献显著性的学习。首先,我们结合最好的两个方面:自下而上和自上而下的因素。通过比较29个显著性模型,我们整合功能,最好的自下而上的模式已经发现预测与自上而下的因素,如人脸,人,

7、车,等人的注视,培养几个线性和非线性分类从这些功能中的录制品。第二,我们更强调内部零件更准确的显著性检测瞩目的对象(例如,人类上部)。通过大量的实验,我们证明了我们的相结合的方法,超过以前显著的学习方法([1][48]),以及其他最新的方法,在3个数据集上,使用3个评价得分。第三,我们证明了我们的模型能够在一个场景中检测到最突出的对象,接近主流的显著区域检测的表现。相关工作。显著性模型一般可以分为认知(生物)或计算(数学),而有些发生在之间。几款根据Itti等人的自底向上的显著性模型[4]。这种模型是先执行Koch和Ullman的

8、计算架构基于特征整合理论[15][16]。在这个理论中,图像被分解为低一级的属性,如跨越几个空间尺度,然后归一化和线性或非线性相结合,形成一个主显著图的颜色,强度和方向。这一理论的一个重要组成部分是作为图像区域及其周围环境的独特性,显著性定义中心环

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。