欢迎来到天天文库
浏览记录
ID:36749781
大小:11.45 MB
页数:137页
时间:2019-05-14
《基于图像的城市建筑物三维自动重建参数化建模方法研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、基于图像的城市建筑物三维自动重建参数化建模方法研究手茼妥计算机视觉既是工程领域,也是科学领域中的一个富有挑战性的重要研究课题。基于计算机视觉的三维信息获取技术已成为当今的研究热点。本论文主要研究基于图像的三维自动重建的参数化建模方法,试图从数码相机拍摄的建筑物图像中以参数化建模的方法恢复建筑物的三维几何结构,从而为各种应用环境提供有效的建模方法和三维模型,便于浏览,可移植性强。在分析了目前国内外已有的研究成果基础上,进行了多方面的深入研究和实验,取得了一些有意义的成果。图像分割是计算机视觉应用中非常重要的预处理步骤。本文在总结彩色图像分割算法的基础上,根据建筑物彩色图像分割的要求和特点,针
2、对分水岭变换存在的过分割问题,提出了基于分水岭变换和区域融合的彩色建筑物图像分割算法,该方法结合区域面积控制预处理,利用建筑物的轴对称特点设计融合代价函数,并设计了根据代价函数值的直方图分布,自动确定区域合并停止闽值的方法。另外,还提出了一种基于尺度空I'BJ图像分析的彩色图像分割算法,该算法采用形态学分层图像分析的方法,由体积灭值构建图像尺度空间的树状表达。通过对尺度空间的生存时间属性和其它特征的分析,实现建筑物图像分割。形态学尺度空间(形态筛)是一种近年来广泛应用于图像处理、分析中的动态分析框架,可以更容易获得图像的本质特征。在图像分割预处理之后,本文着重讨论了形态筛在彩色图像中的扩展
3、应用,在对比分析两种现有彩色形态筛的基础上,提出了一种新的基于模糊模型的彩色形态筛,并验证了模糊彩色形态筛各方面的性能。另外,本文将狄度形态筛引入到基于图像的建筑物参数化建模的各个过程中,发挥不同尺度形态筛的作用,取得了较好的效果。本文为城市建筑物建立了面向对象参数化数据模型,提出了面向对象的CSG点、面、体分层建筑物建模方法,并根掘模型的特征研究了自动实现建筑物类型判断的算法,该方法首先应用形态筛保留建筑物的主要轮廓区域,然后从图像的点、线特征入手,利用Hough变换提取轮廓线,并提出了一种线段优化算法,这种优化算法可有效排除Hough变换和线段整合过程中产生的错误线段,并用于剔除错误的
4、轮廓线交点和建立角点邻接图。最后,根据提取的各类角点的数目进行建筑物类型的判断。算法可自动对单幅图像中的规则建筑物进行平顶或非平顶的判断。城市建筑物的主体以平行六面体居多,而获得建筑物的轮廓是实现单幅图像重建的关键,本文设计了一种城市建筑物贝叶斯概率统计模型来模拟城市建筑物世界,在假设相机内参已知的情况下,利用边缘像素通过最大化后验概率(MAP)估计消隐点的投影,而后用大尺度形态筛结合估计到的消隐点对边界像素进行分类并自动提取建筑物主体轮廓。在全面而深入地研究平行六面体的几何特征与相机参数之间的关系后,根据获得的角点实现平顶建筑物的三维参数自动提取。现有的大部分单幅图像的重建方法都不是根本
5、的参数化建模,也没有对建筑物类型判断的过程。本文针对未知场景的情况,研究了仅由交互输入的六个角点,实现非平顶建筑物屋顶角点的自动提取,进行两种常见非平顶建筑物模型的判断,并实现三维参数化建模的方法,参数化重建省去了平面纠正的步骤,不必重建大量的点或直线,也不需要用户指定平行性、共面性等约束,且同时完成相机的标定和模型参数的确定,与那些多视图的自动重建方法相比,更加可靠和简单。论文中将提出的各种方法和算法分别应用于模拟和真实图像进行实验。最后实现了Web页面中连同VRML技术的建筑物场景的三维建模和漫游及建筑物相关属性的显示。关键词:计算机视觉;三维重建;单目视觉;轮廓提取;相机标定;消隐点
6、ResearchonApproachestoAutomatic3DReconstructionParametricModelingofArchitecturesBasedonImageAbstractWiththedevelopmentofinformationscience,computervisiontechnologyhasbeenwidelyalSpliedtomanyareas.Theissueof3-Dinformationacquisitiontechniquesbasedoncomputervisionhasbeenoneoftheresearchhotspotsinthi
7、sfield.Themainideaofthisthesiscontainsmonocularvisiontechniquesforestimatinggeometricpropertiesof3一Dworldfromaseriesof2-Ddigitalimages.Basedonpreviousresearches,significantprogresseshavebeenachievedafterdeeplystu
此文档下载收益归作者所有