欢迎来到天天文库
浏览记录
ID:16471748
大小:138.50 KB
页数:6页
时间:2018-08-10
《重复要素去除方法(论文)》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、ArcObjects结合ArcMap实现重复要素去除作者:王磊,刘宇指导老师:苏惠敏,薛亮(陕西师范大学旅游与环境学院,中国西安,710062)摘要:GIS数据被称为GIS的血液,它作为GIS操作的直接对象,在GIS应用中去起着至关重要的地位。在目前GIS行业中数据的采集和处理占到GIS市场的65%—85%,而在数据的采集和处理过程中往往会遇到一个重要的问题就是如何删除GIS重复要素。在国家第二次土地调查的项目中重复要素不但会影响到数据的精度和准确性,而且会引起海量GIS数据的冗余、重复存储和不一致严重的问题。在ArcGis中可以手动或者借助ArcGis自带的扩展——S
2、patialETLTool来完成。但是对于大量的重复要素来说上述两种做法不但工作量大而且对重复要素的判断删除太过于主观。数据处理结果好坏完全依赖于数据处理者的工作经验和对GIS数据的理解,判断和处理能力。本次试验通过利用AO(ArcObjects)对象编程,在ArcGis软件的基础上进行二次开发,可以解决上述问题,而代码还具有通用性。对点、线、面都适合。关键词:ArcGis重复要素数据冗余和不一致拓扑规则TheImplementationofdeletingduplicatefeatuerbasedonArcmapandArcobjects(CollegeOfTouri
3、smandEnvironment,ShaanxiNormalUniversity,Xi'an,China,710062)Abstract:TheGISdataisknownasthebloodofGIS.ItwasoperatedasadirectobjectofGISandappliedinacrucialroleintheGISfiled.GISindustryinthecurrentdatacollectionandprocessingofGISmarketaccountedfor65%-85%,andindataacquisitionandprocessinga
4、reoftenamajorproblemencounteredishowtoremoveduplicatefeathersofGIS.Innationalsecond—land—surveyprojects,somuchlarge-scaleduplicatefeathersnotonlyaffectivetheprecisionandaccuracy,andwillcauseofmassiveGIS,dataredundancy、duplicationofstorageandinconsistentseriousproblem.Youcansolvethisprobl
5、emmanuallyorbyArcGis’sextensionmodule-SpatialETLTooltocomplete.Butforalargenumbersofduplicatefeatherthosetwopracticesarenotonlyaheavyworkloadandremovetheduplicatefeatheristoosubjectivetojudge.TheresultofGISdatagoodornotareentirelydependentonworkers’sexperienceandunderstandingofGISdata.Th
6、isexperimentthroughtheuseofAO(ArcObjects)objectprogramming,onthebasisofArcGissoftwarewemakesecondarydevelopment.BythiswaynotonlysolvethisSpecificproblems,butthecodealsohasthegeneral-purposeofpoint,Polylineandploygon. Keywords:ArcGisduplicatefeatherredundancyandinconsistentdataTopological
7、rules引言:我们在数据的处理过程中,由于不同来源的数据的叠加,外业调查的错误,数据整理和入库人员的手误,计算机突发错误和空间数据的自相交等原因都会引起大量的重复要素。他不但给空间数据的入库带来很大的麻烦,而且会给综合制图带来很大的麻烦。传统的删除GIS空间重复要素有两种方法.第一种方法是在startediting的状态下逐个的删除.这样做工作量极其的大,而且数据的处理效果完全依赖于数据处理者的工作经验和对GIS空时间数据的理解能力.相邻非常密集的数据到底是不是重复的要素很难判断.那些要素该删除很难确定.数据的结果带有很大的偶然性.第二
此文档下载收益归作者所有