基于支持向量机的弹道识别及其在雷达弹道外推中的应用.pdf

基于支持向量机的弹道识别及其在雷达弹道外推中的应用.pdf

ID:54367423

大小:225.28 KB

页数:5页

时间:2020-04-29

基于支持向量机的弹道识别及其在雷达弹道外推中的应用.pdf_第1页
基于支持向量机的弹道识别及其在雷达弹道外推中的应用.pdf_第2页
基于支持向量机的弹道识别及其在雷达弹道外推中的应用.pdf_第3页
基于支持向量机的弹道识别及其在雷达弹道外推中的应用.pdf_第4页
基于支持向量机的弹道识别及其在雷达弹道外推中的应用.pdf_第5页
资源描述:

《基于支持向量机的弹道识别及其在雷达弹道外推中的应用.pdf》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、第26卷第3期兵工学报Vol.26No.32005年5月ACTAARMAMENTARIIMay2005一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一一基于支持向量机的弹道识别及其在雷达弹道外推中的应用陶卿1,2,刘欣1,唐升平1,丁永清1(1.炮兵学院,安徽合肥230031;2.中国科学院自动化研究所,北京100080)摘要:支持向量机(SVM)是一种基于结构风险最小化原理的分类技术,也是一种具有很好泛化性能的回归分析方法。本文用SVM分类方法对弹道

2、类型进行识别,用SVM回归方法对不同类型的弹道数据分别建模,进而对弹道起点进行有效预测。仿真结果表明,该方法识别精度高,在SVM弹道识别的基础上,还可以有效提高弹道外推精度。关键词:人工智能;炮位侦查雷达;弹道识别;支持向量机;弹道外推中图分类号:TJ012文献标志码:A文章编号:1000-1093(2005)03-0308-04众所周知,不同类型的炮弹其飞行机理不同,所SVM算法归纳弹道类型的规律,得出分类器函数,对应的弹道方程亦不同。弹道识别是指利用雷达探以便对未知弹道进行识别。本文在弹道识别的基础测数据判断其弹道类型的过

3、程;弹道外推是指利用上用SVM回归方法对不同类型的弹道数据分别建雷达探测数据求取弹道起点或落点的过程。如果炮模,以便对未知弹道的起点进行预测。位侦查雷达(以下简称雷达)不能确认弹道类型,它!"#$分类方法就不能正确选择弹道方程,精确外推弹道起点,因此机器学习问题[2-3]:已知输入!与输出y之间弹道识别是雷达精确弹道外推的先决条件。但当今的雷达主要是通过分析探测参数U、C等来识别存在一定的未知依赖关系,即存在一个未知的联合0b概率F(!,y),机器学习就是根据1个独立同分布弹道类型,目前的主要问题是外推精度不理想。观测样本(!

4、,y),⋯,(!,y)在一组函数{f(!,支持向量机(SVM)是一种主要应用于分类和1111")}中求一个最优的函数f(!,"。),使预测的期望回归的机器学习算法,它从有限的训练样本中归纳风险“最优函数规律”,目的是尽可能准确地对未知样本作出预测[1]。1995年以来,SVM已成为国际上机R(")=JL(y,f(!,"))dF(!,y)(1)最小,其中:"为模型的参数;L(y,f(!,"))为由器学习领域的一个研究热点,并已在手写邮政编码于用f(!,")对y进行预测而造成的损失。对于二识别等问题上得到成功的应用。从模式识别角度

5、0,当y=f(!,")看,弹道识别实质是一个分类问题,为此本文尝试将分类问题,L(y,f(!,"))={),对1,当y羊f(!,"SVM引入弹道识别。由于弹道类型很多,所以弹道于函数回归问题,L(y,f(!,"))=(y-f(!,识别是一个多分类问题。作为该项工作的第一步,2")).众所周知,通过有限个样本无法获得联合概本文仅考虑线膛炮和火箭炮之间的二分类问题,目率F(!,y),因此R(")实际上无法直接计算和最的是说明SVM分类方法的有效性。本文将雷达在小化。根据概率论中大数定理的思想,人们自然想每条弹道上获取的数据集合视为

6、一个样本,其弹道到采用尽可能多的样本,并进行算术平均,从而绕开类型作为目标输出(或称为标签),如对线膛炮和火概率密度函数,变(1)式的积分为求和箭炮识别问题,将线膛炮的标签记为+1,火箭炮的11Remp(")=】L(yi,f(!i,")).(2)标签记为-1.一旦获取一定数目的样本,就利用1i=1收稿日期:2004-07-26基金项目:国家自然科学基金资助项目(60175023);国家重点基础研究发展计划项目(2004CB318103);安徽省优秀青年科技者基金资助项目(04042069)第3期基于支持向量机的弹道识别及其在雷

7、达弹道外推中的应用309用极小化经验风险(!)的极值!代替极小emp12,min{!+cZ#i}化期望风险(!)的极值!,即2i=1s.t.y(!T"+b)B1-#,(5)1ii#iB0.minZ(yi,f("i,!)),(3)其中c>0,它表示经验误差与{f(",!)}函数集复i=1!杂度之间的折中程度。根据Lagrange乘子法和优这便是我们熟知的最小二乘法。然而大数定理只说化理论中的鞍点定理,(5)式的约束优化问题可转化明limemp(!)=(!),并不能保证limminemp--为对偶问题[3](!)=min(!)I,

8、更不能保证!#=!,!1T,max{-Z$i$jyiyj"i"j+Z$i}$2何况在实际中得到大规模样本需要付出昂贵的代价i,j=1i=1或根本无法提供无穷多的样本,因此利用极小化经s.t.Z$iyi=0,0<$i

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。