欢迎来到天天文库
浏览记录
ID:18848032
大小:119.00 KB
页数:12页
时间:2018-09-25
《数学建模相关算法总结new》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、负责计算的同学整理有关算法及数据处理与分析步骤的笔记数学建模中的数据处理以下是我总结的关于数学建模数据处理的方法以及分析步骤,其中数据指标的无量纲化处理和数据的归一化处理是数据预处理方法;数据聚类分析和判别分析是数据的分类处理;以下的数据处理方法是我从课堂笔记以及网上课件中总结所得,因为字数的限制我只总结了数据处理的方法和分析步骤,一些关于相关算法的原理以及计算过程本文并没有给出。一、数据指标的无量纲化处理方法(数据标准化)为何要将数据标准化?我们在建模的过程中会遇到各种各样的数据,而且绝大多数的数据有着不同的量纲,由于不同变量常常具有不同的单位和不同的变异程度。不同的单位
2、常使系数的实践解释发生困难,为了使不同的量纲也能进行比较,通常需要对数据做适当的变换。例如:第1个变量的单位是kg,第2个变量的单位是cm,那么在计算绝对距离时将出现将两个事例中第1个变量观察值之差的绝对值(单位是kg)与第2个变量观察值之差的绝对值(单位是cm)相加的情况。使用者会说5kg的差异怎么可以与3cm的差异相加?不同变量自身具有相差较大的变异时,会使在计算出的关系系数中,不同变量所占的比重大不相同。例如如果第1个变量(两水稻品种米粒中的脂肪含量)的数值在2%到4%之间,而第2个变量(两水稻品种的亩产量)的数值范围都在1000与5000之间。为了消除量纲影响和变量
3、自身变异大小和数值大小的影响,故将数据标准化。数据标准化的方法: ①平移·标准差变换其中,。经过变换后,每个变量的均值为0,标准差为1,且消除了量纲的影响。但是,再用得到的还不一定在区间上。②平移·极差变换,显然有,而且也消除了量纲的影响。③对数变换取对数以缩小变量间的数量级。数据标准化是数据预处理的一中简单通用的方法。二、数据的归一化处理什么是归一化我是这样认为的,归一化化就是要把你需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范围内。首先归一化是为了后面数据处理的方便,其次是保正程序运行时收敛加快。归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化
4、为无量纲的表达式,成为纯量。在多种计算中都经常用到这种方法。在matlab里面,用于归一化的方法共有三种:(1)premnmx、postmnmx、tramnmx(2)prestd、poststd、trastd(3)是用matlab语言自己编程。premnmx指的是归一到[-1,1],prestd归一到单位方差和零均值。关于自己编程一般是归一到[0.1,0.9]。具体用法见下面实例。怎样归一化呢?首先先说一个概念,叫做奇异样本数据,所谓奇异样本数据数据指的是相对于其他输入样本特别大或特别小的样本矢量。下面举例:m=[0.11,0.15,0.32,0.45,30;0.13,0.
5、24,0.27,0.25,45];其中的第五列数据相对于其他4列数据就可以成为奇异样本数据(下面所说的网络均值bp)。奇异样本数据存在所引起的网络训练时间增加,并可能引起网络无法收敛,所以对于训练样本存在奇异样本数据的数据集在训练之前,最好先进形归一化,若不存在奇异样本数据,则不需要事先归一化。具体举例:closeallclearechoonclc%BP建模%原始数据归一化m_data=[1047.921047.830.390.391.035005075;1047.831047.680.390.40 1.034524912;1047.681047.52 0.40 0.
6、411.0 34044749;1047.52 1047.27 0.41 0.421.0 33564586;1047.27 1047.410.420.43 1.0 3308 4423;1046.73 1046.741.701.800.75 2733 2465;1046.74 1046.82 1.80 1.780.75 24192185;1046.821046.73 1.78 1.75 0.752105 1905;1046.73 1046.481.751.850.701791 1625;1046.48 1046.03 1.85
7、1.82 0.7014771345;1046.031045.331.821.68 0.70 1163 1065;1045.33 1044.95 1.68 1.710.70 849 785;1044.95 1045.211.71 1.72 0.70 533 508;1045.211045.64 1.72 1.700.70567 526;1045.641045.441.70 1.69 0.70 601 544;1045.441045.78 1.69 1.690.70 63
此文档下载收益归作者所有