多元线性回归中多重共线问题的解决方法综述

多元线性回归中多重共线问题的解决方法综述

ID:6570525

大小:89.04 KB

页数:6页

时间:2018-01-18

多元线性回归中多重共线问题的解决方法综述_第1页
多元线性回归中多重共线问题的解决方法综述_第2页
多元线性回归中多重共线问题的解决方法综述_第3页
多元线性回归中多重共线问题的解决方法综述_第4页
多元线性回归中多重共线问题的解决方法综述_第5页
资源描述:

《多元线性回归中多重共线问题的解决方法综述》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、多元线性回归中多重共线问题的解决方法综述摘要在回归分析中,当自变量之间出现多重共线性现象时,常会严重影响到参数估计,扩大模型误差,并破坏模型的稳健性,因此消除多重共线性成为回归分析中参数估计的一个重要环节。现在常用的解决多元线性回归中多重共线性的回归模型有岭回归(RidgeRegression)、主成分回归(PrincipalComponentRegression简记为PCR)和偏最小二乘回归(PartialLeastSquareRegression简记为PLS)。关键词:多重共线性;岭回归;主成分回归;偏最小二乘回归引言在多元线性回归分析中,变量的多重相关性会严重影响到参

2、数估计,增大模型误差,并破坏模型的稳健性由于多重共线性问题在实际应用中普遍存在,并且危害严重,因此设法消除多重性的不良影响无疑具有巨大的价值常用的解决多元线性回归中多重共线问题的回归模型主要有主成分回归岭回归以及偏最小二乘回归。1、多元线性回归模型1.1回归模型的建立设Y是一个可观测的随机变量,它受m个非随机因素X1,X2,…,Xp-1和随机因素ε的影响,若有如下线性关系我们对变量进行了n次观察,得到n组观察数据(如下),对回归系数进行估计一般要求n>P。于是回归关系可写为采用矩阵形式来表示Y称为观测向量,X称为设计矩阵,ε称为误差向量,β称为回归参数。则误差的平方和求参数

3、β的估计使得用最小二乘法估计得正规方程:由于X为列满秩,所以XTX可逆,由此解得1.2多重共线性的产生当时,表明在数据矩阵X中,至少有一个列向量可以用其余的列向量线性表示,则说明存在完全的多重共线性。即不存在,而导致无法估计。1.3多重共线性的产生的原因(1)经济变量之间往往存在同方向的变化趋势。当他们被引入同一个模型成为解释变量时,会出现多重共线性。(2)模型中包含滞后变量,变量各期值之间有可能高度相关。(3)利用截面数据建立模型也可能出现多重共线性。(4)经济变量之间往往存在着密切的内在关联度,要素之间互相制约,互相依存。(5)样本数据自身的原因,数据收集的范围过窄,造

4、成某些解释变量之间似乎有相同或相反变化趋势的假象。(6)在建模过程中由于解释变量选择不当,引起变量之间的多重共线性。2处理多重共线性的方法2.1处理多重共线性的经验式方法2.1.1删除不重要的共线性变量最常见的一种思路是设法去掉不太重要的共线性变量。有些应用人员认为,可以采用多元回归分析中的向前选择变量、向后删除变量法或逐步回归法来进行变量的筛选。然而,在理论上,这些变量筛选方法都是针对无共线性的数据而言的。在多重共线性十分严重的情况下,结论的可靠性都要受到一定的影响。由于变量间多重共线性的形式十分复杂,而且还缺乏十分可靠的检验方法,所以,删除部分多重共线性变量的做法常导致

5、增大模型的解释误差,将本应保留的系统信息舍弃,使得接受一个错误结论的可能和做出错误决策的风险都不断增大。另外,在一些模型中,从理论上要求一些重要的解释变量必须被包括在模型中,而这些变量又存在多重共线性。这时采用删除部分共线性变量的做法就不符合实际工作的要求。2.1.2增加样本容量增加样本的容量在某种程度上会减轻多重共线性对模型估计的影响,而且对某些样本数据来说,变量间的多重共线性可能正是由于样本容量过小而造成的。然而,在实际工作中,由于时间、经费以及客观条件的限制,增大样本容量的方法常常是不可行的。2.1.3变量转换的方式在少数情况下,当基于理论背景认为所有的变量都极其重要

6、,但相互之间存在严重的多重共线性时,对方程的变量进行变换有时至少能在一定程度上消除共线性。两种最常用的变换方法为:(1)构造一个多重共线性变量的组合。此方法就是构造一个新的变量,这一新变量是多重共线性变量的函数,进而以这一新变量来替代回归方程中的具有多重共线性的那些旧变量。但要注意的是,只有当新变量本身有意义时,才可以考虑采用组合变量这一方法。(2)把方程的函数形式转换为一阶差分形式。若把一个方程(或一个方程中的几个变量)从它的常规设定形式转换为一阶差分的设定形式,就很有可能会大大降低多重共线性的程度。由于一阶差分方法损失了一个观测值(即样本数据少了一个),这在小样本的情况

7、下是极不可取的。2.2岭回归根据高斯-马尔科夫定理,在线性回归模型的基本假设满足时,用最小二乘法得到的回归系数估计量是无偏的且具有最小方差。可以证明,即使在高度多重相关的情况下,最小二乘法的回归系数估计量依然是线性无偏的,且具有最小方差。也就是说,多重共线性并不影响最小二乘估计量的无偏性和最小方差性。因此在所有的线性无偏估计中,最小二乘估计仍具有比较小的方差,这并不意味着最小二乘估计量的方差一定是最小的,因为,虽然它在所有的线性无偏估计量中是方差较小,但是这个方差却不一定小。于是就启发我们,是否可以找到某一个有偏估

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。