欢迎来到天天文库
浏览记录
ID:36610856
大小:430.10 KB
页数:39页
时间:2019-05-09
《《art多元回归》PPT课件》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、第8章多元回归模型§1多元回归的基本概念1、多变量模型的基本形式以三变量为例:为截距系数,为偏回归系数,为干扰项。PartialRegressionCoefficients2、多元回归模型的假定154页(与双变量模型六大假定的框架基本相同)线性方程、无设定偏误干扰项与每个解释变量都不相关干扰项零均值、无自相关、异方差解释变量间无完全的多重共线性(new)155页例3、偏回归系数的含义:净影响B2:保持X3不变,X2每变化一个单位,Y的均值变化多少。B3:保持X2不变,X3每变化一个单位,Y的均值变化多少。它们分别给出X2和X3变化对Y均值的直接偏影响或净影响(VS总影
2、响)。例子:产品生产(劳动力投入的贡献)Y:产出X2:劳动力X3:资本、原材料直接:管理人员加班->产量提高间接:流水线工人加班->原材料投入增加->产量提高保持X3不变,X2对Y的净影响劳动投入对产出的总影响X2->X3->Y(间接)X2->Y(直接)当X2与X3有完全的线性关系时,无法把B2和B3分开(无法保持其中一个解释变量不变)当X2与X3完全独立时,X3不会通过X2作用于Y,总影响与净影响相等,即A2=B2一般情况下,X2与X3不独立,但也不是完全线性相关,此时总影响与净影响有区别,A2≠B2一般规律:§2多元线性回归模型的估计1、OLS估计量SRF:做最小
3、二乘回归,最小化残差平方和:估计结果如下:156页2、OLS估计量的统计性质在CLRM假定成立的情况下,多元线性回归模型的OLS估计量是BLUE(最优线性无偏估计量)。这与双变量模型的OLS估计量性质完全一样3、拟合优度:多元判定系数R2158页度量估计的样本回归线与数据拟合的好坏双变量模型:r2多变量模型:R2R2:Y的变异由模型中所有解释变量联合解释的比例。4、预测Y的条件均值对应选定的X20和X30,预测Y的条件均值为:例:古董钟拍卖价格(111页例6-5,数据在114页表6-14)Y:拍卖价格;X2:钟表年代;X3:竞标人数散点图年代↗,价格↗竞标人数↗,价格
4、↗EViews回归结果写成标准的报告结果格式159页回归结果的解释(注意“保持其它变量不变”)§4多元回归的假设检验把双变量模型的假设检验思想延伸到多变量模型之中。2、检验单个偏回归系数的显著性:t检验零假设H0:Bi=0,i可从1,2,…,k中选若H0成立,则:若,拒绝H0;否则不拒绝H0若p<给定的α(如5%),则拒绝H0接上例(古董钟价格)Y:拍卖价格;X2:钟表年代;X3:竞标人数单个回归系数均在统计上显著异于03、检验回归的总体显著性:F检验联合零假设H0:B2=B3=…=Bk=0(所有的斜率系数都为0,注意无B1)若H0成立则:若F>临界值,或p<给定的α
5、(如5%)拒绝H0,认为回归方程总体显著(所有X联合起来对Y具有解释力)NEW接上例(古董钟价格)Y:拍卖价格;X2:钟表年代;X3:竞标人数回归模型在总体上显著(所选择的X对Y具有解释力)F检验与R2的一个重要关系式F检验:衡量回归方程的总显著性;R2:Y的变动可由所有解释变量的变动来解释的部分所占的百分比。两者之间必定有某种联系对比这样计算的F跟以前的方式所得到的结果是一样的F与R2是同向变化的,F大,R2也大;当R2=0,F=0;当R2=1,F变为无穷大。F检验既是所估回归的总显著性的一个度量,也是R2的一个显著性检验。换句话说,检验H0:B2=B3=…=
6、Bk=0等价于检验H0:(总体)R2=0。161页(8-50)接上例(古董钟价格)Y:拍卖价格;X2:钟表年代;X3:竞标人数§5设定偏误、校正R21、多变量模型与双变量模型:设定偏误古董钟拍卖一例Y:拍卖价格;X2:钟表年代;X3:竞标人数三变量回归结果双变量回归结果解释变量的斜率系数不同方程截距系数不同判定系数R2不同三变量模型与双变量模型的这些不同从何而来?为什么不同?将总影响误当成净影响(漏变量)导致设定偏误X2i对Yi的总影响X2i对Yi的净影响(保持X3i不变,不染有X3i)包括了X2通过影响X3对Y产生的间接影响2、比较两个R2值:校正R2(Adjus
7、tedR2)R2是解释变量个数的非减函数。因此,在比较有同一应变量Y,但是解释变量个数不同的两个回归时,选择最高R2值的模型必须当心!不一定R2越大越好,可能大的R2是由较多的解释变量带来的引入一个校正的R2这样定义的R2称校正R2(AdjustedR2),记为。“校正”一词,指对R2式中平方和所涉及的自由度的校正(自由度与解释变量的个数密切相关)。校正R2考虑到了模型中X的个数(k-1)165页(8-54)对于k>1,。随着解释变量个数的增加(即k增加),校正R2会比R2增加得慢些(作为解释变量多的惩罚)校正R2可能为负,而R2不会。(实际应用中,
此文档下载收益归作者所有