简单线性回归Final课件.ppt

简单线性回归Final课件.ppt

ID:57027439

大小:374.50 KB

页数:94页

时间:2020-07-26

简单线性回归Final课件.ppt_第1页
简单线性回归Final课件.ppt_第2页
简单线性回归Final课件.ppt_第3页
简单线性回归Final课件.ppt_第4页
简单线性回归Final课件.ppt_第5页
资源描述:

《简单线性回归Final课件.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、计量经济学第二章(1)简单二元回归y=b0+b1x+u1本章大纲简单回归模型的定义普通最小二乘法的推导OLS的操作技巧测量单位和函数形式OLS估计量的期望值和方差过原点回归2本节主要内容本章目的:以估计教育回报率为例一些术语的注解一个简单假定条件期望零值假定何为普通最小二乘法普通最小二乘法的推导3我们学习的目标是什么?教育的回报率假如已经收集到一个具有代表性的样本:村子里面小学同学(100人)(Xi,Yi):(教育水平,工资的差别)(i=1,…,100)问题:教育水平提高对工资的作用有多大?简单演示如何操作4两个要点我们需要对残差的性质做出什么样的假设?基于数据样本,如何估计模

2、型(参数)?5术语注解在简单二元回归模型y=b0+b1x+u中,y通常被称为因变量,左边变量,被解释变量,或回归子。x通常被称为自变量,右边变量,解释变量,回归元,协变量,或控制变量。6等式y=b0+b1x+u只有一个非常数回归元。我们称之为简单回归模型,两变量回归模型或双变量回归模型.b0,b1被称为回归系数。b0也被称为常数项或截矩项,或截矩参数。b1代表了回归元x的边际效果,也被成为斜率参数。u为误差项或扰动项,它代表了除了x之外可以影响y的因素。7线性的含义:y和x之间并不一定存在线性关系,但是,只要通过转换可以使y的转换形式和x的转换形式存在相对于参数的线性关系,该模

3、型即称为线性模型。如,y=eb0+b1x+u。8简单二元回归模型例子如:简单的工资方程wage=b0+b1(yearsofeducation)+u上述简单工资函数描述了受教育年限和工资之间的关系,b1衡量了多接受一年教育工资可以增加多少。9关于u的假定假定总体中误差项u的平均值为零E(u)=0(2.5)该假定是否具有很大的限制性呢?10关于u的假定比如,E(u)=5.那么y=(b0+5)+b1x+(u-5),所以,E(u*)=E(u-5)=0.上述推导说明我们总可以通过调整常数项来实现误差项的均值为零,因此该假定的限制性不大。11条件期望零值假定我们需要对u和x之间的关系做一个

4、关键假定。理想状况是对x的了解并不增加对u的任何信息。换句话说,我们需要u和x完全不相关:E(u

5、x)=E(u)12由于我们已经假定了E(u)=0,因此有E(u

6、x)=E(u)=0。该假定是何含义?E(u

7、x)=E(u)=0.(2.6)条件期望零值假定13在教育一例中,假定u代表内在能力,条件期望零值假定说明不管解释教育的年限如何,该能力的平均值相同。E(ability

8、edu=6)=E(ability

9、edu=18)=0.条件期望零值假定14假设期末成绩分数取决于出勤次数和影响学生现场发挥的因素,如学生个人素质。score=b0+b1attend+u那么上述模型中假设(2.6

10、)何时能够成立?条件期望零值假定15普通最小二乘法的推导回归的基本思想是从样本去估计总体参数。我们用{(xi,yi):i=1,…,n}来表示一个随机样本,并假定每一观测值满足yi=b0+b1xi+ui。16....y4y1y2y3x1x2x3x4}}{{u1u2u3u4xy总体回归线,样本观察点和相应误差E(y

11、x)=b0+b1x17普通最小二乘法的推导首先由E(u

12、x)=E(u)=0可知:Cov(x,u)=E(xu)=0为什么?由于Cov(x,u)=E(xu)–E(x)E(u)而由E(u

13、x)=E(u)=0可得Cov(x,u)=E(xu)=0。18普通最小二乘法的推导这样我们

14、可以得到两个矩条件约束:E(y–b0–b1x)=0E[x(y–b0–b1x)]=0可将u=y–b0–b1x代入以得上述两个矩条件。19使用矩方法推导普通最小二乘法矩方法?是将总体的矩限制应用于样本中。20普通最小二乘法的推导目标是通过选择参数值,使得在样本中矩条件也可以成立。样本中矩条件可以表示为:21普通最小二乘法的推导根据样本均值的定义以及加总的性质,可将第一个条件写为22普通最小二乘法的推导23因此OLS估计出的斜率为24OLS斜率估计法总结斜率估计量等于样本中x和y的协方差除以x的方差。若x和y正相关则斜率为正,反之为负。25关于OLS的更多信息OLS法是要找到一条直线

15、,使残差平方和最小。残差是对误差项的估计,因此,它是拟合直线(样本回归函数)和样本点之间的距离。26....y4y1y2y3x1x2x3x4}}{{û1û2û3û4xy样本回归线,样本数据点和相关的误差估计项27推导方法二正式解一个最小化问题,即通过选取参数而使下列值最小:28推导方法二如果直接解上述方程我们得到下面两式,这两个式子等于前面两式乘以n29本节小结介绍简单线性回归模型介绍通过随机样本的数据运用普通最小二乘法估计斜率和截距的参数值30(2)简单二元回归y=b0+b1x+u31本章

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。