欢迎来到天天文库
浏览记录
ID:46971559
大小:827.00 KB
页数:23页
时间:2019-12-02
《回归分析的基本思想及其初步应用 (1)》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、1.1回归分析的基本思想及其初步应用基础自测比《数学3》中“回归”增加的内容数学3——统计画散点图了解最小二乘法的思想求回归直线方程y=bx+a用回归直线方程解决应用问题选修1-2——统计案例引入线性回归模型y=bx+a+e了解模型中随机误差项e产生的原因了解相关指数R2和模型拟合的效果之间的关系了解残差图的作用利用线性回归模型解决一类非线性回归问题正确理解分析方法与结果教学情境设计问题一:结合例1得出线性回归模型及随机误差。并且区分函数模型和回归模型。问题二:在线性回归模型中,e是用bx+a预报真实值y的随机误差,它是一个不可观测的量,那么应如何研究随机误差呢?问题三:如何
2、发现数据中的错误?如何衡量随机模型的拟合效果?问题四:结合例1思考:用回归方程预报体重时应注意什么?问题五:归纳建立回归模型的基本步骤。问题六:若两个变量呈现非线性关系,如何解决?(分析例2)例1从某大学中随机选取8名女大学生,其身高和体重数据如表1-1所示。5943616454505748体重/kg170155165175170157165165身高/cm87654321编号求根据一名女大学生的身高预报她的体重的回归方程,并预报一名身高为172cm的女大学生的体重。问题一:结合例1得出线性回归模型及随机误差。并且区分函数模型和回归模型。解:1、选取身高为自变量x,体重为因变
3、量y,作散点图:2.回归方程:探究:身高为172cm的女大学生的体重一定是60.316kg吗?如果不是,你能解析一下原因吗?答:用这个回归方程不能给出每个身高为172cm的女大学生的体重的预测值,只能给出她们平均体重的估计值。由于所有的样本点不共线,而只是散布在某一直线的附近,所以身高和体重的关系可以用线性回归模型来表示:其中a和b为模型的未知参数,e称为随机误差.函数模型与“回归模型”的关系函数模型:因变量y完全由自变量x确定回归模型:预报变量y完全由解释变量x和随机误差e确定注:e产生的主要原因:(1)所用确定性函数不恰当;(2)忽略了某些因素的影响;(3)观测误差。思考
4、:产生随机误差项e的原因是什么?问题二:在线性回归模型中,e是用bx+a预报真实值y的随机误差,它是一个不可观测的量,那么应如何研究随机误差呢?e=y-(bx+a)随机误差e的估计量样本点:相应的随机误差为:随机误差的估计值为:称为相应于点的残差.的估计量为称为残差平方和.问题三:如何发现数据中的错误?如何衡量随机模型的拟合效果?(1)我们可以通过分析发现原始数据中的可疑数据,判断建立模型的拟合效果。残差图的制作和作用:制作:坐标纵轴为残差变量,横轴可以有不同的选择.横轴为编号:可以考察残差与编号次序之间的关系,常用于调查数据错误.横轴为解释变量:可以考察残差与解释变量的关系
5、,常用于研究模型是否有改进的余地.作用:判断模型的适用性若模型选择的正确,残差图中的点应该分布在以横轴为中心的带形区域.下面表格列出了女大学生身高和体重的原始数据以及相应的残差数据。编号12345678身高/cm165165157170175165155170体重/kg4857505464614359残差-6.3732.6272.419-4.6181.1376.627-2.8830.382残差图的制作及作用。坐标纵轴为残差变量,横轴可以有不同的选择;若模型选择的正确,残差图中的点应该分布在以横轴为心的带形区域;对于远离横轴的点,要特别注意。身高与体重残差图异常点错误数据模型问
6、题几点说明:第一个样本点和第6个样本点的残差比较大,需要确认在采集过程中是否有人为的错误。如果数据采集有错误,就予以纠正,然后再重新利用线性回归模型拟合数据;如果数据采集没有错误,则需要寻找其他的原因。另外,残差点比较均匀地落在水平的带状区域中,说明选用的模型计较合适,这样的带状区域的宽度越窄,说明模型拟合精度越高,回归方程的预报精度越高。误差与残差,这两个概念在某程度上具有很大的相似性,都是衡量不确定性的指标,可是两者又存在区别。误差与测量有关,误差大小可以衡量测量的准确性,误差越大则表示测量越不准确。误差分为两类:系统误差与随机误差。其中,系统误差与测量方案有关,通过改进
7、测量方案可以避免系统误差。随机误差与观测者,测量工具,被观测物体的性质有关,只能尽量减小,却不能避免。残差――与预测有关,残差大小可以衡量预测的准确性。残差越大表示预测越不准确。残差与数据本身的分布特性,回归方程的选择有关。显然,R2的值越大,说明残差平方和越小,也就是说模型拟合效果越好。在线性回归模型中,R2表示解析变量对预报变量变化的贡献率。R2越接近1,表示回归的效果越好(因为R2越接近1,表示解析变量和预报变量的线性相关性越强)。如果某组数据可能采取几种不同回归方程进行回归分析,则可以通过比较R
此文档下载收益归作者所有