机器学习入门:回归问题.ppt

机器学习入门:回归问题.ppt

ID:55989127

大小:4.60 MB

页数:40页

时间:2020-06-03

机器学习入门:回归问题.ppt_第1页
机器学习入门:回归问题.ppt_第2页
机器学习入门:回归问题.ppt_第3页
机器学习入门:回归问题.ppt_第4页
机器学习入门:回归问题.ppt_第5页
资源描述:

《机器学习入门:回归问题.ppt》由会员上传分享,免费在线阅读,更多相关内容在PPT专区-天天文库

1、机器学习入门:回归算法原理及应用人类学习过程认知模仿,实践反馈再认知?机器学习就是让计算机从大量的数据中学习到相关的规律和逻辑,然后利用学习来的规律来进行决策,推理和识别等。什么是机器学习?测试数据发现规律测试结果评估规则邮件XiYi:垃圾or正常发件人邮件地址异常;标题含有“低价促销”…机器学习应用实例应用实例:1、对语言、文字的认知与识别2、对图像、场景、自然物体的认知与识别3、对规则的学习与掌握例如:下雨天要带伞,生病要吃药,天冷了要穿厚衣服等4、对复杂事物的推理与判断能力例如:好人与坏人的辨别能力,事物的正误的判断能力机器学习的种类根据学习方式

2、的不同,可以分为监督学习,无监督学习和强化学习等几种类型。监督学习(有指导)无监督学习(自学)强化学习(自我评估)机器学习三要素机器学习可以认为是一个在逐步发现和探索规律的过程。学习过程主要包含以三个要素:模型表示问题的影响因素(特征)有哪些?它们之间的关系如何?模型评估什么样的模型是好的模型参数优化如何高效的找到最优参数”回归“的由来英国人类学家F.Galton首次在《自然遗传》一书中,提出并阐明了“相关”和“相关系数”两个概念,为相关论奠定了基础。其后,他和英国统计学家KarlPearson对上千个家庭的身高,臂长,拃长(伸开大拇指与中指两端的最大

3、长度)做了测量,发现了一种现象。回归问题应用场景回归分析属于有监督学习,简单有效,应用十分广泛:一个简单的例子回归分析回归分析研究的主要是因变量(目标)和自变量(经验)之间的依存关系。按关系类型,又可分为线性回归分析和非线性回归分析。学习过程如下:理想的拟合直线LinearRegression最小二乘算法最小二乘算法选择“最优回归方程”回归方程中包含的自变量个数越多,回归平方和就越大,残差平方和越小,预测值的置信区间也越小。既要选择对预测影响显著的自变量,又要使回归的损失很小,这样才有利于预测。选择“最优回归方程”的方法有:最优子选择法(bestsub

4、setselection)逐步选择法(stepwiseselection)Bestsubsetselection最优子集选择法(bestsubsetselection),即对n个预测变量的所有可能组合(共有2n-1)分别进行拟合,然后选择出最优模型。StepwiseSelection逐步选择法按选择方式的不同,共分为三种:前向逐步选择法(ForwardStepwiseSelection)后向逐步选择法(BackwardStepwiseSelection)逐步回归法(StepwiseRegression)基于最优子集回归方法的一些缺陷,逐步选择的优点是限

5、制了搜索空间,从而提高了运算效率。ForwardStepwiseSelection以零模型为起点,依次往模型中添加变量,直至加完所有的变量。但每次优先将能够最大限度地提升模型效果的变量加入模型。但无法保证找到的模型是所有2n-1个模型中最优的,且可能在前期将后来变得多余的变量纳入模型。模型个数:[n(n+1)/2]+1BackwardStepwiseSelection以全模型为起点,逐次迭代,每次移除一个对模型拟合结果最不利的变量。需满足样本量m大于变量个数n(保证全模型被拟合)。而前向逐步选择即时在m

6、[n(n+1)/2]+1StepwiseRegression该方法将前向选择与后项进行了结合,试图达到最优子集选择效果的同时也保留了前向和后向逐步选择在计算上的优势。损失函数(lossfunction)损失函数(lossfunction)度量预测错误的程度,常记作L(Y,f(X))。常见的损失函数有以下几种:0-1损失函数(0-1lossfunction):缺点:无法度量损失的“严重程度”。损失函数(lossfunction)平方损失函数(quadraticlossfunction):对数损失函数(logarithmiclossfunction):指数

7、损失函数(exp-lossfunction):梯度下降算法梯度下降法:是一种优化算法,通常也称为最速下降基本思想:在下山时,如果想以最快的方式到达山底,应该沿着山势最陡的方向,也即山势变化最快的方向。同样,如果从任意一点出发,需要最快搜索到函数的最小值,那么也应该从函数变化最快的方向搜索而函数变化最快的方向就是函数的负梯度方向梯度下降算法损失计算方法批量梯度下降法(BGD):是梯度下降法最原始的形式,在更新每一参数时都使用所有的样本来进行更新。随机梯度下降法(SGD):它的具体思路是在更新每一参数时都使用一个样本来进行更新。Mini-batchGrad

8、ientDescent(MBGD):它的具体思路是在更新每一参数时都使用一部分样本来进行更新可

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。