Adaboost算法原理及简单实现.ppt

Adaboost算法原理及简单实现.ppt

ID:55896459

大小:209.11 KB

页数:8页

时间:2020-06-13

Adaboost算法原理及简单实现.ppt_第1页
Adaboost算法原理及简单实现.ppt_第2页
Adaboost算法原理及简单实现.ppt_第3页
Adaboost算法原理及简单实现.ppt_第4页
Adaboost算法原理及简单实现.ppt_第5页
资源描述:

《Adaboost算法原理及简单实现.ppt》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、Adaboost算法原理及简单实现目录背景简介1Adaboost原理简介2实验3背景简介Bagging和Boosting都是分类器的集成技术,Bagging出现在Boosting之前。这种算法都比较简单,只是将分类器进行简单的组合,实际上,并没有发挥出分类器组合的威力来。之后在1990年,Schapire提出了Boosting算法,次年Freund改进Boosting算法,这两种算法存在共同的实践上的缺陷, 那就是都要求事先知道弱学习算法学习正确率的下限。1995年,Freund和Schapire共同改进了Boosting算法,提出了AdaBoost(Adaptive

2、Boosting)算法,该算法效率和Freund于1991年提出的Boosting算法几乎相同, 但不需要任何关于弱学习器的先验知识, 因而更容易应用到实际问题当中。Adaboost原理简介Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来作为最后的决

3、策分类器。Adaboost原理简介AdaBoost.M1  DiscreteAdaBoost:训练过程1.初始化:初始赋予每个样本相等的权重;基分类器个数L;2.Fork=1,2,…,LDo根据分布从训练数据集中抽取样本;将用作训练数据集建立一个分类器;计算该分类器的加权训练误差;若则令=,重新训练分类器;否则,计算;继而更新训练集上的权重分布结束循环训练过程3.给定测试数据,采用加权融合方式计算每一类的支持度4.预测此测试数据的类标签为支持度最大的类。实验数据集:LISSAJOUSFIGUREDATA(p42)训练数据个数:700测试数据个数:300基分类器:决策树

4、(p95-99)实验数据集:LISSAJOUSFIGUREDATA(p42)训练数据个数:700测试数据个数:300基分类器:决策树(p95-99)基分类器个数为1及20时分类结果实验数据集:LISSAJOUSFIGUREDATA(p42)训练数据个数:700测试数据个数:300基分类器:决策树(p95-99)分类误差随基分类器个数变化图test_error=Columns1through150.10370.10700.12710.08360.10030.09700.09360.10370.09030.08700.09030.08360.08700.09700.090

5、3Columns16through200.09030.09360.10030.08700.0903

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。