决策树分类算法与应用

决策树分类算法与应用

ID:45581040

大小:120.69 KB

页数:9页

时间:2019-11-15

决策树分类算法与应用_第1页
决策树分类算法与应用_第2页
决策树分类算法与应用_第3页
决策树分类算法与应用_第4页
决策树分类算法与应用_第5页
决策树分类算法与应用_第6页
决策树分类算法与应用_第7页
决策树分类算法与应用_第8页
决策树分类算法与应用_第9页
资源描述:

《决策树分类算法与应用》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、机器学习算法day04_决策树分类算法及应用课程大纲决策树分类算法原理决策树算法概述决策树算法思想决策树构造算法要点决策树分类算法案例案例需求Python实现决策树的持久化保存课程目标:1、理解决策树算法的核心思想2、理解决策树算法的代码实现3、常握决策树算法的应用步骤:数据处理、建模、运算和结果判定1.决策树分类算法原理1.1概述决策树(decisiontree)是一种被广泛使用的分类算法。相比贝叶斯算法,决策树的优势在于构造过程不需要任何领域知识或参数设置在实际应用屮,对于探测式的知识发现,决策树更加适用1.2算法思想通俗

2、来说,决策树分类的思想类似于找对象。现想象一个女孩的母亲要给这个女孩介绍男朋友,于是有了下面的对话:女儿:多大年纪了?母亲:26。女儿:长的帅不帅?母亲:挺帅的。女儿:收入高不?母亲:不算很高,中等情况。女儿:是公务员不?母亲:是,在税务局上班呢。女儿:那好,我去见见。这个女孩的决策过程就是典型的分类树决策。实质:通过年龄、长相、收入和是否公务员对将男人分为两个类别:见和不见假设这个女孩对男人的要求是:30岁以下、长相中等以上并且是高收入者或中等以上收入的公务员,那么这个可以用下图表示女孩的决策逻辑上图完整表达了这个女孩决定是

3、否见一个约会对象的策略,英屮:♦绿色节点表示判断条件♦橙色节点表示决策结果♦箭头表示在一个判断条件在不同情况下的决策路径图中红色箭头表示了上面例子中女孩的决策过程。这幅图基本可以算是一颗决策树,说它“基本可以算”是因为图中的判定条件没有量化,如收入高中低等等,还不能算是严格意义上的决策树,如果将所有条件量化,则就变成真正的决策树了。决策树分类算法的关键就是根据“先验数据”构造一棵最佳的决策树,用以预测未知数据的类别决策树:是一个树结构(可以是二叉树或非二叉树)。其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在

4、某个值域上的输出,而每个叶节点存放一个类别。使用决策树进行决策的过程就是从根节点开始,测试待分类项中相应的特征属性,并按照其值选择输出分支,直到到达叶子节点,将叶子节点存放的类别作为决策结果。1.3决策树构造13.1决策树构造样例假如有以下判断苹果好坏的数据样本:样本红大好苹果0111110120103000样本中有2个属性,A0表示是否红苹果。A1表示是否大苹果。假如要根据这个数据样本构建一棵自动判断苹果好坏的决策树。由于本例中的数据只有2个属性,因此,我们可以穷举所有可能构造出来的决策树,就2棵,如下图所示:显然左边先使用

5、A0(红色)做划分依据的决策树要优于右边用A1(大小)做划分依据的决策树。当然这是直觉的认知。而直觉显然不适合转化成程序的实现,所以需要有一种定量的考察来评价这两棵树的性能好坏。决策树的评价所用的定量考察方法为计算每种划分情况的信息爛增益:如果经过某个选定的属性进行数据划分后的信息嫡下降最多,则这个划分属性是戢优选择13.2属性划分选择(即构造决策树)的依据爛:信息论的奠基人香农定义的用来信息量的单位。简单来说,爛就是“无序,混乱”的程度。通过计算来理解:仁原始样本数据的燔:样例总数:4好苹果:2坏苹果:2嬌:-(1/2*lo

6、g(1/2)+1/2*log(1/2))=1信息嫡为1表示当前处于最混乱,最无序的状态。2、两颗决策树的划分结果嫡增益计算•树1先选A0作划分,各子节点信息嫡计算如下:0,1叶子节点有2个正例,0个负例。信息爛为:e1=-(2/2*log(2/2)+0/2*log(0/2))=0o2,3叶子节点有0个正例,2个负例。信息嫡为:e2=-(0/2*log(0/2)+2/2*log(2/2))=0o因此选择A0划分后的信息爛为每个子节点的信息爛所占比重的加权和:E=e1*2/4+e2*2/4=0c选择A0做划分的信息爛增益G(S,A

7、O)=S-E=1-0=1・事实上,决策树叶子节点表示己经都属于相同类别,因此信息爛一定为0。•树2先选A1作划分,各子节点信息燔计算如下:0,2子节点有1个正例,1个负例。信息爛为:e1=-(1/2*log(1/2)+1/2*log(1/2))=101,3子节点有1个正例,1个负例。信息嫡为:e2=-(1/2*log(1/2)+1/2*log(1/2))=1o因此选择A1划分后的信息爛为每个子节点的信息爛所占比重的加权和:E=e1*2/4+e2*2/4=1o也就是说分了跟没分一样!选择A1做划分的信息爛增益G(S,A1)=S-

8、E=1-1=0.因此,每次划分之前,我们只需要计算出信息爛增益最大的那种划分即可。1.4算法要点1.4.1^指导思想经过决策属性的划分后,数据的无序度越来越低,也就是信息嬌越来越小1.4.2算法实现梳理出数据中的属性比较按照某特定属性划分后的数据的信息爛增益,选择信息嫡增益最

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。