欢迎来到天天文库
浏览记录
ID:27846140
大小:233.00 KB
页数:7页
时间:2018-12-06
《人工智能之机器学习C4.5算法解析.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、人工智能之机器学习C4.5算法解析 前言:人工智能之机器学习主要有三大类:1)分类;2)回归;3)聚类。今天我们重点探讨一下C4.5算法。 C4.5算法是由Quinlan提出并开发的用于产生决策树[参见人工智能(23)]的算法。该算法是对Quinlan之前开发的ID3算法的一个扩展。C4.5算法产生的决策树可以被用作分类目的,因此该算法也可以用于统计分类。 C4.5算法与ID3算法一样使用了信息熵的概念,并和ID3一样通过学习数据来建立决策树。ID3算法使用的是信息熵的变化值,而C4.5算法使用的是信息增益率。在决策树构造过
2、程中进行剪枝,因为某些具有很少元素的结点可能会使构造的决策树过适应(Overfitting),如果不考虑这些结点可能会更好。对非离散数据能处理,并对不完整数据进行处理。 C4.5算法概念: C4.5算法由Quinlan在ID3算法基础上提出的,用来构造决策树。C4.5算法是用于生成决策树的一种经典算法。它是一系列用在机器学习和数据挖掘分类问题中的算法。它的目标是监督学习:给定一个数据集,其中的每一个元组都能用一组属性值来描述,每一个元组属于一个互斥的类别中的某一类。通过学习,找到一个从属性值到类别的映射关系,并且这个映射能用于
3、对新的类别未知的实体进行分类。 C4.5算法改进: C4.5算法是ID3算法的一种延伸和优化,C4.5算法对ID3算法主要做的改进是:1)通过信息增益率选择分裂属性,克服了ID3算法中分裂属性的不足;2)通过将连续型的属性进行离散化处理,克服ID3算法不能处理连续型数据缺陷;3)构造决策树之后进行剪枝操作,解决ID3算法中可能会出现的过拟合问题;4)能够处理具有缺失属性值的训练数据。 C4.5算法本质: ID3采用的信息增益度量。它优先选择有较多属性值的Feature,因为属性值多的Feature会有相对较大的信息增益。信息增
4、益反映的给定一个条件以后不确定性减少的程度,分得越细的数据集确定性更高,也就是条件熵越小,信息增益越大。避免这个不足的一个度量就是不用信息增益来选择Feature,而是用信息增益比率(gainraTIo)。 增益比率通过引入一个被称作分裂信息(SplitinformaTIon)的项来惩罚取值较多的Feature,分裂信息用来衡量Feature分裂数据的广度和均匀性(有点像煎饼中均匀摊鸡蛋的感觉^_^)。 分裂信息公式: 信息增益比率公式: 但是当某个Di的大小跟D的大小接近时,则 SpliTInformaTIon(D,A)→
5、0 GainRatio(D,A)→∞ 为了避免这样的属性,采用启发式思路,只对那些信息增益比较高的属性才用信息增益比率。C4.5算法流程: C4.5算法并不是一个算法,而是一组算法。C4.5算法包括非剪枝C4.5和C4.5规则。 C4.5能处理连续属性值,具体步骤为: 1)把需要处理的样本(对应根节点)或样本子集(对应子树)按照连续变量的大小从小到大进行排序; 2)假设该属性对应的不同的属性值一共有N个,那么总共有N?1可能的候选分割阈值点,每个候选的分割阈值点的值为上述排序后的属性值中两两前后连续元素的中点,根据这个
6、分割点把原来连续的属性分成离散属性(比如BooL属性); 3)用信息增益比率选择最佳划分。 另外,C4.5算法还能对缺失值进行处理: 1)赋上该属性最常见的值; 2)根据节点的样例上该属性值出现的情况赋一个概率; 3)丢弃有缺失值的样本。 C4.5算法采用PEP(PessimisticErrorPruning)剪枝法。PEP剪枝法由Quinlan提出,是一种自上而下的剪枝法,根据剪枝前后的错误率来判定是否进行子树的修剪,因此不需要单独的剪枝数据集。 C4.5优点: 1)通过信息增益率选择分裂属性,克服了ID3算法中通过
7、信息增益倾向于选择拥有多个属性值的属性作为分裂属性的不足; 2)通过将连续型的属性进行离散化处理,克服ID3算法不能处理连续型数据缺陷,C4.5算法能够处理离散型和连续型的2种属性类型; 3)构造决策树之后进行剪枝(PEP)操作(ID3算法中没有),解决ID3算法中可能会出现的过拟合问题; 4)能够处理具有缺失属性值的训练数据; 5)产生的分类规则易于理解且准确率较高。C4.5缺点: 1)在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效; 2)针对含有连续属性值的训练样本时,算法计算效率较低;
8、3)算法在选择分裂属性时没有考虑到条件属性间的相关性,只计算数据集中每一个条件属性与决策属性之间的期望信息,有可能影响到属性选择的正确性; 4)算法只适合于能够驻留于内存的数据集,当训练集大得无法在内存容纳时程序无法运
此文档下载收益归作者所有