数据挖掘算法.docx

数据挖掘算法.docx

ID:57807427

大小:226.04 KB

页数:15页

时间:2020-09-02

数据挖掘算法.docx_第1页
数据挖掘算法.docx_第2页
数据挖掘算法.docx_第3页
数据挖掘算法.docx_第4页
数据挖掘算法.docx_第5页
资源描述:

《数据挖掘算法.docx》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、分类Classification:分类是指将目标对象按照不同的标记进行分组,所有的标记都是已知的,这些对象往往都具有不同的特点。也就是说对于一个classifier,通常需要你告诉它“这个东西被分为某某类”这样一些例子。理想情况下,一个classifier会从它得到的训练集中进行“学习”,从而具备对未知数据进行分类预测的能力,这种提供训练数据的过程通常叫做 supervisedlearning (监督学习)。应用场景:银行贷款安全和风险、信用卡持卡用户进行分类KNN算法:K最邻近分类算法(K-NearestNeighbor),最简单的机器学习算法之一。思路是:如果一个样本在特征空间中的k个最

2、相似的样本中的大多数属于某个类,则该样本也属于某个类别。如上图所示,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果K=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果K=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。决策树分类算法ID3:ID3算法是由Quinlan首先提出的。该算法是以信息论为基础,以信息熵和信息增益度为衡量标准,从而实现对数据的归纳分类。具体流程如下:输入:样本集合S,属性集合A输出:ID3决策树⑴若所有种类的属性都处理完毕,返回:否则执行2⑵计算出信息增益最大属性a,把该属性作为一个节点,如果仅凭属性a就可以对样本进行

3、分类,则返回;否则执行3。⑶对属性a的每个可能的取值v,执行下一操作:①将所有属性a的值是v的样本作为S的一个子集Sv;②生产新的属性集合AT=A-{a}③以样本集合Sv和属性集合AT为输入,递归执行id3算法。分类系统的信息熵和信息增益:对分类系统来说,类别C是变量,可能的取值是C1,C2,C3......Cn,而每个类别出现的概率为P(C1),P(C2),P(C3).....P(Cn),N就是系统的类别,因此分类系统的熵代表包含系统所有特征属性时系统的信息量(熵),就可以表示为:HC=-i=1nP(Ci)×log2P(Ci);P(Ci)即类别Ci出现的概率对分类系统来说,一个特征属性,系

4、统有它和没它时信息量将发生变化,而前后信息量的差值就是这个特征给系统带来的信息量,即信息增益。系统包含特征属性时的信息量有了,那么就要求系统不包含该特征属性时的信息量,这个问题等价于系统包含了特征属性X,但特征属性X已经固定不能变化时的信息量,此时的信息量即条件熵需要用特征属性X每个可能的值出现的概率来表示:HCX=P1HCX=x1+P2HCX=x2+…+PnHCX=xn=i=1nPiH(C

5、X=Xi)具体到分类系统,分类系统的特征属性T的固定值t只可能取两个值(即t出现或t不出现),例如湿度这个特征属性的固定值(高)只可能取两个值,即高要么出现,要么不出现。HCT=PtHCt+PtHCt=

6、-Pti=1nP(Ci

7、t)×log2P(Ci

8、t)-Pti=1nP(Ci

9、t)×log2P(Ci

10、t)因此特征T给系统带来的信息增益就可以写成系统原本的熵与固定特征T后的条件熵之差:IG(C)=H(C)-H(C

11、T)应用举例:使用ID3分类算法预测未知样本的类标号。给定球队球类比赛结果的训练样本集见下表。根据天气(Outlook),温度(Temperature),湿度(Humidity),风强度(Windy)来判断该球队比赛结果是否会赢。类标号属性比赛结果具有两个不同值{Win,Lose}。设C1对应于类Result=“Win”,而C2对应于类Result=“Lose”。使用ID3分类算法

12、来预测样本为<Outlook=Sunny,Temperature=Hot,Humidity=High,Wind=Strong>的情况下,比赛的输赢结果。首先,类别是(输赢结果)。取值yes的记录有9个,取值为no的记录有5个,那么P(C1)=9/14,P(C2)=5/14,那么计算分类系统的熵:Entropy(S)=-(9/14)*log2(9/14)-(5/14)*log2(5/14);然后分别计算以各个属性作为根节点的信息增益Outlook的信息增益:Entropy(Sunny)=-(2/5)*log2(2/5)-(3/5)*log2(3/5)=0.971Entropy(Rain)=-(

13、2/5)*log2(2/5)-(3/5)*log2(3/5)=0.971Entropy(Overcast)=-(4/4)*log2(4/4)=0Gain(Outlook)=Entropy(S)-(5/14)*Entropy(Sunny)-(5/14)*Entropy(Rain)-(4/14)*Entropy(Overcast)=0.247Temperature的信息增益:Entropy(Hot)=-(2/4)

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。