欢迎来到天天文库
浏览记录
ID:60795562
大小:188.50 KB
页数:12页
时间:2020-12-19
《实验二.天气决策树教学内容.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、实验二.天气决策树生成的决策树算法选择一个属性,把数据分割为K份。选择的准则:InformationGain原始数据的熵本题中物体集C有十四个例子,9个正例,5个反例。于是:M(C)=-9/14* log2 (9/14)-5/14* log2 (5/14) =0.940bits选取属性“天况”的InformationGain计算各分支的熵“晴”的分支含2个正例3个反例,所需期望信息量为:M(天况为晴)=-2/5* log2 (2/5)-3/5* log2 (3/5) = 0.971bit
2、s“多云”的分支,含4个正例0个反例:M(天况为多云)=0“雨”的分支,含3个正例2个反例:M(天况为雨)=-3/5* log2 (3/5)-2/5* log2 (2/5) = 0.971bits则以“天况”作划分后,对应决策树的信息量为:B(C,“天况”)=5/14* 0.971 +4/14*0 +5/14* 0.971 =0.694bits选择天况做为判别条件的InformationGainGain(C,“天况”)=M(C)-B(C,“天况”) =0.940 -0.694 =
3、0.247bits各属性InformationGain的比较Gain(C,“天况”)=M(C)-B(C,“天况”) =0.940 -0.694 =0.247bitsGain(C,“温度”)=M(C)-B(C,"温度") =0.940 -0.911=0.029bitsGain(C,“湿度”)=M(C)-B(C,"湿度") =0.940 -0.788=0.152bitsGain(C,“风况”)=M(C)-B(C,"风况") =0.940 -0.892=0.048bits生成的决策树继续划分
4、“晴”的分支Gain(C晴,“温度”)=M(天况为晴)-B(天况为晴,“温度”)=0.571Gain(C晴,“湿度”)=M(天况为晴)-B(天况为晴,“湿度”)=0.971Gain(C晴,“风况”)=M(天况为晴)-B(天况为晴,"风况")=0.420继续划分“多云”的分支全部为正例,无须划分。继续划分“雨”的分支Gain(C雨,“温度”)=M(天况为雨)-B(天况为雨,“温度”)=0.020Gain(C雨,“湿度”)=M(天况为雨)-B(天况为雨,“湿度”)=0.020Gain(C雨,“风况”)=M
5、(天况为雨)-B(天况为雨,"风况")=0.971生成的决策树此课件下载可自行编辑修改,仅供参考!感谢您的支持,我们努力做得更好!谢谢
此文档下载收益归作者所有