机器学习工具WEKA地使用总结材料,包括算法选择、属性选择、全参数优化

机器学习工具WEKA地使用总结材料,包括算法选择、属性选择、全参数优化

ID:44951203

大小:131.18 KB

页数:16页

时间:2019-11-05

机器学习工具WEKA地使用总结材料,包括算法选择、属性选择、全参数优化_第1页
机器学习工具WEKA地使用总结材料,包括算法选择、属性选择、全参数优化_第2页
机器学习工具WEKA地使用总结材料,包括算法选择、属性选择、全参数优化_第3页
机器学习工具WEKA地使用总结材料,包括算法选择、属性选择、全参数优化_第4页
机器学习工具WEKA地使用总结材料,包括算法选择、属性选择、全参数优化_第5页
资源描述:

《机器学习工具WEKA地使用总结材料,包括算法选择、属性选择、全参数优化》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、标准文案一、属性选择:1、理论知识:见以下两篇文章:数据挖掘中的特征选择算法综述及基于WEKA的性能比较_陈良龙数据挖掘中约简技术与属性选择的研究_刘辉2、weka中的属性选择2.1评价策略(attributeevaluator)总的可分为filter和wrapper方法,前者注重对单个属性进行评价,后者侧重对特征子集进行评价。Wrapper方法有:CfsSubsetEvalFilter方法有:CorrelationAttributeEval2.1.1Wrapper方法:(1)CfsSubsetEval根据属性子集中每一

2、个特征的预测能力以及它们之间的关联性进行评估,单个特征预测能力强且特征子集内的相关性低的子集表现好。Evaluatestheworthofasubsetofattributesbyconsideringtheindividualpredictiveabilityofeachfeaturealongwiththedegreeofredundancybetweenthem.Subsetsoffeaturesthatarehighlycorrelatedwiththeclasswhilehavinglowintercorrel

3、ationarepreferred.Formoreinformationsee:M.A.Hall(1998).Correlation-basedFeatureSubsetSelectionforMachineLearning.Hamilton,NewZealand.大全标准文案(2)WrapperSubsetEvalWrapper方法中,用后续的学习算法嵌入到特征选择过程中,通过测试特征子集在此算法上的预测性能来决定其优劣,而极少关注特征子集中每个特征的预测性能。因此,并不要求最优特征子集中的每个特征都是最优的。Eval

4、uatesattributesetsbyusingalearningscheme.Crossvalidationisusedtoestimatetheaccuracyofthelearningschemeforasetofattributes.Formoreinformationsee:RonKohavi,GeorgeH.John(1997).Wrappersforfeaturesubsetselection.ArtificialIntelligence.97(1-2):273-324.2.1.2Filter方法:如果选

5、用此评价策略,则搜索策略必须用Ranker。(1)CorrelationAttributeEval根据单个属性和类别的相关性进行选择。Evaluatestheworthofanattributebymeasuringthecorrelation(Pearson's)betweenitandtheclass.Nominalattributesareconsideredonavaluebyvaluebasisbytreatingeachvalueasanindicator.Anoverallcorrelationforano

6、minalattributeisarrivedatviaaweightedaverage.(2)GainRatioAttributeEval根据信息增益比选择属性。Evaluatestheworthofanattributebymeasuringthegainratiowithrespecttotheclass.GainR(Class,Attribute)=(H(Class)-H(Class

7、Attribute))/大全标准文案H(Attribute).(3)InfoGainAttributeEval根据信息增益选择属性

8、。Evaluatestheworthofanattributebymeasuringtheinformationgainwithrespecttotheclass.InfoGain(Class,Attribute)=H(Class)-H(Class

9、Attribute).(4)OneRAttributeEval根据OneR分类器评估属性。Classforbuildingandusinga1Rclassifier;inotherwords,usestheminimum-errorattributeforprediction

10、,discretizingnumericattributes.Formoreinformation,see:R.C.Holte(1993).Verysimpleclassificationrulesperformwellonmostcommonlyuseddatasets.MachineLearning.11:63-

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。