欢迎来到天天文库
浏览记录
ID:22288034
大小:237.42 KB
页数:6页
时间:2018-10-28
《数据挖掘报告五》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、实验五:深入理解分类问题实验步骤1.学习了解贝叶斯网络及其分类。要求:熟练掌握概念及流程;在数据集contact-lenses,arff上进行分类,并分析结果。一个贝叶斯网络定义包括一个有向无环图(DAG)和一个条件概率表集合。DAG中每一个节点表示一个随机变量,可以是可直接观测变量或隐藏变量,而有向边表示随机变量间的条件依赖;条件概率表中的每一个元素对应DAG中唯一的节点,存储此节点对于其所有直接前驱节点的联合条件概率。构造与训练贝叶斯网络分为以下两步:1、确定随机变量间的拓扑关系,形成DAG。这一步通
2、常需要领域专家完成,而想要建立一个好的拓扑结构,通常需要不断迭代和改进才可以。2、训练贝叶斯网络。这一步也就是要完成条件概率表的构造,如果每个随机变量的值都是可以直接观察的,像我们上面的例子,那么这一步的训练是直观的,方法类似于朴素贝叶斯分类。但是通常贝叶斯网络的中存在隐藏变量节点,那么训练方法就是比较复杂,例如使用梯度下降法。1、对所有可观察随机变景节点用观察值实例化;对不可观察节点实例化为随机值。2、对DAG进行遍历,对每一个不可观察节点y,计算,其中wi表示除y以外的其它所有节点,a为正规化因子,s
3、j表示y的第j个子节点。3、使用第三步计算出的各个y作为未知节点的新值进行实例化,重复第二步,直到结果充分收敛。4、将收敛结果作为推断值。Chocs*D.0wekaclassifiersbaye$netsearchlocalK2-P1-8BAYES-EwtkacU$s«er$bay»$netestinateSimpitEstomator--A05JUsetraminosetJSuppliedteysetS>Cro>s-val«4、contdcM争•今9ansuitksl(noh«*ckfo5、^lKuscberofInstances24•—DetailedAccuracyByCla»—70.83332».1«7KexghcedAvgr.IPIUmn(ut6、30none0.7080.3050.691o.7oeo.e>e0.4120.6700.644••ConfusionMatrix―•abc<••classifieda>401Ia•toft013Ib•hard1212Ic•noae1^>7、WekaClassifierGraphVisualizer:18:35:50-bayes.B...—□X2.学习了解神经网络及其分类。要求:熟练掌握概念及流程;在数据集contact-lenses,arff上进行分类,并与贝叶斯分类结果比较。以BP神经网络为例:Output8、OutputLayerHiddenLayerInputLayer18.三层BP神经网络结构Input具体过程:1)从样本集合中取一个样本(Ai,Bi);2)计算网络的实际输出0;3)求0=8卜0;4)根据D调整权矩阵W;5)对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。BP神经网络在weka中是分属这个部分的weka.classifiers.functions.MultilayerPerceptron其是一个使用了反向传播(backpropagation)的分类器。实验结果如下:Spo9、t"Mumore•曲從10、rwr>wEto(h«0ClassifieroutputTinetakencobuildnodel:0.16secondsStratifiedcross-validationMiaSufftBAryCorrectlyClassifiedInstancesIncorrectlyClA99lfiedInstancesKappastatisticMeanabsoluteerrorRootoaeansquare
4、contdcM争•今9ansuitksl(noh«*ckfo5、^lKuscberofInstances24•—DetailedAccuracyByCla»—70.83332».1«7KexghcedAvgr.IPIUmn(ut6、30none0.7080.3050.691o.7oeo.e>e0.4120.6700.644••ConfusionMatrix―•abc<••classifieda>401Ia•toft013Ib•hard1212Ic•noae1^>7、WekaClassifierGraphVisualizer:18:35:50-bayes.B...—□X2.学习了解神经网络及其分类。要求:熟练掌握概念及流程;在数据集contact-lenses,arff上进行分类,并与贝叶斯分类结果比较。以BP神经网络为例:Output8、OutputLayerHiddenLayerInputLayer18.三层BP神经网络结构Input具体过程:1)从样本集合中取一个样本(Ai,Bi);2)计算网络的实际输出0;3)求0=8卜0;4)根据D调整权矩阵W;5)对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。BP神经网络在weka中是分属这个部分的weka.classifiers.functions.MultilayerPerceptron其是一个使用了反向传播(backpropagation)的分类器。实验结果如下:Spo9、t"Mumore•曲從10、rwr>wEto(h«0ClassifieroutputTinetakencobuildnodel:0.16secondsStratifiedcross-validationMiaSufftBAryCorrectlyClassifiedInstancesIncorrectlyClA99lfiedInstancesKappastatisticMeanabsoluteerrorRootoaeansquare
5、^lKuscberofInstances24•—DetailedAccuracyByCla»—70.83332».1«7KexghcedAvgr.IPIUmn(ut6、30none0.7080.3050.691o.7oeo.e>e0.4120.6700.644••ConfusionMatrix―•abc<••classifieda>401Ia•toft013Ib•hard1212Ic•noae1^>7、WekaClassifierGraphVisualizer:18:35:50-bayes.B...—□X2.学习了解神经网络及其分类。要求:熟练掌握概念及流程;在数据集contact-lenses,arff上进行分类,并与贝叶斯分类结果比较。以BP神经网络为例:Output8、OutputLayerHiddenLayerInputLayer18.三层BP神经网络结构Input具体过程:1)从样本集合中取一个样本(Ai,Bi);2)计算网络的实际输出0;3)求0=8卜0;4)根据D调整权矩阵W;5)对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。BP神经网络在weka中是分属这个部分的weka.classifiers.functions.MultilayerPerceptron其是一个使用了反向传播(backpropagation)的分类器。实验结果如下:Spo9、t"Mumore•曲從10、rwr>wEto(h«0ClassifieroutputTinetakencobuildnodel:0.16secondsStratifiedcross-validationMiaSufftBAryCorrectlyClassifiedInstancesIncorrectlyClA99lfiedInstancesKappastatisticMeanabsoluteerrorRootoaeansquare
6、30none0.7080.3050.691o.7oeo.e>e0.4120.6700.644••ConfusionMatrix―•abc<••classifieda>401Ia•toft013Ib•hard1212Ic•noae1^>
7、WekaClassifierGraphVisualizer:18:35:50-bayes.B...—□X2.学习了解神经网络及其分类。要求:熟练掌握概念及流程;在数据集contact-lenses,arff上进行分类,并与贝叶斯分类结果比较。以BP神经网络为例:Output
8、OutputLayerHiddenLayerInputLayer18.三层BP神经网络结构Input具体过程:1)从样本集合中取一个样本(Ai,Bi);2)计算网络的实际输出0;3)求0=8卜0;4)根据D调整权矩阵W;5)对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。BP神经网络在weka中是分属这个部分的weka.classifiers.functions.MultilayerPerceptron其是一个使用了反向传播(backpropagation)的分类器。实验结果如下:Spo
9、t"Mumore•曲從
10、rwr>wEto(h«0ClassifieroutputTinetakencobuildnodel:0.16secondsStratifiedcross-validationMiaSufftBAryCorrectlyClassifiedInstancesIncorrectlyClA99lfiedInstancesKappastatisticMeanabsoluteerrorRootoaeansquare
此文档下载收益归作者所有