欢迎来到天天文库
浏览记录
ID:22087805
大小:490.30 KB
页数:16页
时间:2018-10-27
《数据挖掘实验报告》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库。
1、中科大数据挖掘实验报告姓名樊涛声班级软设一班学号SA15226248实验一K邻近算法实验一实验内容使用k近邻算法改进约会网站的配对效果。海伦使用约会网址寻找适合自己的约会对象,约会网站会推荐不同的人选。她将曾经交往过的的人总结为三种类型:(1)不喜欢的人(2)魅力一般的人(3)极具魅力的人尽管发现了这些规律,但依然无法将约会网站提供的人归入恰当的分类。使用KNN算法,更好的帮助她将匹配对象划分到确切的分类中。二实验要求(1)独立完成kNN实验,基本实现可预测的效果(2)实验报告(3)开放性:可以自己增加数据或修改算法,实现更好的分类效果三实验步骤(1)数据源说明实验给
2、出的数据源为datingTestSet.txt,共有4列,每一列的属性分别为:①percentageoftimespentingplayingvediogames;②frequentfliedmilesearnedperyear;③litersoficecreamconsumedperyear;④yourattitudetowarsthispeople。通过分析数据源中的数据,得到规律,从而判断一个人的前三项属性来得出划分海伦对他的态度。(2)KNN算法原理对未知属性的某数据集中的每个点一次执行以下操作①计算已知类别数据集中的每一个点和当前点的距离②按照距离递增依次排
3、序③选取与当前点距离最小的k个点④确定k个点所在类别的出现频率⑤返回k个点出现频率最高的点作为当前点的分类(3)KNN算法实现①利用python实现构造分类器首先计算欧式距离然后选取距离最小的K个点代码如下:defclassify(inMat,dataSet,labels,k): dataSetSize=dataSet.shape[0] #KNN的算法核心就是欧式距离的计算,一下三行是计算待分类的点和训练集中的任一点的欧式距离 diffMat=tile(inMat,(dataSetSize,1))-dataSet sqDiffMat=diffM
4、at**2 distance=sqDiffMat.sum(axis=1)**0.5 #接下来是一些统计工作 sortedDistIndicies=distance.argsort() classCount={} foriinrange(k): labelName=labels[sortedDistIndicies[i]] classCount[labelName]=classCount.get(labelName,0)+1; sortedClassCount=sorted(classCount.items
5、(),key=operator.itemgetter(1),reverse=True) returnsortedClassCount[0][0]②解析数据输入文件名,将文件中的数据转化为样本矩阵,方便处理代码如下:deffile2Mat(testFileName,parammterNumber): fr=open(testFileName) lines=fr.readlines() lineNums=len(lines) resultMat=zeros((lineNums,parammterNumber)) classLabelVe
6、ctor=[] foriinrange(lineNums): line=lines[i].strip() itemMat=line.split('t') resultMat[i,:]=itemMat[0:parammterNumber] classLabelVector.append(itemMat[-1]) fr.close() returnresultMat,classLabelVector;返回值为前三列属性被写入到resultMat二维数组中,第四列属性作为标签写入到classLabl
7、eVector中③归一化数据不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,使各指标处于同一数量级。处理过程如下:defautoNorm(dataSet): minVals=dataSet.min(0) maxVals=dataSet.max(0) ranges=maxVals-minVals normMat=zeros(shape(dataSet)) size=normMat.shape[0] normMat=dataSet-tile
此文档下载收益归作者所有