大工19秋《数据挖掘》大作业题目及要求答案.doc

大工19秋《数据挖掘》大作业题目及要求答案.doc

ID:58584052

大小:179.50 KB

页数:10页

时间:2020-10-19

大工19秋《数据挖掘》大作业题目及要求答案.doc_第1页
大工19秋《数据挖掘》大作业题目及要求答案.doc_第2页
大工19秋《数据挖掘》大作业题目及要求答案.doc_第3页
大工19秋《数据挖掘》大作业题目及要求答案.doc_第4页
大工19秋《数据挖掘》大作业题目及要求答案.doc_第5页
大工19秋《数据挖掘》大作业题目及要求答案.doc_第6页
大工19秋《数据挖掘》大作业题目及要求答案.doc_第7页
大工19秋《数据挖掘》大作业题目及要求答案.doc_第8页
大工19秋《数据挖掘》大作业题目及要求答案.doc_第9页
大工19秋《数据挖掘》大作业题目及要求答案.doc_第10页
资源描述:

《大工19秋《数据挖掘》大作业题目及要求答案.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、网络教育学院《数据挖掘》课程大作业题目:题目一:Knn算法原理以及python实现姓名:报名编号:学习中心:层次:专升本专业:计算机科学与技术第一大题:讲述自己在完成大作业过程中遇到的困难,解决问题的思路,以及相关感想,或者对这个项目的认识,或者对Python与数据挖掘的认识等等,300-500字。数据挖掘是指从大量的数据中通过一些算法寻找隐藏于其中重要实用信息的过程。这些算法包括神经网络法、决策树法、遗传算法、粗糙集法、模糊集法、关联规则法等。在商务管理,股市分析,公司重要信息决策,以及科学研究方面都有十分重要的意义。数据挖掘是一种决策支持过程,它主要基于人工

2、智能、机器学习、模式识别、统计学、数据库、可视化技术,从大量数据中寻找其肉眼难以发现的规律,和大数据联系密切。如今,数据挖掘已经应用在很多行业里,对人们的生产生活以及未来大数据时代起到了重要影响。第二大题:完成下面一项大作业题目。2019秋《数据挖掘》课程大作业注意:从以下5个题目中任选其一作答。题目一:Knn算法原理以及python实现要求:文档用使用word撰写即可。主要内容必须包括:(1)算法介绍。(2)算法流程。(3)python实现算法以及预测。(4)整个word文件名为[姓名奥鹏卡号学习中心](如戴卫东9浙江台州奥鹏学习中心[1]VIP)答:KNN算

3、法介绍KNN是一种监督学习算法,通过计算新数据与训练数据特征值之间的距离,然后选取K(K>=1)个距离最近的邻居进行分类判(投票法)或者回归。若K=1,新数据被简单分配给其近邻的类。KNN算法实现过程(1)选择一种距离计算方式,通过数据所有的特征计算新数据与已知类别数据集中的数据点的距离;(2)按照距离递增次序进行排序,选取与当前距离最小的k个点;(3)对于离散分类,返回k个点出现频率最多的类别作预测分类;对于回归则返回k个点的加权值作为预测值;算法关键(1)数据的所有特征都要做可比较的量化若是数据特征中存在非数值的类型,必须采取手段将其量化为数值。例如样本特征

4、中包含颜色,可通过将颜色转换为灰度值来实现距离计算。(2)样本特征要做归一化处理样本有多个参数,每一个参数都有自己的定义域和取值范围,他们对距离计算的影响不一样,如取值较大的影响力会盖过取值较小的参数。所以样本参数必须做一些scale处理,最简单的方式就是所有特征的数值都采取归一化处置。(3)需要一个距离函数以计算两个样本之间的距离距离的定义:欧氏距离、余弦距离、汉明距离、曼哈顿距离等,一般选欧氏距离作为距离度量,但是这是只适用于连续变量。在文本分类这种非连续变量情况下,汉明距离可以用来作为度量。通常情况下,如果运用一些特殊的算法来计算度量的话,K近邻分类精度可

5、显著提高,如运用大边缘最近邻法或者近邻成分分析法。(4)确定K的值K值选的太大易引起欠拟合,太小容易过拟合。交叉验证确定K值。KNN分类分类算法常采用多数表决决定。一个缺点是出现频率较多的样本将会主导测试点的预测结果。解决这个缺点的方法之一是在进行分类时将K个邻居到测试点的距离考虑进去。若样本到测试点距离d,则选1/d为该邻居的权重,统计k个邻居所有类标签的权重和,值最大的就是新数据点的预测类标签。KNN回归KNN回归是取K个邻居类标签值得加权作为新数据点的预测值。优缺点(1)KNN算法的优点•1.简单、有效。•2.重新训练的代价较低(类别体系的变化和训练集的变

6、化,在Web环境和电子商务应用中是很常见的)。•3.计算时间和空间线性于训练集的规模(在一些场合不算太大)。•4.由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。•5.该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。(2)KNN算法缺点•1.KNN算法是懒散学习方法(lazylearning,基本上不学习),一些积极学习的算法要快很多。•2.类别评分不是规格化的(不像概率评分)(???)。•3.输出的

7、可解释性不强,例如决策树的可解释性较强。•4.该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。该算法只计算最近的邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。可以采用权值的方法(和该样本距离小的邻居权值大)来改进。•5.计算量较大。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。KNN实现函数Create_DataSet创建一个数据集,坐

8、标轴左下角分类为B,右上

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。