盘点:十大机器学习算法及其应用.doc

盘点:十大机器学习算法及其应用.doc

ID:28116590

大小:418.50 KB

页数:11页

时间:2018-12-08

盘点:十大机器学习算法及其应用.doc_第1页
盘点:十大机器学习算法及其应用.doc_第2页
盘点:十大机器学习算法及其应用.doc_第3页
盘点:十大机器学习算法及其应用.doc_第4页
盘点:十大机器学习算法及其应用.doc_第5页
资源描述:

《盘点:十大机器学习算法及其应用.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、盘点:十大机器学习算法及其应用  如果你想学习机器算法,要从何下手呢?以我为例,我是在哥本哈根留学期间,学习AI课程入门的。我们用的教科书是一本AI经典:《PeterNorvig’sArTIficialIntelligence?—?AModernApproach》。最近我在继续学习这些,包括在旧金山听了几个关于深度学习的技术演讲,参加机器学习大会上。六月份,我注册了Udacity的IntrotoMachineLearning的在线课程,近期已经完成了。这篇文章,我想分享一些我所学到的、最常见的机器学习算法。  我从这个课程中学到了很

2、多,并决定继续学习这一专业内容。不久前,我在旧金山听了几个关于深度学习、神经网络、数据架构方面的技术演讲,包括在一个机器学习大会上和很多领域知名专家一起。最重要的是,我六月份注册了Udacity的机器学习入门的在线课程,近期已经完成了。这篇文章,我想分享一些我所学到的、最常见的机器学习算法。  机器学习算法可以分为三个大类——有监督学习、无监督学习和强化学习。  有监督学习,对训练有标签的数据有用,但是对于其他没有标签的数据,则需要预估。  无监督学习,用于对无标签的数据集(数据没有预处理)的处理,需要发掘其内在关系的时候。  强化

3、学习,介于两者之间,虽然没有精准的标签或者错误信息,但是对于每个可预测的步骤或者行为,会有某种形式的反馈。  由于我上的是入门课程,我并没有学习强化学习,但是下面10个有监督和无监督学习算法已经足以让你对机器学习产生兴趣。  监督学习  1.决策树(DecisionTrees)  决策树是一个决策支持工具,它用树形的图或者模型表示决策及其可能的后果,包括随机事件的影响、资源消耗、以及用途。请看下图,随意感受一下决策树长这样的:    从商业角度看,决策树就是用最少的Yes/No问题,尽可能地做出一个正确的决策。它让我们通过一种结构化

4、、系统化的方式解决问题,得到一个有逻辑的结论。  2.朴素贝叶斯分类(NaiveBayesClassificaTIon)  朴素贝叶斯分类器是一类简单概率分类器,它基于把贝叶斯定理运用在特征之间关系的强独立性假设上。下图是贝叶斯公式——P(A

5、B)表示后验概率,P(B

6、A)表示似然度,P(A)表示类别的先验概率(classpriorprobability),P(B)表示做出预测的先验概率(predictorpriorprobability)。    现实生活中的应用例子:  一封电子邮件是否是垃圾邮件  一篇文章应该分到科技、政治,

7、还是体育类  一段文字表达的是积极的情绪还是消极的情绪?  人脸识别  3.普通最小二乘回归(OrdinaryLeastSquaresRegression)    如果你学过统计学,你可能听过线性回归。至少最小二乘是一种进行线性回归的方法。你可以认为线性回归就是让一条直线用最适合的姿势穿过一组点。有很多方法可以这样做,普通最小二乘法就像这样——你可以画一条线,测量每个点到这条线的距离,然后加起来。最好的线应该是所有距离加起来最小的那根。  线性法表示你去建模线性模型,而最小二乘法可以最小化该线性模型的误差。  4.逻辑回归(Logi

8、sTIcRegression)    逻辑回归是一种非常强大的统计方法,可以把有一个或者多个解释变量的数据,建立为二项式类型的模型,通过用累积逻辑分布的逻辑函数估计概率,测量分类因变量和一个或多个独立变量之间的关系。  通常,回归在现实生活中的用途如下:  信用评估  测量市场营销的成功度  预测某个产品的收益  特定的某天是否会发生地震  5.支持向量机(SupportVectorMachines)    SVM是一种二分算法。假设在N维空间,有一组点,包含两种类型,SVM生成a(N-1)维的超平面,把这些点分成两组。比如你有一些

9、点在纸上面,这些点是线性分离的。SVM会找到一个直线,把这些点分成两类,并且会尽可能远离这些点。  从规模看来,SVM(包括适当调整过的)解决的一些特大的问题有:广告、人类基因剪接位点识别、基于图片的性别检测、大规模图片分类…  6.集成方法(EnsembleMethods)    集成方法吸纳了很多算法,构建一个分类器集合,然后给它们的预测带权重的进行投票,从而进行分类。最初的集成方法是贝叶斯平均法(Bayesianaveraging),但是最近的算法集还包括了纠错输出编码(error-correcTIngoutputcoding

10、),bagging和boosting  那么集成方法如何工作的?为什么它们比单独的模型更好?  它们均衡了偏差:就像如果你均衡了大量的倾向民主党的投票和大量倾向共和党的投票,你总会得到一个不那么偏颇的结果。  它们降低了方差:集合大量

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。