机器学习中的最优化算法总结

机器学习中的最优化算法总结

ID:33995806

大小:1.98 MB

页数:12页

时间:2019-03-03

机器学习中的最优化算法总结_第1页
机器学习中的最优化算法总结_第2页
机器学习中的最优化算法总结_第3页
机器学习中的最优化算法总结_第4页
机器学习中的最优化算法总结_第5页
资源描述:

《机器学习中的最优化算法总结》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、本文由SIGAI人工智能平台原创,未经允许,不得转载www.sigai.cn机器学习中的最优化算法总结对于几乎所有机器学习算法,无论是有监督学习、无监督学习,还是强化学习,最后一般都归结为求解最优化问题。因此,最优化方法在机器学习算法的推导与实现中占据中心地位。在这篇文章中,SIGAI将对机器学习中所使用的优化算法做一个全面的总结,并理清它们直接的脉络关系,帮你从全局的高度来理解这一部分知识。机器学习要求解的数学模型几乎所有的机器学习算法最后都归结为求一个目标函数的极值,即最优化问题,例如对于有监督学习,我们要找到一个最佳的映射函数f(x),使得对训练样本的损失函数最小化(最小

2、化经验风险或结构风险):N12minwL(w,x,yii)+w2Ni=1在这里,N为训练样本数,L是对单个样本的损失函数,w是要求解的模型参数,是映射函数的参数,x为样本的特征向量,y为样本的标签值。ii或是找到一个最优的概率密度函数p(x),使得对训练样本的对数似然函数极大化(最大似然估计):lmaxlnp(x;i)i=1在这里,是要求解的模型参数,是概率密度函数的参数。对于无监督学习,以聚类算法为例,算法要是的每个类的样本离类中心的距离之和最小化:k2minxSiiS=1xi在这里k为类型数,x为样本向量,为类中心向量,S为第i个类的样本集合。ii对于强化学习,我们要找到一

3、个最优的策略,即状态s到动作a的映射函数(确定性策略,对于非确定性策略,是执行每个动作的概率):as=()本文由SIGAI人工智能平台原创,未经允许,不得转载www.sigai.cn使得任意给定一个状态,执行这个策略函数所确定的动作a之后,得到的累计回报最大化:maxVs()这里使用的是状态价值函数。总体来看,机器学习的核心目标是给出一个模型(一般是映射函数),然后定义对这个模型好坏的评价函数(目标函数),求解目标函数的极大值或者极小值,以确定模型的参数,从而得到我们想要的模型。在这三个关键步骤中,前两个是机器学习要研究的问题,建立数学模型。第三个问题是纯数学问题,即最优化方法

4、,为本文所讲述的核心。最优化算法的分类对于形式和特点各异的机器学习算法优化目标函数,我们找到了适合它们的各种求解算法。除了极少数问题可以用暴力搜索来得到最优解之外,我们将机器学习中使用的优化算法分成两种类型(不考虑随机优化算法如模拟退火、遗传算法等,对于这些算法,我们后面会专门有文章进行介绍):公式解数值优化前者给出一个最优化问题精确的公式解,也称为解析解,一般是理论结果。后者是在要给出极值点的精确计算公式非常困难的情况下,用数值计算方法近似求解得到最优点。除此之外,还有其他一些求解思想,如分治法,动态规划等。我们在后面单独列出。一个好的优化算法需要满足:能正确的找到各种情况下

5、的极值点速度快下图给出了这些算法的分类与它们之间的关系:接下来我们将按照这张图来展开进行讲解。费马定理对于一个可导函数,寻找其极值的统一做法是寻找导数为0的点,即费马定理。微积分本文由SIGAI人工智能平台原创,未经允许,不得转载www.sigai.cn中的这一定理指出,对于可导函数,在极值点处导数必定为0:'fx()=0对于多元函数,则是梯度为0:f(x0)=导数为0的点称为驻点。需要注意的是,导数为0只是函数取得极值的必要条件而不是充分条件,它只是疑似极值点。是不是极值,是极大值还是极小值,还需要看更高阶导数。对于一元函数,假设x是驻点:''1.如果fx()>0,则在该点处

6、去极小值''2.如果fx()<0,则在该点处去极大值''3.如果fx()=0,还要看更高阶导数对于多元函数,假设x是驻点:1.如果Hessian矩阵正定,函数在该点有极小值2.如果Hessian矩阵负定,函数在该点有极大值3.如果Hessian矩阵不定,还需要看更高阶的导数在导数为0的点处,函数可能不取极值,这称为鞍点,下图是鞍点的一个例子(来自SIGAI云端实验室):本文由SIGAI人工智能平台原创,未经允许,不得转载www.sigai.cn除鞍点外,最优化算法可能还会遇到另外一个问题:局部极值问题,即一个驻点是极值点,但不是全局极值。如果我们对最优化问题加以限定,可以有效的

7、避免这两种问题。典型的是凸优化,它要求优化变量的可行域是凸集,目标函数是凸函数。关于凸优化的详细讲解可以阅读SIGAI之前的公众号文章“理解凸优化”。虽然驻点只是函数取得极值的必要条件而不是充分条件,但如果我们找到了驻点,再判断和筛选它们是不是极值点,比之前要容易多了。无论是理论结果,还是数值优化算法,一般都以找驻点作为找极值点的目标。对于一元函数,先求导数,然后解导数为0的方程即可找到所有驻点。对于多元函数,对各个自变量求偏导数,令它们为0,解方程组,即可达到所有驻点。这都是微积分中所讲授

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。