最优化Armijo算法确定步长的最速下降法.doc

最优化Armijo算法确定步长的最速下降法.doc

ID:55930843

大小:516.42 KB

页数:8页

时间:2020-06-16

最优化Armijo算法确定步长的最速下降法.doc_第1页
最优化Armijo算法确定步长的最速下降法.doc_第2页
最优化Armijo算法确定步长的最速下降法.doc_第3页
最优化Armijo算法确定步长的最速下降法.doc_第4页
最优化Armijo算法确定步长的最速下降法.doc_第5页
资源描述:

《最优化Armijo算法确定步长的最速下降法.doc》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、数学与计算科学学院实验报告实验项目名称使用非精确线搜索Armijo算法确定步长的最速下降法所属课程名称最优化方法实验类型算法编程实验日期班级学号姓名成绩7一、实验概述:【实验目的】1.通过实验掌握最速下降法的Matlab算法的基本步骤;2.通过实验掌握Armijo算法确定步长;3.掌握最速下降法的思想及迭代步骤。【实验原理】1.最速下降法:最古老的优化方法,十九世纪中叶由Cauchy提出思想:每次沿负梯度方向进行搜索●●等值线(面)●负梯度方向也称为最速下降方向:举例:7算法步骤:优点:最速下降法的收敛性:全局收敛性:收敛速度估计:7结论:最速下降

2、法的收敛速度比较慢,通常将其用在某些算法的初始阶段求较好的初始点或作为某些算法的间插步.【实验环境】Win7;Matlab7.0二、实验内容:【实验方案】1、求梯度;2、向梯度相反的方向移动x,其中 为步长。如果步长足够小,则可以保证每一次迭代都在减小,但可能导致收敛太慢,如果步长太大,则不能保证每一次迭代都减少,也不能保证收敛。3、循环迭代步骤2,直到x的值变化到使得在两次迭代之间的差值足够小,比如0.00000001,也就是说,直到两次迭代计算出来的基本没有变化,则说明此时已经达到局部最小值了。4、此时,输出x,这个x就是使得函数最小时的x的取

3、值。【实验过程】梯度下降法的计算过程就是沿梯度下降的方向求解极小值(也可以沿梯度上升方向求解极大值)。其迭代公式为 ,其中 代表梯度负方向, 表示梯度方向上的搜索步长。梯度方向我们可以通过对函数求导得到,步长的确定比较麻烦,太大了的话可能会发散,太小收敛速度又太慢。一般确定步长的方法是由线性搜索算法来确定,即把下一个点的坐标ak+1看做是的函数,然后求满足f(ak+1)的最小值的即可。7因为一般情况下,梯度向量为0的话说明是到了一个极值点,此时梯度的幅值也为0.而采用梯度下降算法进行最优化求解时,算法迭代的终止条件是梯度向量的幅值接近0即可,可以设

4、置个非常小的常数阈值。【实验结论】(结果)梯度下降法处理一些复杂的非线性函数会出现问题,例如Rosenbrock函数:其最小值在 处,函数值为 。但是此函数具有狭窄弯曲的山谷,最小点就在这些山谷之中,并且谷底很平。优化过程是之字形的向极小值点靠近,速度非常缓慢。靠近极小值时收敛速度减慢。直线搜索时可能会产生一些问题。可能会“之字形”地下降。【实验小结】(收获体会)这次的实验报告,使得我们对这些算法的思想更加了解,在选择线性搜索的方法时,我们深刻体会到各类参数设置对程序效率的重要性,不同的问题要选用合适的参数来求解,这样使得问题求解及程序运行的效率最

5、高。通过不断地翻阅课本,剖析程序,我们最后实现了对程序的修改和完善,对提供的问题作出了较好的解答。总的来说,对无约束最优化的求解,每种方法在解决不同的问题中效果不能都达到最优,所以我们在实际应用中,要根据实际情况选择合适的方法,争取最大可能的尽快的接近最优。 本次实验不仅使我们基本了解了最优化的实用算法的结构及性能,而且也使得我们对matlab的一些编程技巧更加熟悉,收获很大。三、指导教师评语及成绩:评语评语等级优良中及格不及格1.实验报告按时完成,字迹清楚,文字叙述流畅,逻辑性强2.实验方案设计合理73.实验过程(实验步骤详细,记录完整,数据合理

6、,分析透彻)4实验结论正确.成绩:指导教师签名:批阅日期:附录1:源程序Armijo算法实现:[plain]viewplaincopyfunctionmk=armijo(fun,xk,rho,sigma,gk)assert(rho>0&&rho<1);assert(sigma>0&&sigma<0.5);mk=0;max_mk=100;whilemk<=max_mkx=xk-rho^mk*gk;iffeval(fun,x)<=feval(fun,xk)-sigma*rho^mk*norm(gk)^2break;endmk=mk+1;endretur

7、n;最速下降法实现:[plain]viewplaincopyfunction[opt_x,opt_f,k]=grad_descent(fun_obj,fun_grad,x0)max_iter=5000;%maxnumberofiterationsEPS=1e-5;%thresholdofgradientnorm%Armijoparametersrho=0.5;sigma=0.2;%initializationk=0;xk=x0;whilek

8、=-1*gk;%searchdirectionifnorm(dk)

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。