模型_兵器核科学_工程科技_专业资料

模型_兵器核科学_工程科技_专业资料

ID:11123859

大小:713.30 KB

页数:14页

时间:2018-07-10

模型_兵器核科学_工程科技_专业资料_第1页
模型_兵器核科学_工程科技_专业资料_第2页
模型_兵器核科学_工程科技_专业资料_第3页
模型_兵器核科学_工程科技_专业资料_第4页
模型_兵器核科学_工程科技_专业资料_第5页
资源描述:

《模型_兵器核科学_工程科技_专业资料》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、模型逻辑回归是一种判别模型,表现为直接对条件概率P(y

2、x)建模,而不关心背后的数据分布P(x,y)。sigmoid函数在介绍逻辑回归模型之前,我们先引入sigmoid函数,其数学形式是:对应的函数曲线如下图所示:从上图可以看到sigmoid函数是一个s形的曲线,它的取值在[0,1]之间,在远离0的地方函数的值会很快接近0/1。这个性质使我们能够以概率的方式来解释(后边延伸部分会简单讨论为什么用该函数做概率建模是合理的)。参数求解模型的数学形式确定后,剩下就是如何去求解模型中的参数。统计学中常用的一种方法是最大似然估计,即找到一组参数,使得在这组参数下,我们的数据的似然度(概率)越大。在逻辑回

3、归模型中,似然度可表示为:取对数可以得到对数似然度:对于该优化问题,存在多种求解方法,这里以梯度下降的为例说明。梯度下降(GradientDescent)又叫作最速梯度下降,是一种迭代求解的方法,通过在每一步选取使目标函数变化最快的一个方向调整参数的值来逼近最优值。基本步骤如下:逻辑回归的损失函数是凸函数,可以保证我们找到的局部最优值同时是全局最优。此外,常用的凸优化的方法都可以用于求解该问题。例如共轭梯度下降,牛顿法,LBFGS等。决策函数为:选择0.5作为阈值是一个一般的做法,实际应用时特定的情况可以选择不同阈值,如果对正例的判别准确性要求高,可以选择阈值大一些,对正例的召回要求高,则可以

4、选择阈值小一些。多分类(softmax)如果y不是在[0,1]中取值,而是在K个类别中取值,这时问题就变为一个多分类问题。Softmax回归是直接对逻辑回归在多分类的推广,相应的模型也可以叫做多元逻辑回归(MultinomialLogisticRegression)。模型通过softmax函数来对概率建模,具体形式如下:由下图中公式知,给定了数据x和参数θ,y=0和y=1的概率和=1假设我们的数据点中y只会取0和1,对于一个logisticregressionmodel系统,有,那么costfunction定义如下:由于y只会取0,1,那么就可以写成不信的话可以把y=0,y=1分别代入,可以发

5、现这个J(θ)和上面的Cost(hθ(x),y)是一样的(*^__^*),那么剩下的工作就是求能最小化J(θ)的θ了~现在将其带入Repeat中:这是我们惊奇的发现,它和第一章中我们得到的公式是一样滴~也就是说,下图中所示,不管h(x)的表达式是线性的还是logisticregressionmodel,都能得到如下的参数更新过程。那么如何用vectorization来做呢?换言之,我们不要用for循环一个个更新θj,而用一个矩阵乘法同时更新整个θ。也就是解决下面这个问题:上面的公式给出了参数矩阵θ的更新这部分内容将对logisticregression做一些优化措施,使得能够更快地进行参数梯度

6、下降。本段实现了matlab下用梯度方法计算最优参数的过程。首先声明,除了gradientdescent方法之外,我们还有很多方法可以使用,如下图所示,左边是另外三种方法,右边是这三种方法共同的优缺点,无需选择学习率α,更快,但是更复杂。也就是matlab中已经帮我们实现好了一些优化参数θ的方法,那么这里我们需要完成的事情只是写好costfunction,并告诉系统,要用哪个方法进行最优化参数。比如我们用‘GradObj’, UsetheGradObjoptiontospecify thatFUNalsoreturnsasecondoutputargumentGthatisthepartial

7、 derivativesofthefunctiondf/dX,atthepointX.如上图所示,给定了参数θ,我们需要给出costFunction.其中,jVal是costfunction的表示,比如设有两个点(1,0,5)和(0,1,5)进行回归,那么就设方程为hθ(x)=θ1x1+θ2x2;则有costfunctionJ(θ):jVal=(theta(1)-5)^2+(theta(2)-5)^2;在每次迭代中,按照gradientdescent的方法更新参数θ:θ(i)-=gradient(i),其中gradient(i)是J(θ)对θi求导的函数式,在此例中就有gradient(1)=

8、2*(theta(1)-5), gradient(2)=2*(theta(2)-5)。如下面代码所示:函数costFunction,定义jVal=J(θ)和对两个θ的gradient:function[jVal,gradient]=costFunction(theta)%COSTFUNCTIONSummaryofthisfunctiongoeshere%Detailedexplanationgoe

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。