人工神经网络.docx

人工神经网络.docx

ID:59229518

大小:163.79 KB

页数:7页

时间:2020-09-09

人工神经网络.docx_第1页
人工神经网络.docx_第2页
人工神经网络.docx_第3页
人工神经网络.docx_第4页
人工神经网络.docx_第5页
资源描述:

《人工神经网络.docx》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、2.神经网络深度学习实际上是一种多隐层的神经网络结构。首先应了解神经网络的构造与机理,在总结与对比基础之上理解深度学习算法。2.1前向神经网络l神经元:单个神经元结构如下:图2.1单个神经元输入输出示意图每个神经元有输入、输出,输入由表示,+1代表输出具有偏移量输出由表示,(2.1)其中称为激活函数。可以为sigmoid函数,在一些场合下也可以为tanh或其他函数。l三层神经网络结构:多层神经网络的每一层可以由多个神经元组成,一个神经元的输出可以是另一个神经元的输入。其层数越高,其深度越深,其学习与抽象化的能力就越强。图2.2三层神经网络结构图在图2.2

2、中,最左侧一列代表输入层,最右侧代表输出层,中间代表隐含层。每一个圈代表一个节点(神经元)。图中的结构为3节点输入层+3节点隐含层+1节点输出层的神经网络。(图1.3中浅层学习方法大多呈现该3层结构)。该模型具有两个参数:,代表第层的第个结点与第层的第个结点之间的关系。上例中,表示输入层和隐含层的结点之间关系,应为3*3矩阵,表示隐含层与输出层的关系,为1*3矩阵。使用上文提到的sigmoid函数作为隐含层的激活函数。上图中的为激活函数输出值:(2.2)(2.3)(2.4)(2.5)如果用参数表示隐含层第个结点得到的总输入,即(2.6)如果输出层用表示,

3、并写成向量形式,(2.5)可描述为:(2.7)l前向神经网络:若神经网络结构有多层,第层与第层紧密相连,其结点对应关系用矩阵描述。这样的网络结构不含有回路或环,是典型人工神经网络的一种。图2.3多层前向神经网络结构图上图是一种多输出的神经网络结构,常应用于预测与分类。设层数为,其模型的描述是三层神经网络参数描述的扩展:(2.8)(2.9)(2.10)2.2神经网络模型训练在监督学习的背景之下,任何一个模型的输出与期望的损失函数是可以得到的,训练的过程使得损失函数为最小并获得参数值。l损失函数设层神经网络模型在一个样本输入的损失函数如下:(2.11)输入个

4、样本的综合损失函数:(2.12)其中代表第i个标注样本。为防止过拟合,加上权值衰减项,使较大的权值衰减较多,最后得到的损失函数如下:(2.13)λ为权值衰减参数。l反向传播算法求偏导不管是哪种方法训练参数,都需要计算出损失函数对某个参数的偏导数。对(2.13)式求偏导数得到:(2.14)(2.15)求该偏导数中最著名的算法就是反向传播算法(Backpropagationalgorithm,BP)。BP算法的理论来源是一个节点的误差是由前面简单的误差线性叠加传递过来的,传递系数就是网络的系数。BP算法工作原理如下:1.构建前向神经网络通道,逐层首先计算网络

5、中所有节点的激活函数值,以及;2.对于输出层上的结点,输出值为,输入值为已知输出值与目标值,可以写出输出对输入的偏导数:(2.16)3.当,对于当前层上的第i个结点,则可以推导出:(2.17)这一步是BP方法的理论核心:层与层之间的误差传递是线性叠加的,因而已知最终的误差和每层之间的传递矩阵,逐步拆分、加和可以得到每一层上任意结点产生的误差。4.误差系数与所需要的偏导数之间差了一项比例系数,得到偏微分:(2.18)(2.19)l训练算法求得偏导数后,训练可用梯度下降法或者牛顿法来求网络的参数。对参数初始化时,不能全部置为0,应是接近0的随机数,最好可以满

6、足以0为均值的高斯分布。3.监督式分类器3.1Softmax回归Softmax回归是对logistic回归的拓展。Logistic回归适用于处理二分类问题,输出为是0或1的概率,其功能相当于1个神经元的激励函数输出。而softmax回归方法可以通过增加神经元的个数,达到多分类的效果。Logistic回归函数的假设函数和损失函数如下:(3.4)(3.5)在处理k分类问题中,输出向量为k维,假设函数和损失函数如下:(3.6)(3.7)式(3.4)也可以写成(3.8)对比(3.4)和(3.8),(3.5)和(3.7)很容易看出softmax回归是logisti

7、c回归的推广。3.2支持向量机支持向量机(SupportVectorMachines,SVM)是一种基于统计学习理论的模式识别方法。如果说softmax回归是具有一个隐含层的浅层网络,那么SVM则相当于无隐含层的直接分类。SVM与神经网络分类各有优缺点,例如:SVM不需要大量的训练样本,反而对大规模的样本输入时运算量过大,时耗较长;经典的支持向量机算法只给出了二类分类的算法,而在实际应用中,一般要解决多类的分类问题,可以通过多个二类支持向量机的组合来解决。

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。