从单层感知器到深度学习以及深度学习必知的框架.doc

从单层感知器到深度学习以及深度学习必知的框架.doc

ID:55686746

大小:833.50 KB

页数:16页

时间:2020-05-24

从单层感知器到深度学习以及深度学习必知的框架.doc_第1页
从单层感知器到深度学习以及深度学习必知的框架.doc_第2页
从单层感知器到深度学习以及深度学习必知的框架.doc_第3页
从单层感知器到深度学习以及深度学习必知的框架.doc_第4页
从单层感知器到深度学习以及深度学习必知的框架.doc_第5页
资源描述:

《从单层感知器到深度学习以及深度学习必知的框架.doc》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、从单层感知器到深度学习以及深度学习必知的框架一单层神经网络(感知器)1.结构下面来说明感知器模型。在原来MP模型的“输入”位置添加神经元节点,标志其为“输入单元”。其余不变,于是我们就有了下图:从本图开始,我们将权值w1,w2,w3写到“连接线”的中间。图1单层神经网络在“感知器”中,有两个层次。分别是输入层和输出层。输入层里的“输入单元”只负责传输数据,不做计算。输出层里的“输出单元”则需要对前面一层的输入进行计算。我们把需要计算的层次称之为“计算层”,并把拥有一个计算层的网络称之为“单层神经网络”。

2、有一些文献会按照网络拥有的层数来命名,例如把“感知器”称为两层神经网络。但在本文里,我们根据计算层的数量来命名。假如我们要预测的目标不再是一个值,而是一个向量,例如[2,3]。那么可以在输出层再增加一个“输出单元”。下图显示了带有两个输出单元的单层神经网络,其中输出单元z1的计算公式如下图。图2单层神经网络(Z1)可以看到,z1的计算跟原先的z并没有区别。我们已知一个神经元的输出可以向多个神经元传递,因此z2的计算公式如下图。图3单层神经网络(Z2)可以看到,z2的计算中除了三个新的权值:w4,w5,w

3、6以外,其他与z1是一样的。整个网络的输出如下图。图4单层神经网络(Z1和Z2)目前的表达公式有一点不让人满意的就是:w4,w5,w6是后来加的,很难表现出跟原先的w1,w2,w3的关系。因此我们改用二维的下标,用wx,y来表达一个权值。下标中的x代表后一层神经元的序号,而y代表前一层神经元的序号(序号的顺序从上到下)。例如,w1,2代表后一层的第1个神经元与前一层的第2个神经元的连接的权值(这种标记方式参照了AndrewNg的课件)。根据以上方法标记,我们有了下图。图5单层神经网络(扩展)如果我们仔细

4、看输出的计算公式,会发现这两个公式就是线性代数方程组。因此可以用矩阵乘法来表达这两个公式。例如,输入的变量是[a1,a2,a3]T(代表由a1,a2,a3组成的列向量),用向量a来表示。方程的左边是[z1,z2]T,用向量z来表示。系数则是矩阵W(2行3列的矩阵,排列形式与公式中的一样)。于是,输出公式可以改写成:g(W*a)=z;这个公式就是神经网络中从前一层计算后一层的矩阵运算。2.效果与神经元模型不同,感知器中的权值是通过训练得到的。因此,根据以前的知识我们知道,感知器类似一个逻辑回归模型,可以做

5、线性分类任务。我们可以用决策分界来形象的表达分类的效果。决策分界就是在二维的数据平面中划出一条直线,当数据的维度是3维的时候,就是划出一个平面,当数据的维度是n维时,就是划出一个n-1维的超平面。下图显示了在二维平面中划出决策分界的效果,也就是感知器的分类效果。图6单层神经网络(决策分界)二两层神经网络(多层感知器)1.结构两层神经网络除了包含一个输入层,一个输出层以外,还增加了一个中间层。此时,中间层和输出层都是计算层。我们扩展上节的单层神经网络,在右边新加一个层次(只含有一个节点)。现在,我们的权值

6、矩阵增加到了两个,我们用上标来区分不同层次之间的变量。例如ax(y)代表第y层的第x个节点。z1,z2变成了a1(2),a2(2)。下图给出了a1(2),a2(2)的计算公式。图7两层神经网络(中间层计算)计算最终输出z的方式是利用了中间层的a1(2),a2(2)和第二个权值矩阵计算得到的,如下图。图8两层神经网络(输出层计算)假设我们的预测目标是一个向量,那么与前面类似,只需要在“输出层”再增加节点即可。我们使用向量和矩阵来表示层次中的变量。a(1),a(2),z是网络中传输的向量数据。W(1)和W(

7、2)是网络的矩阵参数。如下图。图9两层神经网络(向量形式)使用矩阵运算来表达整个计算公式的话如下:g(W(1)*a(1))=a(2);g(W(2)*a(2))=z;由此可见,使用矩阵运算来表达是很简洁的,而且也不会受到节点数增多的影响(无论有多少节点参与运算,乘法两端都只有一个变量)。因此神经网络的教程中大量使用矩阵运算来描述。需要说明的是,至今为止,我们对神经网络的结构图的讨论中都没有提到偏置节点(biasunit)。事实上,这些节点是默认存在的。它本质上是一个只含有存储功能,且存储值永远为1的单元。

8、在神经网络的每个层次中,除了输出层以外,都会含有这样一个偏置单元。正如线性回归模型与逻辑回归模型中的一样。偏置单元与后一层的所有节点都有连接,我们设这些参数值为向量b,称之为偏置。如下图。图10两层神经网络(考虑偏置节点)可以看出,偏置节点很好认,因为其没有输入(前一层中没有箭头指向它)。有些神经网络的结构图中会把偏置节点明显画出来,有些不会。一般情况下,我们都不会明确画出偏置节点。在考虑了偏置以后的一个神经网络的矩阵运算如下:g(W(1)

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。