资源描述:
《 神经元模型和网络结构2009.10.1.ppt》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库。
1、第2章神经元模型和网络结构2.1原理和实例2.2.1符号教材(本课程)中的图、数学公式以及解释图和数学符号将使用以下符号:◆标量:小写的余体字母,如a,b,c◆向量:小写的黑体(即加粗)字母,如a,b,c,◆矩阵:大写的黑体(即加粗)字母,如A,B,C2.2.2神经元模型1、单输入神经元如图2-1所示。标量输入p乘上标量权值w得到wp,再将其送入累加器。另一个输入1乘偏置值b,再将其送入累加器。累加器输出n称为净输入。它被送入一个传输函数f,在f中产生神经无的标量输出a◆权值:w◆偏置值:b◆净输入:n◆传输函数:f传输函数也称为活跃函数,偏置值也
2、称为偏移量2.2.2神经元模型神经元输出按下式计算:实际输出取取决于所选择的特定传输函数。注意:w和b是神经元的可调整的标量参数。设计者可以选择特定的传输函数,在一些学习(训练)规则中调整参数w和b,以满足特定的需要。2.2.2神经元模型2、单输入神经元◆硬极限传输函数:2.2.2神经元模型◆线性传输函数:2.2.2神经元模型◆对数-S形传输函数:该函数是可微。其它传输函数见表2-12.2.2神经元模型◆单层多神经元演示:1、先运行MATLAB,后在MATLAB的安装目录中的如下子目录中找到:C:ProgramFilesMATLABR2007
3、atoolboxnetndemos中找到nnd2n1.m,右击运行。2、打开MATLAB帮助文件,并选中标签页“Demos”,按以下方式操作:(1)在左侧的窗口中选择:ToolboxesNeuralNetworkNeuros(2)然后在右侧的窗口中选择“Simpleneuroandtransferfunctions”(3)在右侧窗口出现新的内容,找到“Runthisdemo”,然后点击。则会出现如下界面:2.2.2神经元模型3、多输入神经元权值矩阵通常,一个神经神经元有不止一个输入。具有R个输入的神经元如图2-5所示。p1,p2,.
4、..,pR分别对应的权值矩阵W的元素是w1,1,w1,2,...,w1,R.神经元有一个偏置值b,它与所有输入的加权和累加,得到净输入n:这个表达式也可以写成矩阵形式:神经元的输出可以写成:2.2.2神经元模型权值下标:◆第一个下标表示权值相应连接所指定的目标神经元编号,◆在多层网络中第二个下标表示权值相应连接的源神经元编号,在单层网络中表示输入的编号w1,2表示从第2个输入到第一个神经元的连接。(书中相应地方解释不妥)2.2.2神经元模型简化符号:当画出所有神经元之间的连接后,网络将会多么复杂。而且对连接的详细描述也会掩盖网络的主要特征,所以
5、本书将采用简化符号来表示神经元。如右图,左边垂直的实心条表示输入向量p,p下面的变量R×1表示输入是由R个元素组成的一维向量。W有1行R列。常量l则作为输入与标量偏置值b相乘。传输函数f的净输入是n。,它是偏置值b与积Wp的和。神经元的输出“是一个标量。如果网络有多个神经:元,那么网络输出就可能是一个向量。简化符号图中,要标出变量维数。2.2.2神经元模型◆单层多神经元演示:1、先运行MATLAB,后在MATLAB的安装目录中的如下子目录中找到:C:ProgramFilesMATLABR2007atoolboxnetndemos中
6、找到nnd2n2.m,右击运行。2、打开MATLAB帮助文件,并选中标签页“Demos”,按以下方式操作:(1)在左侧的窗口中选择:ToolboxesNeuralNetworkNeuros(2)然后在右侧的窗口中选择“Neuronwithvectorinput”(3)在右侧窗口出现新的内容,找到“Runthisdemo”,然后点击。则会出现如下界面:2.2.3网络结构(P13)一般来说,有多个输入的单个神经元并不能满足实际应用的要求。在实际应用中需要有多个并行操作的神经元,这里将这些可以并行操作的神经元组成的集合称为“层”。1.神经元的层图2-
7、7是由S个神经元组成的单层网络。注意,R个输入中的每一个均与每个神经元相连,权值矩阵现在有S行。该层包括权值矩阵W、累加器、偏置值向量b、传输函数框和输出向量a输入向量通过如下权矩阵W进入网络:2.2.3网络结构(P13)注意:1、通常每层的输入个数并不等于该层中神经元的数目(即R≠S)2、同一层中所有神经元的传输函数不一定相同同样,具有S个神经元、R个输入的单层网络也能用简化的符号表示为如图2-8所示2.多层神经网络层上标考虑具有几层神经元的网络。每层都有自己的枚值矩阵W、偏置值向量b、净输人向量n和一个输出向量a。用上标来标注这些层次,第一
8、层的权值矩阵可以写为W1,第二层的权值矩阵可以写为W2等。2.2.3网络结构—2多层神经元(P13)注意:如图所示,第一层