最新生物-神经元详解教学讲义PPT课件.ppt

最新生物-神经元详解教学讲义PPT课件.ppt

ID:62150877

大小:734.50 KB

页数:59页

时间:2021-04-19

最新生物-神经元详解教学讲义PPT课件.ppt_第1页
最新生物-神经元详解教学讲义PPT课件.ppt_第2页
最新生物-神经元详解教学讲义PPT课件.ppt_第3页
最新生物-神经元详解教学讲义PPT课件.ppt_第4页
最新生物-神经元详解教学讲义PPT课件.ppt_第5页
资源描述:

《最新生物-神经元详解教学讲义PPT课件.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、生物-神经元详解生物神经网络生物神经系统是由大量神经细胞(神经元)组成的一个复杂的互联网络。据统计,人类大脑约有1010-1011个神经元,每个神经元与103-105个其它的神经元互相连接,从而构成一个极为庞大复杂的网络。神经元的结构总体来讲可分为三个部分:胞体(Soma),树突(Dendrites)和轴突(Axon)。生物神经网络工作机理1在突触的接受侧,信号被送入胞体,在胞体内进行综合,有的信息起刺激作用,有的起抑制作用,当胞体中接受的累加刺激超过一个阈值时,胞体被激发,此时它沿轴突通过树突向其它神经元发出信号。神经网络模拟人脑的四个方面1、物理

2、结构:人脑神经细胞约1010~1011个2、计算模拟:大规模并行处理3、存储与操作:信息分布存放,容错、联想能力强4、训练:从实践中获取知识----学习算法构造人工神经元的要求神经元是构成神经网络的最基本单元要构造神经网络必须先构造人工神经元人工神经元应是简单实现的数学模型人工神经元应该能模拟生物神经元的工作机理人工神经元的构造方法对于每个神经元,它可以接受来自系统其他神经元的输入信号每个输入信号对应一个权,相当于突触的“联结强度”所有输入的加权和决定该神经元的激活状态人工神经元的网络输入1、设n个输入分别为x1,x2,…,xn,对应的权分别为w1,

3、w2,…,wn,即有输入向量和权向量:X=(x1,x2,…,xn)W=(w1,w2,…,wn)net=xiwinet=XW神经元网络输入:x1x2xnnet=XWw1w2wn激活函数(激励函数、活化函数)每个生物神经元有一个阈值,当输入信号累加效果超过阈值时,神经元处于激活状态,否则处于抑制状态。希望人工神经元有一个更一般的变换函数,来执行该神经元获得的网络输入的变换,这就是激活函数。o=f(net)x1x2xnnet=XWw1w2wno=f(net)激活函数的种类1、线性函数2、非线性斜面函数3、阈值函数,又称阶跃函数4、S型函数S型激活函数

4、的特性1、非线性2、处处连续可导3、有较好的增益控制—防止网络进入饱和状态neto0人工神经元,M-P模型x1x2xnnet=XWw1w2wno=f(net)将基本模型和激活函数合在一起就构成了人工神经元这就是著名的McCulloch-Pitts模型,M-P模型也称处理单元PE人工神经网络的简化画法用节点代表神经元,加权有向边代表从神经元到神经元之间的有向联结,权代表联结强度,箭头代表信号的传递方向。简单单级网输入层的神经元不对输入信号做任何处理,它们只起到对输入向量X的扇出作用。简单单级网x1x2xnw11o1o2om简单单级网的输入输出W=(w

5、ij)=w11w21wn1w12w22wn2w1mw2mwnm………权矩阵:输入层第j个神经元的网络输入为:netj=x1w1j+x2w2j+…+xnwnj(net1从而有NET=net2netm),,…O=F(NET)多级网研究表明,单级网的功能是有限的,适当增加网络的层数是提高网络计算能力的一个途径。x1x2xno1o2om...多级网的几个约定输入层:只起到输入信号的扇出作用,不记入层数。第j层:第j-1层的直接后续层。输出层:网络的最后一层,具有最大层号,负责输出网络的计算结果。隐藏层:网络输入层与输出层以外的层层数:网络输入层的层号第j-1

6、层到第j层的联结矩阵称第j层联结矩阵,记W(j)非线性激活函数非线性激活函数在多级网络中其着非常重要的作用。如果采用线性激活函数,则多级网的功能不会超过单级网的功能。网络模式的概念所有的信息都是以模式的形式表现出来的。输入向量是模式;输出向量是模式;同层神经元的某一时刻的状态是模式;所有神经元的某一时刻的状态是模式;权矩阵及其所含的向量都是模式。空间模式与时空模式网络在某一时刻的状态所确定模式称为空间模式以时间维为轴展开的空间模式系列称为时空模式他们如同一幅画面与整个电影的关系当研究稳定性和网络训练的收敛过程时涉及时空模式一般情况下,只涉及空间模式人

7、工神经网络的训练人工神经网络的学习过程就是对它的训练过程训练:输入样本向量将样本集的内涵以联结权矩阵的方式存储起来使网络接收输入时,可以给出适当的输出调整权矩阵人工神经网络的无导师训练其训练集中只含一些输入向量,训练算法致力于修改权矩阵,以使网络对一个输入能够给出相容的输出,即相似的输入向量可以得到相似的输出向量。无导师训练算法用来将训练样本集合中蕴涵的统计特性抽取出来,并以联结权矩阵的方式存储起来,使网络可以按照网络向量的相似性进行分类。无导师训练的Hebb算法Wij(t+1)=Wij(t)+ßoi(t)oj(t)其中:Wij(t+1)、Wij(t

8、)为神经元i联结到神经元j的联结在t+1时刻和t时刻的强度oi(t)、oj(t)为这两个神经元t时刻的输出,

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。