欢迎来到天天文库
浏览记录
ID:28750201
大小:404.50 KB
页数:20页
时间:2018-12-13
《第08讲 自组织竞争人工神经网络.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、第08讲自组织竞争人工神经网络在实际的神经网络中,比如人的视网膜中,存在着一种“侧抑制”现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制。这种侧抑制使神经细胞之间出现竞争,虽然开始阶段各个神经细胞都处于程度不同的兴奋状态,由于侧抑制的作用,各细胞之间相互竞争的最终结果是:兴奋作用最强的神经细胞所产生的抑制作用战胜了它周围所有其他细胞的抑制作用而“赢”了,其周围的其他神经细胞则全“输”了。自组织竞争人工神经网络正是基于上述生物结构和现象形成的。它能够对输入模式进行自组织训练和判断,并将其最终分为不同的类型。
2、与BP网络相比,这种自组织自适应的学习能力进一步拓宽了人工神经网络在模式识别、分类方面的应用,另一方面,竞争学习网络的核心——竞争层,又是许多种其他神经网络模型的重要组成部分,例如科荷伦(Kohonen)网络(又称特性图)、反传网络以及自适应共振理论网络等中均包含竞争层。8.1几种联想学习规则格劳斯贝格(S.Grossberg)提出了两种类型的神经元模型:内星与外星,用以来解释人类及动物的学习现象。一个内星可以被训练来识别一个矢量;而外星可以被训练来产生矢量。由r个输入构成的格劳斯贝格内星模型如图8.1所示。图8.1格劳斯贝
3、格内星模型图由r个输出节点构成的格劳斯贝格外星模型如图8.2所示。20从图8.1和图8.2中可以清楚地看出,内星是通过联接权矢量W接受一组输入信号P;而外星则是通过联接权矢量向外输出一组信号A。它们之所以被称为内星和外星,主要是因为其网络的结构像星形,且内星的信号流向星的内部;而外星的信号流向星的外部。下面分别详细讨论两种神经元模型的学习规则及其功效。图8.2格劳斯贝格外星模型图8.1.1内星学习规则实现内星输入/输出转换的激活函数是硬限制函数。可以通过内星及其学习规则来训练某一神经元节点只响应特定的输入矢量P,它是借助于调
4、节网络权矢量W近似于输入矢量P来实现的。在图8.1所示的单内星中对权值修正的格劳斯贝格内星学习规则为:(8.1)由(8.1)式可见,内星神经元联接强度的变化Δw1j是与输出成正比的。如果内星输出a被某一外部方式而维护高值时,那么通过不断反复地学习,权值将能够逐渐趋近于输入矢量pj的值,并趋使Δw1j逐渐减少,直至最终达到w1j=pj,从而使内星权矢量学习了输入矢量P,达到了用内星来识别一个矢量的目的。另一方面,如果内星输出保持为低值时,网络权矢量被学习的可能性较小,甚至不能被学习。现在来考虑当不同的输入矢量p1和p2分别出现
5、在同一内星时的情况。首先,为了训练的需要,必须将每一输入矢量都进行单位归一化处理,即对每一个输入矢量pq(q=1,2),用去乘以每一个输入元素,因此所得的用来进行网络训练的新输入矢量具有单位1的模值。20当第一个矢量p1输入给内星后,网络经过训练,最终达到W=(p1)T。此后,给内星输入另一个输入矢量p2,此时内星的加权输入和为新矢量p2与已学习过矢量p1的点积,即:(8.2)因为输入矢量的模已被单位化为1,所以内星的加权输入和等于输入矢量p1和p2之间夹角的余弦。根据不同的情况,内星的加权输入和可分为如下几种情况:1)p2
6、等于p1,即有θ12=0,此时,内星加权输入和为1;2)p2不等于p1,随着p2向着p1离开方向的移动,内星加权输入和将逐渐减少直到p2与p1垂直,即θ12=90°时,内星加权输入和为0;3)当p2=-p1,即θ12=180°时,内星加权输入和达到最小值-1。由此可见,对于一个已训练过的内星网络,当输入端再次出现该学习过的输入矢量时,内星产生1的加权输入和;而与学习过的矢量不相同的输入出现时,所产生的加权输入和总是小于1。如果将内星的加权输入和送入到一个具有略大于-1偏差的二值型激活函数时,对于一个已学习过或接近于已学习过的
7、矢量输入时,同样能够使内星的输出为1,而其他情况下的输出均为0。所以在求内星加权输入和公式中的权值W与输入矢量P的点积,反映了输入矢量与网络权矢量之间的相似度,当相似度接近l时,表明输入矢量P与权矢量相似,并通过进一步学习,能够使权矢量对其输入矢量具有更大的相似度,当多个相似输入矢量输入内星,最终的训练结果是使网络的权矢量趋向于相似输入矢量的平均值。内星网络中的相似度是由偏差b来控制,由设计者在训练前选定,典型的相似度值为b=-0.95,这意味着输入矢量与权矢量之间的夹角小于18°48’。若选b=-0.9时,则其夹角扩大为2
8、5°48’。一层具有s个神经元的内星,可以用相似的方式进行训练,权值修正公式为:(8.3)MATLAB神经网络工具箱中内星学习规则的执行是用函数learnis.m来完成上述权矢量的修正过程:dW=1earnis(W,P,A,lr);W=W十dW;20一层s个内星神经元可以作为一个r到1的解
此文档下载收益归作者所有