欢迎来到天天文库
浏览记录
ID:50469923
大小:2.08 MB
页数:38页
时间:2020-03-14
《SOM自组织映射学习汇报.ppt》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库。
1、九逸作品汇报人:我学到了什么我下一步要做什么自组织神经网络SOMAnImprovedNeuralArchitectureforGazeMovementControlinTargetSearching自组织神经网络自组织神经网络是一类无教师学习方式的神经网络模型,它无需期望输出,知识根据数据样本进行学习,并调整自身权重以达到学习的目的。自组织神经网络的学习规则大都采用竞争型的学习规则。竞争型神经网络的基本思想是网络竞争层的各神经元通过竞争来获取对输入模式的响应机会。竞争结果会存在获胜神经元,获胜神经元有关的
2、各连接权值向着更有利于其竞争的方向发展。竞争层输入层Wj权值不同的输入归结到1个神经元上,几个输入就是一类,实现了分类。竞争学习:网络的输出神经元之间相互竞争以求被激活,结果在每一时刻只有一个输出神经元被激活。这个被激活的神经元称为竞争获胜神经元,而其它神经元的状态被抑制,称为WTA(Winner-Take-All)。学习规则:1.向量归一化。首先将当前输入模式向量X和竞争层中各神经元对应的向量Wj全部进行归一化处理。2.寻找获胜神经元。当网络得到一个输入模式向量时,竞争层的所有神经元对应的权向量均与其进
3、行相似性比较,并将最相似的内权向量判为竞争获胜神经元。3.网络输出与权值调整。4.重新向量归一化。用竞争学习算法将下列各模式分为2类:输入向量为:学习率为a=0.5向量归一化设置两个权向量竞争学习X1学习d1=
4、
5、X1-W1(0)
6、
7、=1∠36.89°,d2=
8、
9、X1-W2(0)
10、
11、=1∠216.89°d112、13、X2-W1(1)14、15、=1∠98.43°,d2=16、17、18、X2-W2(1)19、20、=1∠100°d121、对于输入向量进行区域分类。SOM的算法思想:某个输出节点能对某一类模式做出特别的反应以代表该模式类。输出层上相邻的节点能对实际模式分布中相近的模式类做出特别的反应。当某类数据模式输入时,对某以输出节点产生最大刺激(获胜神经元),同时对获胜神经元节点周围的一些节点产生较大的刺激。SOM网络中有两种链接权值,一种是神经元对外部输入反应的连接权值,另外一种是神经元之间的特征权值。它的大小控制着神经元之间交互作用的强弱。SOM拓扑结构图SOM算法是一种无导师的聚类法,他能将任意维输入模在输出层映射成一维或者二维离22、散图形,并保持其拖布结构不变,即在无导师的情况下,通过对输入模式的自组织学习,在竞争层将分类结果表示出来。此外,网络通过对输入模式的反复学习,可以使连接权值空间分布密度与输入模式的概率分布趋于一致,即链接权向量空间分布能反应输入模式的统计特征。SOM算法是一个竞争-合作的过程。1.竞争。对于输入模式,网络中的神经元计算他们各自判别函数的值。这个判别函数对神经元之间的竞争提供基础,具有判别函数最优值(在欧式距离中是最小值)的特定神经元成为竞争的胜利者。2.合作。获胜神经元的的相邻神经元的是合作的基础。神经元23、决定兴奋神经元的拓扑邻域的空间位置,从而提供这样的相邻神经元的合作的基础。3.突出调节。最后的这个机制使神经元通过对他们突触权值的调节以增加他们的关于该输入模式的判别的函数值。所做的调节使获胜神经元对以后相似输入模式的响应增强了。SOM算法步骤Step.1网络初始化用随机数设定输入层和映射层之间权值的初始值:Wij。设定学习次数T,相关邻域Ni(d)。WijX1X2……XijStep.2输入向量把输入向量输入给输入层:Xi。SOM算法步骤Step.3计算映射层的权值向量和输入向量的距离。由欧式距离给出:W24、ijX1X2……XijSOM算法步骤Step.4选择与权值向量的距离最小的神经元。计算并选择使输入向量和权值向量距离最小的神经元,把其称为胜出神经元,标记为j*,并给出邻接神经元集合。WijX1X2……XijSOM算法在修正神经元的时候,同时要修正获胜神经元的附近区域Ni(d)内所有的神经元。Ni(d)={j,dij<=d}12543671098111215141316172019182122252423N13(1)={8,1
12、
13、X2-W1(1)
14、
15、=1∠98.43°,d2=
16、
17、
18、X2-W2(1)
19、
20、=1∠100°d121、对于输入向量进行区域分类。SOM的算法思想:某个输出节点能对某一类模式做出特别的反应以代表该模式类。输出层上相邻的节点能对实际模式分布中相近的模式类做出特别的反应。当某类数据模式输入时,对某以输出节点产生最大刺激(获胜神经元),同时对获胜神经元节点周围的一些节点产生较大的刺激。SOM网络中有两种链接权值,一种是神经元对外部输入反应的连接权值,另外一种是神经元之间的特征权值。它的大小控制着神经元之间交互作用的强弱。SOM拓扑结构图SOM算法是一种无导师的聚类法,他能将任意维输入模在输出层映射成一维或者二维离22、散图形,并保持其拖布结构不变,即在无导师的情况下,通过对输入模式的自组织学习,在竞争层将分类结果表示出来。此外,网络通过对输入模式的反复学习,可以使连接权值空间分布密度与输入模式的概率分布趋于一致,即链接权向量空间分布能反应输入模式的统计特征。SOM算法是一个竞争-合作的过程。1.竞争。对于输入模式,网络中的神经元计算他们各自判别函数的值。这个判别函数对神经元之间的竞争提供基础,具有判别函数最优值(在欧式距离中是最小值)的特定神经元成为竞争的胜利者。2.合作。获胜神经元的的相邻神经元的是合作的基础。神经元23、决定兴奋神经元的拓扑邻域的空间位置,从而提供这样的相邻神经元的合作的基础。3.突出调节。最后的这个机制使神经元通过对他们突触权值的调节以增加他们的关于该输入模式的判别的函数值。所做的调节使获胜神经元对以后相似输入模式的响应增强了。SOM算法步骤Step.1网络初始化用随机数设定输入层和映射层之间权值的初始值:Wij。设定学习次数T,相关邻域Ni(d)。WijX1X2……XijStep.2输入向量把输入向量输入给输入层:Xi。SOM算法步骤Step.3计算映射层的权值向量和输入向量的距离。由欧式距离给出:W24、ijX1X2……XijSOM算法步骤Step.4选择与权值向量的距离最小的神经元。计算并选择使输入向量和权值向量距离最小的神经元,把其称为胜出神经元,标记为j*,并给出邻接神经元集合。WijX1X2……XijSOM算法在修正神经元的时候,同时要修正获胜神经元的附近区域Ni(d)内所有的神经元。Ni(d)={j,dij<=d}12543671098111215141316172019182122252423N13(1)={8,1
21、对于输入向量进行区域分类。SOM的算法思想:某个输出节点能对某一类模式做出特别的反应以代表该模式类。输出层上相邻的节点能对实际模式分布中相近的模式类做出特别的反应。当某类数据模式输入时,对某以输出节点产生最大刺激(获胜神经元),同时对获胜神经元节点周围的一些节点产生较大的刺激。SOM网络中有两种链接权值,一种是神经元对外部输入反应的连接权值,另外一种是神经元之间的特征权值。它的大小控制着神经元之间交互作用的强弱。SOM拓扑结构图SOM算法是一种无导师的聚类法,他能将任意维输入模在输出层映射成一维或者二维离
22、散图形,并保持其拖布结构不变,即在无导师的情况下,通过对输入模式的自组织学习,在竞争层将分类结果表示出来。此外,网络通过对输入模式的反复学习,可以使连接权值空间分布密度与输入模式的概率分布趋于一致,即链接权向量空间分布能反应输入模式的统计特征。SOM算法是一个竞争-合作的过程。1.竞争。对于输入模式,网络中的神经元计算他们各自判别函数的值。这个判别函数对神经元之间的竞争提供基础,具有判别函数最优值(在欧式距离中是最小值)的特定神经元成为竞争的胜利者。2.合作。获胜神经元的的相邻神经元的是合作的基础。神经元
23、决定兴奋神经元的拓扑邻域的空间位置,从而提供这样的相邻神经元的合作的基础。3.突出调节。最后的这个机制使神经元通过对他们突触权值的调节以增加他们的关于该输入模式的判别的函数值。所做的调节使获胜神经元对以后相似输入模式的响应增强了。SOM算法步骤Step.1网络初始化用随机数设定输入层和映射层之间权值的初始值:Wij。设定学习次数T,相关邻域Ni(d)。WijX1X2……XijStep.2输入向量把输入向量输入给输入层:Xi。SOM算法步骤Step.3计算映射层的权值向量和输入向量的距离。由欧式距离给出:W
24、ijX1X2……XijSOM算法步骤Step.4选择与权值向量的距离最小的神经元。计算并选择使输入向量和权值向量距离最小的神经元,把其称为胜出神经元,标记为j*,并给出邻接神经元集合。WijX1X2……XijSOM算法在修正神经元的时候,同时要修正获胜神经元的附近区域Ni(d)内所有的神经元。Ni(d)={j,dij<=d}12543671098111215141316172019182122252423N13(1)={8,1
此文档下载收益归作者所有