关于改进神经网络泛化性能的若干算法分析

关于改进神经网络泛化性能的若干算法分析

ID:33005965

大小:1.70 MB

页数:57页

时间:2019-02-19

关于改进神经网络泛化性能的若干算法分析_第1页
关于改进神经网络泛化性能的若干算法分析_第2页
关于改进神经网络泛化性能的若干算法分析_第3页
关于改进神经网络泛化性能的若干算法分析_第4页
关于改进神经网络泛化性能的若干算法分析_第5页
资源描述:

《关于改进神经网络泛化性能的若干算法分析》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、关于改进神经网络泛化性能的若干算法研究摘要:作为模式识别的有力工具,神经网络虽然具有强大的非线性逼近能力,但这并不能保证其同时具备理想的泛化性能.本文从模型和算法两方面出发,对神经网络进行了研究,旨在提高其泛化性能.具体内容如下.1.基于二维前馈神经网络(2D-FNNs)的梯度下降学习算法.由于传统前馈神经网络(FNNs)是基于向量输入的,而许多数据是以矩阵的形式呈现的,因此在运用FNN之间这些矩阵数据必须被分解成向量的形式.这样转化的缺点是导致原始矩阵数据中元素之间相关性信息的丢失.不同于传统基于向量

2、输入的FNNs,我们提出了一个新的算法来训练2D-FNNs用于图像识别,名为二维反向传播算法(2D-BP),即采用梯度下降学习该网络中所有权值.这样的网络模型保留了原始二维输入特征的结构,有利于图像识别.在手写体字符和人脸数据库上的实验结果验证了该算法的有效性.2.基于二维随机权网络(2D-NNRW)的负相关集成学习算法.2D-NNRW基于单隐层2D-FNN,随机选定隐层左右投影权值和偏置值,只学习线性权值.该算法作为NNRW的扩展,虽然也简化减少了2D-FNN的训练,但它同样需要足够多的隐层节点数作为

3、保障,这也容易导致过拟合现象.而当网络比较紧致时,它只是弱分类器,而集成学习可以弥补2D-NNRW的这一缺陷.作为最有效的集成算法之一,负相关学习(NCL)通过控制基模型之间的差异性,来产生具有更好泛化性能的集成模型.因此,我们结合NCL和2D-NNRW,提出了去相关二维随机权网络集成算法(DNNE2D-NNRW).实验结果表明,该方法在人脸识别上,相比于其他相关算法,更有效地提高了模型的泛化性能.3.基于随机局部线性模型(RLLMs)的负相关集成学习(NCL)算法.作为一种高效的集成学习框架,NCL不

4、仅仅适用于传统前馈神经网络.这里我们还可以采用一类特殊的FNNs名叫RLLMS作为基模型,并结合NCL来生成新的集成神经网络,进而提出了DNNERLLM集成算法.其中的RLLMs同样结合了随机的思想,即随机选定网络中的非线性权值,采用负相关学习策略来调整线性自由参数,最后的优化可以转化为求解一个线性方程组的形式.该方法主要用于动力系统时间序列的预测.实验结果表明,该算法优于其他相关算法.关键词:前馈神经网络;随机权网络;集成学习;图像识别;泛化性能分类号:TP391IAstudyonsomealgori

5、thmsforimprovingthegeneralizationcapabilityofneuralnetworksAbstract:Asapowerfultoolforpatternrecognition,artificialneuralnetworkshavestrongnonlinearapproximationcapability,butitcannotguaranteewellgeneralizedperformances.Inthisdissertation,westudytheneura

6、lnetworksfromboththenetworkmodelsandthelearningalgorithms,aimingatimprovingtheirgeneralizationcapabilities.Themaincontentsareasfollows.1.Learningtwo-dimensionalfeedforwardneuralnetworks(2D-FNNs)usinggradientdescent.SincetheinputtoTraditionalFNNsareusuall

7、yvectors,andmanydataareusuallypresentedintheformofmatrices,thematriceshavetobedecomposedintovectorsbeforeFNNsareemployed.Adrawbacktothisapproachisthatimportantinformationregardingcorre-lationsofelementswithintheoriginalmatricesarelost.Unliketraditionalve

8、ctorinputbasedFNNs,anewalgorithmofextendedFNNwithmatrixinputs,calledtwo-dimensionalback-propagation(2D-BP),isproposedinthispapertoclassifymatrixdatadirectly,whichutilizesthetechniqueofincrementalgradientdescenttofullytrain

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。