欢迎来到天天文库
浏览记录
ID:28175545
大小:58.62 KB
页数:3页
时间:2018-12-08
《基于深度网络的图像处理的研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、基于深度网络的图像处理的研究摘要机器学习的研究一直是模式识别领域里研究的热点,而深度学习则是兴起的一种机器学习方法。现有的一些机器学习方法(如SVM、核回归等)大都都是使用浅层结构,很难有效的表示复杂函数,并且对复杂函数的表现能力和泛化能力不足,深度学习通过学习一种深层非线性网络,实现对复杂函数的逼近。本论文主要针对现有的深度网络进行结合改进,并且通过实验证明其可行性。【关键词】神经网络图像处理深度网络1引言像是人类最重要的信息源。随着技术的发展,图像的应用也越来越广泛,因此图像处理已经成为研究人员关注的重点。由于图像中包含的信息比较
2、丰富,如何能有效的抽取信息,并对其进行识别也是研究者们关心的话题。目前,在像处理领域已经有了不少相关的研究。例如利用神经网络进行图像处理的方法:采用反向传播算法的多层前馈网络,能够逼近任意非线性映射关系的BP网络。上述进行图像处理研究中,虽然取得一定的效果,但是还是存在一定的问题,如对多层的训练,其效果已经不是很理想;由于采用随机选定初始值的多层网络训练算法,但输入与输出间非线性映射使网络误差函数是一个含多个极小点的非线性空间,因此会陷入局部最小的困境。针对上述情况,我们采用“深度学习”方法来进行处理。深度学习是一类兴起的神经网络学习
3、算法,其主要是通过学习低层特征形成抽象的高层表示(属性类别或特征),以发现数据的分布式特征,本论文通过对深度模型进行结合改进,并且通过实验表明其具有可行性。2深度学习相关模型及改进2.1稀疏自编码器自动编码器(Autoencoder,AE)可以用来对高维数据降维,得到低维的数据的特征向量。其模型一般包含一个输入层、一个隐层和输出层,设样本的输入向量为,可以由以下公式得出隐层和输出层的Active情况:其中KL表示输入向量xi与输出向量Zi的KL散度,其目的是用来度量之间的差别。由于隐层y维度比输入x的维度小,因此可以学习到输入样本的低
4、维表示。权重训练采用随机梯度下降。在训练该模型时,通常加入约束条件,限制隐层的神经元激活数目,使得只有少数的隐层神经元可以被激活,这种叫做稀疏自动编码器(SAE)其结构如图2所示。从上面可得知,损失函数是与样本输入先后没有关系,因为这是由每个样本损失叠加而成的。2.2受限玻尔兹曼机受限玻尔兹曼机(RestrictedBoltzmannMachine,RBM)是一个可见层与一个隐层,层内无连接的结构。其结构如3所示。设定一个RBM具有n个可见单元和m个隐单元,向量v和h分别表示可见单元和隐单元的状态。vi表示第i个可见单元状态,hj表示
5、第j个隐层单元的状态。对于给定的一组状态(V,h),RBM所具备的能量定义为:由于归一化因子Z(9)的存在,上式右边一项的联合概率分布很难获得,只能采取一些采样方法,如Gibbs采样。由于Gibbs采样需要较多的次数,尤其当特征维数比较高的时候,训练RBM的效率不高。因此RBM—般采取一种快速学习方法,即对比散度(ContrastiveDivergence,CD),CD算法主要步骤如下:a.输入:训练样本x;隐层单元m;学习率e;迭代次数T。b.输出:权重W;隐层偏置b;可见层偏置a。1)初始化可见层的状态vl=xO;w、a和b为较小
6、随机数。2)While(t
此文档下载收益归作者所有