卷积神经网络cnn代码解析maab(20210103154315).docx

卷积神经网络cnn代码解析maab(20210103154315).docx

ID:62477319

大小:21.49 KB

页数:7页

时间:2021-05-08

卷积神经网络cnn代码解析maab(20210103154315).docx_第1页
卷积神经网络cnn代码解析maab(20210103154315).docx_第2页
卷积神经网络cnn代码解析maab(20210103154315).docx_第3页
卷积神经网络cnn代码解析maab(20210103154315).docx_第4页
卷积神经网络cnn代码解析maab(20210103154315).docx_第5页
资源描述:

《卷积神经网络cnn代码解析maab(20210103154315).docx》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、六、cnntest.m7deepLearnToolbox-master是一个深度学习matlab包,里面含有很多机器学习算法,如卷积神经网络CNN深度信念网络DBN自动编码AutoEncoder(堆栈SAE卷积CAE的作者是RasmusBergPalm弋码下载:这里我们介绍deepLearnToolbox-master中的CNN部分。DeepLearnToolbox-master中CNN内的函数:调用关系为:该模型使用了mnist的数字mnist_uint8.mat作为训练样本,作为cnn的一个使用样例,每个样本特征为一个28*28=的向量。网络结构为:让我们来看看各个函数:一、Test

2、_example_CNN:2三、cnntrain.m4四、cnnff.m4五、cnnbp.m5五、cnnapplygrads.m7六、cnntest.m7一、Test_example_CNN:Test_example_CNN:1设置CNN勺基本参数规格,如卷积、降采样层的数量,卷积核的大小、降采样的降幅2cnnsetup函数初始化卷积核、偏置等3cnntrain函数训练cnn,把训练数据分成batch,然后调用3.1cnnff完成训练的前向过程,3.2cnnbp计算并传递神经网络的error,并计算梯度(权重的修改量)3.3cnnapplygrads把计算出来的梯度加到原始模型上去4cn

3、ntest函数,测试当前模型的准确率该模型采用的数据为mnist_uint8.mat,含有70000个手写数字样本其中60000作为训练样本,10000作为测试样本。把数据转成相应的格式,并归一化。设置网络结构及训练参数初始化网络,对数据进行批训练,验证模型准确率绘制均方误差曲线二、Cnnsetup.m该函数你用于初始化CNN的参数。设置各层的mapsize大小,初始化卷积层的卷积核、bias尾部单层感知机的参数设置bias统一设置为0权重设置为:-1~1之间的随机数/sqrt(6/(输入神经元数量+输出神经元数量))对于卷积核权重,输入输出为fan_in,fan_outfan_out=

4、net.layers{l}.outputmaps*net.layers{l}.kernelsizeA2;%卷积核初始化,1层卷积为1*6个卷积核,2层卷积一共6*12=72个卷积核。对于每个卷积输出featuremap,%fan_in=表示该层的一个输出map所对应的所有卷积核,包含的神经元的总数。1*25,6*25fan_in=numInputmaps*net.layers{l}.kernelsizeA2;fin=1*25or6*25fout=1*6*25or6*12*25net.layers{l}.k{i}{j}=(rand(net.layers{l}.kernelsize)-0.5

5、)*2*sqrt(6/(fan_in+fan_out));1卷积降采样的参数初始化2尾部单层感知机的参数(权重和偏量)设置:三、cnntrain.m该函数用于训练CNN。生成随机序列,每次选取一个batch(50)个样本进行训练。批训练:计算50个随机样本的梯度,求和之后一次性更新到模型权重中。在批训练过程中调用:Cnnff.m完成前向过程Cnnbp.m完成误差传导和梯度计算过程Cnnapplygrads.m把计算出来的梯度加到原始模型上去四、cnnff.m1、取得CNN勺输入2、两次卷积核降采样层处理3、尾部单层感知机的数据处理,需要把subFeatureMap2连接成为一个(4*4)

6、*12=192的向量,但是由于采用了50样本批训练勺方法,subFeatureMap2被拼合成为一个192*50勺特征向量fv;Fv作为单层感知机的输入,全连接的方式得到输出层五、cnnbp.m该函数实现2部分功能,计算并传递误差,计算梯度1、计算误差和LossFunction2、计算尾部单层感知机的误差subFeatureMap2的4*43、把单层感知机的输入层featureVector的误差矩阵,恢复为维矩阵形式插播一张图片:PF对应前冋辽程:pieQ=ccnvCpicP,filter,valid)abcd£fh1时2卄3d+4eb2c3e4fd2e3g4he2f3h4iQ=cov(

7、P,F.valid);芦冃详等尸懂“i严-ccnvie^icO.fillerRotl^Cfull'jA2A+B2B3A+€4ASB2CD4B2D3C4C3D4DI4l3lI』11I

8、a

9、bP=cov(QrFffull);巻拱賀圭惨应:filterD=conv(picP.Rot180,ePicQ,valid)i-1hfed,cb3AiBhCfDeAhSgCeDdAfBeAeBdCcDbCbDaF二conv(PfQ,valid)4、误差

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。