资源描述:
《脑与认知科学导论课程报告要求》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、《脑与认知科学导论》课程实验报告要求实验网址:https://cs.stanford.edu/people/karpathy/convnetjs/demo/cifar10.html实验要求:1)加载预训练CNN网络,观察其物体识别效果以及每层的中间结果,分析CNN与人脑视觉信息加工机制的异同2)设计一个新的CNN网络结构并对其进行训练,观察新网络的物体识别能力随时间变化的情况,分析网络结构改变对物体识别能力的影响请同学们在12月18号考试前发到助教邮箱:lhl0796@mail.ustc.edu.cn附
2、录ConvNetJS代码介绍网络层输入层:{type:'input',out_sx:24,out_sy:24,out_depth:3}#输入为24*24*3的RGB图片type:层类型out_sx:输入的x维度out_sy:输入的y维度out_depth:通道数(channel)卷积层:{type:'conv',sx:3,sy:4,pad:1,filters:10,stride:1,activation:'relu'}type:层类型sx:卷积核尺寸,若没有设置sy,则卷积核大小为sx*sxsy:可不予
3、设置,若设置,卷积核大小为sx*sypad:对于无法卷积的边界部分进行补零,若不设置pad,默认pad=0,即不进行补零操作filters:卷积层的输出通道数stride:步长,卷积核移动步长activation:激活函数(有:’sigmoid’,’tanh’,’relu’等),可不予设置若卷积层输入为W1xH1xD1,输出为W2xH2xD2,则满足:W2=(W1-sx+pad*2)/stride+1H2=(H1-sy+pad*2)/stride+1D2=filters池化层:{type:'pool',
4、sx:2,pad:1,stride:2}type:层类型sx:池化窗口大小sx*sxpad:补零,同卷积层stride:步长,池化窗口移动步长若池化层输入为W1xH1xD1,输出为W2xH2xD2,则满足:W2=(W1-sx+pad*2)/stride+1H2=(H1-sx+pad*2)/stride+1D2=D1全连接层:{type:'fc',num_neurons:10,activation:'sigmoid',drop_prob:0.5}type:层类型num_neurons:全连接神经元个数ac
5、tivation:激活函数(有:’sigmoid’,’tanh’,’relu’等),可不予设置drop_prob:dropout比例(表示每次迭代扔掉的神经元比例,有利于防止过拟合),可不予设置分类层:{type:'softmax',num_classes:2}type:层类型,分类可选‘softmax’,‘svm’等num_classes:分类个数LocalContrastNormalizationLayer:{type:'lrn',k:1,n:3,alpha:0.1,beta:0.75}局部归一化,
6、类似BatchNormalization层,有利于防止网络过拟合模型构建与训练模型构建:layer_defs=[];layer_defs.push(网络层)layer_defs.push(网络层)#搭建网络…………#创建并编译网络net=newconvnetjs.Net();net.makeLayers(layer_defs);训练:trainer=newconvnetjs.Trainer(net,{method:'sgd',learning_rate:0.01,l2_decay:0.001,momen
7、tum:0.9,batch_size:10,l1_decay:0.001});method:优化器,有‘sgd’,‘windowgrad’,‘adadelta’,'nesterov','adagrad'等learning_rate:学习率l2_decay:L2正则化系数momentum:‘sgd’优化器的动量系数,其他优化器没有这一项batch_size:批数据个数l1_decay:L1正则化系数更多详细内容及解释请查阅https://cs.stanford.edu/people/karpathy/co
8、nvnetjs/docs.html