卷积神经网路概要.ppt

卷积神经网路概要.ppt

ID:58562884

大小:880.50 KB

页数:42页

时间:2020-09-06

卷积神经网路概要.ppt_第1页
卷积神经网路概要.ppt_第2页
卷积神经网路概要.ppt_第3页
卷积神经网路概要.ppt_第4页
卷积神经网路概要.ppt_第5页
资源描述:

《卷积神经网路概要.ppt》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、卷积神经网络目录1.概述2.核心思想3.文字识别系统LeNet-54.优点1.概述卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。在CNN中,图像的一小部分(局部感受区域)作为层级结构的最低层的输入,信息再依次传输到不同的层,每层通过一个数字滤波器去获得观测数据的最显著的特征。这个方法能够获取对平移、缩放和旋转不变的观测数据的显著特征,因为图像的局部感受

2、区域允许神经元或者处理单元可以访问到最基础的特征,例如定向边缘或者角点。2.核心思想卷积神经网络通过以下特性来保证图像对位移、缩放、扭曲的鲁棒性:局部感受野权值共享时间/空间亚采样局部感受野BP神经网络全连接卷积神经网络局部连接全连接网络。如果我们有1000x1000像素的图像,有1百万个隐层神经元,每个隐层神经元都连接图像的每一个像素点,就有1000x1000x1000000=10^12个连接,也就是10^12个权值参数。局部连接网络,每一个节点与上层节点同位置附件10x10的窗口相连接,则1百万个隐层神经元就只有100w乘以100,即10^8个参数。其权值连接个数比原来减少了四个数量级。权

3、值共享隐含层的每一个神经元都连接10x10个图像区域,也就是说每一个神经元存在10x10=100个连接权值参数。如果设定每个神经元这100个参数是相同的,也就是说每个神经元用的是同一个卷积核去卷积图像,参数个数与神经元个数无关。无论隐层的神经元个数有多少,两层间的连接只有100个参数隐层的参数个数和隐层的神经元个数无关,只和滤波器的大小和滤波器种类的多少有关。FeatureMap假如一种滤波器,也就是一种卷积核就是提出图像的一种特征。提取不同的特征,需要多个滤波器。每种滤波器的参数不一样,表示它提出输入图像的不同特征。这样每种滤波器去卷积图像就得到对图像的不同特征的放映,我们称之为Featur

4、eMap。100种卷积核就有100个FeatureMap。这100个FeatureMap就组成了一层神经元。每层参数个数=100种卷积核x每种卷积核共享100个参数=100x100=10K,也就是1万个参数。隐层神经元个数隐层的神经元个数和原图像,也就是输入的大小(神经元个数)、滤波器的大小和滤波器在图像中的滑动步长都有关。例如,图像是1000x1000像素,而滤波器大小是10x10,假设滤波器没有重叠,也就是步长为10,这样隐层的神经元个数就是(1000x1000)/(10x10)=100x100个神经元了。注意:这只是一种滤波器,也就是一个FeatureMap的神经元个数如果100个Fea

5、tureMap就是100倍了。由此可见,图像越大,神经元个数和需要训练的权值参数个数的差距就越大网络结构卷积神经网络含多层;每层含多个二维FeatureMap;每个FeatureMap含多个神经元。C层为特征提取层,每个神经元的输入与前一层的局部感受野相连,并提取该局部的特征,一旦该局部特征被提取后,它与其他特征间的位置关系也随之确定下来;S层是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射为一个平面,平面上所有神经元的权值相等。卷积神经网络中的每一个特征提取层(C-层)都紧跟着一个用来求局部平均与二次提取的计算层(S-层)。3.文字识别系统LeNet-51.输入图像是32x32

6、的大小,局部滑动窗的大小是5x5的,由于不考虑对图像的边界进行拓展,则滑动窗将有28x28个不同的位置,也就是C1层的大小是28x28。C1层是一个卷积层(通过卷积运算,可以使原信号特征增强,并且降低噪音),由6个特征图FeatureMap构成。特征图中每个神经元与输入中5*5的邻域相连。C1有156个可训练参数(每个滤波器5*5=25个unit参数和一个bias参数,一共6个滤波器,共(5*5+1)*6=156个参数),共156*(28*28)=122,304个连接。C1层:输入图片大小:32*32卷积窗大小:5*5卷积窗种类:6输出特征图数量:6输出特征图大小:28*28(32-5+1)神

7、经元数量:4707[(28*28)*6)]连接数:12304[(5*5+1)*6]*(28*28)可训练参数:156[(5*5+1)*6]2.S2层是一个下采样层,利用图像局部相关性的原理,对图像进行子抽样,可以减少数据处理量同时保留有用信息。S2层每个单元的4个输入相加,乘以一个可训练参数,再加上一个可训练偏置,结果通过sigmoid函数计算。简单的说,由4个点下采样为1个点,也就是4个数的加权

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。