欢迎来到天天文库
浏览记录
ID:57055361
大小:907.50 KB
页数:19页
时间:2020-07-30
《BP神经网络实现图像压缩课件.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、机器学习(ML第11组)图像压缩(BP神经网络)神经网络应用手写数字识别(概率神经网络)求解最优策略(利用基于值迭代的MDP算法求解最优策略)马尔科夫决策过程应用BP神经网络实现图像压缩唐璇E13201073罗威亚E13201055Contents问题背景1BP神经网络建模2BP神经网络压缩的实现3结果与分析4问题背景常见的文件压缩软件如WinZip、WinRAR等采用的是无损压缩,能够完全恢复原文件内容。多媒体信息具有信息量大、冗余信息多的特点,往往采用有损压缩技术。JPEG压缩(变换编码与熵编码)基于小波变换的图像压缩算法分形压缩编码矢量量化压缩编码图像压缩算法问题背景B
2、P神经网络是一种多层前向神经网络,是整个人工神经网络体系中的精华,广泛应用于分类识别、逼近、回归和压缩。实际应用中80%的神经网络模型采取了BP网络或者BP的变化形式。BP神经网络实现图像压缩,依赖BP网络的非线性映射能力进行数据压缩。实验结果表明,采用BP神经网络对灰度图像进行压缩,在保证较好峰值信噪比(PSNR)的情况下,达到了较高的压缩比。BP神经网络建模(模型的压缩原理)BP神经网络用于压缩的网络模型构建:采用一个隐含层,则整体构成一个三层的网络。把一组输入模式通过少量的隐含层单元映射到一组输出模式,并使输出模式尽可能等于输入模式。(隐含层神经元的值和相应的权值向量可
3、以输出一个与原输入模式相同的向量)输入层隐含层输出层解码编码补充:理论已经证明,单个隐含层的网络可以通过适当增加神经元节点的个数实现任意非线性映射。所以,单个隐含层可满足大部分应用需要。压缩原理:当隐含层神经元的个数较少时,就意味着隐含层能用更少的数来表现输入模式,而这,实际上就是压缩。BP神经网络建模(压缩解压过程)假设网络的输入层和输出层均有M个神经元组成,隐含层包含I个神经元,且I4、5、ji,bi}hjx1编码过程解码过程隐含层第j个神经元输出值:输出层第i个神经元输出值:BP神经网络压缩的实现图像块划分归一化BP网络训练保存结果将图像的二维矩阵分成K×K的一个个块,输出K^2×N矩阵(样矩阵)除以255,得数据位于0~1之间。(这样能提高压缩率,灰度图像的灰度值0~255)采用神经网络工具箱函数feedforward创建前向BP网络采用LM训练法(收敛快)net的权值net的阈值每个图像块对应的隐含层单元的输出压缩步骤:256×25616×4096BP神经网络压缩的实现load图像块重建(BP网络解码)反归一化图像块恢复载入压缩文件的数据预处理fori=16、:4096Y(:,i)=com.lw*(com.d(:,i))+com.b;end乘上25516×4096矩阵的每一列抽取出来,重新排列4×4矩阵,并对4×4矩阵按行排列以恢复图像。PSNRRATE解压缩步骤:结果BP神经网络的训练(N=4):程序设计:两个函数block_divide函数,用于图像块划分,形成K^2*N矩阵re_divide函数,用于图像块恢复脚本文件bp_imageCompress.m脚本负责压缩lena.bmp图像(需要调用block_divide图像划分函数),压缩结果保存于comp.mat中bp_imageRecon.m脚本负责解压comp.mat(7、需要调用re_divide图像块恢复函数)train训练函数确定了输入输出层向量的维数结果原始图像lena.bmp:重建图像:块与块之间差异较大,即出现块效应现象。PSNR:32.4148rate:0.1465分析现象:正如刚刚所看到的,块与块之间差异较大,即出现块效应现象。这是由于设计的算法将图像强行分割为4×4的块,并分别进行训练,所以出现块效应现象。压缩比率:由于后续没有进行熵编码等原因,算法的压缩比率(14%)并不高。图像质量:峰值信噪比(PSNR)为32.4148,其实修改算法的参数(如改变隐
4、5、ji,bi}hjx1编码过程解码过程隐含层第j个神经元输出值:输出层第i个神经元输出值:BP神经网络压缩的实现图像块划分归一化BP网络训练保存结果将图像的二维矩阵分成K×K的一个个块,输出K^2×N矩阵(样矩阵)除以255,得数据位于0~1之间。(这样能提高压缩率,灰度图像的灰度值0~255)采用神经网络工具箱函数feedforward创建前向BP网络采用LM训练法(收敛快)net的权值net的阈值每个图像块对应的隐含层单元的输出压缩步骤:256×25616×4096BP神经网络压缩的实现load图像块重建(BP网络解码)反归一化图像块恢复载入压缩文件的数据预处理fori=16、:4096Y(:,i)=com.lw*(com.d(:,i))+com.b;end乘上25516×4096矩阵的每一列抽取出来,重新排列4×4矩阵,并对4×4矩阵按行排列以恢复图像。PSNRRATE解压缩步骤:结果BP神经网络的训练(N=4):程序设计:两个函数block_divide函数,用于图像块划分,形成K^2*N矩阵re_divide函数,用于图像块恢复脚本文件bp_imageCompress.m脚本负责压缩lena.bmp图像(需要调用block_divide图像划分函数),压缩结果保存于comp.mat中bp_imageRecon.m脚本负责解压comp.mat(7、需要调用re_divide图像块恢复函数)train训练函数确定了输入输出层向量的维数结果原始图像lena.bmp:重建图像:块与块之间差异较大,即出现块效应现象。PSNR:32.4148rate:0.1465分析现象:正如刚刚所看到的,块与块之间差异较大,即出现块效应现象。这是由于设计的算法将图像强行分割为4×4的块,并分别进行训练,所以出现块效应现象。压缩比率:由于后续没有进行熵编码等原因,算法的压缩比率(14%)并不高。图像质量:峰值信噪比(PSNR)为32.4148,其实修改算法的参数(如改变隐
5、ji,bi}hjx1编码过程解码过程隐含层第j个神经元输出值:输出层第i个神经元输出值:BP神经网络压缩的实现图像块划分归一化BP网络训练保存结果将图像的二维矩阵分成K×K的一个个块,输出K^2×N矩阵(样矩阵)除以255,得数据位于0~1之间。(这样能提高压缩率,灰度图像的灰度值0~255)采用神经网络工具箱函数feedforward创建前向BP网络采用LM训练法(收敛快)net的权值net的阈值每个图像块对应的隐含层单元的输出压缩步骤:256×25616×4096BP神经网络压缩的实现load图像块重建(BP网络解码)反归一化图像块恢复载入压缩文件的数据预处理fori=1
6、:4096Y(:,i)=com.lw*(com.d(:,i))+com.b;end乘上25516×4096矩阵的每一列抽取出来,重新排列4×4矩阵,并对4×4矩阵按行排列以恢复图像。PSNRRATE解压缩步骤:结果BP神经网络的训练(N=4):程序设计:两个函数block_divide函数,用于图像块划分,形成K^2*N矩阵re_divide函数,用于图像块恢复脚本文件bp_imageCompress.m脚本负责压缩lena.bmp图像(需要调用block_divide图像划分函数),压缩结果保存于comp.mat中bp_imageRecon.m脚本负责解压comp.mat(
7、需要调用re_divide图像块恢复函数)train训练函数确定了输入输出层向量的维数结果原始图像lena.bmp:重建图像:块与块之间差异较大,即出现块效应现象。PSNR:32.4148rate:0.1465分析现象:正如刚刚所看到的,块与块之间差异较大,即出现块效应现象。这是由于设计的算法将图像强行分割为4×4的块,并分别进行训练,所以出现块效应现象。压缩比率:由于后续没有进行熵编码等原因,算法的压缩比率(14%)并不高。图像质量:峰值信噪比(PSNR)为32.4148,其实修改算法的参数(如改变隐
此文档下载收益归作者所有