欢迎来到天天文库
浏览记录
ID:31717293
大小:150.84 KB
页数:7页
时间:2019-01-17
《1数字图像处理实验报告》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、数字图像处理实验报告学号日期实验一灰度图像的二值化处理一、实验目的图像二值化是数字图像处理技术中的一项基本技术,二值化图像的显示与打印十分方便,存储与传输也非常容易,在目标识别、图像分析、文本增强、字符识别等领域得到广泛应用。图像二值化是将灰度图像转化为只有黑白两类像素的图像,大多采用阈值化算法处理。在不同的应用中,阈值的选取决定着图像特征信息的保留。因此,图像二值化技术的关键在于如何选取阈值。二、实验内容1、编程绘制数字图像的直方图。2、灰度图像二值化处理。三、实验要求1、自己选择灰度图像。2、选择多种阈值分割算法,并比较和分析图像二值化处
2、理的结果。3、使用VC++编程序。四、设计思想(阈值选取算法)图像分割是自动目标识别的关键和首要步骤,其目的是将目标和背景分离,为计算机视觉的后续处理提供依据.通常图像分割包括阈值法、边缘检测法和区域跟踪法.其中阈值法是图像分割的常用方法.目前,已有众多的阈值分割方法有:单阀值分割、多阀值分割等及直方图算法。根据人们利用均匀性参数和形状参数对标准图分割结果作评估的评测结论。利用上面几种方法对遗传进行图像分割。单阀值分割的设计思想:编码:由于图像灰度值在0—255之间,故将各个染色体编码为8位二进制码,它代表某个分割阈值.初始代人口的值为随机产
3、生的,其相应的适应度值也各有高低.人口模型:若人口数过多,则每一代适应度值的计算量大,因此人口数设置应该合理.在此,设置人口数为10,最大繁殖代数为50。解码:对二进制染色体数组解码为0〜255之间的值,以求其适应度值.适应度函数:采用(1)式为适应度值函数.同时采取对适应度函数的线性定标.选择:根据遗传算法的收敛定理,先进行赌轮法(蒙特卡罗法),再采用精英策略.交叉:交叉互换的重要特征是它能产生不同于父体的子体.交叉概率越大,交叉操作的可能性也越大;如果交叉率太低,收敛速度可能降低.单阀值分割由于只有一个参数,所以采用一点交叉。在此设置交叉
4、概率为06.变异:变异概率为0.1.终止准则:规定当算法执行到最大代数(终止条件)或经过15代进化,群体中的最高适应度值仍未发生变化(稳定条件)时,算法停止运行,具有最高适应度值的个体即为分割阐值.多阀值分割算法设计思想:编码:将单阈值分割中的8位二进制码串改为16位,前8位表示一个门限值,后8位表示另一个门限值。人口模型:双阈值分割展于多参数遗传程序设计,在此设置人口数为20,繁殖代数为100,解码:对二进制染色体数组解码为两个0〜255之阖的数作为双阈值,适应度函数:采用(2)式为适应度值函数.同时采取对适应度函数的线性定标,交叉:采用双
5、点交叉,随机产生的两个交叉点分别位于前8位和后8位,交叉概率为0.6.终止准则:在双阈值分割屮,规定经过30代进化群体中的最高适应度值仍未发生变化为稳定条件.选择和变异:同单阈值分割.代数Gw*D五、源程序(附上注释)intDetectThreshold(IplImage*img,intnMaxIter,int&iDiffRec)〃阀值分割:单阀值分割{〃图像信息intheight=img->height;intwidth=img・>width;intstep=img->widthStep/sizeof(uchar);uchar*data=(
6、uchar*)img・>imageData;iDiffRec=0;intFf256]={0};〃直方图数组in(iTotalGray=0;//灰度值和intiTotalPixel=0;//像素数和。uchariThrehold,iNewThrehold;//阀值、新阀值uchariMaxGrayValue=0,iMinGrayValue=255;//原图像屮的最大灰度值和最小灰度值uchariMeanGrayValue1,iMeanGrayValue2;〃获取(i,j)的值,存于直方图数组Ffor(inti=0;i7、(intj=O;j0.5)&&a8、alGray+=F「i]*i;//F[]存储图像信息iTotalPixel+=F[i];1iMeanGrayValue1=(uchar)(iTotalGray/iT
7、(intj=O;j0.5)&&a8、alGray+=F「i]*i;//F[]存储图像信息iTotalPixel+=F[i];1iMeanGrayValue1=(uchar)(iTotalGray/iT
8、alGray+=F「i]*i;//F[]存储图像信息iTotalPixel+=F[i];1iMeanGrayValue1=(uchar)(iTotalGray/iT
此文档下载收益归作者所有