欢迎来到天天文库
浏览记录
ID:49748537
大小:1.21 MB
页数:22页
时间:2020-03-04
《基于LDA的人脸识别 (1).doc》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库。
1、基于LDA的人脸识别成员及各自任务:程鑫:LDA基本算法姜华杰:LDA改进算法赵铖:背景和LDA的相关应用摘要线性决策分析是人脸识别技术中应用最广泛的算法之一。本文主要介绍了fisher算法的原理。Fisher算法的核心思想是寻找最佳投影向量,使类内离散度达到最小,类间离散度达到最大,通过对样本空间进行投影,从而达到分类的目的。应用LDA算法会遇到小样本问题,使得计算复杂度提高。本文针对小样本问题,介绍了LDA的改进算法,并证明了类内离散的矩阵的零空间的最大特征值对应的特征向量即为最佳投影向量。关键词:LDA人脸识别
2、信用评估目录第一章背景……………………………………………………………4第二章LDA的基本算法………………………………………………52.1两类LDA算法的原理…………………………………………………………52.2多类LDA算法的原理…………………………………………………………7第三章LDA的改进算法………………………………………………103.1问题的提出与解决办法………………………………………………………103.2传统LDA的方法与潜在问题…………………………………………………103.3改进的LDA算法………………………
3、………………………………………11第四章相关应用………………………………………………………154.1标准化LDA进行人脸识别……………………………………………………154.2线性判别分析在个人性用评估中的应用……………………………………18参考文献…………………………………………………………………22基于LDA的人脸识别第一章背景LDA:LinearDiscriminantAnalysis(线性判别分析)简称判别分析,是统计学上的一种分析方法,用于在已知的分类下遇到有新的样本时,选定一个判别标准,以判定如何将新样本放
4、置于哪一个类别之中。这种方法主要应用于人脸识别,以及医学的患者疾病分级、经济学的市场定位、产品管理及市场研究等范畴。关于LDA分析的研究应追溯到Fisher在1936年发表的经典论文(FisherRA.Theuseofmultiplemeasurementsintaxonomicproblems),其基本思想是选择使得Fisher准则函数达到极值的向量作为最佳投影方向,从而使得样本在该方向上投影后,达到最大的类间离散度和最小的类内离散度。在Fisher思想的基础上,Wilks和Duda分别提出了鉴别矢量集的概念,即寻
5、找一组鉴别矢量构成子空间,以原始样本在该子空间内的投影矢量作为鉴别特征用于识别。1970年Sammon提出了基于Fisher鉴别准则的最佳鉴别平面的概念。随后,Foley和Sammon进一步提出了采用一组满足正交条件的最佳鉴别矢量集进行特征抽取的方法。1988年Duchene和Leclercq给出了多类情况下最佳鉴别矢量集的计算公式。2001年Jin和Yang从统计不相关的角度,提出了具有统计不相关性的最优鉴别矢量集的概念。与F-S鉴别矢量集不同的是,具有统计不相关性的最优鉴别矢量是满足共轭正交条件的,该方法被称为不
6、相关的鉴别分析或Jin-Yang线性鉴别法。以上提到的各种方法仅适用于类内散布矩阵非奇异(可逆)的情形,但实际应用中存在着大量的典型的小样本问题,比如在人脸图像识别问题中,类内散布矩阵经常是奇异的。这是因为待识别的图像矢量的维数一般较高,而在实际问题中难以找到或根本不可能找到足够多的训练样本来保证类内散布矩阵的可逆性。因此,在小样本情况下,如何抽取Fisher最优鉴别特征成为一个公认的难题。-22-基于LDA的人脸识别第二章LDA的基本算法LDA的基本思想是找到合适的向量,使得样本特征经过向量映射后获得最大的类间离散
7、程度和最小的类内离散程度。给定m个n维特征的训练样例(i从1到m),每个对应一个类标签。我们就是要学习出参数,使得(g是sigmoid函数)。我们先从只有两类的况开始考虑,然后再来考虑多类时的情况。2.1两类LDA算法的原理给定特征为d维的N个样例,,其中有个样例属于类别,另外个样例属于类别,两类个数之和为N。原始特征数为d,我们想将其降到一维,而又要保证类别能够“清晰”地反映在低维数据上,也就是这一维就能决定每个样例的类别。我们需要找到一个最佳投影向量w,使得样例x在w方向上投影之后,能够容易区分它们的类别,样例x
8、在最佳投影向量w上的投影表达式为(1)这里的y是x投影到直线上的点到原点的距离。什么是最佳的投影方向呢?首先要使投影之后的得到的样本中心点尽量的分离,定量表示也即是:(2)此处是每类样例的均值(中心点),这里i只有两个,(3)是x投影到w后的样本点均值,(4)但是仅仅只是样本点的中心分离是不够的,各类的样本元素还需要紧凑,也即是每个类的元素离其
此文档下载收益归作者所有