线性判别分析LDA与主成分分析PCA

上传人:沈*** 文档编号:245207658 上传时间:2024-10-07 格式:PPT 页数:31 大小:808.50KB
返回 下载 相关 举报
线性判别分析LDA与主成分分析PCA_第1页
第1页 / 共31页
线性判别分析LDA与主成分分析PCA_第2页
第2页 / 共31页
线性判别分析LDA与主成分分析PCA_第3页
第3页 / 共31页
点击查看更多>>
资源描述
单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,*,线性判别分析(,LDA,),与,主成分分析(,PCA,),重庆大学,余俊良,第一部分,线性判别分析(,LDA,),介绍,线性判别分析,(,LinearDiscriminantAnalysis,LDA),,也叫做,Fisher,线性判别,(,FisherLinearDiscriminant,FLD),,是模式识别的经典算法,,1936,年由,Ronald Fisher,首次提出,并在,1996,年由,Belhumeur,引入模式识别和人工智能领域。,例子,举一个例子,假设我们对一张,100*100,像素的图片做人脸识别,每个像素是一个特征,那么会有,10000,个特征,而对应的类别标签,y,仅仅是,0,,,1,值,,1,代表是人脸。这么多特征不仅训练复杂,而且不必要特征对结果会带来不可预知的影响,但我们想得到降维后的一些最佳特征(与,y,关系最密切的),怎么办呢?,基本思想,线性判别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果。,投影后保证模式样本在新的子空间有最大的,类间距离,和最小的,类内距离,,即模式在该空间中有最佳的可分离性,。,因此,它是一种有效的,特征抽取方法,。使用这种方法能够使投影后模式样本的类间散布矩阵最大,并且同时类内散布矩阵最小。,下面给出一个例子,说明,LDA,的目标:,可以看到两个类别,一个绿色类别,一个红色类别。左图是两个类别的原始数据,现在要求将数据从二维降维到一维。直接投影到,x1,轴或者,x2,轴,不同类别之间 会有重复,导致分类效果下降。右图映射到的直线就是用,LDA,方法计算得到的,可以看到,红色类别和绿色类别在映射之后之间的距离是最大的,而且每个类别内 部点的离散程度是最小的(或者说聚集程度是最大的)。,LDA,要说明白,LDA,,首先得弄明白线性分类器,(,Linear Classifier,),:因为,LDA,是一种线性分类器。对于,K-,分类的一个分类问题,,会有,K,个线性函数:,当满足条件:对于所有的,j,,都有,Yk Yj,的时候,我们就说,x,属于类别,k,。对于每一个分类,都有一个公式去算一个分值,,在所有的公式得到的分值中,找一个最大的,就是所属的分类,。,权向量(,weight vector,),法向量(,normal vector,),阈值(,threshold,),偏置(,bias,),LDA,上式实际上就是一种投影,是将一个高维的点投影到一条高维的直线上,,LDA,的目标是,给出一个标注了类别的数据集,投影到了一条直线之后,能够使得点尽量的按类别区分开,当,k=2,即二分类问题的时候,如下图所示:,红色的方形的点为,0,类的原始点、蓝色的方形点为,1,类的原始点,经过原点的那条线就是投影的直线,从图上可以清楚的看到,红色的点和蓝色的点被原点明显的分开了。下面我来推导一下二分类,LDA,问题的公式:,LDA,假设用来区分二分类的直线(投影函数,),为:,LDA,分类的一个目标是使得不同类别之间的距离越远越好,同,一类别之中的距离越近越好,所以我们需要定义几个关键的值,:,类别,i,的原始中心点,(,均值,),为:(,Di,表示属于类别,i,的点,):,类别,i,投影后的中心点为:,衡量类别,i,投影后,类别点之间的分散程度(方差)为:,最终我们可以得到一个下面的公式,表示,LDA,投影到,w,后的目标优化函数:,LDA,我们,分类的目标,是,使得类别内的点距离越近越好(集中),类别间的点越远越好。,分母表示每一个类别内的方差之和,方差越大表示一个类别内的点越分散,分子为两个类别各自的中心点的距离的平方,我们最大化,J(w),就可以求出最优的,w,LDA,我们定义一个投影前的各类别分散程度的矩阵,其意思是,如果某一个分类的输入点集,D,i,里面的点距离这个分类的中心点,m,i,越近,则,S,i,里面元素的值就越小,如果分类的点都紧紧地围绕着,m,i,,则,S,i,里面的元素值越更接近,0.,带入,S,i,,,将,J(w),分母化为:,LDA,同样的将,J(w),分子化为:,这样目标优化函数可以化成下面的形式:,LDA,LDA,LDA,至此,我们只需要求出原始样本的均值和方差就可以求出最佳的方向,w,,这就是,Fisher,于,1936,年提出的线性判别分析。,看上面二维样本的投影结果图:,LDA,对于,N(N2),分类的问题,就可以直接写出以下的结论:,这同样是一个求广义特征值的问题,求出的第,i,大的特征向量,即为对应的,W,i,。,(此处推导过程见附录,PDF,),第二部分,主成分分析(,PCA,),介绍,在实际问题中,我们经常会遇到研究多个变量的问题,而且在多数情况下,多个变量之 间常常存在一定的相关性。由于变量个数较多再加上变量之间的相关性,势必增加了分析问 题的复杂性。如何从多个变量中综合为少数几个代表性变量,既能够代表原始变量的绝大多 数信息,又互不相关,并且在新的综合变量基础上,可以进一步的统计分析,这时就需要进行主成分分析。,基本思想,主成分分析所要做的就是设法将原来众多具有一定相关性的变量,重新组合为一组新的相互无关的综合变量来代替原来变量。通常,数学上的处理方法就是将原来的变量做线性组合,作为新的综合变量,但是这种组合如果不加以限制,则可以有很多,应该如何选择呢?,基本思想,如果将选取的第一个线性组合即第一个综合变量记为,F,1,,自然,希望它尽可能多地反映原来变量的信息,,这里“信息”用方差来测量,即希望,Var(F,1,),越大,表示,F,1,包含的信息越多。因此在所有的线性组合中所选取的,F,1,应该是方差最大的,故称,F,1,为第一主成分。如果第一主成分不足以代表原来,p,个变量的信息,再考虑选取,F,2,即第二个线性组合,,为了有效地反映原来信息,F,1,已有的信息就不需要再出现在,F,2,中,用数学语言表达就是要求,Cov(F,1,F,2,)=0,,称,F,2,为第二主成分,依此类推可以构造出第三、四,第,p,个主成分。,最大方差理论,在信号处理中认为信号具有较大的方差,噪声有较小的方差,信噪比就是信号与噪声的方差比,越大越好。因此我们认为,最好的,k,维特征是将,n,维样本点转换为,k,维后,每一维上的样本方差都很大。,最大方差理论,比如左图有,5,个样本点,右图将样本投影到某一维上,这里用一条过原点的直线表示,假设我们选择两条不同的直线做投影,那么左右两条中哪个好呢?根据我们之前的方差最大化理论,左边的好,因为投影后的样本点之间方差最大。,最大方差理论,最大方差理论,Su=,u,这是一个标准的特征值表达式了,,对应的特征值,,u,对应的特征向量。,由此,var=,u,T,Su=,var,取得最大值的条件就是,最大,也就是取得最大的特征值的时候。假设我们是要将一个,D,维的数据空间投影到,M,维的数据空间中(,M D),,那我们取前,M,个特征向量构成的投影矩阵就是能够使得方差最大的矩阵了。同时,由于,u,是实对称矩阵的特征向量,因此特征向量之间正交,投影得到的综合变量彼此独立,协方差为,0,。,最大方差理论,因此,我们只需要对协方差矩阵进行特征值分解,得到的前,k,大特征值对应的特征向量就是最佳的,k,维新特征,而且这,k,维新特征是正交的。得到前,k,个,u,以后,样例,x,i,通过以下变换可以得到新的样本。,其中的第,j,维就是,x,i,在,u,j,上的投影。通过选取最大的,k,个,u,,使得方差较小的特征(如噪声)被丢弃。,PCA,小结,PCA,技术的一大好处是对数据进行降维的处理。我们可以对新求出的“主元”向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。,PCA,技术的一个很大的优点是,它是完全无参数限制的。在,PCA,的计算过程中,完全不需要人为的设定参数或是根据任何经验模型对计算进行干预,最后的结果只与数据相关,与用户是独立的。,但是,这一点同时也可以看作是缺点。如果用户对观测对象有一定的先验知识,掌握了数据的一些特征,却无法通过参数化等方法对处理过程进行干预,可能会得不到预期的效果,效率也不高。,总,结,PCA,与,LDA,对比,PCA,与,LDA,的降维对比:,PCA,选择样本点投影具有最大方差的方向,,LDA,选择分类性能最好的方向。,PCA,与,LDA,对比,LDA,的全称是,Linear Discriminant Analysis,(线性判别分析),,是一种,supervised learning,。,主成分分析(,PCA,)与,LDA,有着非常近似的意思,,LDA,的输入数据是带标签的,而,PCA,的输入数据是不带标签的,所以,PCA,是一种,unsupervised learning,。,LDA,通常来说是作为一个,独立的算法,存在,给定了训练数据后,将会得到一系列的判别函数(,discriminate function,),之后对于新的输入,就可以进行预测了。而,PCA,更像是一个,预处理的方法,,它可以将原本的数据降低维度,而使得降低了维度的数据之间的方差最大。,LDA,的一些限制,1,、,LDA,至多可生成,C-1,维子空间,LDA,降维后的维度区间在,1,C-1,,与原始特征数,n,无关,对于二值分类,最多投影到,1,维。,2,、,LDA,不适合对非高斯分布样本进行降维。,上图中红色区域表示一类样本,蓝色区域表示另一类,由于是,2,类,所以最多投影到,1,维上。不管在直线上怎么投影,都难使红色点和蓝色点内部凝聚,类间分离。,
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 管理文书 > 施工组织


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!