《主成分分析PCA详解.docx》由会员分享,可在线阅读,更多相关《主成分分析PCA详解.docx(16页珍藏版)》请在第一文库网上搜索。
1、1 .相关背景在许多领域的研究与应用中,通常需要对含有多个变量的数据进行观测,收集大量数据后进行分析寻找规律。多变量大数据集无疑会为研究和应用提供丰富的信息,但是也在一定程度上增加了数据采集的工作量。更重要的是在很多情形下,许多变量之间可能存在相关性,从而增加了问题分析的复杂性。如果分别对每个指标进行分析,分析往往是孤立的,不能完全利用数据中的信息,因此盲目减少指标会损失很多有用的信息,从而产生错误的结论。因此需要找到一种合理的方法,在减少需要分析的指标同时,尽量减少原指标包含信息的损失,以达到对所收集数据进行全面分析的目的。由于各变量之间存在一定的相关关系,因此可以考虑将关系紧密的变量变成尽
2、可能少的新变量,使这些新变量是两两不相关的,那么就可以用较少的综合指标分别代表存在于各个变量中的各类信息。主成分分析与因子分析就属于这类降维算法。2 .数据降维降维就是一种对高维度特征数据预处理方法。降维是将高维度的数据保留下最重要的一些特征,去除噪声和不重要的特征,从而实现提升数据处理速度的目的。在实际的生产和应用中,降维在一定的信息损失范围内,可以为我们节省大量的时间和成本。降维也成为应用非常广泛的数据预处理方法。降维具有如下一些优点:使得数据集更易使用。降低算法的计算开销。去除噪声。使得结果容易理解。降维的算法有很多,比如奇异值分解(SVD)、主成分分析(PCA)、因子分析(FA)、独立
3、成分分析(ICA)。3 .PCA原理详解3.1 PCA的概念PCA(PrincipalComponentAnalysis),即主成分分析方法,是一种使用最广泛的数据降维算法。PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。PCA的工作就是从原始的空间中顺序地找一组相互正交的坐标轴,新的坐标轴的选择与数据本身是密切相关的。其中,第一个新坐标轴选择是原始数据中方差最大的方向,第二个新坐标轴选取是与第一个坐标轴正交的平面中使得方差最大的,第三个轴是与第L2个轴正交的平面中方差最大的。依次类推,可以得到n个这样的坐标轴。通
4、过这种方式获得的新的坐标轴,我们发现,大部分方差都包含在前面k个坐标轴中,后面的坐标轴所含的方差几乎为0。于是,我们可以忽略余下的坐标轴,只保留前面k个含有绝大部分方差的坐标轴。事实上,这相当于只保留包含绝大部分方差的维度特征,而忽略包含方差几乎为0的特征维度,实现对数据特征的降维处理。思考:我们如何得到这些包含最大差异性的主成分方向呢?答案:事实上,通过计算数据矩阵的协方差矩阵,然后得到协方差矩阵的特征值特征向量,选择特征值最大(即方差最大)的k个特征所对应的特征向量组成的矩阵。这样就可以将数据矩阵转换到新的空间当中,实现数据特征的降维。由于得到协方差矩阵的特征值特征向量有两种方法:特征值分
5、解协方差矩阵、奇异值分解协方差矩阵,所以PCA算法有两种实现方法:基于特征值分解协方差矩阵实现PCA算法、基于SVD分解协方差矩阵实现PCA算法。既然提到协方差矩阵,那么就简单介绍一下方差和协方差的关系。然后概括介绍一下特征值分解矩阵原理、奇异值分解矩阵的原理。概括介绍是因为在我之前的机器学习中SVD总结文章中已经详细介绍了特征值分解原理和奇异值分解原理,这里就不再重复讲解了。可以看我的机器学习中SVD总结文章。地址:机器学习中SVD总结3.2 协方差和散度矩阵样本均值:样本方差:样本X和样本Y的协方差:由上面的公式,我们可以得到以下结论:(1)方差的计算公式是针对一维特征,即针对同一特征不同
6、样本的取值来进行计算得到;而协方差则必须要求至少满足二维特征;方差是协方差的特殊情况。(2)方差和协方差的除数是n-1,这是为了得到方差和协方差的无偏估计。协方差为正时,说明X和Y是正相关关系;协方差为负时,说明X和Y是负相关关系;协方差为0时,说明X和Y是相互独立。Cov(X,X)就是X的方差。当样本是n维数据时,它们的协方差实际上是协方差矩阵(对称方阵)。例如,对于3维数据(x,y,z),计算它的协方差就是:散度矩阵定义为:Thescattermatrixiscomputedbythefollowingequation:S=-m)(xk-m)TIwheremisthemeanvectorn
7、m=3A初乎-塔A=1散度矩阵对于数据X的散度矩阵为。其实协方差矩阵和散度矩阵关系密切,散度矩阵就是协方差矩阵乘以(总数据量-1)0因此它们的特征值和特征向量是一样的。这里值得注意的是,散度矩阵是SVD奇异值分解的一步,因此PCA和SVD是有很大联系。33特征值分解矩阵原理(1)特征值与特征向量如果一个向量v是矩阵A的特征向量,将一定可以表示成下面的形式:其中,人是特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。(2)特征值分解矩阵对于矩阵A,有一组特征向量v,将这组向量进行正交化单位化,就能得到一组正交单位向量。特征值分解,就是将矩阵A分解为如下式:其中,Q是矩阵A的特征向量组
8、成的矩阵,则是一个对角阵,对角线上的元素就是特征值。具体了解这一部分内容看我的机器学习中SVD总结文章。地址:机器学习中SVD总结3.4 SVD分解矩阵原理奇异值分解是一个能适用于任意矩阵的一种分解的方法,对于任意矩阵A总是存在一个奇异值分解:假设A是一个m*n的矩阵,那么得到的U是一个m*m的方阵,U里面的正交向量被称为左奇异向量。Z是一个m*n的矩阵,邱余了对角线其它元素都为0,对角线上的元素称为奇异值。是V的转置矩阵,是一个n*n的矩阵,它里面的正交向量被称为右奇异值向量。而且一般来讲,我们会将E上的值按从大到小的顺序排列。SVD分解矩阵A的步骤:求的特征值和特征向量,用单位化的特征向量
9、构成U。(2)求的特征值和特征向量,用单位化的特征向量构成V。(3)将或者的特征值求平方根,然后构成工具体了解这一部分内容看我的机器学习中SVD总结文章。地址:机器学习中SVD总结3.5 PCA算法两种实现方法(1)基于特征值分解协方差矩阵实现PCA算法输入:数据集,需要降到k维。1)去平均值(即去中心化),即每一位特征减去各自的平均值。2)计算协方差矩阵,注:这里除或不除样本数量n或n-L其实对求出的特征向量没有影响。3)用特征值分解方法求协方差矩阵的特征值与特征向量。4)对特征值从大到小排序,选择其中最大的k个。然后将其对应的k个特征向量分别作为行向量组成特征向量矩阵Po5)将数据转换到k
10、个特征向量构建的新空间中,即Y=PX。总结:D关于这一部分为什么用,这里面含有很复杂的线性代数理论推导,想了解具体细节的可以看下面这篇文章。CodingLabs-PCA的数学原理2)关于为什么用特征值分解矩阵,是因为是方阵,能很轻松的求出特征值与特征向量。当然,用奇异值分解也可以,是求特征值与特征向量的另一种方法。举个例子:以X为例,我们用PCA方法将这两行数据降到一行。1)因为X矩阵的每行已经是零均值,所以不需要去平均值。2)求协方差矩阵:3)求协方差矩阵的特征值与特征向量。求解后的特征值为:对应的特征向量为:其中对应的特征向量分别是一个通解,和可以取任意实数。那么标准化后的特征向量为:4)
11、矩阵P为:5)最后我们用P的第一行乘以数据矩阵X,就得到了降维后的表示:-5知乎篁ring数据矩阵x降维投影结果注意:如果我们通过特征值分解协方差矩阵,那么我们只能得到一个方向的PCA降维。这个方向就是对数据矩阵X从行(或列)方向上压缩降维。(2)基于SVD分解协方差矩阵实现PCA算法输入:数据集,需要降到k维。1)去平均值,即每一位特征减去各自的平均值。2)计算协方差矩阵。3)通过SVD计算协方差矩阵的特征值与特征向量。4)对特征值从大到小排序,选择其中最大的k个。然后将其对应的k个特征向量分别作为列向量组成特征向量矩阵。5)将数据转换到k个特征向量构建的新空间中。在PCA降维中,我们需要找
12、到样本协方差矩阵的最大k个特征向量,然后用这最大的k个特征向量组成的矩阵来做低维投影降维。可以看出,在这个过程中需要先求出协方差矩阵,当样本数多、样本特征数也多的时候,这个计算还是很大的。当我们用到SVD分解协方差矩阵的时候,SVD有两个好处:1)有一些SVD的实现算法可以先不求出协方差矩阵也能求出我们的右奇异矩阵vo也就是说,我们的PCA算法可以不用做特征分解而是通过SVD来完成,这个方法在样本量很大的时候很有效。实际上,sdkit-learn的PCA算法的背后真正的实现就是用的SVD而不是特征值分解。2)注意到PCA仅仅使用了我们SVD的左奇异矩阵,没有使用到右奇异值矩阵,那么右奇异值矩阵
13、有什么用呢?假设我们的样本是m*n的矩阵X,如果我们通过SVD找到了矩阵最大的k个特征向量组成的k*n的矩阵,则我们可以做如下处理:可以得到一个m*k的矩阵X)这个矩阵和我们原来m*n的矩阵X相比,列数从n减到了k,可见对列数进行了压缩。也就是说,左奇异矩阵可以用于对行数的压缩;右奇异矩阵可以用于对列(即特征维度)的压缩。这就是我们用SVD分解协方差矩阵实现PCA可以得到两个方向的PCA降维(即行和列两个方向)。4 .PCA实例(1) PCA的Python实现:Python父.%PCAimportnumpyasnpdefpca(X,k):#kisthecomponentsyouwantofeachfeaturen_samples,n_features=X.shapemean=nparray(npmean(X:i)foriinrange(n_features)UnormaLizationnormX=X-mean#scattermatrixscatter_matrix=npi)foriinrange(n_features)#sorteig_vecbasedoneig_/aLfromhighesttoLowesteig_pairsnp.transpose(feature)returndatax=np.array(-l,1,-2,-1,-3,-2,1,1