Python怎么实现PCA降维算法
本文小编为大家详细介绍“Python怎么实现PCA降维算法”,内容详细,步骤清晰,细节处理妥当,希望这篇“Python怎么实现PCA降维算法”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。
一、算法概述主成分分析 (Principal ComponentAnalysis,PCA)是一种掌握事物主要矛盾的统计分析方法,它可以从多元事物中解析出主要影响因素,揭示事物的本质,简化复杂的问题。
PCA 是最常用的一种降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中,并期望在所投影的维度上数据的方差最大,以此使用较少的维度,同时保留较多原数据的维度。
PCA 算法目标是求出样本数据协方差矩阵的特征值和特征向量,而协方差矩阵的特征向量的方向就是PCA需要投影的方向。使样本数据向低维投影后,能尽可能表征原始的数据。
PCA 可以把具有相关性的高维变量合成为线性无关的低维变量,称为主成分。主成分能够尽可能的保留原始数据的信息。
PCA 通常用于高维数据集的探索与可视化,还可以用作数据压缩和预处理等。
二、算法步骤1.将原始数据按行组成m行n列的矩阵X
2.将X的每一列(代表一个属性字段)进行零均值化,即减去这一列的均值
3.求出协方差矩阵
4.求出协方差矩阵的特征值及对应的特征向量r
5.将特征向量按对应特征值大小从左到右按列排列成矩阵,取前k列组成矩阵P
6.计算降维到k维的数据
三、相关概念方差
:描述一个数据的离散程度
协方差
:描述两个数据的相关性,接近1就是正相关,接近-1就是负相关,接近0就是不相关
协方差矩阵
:协方差矩阵是一个对称的矩阵,而且对角线是各个维度的方差
特征值
:用于选取降维的K个特征值
特征向量
:用于选取降维的K个特征向量
优点
仅仅需要以方差衡量信息量,不受数据集以外的因素影响。
各主成分之间正交,可消除原始数据成分间的相互影响的因素。
计算方法简单,主要运算是特征值分解,易于实现。
缺点
主成分各个特征维度的含义具有一定的模糊性,不如原始样本特征的解释性强。
方差小的非主成分也可能含有对样本差异的重要信息,降维丢弃的数据可能对后续数据处理有影响。
五、算法实现自定义实现
importnumpyasnp#对初始数据进行零均值化处理defzeroMean(dataMat):#求列均值meanVal=np.mean(dataMat,axis=0)#求列差值newData=dataMat-meanValreturnnewData,meanVal#对初始数据进行降维处理defpca(dataMat,percent=0.19):newData,meanVal=zeroMean(dataMat)#求协方差矩阵covMat=np.cov(newData,rowvar=0)#求特征值和特征向量eigVals,eigVects=np.linalg.eig(np.mat(covMat))#抽取前n个特征向量n=percentage2n(eigVals,percent)print("数据降低到:"+str(n)+'维')#将特征值按从小到大排序eigValIndice=np.argsort(eigVals)#取最大的n个特征值的下标n_eigValIndice=eigValIndice[-1:-(n+1):-1]#取最大的n个特征值的特征向量n_eigVect=eigVects[:,n_eigValIndice]#取得降低到n维的数据lowDataMat=newData*n_eigVectreconMat=(lowDataMat*n_eigVect.T)+meanValreturnreconMat,lowDataMat,n#通过方差百分比确定抽取的特征向量的个数defpercentage2n(eigVals,percentage):#按降序排序sortArray=np.sort(eigVals)[-1::-1]#求和arraySum=sum(sortArray)tempSum=0num=0foriinsortArray:tempSum+=inum+=1iftempSum>=arraySum*percentage:returnnumif__name__=='__main__':#初始化原始数据(行代表样本,列代表维度)data=np.random.randint(1,20,size=(6,8))print(data)#对数据降维处理fin=pca(data,0.9)mat=fin[1]print(mat)
利用Sklearn库实现
importmatplotlib.pyplotaspltfromsklearn.decompositionimportPCAfromsklearn.datasetsimportload_iris#加载数据data=load_iris()x=data.datay=data.target#设置数据集要降低的维度pca=PCA(n_components=2)#进行数据降维reduced_x=pca.fit_transform(x)red_x,red_y=[],[]green_x,green_y=[],[]blue_x,blue_y=[],[]#对数据集进行分类foriinrange(len(reduced_x)):ify[i]==0:red_x.append(reduced_x[i][0])red_y.append(reduced_x[i][1])elify[i]==1:green_x.append(reduced_x[i][0])green_y.append(reduced_x[i][1])else:blue_x.append(reduced_x[i][0])blue_y.append(reduced_x[i][1])plt.scatter(red_x,red_y,c='r',marker='x')plt.scatter(green_x,green_y,c='g',marker='D')plt.scatter(blue_x,blue_y,c='b',marker='.')plt.show()六、算法优化
PCA是一种线性特征提取算法,通过计算将一组特征按重要性从小到大重新排列得到一组互不相关的新特征,但该算法在构造子集的过程中采用等权重的方式,忽略了不同属性对分类的贡献是不同的。
KPCA算法
KPCA是一种改进的PCA非线性降维算法,它利用核函数的思想,把样本数据进行非线性变换,然后在变换空间进行PCA,这样就实现了非线性PCA。
局部PCA算法
局部PCA是一种改进的PCA局部降维算法,它在寻找主成分时加入一项具有局部光滑性的正则项,从而使主成分保留更多的局部性信息。
读到这里,这篇“Python怎么实现PCA降维算法”文章已经介绍完毕,想要掌握这篇文章的知识点还需要大家自己动手实践使用过才能领会,如果想了解更多相关内容的文章,欢迎关注亿速云行业资讯频道。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。