机器学习算法原理笔记(二)—— PCA主成分分析

写在前面的话:这部分基本上就是学习笔记,主要参考里面的博客已经写得很好,只是按自己的复习学习思路整理了下。


一、数学基础

1. 特征值和特征向量

特征值是线性代数中的一个重要概念。设 A 是n阶方阵,如果存在数m和非零n维列向量使得下式成立:

A\vec{v}=\lambda \vec{v}

则称 \lambda 是A的一个特征值。非零n维列向量 \vec{v} 称为矩阵A对应于特征值 \lambda 的特征向量,简称A的特征向量。

几何意义:通常来说,左乘一个矩阵会使得 \vec{v} 在方向和长度上发生变化,但对于特征向量来说,却可以保持方向不变,只进行比例为 \lambda 的伸缩。

2. SVD奇异值分解

由于特征值和特征向量只对方阵才有意义,所以针对不是方阵的情况提出了SVD。

假设给定了某一个矩阵A,其维度是m×n。那么,定义SVD为如下式:

A = U \Sigma V^T

其中,U是一个m×m的矩阵,Σ是一个m×n的矩阵,V是一个n×n的矩阵。Σ中,除了对角线上的元素之外,其余元素的值都为0,主对角线上的每个元素都被称为奇异值。另外,U和V都是经过标准化之后的,即满足:U^TU=I V^TV=I

推导过程可以参考:奇异值分解(SVD)原理详解及推导

3. 协方差矩阵


二、PCA推导

PCA的主要作用是降维,找出数据里最主要的方面,用数据里最主要的方面来代替原始数据:

例如,我们的数据集是n维的,共有m个数据(x(1),x(2),...,x(m))。我们希望将这m个数据的维度从n维降到k维,希望这m个k维的数据集尽可能的代表原始数据集。我们知道数据从n维降到k维肯定会有损失,但是我们希望损失尽可能的小。那么如何让这k维的数据尽可能表示原来的数据呢?

在信号处理中认为信号具有较大的方差,噪声有较小的方差,信噪比就是信号与噪声的方差比,越大越好。借用信号的观点,最好的k维特征是将n维样本点转换为k维后,每一维上的样本方差都很大。

具体推导过程:

给定一组数据:(如无说明,以下推导中出现的向量都是默认是列向量)

将其中心化后表示如下,即得到了样本偏离的程度:

计算投影的方法就是将x与u1做内积,由于只需要求u1的方向,所以设u1是单位向量:

也就是最大化下式:

由矩阵代数相关知识可知,可以对绝对值符号项进行平方处理,比较方便。所以进而就是最大化下式:

两个向量做内积,可以转化成矩阵乘法:

所以目标函数可以表示为:

括号里面就是矩阵乘法表示内积,转置以后的行向量乘以列向量得到一个数。因为一个数的转置还是其本身,所以又可以将目标函数化为:

这样就可以把括号去掉,去掉以后变成:

由于u1和i无关,可以把它拿到求和符外面:

注意,其实括号里面是一个矩阵乘以自身的转置,这个矩阵形式如下:

其实将这个矩阵表示出来的话就会发现其实就是协方差矩阵,我们在优化降维后方差最大化的过程中折腾出协方差矩阵非常合理,也有从协方差矩阵角度出发讲解PCA的,比较好懂:PCA的数学原理

所以目标函数最后化为:

上式到底有没有最大值呢?如果没有前面的1/n,那就是就是一个标准的二次型,并且XX^T得到的矩阵是一个半正定的对称阵。为什么?首先XX^T是对称阵,因为(XX^T) ^T=XX^T,下面证明它是半正定,什么是半正定?就是所有特征值大于等于0:

证明半正定阵的二次型的目标函数存在最大值:

对于向量x,其二范数(也就是模长)的平方为:

所以有:

使用矩阵范数不等式可以得到:

\sigma(A) 表示矩阵A的最大奇异值



既然证明了有最大值,后面就简单了,使用拉格朗日乘数法即可求出:

目标函数和约束条件构成了一个最大化问题:

构造拉格朗日函数:

对u1求导:

显然,u1即为XX^T特征值 \lambda 对应的特征向量,则XX^T的所有特征值和特征向量都满足上式,那么将上式代入目标函数表达式即可得到:

所以,如果取最大的那个特征值,那么得到的目标值就最大。有可能你会有疑问,为什么一阶导数为0就是极大值呢?那么再求二阶导数:

二阶导数半负定,所以,目标函数在最大特征值所对应的特征向量上取得最大值。所以,第一主轴方向即为第一大特征值对应的特征向量方向。第二主轴方向为第二大特征值对应的特征向量方向,以此类推,证明类似。


三、PCA算法流程

求样本x(i)的k维的主成分其实就是求样本集的协方差矩阵 XX^T 的前k个特征值对应特征向量矩阵W,然后对于每个样本x(i),做如下变换 z^{(i)}=W^Tx^{(i)} ,即达到降维的PCA目的。

输入:n维样本集D=(x(1),x(2),...,x(m)),要降维到的维数k

输出:降维后的样本集

  1. 对所有的样本进行中心化:x^{(i)} = x^{(i)} - \frac{1}{m}\sum\limits_{j=1}^{m} x^{(j)}

  2. 计算样本的协方差矩阵 XX^T

  3. 对矩阵 XX^T 进行特征值分解

  4. 取出最大的k个特征值对应的特征向量(w1,w2,...,wn′), 将所有的特征向量标准化后,组成特征向量矩阵W

  5. 对样本集中的每一个样本x(i),转化为新的样本 z^{(i)}=W^Tx^{(i)}

  6. 得到输出样本集D′=(z(1),z(2),...,z(m))

现在主流的做法其实是使用SVD(奇异值分解)来求出主成分,因为当样本数和样本特征数都较多的时候,计算协方差矩阵的计算量会很大。SVD在不求解协方差矩阵的情况下,得到右奇异矩阵V。也就是说PCA算法可以不用做特征分解,而是做SVD来完成,这个方法在样本量很大的时候很有效。具体的求法可以参考:SVD与PCA之间的关系详解


四、机器学习实战中的代码

#coding= utf-8

import numpy as np

def loadDataSet(fileName, delim='\t'):
    fr = open(fileName)
    stringArr = [line.strip().split(delim) for line in fr.readlines()]
    datArr = [map(float,line) for line in stringArr]
    return datArr


#利用协方差最大的方向进行降维
#:数据集;降维后的维度
#r :利用降维后的矩阵反构出原数据矩阵;降维后的数据
def pca(dataMat,topNfeat=9999999):
    dataMat = np.mat(dataMat)

    meanVals = np.mean(dataMat,axis=0)
    meanRemoved = dataMat - meanVals
    covMat = np.cov(meanRemoved,rowvar=0) #得到协方差矩阵

    eigVals,eigVects = np.linalg.eig(np.mat(covMat)) #得到基于协方差矩阵的特征值和特征向量(一列表示一个特征向量)
    eigValInd = np.argsort(eigVals) #对特征值进行排序(从小到大),返回其对应的数组索引(按从小到大顺序)
    eigValInd = eigValInd[:-(topNfeat + 1):-1] #从排序后的矩阵最后一个开始自下而上选取最大的N个特征值,返回其对应的数组索引
    redEigVects = eigVects[:,eigValInd] #从特征向量数组中取出特征值较大的特征向量组成数组
    lowDDataMat = meanRemoved * redEigVects #将去除均值后的数据矩阵*压缩矩阵,转换到新的空间,使维度降低为N
    # 利用降维后的矩阵反构出原数据矩阵(用作测试,可跟未压缩的原矩阵比对)
    reconMat = (lowDDataMat * redEigVects.T) + meanVals
    # 返回压缩后的数据矩阵即该矩阵反构出原始数据矩阵
    return lowDDataMat,reconMat


import matplotlib
import matplotlib.pyplot as plt

def Pcaplot(dataMat,reconMat):
    dataMat = np.mat(dataMat)
    fig=plt.figure()
    ax=fig.add_subplot(111)
    #三角形表示原始数据点
    ax.scatter(dataMat[:,0].flatten().A[0],dataMat[:,1].flatten().A[0],marker='^',s=90)
    #圆形点表示第一主成分点,点颜色为红色
    ax.scatter(reconMat[:,0].flatten().A[0],reconMat[:,1].flatten().A[0], marker='o',s=90,c='red')
    plt.show()


五、sklearn实现

class sklearn.decomposition.PCA(n_components=None, copy=True, whiten=False, svd_solver='auto', tol=0.0, iterated_power='auto', random_state=None)
Parameters:
  • n_components : 其取不同类型时的意义不一样,
    默认为n_components=min(样本数,特征数)
    int 类型:直接指定降维到的维度数目
    float 类型:主成分的方差和所占的最小比例阈值,让PCA类自己去根据样本特征方差来决定降维到的维度数
    str 类型:参数设置为'mle'(极大似然估计), 此时PCA类会用MLE算法根据特征的方差分布情况自己去选择一定数量的主成分特征来降维

  • copy : bool类型,默认值为True
    表示是否在运行算法时,将原始数据复制一份。默认为True,则运行PCA算法后,原始数据的值不会有任何改变。

  • whiten : bool类型,默认值为False
    白化,就是对降维后的数据的每个特征进行标准化,让方差都为1。对于PCA降维本身来说,一般不需要白化。如果你PCA降维后有后续的数据处理动作,可以考虑白化

  • svd_solver : string类型,默认值为'auto'
    'auto': PCA类会自己去在前面讲到的三种算法里面去权衡,选择一个合适的SVD算法来降维
    'full' :则是传统意义上的SVD,使用了scipy库对应的实现
    'randomized' 一般适用于数据量大,数据维度多同时主成分数目比例又较低的PCA降维,它使用了一些加快SVD的随机算法
    'arpack' :和randomized的适用场景类似,区别是randomized使用的是scikit-learn自己的SVD实现,而arpack直接使用了scipy库的sparse SVD实现。当svd_solve设置为'arpack'时,保留的成分必须少于特征数,即不能保留所有成分

  • tol : float类型,默认值为0
    当svd_solver选择‘arpack’时,其运行SVD算法的容错率

  • iterated_power : int类型或者str类型,默认值为‘auto’
    当svd_solver选择‘randomized’时,其运行SVD算法的的迭代次数

  • random_state: int类型,默认为None
    伪随机数发生器的种子,在混洗数据时用于概率估计

Attributes:
  • components_: 主成分
  • explained_variance_:降维后的各主成分的方差值
  • explained_variance_ratio_:降维后的各主成分的方差值占总方差值的比例
  • singular_values_:对应的每个成分的奇异值
  • mean_: X.mean(axis = 1)
  • n_components_:主成分的个数
  • noise_variance_:可参考: met-mppca
import numpy as np
from sklearn.decomposition import PCA

X = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])
pca = PCA(n_components=2)
pca.fit(X)

>> PCA(copy=True, iterated_power='auto', n_components=2, random_state=None,
  svd_solver='auto', tol=0.0, whiten=False)

X_pca = pca.transform(x)


参考:

  1. https://blog.csdn.net/zhongkejingwang/article/details/42264479
  2. https://blog.csdn.net/zhongkelee/article/details/44064401
  3. http://www.cnblogs.com/pinard/p/6239403.html
  4. https://blog.csdn.net/hongbin_xu/article/list/2
  5. https://blog.csdn.net/baimafujinji/article/details/79407488
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,482评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,377评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,762评论 0 342
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,273评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,289评论 5 373
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,046评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,351评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,988评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,476评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,948评论 2 324
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,064评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,712评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,261评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,264评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,486评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,511评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,802评论 2 345

推荐阅读更多精彩内容