PCA

降维算法

PCA主成分分析, 是无监督的降维方法, 可以将你的数据降低到n-1维.

它有几种不同的方式去解释原理, 下面我们来一起看看吧.

最大方差理论

方差大, 代表信息量比较大(数据分布较为分散, 区分度越高).

样本数据是在一个n维度空间中, 我们需要找到[1, n-1]之间的维度空间的轴, 然后将样本投影到这些轴上, 下面我们来看一下, 这里我们用二维假设(便于理解, 高维类推即可).

image

可以看到, 如果投影到方差较大轴上, 数据还会保持尽可能大的距离, 如果投影到方差较少的轴上, 样本之间是非常接近的, 这就很难处理了.

我们首先对数据进行一个去中心化处理(这只是放到坐标原点附近, 不会改变数据之间原有的关系), 假设我们原本的数据集D => {X1, X2, ...}, 去中心化后的数据集D1 => {V1, V2, ...}.

我们有如下关系成立:

V_i = X_i - \sum_i^n\frac{X_i}{n}

我们将样本投影到对应的坐标轴上, 我们有:

V_i = X_i\cdot W

在几何表示上, 两个向量的内积就表示了一个向量在另一个向量上的投影了, W是单位向量(新坐标轴的).

那么, 新坐标轴的方差是:

\sigma = \frac{1}{n}\sum_i^n(V_i - \mu_v)^2

\mu_v = 0, 因为我们是在原数据集上做了去中心化处理.

\mu_v = \frac{1}{n}(\sum_i^nX_i^T) \cdot W

(\sum_i^nX_i^T) = 0

我们的方差公式转换为:

\sigma = \frac{1}{n}\sum_i^nV_i^2 = \frac{1}{n}\sum_i^n(X_iW)^2 = \frac{1}{n}\sum_i^n(W^TX_i)(X_iW)^T = \frac{W^T}{n}\sum_i^nX_iX_i^TW

可以看出来, 其实\sum_i^k X_iX_i^T就是自身的协方差矩阵的迹去中心化之后, 均值是零), 我们将它表示为\sum, 同时, W是新坐标轴上的单位向量, 所以有,

W^TW = 1

我们现在有了最大化问题以及约束了

max {W^T\sum W}

st. W^TW = 1

我们引入拉格朗日乘子, 然后对W求导, 令其等于0.

f(w) = {W^T\sum W} - \lambda{W^TW}

{W^T\sum W} - \lambda{W^TW} = 0

\sum{W} = \lambda{W^T}

这个式子就很直接了, 其实就是XX^T协方差矩阵的特征值分解, \lambda其实就是前[1, n-1]较大的特征值.

最小方差理论(最小二乘法)

image

还是这个图, 这一次我们从线性回归拟合的角度出发.

我们希望找到一条线, 可以尽可能的拟合这些点.

点到线(高维是超平面), 可以平面的法向量, 然后连接到线(超平面)上一点.

假设平面的点为V_k

距离可以表示为:

Distance(X, L) = |X - V_k|

如果该线(超平面)由K组正交基表示, W => {W_1, W_2, W_3, .., W_n}组成, 这里二维降到一维其实只有一个w, 作为基的话, 其实还有一个特性|W| = 1, 然后我们会有, 直线上的(超平面)中可以由这组基来表示:

V_k = \sum_{i=1}^d(W_i^TX_i)W

其中W^TX_i表示X_iW_i方向上投影的长度, 因此, V_k其实实际上是X_i在这一组正交基上的坐标表示(通过乘以W).

所以, 我们的优化目标:

argmin\sum_{k=1}^n|X_i - V_k|^2

当对应位置相同的时候是零,不同的时候是1.

st. W^TW = \delta_{i,j} = [1, 0]

我们将距离公式展开:

|X_i - V_k|^2 = (X_i - V_k)^T(X_i - V_k) = X^TX - 2X^TV_k + V_K^TV_K

第一项是个常数(原坐标系), 将V_k的表示代入到这个式子:

X^TV_k = X^T\sum_{i=1}^d(W^TX_k)W = \sum_{i=1}^d(W^TX_iX_i^TW)

第三项为:

V_K^TV_K = \sum_{i=1}^d\sum_{j=1}^d((W^TX_k)W_j)((W_i^TX_K)W_j)^T

W^TX其实都是常数, 所以我们也忽略掉, 而且当i != j时候, W_i^TW_j = 0, 最后这个交叉项只剩下

V_K^TV_K = \sum_{i=1}^d\sum_{j=1}^d((W^TX_k)W_j)((W_i^TX_K)W_j)^T = \sum_{i=1}^d(W^TXX^TW)

这里面最后的表达式其实就是W^TXX^TW的迹, 所以最后距离表示是可以转换为

|X - V|^2 = -2X^TV_k + V_K^TV_K = -tr(W^TXX^TW) + X^TX = -tr(W^TXX^TW) + C

取一个相反数, 变成求最大化的问题.

argmax W^TXX^TW

st. W^TW = 1

然后就和前面一样了, 通过引入拉格朗日乘子, 然后求导为零即可.

注意

  1. 如果样本数(n)大于特征维数(N), 最多可以降维到多少
    • 降维是基于特征降维的, 去掉不重要的特征, 所以可以降维的范围是[1, N-1].
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容