线性模型

基本形式:

  一般形式:f(x)=w_{1}x_{1}+w_{2}x_{2}+...+w_{d}x_{d}+b
  向量形式:f(x)=w^{T} x+b

线性回归:

最小二乘法:

  最小二乘法就是试图找到一条直线,使所有样本到直线的欧式距离只和最小,求解wb使

        E_{(w,b)}=\sum_{i=1}^{n}(y_{i}-wx_{i}-b)^2

最小化过程,称为线性回归模型的最小二乘"参数估计"。将E_{(w,b)}分别对wb求导

  \frac{ \partial E_{(w,b)} }{ \partial w } = 2(w\sum_{i=1}^{m}x_{i}^2-\sum_{i=1}^{m}(y_{i}-b)x_{i})

  \frac{ \partial E_{(w,b)}}{ \partial b } = 2(mb-\sum_{i=1}^{m}(y_{i}-wx_{i}))

分别令其为零可得到wb最优解的闭试解,其中\bar{x}=\frac{1}{m}\sum_{i=1}^{m}x_{i}x的均值。

  w=\frac{ \sum_{i=1}^{m}y_{i}(x_{i}-\bar{x}) }{ \sum_{i=1}^{m}x_{i}^{2}-\frac{ 1 }{ m }(\sum_{i=1}^{m}x_{i})^{2} }

  b=\frac{1}{m}\sum_{i=1}^{m}(y_{i}-wx_{i})

(PS:多元线性回归暂略,以后补上)

对数线性回归:

  首先线性模型y=w^{T}x+b逼近的是y,亦可以使起逼近y的衍生物。
将输出标记的对数作为线性模型逼近目标,即
        ln y=w^{T}x+b
这就是“对数线性回归”(其实己经不再是线性的了)。

对数几率回归:

  于二分类问题中,输出y\in\{0,1\},而线性回归模型产生的预测值z=w^{T}x+b是实值,我们需要将z转化为 0 或 1 的值,也就是说若w^{T}x_{i}+b>zz=1x_{i}将被划分到\{z=1\}一类中,反之亦然。
我们需要函数
      y=\begin{cases}0, &z<0 \cr 1, &z>0\end{cases}
最理想的是“单位跃界函数”。
      y=\begin{cases}0, &z<0 \cr 0.5, &z=0 \cr 1, &z>0\end{cases}
即若预测值大于零就判为正例,小于零就判为反例,临界值零则可任意判别。
由于单位跃界不连续,而我们需要它单调可微。对数几率函数作为替代函数:

      y=\frac{ 1 }{ 1+e^{-z} }=\frac{ 1 }{ 1+e^{-(w^{T}x+b)} }
    \Rightarrow ln \frac{ y }{ 1-y } = w^{T}x+b
若将y视为样本x作为正例的可能性,则1-y是反例的可能性,两者比值\frac{ y }{ 1-y }称为“几率”,反映了正例的相对可能性,对几率取对数则得到了“对数几率”,对应的模型称为“对数几率回归模型”(PS:是一种分类学习方法)
  接下来的问题就是如何确定wb。将y视为后验概率估计p(y=1|x)
      ln \frac{ p(y=1|x) }{ p(y=0|x) } = w^{T}x+b

      p(y=1|x)=\frac{e^{w^{T}x+b}}{1+e^{w^{T}x+b}}
      p(y=0|x)=\frac{1}{1+e^{w^{T}x+b}}

通过“极大似然法”来估计wb使每个样本\{ (x_{i},y_{i}) \}_{i=1}^{m}属于其真实标记的概率越大越好。对概率回归模型最大化“对数似然”
      L(w,b)=\prod_{i=1}^{m}p(y_{i}|x_{i};w,b)

    \Rightarrow l(w,b)=\sum_{i=1}^{m}ln \;p(y_{i}|x_{i};w,b)

其中p(y_{i}|x_{i};w,b) = y_{i}p_{1}(y=1|x;w,b)+(1-y_{i})p_{0}(y=0|x;w,b)
代入对数似然中
    l(w,b)=\sum_{i=1}^{m}ln\frac{ y_{i}e^{w^{T}x+b}+1-y_{i} }{ 1+e^{w^{T}x+b} } = -\sum_{i=1}^{m}(ln(1+e^{w^{T}x+b})-ln(y_{i}e^{w^{T}x+b}+1-y_{i}))

ln(y_{i}e^{w^{T}x+b}+1-y_{i})y_{i}取值为\{ 0,1 \},故等价于y_{i}(w^{T}x+b)

l(w,b)=-\sum_{i=1}^{m}(ln(1+e^{w^{T}x+b})-y_{i}(w^{T}x+b))
即最小化\sum_{i=1}^{m}(ln(1+e^{w^{T}x+b})-y_{i}(w^{T}x+b))

可用梯度下降法、牛顿法等可求的最优解。

线性判别分析(LDA):

LDA思想:

  线性判别分析(Linear Discriminant Analysis,LDA)是一种经典的线性学习方法,在二分类问题上因为最早由Fisher提出,亦称“ Fisher判别分析”。
  给定训练集,设法将样例投影到一条直线上,使得同样样例的投影点尽可能近、异类样例的投影点尽可能远;在对新样本进行分类的时候,将其投影到同样的这条直线上,再根据投影点位置来确定新样本的类别。

LDA算法:

数据集:D=\{(x_{i},y_{i})\}^{m}_{i=1}y_{i}=\{0,1\}
X_{i}\mu_{i}\Sigma_{i}分别表示第i\in\{0,1\}类示例的集合、均值向量、协方差矩阵。
  \mu_{i}=\frac{1}{N_{i}}\sum_{x\in X_{i}}x
  \Sigma_{i}=\sum_{x\in X_{i}}(x-\mu_{i})(x-\mu_{i})^{T}
由于是两类数据,因此我们只需要将数据投影到一条直线上即可。假设投影直线向量w,则对任意的一个样本x_{i},它在直线w的投影为w^{T}x_{i},对于我们的两个类别的中心点\mu_{0}\mu_{1},在直线w的投影为w^{T}\mu_{0}w^{T}\mu_{1}。由于LDA需要让不同类别的数据类别中心之间的距离尽可能的大,也就是我们需要最大化\| w^{T}\mu_{0}-w^{T}\mu_{1} \|^{2},同时我们希望同一种类别数据的投影点尽可能的接近,也就是同样的样本投影点的协方差w^{T}\Sigma_{0}ww^{T}\Sigma_{1}w尽可能的小,即最小化w^{T}\Sigma_{0}w+w^{T}\Sigma_{1}w
综上所诉,我们的优化目标为:
  arg max J(w)=\frac{\| w^{T}\mu_{0}-w^{T}\mu_{1} \|^{2}}{w^{T}\Sigma_{0}w+w^{T}\Sigma_{1}w}=\frac{w^{T}(\mu_{0}-\mu_{1})(\mu_{0}-\mu{1})^{T}w}{w^{T}(\Sigma_{0}+\Sigma_{1})w}
定义类内散度矩阵S_{w}为:
  S_{w}=\Sigma_{0}+\Sigma_{1}=\sum_{x\in X_{0}}(x-\mu_{1})(x-\mu_{1})^{T}+\sum_{x\in X_{1}}(x-\mu_{1})(x-\mu_{1})^{T}
定义类间散度矩阵S_{b}为:
  S_{b}=(\mu_{0}-\mu_{1})(\mu_{0}-\mu{1})^{T}
优化目标重写为:
  arg max J(w)=\frac{w^{T}S_{b}w}{w^{T}S_{w}w}
通过广义瑞利熵,得知J(w)最大值为矩阵S_{w}^{-\frac{1}{2}}S_{b}S_{w}^{-\frac{1}{2}}的最大特征值,而S_{w}^{-1}S_{b}的特征值和S_{w}^{-\frac{1}{2}}S_{b}S_{w}^{-\frac{1}{2}}的特征值相同,S_{w}^{-1}S_{b}的特征向量w^{'}S_{w}^{-\frac{1}{2}}S_{b}S_{w}^{-\frac{1}{2}}的特征向量w满足:
  w^{'}=S_{w}^{-\frac{1}{2}}w
对于二分类问题,S_{b}w的方向恒为\mu_{0}-\mu_{1},令S_{b}w=\lambda(\mu_{0}-\mu_{1}),将其带入(S_{w}^{-1}S_{b})w=\lambda w,可以得出w=S_{w}^{-1}(\mu_{0}-\mu_{1}),也就是说我们只要求出原始二分类样本的均值和方差就可以确定最佳的投影方向w了。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容