1.2线性模型

1.线性回归

    给定数据集D=\left\{ (x_{1}, y_{1}), (x_{2}, y_{2}),..., (x_{m}, y_{m})\right\} ,其中x_{i}=(x_{i1} ;x_{i2};...;x_{id}),y_{i}\in  R."线性模型"试图学习一个线性模型以尽可能准确的预测实值标记。

线性回归


数据集上的函数,若二阶导数大于0,则为凸函数,若二阶导数小于0,则为凹函数。

上述的闭式解,是指可以通过公式直接推导得出的解,区别于数值解,数值解为逼近值。

下面从统计学意义看线性回归模型:

模型表达式:
f(x)=\sum_{i=1}^n \theta _{i}x_{i}  =\theta ^TX

X为向量,代表多元的线性回归模型。

误差:\epsilon ^i=y^i -f(x)

误差是独立并且具有相同的分布,并且服从均值为0,方差为\sigma ^2 的高斯分布;

预测值与误差:y^i =\sum_{i=1}^n \theta _{i}x_{i}  =\theta ^TX +\varepsilon ^i         (1)

误差服从高斯分布:P(\varepsilon ^i )=\frac{1}{\sqrt{2\pi } \sigma } exp(-\frac{\varepsilon i ^2 }{2\sigma ^2 } )   (2)

将(1)式代入(2)式,得

P(y^i|x^i,\theta   )=\frac{1}{\sqrt{2\pi } \sigma } exp(-\frac{(y^i -\theta ^Tx^i  )^2 }{2\sigma ^2 } )

使用似然函数估计预测与真实值的可能性

L(\theta )=\prod_{i=1}^mP(y^i|x^i,\theta   )=\prod_{i=1}^m\frac{1}{\sqrt{2\pi } \sigma } exp(-\frac{(y^i -\theta ^Tx^i  )^2 }{2\sigma ^2 } )

什么样的参数跟我们的额数据结合后恰好接近真实值。

对数似然函数:

\lg L(\theta )=\lg \frac{1}{\sqrt{2\pi } \sigma } exp(-\frac{(y^i -\theta ^Tx^i  )^2 }{2\sigma ^2 } )=m\lg \frac{1}{\sqrt{2\pi } \sigma }-\frac{1}{\sigma^2 }*\frac{1}{2}*\sum_{i=1}^m(y^i -\theta ^Tx^i  )  ^2

目标让似然函数越大越好,则损失函数为:

J(\theta )=\frac{1}{2}\sum_{i=1}^m(y^i -\theta ^Tx^i  )  ^2 =\frac{1}{2}(X\theta -y) ^T (X\theta -y)        最小二乘法

方程式:\theta =(X^TX )^-1 (X^Ty ) 可通过直接求解获得参数,闭式解

也可采用梯度下降获得他的数值解。

\frac{\Theta J(\theta )}{\Theta \theta_{j}  }=-\frac{1}{m}\sum_{i=1}^m(y^i -h_{\theta x_{a}^b } )   x_{j}^i

\theta_{j}=\theta _{j}+\frac{1}{m}\sum_{i=1}^m(y^i -h_{\theta x_{a}^b } )   x_{j}^i

m为样本个数,上述为批量梯度下降,这种方法容易得到最优解,但是每次需要考虑所有样本,所以速度很慢。

可以尝试随机梯度下降(SGD),\theta_{j}=\theta _{j}+(y^i -y_{\theta } (x^i) )   x_{j}^i  ,每次找一个样本,迭代速度块,但不一定每次都朝着差值收敛的方向

此外,还有mini-batch方式的梯度下降,将分成小样本来更新权值。

广义线性模型:

广义线性模型的参数估计通常使用加权最小二乘法或极大似然法进行。

2.对数几率回归(logistic regression)

对数几率函数:y=\frac{1}{1+e^(-z) } ,图像为:

对数几率函数

对数几率函数是一种“Sigmoid”函数,它将z值转化成一个接近0~1的值,

\frac{y}{1-y} 称为“几率(odds)”反应了x作为正例的相对可能性,对几率取对数则得到“对数几率”

\ln \frac{y}{1-y} 。(3.18)实际上是再用线性回归模型的预测值取逼近真实标记的对数几率,称为“对数几率函数”

优点:无需事先假设数据的分布;对数函数是任意阶可导的凸函数,可以通过许多数值优化算法直接求解最优值。

模型的参数估计:

    对于给定的数据集T={(x_{1},y_{1} ),(x_{2},y_{2} ),...,(x_{n},y_{n} )},x_{i}\in R^n,y_{i}\in {0,1}   ,令P(Y=1|X)=\pi (x),P(Y=0|X)=1-\pi (x).

我们通过“极大似然函数”来估计\omega b,使每个样本属于其真实标记的概率越大越好。

似然函数为:\prod_{i=1}^N[\pi (x_{i} )^(y_{i})  +1-\pi (x_{i} )^(1-y_{i}) ]   最大化似然函数来求解\omega 和b

L(\omega ,b)=\sum_{i=1}^N[y_{i}log\pi (x_{i} )+(1-y_{i} )log(1-\pi (x_{i} )) ]

              =\sum_{i=1}^N[y_{i}log\frac{\pi (x_{i} )}{1-\pi (x_{i}} +log(1-\pi (x_{i} )) ]

              =\sum_{i=1}^N[y_{i}(\omega *x_{a}+b ) -log(1+exp(\omega *x_{a}+b ))]

代价函数:J(\theta )=-L(\theta ),求似然函数的极大,技术最小化代价函数。

另一种说法:交叉熵,用于评估学习模型与训练分布之间的差异。

对上式求导:\frac{\Theta L(\theta )}{\Theta \theta } =\sum_{n=1}^ny_{i}x_{i}-\sum_{i=1}^n\frac{exp(\theta^T *x+b)}{1+exp(\theta^T *x+b)}   =\sum_{i=1}^n(y_{i}-sigmoid(\theta^T*  x_{i} +b) )x_{i}

使用迭代改变\theta ,达到最大值。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342