Gradient Boosting —— 梯度迭代增强

回归问题(Regression)

考虑一个回归问题,已知n个样本 (x_1, y_1),(x_2, y_2), ...,(x_n, y_n)
需要拟合一个函数 F(x),使得误差最小。

迭代拟合残差

当然,通常很难找到一个非常准确的 F,于是我们先找到一个预测准确性比较弱的 F_0,其预测值 F_0(x) 与实际 y 值之间的差异,也就是残差
r_0(x)=y-F_0(x)
现在问题可以变成,尽量找到一个好的 h_0 来拟合 r_0。假设我们拟合了一个 h_0,现在总的拟合函数就是 F_1(x)=F_0(x)+h_0(x)。不幸的是,F_1 虽然比 F_0 有提升,但依然存在残差 r_1(x)=y-F_1(x)

于是我们再寻找一个 h_1 来拟合 r_1,于是 F_2(x)=F_1(x)+h_1(x)
这个迭代可以一直进行下去,使函数 F(x) 不断逼近目标值 y。这样迭代拟合残差来构造的模型函数可以写作
\begin{cases} F_0= \sum_{i=1}^n y_i \\ F_{m}(x)=F_{m-1}(x)+h_{m-1}(x) \end{cases}
即,初始模型 F_0 的预测就用所有样本目标值y的均值。第m轮迭代得到的模型函数 F_m,等于上一轮函数 F_{m-1},加上对上一轮函数残差的拟合函数 h_{m-1}

不求一次性找到一个最优的拟合函数 F,而是采用迭代的方法构造出一系列函数,组合起来构成总的拟合函数 F,在迭代过程中不断逼近要拟合的真实函数,这是 Boosting 算法家族的共同特点。

梯度

我们现在要讨论的算法叫 Gradient Boosting,但是上面说了半天就是在拟合残差,好像跟梯度没啥关系啊!那么现在来研究一下误差函数 L 对拟合函数 F 的梯度。

对拟合函数 F,设拟合值 \hat{y}=F(x)
采用平方误差函数 L(y,\hat{y})=(y-\hat{y})^2/2
对所有样本,总的误差 J=\sum_{i=1}^nL(y_i,\hat{y}_i)

样本的目标值 y_i 是已知的,误差J 最后算出来的结果就是一个数值标量,总共有n个样本,所以 误差J 是n元变量 (\hat{y}_1,\hat{y}_2......\hat{y}_n) 的函数。

计算 函数J 的梯度:
\nabla J=\Big(\frac{∂J}{∂\hat{y}_1}......\frac{∂J}{∂\hat{y}_i}......\frac{∂J}{∂\hat{y}_n}\Big)
\frac{∂J}{∂\hat{y}_i}=\frac{∂\sum_i^n L(y_i, \hat{y}_i)}{∂\hat{y}_i}=\frac{∂L(y_i, \hat{y}_i)}{∂\hat{y}_i}\\ =\frac{∂((y_i-\hat{y}_i)^2/2)}{∂\hat{y}_i}=-(y_i-\hat{y}_i )
y_i-\hat{y}_i=-\frac{∂J}{∂\hat{y}_i }\\ y-\hat{y}=-\nabla J

残差 = 负梯度

说明一下,上面偏导数写法是 \frac{∂J}{∂\hat{y}_i},不过有些文章会写作 \frac{∂J}{∂F(x_i)}。刚开始看到对 F(x_i) 求偏导感觉有点疑惑,对函数求偏导怎么理解?仔细想想,其实 F(x_i) 就是拟合函数的输出值,对于J来说,它也是一个变量。所以上面设 \hat{y}=F(x),这两个偏导是一样的,引入 \hat{y}_i 主要是帮助理解。

在机器学习领域,梯度下降是很常用的算法,通常应用梯度下降是 误差J 对模型 F(x,w)的参数w 计算梯度,也就是说使用梯度下降的目的是 寻找最优的参数\hat{w},使得模型F(x,\hat{w})的预测值 与目标值y 的误差J 最小。

而这里 Gradient Boosting 是 误差J 对 F的值 计算梯度,即对 F(x_i)计算梯度,而不关心F的参数w。实际上也没法关心,因为在迭代过程中,F的参数在上一轮迭代已经确定好了,F已经是确定的(记得第一个F_0是先给出的,然后再开始迭代),现在的关注点是残差。

其它误差函数

上面推导出 残差=负梯度,但两者既然一样,好像也没有引出什么新的东西。不过,上面的结论是采用平方误差函数的情况。如果考虑其它误差函数,用梯度计算时我们可以得到一些不同的特性。我们对比看几个例子:

1. 残差
r_i = y_i - F(x_i)

2. 平方误差
L(y,F) = (y-F)^2
负梯度
-\frac{∂J}{∂F(x_i)}=-\frac{∂\sum_i^n L(y_i, F(x_i))}{∂F(x_i)}= y_i-F(x_i)

3. 绝对误差
L(y,F) = |y-F|

负梯度
-\frac{∂J}{∂F(x_i)}=-\frac{∂\sum_i^n L(y_i, F(x_i))}{∂F(x_i)}= sign(y_i-F(x_i)) \qquad\qquad (1)

4. Huber 误差
L(y,F) = \begin{cases}(y-F)^2/2, \qquad \qquad |y-F|\leq \delta \\ \delta(|y-F|-\delta/2, \qquad |y-F|>\delta\end{cases}

负梯度
-\frac{∂J}{∂F(x_i)}=-\frac{∂\sum_i^n L(y_i, F(x_i))}{∂F(x_i)}= \begin{cases} y-F(x_i), \qquad \qquad |y_i-F(x_i)|\leq \delta \\ \delta sign(y_i-F(x_i)), \quad |y_i-F(x_i)| > \delta \end{cases} \qquad (2)

可见,平方误差的负梯度=残差,而绝对误差和Huber误差的 负梯度 \neq 残差。
这些差异会带来什么不同的特性呢?

公式(1)表明,绝对误差的负梯度是 {-1,1},每个样本的残差都映射到 {-1,1},差别大小被忽略了。
公式(2)表明,Huber误差的负梯度,在 误差绝对值\leq \delta 时等于残差,但 误差绝对值> \delta 时被限制为 \delta,即“残差”上限是 \delta
所以,相对原始的残差 y_i - F(x_i),这两种负梯度都弱化了异常值的影响。如果我们拟合这三种负梯度,会发现平方误差对异常值(outliers)的敏感度较高,Huber 误差、绝对误差对异常值的敏感度较低。

负梯度 / 伪残差
虽然绝对误差和Huber误差的 负梯度 \neq 残差,但负梯度也是根据误差 L 计算出来的,从上面的分析也可以看出,不同误差函数得到的负梯度主要是对残差进行了一些限制或调整,所以,我们可以把负梯度理解为一种“伪残差”,或者说,经过调整的残差。

Gradient Boosting 算法步骤

对于回归问题,已知n个样本 (x_1, y_1),(x_2, y_2), ...,(x_n, y_n),求拟合函数 F(x),使得误差最小。
首先选取一个可微分的误差函数L。

  1. 产生一个初始模型,比如 F= \sum_{i=1}^n y_i
  2. 进行M次迭代
    2.1 计算L对F的负梯度 -g(x_i)=-\frac{∂ L(y_i, F(x_i)}{∂F(x_i)}
    2.2 构建函数 h 拟合负梯度 -g(x_i)
    2.3 计算h的权重系数 γ,使得F增加h后的总误差 \sum_{i+1}^n L(y_i, F+\gamma h) 最小。
    这里 y、F、h 都已知,可以用一维优化方法计算出 γ。(参考 维基百科 - Line search)。
    2.3 F 更新为 F+γh(γ为h的权重系数)

Gradient Boosting vs AdaBoost

同属 Boosting 家族,Gradient Boosting vs AdaBoost 在大方向上是一致的,都是通过迭代构建弱模型,逐步增强(Boosting)并组合为强模型。
主要的差别集中在,Gradient Boosting 迭代拟合负梯度(“伪残差”),AdaBoost 迭代调整样本的权重
关于 AdaBoost 可以参考上一篇文章 Boosting/AdaBoost —— 多级火箭助推

另外,Gradient Boosting 并不只用于回归问题,也可以用在分类和排名问题,本文不再详述。

参考

A Gentle Introduction to Gradient Boosting
维基百科 - Gradient boosting

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 195,719评论 5 462
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,337评论 2 373
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 142,887评论 0 324
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,488评论 1 266
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,313评论 4 357
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,284评论 1 273
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,672评论 3 386
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,346评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,644评论 1 293
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,700评论 2 312
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,457评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,316评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,706评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,261评论 1 251
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,648评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,859评论 2 335

推荐阅读更多精彩内容