【机器学习】(四)决策树

基本流程

决策树(decision tree)是基于树结构进行决策的,是一种符合人类面临决策问题时的思考方式。采用了分而治之(divide-and-conquer)的策略。

决策树建立的基本流程

image

决策树的构建是一个递归的 过程,决策树生成算法中有三种情形会导致递归:

  • 当前结点包含的样本全属于同一类别,无需划分
  • 当前属性集为空,或是所有样本在所有属性上取值相同,无法划分
  • 当前结点包含的样本集合为空,不能划分

划分选择

一般而言,随着划分过程不断进行,希望决策树的分支结点所包含的样本尽可能属于同一类别,即结点的“纯度”(purity)越来越高。有一些用来衡量和选择划分方式的基准与方法。

信息增益

信息熵(information entropy)是度量样本集合纯度最常用的一种指标。

假定当前样本集合D中第k类样本所占的比例为pk(k=1,2,…, |y|),则D的信息熵定义为:


image

Ent(D)的值越小,D的纯度越高

假设离散属性a有V个可能的取值{a1, a2, a3, …, aV},若使用a来对样本集D进行划分,则会产生V个分支节点。可以计算用属性a对样本集D进行划分所获得的信息增益(information gain)为:

image

一般而言,信息增益越大,则意味着使用属性a来进行划分所获得的纯度提升越大,因此,如果选择信息增益进行决策树划分属性的选择,则选择属性满足:
image

信息增益准则对可取值数目较多的属性有所偏好

增益率

为了减少信息增益准则对可取值数目较多的属性有所偏好而带来的不利影响,可以使用增益率(gain ratio)来选择最优化分属性。增益率定义为:

image

其中
image

成为属性a的固有值(intrinsic value)。属性a的可能取值数目越多,IV(a)的值通常也会越大。

基于增益率的属性划分采用一个启发式判定:先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的属性

信息增益率准则对可取值数目较少的属性有所偏好

基尼指数

CART****决策树(Classfication and Regression Tree)使用基尼指数(Gini index)选择划分属性。数据集D的纯度可以使用基尼值来衡量:

image

Gini(D)反映了从数据集D中随机抽取两个样本,其类别标记不一致的概率,因此Gini(D)越小,数据集D的纯度越高。

属性a的基尼指数定义:


image

属性划分时选择:


image

剪枝处理

剪枝(pruning)是决策树学习算法对付“过拟合”的主要手段。

  • 预剪枝(prepruning):在决策树生成过程中,对每个结点在划分前先进行估计,若当前结点的划分不能带来决策树泛化性能提升,则停止划分并将当前结点标记为叶结点。
  • 后剪枝(postpruning):先从训练集生成一棵完整的决策树,然后自底向上地对非叶结点进行考察,若将该结点对应的子树替换为叶结点能带来决策树泛化性能提升,则将该子树替换为叶结点。

两种剪枝处理的优缺点比较:

  • 预剪枝显著减少了决策树的训练时间开销和测试时间开销;后剪枝的训练时间开销比未剪枝和预剪枝都大得多
  • 预剪枝基于贪心算法本质禁止一些分支展开,给预剪枝决策树带来了欠拟合的风险;后剪枝决策树通常比预剪枝决策树保留了更多的分支,且其欠拟合风险很小,泛化性能往往优于预剪枝

连续与缺失值

连续值处理

由于连续属性的可取值数目不在有限,所以需要进行连续属性的离散化技术

连续值处理的最常用方式:二分法(bi-partition)

将连续属性值使用一个划分点t进行划分,划分成Dt+和Dt-两个子集,对于相邻的两个属性值ai和ai+1,t可以去其中间值,对于连续属性a,可以考察包含n-1个元素的候选划分点集合:


image

然后像离散属性值一样考察这些划分点,选取最优的划分点进行样本集合的划分,例如Gain公式可以修改成:


image

计算后选择使得Gain(D, a, t)最大化的划分点

缺失值处理

当样本数据中有些样本在某些属性下出现数据缺失的情况是,需要有两个问题进行解决:

  • 如何在属性值缺失的情况下进行划分属性选择?
  • 给定划分属性,若样本在该属性上的值缺失,如何对样本进行划分?

给定训练集D和属性a,令D'a表示D中在属性a上没有缺失值的样本子集。对于问题第一点,仅可根据D'a来判断属性a的优劣。

假定我们为每个样本x赋予一个权重wx,并定义:


image

从而可以将信息增益推广为:


image

其中
image

对于问题的第二点,若样本x在划分属性a上的取值已知,则将x划入与其取值对应的子结点,且样本权值在子结点中保持为wx,若样本x在划分属性a上的取值未知,则将x同时划入所有子结点,且样本权值在与属性值av对应的子结点中调整为 rv×wx,即让同一个样本以不同的概率划入到不同的子结点中去。

多变量决策树

当把每个属性视为坐标空间中的一个坐标轴,则d个属性描述的样本就对应了d维空间中的一个数据点,对样本分类则意味着在这个坐标空间中寻找不同类样本之间的分类边界。决策树所形成的分类边界有一个明显的特点:轴平行(axis-parallel),即它的分类边界由若干个与坐标轴平行的分段组成:


image

若使用斜线划分边界,则可以视为多变量决策树(multivariate decision tree),实现“斜划分”甚至更复杂的划分,即每个非叶节点变为属性的线性组合,形如

image

的一个线性分类器,学习的过程也是确定wi的过程


image

全文参考:周志华 著 《机器学习》


转载请注明出处,本文永久更新链接:小天才的杂货铺-个人博客

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,670评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,928评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,926评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,238评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,112评论 4 356
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,138评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,545评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,232评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,496评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,596评论 2 310
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,369评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,226评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,600评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,906评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,185评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,516评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,721评论 2 335