西瓜书(4.1-4.3)关于决策树

今天整理一下关于西瓜书中决策树的基础内容,今天只写了4.1-4.3,后面还有4.4连续与缺失值,4.5多变量决策树改日有时间再写,考试在即。。。。

基本流程

决策树是一种常见的机器学习方法,这种算法可以看作是一系列的判断过程,比如在西瓜问题中,我们提出一个问题“一个西瓜是否是好瓜?”,接下来我们会对它进行一系列的判断,比如说“他的根蒂是什么形态?”,“他敲起来是什么声音?”,最终我们会得到一个结果。


一般情况下,一颗决策树包含一个根节点,若干个内部节点,,和若干个叶节点,每个节点对应于一种属性测试,测试结果就是将数据划分到两个子节点中,下面三种情况会导致节点无法再次分割,(1)当前节点中包含的都是同一类的样本,所以不能继续分割(2)当前属性集为空,或者所有样本的所有属性都一样无法再分割(3)当前样本集合为空无法分割

划分选择

决策树面临最重要的一个问题就是如何来选择属性来划分,也就是为什么你首先用根蒂来划分数据集,然后用敲声继续划分?如果我直接用敲声先来划分可以吗?

这里面是存在数学计算的,我们怎么来选择呢?就是依靠的是信息增益

信息增益

什么是信息增益呢?首先我们应该了解一种度量方法叫做信息熵,信息熵是度量集合纯度的一种常用指标,我们把它叫做Ent(D),计算公式如下


信息熵

表示当前集合中标签为k的样例在当前集合中占比为Pk,那什么是信息增益呢?
既然是增益,那么肯定有东西是变化的,这个东西就是我们的特征,在加入我们的特征前后熵的变化就叫做是信息增益,信息增益计算公式如下,其中v表示特征可以取得的值。


信息增益

既然信息熵是表示我们集合纯度大小的一个度量单位,那么信息增益显然时表示增加这个特征划分前后的信息熵大小变化。(注意:计算一个集合中的信息熵是不用注意特征取值,只用关心集合中不同标签的样例所占比例即可,之后特征取得另一个值之后再次计算信息熵,最终求和,注意系数),一般而言信息熵越大,说明使用当前属性划分的“纯度提升”越大,著名的ID3算法就是用信息增益来选择特征进行划分。


信息增益率

上面所述的算法有一个缺陷,就是当你的特征可取值比较多的时候更加容易选到你,不是该特征可以有效地分割样本,为了克服这个问题,我们又有了ID4.5算法,其中的特征选择方法不再是依靠信息增益而是依靠信息增益率。


增益率

其中的IV表示,我们可以看出来,对于取值比较多的特征,我们计算时候要将他与IV相除,这个IV在特征取值逐渐增多的时候是逐渐变大的,这也就可以限制了Gain_ratio的值在特征取值多的时候也可以维持在正常范围。



但是需要注意的是,ID4.5算法是比较偏向于特征取值数量较小的特征,所以我们最终选择了一个启发式:先从候选划分属性之中找出信息增益在平均值之上的特征,然后再计算特征计算增益率。

基尼指数

还有一种树算法叫做CART(Classification and Regression Tree),这种树算法现在用的比较多,在一些集成算法中之中用的就是改进过的CART树算法,那么这种算法有什么优点呢?首先我们可以发现上面两种算法中都有一个共同的特点给,每次都需要进行log运算,在大量计算情况下是一种十分耗时的计算过程,而CART中采用的是Gini系数来衡量集合纯度


Gini系数

Gini系数表示的就是从集合中选出两个样例,计算他们不属于同一种标签的概率。
假设现在特征a的取值一共有V种情况,那么对于特征a的Gini系数为



意思表示对于每个特征取值我们都计算一边Gini系数然后×这个特征取值所占的比例,最后相加即可,这种情况大大减少了计算机的计算量。

剪枝处理

几乎所有的机器学习算法都会涉及那两个问题关于“过拟合”以及“欠拟合”,决策树算法也是不例外的,他所采取的措施是进行“剪枝”,关于剪枝同样有两种情况,一种是“预剪枝”,还有一种是“后剪枝”,两种剪枝策略不管是使用时间或者原理都是大不相同的,“预剪枝”表示的在进行剪枝之前,算法首先计算剪枝前后在验证集上的表现如何,如果剪枝可以带来在验证集上的正确率提升,那么就进行剪枝,如果不能带来提升就不进行剪枝。有些人会感到疑惑,这样会不会增加计算机的计算开销呢?因为如果需要进行分支的话,那么既需要进行分支还要进行计算,但是我们应该想到的是这次分支之后他可能还会有多次分支,如果我们计算出来不需要分支那么后面的分支我们都不用进行了,所以均衡考虑来说是一种减少了运算量的行为。那么关于“后剪枝”呢?“后剪枝”顾名思义,意思就是我们的树形成之后再对树进行优化,具体方法如下:等待树形成之后,从低端向上非叶节点开始排查,把每一个非叶节点替换成叶节点之后进行验证集上的测试,看看是否是更好的表现,来决定是否将该节点变为叶节点


预剪枝
后剪枝
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,392评论 5 470
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,258评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,417评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,992评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,930评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,199评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,652评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,327评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,463评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,382评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,432评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,118评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,704评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,787评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,999评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,476评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,057评论 2 341

推荐阅读更多精彩内容

  • 决策树理论在决策树理论中,有这样一句话,“用较少的东西,照样可以做很好的事情。越是小的决策树,越优于大的决策树”。...
    制杖灶灶阅读 5,817评论 0 25
  • 接触机器学习时间也不短了, 趁国庆放假, 做一下深度整理. 1. 大纲 若想在企业胜任算法相关岗位知识, 除了掌握...
    婉妃阅读 3,388评论 2 92
  • 一.朴素贝叶斯 1.分类理论 朴素贝叶斯是一种基于贝叶斯定理和特征条件独立性假设的多分类的机器学习方法,所...
    wlj1107阅读 3,059评论 0 5
  • :现实太过肥腻,让人吃不消,暂时躲到清爽的梦里,吹吹风,淋淋雨,会舒服好多。 昨晚的梦,风很大,我被风打翻,满瓶的...
    显生太古阅读 207评论 0 1
  • 静心冥想15分钟,零极限500遍,读《大学》和《中庸》各一遍,读《家庭祈祷文》和《青少年祈祷文》一篇,感恩10...
    邵秀阅读 124评论 0 0