第3章:决策树分类器 - 理论

作者:Savan Patel
时间:2017年5月11日
原文:原文:https://medium.com/machine-learning-101/chapter-3-decision-trees-theory-e7398adac567

H = 熵

迎阅读监督学习的第三个基本分类算法。决策树。像前面的章节(第1章:朴素贝叶斯第2章:SVM分类器)一样,本章也分为两部分:理论编码练习

在这一部分,我们将讨论理论和决策树背后的工作。我们将看到算法的一些数学方面,即熵和信息增益。在第二部分中,我们修改了sklearn库中决策树分类器的垃圾邮件分类代码。我们将比较Naive Bayes和SVM的准确性。

拒绝和招聘的黑暗面!

0.动机

假设我们有以下两个类的图,由黑色圆圈和蓝色方块表示。是否可以绘制一条分离线?也许没有。

你能为这些类画出单一分界线吗?

我们需要不止一行,分成几类。与下图类似的东西:

对于x的阈值和y的阈值,我们需要两条线。

我们在这里需要两条线,一条线根据x的阈值分离,另一条线条用于y的阈值

正如您现在猜到的那样,决策树会尝试做什么。

决策树分类器通过识别行重复地将工作区域(绘图)划分为子部分。(重复,因为可能存在两个相同类别的远距离区域,如下图所示)。

image.png

那么什么时候终止?

  1. 它要么分成纯粹的类(只包含单个类的成员)
  2. 满足分类器属性的一些标准。

我们很快就会看到这两点。


在以下部分中,我们定义了与决策树相关的几个术语,然后使用示例示例执行这些计算。

1.杂质

在上面的部门中,我们明确地分类了。但如果我们有以下案例怎么办?

杂质是指我们将一个阶级划分为另一个阶段的痕迹。这可能是由于以下原因引起的

  1. 我们没有可用的功能来分类。
  2. 我们容忍一定比例的杂质(我们停止进一步分割)以获得更快的性能。(准确性和性能之间总是存在折衷)。

例如,在第二种情况下,当我们剩下x个较少数量的元素时,我们可以停止我们的除法。这也称为基尼杂质。

基于一些功能划分

2.熵

熵是元素的随机性程度,换句话说,它是**杂质的量度。****在数学上,它可以借助于项目的概率来计算:

p(x) 是项目x的概率

它是概率乘以项目x概率的对数的负和。

例如,
如果我们在投掷事件中将项目作为骰子面部出现次数为1123,
则熵为
   p(1)= 0.5 
   p(2)= 0.25 
   p(3)= 0.25 
entropy =  - (0.5 * log(0.5) )) - (0.25 * log(0.25)) - (0.25 * log(0.25)
        = 0.45

3.信息增益

假设我们有多个功能来划分当前工作集。我们应该选择什么功能进行划分?或许可以减少杂质。

假设我们将类划分为多个分支,如下所示,任何节点的信息增益定义为

信息增益(n)= 
  熵(x) - ([加权平均] *熵(特征的子项))

这需要一点解释!

假设我们有以下课程与初级合作

112234445

假设我们根据属性划分它们:可以被2整除

image.png
根
熵:0.66 左子熵:0.45,加权值=(4/9)* 0.45 = 0.2 
右子熵:0.29,加权值=(5/9)* 0.29 = 0.16
信息增益 = 0.66  -  [0.2 + 0.16] = 0.3

如果我们将决策作为素数而不是除以2,那么检查我们得到的信息增益**。****对于这种情况哪一个更好?

每个阶段的决策树选择提供最佳信息增益的决策树。当信息增益为0表示该功能根本不分割工作集。

如果你喜欢这个,请点击心脏(❤)图标并传播这个词。

让我们解决一个例子

现在您已经了解了关于决策树的基本知识,让我们解决一些示例并了解它的工作原理。

假设我们有以下数据可以在各种条件下打高尔夫球。

image.png

现在如果天气状况如下:

展望 :多雨,温度:凉爽,湿度:高,:虚假

我们应该打高尔夫吗?

我们在开始时有结果,因为NNYYYNYN(Y =是和N =否)按给定顺序拍摄。此根节点处的熵为0.3
现在尝试划分各种预测器的前景,温度,湿度和Windy。
计算每种情况下的信息增益。哪一个信息获得最高?
例如,如果我们基于Outlook划分,我们将划分为
Rainy:NNN(entropy = 0)
Sunny:YYN(entropy = 0.041)
阴天:YY(entropy = 0)
因此,信息增益= 0.3  -  [0 +(3/8)* 0.041 + 0] 
                    = 0.28
尝试其他案例。
基于Outlook划分时,信息增益最大。
现在Rainy和Overcast的杂质是0.我们在这里停下来。
接下来我们需要将Sunny分开,
如果我们除以Windy,我们将获得最大的信息收益。
Sunny 
YYN 
  Windy?是的:N 
         否:YY
所以决策树看起来像下图所示的东西。
没有预测数据是
Outlook:Rainy,Temperature:Cool,Humidity:High,Windy:False
根据结果​​从树上流下来,我们首先检查Rainy?
所以答案是否定的,我们不打高尔夫球。
image.png

最后的想法

基于最大信息增益有效划分是决策树分类器的关键。然而,在现实世界中,数百万个数据在实际上不可行时划分为纯类(可能需要更长的训练时间),因此当满足某些参数(例如杂质百分比)时,我们停在树节点中的点。我们将在编码练习中看到这一点。

接下来的部分,我们将使用Python中sklearn库代码决策树分类。我们将通过容忍一些杂质来调整一些参数以获得更高的准确度。


我希望本节有助于理解Decision树分类器背后的工作。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,386评论 6 479
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,939评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,851评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,953评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,971评论 5 369
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,784评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,126评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,765评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,148评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,744评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,858评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,479评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,080评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,053评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,278评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,245评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,590评论 2 343