如果是连续值的时候,需要分离,如温度是否大于70
是否购买电脑的决策树模型
信息熵
计算信息熵
变量的不确定性越大,熵越大
1.ID3
构造决策树节点问题,如何构造根节点
信息量获取: Gain(A) = Info(D) - Info_A(D)
本身数据的信息熵
按照年龄分后的信息熵
已age为根节点后,继续以上边的步骤构造决策树
变量的不确定性越大,熵越大
构造决策树节点问题,如何构造根节点
信息量获取: Gain(A) = Info(D) - Info_A(D)
本身数据的信息熵
按照年龄分后的信息熵
已age为根节点后,继续以上边的步骤构造决策树