GBRT-Regression-Demo(超参数的比较)

import matplotlib.pyplot as plt
import numpy as np
from sklearn import ensemble,datasets,model_selection
def load_data_regression():
    diabetes = datasets.load_diabetes()
    return model_selection.train_test_split(diabetes.data,diabetes.target,test_size=0.3,random_state = 0)  
def test_GradientBoostingRegression(*data):
    X_train,X_test,Y_train,Y_test = data
    regr = ensemble.GradientBoostingRegressor()
    regr.fit(X_train,Y_train)
    print("Training score:%f"%regr.score(X_train,Y_train))
    print("Testing score:%f"%regr.score(X_test,Y_test))
X_train,X_test,Y_train,Y_test = load_data_regression()
test_GradientBoostingRegression(X_train,X_test,Y_train,Y_test)
Training score:0.876188
Testing score:0.275905

考察个体回归树的数量对GBRT的影响

def test_GradientBoostingRegression_estimators_num(*data):
    X_train,X_test,Y_train,Y_test = data
    nums = np.arange(1,100,step=2)
    fig = plt.figure()
    ax = fig.add_subplot(1,1,1)
    train_scores = []
    test_scores = []
    for i,num in enumerate(nums):
        clf = ensemble.GradientBoostingRegressor(n_estimators=num)
        clf.fit(X_train,Y_train)
        train_scores.append(clf.score(X_train,Y_train))
        test_scores.append(clf.score(X_test,Y_test))
    ax.plot(nums,train_scores,label="training score")
    ax.plot(nums,test_scores,label="testing score")
    ax.set_xlabel("estimators num")
    ax.set_ylabel("score")
    ax.legend(loc="lower right")
    ax.set_title("GradientBoostRegression")
plt.show()
X_train,X_test,Y_train,Y_test = load_data_regression()
test_GradientBoostingRegression_estimators_num(X_train,X_test,Y_train,Y_test)
output_6_0.png
运行结果分析:
  1. 随着个体回归树数量的增长,GBRT的性能对与训练集一直在提高。
  2. 但是对于测试集测试得分先快速上升后基本缓慢下降。

考察个体回归树的最大深度对于集成回归器预测性能的影响

def test_GradientBoostingRegression_max_depth(*data):
    X_train,X_test,Y_train,Y_test = data
    maxdepths = np.arange(1,20+1)
    fig = plt.figure()
    ax = fig.add_subplot(1,1,1)
    train_scores = []
    test_scores = []
    for i,maxdepth in enumerate(maxdepths):
        clf = ensemble.GradientBoostingRegressor(max_depth=maxdepth,max_leaf_nodes=None)
        clf.fit(X_train,Y_train)
        train_scores.append(clf.score(X_train,Y_train))
        test_scores.append(clf.score(X_test,Y_test))
    ax.plot(maxdepths,train_scores,label="Training score")
    ax.plot(maxdepths,test_scores,label="Testing score")
    ax.set_xlabel("maxdepth num")
    ax.set_ylabel("score")
    ax.legend(loc="lower right")
    ax.set_ylim(-1,1.05)
    ax.set_title("GradientBoostingRegression")
    plt.show()
X_train,X_test,Y_train,Y_test = load_data_regression()
test_GradientBoostingRegression_max_depth(X_train,X_test,Y_train,Y_test)
output_10_0.png
运行结果分析:
  • 随着个体回归树的最大深度增长,对训练集的拟合越来越好,但是对测试集的拟合越来越差,产生了过拟合现象。

考察学习率对于GBRT的预测性能的影响

def test_GradientBoostingRegression_learning_rate(*data):
    X_train,X_test,Y_train,Y_test = data
    learing_rates = np.linspace(0.01,1.0)
    fig = plt.figure()
    ax = fig.add_subplot(1,1,1)
    train_scores = []
    test_scores = []
    for i,learing_rate in enumerate(learing_rates):
        clf = ensemble.GradientBoostingRegressor(learning_rate=learing_rate)
        clf.fit(X_train,Y_train)
        train_scores.append(clf.score(X_train,Y_train))
        test_scores.append(clf.score(X_test,Y_test))
    ax.plot(learing_rates,train_scores,label="Training score")
    ax.plot(learing_rates,test_scores,label="Testing score")
    ax.set_xlabel("learing_rate")
    ax.set_ylabel("score")
    ax.legend(loc="best")
    ax.set_ylim(-1,1.05)
    ax.set_title("GradientBoostingRegression_learning_rate")
plt.show()
X_train,X_test,Y_train,Y_test = load_data_regression()
test_GradientBoostingRegression_learning_rate(X_train,X_test,Y_train,Y_test)
output_14_0.png
运行结果分析:
  • GBRT对预测集的预测得分随着学习率的增长而一直降低

考察subsample的影响

def test_GradientBoostingRegression_subsample(*data):
    X_train,X_test,Y_train,Y_test = data
    subsamples = np.linspace(0.01,1.0)
    fig = plt.figure()
    ax = fig.add_subplot(1,1,1)
    train_scores = []
    test_scores = []
    for i,subsample in enumerate(subsamples):
        clf = ensemble.GradientBoostingRegressor(subsample=subsample,n_estimators=100)
        clf.fit(X_train,Y_train)
        train_scores.append(clf.score(X_train,Y_train))
        test_scores.append(clf.score(X_test,Y_test))
    ax.plot(subsamples,train_scores,label="Training score")
    ax.plot(subsamples,test_scores,label="Testing score")
    ax.set_xlabel("subsample")
    ax.set_ylabel("score")
    ax.legend(loc="best")
    ax.set_ylim(-1,1.05)
    ax.set_title("GradientBoostingRegression_subsample")
plt.show()
X_train,X_test,Y_train,Y_test = load_data_regression()
test_GradientBoostingRegression_subsample(X_train,X_test,Y_train,Y_test)
output_18_0.png
运行结果分析:
  • 本问题中,subsample对GBRT预测的影响不大,主要对GBRT的训练拟合能力起作用。

考察max_features参数的影响

def test_GradientBoostingRegression_max_features(*data):
    X_train,X_test,Y_train,Y_test = data
    max_features = np.linspace(0.01,1.0)
    fig = plt.figure()
    ax = fig.add_subplot(1,1,1)
    train_scores = []
    test_scores = []
    for i,features in enumerate(max_features):
        clf = ensemble.GradientBoostingRegressor(max_features=features,n_estimators=100)
        clf.fit(X_train,Y_train)
        train_scores.append(clf.score(X_train,Y_train))
        test_scores.append(clf.score(X_test,Y_test))
    ax.plot(max_features,train_scores,label="Training score")
    ax.plot(max_features,test_scores,label="Testing score")
    ax.set_xlabel("max_features")
    ax.set_ylabel("score")
    ax.legend(loc="best")
    ax.set_ylim(0,1.05)
    ax.set_title("GradientBoostingRegression_max_features")
plt.show()
X_train,X_test,Y_train,Y_test = load_data_regression()
test_GradientBoostingRegression_max_features(X_train,X_test,Y_train,Y_test)
output_22_0.png
运行结果分析:
  • GBRT对于特征集合的选取不是很敏感

考察损失函数的影响

def test_GradientBoostingRegression_loss(*data):
    X_train,X_test,Y_train,Y_test = data
    fig = plt.figure(figsize=(15,15))
    nums = np.arange(1,200,step=2)
    ###ls:平方损失函数
    ###lad:绝对值损失函数
    ###huber:上述两者的加权结合
    losses = ["ls","lad","huber"]
    ax = fig.add_subplot(2,1,1)
    alphas = np.linspace(0.01,1.0,endpoint=False,num=5)
    for alpha in alphas:
        test_scores = []
        train_scores = []
        for num in nums:
            regr = ensemble.GradientBoostingRegressor(n_estimators=num,loss="huber",alpha=alpha)
            regr.fit(X_train,Y_train)
            train_scores.append(regr.score(X_train,Y_train))
            test_scores.append(regr.score(X_test,Y_test))
        ax.plot(nums,train_scores,label="Training score:alpha=%f"%alpha)
        ax.plot(nums,test_scores,label="Testing score:alpha=%f"%alpha)
    ax.set_xlabel("estimator num")
    ax.set_ylabel("score")
    ax.legend(loc="best",framealpha=0.4)
    ax.set_ylim(0,1.05)
    ax.set_title("loss=huber")
    plt.suptitle("GradientBoostRegressor")
    ######绘制ls和lad#######    
    ax = fig.add_subplot(2,1,2)
    for loss in ["ls","lad"]:
        test_scores = []
        train_scores = []
        for num in nums:
            regr = ensemble.GradientBoostingRegressor(n_estimators=num,loss=loss)
            regr.fit(X_train,Y_train)
            train_scores.append(regr.score(X_train,Y_train))
            test_scores.append(regr.score(X_test,Y_test))
        ax.plot(nums,train_scores,label="Training score:loss=%s"%loss)
        ax.plot(nums,test_scores,label="Testing score:loss=%s"%loss)
        ax.set_xlabel("estimator num")
        ax.set_ylabel("score")
        ax.legend(loc="best",framealpha=0.4)
        ax.set_ylim(0,1.05)
        ax.set_title("loss=ls,lad")
        plt.suptitle("GradientBoostRegressor")
    plt.show()
output.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,968评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,601评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,220评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,416评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,425评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,144评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,432评论 3 401
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,088评论 0 261
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,586评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,028评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,137评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,783评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,343评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,333评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,559评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,595评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,901评论 2 345

推荐阅读更多精彩内容