原文链接:XGBoost(二):R语言实现
微信公众号:机器学习养成记
之前在XGBoost(一):与同类算法的差异对比一文中介绍了Bagging与Boost、AdaBoost与Gradient Boost、GBDT与XGBoost对比,本文我们接着来介绍如何在R中实现XGBoost。
一、XGBoost包
我们可以直接调用R语言的xgboost包中的xgboost()函数实现该算法,xgboost包已经上传到CRAN上,可直接通过install.packages("xgboost")进行安装。下面首先对几个主要参数进行介绍👇
二、数据预处理
xgboost仅适用于数值型向量,因此在训练模型前需要对数据进行相应的转化操作。另外,为了进一步提升运算效率,xgboost定义了独有的数据类型,方便对数据进行数值化和稀疏化处理,进行数据转换的函数如下👇
xgb_train <- xgb.DMatrix(train$data, label=train$label)
其中,train$data代表数据中的变量信息,train$label代表类别信息,运行后生成xgb.DMatrix格式的数据。
三、XGBoost代码实现
本例中我们使用uci上的酒质量评价数据,该数据通过酸性、ph值、酒精度等11个维度对酒的品质进行评价,对酒的评分为0-10分。
数据加载
从uci上将数据导入r,并对数据根据7:3的比例划分为训练集和测试集。
url <- 'https://archive.ics.uci.edu/ml/machine-learning-databases/wine-quality/winequality-red.csv'
redwine <- read.csv(url,sep = ';')
url1 <- 'https://archive.ics.uci.edu/ml/machine-learning-databases/wine-quality/winequality-white.csv'
whitewine <- read.csv(url1,sep = ';')
data <- rbind(redwine,whitewine)
#训练集、测试集划分
set.seed(17)
index <- which( (1:nrow(data))%%3 == 0 )
train <- data[-index,]
test <- data[index,]
数据预处理
将数据转化为gb.DMatrix类型,并对label进行处理,超过6分为1,否则为0。
library("xgboost")
library("Matrix")
train_matrix <- sparse.model.matrix(quality ~ .-1, data = train)
test_matrix <- sparse.model.matrix(quality ~ .-1, data = test)
train_label <- as.numeric(train$quality>6)
test_label <- as.numeric(test$quality>6)
train_fin <- list(data=train_matrix,label=train_label)
test_fin <- list(data=test_matrix,label=test_label)
dtrain <- xgb.DMatrix(data = train_fin$data, label = train_fin$label)
dtest <- xgb.DMatrix(data = test_fin$data, label = test_fin$label)
模型训练
训练模型,并对特征进行重要性排序。
#模型训练
xgb <- xgboost(data = dtrain,max_depth=6, eta=0.5,
objective='binary:logistic', nround=25)
#重要重要性排序
importance <- xgb.importance(train_matrix@Dimnames[[2]], model = xgb)
head(importance)
xgb.ggplot.importance(importance)
# Feature Gain Cover Frequency
#1: alcohol 0.27474736 0.14183897 0.09489917
#2: citric.acid 0.09380095 0.10530341 0.10557533
#3: volatile.acidity 0.09185450 0.10973963 0.08896797
#4: density 0.08476201 0.14420940 0.10557533
#5: chlorides 0.06978699 0.08309346 0.09845789
#6: sulphates 0.06925068 0.05679062 0.09371293
测试集效果检验
计算混淆矩阵并绘制ROC曲线图。
#混淆矩阵
pre_xgb = round(predict(xgb,newdata = dtest))
table(test_label,pre_xgb,dnn=c("true","pre"))
# pre
#true 0 1
# 0 1633 95
# 1 197 240
#ROC曲线
xgboost_roc <- roc(test_label,as.numeric(pre_xgb))
plot(xgboost_roc, print.auc=TRUE, auc.polygon=TRUE,
grid=c(0.1, 0.2),grid.col=c("green", "red"),
max.auc.polygon=TRUE,auc.polygon.col="skyblue",
print.thres=TRUE,main='ROC curve')
公众号后台回复“xgbR”获得完整代码
原文链接:XGBoost(二):R语言实现
微信公众号:机器学习养成记