我们一般解决机器学习问题的步骤如下:
1.拿到数据集,对数据集进行清洗。数据集清洗一般包括以下几个方面:重复值处理,缺失值处理,字符型数值处理(因为sklearn机器学习算法只能识别数值型的数据),特征提取(这就需要我们弄清楚每个特征的意义,选取对结果影响较大的特征),数据集切分,划分训练集和测试集。
2.建立模型。我们的机器学习问题分为两类,分类(Classifier)和回归(Regression),我们根据我们的目标来选择合适的算法,像逻辑回归,线性回归,朴素贝叶斯,支持向量机等。
3.模型评估,对模型的预测结果做一个评估。通常我们选用的评估标准有精度(Accuracy),Recall值,Fpr,F1-score,Roc_Auc值等等。
4.模型优化,如果模型的各项评价指标比较低,那么我们可以从以下几个方面去优化我们的模型:1.再次整理数据集,2.优化特征选择,3.优化模型参数
交叉验证是评估机器学习算法非常重要的手段,那我们要怎么理解交叉验证这种方法呢?
在机器学习中数据对我们而言是非常宝贵的,如果用整个数据来训练模型,再用这个模型去预测已有的数据,那么预测的效果一定非常的好,因为模型已经学习过了该数据。那么这个预测效果来讲是没有多大参考价值的,因为我们需要模型预测未知数据的效果要好。
所以我们首先要做的就是对数据集进行划分,将其划分为训练集和测试集,用训练集来建立模型,用测试集来评估模型。
如图所示,我们将这个数据集按照7:3的比例划分为训练集和测试集,这个比例可以自己指定。
当然这种数据集划分还是稍微有一点缺点,如果训练集数据比较复杂,而测试集数据比较简单,那么模型的表现效果会非常的好。如果训练集数据比较简单,而测试集数据比较负责,那么模型的表现效果会非常的差。所以这样得到的模型结果存在极大的不准确性,为了使得我们训练出来的模型能准确的反应其真实效果,我们引入了交叉验证。
我们用下面这张图来说明交叉验证到底是怎么回事?
1.我们将训练集(trainning set)分为三份,当然我们也可以分为五份,十份甚至更多,这个可以自己指定,我们就以三份为例。
2.我们选择其中两份作为训练集,另外一份作为验证集,这样就产生了三种情况。1和2预测3,1和3预测2,2和3预测1,那么我们最终的结果就是三个模型的平均值,均值更能代表我们模型的准确性。这是一个边训练边测试的过程,能使我们更好的把握模型的准确性。
下面我们用代码来实现我们的上述过程,我们使用sklearn库封装好的数据集iris数据集。我们先使用sklearn.model_selection.train_test_split函数对数据集进行切分。
from sklearn import datasets
from sklearn.model_selection import train_test_split,cross_val_score
from sklearn.linear_model import LogisticRegression
iris = datasets.load_iris()
X = iris.data
y = iris.target
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.3,random_state=0)
#train_test_split函数有四个返回值;test_size是切分的比例,可以自己指定;random_state是指定随机的种子。
Lr = LogisticRegression()
Lr.fit(X_train,y_train)
Lr.score(X_test,y_test)
0.8888888888888888#逻辑回归模型的精度为0.89
接下来我们使用sklearn.model_selection.cross_val_score函数对模型做一个交叉验证。
from sklearn import datasets
from sklearn.model_selection import train_test_split,cross_val_score
from sklearn.linear_model import LogisticRegression
iris = datasets.load_iris()
X = iris.data
y = iris.target
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.3,random_state=0)
Lr = LogisticRegression()
scores = cross_val_score(Lr,X_train,y_train,cv=5)
print(scores)
[0.90909091 1. 0.95238095 0.9047619 0.94736842]
print(scores.mean())
0.9427204374572795
由上述结果可以看出,我们做了交叉验证以后,模型的精度为0.94,这个结果高于之前的0.88,且更能代表模型的准确性。cross_val_score需要传入四个参数(模型,特征数据,标签数据,cv交叉验证的次数,也就是我们上图所画出的将数据分为几份,同时也有几个返回值)。
接下来我们再说一个交叉验证中常用的KFold函数,它也是一个数据集划分函数,它的返回值是训练集和测试集的索引值。举一个例子:
import numpy as np
from sklearn.model_selection import KFold
data = np.arange(72).reshape(12,6)
kf = KFold(n_splits = 4,shuffle = False)
for train_index,test_index in kf.split(data):
print('train_index:%s' % train_index,'test_index:%s' % test_index)
train_index:[ 3 4 5 6 7 8 9 10 11] test_index:[0 1 2]
train_index:[ 0 1 2 6 7 8 9 10 11] test_index:[3 4 5]
train_index:[ 0 1 2 3 4 5 9 10 11] test_index:[6 7 8]
train_index:[0 1 2 3 4 5 6 7 8] test_index:[ 9 10 11]
KFold函数将我们12个样本的索引值分成了4组(n_splits = 4),取三组索引作为训练集索引,一组作为测试集索引。kf.split为经常使用的属性,对需要处理的数据集进行划分,同时该值也可以传入cv参数,cv=kf.split(data)。
机器学习算法的预测结果也存在着偶然性,所以为了获得更准确的结果,我们通过交叉验证,得到多个结果,取其平均值,这个均值更能代表我们模型的准确性。