Scikit-Learn是Python环境下的机器学习工具包,可以对数据进行预处理,可以处理不同规模的分类、回归、聚类等问题。
一般会使用pandas,NumPy、Scipy、Matplotlib等经典库来配合Scikit-Learn进行数据挖掘和建模,各个库的作用不用多说,都可以不同程度的减少工作量,尤其pandas最为重要,工具性的东西都应该熟练掌握,下面也会配合简单的实例来具体说明。
本篇简要介绍下工具箱基本情况,其实应用很简单,原理上的理解需要下功夫,主要模型原理的推导和调优推荐斯坦福NG的课程,先定个小目标,比如说把视频过两遍,并亲自推导一下。
- 环境的搭建
既然前面已经安装pandas、NumPy,那么可以直接pip install sklearn
即可,依赖的库也会一同安装,如果甚至Python环境都没有安装,或者在意Python版本的,可以安装Anaconda,它相当于以上库的整合,同时也自带Python和IPython notebook,专门用来做数据挖掘,window平台已安装,不会影响已有的Python环境。
下面介绍如何用Scikit-Learn来建模
建模的过程很简单,其实没必要急于建模,建模之前需要把数据准备好。
1. 选择合适的数据集
sklearn.datasets包里已经准备了一些常用的数据集,包括分类或者聚类常用到的鸢尾花数据集,都可以拿来做简单的实验
from sklearn import datasets
datasets.load*?
datasets.load_boston
datasets.load_breast_cancer
datasets.load_diabetes
datasets.load_digits
datasets.load_files
datasets.load_iris
datasets.load_lfw_pairs
datasets.load_lfw_people
datasets.load_linnerud
datasets.load_mlcomp
datasets.load_sample_image
datasets.load_sample_images
datasets.load_svmlight_file
datasets.load_svmlight_files
2. 数据的预处理
不要小看这个步骤,数据预处理可以直接影响到模型,尽管调参也很重要,可数据都不是高质量的,模型或参数又有何评估意义呢,因此,必须保证输入足够精确,才能确保模型的完备。
对于爬到的数据或者从别的地方导下来的数据,往往需要清洗,最常见的是缺失值,可以用pandas来填充有意义的值进去,如果存在较少的异常值,可以用插值,SciPy库提供了不同的插值算法。
如果特征数据之间的量级跨度较大,数据规范化也是必不可少的,使所有数据都在一个量纲上,这样可以保证模型参数的精确性。常用的规范化主要有两个,min-max规范化和均值规范化。
可以用pandas来做简单的处理,将以下公式定义为匿名函数,配合DataFrame.apply()来完成
x_std = (x - x.min()) / (x.max() - x.min())
x_std = (x - x.mean()) / x.std()
sklearn库也有集成好的规范化方法,例如StandardScaler,与以上方法不同的是,它是以训练的方式将特征值进行转换,最终服从高斯分布,再将模型应用于测试集,使数据集达到高度的规范化。
3. 模型的选择
模型的选择视情况而定,首先要去了解基本模型的原理,包括核心公式的推导过程、模型的优化过程、适用的场景以及收敛的效率,以下两张图是别人总结的,这里借鉴一下
4. 建模
在选取好合适的模型后,我们用训练集来建模,以逻辑斯谛回归为例
# 构造一个默认参数的模型
model = LogisticRegression()
# 对模型进行训练
# 有监督学习记得加上label
model.fit(X_train, Y_train)
# 模型预测
# 预测得到测试集label
model.predict(X_test)
# 预测得到测试集到各个分类的概率值(相加为1)
model.predict_proba(X_test)
5. 模型评估
# 返回各个分类的精确率、召回率以及F1值
print(classification_report(Y_test, model.predict(X_test)))
此外,我们对模型的评估,也要了解混淆矩阵,mAP指标,Precesion和Recall指标的关系,即PR关系图的绘制。