之前读《机器学习实战》,对很多算法从原理上进行编写,对学习算法有很大帮助,但效率很低。用pandas和sklearn可以很快的实现算法,效率更高。
1、数据准备
本次实用的数据,如图所示:
通过对前三列的类别进行分类,来预测未知分类对应的程度,从而达到分类;首先从excel读取数据,语句如下:
#-*- coding: utf-8 -*-
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
import pandas as pd
data_file = "../data/data.xlsx"
df = pd.read_excel(data_file, encoding="utf-8")
通过这种方法读取的df,是dataframe类型的数据,相当于二维矩阵,读取,及操作都需要响应语法。例如,可以通过以下方法读取类型或数据:
x = df[[u'里程',u'冰淇淋', u'游戏']]
y = df[[u'程度']]
2、数据清洗和数据归一
数据由于存在质量问题,因此必要的清洗是应该的;另外,不同类型的数据还存在量纲的差别,因此需要对数据进行归一化才能使得结果更准确。方法如下:
数据清洗:
explore = df.describe().T
print explore
通过此方法,可以查看各属性数据的空值数、最大最小值等来分析数据可能存在的问题。复杂的时候,还可以写复合逻辑来查数据不合理的成分,详见《Python数据分析与挖掘实战》的第七章,符合来查票价的不合理成分。
数据归一:
归一场用的方法是0-均值规范化:
x = (x-x.mean())/x.std()
或者利用sklearn自带的方法:
from sklearn.preprocessing import StandardScaler
ss = StandardScaler()
x = ss.fit_transform(x)
3、模型建立
首先将数据拆分成训练集和测试集:
from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(x,y,random_state = 1)
其中random_state=1表示每次随机分成的测试集与训练集都相同
训练KNN模型:
knn = neighbors.KNeighborsClassifier()
knn.fit(x_train,y_train)
4、模型预测
y_pred = knn.predict(x_test)
通过此预测得到的数据类型其实是:narray,不是值钱的dataframe,这一点要注意;所以在比较时,要做数据转换;
5、模型评价
y_pred_array = y_test.values.ravel()
result = y_pred_array - y_pred
temp = 0
for i in result:
if i==0:
temp += 1
print float(temp)/len(result)
通过将测试集进行模型预测,再跟测试集已知结果进行比对,边得知模型的准确读;以上是自己实现的方法,首先是将之前的dataframe类型转为narray类型,然后用循环统计两者做差之后0的数量,即为正确的数量。
或者利用已知的方法来做比对:
print 'The accuracy of K-Nearest Neighbor Classifier is', knn.score(x_test, y_test)
from sklearn.metrics import classification_report
print classification_report(y_test, y_pred)
通过这两种方法都能得知模型的准确度;
6、补充
#在不归一化数据时,模型的准确率时:0.796
#归一化之后,准确率时:0.952
概念: