这段时间去了解了下机器学习中常见的一些算法,一下东西挺多的,要花时间补下相关的数学了,这里总结一下学习的一些相关的知识点,非常感谢慕课网bobo老师即通俗易懂和不缺乏深度的讲解,其它的就不多说了,进入正题。
简单介绍
这里先简单说一下机器学习的环境,我是在ubuntu17.04下面安装的Anaconda,它集成了很多数据处理、科学计算和机器学习相关的库和一些强大的工具。直接在官网下载,然后在命令行模式下用
sh xxx你下载的包xxx
安装后,配置下环境变量,
vim ~/.bashrc
#打开后在最后一行加上
export PATH="/xxx/anaconda3/bin:$PATH"
这里注意一下当前是什么用户,并且用命令行去配置下次重启就又没有了,这样配置没有用的话
直接打开/etc/environment文件,把anaconda安装目录的bin文件夹路径加到后面。
安装好后可以
#查看当前conda环境下所有的库以及工具
conda list
#使用jupyter notebook
jupyter notebook --allow-root
这样就完成了安装以及环境变量的配置。
k-最近邻算法,即kNN,是数据的分类也是机器学习里面运用的数学基础较少的一种算法,可以解释机器学习算法使用过程中的很多细节问题,更易于熟悉机器学习的一个流程。kNN,也就是在一个特征平面,去寻找离一个点x距离最近的k个点,然后根据这几个点的特征,来判断点x是属于哪个特征的点,这个k就是使用该机器学习模型进行预测时的一个超参数,至于怎样取,就要结合距离的模型去进行选取。
而整个机器学习的过程也就是使用机器学习的算法对数据进行训练,得到一个模型,最后把需要预测的数据放入到模型里面,得到需要预测的结果。这里就kNN而言,计算距离的方式可以用欧拉距离,
具体实现
其实这些东西sklearn库都已经进行了封装,不过初学时为了更加清楚这个过程和算法的原理,有必要自己去实现一遍
看看如下的代码
class KNNClassifier:
def __init__(self, k):
""" 初始化KNN分类器"""
assert k >= 1, "k must be valid"
self.k = k
self._X_train = None
self._y_train = None
def fit(self, X_train, y_train):
"""根据训练集X_train和y_tarin训练KNN分类器"""
assert X_train.shape[0] == y_train.shape[0], \
"the size of X_train must be equal to the size of y_train"
assert self.k <= X_train.shape[0], \
"the size of X_train must be at least k."
self._X_train = X_train
self._y_train = y_train
return self
def predict(self, X_predict):
"""定带预测数据集X_predict, 返回表示X_predict的结果向量"""
assert self._X_train is not None and self._y_train is not None, \
"must fit before predict!"
assert X_predict.shape[1] == self._X_train.shape[1], \
"the feature number of X_predict must be equal to X_train"
y_predict = [self._predict(x) for x in X_predict]
return np.array(y_predict)
def _predict(self, x):
"""给定单个预测数据x, 返回x的预测结果值"""
assert x.shape[0] == self._X_train.shape[1], \
"the feature number of x must be equal to X_train"
distances = [sqrt(np.sum((x_train - x) ** 2)) for x_train in self._X_train]
nearest = np.argsort(distances)
topK_y = [self._y_train[i] for i in nearest[:self.k]]
votes = Counter(topK_y)
return votes.most_common(1)[0][0]
def score(self, X_test, y_test):
"""根据测试数据集X_test和y_test确定当前模型的精准度"""
y_predict = self.predict(X_test)
return accuracy_score(y_test, y_predict)
def __repr__(self):
return "KNN(k=%d)" % self.k
这里新建了一个KNNClassifier类文件,下面实现了一些方法,fit()用来进行模型的训练,当然kNN算法中,不需要进行模型的训练,因为使用计算距离的方式去预测待预测数据的特征,其实就相当于是放入到一个已经被训练好的模型,然后predict()方法里面传入被待预测的数据,再到_predict()这个私有方法里面去进行预测,预测过程也比较简单,就是计算距离后,使用argsort()对距离的索引进行排序,然后在这些数据里面寻找最近几个点的索引。最后再用Counter()计算这些特征点中数量最多的是哪个点,就可以得到待预测的点最有肯属于哪个特征。
然后看看score方法,用来求解当前模型的准确度,如下
def accuracy_score(y_true, y_predict):
'''计算y_true和y_predict之间的准确率'''
assert y_true.shape[0] == y_predict.shape[0], \
"the size of y_true must be equal to the size of y_predict"
return sum(y_true == y_predict) / len(y_true)
因为这里是使用的已有的数据,所以把数据进行拆分,分为训练数据集和测试数据集,通过计算算法的准确度,来更好的优化算法,根据相应的模型选取最合适的超参数。
将数据的拆分过程如下
def train_test_split(X, y, test_ratio=0.2, seed=None):
"""将数据 X 和 y 按照test_ratio分割成X_train, X_test, y_train, y_test"""
assert X.shape[0] == y.shape[0], \
"the size of X must be equal to the size of y"
assert 0.0 <= test_ratio <= 1.0, \
"test_ration must be valid"
if seed:
np.random.seed(seed)
shuffled_indexes = np.random.permutation(len(X))
test_size = int(len(X) * test_ratio)
test_indexes = shuffled_indexes[:test_size]
train_indexes = shuffled_indexes[test_size:]
X_train = X[train_indexes]
y_train = y[train_indexes]
X_test = X[test_indexes]
y_test = y[test_indexes]
return X_train, X_test, y_train, y_test
这里传入一个test_ratio,表示测试数据集所占的比例,默认为0.2,然后传入一个随机种子,过程就比较简单了,不多说了。最后可以拿sklearn中自带数据集在Jupter notebook中来进行一下测试,如图
超参数的选取
超参数是算法运行前需要决定的参数,选择合适的超参数能优化模型的准确度。前面知道了,k是一个超参数,但是这是只考虑距离的情况下,如果是下图的情况考虑距离的权重,这里就很明显红色的权重要大于蓝色结点的权重,显然这个结点为红色的可能性更大,而不是像之前考虑离待预测结点最近结点的数量来进行预测。这里谈到距离的话,看看下图
第一个是曼哈顿距离,一般用于二维平面下的计算,可以据此推导出图中第三个公式,也就是明可夫斯基距离,其中就产生了一个新的超参数p。
这里可以使用网格搜索的方式来寻找最合适的超参数
param_grid = [
{
'weights' : ['uniform'],
'n_neighbors' : [i for i in range(1, 11)]
},
{
'weights' : ['distance'],
'n_neighbors' : [i for i in range(1, 11)],
'p' : [i for i in range(1, 6)]
}
]
这里就列出需要搜索的2个超参数,第一个是之前提到的k,第二个就是2个超参数都考虑的情况下,注意第二个需要将weights指定为distance,也就是需要考虑距离。
knn_clf = KNeighborsClassifier()
from sklearn.model_selection import GridSearchCV
grid_search = GridSearchCV(knn_clf, param_grid)
然后
%time
grid_search.fit(X_train, y_train)
可以计算一下网格搜索的时间,这样超参数的选取就完成了。
并且搜索完后可以调用
grid_search.best_params_
来获取查找到的最佳的超参数。
数据归一化
当数据的某几个特征值相差比较大时,模型整体的准确度就会比较低,并且在进行网格搜索时也是非常耗时的,所以最后将特征值较大的特征进行归一化处理,也就是使用某种方式使它的值映射到0-1之间,可以使用
1.最值归一化
它比较适用于数据分布有明显边界的情况下。
2.均值方差归一化
其中x表示特征值,Xmean表示特征值的平均数,S表示特征值的方差。
即把所有数据归一到均值为0,方差为1的分布中。
适用于分布没有明显的边界,可能存在极端数据值。
总结
kNN算法是机器学习中比较基础的方式,但确照样要做多次的优化才能得到最佳的模型。这里也只是整理的大体上的一些,体验一把机器学习中的流程。