人工智能00011 深度学习与图像识别书评11 图像分类识别预备知识04

3.4 模型参数调优

机器学习方法(深度学习是机器学习中的一种)往往涉及很多参数甚至超参数,因此实践过程中需要对这些参数进行适当地选择和调整。

本节将以KNN为例介绍模型参数调整的一些方法。

这里的方法不局限于图像识别,属于机器学习通用的方法。

本节的知识既可以完善读者的机器学习知识体系,也可以帮助读者在未来的实践中更快、更好地找到适合自己模型和业务问题的参数。

当然如果你比较急切地想了解图像识别、快速地动手实践以看到自己写出的图像识别代码,那么你可以先跳过这一节,实战时再回来翻看也不迟。

对于KNN算法来说,k就是需要调整的超参数。

对于一般初学者来说,你可能会尝试不同的值,看哪个值表现最好就选哪个。

有一种更专业的穷举调参方法称为GridSearch,即在所有候选的参数中,通过循环遍历,尝试每一种的可能性,表现最好的参数就是最终的结果。

那么选用哪些数据集进行调参呢,我们来具体分析一下。

方法一,选择整个数据集进行测试。

这种方法有一个非常明显的问题,那就是设定k=1总是最好的,因为每个测试样本的位置总是与整个训练集中的自己最接近。

方法二,将整个数据集拆分成训练集和测试集,然后在测试集中选择合适的超参数。

这里也会存在一个问题,那就是不清楚这样训练出来的算法模型对于接下来的新的测试数据的结果如何。

方法三,将整个数据集拆分成训练集、验证集和测试集,然后在验证集中选择合适的超参数,最后在测试集上进行测试。

这个方法相对来说比之前两种方法好很多,也是在实践中经常使用的方法。

方法四,使用交叉验证,

将数据分成若干份,将其中的各份作为验证集之后给出平均准确率,最后将评估得到的合适的超参数在测试集中进行测试。

这个方法更加严谨,但实践中常在较小的数据集上使用,在深度学习中很少使用。

我们现在针对方法四来做测试。

第一步,使用之前所写的KNN分类器,代码如下:

。 class Knn:

   def __init__(self):

       pass

   def fit(self,X_train,y_train):

       self.Xtr = X_train

       self.ytr = y_train

   def predict(self,k, dis, X_test):

       assert dis == 'E' or dis == 'M', 'dis must E or M'        num_test = X_test.shape[0]  #测试样本的数量

       labellist = []

       #使用欧拉公式作为距离度量

       if (dis == 'E'):

           for i in range(num_test):

               distances = np.sqrt(np.sum(((self.Xtr - np.tile(X_test[i], (self.Xtr.shape[0], 1))) ** 2), axis=1))

               nearest_k = np.argsort(distances)topK = nearest_k[:k]

               classCount = {}

               for i in topK:

                   classCount[self.ytr[i]] = classCount.get(self.ytr[i], 0) + 1

               sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)

               labellist.append(sortedClassCount[0][0])

           return np.array(labellist)#使用曼哈顿公式作为距离度量

       if (dis == 'M'):

           for i in range(num_test):

               #按照列的方向相加,其实就是行相加

               distances = np.sum(np.abs(self.Xtr - np.tile(X_test[i], (self.Xtr.shape[0], 1))), axis=1)

               nearest_k = np.argsort(distances)

               topK = nearest_k[:k]

               classCount = {}for i in topK:

                   classCount[self.ytr[i]] = classCount.get(self.ytr[i], 0) + 1

               sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)

               labellist.append(sortedClassCount[0][0])

           return np.array(labellist)

第二步,准备测试数据与验证数据,值得注意的是,如果使用方法四,则在选择超参数阶段不需要使用到X_test和y_test的输出,代码如下:

X_train = train_loader.dataset.train_data

X_train = X_train.reshape(X_train.shape[0],-1)

mean_image = getXmean(X_train)

X_train = centralized(X_train,mean_image)

y_train = train_loader.dataset.train_labels  y_train = np.array(y_train)

X_test = test_loader.dataset.test_data

X_test = X_test.reshape(X_test.shape[0],-1)

X_test = centralized(X_test,mean_image)

y_test = test_loader.dataset.test_labels

y_test = np.array(y_test)

print(X_train.shape)

print(y_train.shape)

print(X_test.shape)

print(y_test.shape)

第三步,将训练数据分成5个部分,每个部分轮流作为验证集,代码如下:

num_folds = 5

k_choices = [1, 3, 5, 8, 10, 12, 15, 20]        #k的值一般选择1~20以内

num_training=X_train.shape[0]

X_train_folds = []

y_train_folds = []

indices = np.array_split(np.arange(num_training), indices_or_sections=num_folds)#把下标分成5个部分

for i in indices:

   X_train_folds.append(X_train[i])

y_train_folds.append(y_train[i])

k_to_accuracies = {}

for k in k_choices:

   #进行交叉验证

   acc = []

   for i in range(num_folds):

       x = X_train_folds[0:i] + X_train_folds[i+1:]           #训练集不包括验证集x = np.concatenate(x, axis=0)                          #使用concatenate将4个

                                                                训练集拼在一起

       y = y_train_folds[0:i] + y_train_folds[i+1:]

       y = np.concatenate(y)                                  #对label进行同样的操作

       test_x = X_train_folds[i]                              #单独拿出验证集

       test_y = y_train_folds[i]

       classifier = Knn()  #定义model

classifier.fit(x, y)                                   #读入训练集

#dist = classifier.compute_distances_no_loops(test_x)

#计算距离矩阵

y_pred = classifier.predict(k,'M',test_x)              #预测结果

accuracy = np.mean(y_pred == test_y)                   #计算准确率

acc.append(accuracy)  

               k_to_accuracies[k] = acc                                       #计算交叉验证的平均准确率

#输出准确度

for k in sorted(k_to_accuracies):

   for accuracy in k_to_accuracies[k]:

       print('k = %d, accuracy = %f' % (k, accuracy))  

使用下面的代码图形化展示k的选取与准确度趋势:

# plot the raw observations

import matplotlib.pyplot as pltfor k in k_choices:

   accuracies = k_to_accuracies[k]

   plt.scatter([k] * len(accuracies), accuracies)

# plot the trend line with error bars that correspond to standard deviation

accuracies_mean = np.array([np.mean(v) for k,v in sorted(k_to_accuracies.items())])

accuracies_std = np.array([np.std(v) for k,v in sorted(k_to_accuracies.items())])

plt.errorbar(k_choices, accuracies_mean, yerr=accuracies_std)

plt.title('Cross-validation on k')

plt.xlabel('k')

plt.ylabel('Cross-validation accuracy')

plt.show()  

这样我们就能比较直观地了解哪个k比较合适,了解测试集的准确度,当然我们也可以更改下代码(选取欧拉公式来重新测试,看哪个距离度量比较好)。

特别需要注意的是,不能使用测试集来进行调优。当你在设计机器学习算法的时候,应该将测试集看作非常珍贵的资源,不到最后一步,绝不使用它。

如果你使用测试集来调优,即使算法看起来效果不错,但真正的危险在于:在算法实际部署后,算法对测试集过拟合,也就是说在实际应用的时候,算法模型对于新的数据预测的准确率将会大大下降。

从另一个角度来说,如果使用测试集来调优,那么实际上就是将测试集当作训练集, 由测试集训练出来的算法再运行同样的测试集,性能看起来自然会很好,但其实是有一点自欺欺人了,实际部署起来,效果就会差很多。

所以,到最终测试的时候再使用测试集,可以很好地近似度量你所设计的分类器的泛化性能。

本章主要讲述了KNN在图像分类上的应用,虽然KNN在MNIST数据集中的表现还算可以,但是其在Cifar10数据集上的分类准确度就差强人意了。

另外,虽然KNN算法的训练不需要花费时间(训练过程只是将训练集数据存储起来),但由于每个测试图像需要与所存储的全部训练图像进行比较,因此测试需要花费大量时间,这显然是一个很大的缺点,因为在实际应用中,我们对测试效率的关注要远远高于训练效率。

在实际的图像分类中基本上是不会使用KNN算法的。

由于KNN是机器学习中最简单的分类算法,而图像分类也是图像识别中最简单的问题,所以本章使用KNN来做图像分类,这是我们了解图像识别算法的第一步。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343

推荐阅读更多精彩内容