TensorFlow 过拟合和欠拟合

与之前一样,此示例中的代码将使用tf.keras API,您可以在TensorFlow Keras指南中了解更多信息。

在前面的两个例子中 - 分类电影评论和预测住房价格 - 我们看到我们的模型对验证数据的准确性在经过多个时期的训练后会达到峰值,然后开始下降。

换句话说,我们的模型会过度拟合训练数据。 学习如何处理过度拟合很重要。 尽管通常可以在训练集上实现高精度,但我们真正想要的是开发能够很好地泛化测试数据(或之前未见过的数据)的模型。

过度拟合的反面是欠拟合。 当测试数据仍有改进空间时,会发生欠拟合。 出现这种情况的原因有很多:如果模型不够强大,过度正则化,或者根本没有经过足够长时间的训练。 这意味着网络尚未学习训练数据中的相关模式。

如果训练时间过长,模型将开始过度拟合并从训练数据中学习模式,而这些模式不会泛化到测试数据。 我们需要取得平衡。 如下所述,了解如何训练适当数量的时期是一项有用的技能。

为了防止过度拟合,最好的解决方案是使用更多的训练数据。 受过更多数据训练的模型自然会更好地泛化。 当不再可能时,下一个最佳解决方案是使用正规化等技术。 这些限制了模型可以存储的信息的数量和类型。 如果一个网络只能记住少量的模式,那么优化过程将迫使它专注于最突出的模式,这些模式有更好的泛化性。

在本文中,我们将探索两种常见的正则化技术 - 权重正则化和丢失 - 并使用它们来改进我们的IMDB电影评论分类。

import tensorflow as tf
from tensorflow import keras

import numpy as np
import matplotlib.pyplot as plt

print(tf.__version__)

1.11.0

下载IMDB数据集

我们不会像以前的本章一样使用嵌入,而是对句子进行多热编码。 该模型将很快适应训练集。 它将用于证明何时发生过度拟合,以及如何对抗它。

对我们的列表进行多热编码意味着将它们转换为0和1的向量。 具体地说,这将意味着例如将序列[3,5]转换为10,000维向量,除了索引3和5之外,它将是全零,其将是1。

NUM_WORDS = 10000

(train_data, train_labels), (test_data, test_labels) = keras.datasets.imdb.load_data(num_words=NUM_WORDS)

def multi_hot_sequences(sequences, dimension):
    # Create an all-zero matrix of shape (len(sequences), dimension)
    results = np.zeros((len(sequences), dimension))
    for i, word_indices in enumerate(sequences):
    results[i, word_indices] = 1.0  # set specific indices of results[i] to 1s
    return results


train_data = multi_hot_sequences(train_data, dimension=NUM_WORDS)
test_data = multi_hot_sequences(test_data, dimension=NUM_WORDS)

让我们看一下生成的多热矢量。 单词索引按频率排序,因此预计索引零附近有更多的1值,我们可以在此图中看到:

plt.plot(train_data[0])

过拟合

防止过度拟合的最简单方法是减小模型的大小,即模型中可学习参数的数量(由层数和每层单元数决定)。 在深度学习中,模型中可学习参数的数量通常被称为模型的“容量”。 直观地,具有更多参数的模型将具有更多“记忆能力”,因此将能够容易地学习训练样本与其目标之间的完美的字典式映射,没有任何泛化能力的映射,但是在做出预测时(新出现的数据)这将是无用的。

始终牢记这一点:深度学习模型往往善于拟合训练数据,但真正的挑战是泛化,而不是拟合。

另一方面,如果网络具有有限的记忆资源,则将不能容易地学习映射。 为了最大限度地减少损失,它必须学习具有更强预测能力的压缩表示。 同时,如果您使模型太小,则难以拟合训练数据。 “太多容量”和“容量不足”之间存在平衡。

不幸的是,没有神奇的公式来确定模型的正确尺寸或架构(就层数而言,或每层的正确尺寸)。 您将不得不尝试使用一系列不同的架构。

要找到合适的模型大小,最好从相对较少的图层和参数开始,然后开始增加图层的大小或添加新图层,直到您看到验证损失的收益递减为止。 让我们在我们的电影评论分类网络上试试这个。

我们将仅使用Dense图层作为基线创建一个简单模型,然后创建更小和更大的版本,并进行比较。

创建基线模型

baseline_model = keras.Sequential([
    # `input_shape` is only required here so that `.summary` works. 
    keras.layers.Dense(16, activation=tf.nn.relu, input_shape=(NUM_WORDS,)),
    keras.layers.Dense(16, activation=tf.nn.relu),
    keras.layers.Dense(1, activation=tf.nn.sigmoid)
])

baseline_model.compile(optimizer='adam',
   loss='binary_crossentropy',
   metrics=['accuracy', 'binary_crossentropy'])

baseline_model.summary()

baseline_history = baseline_model.fit(train_data,
      train_labels,
      epochs=20,
      batch_size=512,
      validation_data=(test_data, test_labels),
      verbose=2)

创建较小的模型

让我们创建一个隐藏单元较少的模型,与我们刚刚创建的基线模型进行比较:

smaller_model = keras.Sequential([
    keras.layers.Dense(4, activation=tf.nn.relu, input_shape=(NUM_WORDS,)),
    keras.layers.Dense(4, activation=tf.nn.relu),
    keras.layers.Dense(1, activation=tf.nn.sigmoid)
])

smaller_model.compile(optimizer='adam',
    loss='binary_crossentropy',
    metrics=['accuracy', 'binary_crossentropy'])

smaller_model.summary()

并用相同的数据训练此模型:

smaller_history = smaller_model.fit(train_data,
        train_labels,
        epochs=20,
        batch_size=512,
        validation_data=(test_data, test_labels),
        verbose=2)

创建较大的模型

作为练习,您可以创建一个更大的模型,并查看它开始过度拟合的速度。 接下来,让我们在这个基准测试中添加一个容量大得多的网络,远远超出问题的范围:

bigger_model = keras.models.Sequential([
    keras.layers.Dense(512, activation=tf.nn.relu, input_shape=(NUM_WORDS,)),
    keras.layers.Dense(512, activation=tf.nn.relu),
    keras.layers.Dense(1, activation=tf.nn.sigmoid)
])

bigger_model.compile(optimizer='adam',
     loss='binary_crossentropy',
     metrics=['accuracy','binary_crossentropy'])

bigger_model.summary()

同样,再次用相同的数据训练模型:

bigger_history = bigger_model.fit(train_data,train_labels,
      epochs=20,
      batch_size=512,
      validation_data=(test_data, test_labels),
      verbose=2)

绘制训练和验证损失

实线表示训练损失,虚线表示验证损失(记住:较低的验证损失表示更好的模型)。 在这里,较小的网络开始过度拟合晚于基线模型(在6个时期之后而不是4个时期),并且一旦开始过度拟合,其性能下降得慢得多。

def plot_history(histories, key='binary_crossentropy'):
    plt.figure(figsize=(16,10))

    for name, history in histories:
        val = plt.plot(history.epoch, history.history['val_'+key],'--', label=name.title()+' Val')
    plt.plot(history.epoch, history.history[key], color=val[0].get_color(),label=name.title()+' Train')

    plt.xlabel('Epochs')
    plt.ylabel(key.replace('_',' ').title())
    plt.legend()

    plt.xlim([0,max(history.epoch)])


plot_history([('baseline', baseline_history),('smaller', smaller_history),('bigger', bigger_history)])

请注意,较大的网络在仅仅一个时期之后几乎立即开始过度拟合,并且更加严重地过度配置。 网络容量越大,能够越快地对训练数据进行建模(导致训练损失低),但过度拟合的可能性越大(导致训练和验证损失之间的差异很大)。

策略

权重正则化

你可能熟悉奥卡姆的剃刀原则:给出两个解释的东西,最可能是正确的解释是“最简单”的解释,即做出最少量假设的解释。 这也适用于神经网络学习的模型:给定一些训练数据和网络架构,有多组权重值(多个模型)可以解释数据,而简单模型比复杂模型更不容易过度拟合。

在这种情况下,“简单模型”是一个模型,其中参数值的分布具有较少的熵(或者具有较少参数的模型,如我们在上面的部分中所见)。因此,减轻过度拟合的常见方法是通过强制其权重仅采用较小的值来对网络的复杂性施加约束,这使得权重值的分布更“规则”。这被称为“权重正则化”,并且通过向网络的损失函数添加与具有大权重相关联的成本来完成。这个成本有两种:

L1正则化,其中所添加的成本与权重系数的绝对值成比例(即,称为权重的“L1范数”)。

L2正则化,其中所添加的成本与权重系数的值的平方成比例(即,与权重的所谓“L2范数”)成比例。 L2正则化在神经网络的背景下也称为权重衰减。不要让不同的名字让你感到困惑:权重衰减在数学上与L2正则化完全相同。

在tf.keras中,通过将权重正则化实例作为关键字参数传递给层来添加权重正则化。 现在让我们添加L2权重正则化。

l2_model = keras.models.Sequential([
    keras.layers.Dense(16, kernel_regularizer=keras.regularizers.l2(0.001),
       activation=tf.nn.relu, input_shape=(NUM_WORDS,)),
    keras.layers.Dense(16, kernel_regularizer=keras.regularizers.l2(0.001),
       activation=tf.nn.relu),
    keras.layers.Dense(1, activation=tf.nn.sigmoid)
])

l2_model.compile(optimizer='adam',
     loss='binary_crossentropy',
     metrics=['accuracy', 'binary_crossentropy'])

l2_model_history = l2_model.fit(train_data, train_labels,
    epochs=20,
    batch_size=512,
    validation_data=(test_data, test_labels),
    verbose=2)

l2(0.001)表示该层的权重矩阵中的每个系数将为网络的总损失增加0.001 * weight_coefficient_value ** 2。 请注意,由于此惩罚仅在训练时添加,因此在训练时此网络的损失将远高于在测试时间。

这是我们的L2正规化惩罚的影响:

plot_history([('baseline', baseline_history),
  ('l2', l2_model_history)])

正如您所看到的,L2正则化模型比基线模型更能抵抗过度拟合,即使两个模型具有相同数量的参数。

Add Dropout

Dropout是由Hinton和他在多伦多大学的学生开发的最有效和最常用的神经网络正则化技术之一。应用于层的Dropout包括在训练期间随机“丢弃”(即设置为零)该层的多个输出特征。假设一个给定的层通常会在训练期间为给定的输入样本返回一个向量[0.2,0.5,1.3,0.8,1.1];在应用了丢失之后,该向量将具有随机分布的几个零条目,例如, [0,0.5,1.3,0,1.1]。 “dropout rate”是被淘汰的特征的一部分;它通常设置在0.2和0.5之间。在测试时,没有单位被剔除,而是将图层的输出值按比例缩小等于辍学率的因子,以便平衡更多单位活跃的事实而不是训练时间。

在tf.keras中,您可以通过Dropout图层在网络中引入dropout,该图层将在之前应用于图层的输出。

让我们在IMDB网络中添加两个Dropout图层,看看它们在减少过度拟合方面做得如何:

dpt_model = keras.models.Sequential([
    keras.layers.Dense(16, activation=tf.nn.relu, input_shape=(NUM_WORDS,)),
    keras.layers.Dropout(0.5),
    keras.layers.Dense(16, activation=tf.nn.relu),
    keras.layers.Dropout(0.5),
    keras.layers.Dense(1, activation=tf.nn.sigmoid)
])

dpt_model.compile(optimizer='adam',
      loss='binary_crossentropy',
      metrics=['accuracy','binary_crossentropy'])

dpt_model_history = dpt_model.fit(train_data, train_labels,
      epochs=20,
      batch_size=512,
      validation_data=(test_data, test_labels),
      verbose=2)

plot_history([('baseline', baseline_history),
  ('dropout', dpt_model_history)])

添加dropout是对基线模型的明显改进。

回顾一下:这里是防止神经网络中过度拟合的最常见方法:

  1. 获取更多培训数据。
  2. 减少网络容量。
  3. 添加重量正规化。
  4. 添加dropout。
    本文未涉及的两个重要方法是数据增强和批量标准化。

完整代码:

import tensorflow as tf
from tensorflow import keras

import numpy as np
import matplotlib.pyplot as plt

print(tf.__version__)


# Download the IMDB dataset
NUM_WORDS = 10000
(train_data,train_labels),(test_data,test_labels) = keras.datasets.imdb.load_data(num_words = NUM_WORDS)
def multi_hot_sequences(sequences,dimension):
    # Create an all-zero matrix of shape (len(sequences),dimension)
    results = np.zeros((len(sequences),dimension))
    for i,word_indices in enumerate(sequences):
    results[i,word_indices] = 1.0  # set specific indices of results[i] to 1s
    return results

train_data = multi_hot_sequences(train_data,dimension=NUM_WORDS)
test_data = multi_hot_sequences(test_data,dimension=NUM_WORDS)

plt.plot(train_data[0])
plt.show()


# Create a baseline model
baseline_model = keras.Sequential([
    # 'input_shpae' is only required here so that '.summary' works.
    keras.layers.Dense(16,activation=tf.nn.relu,input_shape=(NUM_WORDS,)),
    keras.layers.Dense(16,activation=tf.nn.relu),
    keras.layers.Dense(1,activation=tf.nn.sigmoid)
])

baseline_model.compile(optimizer='adam',
   loss='binary_crossentropy',
   metrics=['accuracy','binary_crossentropy'])
baseline_model.summary()

baseline_history = baseline_model.fit(train_data,
  train_labels,
  epochs=20,
  batch_size=512,
  validation_data =(test_data,test_labels),
  verbose=2)


# Create a smaller model
smaller_model = keras.Sequential([
    keras.layers.Dense(4,activation=tf.nn.relu,input_shape=(NUM_WORDS,)),
    keras.layers.Dense(4,activation=tf.nn.relu),
    keras.layers.Dense(1,activation=tf.nn.sigmoid)
])

smaller_model.compile(optimizer='adam',
  loss='binary_crossentropy',
  metrics=['accuracy','binary_crossentropy'])

smaller_model.summary()

smaller_history = smaller_model.fit(train_data,
    train_labels,
    epochs=20,
    batch_size=512,
    validation_data=(test_data,test_labels),
    verbose=2)


# Create a bigger model
bigger_model = keras.models.Sequential([
    keras.layers.Dense(512,activation=tf.nn.relu,input_shape=(NUM_WORDS,)),
    keras.layers.Dense(512,activation=tf.nn.relu),
    keras.layers.Dense(1,activation=tf.nn.sigmoid)
])

bigger_model.compile(optimizer='adam',
   loss='binary_crossentropy',
   metrics=['accuracy','binary_crossentropy'])

bigger_model.summary()

bigger_history = bigger_model.fit(train_data,
    train_labels,
    epochs=20,
    batch_size=512,
    validation_data=(test_data,test_labels),
    verbose=2)


# Plot the training and validation loss
def plot_history(histories,key='binary_crossentropy'):
plt.figure(figsize=(16,10))

for name,history in histories:
    val = plt.plot(history.epoch,history.history['val_' + key],
       '--',label = name.title() + ' Val')
plt.plot(history.epoch,history.history[key],color=val[0].get_color(),
    label=name.title()+' Train')

plt.xlabel('Epochs')
plt.ylabel(key.replace('-',' ').title())
plt.legend()
plt.xlim([0,max(history.epoch)])
plt.show()

plot_history([('baseline',baseline_history),
 ('smaller',smaller_history),
 ('bigger',bigger_history)])



# Add weight regulatization
l2_model = keras.models.Sequential([
    keras.layers.Dense(16,kernel_regularizer=keras.regularizers.l2(0.001),
       activation=tf.nn.relu,input_shape=(NUM_WORDS,)),
    keras.layers.Dense(16,kernel_regularizer=keras.regularizers.l2(0.001),
       activation=tf.nn.relu),
    keras.layers.Dense(1,activation=tf.nn.sigmoid)])

l2_model.compile(optimizer='adam',
     loss='binary_crossentropy',
     metrics=['accuracy','binary_crossentropy'])

l2_model_history = l2_model.fit(train_data,train_labels,
    epochs=20,
    batch_size=512,
    validation_data=(test_data,test_labels),
    verbose=2)
plot_history([('baseline',baseline_history),
    ('l2',l2_model_history)])


# add dropout
dpt_model = keras.models.Sequential([
    keras.layers.Dense(16,activation=tf.nn.relu,input_shape=(NUM_WORDS,)),
    keras.layers.Dropout(0.5),
    keras.layers.Dense(16,activation=tf.nn.relu),
    keras.layers.Dropout(0.5),
    keras.layers.Dense(1,activation=tf.nn.sigmoid)
])

dpt_model.compile(optimizer='adam',
  loss='binary_crossentropy',
  metrics=['accuracy','binary_crossentropy'])

dpt_model_history = dpt_model.fit(train_data,train_labels,
  epochs=20,
  batch_size=512,
  validation_data=(test_data,test_labels),
  verbose=2)

plot_history([('baseline',baseline_history),
  ('dropout',dpt_model_history)])
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,242评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,769评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,484评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,133评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,007评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,080评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,496评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,190评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,464评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,549评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,330评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,205评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,567评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,889评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,160评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,475评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,650评论 2 335

推荐阅读更多精彩内容