Dropout 的理解
- Dropout 在深度学习中是一种防止过拟合的手段,具有很好的容错能力。
- dropout 是在深度学习的训练过程中,按照一定的概率将神经网络单元从网络中暂时丢弃。
- 对于梯度下降而言,在训练过程中是随机丢弃神经网络单元,所以每l轮次中每一个mini-batch都在训练不同的网络。
Dropout 的主要思想
- 每次迭代时(包括正向传播和反向传播),按照一定的比率(keep-prob),让隐藏层的部分节点失效,达到简化网络拓扑结构。
-
缓解一些节点的强依赖性,并使得反向传播的修正值,平衡地分步到各个参数上。
代码实现
from tensorflow.contrib.layers import dropout
[......]
is_training = tf.placeholder(tf.bool, shape = (), name = 'is_training')
keep_prob = 0.5
X_drop = dropout(X, keep_prob, is_training = is_training)
hidden1 = fully_connected(X_drop, n_hidden1, scope = "hidden1")
hidden1_drop = dropout(hidden1, keep_prob, is_training = is_training)
hidden2 = fully_connected(X_drop, n_hidden2, scope = "hidden2")
hidden2_drop = dropout(hidden2, keep_prob, is_training = is_training)
logits = fully_connected(hidden2_drop, n_outputs, activation_fn = None, scope = "outputs")
- 其中,keep_prob 是保留下来的比例,1- keep_prob 是dropout_rate
- 如果在训练的时候,将is_training 设置为True,则在测试的时候,需要将is_training设置为False