1.6 dropout 正则化(Dropout Regularization)
Previous1.5 为什么正则化有利于预防过拟合呢?(Why regularization reduces overfitting?)Next1.7 理解 dropout(Understanding Dropout)
Last updated
Was this helpful?
Last updated
Was this helpful?
假设对于第层神经元,设定保留神经元比例概率keep_prob=0.8,即该层有20%的神经元停止工作。为dropout向量,设置为随机vector,其中80%的元素为1,20%的元素为0。
第层经过dropout,随机删减20%的神经元,只保留80%的神经元,其输出为:
最后,对进行scale up处理,即:
对进行scale up是为了保证在经过dropout后,作为下一层神经元的输入值尽量保持不变,尽可能保持的期望值相比之前没有大的变化
Inverted dropout的另外一个好处就是在对该dropout后的神经网络进行测试时能够减少scaling问题。因为在训练时,使用scale up保证的期望值没有大的变化,测试时就不需要再对样本数据进行类似的尺度伸缩操作
对于个样本,单次迭代训练时,随机删除掉隐藏层一定数量的神经元;然后,在删除后的剩下的神经元上正向和反向更新权重和常数项;接着,下一次迭代中,再恢复之前删除的神经元,重新随机删除一定数量的神经元,进行正向和反向更新和。不断重复上述过程,直至迭代训练完成