3.5 激活函数(Activation functions)

  • sigmoid函数

  • tanh函数

  • ReLU函数

  • Leaky ReLU函数

对于隐藏层的激活函数,tanhtanh函数要比sigmoidsigmoid函数表现更好一些。因为tanhtanh函数的取值范围在[1,+1][-1,+1]之间,隐藏层的输出被限定在[1,+1]-1,+1]之间,可以看成是在00值附近分布,均值为00。这样从隐藏层到输出层,数据起到了归一化(均值为00)的效果

对于输出层的激活函数,因为二分类问题的输出取值为{0,+1}\{0,+1\},所以一般会选择sigmoidsigmoid作为激活函数

选择ReLUReLU作为激活函数能够保证zz大于零时梯度始终为11,从而提高神经网络梯度下降算法运算速度。但当zz小于零时,存在梯度为00的缺点

LeakyLeaky ReLUReLU激活函数,能够保证zz小于零时梯度不为00

Last updated