常见激活函数汇总

Sigmoid

Sigmoid 常用于二分类和多标签分类的最后一层,能将实数值映射到0-1之间。

函数式:

导数式:

函数图像:

QmcKiT.md.png

ReLU

ReLU是神经网络激活层最常用的一种函数,因为其运算简单、易于求导,能用最简单的方式实现非线性运算的性质。

函数式:

函数图像:

QmcLkV.md.png

Tanh

常见于递归神经网络。

函数式:

函数图像:

QmgaBn.png

Leaky ReLU

函数式:

函数图像:

Qm21bR.png

PReLU

PReLU(Parametric Rectified Linear Unit) 参数化修正线性单元。其参数随着网络训练而改变。

QmRH0A.png

参数更新:

QmROtP.png

RReLU

Random Leaky ReLU,其参数是随机生成的在[0, 1)之间的值。

QmWjER.png

ELU

指数线性单元。右侧线性部分使得ELU能够缓解梯度消失,而左侧软饱能够让ELU对输入变化或噪声更鲁棒。ELU的输出均值接近于零,所以收敛速度更快。α为常数。

Qmf1bj.md.png

-------------本文结束感谢您的阅读-------------