您的位置:首页 > 理论基础 > 计算机网络

神经网络常用激活函数总结

2018-05-23 21:04 337 查看

神经网络中如果不加入激活函数,其一定程度可以看成线性表达,最后的表达能力不好,如果加入一些非线性的激活函数,整个网络中就引入了非线性部分,增加了网络的表达能力。目前比较流行的激活函数主要分为以下7种:

1.sigmoid

2.tanh

3.ReLu

4.Leaky ReLu

5.PReLu

6.RReLu

7 Maxout

8 SELU

总结

是ELU的改进版本,参考文献: 
[ReLu]:Rectifier Nonlinearities Improve Neural Network Acoustic Models 
[PRelu]:Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification

阅读更多
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: