常用的激活函数总结(Sigmoid函数、Tanh函数、ReLu函数、Softmax函数)
2017-10-28 23:57
811 查看
本篇博客主要介绍一下在神经网络中常用的激活函数:主要有以下四类,Sigmoid函数、Tanh函数、ReLu函数和Softmax函数。
下面依次介绍:1.Sogmoid函数 (Logistic 函数)
公式:f(z)=11+e−z
将实数映射到(0,1),可用来二分类
缺点: 激活函数计算量大
反向传播时,容易出现梯度消失的情况。
2.Tanh函数 (双曲正切函数)
公式:f(z)=tanh(z)=ez−e−zez+e−z
将实数映射到[-1,1]
双曲正切函数在特征明显的时候效果会更好。
3.ReLu函数
公式:ϕ(x)=max(0,x)
优点:收敛速度快
缺点:训练时候很“脆弱”,很容易“die”
4.softmax函数 ,用于多分类问题
公式:σ(z)j=ezj∑ki=1ezi
输出每类可能出现的概率大小,和为1
相关文章推荐
- 机器学习总结(七):基本神经网络、BP算法、常用激活函数对比
- 【深度学习技术】卷积神经网络常用激活函数总结
- 常用激活函数的总结与比较
- CS231n课程学习笔记(六)——常用的激活函数总结
- 深度学习中的激活函数SoftMax函数的FPGA设计与实现 (一)
- 常用激活函数的总结与比较
- 常用激活函数的总结与比较
- 深度学习中的激活函数SoftMax函数的FPGA设计与实现(二)(CORDIC)
- 正则化方法总结和常用的激活函数
- 深度学习/神经神经网络常用激活函数总结
- 激活函数、BP反向传播算法、三种梯度下降、softmax函数及其推导
- 人工神经网络之激活函数 -softmax函数
- QT常用的类和函数总结
- jQuery常用知识点总结以及平时封装常用函数
- PHP常用技巧总结(附函数代码)
- Makefile常用函数总结
- numpy中一些常用函数的用法总结
- softmax函数求导、配合log似然代价函数训练ANN
- 常用JS验证函数总结
- VB6总结VIII之常用函数function介绍