【神经网络】激活函数的作用及常用激活函数ReLu、Sigmoid
1 激活函数的作用
激活函数(activation function)的作用是去线性化,神经网络节点的计算就是加权求和,再加上偏置项:
ai=∑ixiwi+ba_i=\sum_ix_iw_i+bai=i∑xiwi+b
这是一个线性模型,将这个计算结果传到下一个节点还是同样的线性模型。只通过线性变换,所有的隐含层的节点就无存在的意义。原因如下:假设每一层的权值矩阵用W(i)W^{(i)}W(i)表示。那么存在一个W′W'W′使:
W′=W(1)W(2)…W(n)W'=W^{(1)}W^{(2)}…W^{(n)}W′=W(1)W(2)…W(n)
那么,n层隐含层就可以全部变成一个隐含层,隐含层的数量就没有任何意义。所以使用激活函数将其去线性化。种种情况下,W′=W(1)W(2)…W(n)W'=W^{(1)}W^{(2)}…W^{(n)}W′=W(1)W(2)…W(n)不再成立,每层隐含层都有其存在的意义。
下面有更详细的解释,改内容来自《TensorFlow实战Google深度学习框架》(第2版)。
2 常用到激活函数
人工神经网络中常用到激活函数(activation function):ReLu和Sigmoid。
2.1 ReLu
线性整流函数(Rectified Linear Unit, ReLU),又称修正线性单元。其函数表达式如下:
f(x)=max(0,x)f(x)=max(0,x)f(x)=max(0,x)
其函数图像图下:
其含义就是,如果输入的x>0x>0x>0,那么f(x)=xf(x)=xf(x)=x;如果x<0,那么f(x)=0f(x)=0f(x)=0。
2.2 Sigmoid
Sigmoid函数是一个在生物学中常见的S型函数,也称为S型生长曲线。其函数表达式如下:
f(x)=11+e−xf(x)=\dfrac{1}{1+e^{-x}}f(x)=1+e−x1
其函数图像图下:
可以看到在趋于正无穷或负无穷时,函数趋近平滑状态,sigmoid函数因为输出范围(0,1),所以二分类的概率常常用这个函数。
- 点赞
- 收藏
- 分享
- 文章举报
- 神经网络中的激活函数(activation function)-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus
- 【机器学习】神经网络-激活函数-面面观(Activation Function) (Sigmoid Relu tanh)
- 神经网络之激活函数(sigmoid、tanh、ReLU)
- 神经网络中的激活函数tanh sigmoid RELU softplus softmatx
- 神经网络中的激活函数——加入一些非线性的激活函数,整个网络中就引入了非线性部分,sigmoid 和 tanh作为激活函数的话,一定要注意一定要对 input 进行归一话,但是 ReLU 并不需要输入归一化
- 神经网络常用激活函数对比:sigmoid VS sofmax(附python源码)
- 机器学习笔记-神经网络中激活函数(activation function)对比--Sigmoid、ReLu,tanh
- 神经网络中的激活函数-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus简述
- 神经网络激活函数:sigmoid、tanh、ReLU
- AI神经网络激活函数sigmoid及matlab的sigmf
- 神经网络激活函数的作用是什么
- 神经网络激活函数的作用是什么
- 人工神经网络框架AForge学习(二):Sigmoid激活函数
- 理解激活函数在神经网络模型构建中的作用
- 神经网络激活函数的作用是什么
- 神经网络激活函数的作用是什么
- 采用ReLU作为激活函数的简单深度神经网络matlab代码设计
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 通俗理解神经网络中激活函数作用
- 神经网络激活函数的作用是什么