深度学习常见面试题 | 各种激活函数
2020-07-14 05:41
561 查看
sigmoid在分类问题上确实没有ReLU好用,大概是因为sigmoid的中间部分太“线性”了,不像ReLU一个很大的转折
?
相关文章推荐
- 深度学习笔记六:常见激活函数总结
- 深度学习常用激活函数
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习中的激活函数导引
- 深度学习笔记(4)——Sigmoid和Relu激活函数的对比
- 深度学习小白——神经网络1(激活函数)
- 深度学习基础篇:如何选择正确的激活函数?
- 深度学习/神经神经网络常用激活函数总结
- 深度学习中激活函数的优缺点
- 【吴恩达深度学习专栏】浅层神经网络(Shallow neural networks)——激活函数的导数(Derivatives of activation functions)
- 深度学习: 激活函数 (Activation Functions)
- 深度学习的激活函数分析---Sigmoid & ReLU & Softmax
- 深度学习之激活函数表
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 零基础入门深度学习(1):感知器,激活函数
- 【吴恩达深度学习专栏】浅层神经网络(Shallow neural networks)——为什么需要非线性激活函数?(why need a nonlinear activation function?)
- 浅谈深度学习中的激活函数 - The Activation Function in Deep Learning
- 深度学习基础(三):激活函数和损失函数
- 深度学习中的激活函数与梯度消失
- 深度学习_激活函数层