Deep Learning 26:读论文“Maxout Networks”——ICML 2013
2016-09-29 14:21
218 查看
论文Maxout Networks实际上非常简单,只是发现一种新的激活函数(叫maxout)而已,跟relu有点类似,
这些论文已经有很多前人帮我们解读了,所以不需要自己再费心理解,非常好,所以自己也不需要再写什么多余的解读了,该说的下面的文献都说了。
基础资料
论文翻译:Maxout Networks,这篇博文讲得非常仔细非常清楚,必须仔细看
其他资料:深度学习(二十三)Maxout网络学习-ICML 2013
Deep learning:四十五(maxout简单理解)
relu使用的max(x,0)是对每个通道的特征图的每一个单元执行的与0比较最大化操作,而
maxout是对5个通道的特征图在通道的维度上执行最大化操作
这些论文已经有很多前人帮我们解读了,所以不需要自己再费心理解,非常好,所以自己也不需要再写什么多余的解读了,该说的下面的文献都说了。
基础资料
论文翻译:Maxout Networks,这篇博文讲得非常仔细非常清楚,必须仔细看
其他资料:深度学习(二十三)Maxout网络学习-ICML 2013
Deep learning:四十五(maxout简单理解)
相关文章推荐
- 论文阅读:ICML 2016 Large-Margin Softmax Loss for Convolutional Neural Networks
- 论文笔记 《Maxout Networks》 && 《Network In Network》
- Deep Learning 24:读论文“Batch-normalized Maxout Network in Network”——mnist错误率为0.24%
- [深度学习论文笔记][Image Classification] Maxout Networks
- 论文笔记 《Maxout Networks》 && 《Network In Network》
- 论文笔记:《maxout networks》和《networks in networks》
- Deep Learning 23:dropout理解_之读论文“Improving neural networks by preventing co-adaptation of feature detectors”
- Deep Learning 论文解读——Session-based Recommendations with Recurrent Neural Networks
- [Read Paper] Maxout Networks
- Deep learning论文笔记一:ImageNet Classification with Deep Convolutional Neural Networks
- Deep Learning 27:Batch normalization理解——读论文“Batch normalization: Accelerating deep network training by reducing internal covariate shift ”——ICML 2015
- 【论文笔记】Large-Margin Softmax Loss for Convolutional Neural Networks
- Maxout Networks及实现原理
- Maxout Networks
- Dropout: A Simple Way to Prevent Neural Networks from Overtting 论文阅读
- nips 2013 deep learning 深度学习相关论文 (仅参考题目)
- Deep Learning 33:读论文“Densely Connected Convolutional Networks”-------DenseNet 简单理解
- 深度学习方法(十):卷积神经网络结构变化——Maxout Networks,Network In Network,Global Average Pooling
- 深度学习方法(十):卷积神经网络结构变化——Maxout Networks,Network In Network,Global Average Pooling
- 大数据时代的机器学习热点——国际机器学习大会ICML2013参会感想