ImageNet classification with deep convolutional neural network
2016-06-09 14:20
573 查看
摘要
作者训练了一个巨大的神经网络将ImageNet LSVRC-2010 contest 集合里面的1.2million高清图像分为1000类。
在测试数据上,作者的top-1 错误率为37.5%, top-5错误率为17.0%。这两个优于同期的state-of-the-art。AlexNet 网络包含约6千万的参数和约65万神经元。网络架构由5个卷积层、3个全连结层和一个1000路的softmax组成。
为了使训练更快,作者使用了ReLU和 基于GPU的卷积实现。为了减少过拟合,作者使用了dropout方法。
亮点总结
1)ReLU 非线性
标准的激活函数为sigmoid,tanh函数。作者没有使用上述函数,而是采用Rectified Linear Units (ReLU)作为激活函数。作者测试发现使用ReLU函数,可以得到several times加速。
2)多GPU训练
作者当时使用的GPU是GTX580,显存3G。为了训练这样的大网络,作者使用了2个GPU并行。目前GPU已经发展到了K80,训练AlexNet网络在单GPU就可以实现。
3)Local Response Normalization
作者发现使用LRN可以提升2%性能。
4)Overlapping Pooling
作者使用s=2, z=3的max pooling方法。
5)reducing over-fitting
(a)使用平移,反转等方式制作更多的训练数据。
(b)通过“改变图象RGB值”的方式制作更多的训练数据。
6)dropout
作者使用0.5倍的dropout
作者训练了一个巨大的神经网络将ImageNet LSVRC-2010 contest 集合里面的1.2million高清图像分为1000类。
在测试数据上,作者的top-1 错误率为37.5%, top-5错误率为17.0%。这两个优于同期的state-of-the-art。AlexNet 网络包含约6千万的参数和约65万神经元。网络架构由5个卷积层、3个全连结层和一个1000路的softmax组成。
为了使训练更快,作者使用了ReLU和 基于GPU的卷积实现。为了减少过拟合,作者使用了dropout方法。
亮点总结
1)ReLU 非线性
标准的激活函数为sigmoid,tanh函数。作者没有使用上述函数,而是采用Rectified Linear Units (ReLU)作为激活函数。作者测试发现使用ReLU函数,可以得到several times加速。
2)多GPU训练
作者当时使用的GPU是GTX580,显存3G。为了训练这样的大网络,作者使用了2个GPU并行。目前GPU已经发展到了K80,训练AlexNet网络在单GPU就可以实现。
3)Local Response Normalization
作者发现使用LRN可以提升2%性能。
4)Overlapping Pooling
作者使用s=2, z=3的max pooling方法。
5)reducing over-fitting
(a)使用平移,反转等方式制作更多的训练数据。
(b)通过“改变图象RGB值”的方式制作更多的训练数据。
6)dropout
作者使用0.5倍的dropout
相关文章推荐
- CUDA搭建
- 稀疏自动编码器 (Sparse Autoencoder)
- 白化(Whitening):PCA vs. ZCA
- softmax回归
- 卷积神经网络初探
- TensorFlow人工智能引擎入门教程之九 RNN/LSTM循环神经网络长短期记忆网络使用
- TensorFlow人工智能引擎入门教程之十 最强网络 RSNN深度残差网络 平均准确率96-99%
- TensorFlow人工智能入门教程之十一 最强网络DLSTM 双向长短期记忆网络(阿里小AI实现)
- TensorFlow人工智能入门教程之十四 自动编码机AutoEncoder 网络
- TensorFlow人工智能引擎入门教程所有目录
- 如何用70行代码实现深度神经网络算法
- 近200篇机器学习&深度学习资料分享(含各种文档,视频,源码等)
- 安装caffe过程记录
- DIGITS的安装与使用记录
- 图像识别和图像搜索
- 卷积神经网络
- 深度学习札记
- ubuntu14.04安装 资料
- 智慧石文章分享
- Applied Math and Machine Learning Basics 摘要笔记