您的位置:首页 > 其它

深度学习优化函数详解(3)-- mini-batch SGD 小批量随机梯度下降

2017-07-26 11:58 483 查看
深度学习优化函数详解系列目录

深度学习优化函数详解(0)– 线性回归问题

深度学习优化函数详解(1)– Gradient Descent 梯度下降法

深度学习优化函数详解(2)– SGD 随机梯度下降

深度学习优化函数详解(3)– mini-batch SGD 小批量随机梯度下降

深度学习优化函数详解(4)– momentum 动量法

深度学习优化函数详解(5)– Nesterov accelerated gradient (NAG)

深度学习优化函数详解(6)– adagrad

本文延续该系列的上一篇 深度学习优化函数详解(2)– SGD 随机梯度下降

上一篇我们说到了SGD随机梯度下降法对经典的梯度下降法有了极大速度的提升。但有一个问题就是由于过于自由 导致训练的loss波动很大。那么如何可以兼顾经典GD的稳定下降同时又保有SGD的随机特性呢?于是小批量梯度下降法, mini-batch gradient descent 便被提了出来。其主要思想就是每次只拿总训练集的一小部分来训练,比如一共有5000个样本,每次拿100个样本来计算loss,更新参数。50次后完成整个样本集的训练,为一轮(epoch)。由于每次更新用了多个样本来计算loss,就使得loss的计算和参数的更新更加具有代表性。不像原始SGD很容易被某一个样本给带偏 。loss的下降更加稳定,同时小批量的计算,也减少了计算资源的占用。

公式推导

我们再来回顾一下参数更新公式。每一次迭代按照一定的学习率 αα 沿梯度的反方向更新参数,直至收敛

θt+1=θt−αdfdθθt+1=θt−αdfdθ

接下来我们回到房价预测问题上。线形模型:

yp,i=axi+byp,i=axi+b

这是经典梯度下降方法求loss,每一个样本都要经过计算:

loss=12m∑i=1m(yp,i−yi)2loss=12m∑i=1m(yp,i−yi)2

这是SGD梯度下降方法:

loss=12(yp,i−yi)2loss=12(yp,i−yi)2

这是mini-batch 梯度下降法, k表示每一个batch的总样本数:

lossbatch=12k∑i=1k(yp,i−yi)2lossbatch=12k∑i=1k(yp,i−yi)2

要优化的参数有两个,分别是a和b,我们分别对他们求微分,也就是偏微分, 再求和的均值

∂lossbatch∂a=1k∑i=1k(axi+b−yi)xi∂lossbatch∂a=1k∑i=1k(axi+b−yi)xi

∂lossbatch∂b=1k∑i=1k(axi+b−yi)∂lossbatch∂b=1k∑i=1k(axi+b−yi)

∂lossbatch∂a∂lossbatch∂a 记为 ∇a∇a ∂lossbatch∂b∂lossbatch∂b 记为 ∇b∇b ,分别表示loss在a、b方向的梯度, 更新参数的方法如下

anew=a−α∇aanew=a−α∇a

bnew=b−α∇bbnew=b−α∇b

实验

小技巧:在每一个epoch计算完所有的样本后,计算下一代样本的时候,可以选择打乱所有样本顺序。

下面是SGD方法的训练结果



下面是 mini-batch SGD方法的训练结果



由于我的训练样本比较少,所以选择了比较大的学习率来体现效果。mini-batch SGD中,每次选择3个样本作为一个batch进行训练。容易看出,波动的减小还是比较明显。同时收敛的速度也是大大加快,几乎一步就走到了合适的参数范围。

由于mini-batch SGD 比 SGD 效果好很多,所以人们一般说SGD都指的是 mini-batch gradient descent. 大家不要和原始的SGD混淆。现在基本所有的大规模深度学习训练都是分为小batch进行训练的。

本文全部代码实现:https://github.com/tsycnh/mlbasic/blob/master/p3%20minibatch%20SGD.py
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: