批梯度下降法与随机梯度下降法
2018-01-18 10:12
204 查看
选定线性回归模型后,确定参数 θ后就可以将模型用来预测。 目标函数 J(θ) 最小时 θ 才能确定。因此问题归结为求极小值问题,使用梯度下降法。 梯度下降法最大的问题是求得的有可能是全局极小值,这与初始点选取有关。
梯度下降法流程:
1)首先对 θ 赋值,可以是随机的,也可以让 θ 是一个全零的向量。
2)改变 θ 的值,使得 J(θ) 按梯度下降的方向进行减少。
梯度方向由 J(θ) 对 θ 的偏导数确定 ,由于求的是极小值,因此梯度方向是偏导数的反方向。
迭代更新的方式:
批梯度下降BGD
batch gradient descent, 对全部的训练数据求得误差后再对 θ 进行更新;
随机梯度下降(增量梯度下降) SGD
stochastic gradient descent (incremental gradient descent),每扫描一次都对θ 进行更新。
前一种方法能够不断收敛,后一种方法可能结果不断在收敛处徘徊。
梯度下降法流程:
1)首先对 θ 赋值,可以是随机的,也可以让 θ 是一个全零的向量。
2)改变 θ 的值,使得 J(θ) 按梯度下降的方向进行减少。
梯度方向由 J(θ) 对 θ 的偏导数确定 ,由于求的是极小值,因此梯度方向是偏导数的反方向。
迭代更新的方式:
批梯度下降BGD
batch gradient descent, 对全部的训练数据求得误差后再对 θ 进行更新;
随机梯度下降(增量梯度下降) SGD
stochastic gradient descent (incremental gradient descent),每扫描一次都对θ 进行更新。
前一种方法能够不断收敛,后一种方法可能结果不断在收敛处徘徊。
相关文章推荐
- 梯度下降法和随机梯度下降法的区别
- 梯度下降法和随机梯度下降法
- 梯度、梯度下降法、随机梯度下降法
- 梯度下降法和随机梯度下降法的区别
- 随机梯度下降法,批量梯度下降法和小批量梯度下降法以及代码实现
- 梯度、梯度下降法、随机梯度下降法
- 随机梯度下降法(Stochastic Gradient Descent)和批量梯度下降法(Batch Gradient Descent )总结
- 机器学习小组知识点4&5:批量梯度下降法(BGD)和随机梯度下降法(SGD)的代码实现Matlab版
- 批梯度下降法和随机梯度下降法(SGD)
- 梯度下降法与随机梯度下降法
- 梯度下降法与随机梯度下降法的python代码实现
- 梯度、梯度下降法、随机梯度下降法
- 梯度下降法和随机梯度下降法的区别
- 随机梯度下降法和批量梯度下降法
- 梯度下降法和随机梯度下降法的理解
- 什么情况下用标准梯度下降法,什么情况下用随机梯度下降法
- Andrew Ng机器学习公开课笔记 -- 线性回归和梯度下降
- batch gradient descent(批量梯度下降) 和 stochastic gradient descent(随机梯度下降)
- 梯度下降法解神经网络
- 梯度下降法