线性回归与梯度下降算法
2018-02-08 09:46
197 查看
一、单变量线性回归
1.1 线性回归模型
其中J(θ0,θ1)是代价函数,目标可以用下图来理解,也就是寻找θ0和θ1,使J(θ0,θ1)最小,即三维空间中的最低点。
1.2 梯度下降算法
梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数 J(θ0,θ1) 的最小值。梯度下降背后的思想是:开始时我们随机选择一个参数的组合(θ0,θ1,…,θn),计算代价函数,然后我们寻找下一个能让代价函数值下降最多的参数组合。我们持续这么做直到找到一个局部最小值,因为我们并没有尝试完所有的参数组合,所以不能确定我们得到的局部最小值是否便是全局最小值,所以选择不同的初始参数组合, 可能会找到不同的局部最小值。如下图所示:
梯度下降的算法公式如下:
注:梯度下降算法可以用来最小化任何代价函数J。
1.3 使用梯度下降算法解决单变量线性回归问题
二、多变量线性回归
2.1 多变量梯度下降
多变量时模型变化为如下所示:相应的梯度算法变化为如下所示:
相关文章推荐
- Gradient Descent for Linear Regression,线性回归的梯度下降算法
- 机器学习算法(优化)之一:梯度下降算法、随机梯度下降(应用于线性回归、Logistic回归等等)
- 机器学习1_线性回归梯度下降算法
- 机器学习算法(优化)之一:梯度下降算法、随机梯度下降(应用于线性回归、Logistic回归等等)
- 机器学习之一:线性回归、梯度下降算法
- 线性回归与梯度下降算法(1)
- 机器学习笔记之应用于线性回归的梯度下降算法
- [置顶] 《机器学习实战》学习笔记(四)之Logistic(上)基础理论及算法推导、线性回归,梯度下降算法
- 机器学习1_线性回归梯度下降算法
- 机器学习1_线性回归梯度下降算法
- 线性回归与梯度下降算法
- 机器学习1_线性回归梯度下降算法
- 机器学习1_线性回归梯度下降算法
- 机器学习1_线性回归梯度下降算法
- 机器学习1_线性回归梯度下降算法
- 机器学习1_线性回归梯度下降算法
- 线性回归 c++
- 对线性回归、逻辑回归、各种回归的概念学习
- 初学ML笔记N0.1——线性回归,分类与逻辑斯蒂回归,通用线性模型
- 从线性回归到逻辑回归