逻辑回归与梯度下降
2017-09-13 23:23
246 查看
逻辑回归与梯度下降
已知方程
假设函数:hθ(x(i))=g(θTx)=11+e−θTxCost函数:Cost(hθ(x),y)=ylog(hθ(x))+(1−y)log(1−hθ(x))
代价函数:
J(θ)=−1m∑i=1mCost(hθ(x(i)),y(i))=−1m∑i=1m[y(i)log(hθ(x(i)))+(1−y(i))log(1−hθ(x(i)))]
梯度下降公式:θj:=θj−α∂J(θ)∂θj
梯度下降推导
∂J(θ)∂θj∂Cost(hθ(x(i)),y(i))∂θj∂hθ(x(i))∂θj∂Cost(hθ(x(i)),y(i))∂θj∂J(θ)∂θj=−1m∑i=1mCost(hθ(x(i)),y(i))=[y(i)1hθ(x(i))−(1−y(i))11−hθ(x(i))]∂hθ(x(i))∂θj=∂11+e−θTx(i)∂θj=−1[1+e−θTx(i)]2⋅∂[1+e−θTx(i)]∂θj=−1[1+e−θTx(i)]2⋅(−e−θTx(i)⋅∂θTx(i)∂θj)=1[1+e−θTx(i)]2⋅e−θTx(i)⋅x(i)j=11+e−θTx(i)⋅(1−11+e−θTx(i))⋅x(i)j=hθ(x(i))⋅(1−hθ(x(i)))⋅x(i)j=[y(i)1hθ(x(i))−(1−y(i))11−hθ(x(i))]∂hθ(x(i))∂θj=[y(i)1hθ(x(i))−(1−y(i))11−hθ(x(i))]hθ(x(i))⋅(1−hθ(x(i)))⋅x(i)j=[y(i)(1−hθ(x(i)))−(1−y(i))hθ(x(i))]⋅x(i)j=−[hθ(x(i))−y(i)]⋅x(i)j=1m∑i=1m[hθ(x(i))−y(i)]⋅x(i)j相关文章推荐
- 逻辑回归在梯度下降网络中的注意点(随笔)
- 逻辑回归梯度下降法详解
- 线性回归、梯度下降、逻辑回归(Linear Regression、Gradient Descent、Logistic Regression)
- [机器学习]逻辑回归公式推导及其梯度下降法的Python实现
- 梯度下降法解逻辑斯蒂回归
- 信用评分之六--逻辑回归模型梯度下降法跟牛顿法比较
- 梯度下降 && 线性回归 && 逻辑回归 && softmax
- LR 逻辑回归代码 (梯度下降)
- 逻辑回归梯度下降法详解
- 梯度下降原理及在线性回归、逻辑回归中的应用
- 回归问题总结(梯度下降、线性回归、逻辑回归、源码、正则化)
- 逻辑回归python实现(随机增量梯度下降,变步长)
- 逻辑回归梯度下降法的推导过程
- 梯度下降与逻辑回归
- 逻辑斯谛回归(代价函数,梯度下降) logistic regression--cost function and gradient descent
- 梯度下降求解逻辑回归2(代码编写以及三种梯度下降对比)
- xbgoost svm 逻辑回归 梯度下降等推导过程
- 逻辑回归:损失函数与梯度下降
- 梯度下降求解逻辑回归(Python)
- 逻辑回归梯度下降公式详细推导