逻辑回归中代价函数的选择.凸优化问题
2017-04-06 17:11
381 查看
本篇博文主要讲解逻辑回归中的代价函数。逻辑回归中代价函数与线性回归中的代价函数不同。
逻辑回归中,代价函数为:
令
如果将这个式子应用到Logistic Regression中,因为h(x)的表达式不同,sigmoid函数是一个非线性函数。它会变成参数的非凸函数。如下图:
如果把梯度下降应用到这个函数中,我们无法得到全局最小值。只有在如下情况时,我们应用梯度下降才能得到全局最小值:
所以,我们在逻辑回归时,选用的代价函数为:
这个代价函数的图像如下:
这两个函数图象很符合代价函数的惩罚机制。我们在逻辑回归时,大部分人选择这个代价函数,这个代价函数可以合并为以下形式:
逻辑回归中,代价函数为:
令
如果将这个式子应用到Logistic Regression中,因为h(x)的表达式不同,sigmoid函数是一个非线性函数。它会变成参数的非凸函数。如下图:
如果把梯度下降应用到这个函数中,我们无法得到全局最小值。只有在如下情况时,我们应用梯度下降才能得到全局最小值:
所以,我们在逻辑回归时,选用的代价函数为:
这个代价函数的图像如下:
这两个函数图象很符合代价函数的惩罚机制。我们在逻辑回归时,大部分人选择这个代价函数,这个代价函数可以合并为以下形式:
相关文章推荐
- 使用fminunc找逻辑回归(logistic)代价函数的最小值
- 逻辑回归模型及其代价函数推导
- 逻辑回归中代价函数求导推导
- 01-逻辑回归的代价函数(交叉熵代价函数)以及梯度下降法
- 逻辑回归模型的代价函数对参数的偏导数--推导过程
- 跟着Andrew Ng挑战Machine Learning(第三周)Part 2:逻辑回归的代价函数
- 使用fminunc找逻辑回归(logistic)代价函数的最小值
- 机器学习-逻辑回归-代价函数
- derivative of cost function for Logistic Regression 逻辑回归代价函数偏导证明
- 逻辑回归中代价函数求导推导
- 逻辑回归代价函数及其梯度下降公式
- 逻辑回归假设函数,代价函数的由来
- 逻辑回归 代价函数 Java实现
- 机器学习笔记-6.5逻辑回归的代价函数及其求导
- 逻辑回归——关于似然代价函数(补充)
- 逻辑回归 logistic regression 代价函数导数求解过程
- 机器学习07-逻辑回归-代价函数与梯度下降的优化
- 机器学习-逻辑回归-代价函数
- 极大似然法推导线性回归和逻辑回归代价(cost)函数
- 逻辑斯谛回归(代价函数,梯度下降) logistic regression--cost function and gradient descent