4、机器学习中的逻辑回归
2019-02-01 21:43
85 查看
前面介绍的是线性回归,就是说有一堆的数据,找到一条线去拟合他们,找出规律,然后做预测。
现在呢,我们要解决的是分类问题,也就是说我们最终预测的结果是一个概率值,预测出的结果属于某一个类的概率是多少。(概率嘛,值肯定是在0到1之间)
对于一个二元分类问题,结果y只能等于0或者1,分别称为负向类和正向类。我们需要用到逻辑回归算法,使得假设h的输出在0到1之间,就需要找到一个满足这个性质的假设函数。
这样理解就是,当假设输出大于等于0.5,那么我们就认为y=1,否则y=0
假设函数在这里定义一个新的模型:
是不是很熟悉,括号里面的是线性回归中的假设h,我们要做的就是把这个线性回归中的输出转化成一个0到1之间的值,需要用到这样一个函数:
我们动手画一画其实就是这个样子:
那么至此我们得到的假设函数就是这个样子(h)
它不同于线性回归中的假设函数,因为线性回归中可以用梯度下降法来求解参数,但是这个h由于不是一个凸函数,所以不能用梯度下降法来求取,那么如何确定参数呢?
我们重新定义代价函数J如下:
理解一下cost function,当 y=1 的时候,如果我们的假设函数也预测的是1,那么cost = 0,也就是代价就是0;若假设函数的输出是0,那么cost就是无穷大,代价就是无穷。
进一步简化一下,将其合并就是:
带入代价函数J中,那么得到:
之后呢,我们便可以用梯度下降法来进行参数的求解了。(最小化代价函数 J)
最后我们来总结一下他和线性回归中的区别,一张图足矣。
相关文章推荐
- 机器学习系列(1)_逻辑回归初步
- [置顶] 【机器学习 sklearn】逻辑斯蒂回归模型--Logistics regression
- 机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
- 林轩田--机器学习技法--SVM笔记5--核逻辑回归(Kernel+Logistic+Regression)
- 转载-机器学习-逻辑回归-参数迭代公式推导
- 机器学习第三周(一)--逻辑回归引入
- 【机器学习】线性回归和逻辑回归的理解
- 机器学习逻辑回归神经网络手写数字识别(matlab)
- 机器学习/逻辑回归(logistic regression)/--附python代码
- 用Python开始机器学习(7:逻辑回归分类)
- 【学习笔记】斯坦福大学公开课(机器学习) 之逻辑斯蒂回归
- 机器学习(三):逻辑回归应用_手写数字识别_OneVsAll_Python
- 机器学习二 逻辑回归作业
- 吴恩达 机器学习笔记六(lecture 6)(逻辑回归LR)
- 吴恩达机器学习课后作业_逻辑回归2_线性不可分
- 机器学习之逻辑回归(logistic回归)
- 机器学习之逻辑回归python实现
- 机器学习-分类和逻辑回归
- 机器学习面试第1弹 常用分类算法的优缺点 + 线性回归vs.逻辑回归 + 逻辑回归vs. SVM
- <机器学习练习>逻辑斯谛回归