您的位置:首页 > 其它

4、机器学习中的逻辑回归

2019-02-01 21:43 85 查看

前面介绍的是线性回归,就是说有一堆的数据,找到一条线去拟合他们,找出规律,然后做预测。
现在呢,我们要解决的是分类问题,也就是说我们最终预测的结果是一个概率值,预测出的结果属于某一个类的概率是多少。(概率嘛,值肯定是在0到1之间)

对于一个二元分类问题,结果y只能等于0或者1,分别称为负向类和正向类。我们需要用到逻辑回归算法,使得假设h的输出在0到1之间,就需要找到一个满足这个性质的假设函数。

这样理解就是,当假设输出大于等于0.5,那么我们就认为y=1,否则y=0
假设函数在这里定义一个新的模型:

是不是很熟悉,括号里面的是线性回归中的假设h,我们要做的就是把这个线性回归中的输出转化成一个0到1之间的值,需要用到这样一个函数:

我们动手画一画其实就是这个样子:

那么至此我们得到的假设函数就是这个样子(h)

它不同于线性回归中的假设函数,因为线性回归中可以用梯度下降法来求解参数,但是这个h由于不是一个凸函数,所以不能用梯度下降法来求取,那么如何确定参数呢?
我们重新定义代价函数J如下:


理解一下cost function,当 y=1 的时候,如果我们的假设函数也预测的是1,那么cost = 0,也就是代价就是0;若假设函数的输出是0,那么cost就是无穷大,代价就是无穷。

进一步简化一下,将其合并就是:

带入代价函数J中,那么得到:

之后呢,我们便可以用梯度下降法来进行参数的求解了。(最小化代价函数 J)

最后我们来总结一下他和线性回归中的区别,一张图足矣。

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: