机器学习-逻辑回归-分类
2016-08-22 00:14
302 查看
1. 逻辑回归
监督学习中另一个问题为分类问题,常见的分类问题例子有邮件是否是垃圾邮件,0表示垃圾邮件,1表示正常邮件在线交易是否会欺骗用户,0表示会欺骗,1表示不会
患肿瘤患者是良性还是恶性,0表示恶性,1表示良性
这些问题,可以归之于
二分类问题,y表示因变量,取值0和1,可以定义如下
其中0表示负例,1表示正例 同理,对于多分类问题来说,因变量y的值可以取{0,1,2,3 ... n}我们先从
二分类问题入手,理解什么是逻辑回归模型逻辑回归(Logistic Regression)是一种用于解决二分类问题(0 or 1)的机器学习模型 逻辑回归(Logistic Regression)与线性回归(Linear Regression)都是一种广义线性模型(generalized linear model)逻辑回归假设因变量y 服从
伯努利分布,而线性回归假设因变量y服从
高斯分布逻辑回归虽然带有"回归"2个,但是却是一个实实在在的分类算法
2. 逻辑回归模型
线性回归模型中,假设函数h(x)预测的值是连续的,预测值在[负无穷, 正无穷]对于二分类问题来说最终的预测值是{0,1}离散集合,我们需要找出一个预测函数模型,使其值的输出在 [0, 1] 之间。然后我们选择一个阀值d,比如 0.5 ,如果预测值算出来大于 0.5 就认为分类结果为1,反之则认为分类结果为0.因此我们引入了函数g, 同时假设逻辑回归模型的假设函数h(x)如下
这个函数称为Sigmoid函数,也称为逻辑函数(Logistic function) 函数曲线如下
线性回归模型假设函数h(x) = (theta^T * x), (theta^T * x)值域在
[负无穷, 正无穷],函数h(x) = g(theta^T * x)预测值在[0, 1]之间我们可以设置一个阈值d,当h(x) < d的时候预测分类结果为0,当h(x) >= d的时候预测分类结果为1假设阀值d = 0.5当h(x) >= 0.5的时候,则预测分类结果为1
当h(x) < 0.5的时候,则预测分类结果为0
因此函数h(x)的输出可以解释为
分类结果为1时的概率
3. 决策边界
假设阀值d=0.5, 当h(x) >= 0.5的时候,预测分类结果为1从逻辑函数的曲线图可知,对于函数h(x) = g(theta^T * x) >= 0.5 等价于theta^T * x >= 0我们称theta^T * x = 0是模型的
决策边界,大于0的时候预测分类结果为1,小于0的时候预测分类结果为0.举个例子 假设h(x) = g(theta0 + theta1x1 + theta2x2),theta0, theta1, theta2 分别取-3, 1, 1 由上可知,决策边界
-3 + x1 + x2 = 0是一个线性的方程,如下图所示
当h(x)更加复杂的时候,决策边界可能是一个非线性的方程
相关文章推荐
- 机器学习(五)逻辑回归分类
- 斯坦福大学机器学习笔记——逻辑回归、高级优化以及多分类问题
- 机器学习(二)广义线性模型:逻辑回归与Softmax分类
- 机器学习(2)分类之逻辑回归
- 【机器学习笔记四】分类算法 - 逻辑回归
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之四:分类、逻辑回归和过拟合
- 机器学习2——分类和逻辑回归Classification and logistic regression(牛顿法待研究)
- 用Python开始机器学习(7:逻辑回归分类) --好!!
- 机器学习-分类和逻辑回归
- 斯坦福机器学习公开课6-x 使用逻辑回归处理多分类
- [机器学习]逻辑回归,Logistic regression |分类,Classification
- 斯坦福机器学习-第三周(分类,逻辑回归,过度拟合及解决方法)
- 用Python开始机器学习(7:逻辑回归分类)
- stanford coursera 机器学习编程作业 exercise 3(逻辑回归实现多分类问题)
- 机器学习---之逻辑回归,贝耶斯分类与极大似然估计的联系
- 机器学习笔记04:逻辑回归(Logistic regression)、分类(Classification)
- 用Python开始机器学习(7:逻辑回归分类)
- 机器学习概念总结笔记(二)——逻辑回归、贝叶斯分类、支持向量分类SVM、分类决策树ID3、
- python机器学习案例系列教程——逻辑分类/逻辑回归LR/一般线性回归(softmax回归)
- 机器学习之逻辑回归