机器学习 之 逻辑回归算法
2017-04-12 19:28
260 查看
转自:http://www.cnblogs.com/biyeymyhjob/archive/2012/07/18/2595410.html
初步接触
LR算法,(Logistic Regression Classifier)。大致的算法过程:
在训练集中训练一组权值参数,在测试样本集中这组权值参数与测试数据特征线性加和的方式求出一个值Z。再按照sigmoid函数形式分类。
具体情况如下:
谓LR分类器(Logistic Regression Classifier),并没有什么神秘的。在分类的情形下,经过学习之后的LR分类器其实就是一组权值w0,w1,…,wm.
当测试样本集中的测试数据来到时,这一组权值按照与测试数据线性加和的方式,求出一个z值:
z = w0+w1*x1+w2*x2+…+wm*xm。 ① (其中x1,x2,…,xm是某样本数据的各个特征,维度为m)
之后按照sigmoid函数的形式求出:
σ(z) = 1 / (1+exp(z)) 。②
由于sigmoid函数的定义域是(-INF, +INF),而值域为(0, 1)。因此最基本的LR分类器适合于对两类目标进行分类。
那么LR分类器的这一组权值w0,w1,…,wm是如何求得的呢?这就需要涉及到极大似然估计MLE和优化算法的概念了。
我们将sigmoid函数看成样本数据的概率密度函数,每一个样本点,都可以通过上述的公式①和②计算出其概率密度
初步接触
LR算法,(Logistic Regression Classifier)。大致的算法过程:
在训练集中训练一组权值参数,在测试样本集中这组权值参数与测试数据特征线性加和的方式求出一个值Z。再按照sigmoid函数形式分类。
具体情况如下:
谓LR分类器(Logistic Regression Classifier),并没有什么神秘的。在分类的情形下,经过学习之后的LR分类器其实就是一组权值w0,w1,…,wm.
当测试样本集中的测试数据来到时,这一组权值按照与测试数据线性加和的方式,求出一个z值:
z = w0+w1*x1+w2*x2+…+wm*xm。 ① (其中x1,x2,…,xm是某样本数据的各个特征,维度为m)
之后按照sigmoid函数的形式求出:
σ(z) = 1 / (1+exp(z)) 。②
由于sigmoid函数的定义域是(-INF, +INF),而值域为(0, 1)。因此最基本的LR分类器适合于对两类目标进行分类。
那么LR分类器的这一组权值w0,w1,…,wm是如何求得的呢?这就需要涉及到极大似然估计MLE和优化算法的概念了。
我们将sigmoid函数看成样本数据的概率密度函数,每一个样本点,都可以通过上述的公式①和②计算出其概率密度
相关文章推荐
- 机器学习故事汇-逻辑回归算法
- 机器学习各个算法2---逻辑回归
- 【机器学习笔记四】分类算法 - 逻辑回归
- 机器学习常用算法(3)逻辑回归
- 机器学习逻辑回归:算法兑现为python代码
- 从零开始机器学习003-逻辑回归算法
- 机器学习基本算法(逻辑回归)
- 机器学习+逻辑斯蒂回归算法
- 【机器学习经典算法源码分析系列】-- 逻辑回归
- 机器学习总结(lecture 4)算法:逻辑回归Logistic Regression (LR)
- 斯坦福大学机器学习课程--逻辑回归算法
- 七月算法机器学习笔记4--线性回归与逻辑回归
- 机器学习笔记之逻辑回归算法
- 机器学习之逻辑回归算法
- 数据挖掘学习笔记——十大算法之决策树算法、逻辑回归概述
- <机器学习笔记-04 ><scikit-learn 04>逻辑回归
- 斯坦福大学(吴恩达) 机器学习课后习题详解 第三周 编程题 逻辑回归
- 斯坦福机器学习-第三周(分类,逻辑回归,过度拟合及解决方法)
- 机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
- Python机器学习实战之逻辑回归