分类-逻辑斯谛回归
2017-06-24 11:59
183 查看
1.简介
逻辑斯谛回归, Logistic Regression. 一个线性二分类算法.名字中有
Logistic, 但跟逻辑没什么关系, 名字中有
Regression, 但更是一个分类算法. 所以没有像很多书中那样叫做逻辑回归, 而叫逻辑斯谛回归.
Logistic Regression 这个名字之所以被这么叫, it was given for historical reasons.
coursera中machine learning课程有一节讲到逻辑斯谛回归, 课程地址
2. Logistic Distribution
定义:设X为连续随机变量, 若它具有 式(1) 的分布函数, 则成 X 服从逻辑斯蒂分布.
F(x)=P(X≤x)=11+e−x(1)
图1 Standard logistic sigmoid function 值域为[0,1]
形状是S型, 所以也称 sigmoid 曲线, 记为σ(x)=F(x).
3. 二分类模型
设, 二分类问题中的随机变量 X∈Rn,Y∈{0,1}.则定义
P(Y=1|X=x)=σ(wTx)P(Y=0|X=x)=1−P(Y=1|X=x)
即 P(Y=y|X=x)=[σ(wTx)]y×[1−σ(wTx)]1−y
为二分类逻辑斯蒂回归模型, 其中参数w∈Rn.
可以对比一下线性回归, 逻辑斯蒂回归只是将线性回归用在了逻辑斯蒂分布上, 嘿嘿.
4.目标函数
似然函数为:L(w)=∏i=1NP(yi|xi)
对数似然函数为:
L(w)=log∏i=1NP(yi|xi)=∑i=1NlogP(yi|xi)=∑i=1Nlog{[σ(wTxi)]yi×[1−σ(wTxi)]1−yi}=∑i=1N{yilogσ(wTxi)+(1−yi)log[1−σ(wTxi)]}
5.求解
这样, 问题就变成了以对数似然函数为目标函数的最优化问题, 逻辑斯蒂回归学习中通常采用的方法是 梯度下降法及拟牛顿法.相关文章推荐
- 在opencv3中实现机器学习之:利用逻辑斯谛回归(logistic regression)分类
- 逻辑斯谛回归与最大熵分类模型
- 机器学习算法整理之Logistic Regression (LR) 逻辑斯谛回归 :分类方法(对数线性模型)
- deeplearning----利用逻辑回归分类MINIST数字
- SAS逻辑回归之二分类
- 逻辑斯蒂回归多元分类的随机梯度下降
- Tensorflow 实现稠密输入数据的逻辑回归二分类
- 逻辑斯谛回归与最大熵模型
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之四:分类、逻辑回归和过拟合
- ML-分类与逻辑回归
- 逻辑回归算法——解决分类问题
- 各分类方法应用场景 逻辑回归,支持向量机,随机森林,GBT,深度学习
- 初学ML笔记N0.1——线性回归,分类与逻辑斯蒂回归,通用线性模型
- SAS逻辑回归之多分类
- 第二章 分类和逻辑回归
- [ML] 逻辑斯谛回归与最大熵模型
- 逻辑斯谛(logistic regression)回归
- 逻辑斯谛回归(代价函数,梯度下降) logistic regression--cost function and gradient descent
- 《统计学习方法》笔记(6):逻辑斯谛回归&最大熵模型
- 初学ML笔记N0.1——线性回归,分类与逻辑斯蒂回归,通用线性模型