逻辑斯谛回归学习总结
2017-04-11 16:55
155 查看
* 逻辑斯谛回归模型是对数线性模型的推理*
逻辑斯谛分布函数 F(x)=P(X≤x)=11+e−(x−μ)/γ
逻辑斯谛的密度函数是f(x)=F’(x)=e−(x−μ)/γγ(1+e−(x−μ)/γ)2
该曲线以点(μ,12)为中心对对称。曲线在中心附近增长速度较快,在两端增长速度较慢。γ的值越小,曲线在中心附近增长得越快。
二项逻辑斯谛回归模型的条件概率分布:
P(Y=1|x)=exp(w⋅x+b)1+exp(w⋅x+b)
P(Y=0|x)=11+exp(w⋅x+b)
一个事件发生的概率与该事件不发生的概率的比值称为这个事件的几率(odds),即:
logit(p)=logp1−p
对于逻辑斯谛回归来说,就是:
logit(p) = logP(Y=1|x)P(Y=0|x)=w⋅x
这就是说,在逻辑斯谛回归模型中,输出Y=1的对数几率是输入x的线性函数,或者说Y=1的对数几率是由输入x的线性函数表示的模型。
逻辑斯谛分布函数 F(x)=P(X≤x)=11+e−(x−μ)/γ
逻辑斯谛的密度函数是f(x)=F’(x)=e−(x−μ)/γγ(1+e−(x−μ)/γ)2
该曲线以点(μ,12)为中心对对称。曲线在中心附近增长速度较快,在两端增长速度较慢。γ的值越小,曲线在中心附近增长得越快。
二项逻辑斯谛回归模型的条件概率分布:
P(Y=1|x)=exp(w⋅x+b)1+exp(w⋅x+b)
P(Y=0|x)=11+exp(w⋅x+b)
一个事件发生的概率与该事件不发生的概率的比值称为这个事件的几率(odds),即:
logit(p)=logp1−p
对于逻辑斯谛回归来说,就是:
logit(p) = logP(Y=1|x)P(Y=0|x)=w⋅x
这就是说,在逻辑斯谛回归模型中,输出Y=1的对数几率是输入x的线性函数,或者说Y=1的对数几率是由输入x的线性函数表示的模型。
相关文章推荐
- 逻辑斯谛回归总结
- 逻辑回归学习总结
- LR逻辑回归学习总结
- 对数线性模型之一(逻辑回归), 广义线性模型学习总结
- 机器学习总结(二):线性回归、逻辑斯谛回归(LR)、softmax回归、过拟合
- 对数线性模型之一(逻辑回归), 广义线性模型学习总结
- 对数线性模型之一(逻辑回归), 广义线性模型学习总结
- 对数线性模型之一(逻辑回归), 广义线性模型学习总结
- Coursera吴恩达机器学习课程 总结笔记及作业代码——第3周逻辑回归
- 对数线性模型之一(逻辑回归), 广义线性模型学习总结
- 机器学习总结(二)——逻辑斯谛回归和最大熵模型
- 对数线性模型之一(逻辑回归), 广义线性模型学习总结(转)
- 对数线性模型之一(逻辑回归), 广义线性模型学习总结
- 在opencv3中实现机器学习之:利用逻辑斯谛回归(logistic regression)分类
- 对数线性模型之一,逻辑回归、广义线性模型学习总结
- 机器学习--线性回归、逻辑回归
- 深度学习4线性回归,逻辑回归
- 深度学习1-线性回归,逻辑回归
- ufldl学习笔记与编程作业:Logistic Regression(逻辑回归)
- 线性回归和逻辑回归总结