机器学习算法(二)逻辑斯蒂回归
2017-07-24 22:37
218 查看
上文中说过,逻辑斯蒂回归虽然称为回归,但它实际上是一种分类算法。认识逻辑斯蒂回归,首先需要知道sigmoid函数。下面公式1即为sigmoid函数g(x)=11+e−x它的函数图像如图所示。
在线性回归中,有yˆ=θTx,而在逻辑斯蒂回归中,其结果就是在线性回归外面套上sigmoid函数,即yˆ=11+e−θTx因此,yˆ是一个连续变量,其取值范围为(0,1)。
对于y和yˆ,我们希望,当yˆ接近1时,y也大概率为1;当yˆ接近0时,y也大概率为0。因此可以做出如下假设。
p(y=1|x,θ)=yˆ p(y=0|x,θ)=1−yˆ
以上两式可以统一为P(y|x,θ)=yˆy(1−yˆ)1−y同理,由于x和y均已知,它是一个关于θ的函数。
据此可求出其最大似然函数:L(θ)=∏i=1myˆy(1−yˆ)1−y,i为第i个样本。
同理,可求其对数似然函数为l(θ),并对每个θ求偏导。求导结果为:∂l(θ)∂θj=∑i=1m(yi−yˆi)xij
对其进行梯度上升学习,有
θj=θj+α(y−yˆ)xj
逻辑斯蒂回归的目标函数被习惯性的认为成对数似然函数的相反数,即loss=−l(θ)
前文中,我们认为y的取值为0,1。若认为y的取值为+1和-1,则可推导出一个较为优美的损失函数如下。loss=∑i=1m[ln(1+e−yiyˆi)]
1、算法介绍
和上文中的回归算法一样,我们有m条数据,每条数据有n个特征和1个标签。不同的是,上文的标签是一个连续型变量,本文中的标签是一个离散型变量,且它只有两个值,[0,1]。在线性回归中,有yˆ=θTx,而在逻辑斯蒂回归中,其结果就是在线性回归外面套上sigmoid函数,即yˆ=11+e−θTx因此,yˆ是一个连续变量,其取值范围为(0,1)。
对于y和yˆ,我们希望,当yˆ接近1时,y也大概率为1;当yˆ接近0时,y也大概率为0。因此可以做出如下假设。
p(y=1|x,θ)=yˆ p(y=0|x,θ)=1−yˆ
以上两式可以统一为P(y|x,θ)=yˆy(1−yˆ)1−y同理,由于x和y均已知,它是一个关于θ的函数。
据此可求出其最大似然函数:L(θ)=∏i=1myˆy(1−yˆ)1−y,i为第i个样本。
同理,可求其对数似然函数为l(θ),并对每个θ求偏导。求导结果为:∂l(θ)∂θj=∑i=1m(yi−yˆi)xij
对其进行梯度上升学习,有
θj=θj+α(y−yˆ)xj
逻辑斯蒂回归的目标函数被习惯性的认为成对数似然函数的相反数,即loss=−l(θ)
前文中,我们认为y的取值为0,1。若认为y的取值为+1和-1,则可推导出一个较为优美的损失函数如下。loss=∑i=1m[ln(1+e−yiyˆi)]
相关文章推荐
- [机器学习算法详解]逻辑斯蒂回归模型
- 实验二 逻辑斯蒂回归
- 初学ML笔记N0.1——线性回归,分类与逻辑斯蒂回归,通用线性模型
- 初学ML笔记N0.1——线性回归,分类与逻辑斯蒂回归,通用线性模型
- 对数几率回归(逻辑斯蒂回归)
- 学习笔记:逻辑斯蒂回归(logistic regression)
- 机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)
- 机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)
- 机器学习算法:逻辑回归
- 逻辑斯蒂回归(LogisticRegression)sklearn的一个例子中文解释
- 机器学习算法实现02-非线性逻辑回归正则化
- 逻辑斯蒂回归模型与最大熵模型
- 局部加权回归、逻辑斯蒂回归、感知器算法—斯坦福ML公开课笔记3
- 初学ML笔记N0.1——线性回归,分类与逻辑斯蒂回归,通用线性模型
- 初学ML笔记N0.1——线性回归,分类与逻辑斯蒂回归,通用线性模型
- 逻辑斯蒂回归(Logistic Regression)
- Python机器学习与实战笔记之逻辑斯蒂回归Logistic Regression, LR
- 机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)
- 逻辑斯蒂回归(logistic regression)学习笔记
- 局部加权回归、逻辑斯蒂回归、感知器算法—斯坦福ML公开课笔记3