[机器学习笔记]二:Classification and logistic regression(分类和逻辑回归)
2018-01-24 13:18
411 查看
在前面我们讨论线性回归的问题,现在我们讲讨论二元分类的问题。二元分类的值是一个离散的值,仅仅为0或1.
g(z)=11+e−z,其中z=−θTx(1)(1)g(z)=11+e−z,其中z=−θTx
我们称这个函数为logistic function或sigmoid function.对g(z)求导,可以得到
g(z)′=g(z)(1−g(z))(2)(2)g(z)′=g(z)(1−g(z))
可以得到
p(y|x;θ)=(hθ(x))y(1−hθ(x))1−y(3)(3)p(y|x;θ)=(hθ(x))y(1−hθ(x))1−y
那么评判z参数的似然函数为
L(θ)=∏i=1m(hθ(x(i)))y(i)(1−hθ(x(i)))1−y(i)(4)(4)L(θ)=∏i=1m(hθ(x(i)))y(i)(1−hθ(x(i)))1−y(i)
取
l(θ)=logL(θ)(5)(5)l(θ)=logL(θ)
我们可以推导出
1)当l(θ)l(θ)取得最大值时,L(θ)L(θ)取得最大值
2)∂∂θjl(θ)=(y−hθ(x))xj∂∂θjl(θ)=(y−hθ(x))xj
根据这个,我们可以得出梯度下降的规则。
当然,我们前面的θθ是一个向量,因此不能直接代入牛顿法中求值,因此我们要推广牛顿法,推广后的牛顿法公式如下:
θ=θ−H−1∇θl(θ)(54)(54)θ=θ−H−1∇θl(θ)
其中
Hij=∂2l(θ)∂θi∂θj(55)(55)Hij=∂2l(θ)∂θi∂θj
1. Logistic regression(逻辑回归)
在讨论线性回归的时候,我们引入了评判函数。尽管我们可以用线性回归的评判函数来评判逻辑回归,但是这通常不会取得好的效果,因此我们将使用新的评判函数g(z)=11+e−z,其中z=−θTx(1)(1)g(z)=11+e−z,其中z=−θTx
我们称这个函数为logistic function或sigmoid function.对g(z)求导,可以得到
g(z)′=g(z)(1−g(z))(2)(2)g(z)′=g(z)(1−g(z))
可以得到
p(y|x;θ)=(hθ(x))y(1−hθ(x))1−y(3)(3)p(y|x;θ)=(hθ(x))y(1−hθ(x))1−y
那么评判z参数的似然函数为
L(θ)=∏i=1m(hθ(x(i)))y(i)(1−hθ(x(i)))1−y(i)(4)(4)L(θ)=∏i=1m(hθ(x(i)))y(i)(1−hθ(x(i)))1−y(i)
取
l(θ)=logL(θ)(5)(5)l(θ)=logL(θ)
我们可以推导出
1)当l(θ)l(θ)取得最大值时,L(θ)L(θ)取得最大值
2)∂∂θjl(θ)=(y−hθ(x))xj∂∂θjl(θ)=(y−hθ(x))xj
根据这个,我们可以得出梯度下降的规则。
2. Digression: The perceptron learning algorithm
我们前面的函数的值都是连续的,而事实上我们需要一些离散的值,那么只要制定一个分界线,其上为1,其下为0,就能实现这个需求。3. Another algorithm for maximizing l(θ)l(θ)
现在我们要介绍牛顿法,用来求最大似然值,牛顿法的总体思想,是不断进行θ=θ−f(θ)f′θθ=θ−f(θ)f′θ,迭代的结果便是f(θ)=0f(θ)=0当然,我们前面的θθ是一个向量,因此不能直接代入牛顿法中求值,因此我们要推广牛顿法,推广后的牛顿法公式如下:
θ=θ−H−1∇θl(θ)(54)(54)θ=θ−H−1∇θl(θ)
其中
Hij=∂2l(θ)∂θi∂θj(55)(55)Hij=∂2l(θ)∂θi∂θj
相关文章推荐
- 机器学习算法笔记1_2:分类和逻辑回归(Classification and Logistic regression)
- 机器学习算法笔记1_2:分类和逻辑回归(Classification and Logistic regression)
- 分类和逻辑回归(Classification and logistic regression)
- 分类和逻辑回归(Classification and logistic regression)
- 机器学习2——分类和逻辑回归Classification and logistic regression(牛顿法待研究)
- Coursera-吴恩达-机器学习-(第3周笔记)Logistic Regression and Regularization
- 斯坦福CS229机器学习课程笔记 part2:分类和逻辑回归 Classificatiion and logistic regression
- 网易公开课讲义2 Classification and logistic regression 笔记
- 分类回归树-classification and regression tree-CART
- 机器学习笔记(十)——Logistic Function AND Softmax Function
- 学习笔记1 Supervised Learning and Optimization 之 Linear and Logistic Regression
- 机器学习(2)-分类问题_Classification and Representation
- Stanford 机器学习笔记 Week3 Classification and Representation
- 分类和回归 Classification and Regression
- 台湾大学林轩田机器学习技法课程学习笔记5 -- Kernel Logistic Regression
- Logistic Regression and Classification
- Machine Learning—Classification and logistic regression
- 【数据挖掘】决策树之CART (Classification and Regression Trees)分类与回归树
- Classification and logistic regression离散型:分类问题
- 斯坦福机器学习视频笔记 Week1 线性回归和梯度下降 Linear Regression and Gradient Descent