机器学习笔记——支持向量机(II)对偶问题(I)
2018-01-02 20:54
323 查看
前提
⎧⎩⎨⎪⎪minw,b12||w||2s.t. yi(wTxi+b)≥1,i=1,2,…,m.(prototype)其中||w||2=(w21+w22+⋯+w2m−−−−−−−−−−−−−−−√)2
(写成minw,b12||w||2方便求导)。
处理
θD(α)=minw,bL(w,b,α)其对偶问题:
maxαminw,bL(w,b,α)=maxαθD(α)
拉格朗日乘子法
L(w,b,α)=12||w||2+∑i=1mαi(1−yi(wTxi+b))(1)其中:α=(α1,α2,…,αm)为拉格朗日乘子。
于是令L(w,b,α)对w和b求导。
∂L(w,b,α)∂w=∂(12||w||2+∑i=1mαi(1−yi(wTxi+b)))∂w=∂(12wTw+∑i=1mαi(1−yi(wTxi+b)))∂w=w−∑i=1mαiyixi
∂L(w,b,α)∂b=∂(12||w||2+∑i=1mαi(1−yi(wTxi+b)))∂b=−∑i=1mαiyi
令上面的两个结果都等于0
则得到:
w=∑i=1mαiyixi(2)
0=∑i=1mαiyi(3)
将(2)式代入(1)式
θD(α)=12||w||2+∑i=1mαi(1−yi(wTxi+b))=12wTw+∑i=1mαi(1−yi(wTxi+b))=12∑i=1mαiyixTi∑j=1mαjyjxj+∑i=1mαi⎛⎝1−yi(∑j=1mαjyjxTjxi+b)⎞⎠=∑i=1mαi−12∑i=1mαiyixTi∑j=1mαjyjxj+∑i=1mαiyib
由(3)可以得到:
maxαs.t.∑i=1mαi−12∑i=1m∑j=1mαiyiαjyjxTixj∑i=1mαiyi=0,αi≥0,i=1,2,…,m.
由对偶式可以得α,再由θD(α)得到w,b
相关文章推荐
- (斯坦福机器学习课程笔记)支持向量机之拉格朗日函数的对偶问题
- (斯坦福机器学习课程笔记)支持向量机之对偶问题
- 机器学习笔记(三) 支持向量机 原型、对偶问题
- 机器学习笔记七 - 最优间隔分类器、原始/对偶问题、svm的对偶问题
- 机器学习笔记 - 线性分割对偶问题
- 【机器学习-西瓜书】六、支持向量机(SVM):最大间隔;对偶问题;KKT条件
- 机器学习笔记——支持向量机(II)核函数
- 【机器学习】支持向量机(三)----拉格朗日对偶性与对偶问题
- [机器学习笔记] 支持向量机SVM 和逻辑回归LR的异同
- 模式识别学习笔记-第一章 机器学习的基本问题
- 机器学习笔记(XIX)支持向量机(I)基本概念
- Python 3 学习笔记 - 机器学习实战 ch09 问题解决办法
- 论文笔记:《机器学习安全性问题及其防御技术研究综述》
- Coursera机器学习(Andrew Ng)笔记:回归与分类问题
- Coursera 机器学习(by Andrew Ng)课程学习笔记 Week 7——支持向量机
- 机器学习-学习笔记 支持向量机
- 林轩田--机器学习技法--SVM笔记3--核支持向量机(Kenel+Support+Vector)
- 【机器学习】支持向量机(二)----间隔最大化与原始问题
- Udacity机器学习入门笔记——支持向量机(SVM)
- 机器学习入门笔记(八)----支持向量机SVM