您的位置:首页 > 其它

机器学习笔记 - 线性可分问题

2017-02-25 16:47 176 查看
给定训练样本集 D={(x1,y1),(x2,y2),...,(xm,ym)},y∈{−1,1}, 分类学习最基本的想法就是在样本空间D找一个划分超平面, 将不同类型的样本分开, 如下图所示.



在样本空间中, 划分超平面可以用线性方程来描述:

wTx+b=0

所以超平面可以用{w,b}来描述, 样本空间中任意点x到超平面{w,b}的距离为:

r=|wTx+b|||w||

若此超平面可以将训练样本正确分类, 那即对于(xi,yi)∈D, 若 yi=1,则有wTx+b>0,若yi=−1,则有wTx+b<0

则存在两条平行线

wTxi+b>=C,yi=1

wTxi+b<=−C,yi=−1

通过缩放, 可得

wTxi+b>=1,yi=1

wTxi+b<=−1,yi=−1

这两条平行线的距离为

γ=2||w||

于是, 为了达到最优划分, 需要最大化 γ, 也就是

maxw,b2||w||,

s.t. yi(wTxi+b)>=1

这个等价于

minw,b12||w||2

s.t. yi(wTxi+b)>=1

这就是支持向量机SVM的基本型.

Reference:

1. 机器学习 - 周志华 清华大学出版社

2. http://blog.csdn.net/liangdas/article/details/44251469
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  机器学习