您的位置:首页 > 其它

SVM推导

2016-07-25 15:50 281 查看
标准最大margin问题

假设data是linear seperable的

优化目标



希望 margin(w),i.e, 最小的点到直线的距离 最大

即是要得到最右的线,它对噪声的鲁棒性最好



得到的分类器很简单,线一侧为x,另一侧为o



预备知识:点到直线的距离

为了推导方便,不再将截距 bias b并入向量w中



点到直线的距离推导



假设 平面方程是



平面方程怎么来的?参考:
http://netedu.xauat.edu.cn/jpkc/netedu/jpkc/gdsx/homepage/5jxsd/51/513/5307/530705.htm
如果不想打开链接,看这个就行了



平面法向量是 w

那么对于



因为x'和x''在平面上,所以有



也自然得到



如何算distance呢

x到平面的距离:将x与平面上的点x'相连,然后计算(x-x')在w方向上的投影就可以了



上面最右一步化简是因为

上面已经写了,x'在直线上,所以有



代入即可。

好,现在得到了点到直线的距离

在高维上说就是 distance to seperating hyperplane



应该不陌生

回到我们的优化目标,橘红色的部分已经OK了



将b从w中拆出来(上面已经说了)

优化目标可以写成


0

根据约束1:分割面可以正确划分每个点,即



也就是 上面相乘的两项总是同号的

所以点到直线的距离





可以写成





优化目标可以写成



对于直线方程,scaling是没关系的



那么我们可以假设



因为上面是更强的条件,那么优化目标的第一个约束条件可以解除



另外,



目标函数变为



还是一个max min优化

下面采用反证法证明 约束条件 等价于





toy example

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: