机器学习20-线性支持向量机svm公式推导(二)
2017-06-22 17:26
295 查看
分类完全正确不一定是最好的,如果我们分类忽略那些异常值可能更好,此时在线性可分svm公式推导(一)上增加松弛因子可以很好的解决这类问题。
虽然图二分错了一个样本,但图二分的更好,因为图二支撑间距比图一的大。
若增加松弛因子,使函数间距加上松弛变量大于等于1,这样约束条件变成
目标函数:
松弛因子在几何上的表现形式如下:
如果松弛因子等于0.8,则允许大于等于0.2的,则在大于等于0.2都算分对
如法炮制,推导线性SVM的公式
目标函数
可以看出线性可分SVM与线性SVM差别就是多出一个C,当C取无穷大时,线性SVM就退化成了线性可分SVM
以正例说明
当样本落在支撑线之外:alpha = 0 ,松弛因子 = 0
当样本落在支撑线上:0 < alpha < c ,松弛因子 = 0
当样本落在支撑线之内:alpha = c
以样本到直线的距离为横轴,损失值为竖轴。
虽然图二分错了一个样本,但图二分的更好,因为图二支撑间距比图一的大。
若增加松弛因子,使函数间距加上松弛变量大于等于1,这样约束条件变成
目标函数:
松弛因子在几何上的表现形式如下:
如果松弛因子等于0.8,则允许大于等于0.2的,则在大于等于0.2都算分对
如法炮制,推导线性SVM的公式
目标函数
可以看出线性可分SVM与线性SVM差别就是多出一个C,当C取无穷大时,线性SVM就退化成了线性可分SVM
以正例说明
当样本落在支撑线之外:alpha = 0 ,松弛因子 = 0
当样本落在支撑线上:0 < alpha < c ,松弛因子 = 0
当样本落在支撑线之内:alpha = c
以样本到直线的距离为横轴,损失值为竖轴。
相关文章推荐
- 机器学习19-SVM线性可分公式推导(一)
- 机器学习之支持向量机SVM Support Vector Machine (一) 线性SVM模型与软硬间隔
- OpenCV之ml 模块. 机器学习:支持向量机(SVM)介绍 支持向量机对线性不可分数据的处理
- 线性可分支持向量机思想与公式推导
- 支持向量机-SVM-最优化公式推导记录
- 支持向量机(SVM)公式推导及代码对应解释1
- 【机器学习】推导支持向量机SVM二分类
- 支持向量机(SVM)线性可分解决实例--参考麦子学院机器学习基础5.1
- 机器学习SVM之SMO方法α,ω和b迭代公式的推导过程
- 【机器学习】支持向量机SVM原理及推导
- 分类算法----线性可分支持向量机(SVM)算法的原理推导
- 林轩田--机器学习技法--SVM笔记1--线性支持向量机(linear+SVM)
- 机器学习(1)------ 线性回归、加权线性回归及岭回归的原理和公式推导
- 机器学习第十课:支持向量机SVM(一)线性可分(硬间隔)SVM
- SVM(三),支持向量机,线性不可分和核函数
- 机器学习中的算法(2)-支持向量机(SVM)基础
- 机器学习系列(3):支持向量机(SVM)
- 机器学习基础(十一)—— Logistic Regression 梯度更新公式的推导
- 斯坦福CS231n项目实战(二):线性支持向量机SVM
- [机器学习笔记] 支持向量机SVM如何求解最佳模型?