学习SVM中的一些感悟
2018-03-19 21:07
204 查看
1.根据KKT条件可知只有支持向量所对应的参数a才不为0,这也说明了支持向量对于得到的超平面起到决定性作用。
2.利用KKT条件提出了对偶问题的解为原问题解的要求,即需要满足ai*(y(i)*(w*x+b)-1)=0,i=1...m
3.线性可分支持向量机与线性支持向量机两者最大的区别在于ai是否有上界C,此处的C称为惩罚参数。
4.引入惩罚因子可将误分类的样本对于得到的模型的贡献限制到一定范围内,从而可以避免过拟合(或者说模型对于误分类样本过于敏感)导致模型的精度下降。
5.支持向量机模型实际上可以看作支持向量的耦合解(有点类似振动中的模态分解和固有频率的含义),各个支持向量对于模型的贡献程度就是通过参数ai来控制的,惩罚参数则是给这个参数ai一个上界,以确保某个支持向量所占用的影响过大。
参考文献:《统计学习方法》 李航
2.利用KKT条件提出了对偶问题的解为原问题解的要求,即需要满足ai*(y(i)*(w*x+b)-1)=0,i=1...m
3.线性可分支持向量机与线性支持向量机两者最大的区别在于ai是否有上界C,此处的C称为惩罚参数。
4.引入惩罚因子可将误分类的样本对于得到的模型的贡献限制到一定范围内,从而可以避免过拟合(或者说模型对于误分类样本过于敏感)导致模型的精度下降。
5.支持向量机模型实际上可以看作支持向量的耦合解(有点类似振动中的模态分解和固有频率的含义),各个支持向量对于模型的贡献程度就是通过参数ai来控制的,惩罚参数则是给这个参数ai一个上界,以确保某个支持向量所占用的影响过大。
参考文献:《统计学习方法》 李航
相关文章推荐
- 学习的一些小感悟
- 关于学习的一些感悟
- 学习react,redux,router,antd的一些感悟(见解)
- 学习自动化测试的一些感悟
- 工作这些年对技术学习过程的一些 总结 与 感悟
- 多线程的问题和一些学习感悟
- 学习java的一些感悟
- 初步学习的一些感悟
- 多线程的问题和一些学习感悟
- 学习DIV+CSS布局的一些感悟(II)
- 我对大学选择方向和专业学习的一些感悟
- 关于编程学习上的一些感悟——不忘初心
- 关于国学和历史一些感悟-转自“战隼的学习探索”
- python学习的一些感悟
- 插件式框架设计的一些感悟—附c#与arcengine学习资料
- 学习之路的一些感悟
- 学习过程中的一些感悟
- python学习的一些感悟
- 学习php的一些感悟!
- c的一些学习感悟(字符变量和字符指针)