支持向量SVM分类器的学习记录
2015-06-03 11:23
211 查看
SVM学习
1、线性分类器的学习目标就是在n维的数据空间中找到一个分类超平面。其方程可以表示为:W^T*x + b = 0
y取1或者-1表示两个不同的类别,该分类标准起源于logistic回归。
2、logistic回归
目的是从特征学习出一个0/1分类模型,该模型是将特征的线性组合作为自变量,自变量取值范围是正无穷到负无穷,因此使用logistic函数将自变量映射到(0,1)上,映射后的值被认为是属于y=1的概率。
3、需要确定f(x)=w.x+b中两个参数w和b,而这两个参数的确定是通过两条边界端或极端划分直线中间的最大间隔从而确定最终的最大间隔分类超平面hyperplane和分类函数。进而把寻求分类函数f(x)=w.x+b的问题转化为对w,b的最优化问题,最终化为对偶因子的求解。总的来说就是转化为求变量w和b的凸二次规划问题。
4、函数间隔与几何间隔
(1)函数间隔
函数间隔 γ=y(w^T*x+b)=y*f(x)
超平面(w,b)关于训练数据集T的函数间隔为超平面(w,b)关于T中所有样本点(xi,yi)的函数间隔最小值。(选择分类超平面的时候只有函数间隔是不够的,因为成比例改变w和b,虽然超平面没有改变,但是函数间隔的值也会随比例改变。)
(2)几何间隔
几何间隔 γ1=y(w^T*x+b)/||w||=y*f(x)/||w||
5、funtional margin不适合用于最大化的一个量,因为在hyper plane固定以后,我们可以等比例地缩放w和b的值,可以使得f(x)=w^T*x+b的值任意大,即functional margin的值可以在hyper plane保持不变的情况下被取得任意大。而geometrical margin没有这个问题,因为geometrical margin除去了||w||这个分母。因此缩放w和b,geometrical margin只是随着hyper plane的变动而变动,而不是随着w和b的值变动
6、支持两个超平面的点叫做支持向量。support vector在边界上满足y*(w^T*x+b)=1(在这里我们把functional margin定为1)
相关文章推荐
- Redis缓存的安装和使用
- android 5.0 默认水波纹背景属性,可设置任何View
- linux 创建用户(批量创建用户) 账号管理与 ACL 权限配置
- IOS中的线程操作(2)
- zoj1001
- Linux vi替换字符串
- webbench源码学习
- Android JNI 使用的数据结构JNINativeMethod详解
- CEPH HEALTH错误(一):Error connecting to cluster: InterruptedOrTimeoutError
- 适配
- 解决ADB server didn't ACK问题,连上手机问题
- Android个人笔记 - Google Android揭秘_第三章:用户界面
- 存储管理(一):openfiler介绍及存储理解
- 接口 多态
- gstreamer教程及在DM3730上的应用
- linux 重定向命令
- LeetCode: Contains Duplicate
- Max Points on a Line(转载,完全转载hackersun)
- Java学习 - Java操作MongoDB
- Unity中实现全局管理类的几种方式