支持向量机-SVM-最优化公式推导记录
2011-08-24 17:15
190 查看
1. 简述
SVM涉及的东西很多,如果要理解全面的话,要理解经验风险与置信风险,VC维理论,推导出最优化公式,最优化求解的拉格朗日解法,核函数,等等方面的内容,当前对SVM理解太少,平时主要使用其工具包,这里记录一下推导出SVM最优化公式的部分,主要参考是维基百科,感觉维基百科在这部分的说明比较清楚简单。
2. 推导
· 已知信息
样本数据:xi是特征向量,yi是标注,p是特征向量的维数,n是样本数量。
目标:是寻找最大间隔超平面,一方面保证将所有的样本分开,另一方面超平面两侧的没有样本的间隔最大。
· 推导
假设超平面为w·x + b = 0 (一般使用w的转置,这里输入不方便使用w代替)
超平面一般使用超平面族表示即w·x+b=1与w·x+b=-1。
如果样本数据线性可分,就可以找到这样的两个超平面使得,这两个平面之间没有样本点,并且这两个超平面之间的距离是最大的。对于两个平面之间没有样本点,相当于yi (w·xi+b) > 1, i=1,2,...,n. 两个超平面之间的距离=2/|w|,最大化这个间隔相当于最小化|w|。
因此寻找能够分开所有样本的间隔最大的两个超平面可以描述为:
min |w|,
s.t. yi (w·xi+b)>1, 其中i=1,2,...,n
· 为了求解方便,可以进一步化为
min 1/2 |w*w|
s.t. yi (w·xi+b)>1, 其中i=1,2,...,n
3. 参考
维基百科_支持向量机
http://en.wikipedia.org/wiki/Support_vector_machine
http://zh.wikipedia.org/wiki/%E6%94%AF%E6%8C%81%E5%90%91%E9%87%8F%E6%9C%BA
SVM涉及的东西很多,如果要理解全面的话,要理解经验风险与置信风险,VC维理论,推导出最优化公式,最优化求解的拉格朗日解法,核函数,等等方面的内容,当前对SVM理解太少,平时主要使用其工具包,这里记录一下推导出SVM最优化公式的部分,主要参考是维基百科,感觉维基百科在这部分的说明比较清楚简单。
2. 推导
· 已知信息
样本数据:xi是特征向量,yi是标注,p是特征向量的维数,n是样本数量。
目标:是寻找最大间隔超平面,一方面保证将所有的样本分开,另一方面超平面两侧的没有样本的间隔最大。
· 推导
假设超平面为w·x + b = 0 (一般使用w的转置,这里输入不方便使用w代替)
超平面一般使用超平面族表示即w·x+b=1与w·x+b=-1。
如果样本数据线性可分,就可以找到这样的两个超平面使得,这两个平面之间没有样本点,并且这两个超平面之间的距离是最大的。对于两个平面之间没有样本点,相当于yi (w·xi+b) > 1, i=1,2,...,n. 两个超平面之间的距离=2/|w|,最大化这个间隔相当于最小化|w|。
因此寻找能够分开所有样本的间隔最大的两个超平面可以描述为:
min |w|,
s.t. yi (w·xi+b)>1, 其中i=1,2,...,n
· 为了求解方便,可以进一步化为
min 1/2 |w*w|
s.t. yi (w·xi+b)>1, 其中i=1,2,...,n
3. 参考
维基百科_支持向量机
http://en.wikipedia.org/wiki/Support_vector_machine
http://zh.wikipedia.org/wiki/%E6%94%AF%E6%8C%81%E5%90%91%E9%87%8F%E6%9C%BA
相关文章推荐
- 机器学习20-线性支持向量机svm公式推导(二)
- 支持向量机(SVM)公式推导及代码对应解释1
- 支持向量机(SVM)的详细推导过程及注解
- 支持向量机(SVM)的详细推导过程及注解
- SVM公式推导
- 支持向量机(SVM)的详细推导过程及注解
- Coursera_Stanford_ML_ex6_支持向量机(SVM) 作业记录
- 支持向量机SVM原理详解+白板推导
- 分类算法----线性可分支持向量机(SVM)算法的原理推导
- svm流程与公式推导
- 机器学习19-SVM线性可分公式推导(一)
- 推荐算法学习-SVM,RSVM,ASVM,SVDPP学习公式推导
- 支持向量机(SVM)推导过程
- 机器学习:SVM公式推导
- Spark--SVM(支持向量机)--记录
- 支持向量机SVM推导及求解过程
- 支持向量机SVM 原理、推导与Matlab实现(2)-对偶问题
- 【机器学习】推导支持向量机SVM二分类
- 支持向量机(SVM)推导
- 支持向量机SVM推导及求解过程