机器学习基石笔记(2)——Learning to Answer Yes/No
2017-03-12 13:18
246 查看
2.1 Perceptron Hypothesis Set
感知机的假设空间:认为输入实例的特征向量上的每个分量都有一个权重,其加权和若高于阈值则判正例,否则判负例。该模型可变型为加权和减阈值取符号,若正判正例否则判负例,将阈值的负数作为0维权重,1作为0维特征分量,模型可写成h(x)=sign(wTx)。 该函数的几何意义是n维空间上的超平面。特征分量越重要权值越高,否则越小或者为负。
2.2 Perceptron Learning Algorithm
感知机的学习方法(PLA):当判断训练实例发生错误时:wt+1=wt+yn(t)xn(t),其中n是第n个实例,t是第t次迭代。其几何意义是,当正例判负时,说明加权向量的线在实例点上方,故缩小加权向量与实例向量(从0到实例点的向量)的夹角,让该实例更容易判正,反之亦然。 一个有趣的公式:ynwTt+1xn≥ynwTtxn,说明对于第n个实例来说,这一次的修订可能会使它被正确划分。
2.3 Guarantee of PLA
2.3.1 线性可分:如果所有训练数据都能用一个超平面分成正反两类,则称其为线性可分,否则为线性不可分。 2.3.2 PLA的收敛性
(1)yn(t)wTfxn(t)≥minnynwTfxn导出wt不停接近wf
该公式表明,如果理想划分wTf存在的话,那么在所有被错误划分的点中,存在一个离理想超平面最近的点xn,所以wTfwt+1>wTfwt+minnynwTfxn>wTfwt,说明wt不停接近wf。
(2) ||wt||不会增长太快
将||wt+1||2拆分成wt的表达式,去掉中间的负项得||wt+1||2≤||wt||2+maxn||xn||2。可见其增长的最大速度是实例中范数最大的向量的范数。
(3)根据以上两式联合推导
1≥wTfwt||wf||·||wt||≥T‾‾√ρR
其中R=maxn||xn||2,ρ=minnynwTfxn||wf||。上述等式的左边与右边变型即得T的上界。
2.4 Non-Separable Data
口袋算法:在PLA的基础上记录到目前为止划分效果最好的方案,并将PLA每次迭代生成的方案与最好方案进行对比,留下较好者。
相关文章推荐
- [MOOC学习笔记]机器学习基石 Lecture02 Learning to Answer Yes/No
- 机器学习基石笔记 Lecture 2: Learning to Answer Yes/No
- 【笔记】机器学习基石(二)learning to answer yes or no
- 林轩田-机器学习基石 课堂笔记(二)Learning to Answer Yes/No
- 台湾大学林轩田机器学习基石课程学习笔记2 -- Learning to Answer Yes/No
- 干货 | 机器学习基石02 Learning to Answer Yes/No
- 机器学习基石-2-Learning to Answer Yes/No
- 机器学习基石第二讲 Learning to Answer Yes/No
- 2. 机器学习基石-When can Machine Learn? - Learning to Answer Yes or No
- 机器学习基石-Learning to Answer Yes/No
- 机器学习基石notes-Lecture2 Learning to Answer Yes/No
- 《机器学习基石》台大林轩田_学习笔记02_Learning to Answer Yes/No
- 机器学习基石第二讲:learn to answer yes/no
- 机器学习基石 - Learning to Answer Yes/No
- 《机器学习基石》2-Learning to Answer Yes/No
- [MOOC学习笔记]机器学习基石 Lecture01 The Learning Problem
- 机器学习基石笔记 Lecture 1: The Learning Problem
- Machine Learning Foundations(机器学习基石)笔记 第二节
- 机器学习基石 4.3 Connection to Learning
- Machine Learning Foundation Lecture 02 Learning to Answer YesNo 学习笔记