您的位置:首页 > 其它

台湾国立大学机器学习基石.听课笔记(第八讲):Noise and Error

2015-08-11 16:52 357 查看

台湾国立大学机器学习基石.听课笔记(第八讲):Noise and Error




一、噪音与概率目标函数(Noise and Probalistic Target)

1、几种错误:
(1) noise in y: mislabeled data;
(2) noise in y: different labels for same x;
(3) noise in x: error x.








二、错误衡量(Error Measure)

1、我们一般用于计算E_out的一般形式:



我们求这个主要考虑:



那么我们就将E改写为:





2、常用的err



第一种叫0/1错误,只要【预测≠目标】则认为犯错,通常用于分类;f(x) = argmin P(y|X) ;
第二种叫平方错误,它衡量【预测与目标之间的距离】,通常用于回归。f(x) = sum [y.P(y|X)] ;
第三种是一范数,一般在:位于 median from P(y|X).

3、最后我们得到:




三、错误加权Algorithmic Error Measure



图中的false accept 和 false reject 就是我们在分类中常说的 false positive 和 false negative,只是台湾和大陆的叫法不同而已。

采用0/1 error 时,对于每种错误,都会有相同程度的惩罚(panalize)。

然而,在实际应用中,两种错误带来的影响可能很不一样。

例如(讲义中的例子),一个商场对顾客进行分类,老顾客可以拿到折扣,新顾客没有折扣;这时,如果发生false reject(将老顾客错分为新顾客)而不给其打折,那么会严重影响用户体验,对商家口碑造成损失,影响较坏;而如果发生false accept (将新顾客错分为老顾客)而给其打折,也没什么大不了的。

另一个例子,CIA 的安全系统身份验证,如果发生false accept(将入侵者错分为合法雇员),后果非常严重。

通过上述两个例子,我们知道,对于不同application,两类错误的影响是完全不同的,因此在学习时应该通过赋予不同的权重来区分二者。比如对于第二个例子,当发生false accept : f(x)=-1, g(x)=+1, 对E_in 加一个很大的值。

Just remember: error is application/user-dependent.

2、我们又对VC得出




四、加权分类模型(Weighted Classification)


1、什么是加权分类

借助CIA 身份验证的例子来说明什么是weighted classification,于是它的错误计算就变成:



2、对于pocket

如果输入数据有噪音(线性不可分),像前面学习感知机时一样,采用Pocket 方法,然而计算错误时对待两种错误(false
reject/false accept) 不再一视同仁,false acceot 比false reject 严重1000倍。

通过下面方法解决:



即,在训练开始前,我们将{(x,y)
| y=-1} 的数据复制1000倍之后再开始学习,后面的步骤与传统的pocket 方法一模一样。


3、weighted pocket algorithm(与没有误差的pocket的区别)

从效率、计算资源的角度考虑,通常不会真的将y=-1 的数据拷贝1000倍,实际中一般采用"virtual copying"。只要保证:

randomly check -1 example mistakes with 1000 times more probability.

(这句大家还是看英文比较好,以免理解有歧义)

w_(t+1) reaches smaller E^(w)_in than w^.

总结:

总之,我们选择好适合特定应用的error measure: err,然后在训练时力求最小化err,即,我们要让最后的预测发生错误的可能性最小(错误测量值最小),这样的学习是有效的。

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: