您的位置:首页 > 其它

Learning with local and global consistency阅读报告NIPS2003

2017-06-22 16:17 666 查看
该论文被NIPS2003收录,目前已被引用3011次,无疑是经典中的经典。提出了一种基于“smooth”理论的半监督学习方法,方法实现简单、有效。

这里所说的“smooth”是指:在半监督学习问题中,算法学习到的分类目标函数,相对于标签样本和无标签样本所共同显示的内在结构,应该足够平滑(smooth)。

算法基于两个重要的假设:(1)空间中距离越近的点,越倾向于拥有同样的标签;(2)处于同一个结构(簇、流形等)的样本,倾向于拥有同样的标签。

算法的核心思想:让每一个样本的类标信息在空间中进行传递,直到达到某种合适的全局状态。

算法内容

设样本集合X={x1,...,xl,xl+1,...,xn},标签集合L={1,...,c}。样本集合中前l个为带标签样本,其余为不带标签样本。算法的目标就是预测不带标签样本的标签。

设一个nxc的矩阵F,每行代表一个样本,且每行中最大的元素的位置就是该样本的标签。定义一个nxc的标签矩阵Y,若Yij = 1,则表明标签yi=j。

定义一个迭代算法,具体步骤为:

a)定义一个关联矩阵W,用来表示样本之间的空间位置关系,且其对角线元素为0。



b)定义矩阵S



其中D为一个对角矩阵,其Dii的值为W第i行元素的和。

c)迭代公式为



其中阿尔法为0到1的数。

d)设最终矩阵F变为F*,则每个样本的标签为



算法的步骤a定义了一个矩阵W,这个矩阵W表达了样本集合X所构成的图的各个边的权值。在步骤c中,等式右边的式子可以分为两个部分,第一个部分表示每个样本从其领域点中得到标签信息;第二个部分表示每个样本需要保留其最原始的标签信息。

作者同时推导出了F*的非迭代形式,这样就不需要进行迭代就可以进行求解。设F(0)=Y,则有



设矩阵P为



最终有





上述的F*可以进一步修正,最简单的方式就是对F*进行迭代,即



其中p为一个任意的正整数。

正则化框架

作者还从损失函数的角度建立了目标函数。损失函数为





等式右边第一项为一个平滑约束项,它表明空间中距离越近的点,分类器应该将其分为类似的标签;第二项表明,样本对其原始标签具有保留性。作者对该损失函数进行最优化求解,最终可以得到





可以看到与上文作者求出的F*其实本质上是一致的,只是自定义参数不一样。

实验结果

如图1所示,为二维平面上的数据,很容易分辨其中有两个簇,先使用迭代公式,利用本文算法从t=1,迭代到t=400。从图中的结果可以看出,最终可以得到很好的分类结果。



图1 本文算法迭代分类结果

作者称,该方法能够对监督学习的结果进行进一步得修正,得到更好的结果。如图2所示,说明了这一点。



图2 本文算法对监督学习分类结果的修正

作者还做了一个数字识别实验,数据集中包含16x16的“1”、“2”、“3”和“4”的手写数字,算法对其进行识别。如图3所示,为本文算法与其他算法的对比结果。



图3 各种算法基于手写数据集的结果对比
总结

该论文应该说是半监督学习算法的经典之一。算法的核心思想是学习到的分类目标函数,相对于标签样本和无标签样本所共同显示的内在结构,应该足够平滑。换句话说,就是在半监督学习中,类标的传递过程应该是平滑的。该方法运算简单、实现简单。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐