Learning with local and global consistency阅读报告NIPS2003
2017-06-22 16:17
666 查看
该论文被NIPS2003收录,目前已被引用3011次,无疑是经典中的经典。提出了一种基于“smooth”理论的半监督学习方法,方法实现简单、有效。
这里所说的“smooth”是指:在半监督学习问题中,算法学习到的分类目标函数,相对于标签样本和无标签样本所共同显示的内在结构,应该足够平滑(smooth)。
算法基于两个重要的假设:(1)空间中距离越近的点,越倾向于拥有同样的标签;(2)处于同一个结构(簇、流形等)的样本,倾向于拥有同样的标签。
算法的核心思想:让每一个样本的类标信息在空间中进行传递,直到达到某种合适的全局状态。
算法内容
设样本集合X={x1,...,xl,xl+1,...,xn},标签集合L={1,...,c}。样本集合中前l个为带标签样本,其余为不带标签样本。算法的目标就是预测不带标签样本的标签。
设一个nxc的矩阵F,每行代表一个样本,且每行中最大的元素的位置就是该样本的标签。定义一个nxc的标签矩阵Y,若Yij = 1,则表明标签yi=j。
定义一个迭代算法,具体步骤为:
a)定义一个关联矩阵W,用来表示样本之间的空间位置关系,且其对角线元素为0。
b)定义矩阵S
其中D为一个对角矩阵,其Dii的值为W第i行元素的和。
c)迭代公式为
其中阿尔法为0到1的数。
d)设最终矩阵F变为F*,则每个样本的标签为
算法的步骤a定义了一个矩阵W,这个矩阵W表达了样本集合X所构成的图的各个边的权值。在步骤c中,等式右边的式子可以分为两个部分,第一个部分表示每个样本从其领域点中得到标签信息;第二个部分表示每个样本需要保留其最原始的标签信息。
作者同时推导出了F*的非迭代形式,这样就不需要进行迭代就可以进行求解。设F(0)=Y,则有
设矩阵P为
最终有
上述的F*可以进一步修正,最简单的方式就是对F*进行迭代,即
其中p为一个任意的正整数。
正则化框架
作者还从损失函数的角度建立了目标函数。损失函数为
等式右边第一项为一个平滑约束项,它表明空间中距离越近的点,分类器应该将其分为类似的标签;第二项表明,样本对其原始标签具有保留性。作者对该损失函数进行最优化求解,最终可以得到
可以看到与上文作者求出的F*其实本质上是一致的,只是自定义参数不一样。
实验结果
如图1所示,为二维平面上的数据,很容易分辨其中有两个簇,先使用迭代公式,利用本文算法从t=1,迭代到t=400。从图中的结果可以看出,最终可以得到很好的分类结果。
图1 本文算法迭代分类结果
作者称,该方法能够对监督学习的结果进行进一步得修正,得到更好的结果。如图2所示,说明了这一点。
图2 本文算法对监督学习分类结果的修正
作者还做了一个数字识别实验,数据集中包含16x16的“1”、“2”、“3”和“4”的手写数字,算法对其进行识别。如图3所示,为本文算法与其他算法的对比结果。
图3 各种算法基于手写数据集的结果对比
总结
该论文应该说是半监督学习算法的经典之一。算法的核心思想是学习到的分类目标函数,相对于标签样本和无标签样本所共同显示的内在结构,应该足够平滑。换句话说,就是在半监督学习中,类标的传递过程应该是平滑的。该方法运算简单、实现简单。
这里所说的“smooth”是指:在半监督学习问题中,算法学习到的分类目标函数,相对于标签样本和无标签样本所共同显示的内在结构,应该足够平滑(smooth)。
算法基于两个重要的假设:(1)空间中距离越近的点,越倾向于拥有同样的标签;(2)处于同一个结构(簇、流形等)的样本,倾向于拥有同样的标签。
算法的核心思想:让每一个样本的类标信息在空间中进行传递,直到达到某种合适的全局状态。
算法内容
设样本集合X={x1,...,xl,xl+1,...,xn},标签集合L={1,...,c}。样本集合中前l个为带标签样本,其余为不带标签样本。算法的目标就是预测不带标签样本的标签。
设一个nxc的矩阵F,每行代表一个样本,且每行中最大的元素的位置就是该样本的标签。定义一个nxc的标签矩阵Y,若Yij = 1,则表明标签yi=j。
定义一个迭代算法,具体步骤为:
a)定义一个关联矩阵W,用来表示样本之间的空间位置关系,且其对角线元素为0。
b)定义矩阵S
其中D为一个对角矩阵,其Dii的值为W第i行元素的和。
c)迭代公式为
其中阿尔法为0到1的数。
d)设最终矩阵F变为F*,则每个样本的标签为
算法的步骤a定义了一个矩阵W,这个矩阵W表达了样本集合X所构成的图的各个边的权值。在步骤c中,等式右边的式子可以分为两个部分,第一个部分表示每个样本从其领域点中得到标签信息;第二个部分表示每个样本需要保留其最原始的标签信息。
作者同时推导出了F*的非迭代形式,这样就不需要进行迭代就可以进行求解。设F(0)=Y,则有
设矩阵P为
最终有
上述的F*可以进一步修正,最简单的方式就是对F*进行迭代,即
其中p为一个任意的正整数。
正则化框架
作者还从损失函数的角度建立了目标函数。损失函数为
等式右边第一项为一个平滑约束项,它表明空间中距离越近的点,分类器应该将其分为类似的标签;第二项表明,样本对其原始标签具有保留性。作者对该损失函数进行最优化求解,最终可以得到
可以看到与上文作者求出的F*其实本质上是一致的,只是自定义参数不一样。
实验结果
如图1所示,为二维平面上的数据,很容易分辨其中有两个簇,先使用迭代公式,利用本文算法从t=1,迭代到t=400。从图中的结果可以看出,最终可以得到很好的分类结果。
图1 本文算法迭代分类结果
作者称,该方法能够对监督学习的结果进行进一步得修正,得到更好的结果。如图2所示,说明了这一点。
图2 本文算法对监督学习分类结果的修正
作者还做了一个数字识别实验,数据集中包含16x16的“1”、“2”、“3”和“4”的手写数字,算法对其进行识别。如图3所示,为本文算法与其他算法的对比结果。
图3 各种算法基于手写数据集的结果对比
总结
该论文应该说是半监督学习算法的经典之一。算法的核心思想是学习到的分类目标函数,相对于标签样本和无标签样本所共同显示的内在结构,应该足够平滑。换句话说,就是在半监督学习中,类标的传递过程应该是平滑的。该方法运算简单、实现简单。
相关文章推荐
- Learning with Local and Global Consistency
- Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic Image
- 论文笔记之:Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic
- 文献阅读笔记——Boosting VLAD with Supervised Dictionary Learning and High-Order Statistics
- 论文阅读(Lukas Neuman——【ICDAR2015】Efficient Scene Text Localization and Recognition with Local Character Refinement)
- 论文阅读-《CoupleNet:Coupling Global Structure with Local Parts for Object Detection》
- Large-scale Learning with SVM and Convolutional Nets(经典文献阅读)
- 论文阅读报告 DCM BANDITS: LEARNING TO RANK WITH MULTIPLE CLICKS
- More 3D Graphics (rgl) for Classification with Local Logistic Regression and Kernel Density Estimates (from The Elements of Statistical Learning)(转)
- PS:Modeling Local and Global Deformations in Deep Learning: Epitomic Convolution...___CVPR2015
- [CONLL2017] Learning local and global contexts using a convolutional recurrent network model
- Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic Image
- 论文笔记之:Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic
- 《Scalable and Sustainable Deep Learning via Randomized Hashing》 阅读报告
- 5-Local Notifications and Push Notifications--Provider Communication with Apple Push Notification Service
- What is Local Index and Global Index in Partition Table? What is Prefix Index and Nonprefix Index in table?
- Taste and Aesthetics - A Conversation with Ken Arnold, Part II 阅读笔记
- 5-Local Notifications and Push Notifications--Provider Communication with Apple Push Notification Service
- Local and Global References区别
- 启动VS2010报错:The Environment variable LocalAppData must be manually configured for Windows XP and Windows Server 2003