您的位置:首页 > 其它

多视图学习

2017-09-03 20:56 106 查看

多视图学习典型方法

典型相关性分析(CCA)

从整体上把握两组指标之间的相关关系,分别在两组变量中提取有代表性的两个综合变量u和v(分别为两个变量组合中各变量的线性组合),利用这两个综合变量之间的相关关系来反映两组指标之间的整体相关性。

协同训练(co-training)

为验证协同训练的有效性,给出一个PAC分析。PAC 分析是在两个假设条件下进行的:

(1)每个视图都足以进行正确的分类(也就是说,在每个样本上,组合视图都有标签一致性)

(2)任何样本的两个视图对于给定的类别标签都是条件独立的,初始的弱分类器保持了 PAC 的可学习性。

如何利用多视图

多视图数据降维

主成分分析(PCA)——无监督

PCA的降维的核心就在于将原始n维数据投影到k个单位标准正交基上,为了保证投影后的数据包含足够的信息,PCA要求投影后每一维特征的方差足够大,因为方差越大,投影到低维后重叠越少。同时,PCA也要求特征之间互相独立,这样可以保证不同特征间含有更少的重复信息。

Fisher线性判别分析——监督

Fisher线性判别的核心是将原始数据投影到一维空间中,使得原本线性不可分的数据变得线性可分(类别能够“清晰”地反映在低维数据上,也就是这一维就能决定每个样例的类别)。

Fisher线性判别的关键在于最大化一个准则函数J,准则函数J是由类间散度比上类内散度得到的。最大化准则函数J是要求类内散度足够小而类间散度足够大。小的类内散度保证了当前类中的数据足够紧密。大的类间散度保证了这两个类有足够的可分性。

多视图半监督学习

协同训练

多视图监督学习

Fisher线性判别分析

多视图主动学习

多视图Adaboost

多视图集成学习

多视图迁移学习

多视图聚类

A survey of multi-view machine learning
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  多视图