您的位置:首页 > Web前端

机器学习 李宏毅 L30-Transfer Learning

2018-02-03 20:55 176 查看

Transfer Learning简介

Transfer Learning的用途包括语音辨识、图像识别和文本分析。



Transfer Learning中相关的数据称为source data,而实际的数据成为target data。Transfer learning的目标是通过学习source data的数据集,得到较好的处理target data的能力。这里需要注意,source data和target data的内容相近但是不一样。

Model fine tuning

对于source data和target data均有label时,可以进行model fine tuning的操作。一般而言,source data的数量较多,而target data数量较少(有一种称为one-shot learing)。这是监督学习的例子,



对于model fine tuning,可以使用source data进行训练,然后利用target data进行模型的fine tuning(微调,例如在进行梯度下降时仅进行几次更新)。由于target data数量很少,很容易就会overfitting。这可以使用conservative training进行,保证新的网络与原始网络相差不大(可以采用相同输入,两个网络输出相差不大);还可以使用仅调整一个hidden layer的参数,其余的层可以进行transfer,这样可以防止过拟合。



Multitask Learning

多任务学习,可以使得神经网络适应于多任务。该场景包含单个输入、多个输出或者多个输入、多个输出。典型的应用场景包括多语言语音辨识、Progressive



Domain-adversarial training

属于同一个任务的学习过程



zero-shot learning

处理不同的tasks。target data没有在source data中出现,这里需要将source data进行进一步分解,得到不同的基本单位的分布情况。训练时,将输入分解为对应不同的特征分布;测试时,决定输入有哪些属性,从而得到是哪种类别。

representing each class by its attributes

或者采用attribute embedding,学习得到一个CNN网络,输入一个image,通过CNN得到一个vector;然后对于一些特征,通过另外一个网络,投影到相同的空间(二者维度相同)。

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  机器学习
相关文章推荐