神经网络中的多任务学习
2017-12-11 21:11
197 查看
简述
需求背景多任务学习的需求比较普遍, 比如给定一篇doc(如 博客, 微博, 短新闻) 的文本信息和数字信息(如 长度, 图片数, 发表日期), 来预测
点赞,
转发,
点击率等若干个回归值.
为什么可以多任务训练
有些隐藏特征可以共用, 这是各output可以公用前几层的理论假设.
除了一石二鸟, 训练一次实现多种用途以外, 多个 output 之间也会相互平衡, 像正则项一样, 比单一任务达到更好的泛化效果.
网络结构
figure multi-input-multi-output-graph
compile in keras
keras.engine.training.Model#compile(self, optimizer, loss, metrics=None, loss_weights=None, sample_weight_mode=None, weighted_metrics=None, target_tensors=None, **kwargs)
loss
可以传一个list, 对应每个output 的损失函数.
loss_weights
可选的, 指定每个output所用损失函数的权重.
The loss value that will be minimized by the model will then be the weighted_sum of all individual losses.
fit in keras
fit(x,y)函数中的y传一个list, 与各output对应即可.
参考
keras official guide doc multi-input-and-multi-output-models相关文章推荐
- NLP多任务学习:一种层次增长的神经网络结构 | PaperDaily #16
- AndrewNg神经网络和深度学习笔记-Week2-11向量化
- Halcon实战之基于MLP多层神经网络的训练学习
- 深度学习算法原理——神经网络的基本原理
- 【备忘】2017年最新整理神经网络深度学习算法全套视频教程
- Coursera | Andrew Ng (01-week-1-1.3)—用神经网络进行监督学习
- 神经网络学习算法matlab应用分析
- 吴恩达深度学习笔记一:神经网络和深度学习
- 【深度学习】RNN(循环神经网络)
- 神经网络java框架学习
- 深度学习_caffe (4) 基于mnist实例搭建新的神经网络&在caffe中添加层
- 深度学习与计算机视觉系列(9)_串一串神经网络之动手实现小样例
- 对比学习用 Keras 搭建 CNN RNN 等常用神经网络和其后端切换(Theano和TensorFlow)
- 学习笔记——吴恩达-机器学习课程-1.3 用神经网络进行监督学习
- 海量增量学习神经网络 lsnn,the finaly nn
- 神经网络学习网站
- 神经网络与深度学习第二周-1- Python Basics With Numpy
- 【神经网络与深度学习】如何在Caffe中配置每一个层的结构
- 零基础入门深度学习(5) - 循环神经网络
- 神经网络浅讲:从神经元到深度学习