Sequence to Sequence Learning with Neural Networks论文笔记
2017-09-24 22:13
731 查看
摘要
Dnn是强大的模型,在困难的学习任务上取得了出色的表现。尽管每当有很大的标签训练集时,DNN都能很好的工作,但是他们不能用于将序列映射到序列的工作。在本文中,我们提出了一般端到端的方法,对序列标签做出最小假设。我们的方法使用多层LSTM将输入序列映射到固定维度的向量,然后在使用另一个深LSTM来从向量中解码目标序列。
Introduction
(1)DNN介绍,举例。很强大
(2)尽管DNN具有灵活性和功能,但只能应用于其输入和目标可以用固定维度向量进行明确编码的问题。
(3)本文的想法,用一个LSTM读输入序列,一次一个时间步,用来获得大的固定维度向量,然后用另一个LSTM来从输入中提取序列。第二个LSTM实质上是循环神经网络模型,只是输入序列是有条件的。
(4)已经有很多相关的尝试来解决用神经网络进行一般的序列到序列的学习问题。举例。
(5)LSTM反向读取输入句子,因为这样做会在数据中引入许多短期依赖关系,从而使优化问题更容易。
(6)BLEU是一种用于评估从一种自然语言到另一种自然语言的机器翻译的质量的算法。
(7)SMT,统计机器翻译,其翻译是根据统计模型生成的,其参数来源于双语文本语料库的分析。
(8)LSTM的有用属性是它学习将可变长度的输入句子映射到固定向量表示。
模型:
(1)RNN是前馈神经网络序列的自然泛化(generalization)
每当输入输出之间的映射提前知道时,RNN可以容易地将序列映射到序列。 然而,不清楚如何将RNN应用于其输入和输出序列具有不同长度的复杂和非单调关系的问题。
(2)虽然RNN原则上可以工作,但是由于序列的长时间依赖,Rnn很难训练成功。LSTm可以解决这个问题。
(3)三个创新点
使用两个模型,使用深层LSTM,使用翻转输入序列的顺序
3 实验
4,总结
--------------------------------------------------------------------分界线--------------------------------------------------------------------------------------------
咨询了我们老板,老板说这种论文 不是很正式,里面有诸如we found之类的说法。创新点就一个相对有价值的,第一个属于引用,第三个算一个小技巧。明天看那个引用的Graves的文章Generating sequences with recurrent neural networks.
Dnn是强大的模型,在困难的学习任务上取得了出色的表现。尽管每当有很大的标签训练集时,DNN都能很好的工作,但是他们不能用于将序列映射到序列的工作。在本文中,我们提出了一般端到端的方法,对序列标签做出最小假设。我们的方法使用多层LSTM将输入序列映射到固定维度的向量,然后在使用另一个深LSTM来从向量中解码目标序列。
Introduction
(1)DNN介绍,举例。很强大
(2)尽管DNN具有灵活性和功能,但只能应用于其输入和目标可以用固定维度向量进行明确编码的问题。
(3)本文的想法,用一个LSTM读输入序列,一次一个时间步,用来获得大的固定维度向量,然后用另一个LSTM来从输入中提取序列。第二个LSTM实质上是循环神经网络模型,只是输入序列是有条件的。
(4)已经有很多相关的尝试来解决用神经网络进行一般的序列到序列的学习问题。举例。
(5)LSTM反向读取输入句子,因为这样做会在数据中引入许多短期依赖关系,从而使优化问题更容易。
(6)BLEU是一种用于评估从一种自然语言到另一种自然语言的机器翻译的质量的算法。
(7)SMT,统计机器翻译,其翻译是根据统计模型生成的,其参数来源于双语文本语料库的分析。
(8)LSTM的有用属性是它学习将可变长度的输入句子映射到固定向量表示。
模型:
(1)RNN是前馈神经网络序列的自然泛化(generalization)
每当输入输出之间的映射提前知道时,RNN可以容易地将序列映射到序列。 然而,不清楚如何将RNN应用于其输入和输出序列具有不同长度的复杂和非单调关系的问题。
(2)虽然RNN原则上可以工作,但是由于序列的长时间依赖,Rnn很难训练成功。LSTm可以解决这个问题。
(3)三个创新点
使用两个模型,使用深层LSTM,使用翻转输入序列的顺序
3 实验
4,总结
--------------------------------------------------------------------分界线--------------------------------------------------------------------------------------------
咨询了我们老板,老板说这种论文 不是很正式,里面有诸如we found之类的说法。创新点就一个相对有价值的,第一个属于引用,第三个算一个小技巧。明天看那个引用的Graves的文章Generating sequences with recurrent neural networks.
相关文章推荐
- 【论文笔记】Sequence to sequence Learning with Neural Networks
- Learning to Track at 100 FPS with Deep Regression Networks 论文理解及应用笔记(一)
- Learning to Track at 100 FPS with Deep Regression Networks 论文理解及应用笔记(二)
- Learning to Track at 100 FPS with Deep Regression Networks 论文笔记
- [深度学习论文笔记][arxiv 1711]Learning to Segment Every Thing
- [2014]Sequence to Sequence Learning with Neural Networks
- CTC算法论文阅读笔记:Connectionist Temporal Classification: Labelling Unsegmented Sequence Data with Recurren
- 论文笔记——NEURAL ARCHITECTURE SEARCH WITH REINFORCEMENT LEARNING
- Sequence to Sequence Learning with Neural Networks
- [深度学习论文笔记][Video Classification] Learning Spatiotemporal Features with 3D Convolutional Networks
- 论文笔记《End-to-End Deep Learning for Person Search》
- 论文笔记之:Semi-Supervised Learning with Generative Adversarial Networks
- speech recognition with deep recurrent neural networks-论文笔记
- 论文笔记系列-Neural Architecture Search With Reinforcement Learning
- 论文笔记:Aligning where to see and what to tell: image caption with region-based attention ...
- 论文笔记:Learning Social Image Embedding with Deep Multimodal Attention Networks
- 论文笔记:Towards perspective-free object counting with deep learning
- 论文《From Facial Parts Responses to Face Detection: A Deep Learning Approach》笔记
- 论文笔记之:Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic
- 论文笔记:MDPTracking,Learning to Track: Online Multi-Object Tracking by Decision Making