您的位置:首页 > 其它

[EMNLP2015]A Neural Attention Model for Sentence Summarization

2017-09-10 09:59 507 查看
图片的高明之处就是形象地说明摘要的效果。压缩后的句子的每一个词对应原句子的哪些词。



关于句子摘要目前有两种方法:extractive summarization 和abstractive summarization

每种方法的特点以及以往的做法:

extractive summarization:crop out and stitch together, deletion-based sentence compression techniques

abstractive summarization:linguistically-inspired constraints, syntactic transformations

本文是基于abstractive summarization,目前关于这种模型的方法还存在很多挑战,本文试图给出一种解决方案。该paper并没有借助语言的或句法的信息,是完全的一种data-driver. 另外encoder和generation model是联合训练的。



好的论文阅读理解:

https://zhuanlan.zhihu.com/p/26906764
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  paper
相关文章推荐