您的位置:首页 > 产品设计 > UI/UE

Generating wikipedia by summarizing long sequences笔记

2020-07-04 17:20 344 查看

Generating wikipedia by summarizing long sequences

we introduce a decoder-only architecture that can scalably attend to very long sequences

一、任务定义

我们将英文维基百科视为一个多文档摘要的监督机器学习任务

  • input :维基百科主题(文章标题)、非维基百科参考文档集合组成
  • output:维基百科文章文本

二、相关工作

input output

作者的最大,说明作者可以输入很多句子,生成很多的句子

所以输入长的短的语料都行, 说明适应性最好?

ROUGE-1 recall score

评价的是重复性??

有的摘要是wiki-clone,即从输入里面直接复制句子。

作者的不是这样,是有转述的。

三、语料库

来源有2:

  • 维基百科文章引用的那些链接。
  • 使用文章部分标题作为查询,从谷歌搜索引擎抓取搜索结果。对于每个查询,我们收集10个结果页面。

四、方法与模型

第一阶段 EXTRACTIVE STAGE

我们首先使用提取摘要粗选输入的一个子集

第二阶段 ABSTRACTIVE STAGE

包括训练一个生成维基百科文本的抽象模型,同时对这种提取进行条件设置。

这个过程是受人类写摘要时的动作的启发

因为人类的总结方式就是:先把重点内容划线,再根据自己的规则总结

模型

LSTM+Attention

Decoder:Transformer+多层attention机制(LMLML)

五、实验结果

在生成维基百科引语的实验中,我们主要从四个方面进行改变:

1.提取方法:SumBasic, TextRank, tf-idf, identity, cheating extractor

2.输入语料库:引文、搜索结果、组合

3.抽象模型输入长度,L:我们尝试100到11000之间的值

4.抽象模型架构:seq2seq-att, T-ED, T-D, T-DMCA

结果:

  • 一般用tf-idf提取
  • 组合的语料最好
  • seq2seq-attention作为基准在这个任务上比Transformer架构做得很差
  • L增大,T-ED结构的性能一直在提高,直到L = 500 - 1000的最佳值,而在L = 2000时无法学习。
  • 会出现自动翻译现象

比较:模板的方式

ROUGE-1应该模板会表现的更好,因为模板不会在input里面出现,摘要的话,只需要从input里面选一些词填入模板形成output,所以output不会与input重合很多,而本文的方法会从input里面挑成段的文本来摘,所以会重复。

疑惑

EXTRACTIVE STAGE的cheating方案是什么

作者是如何与2009年的那篇论文比较的,感觉有点含糊

输入的特殊字符是如何处理的(Figure 4 举的例子里有&符号)

答:embedding

为啥作者16GB的 GPU设备可以训练L = 11000这么大的模型

答:这个设备淘宝4w,应该还挺厉害的

Transformer以及几种attention机制

答:有说法是,Transformer是可以完全替代RNN的

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: