直播实录 | 非自回归神经机器翻译 + ICLR 2018 论文解读
2018-03-12 00:00
656 查看
本文为 3 月 9 日,香港大学博士生——顾佳涛博士在第 24 期 PhD Talk 中的直播分享实录。在本期 PhD Talk 中,来自香港大学的博士生顾佳涛,向大家介绍了他们在加速神经机器翻译(NMT)方向的一些进展。
本次 Talk 分为三部分:
第一部分以 Google Brain 的 Transformer 为基础,嘉宾简要介绍了一些神经机器翻译的基本知识、主要进展和局限。
第二部分是这期的主要内容,嘉宾以第一作者身份,为大家详细介绍了他们最近在 ICLR 2018 上发表的文章 Non-autoregressive Neural Machine Translation。本文尝试用非自回归的方式改造 Transformer,在性能下降不多的情况下实现 10 倍左右的解码速度。
最后,作为 brainstorming,嘉宾和大家一起探讨了对于非自回归解码几个已经实现或者可能的研究方向和应用。
■ 论文 | Non-Autoregressive Neural Machine Translation■ 链接 | https://www.paperweekly.site/papers/1093■ 作者 | Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. Li, Richard Socher
[b]>>>> 获取完整PPT和视频[/b]关注“PaperWeekly”微信公众号,回复“20180309”获取下载链接。
点击以下标题查看往期实录:
腾讯AI Lab涂兆鹏:如何提升神经网络翻译的忠实度微软亚洲研究院论文解读:GAN在网络特征学习中的应用微软亚洲研究院吴俣:基于动态词表的对话生成研究基于生成模型的事件流研究 + NIPS 2017 论文解读亚马逊高级应用科学家熊元骏:人类行为理解研究进展清华大学冯珺:基于强化学习的关系抽取和文本分类基于双语主题模型的跨语言层次分类体系匹配
*查看更多往期实录,请点击PaperWeekly公众号底部精品栏目菜单。
#榜 单 公 布 #2017年度最值得读的AI论文 | NLP篇 · 评选结果公布2017年度最值得读的AI论文 | CV篇 · 评选结果公布
我是彩蛋
解锁新功能:热门职位推荐!
PaperWeekly小程序升级啦
今日arXiv√猜你喜欢√[b]热门职位√[/b]
找全职找实习都不是问题 解锁方式 1. 识别下方二维码打开小程序2. 用PaperWeekly社区账号进行登陆3. 登陆后即可解锁所有功能
职位发布 请添加小助手微信(pwbot01)进行咨询
长按识别二维码,使用小程序*点击阅读原文即可注册
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。
▽ 点击 | 阅读原文 | 加入社区一起刷论文
本次 Talk 分为三部分:
第一部分以 Google Brain 的 Transformer 为基础,嘉宾简要介绍了一些神经机器翻译的基本知识、主要进展和局限。
第二部分是这期的主要内容,嘉宾以第一作者身份,为大家详细介绍了他们最近在 ICLR 2018 上发表的文章 Non-autoregressive Neural Machine Translation。本文尝试用非自回归的方式改造 Transformer,在性能下降不多的情况下实现 10 倍左右的解码速度。
最后,作为 brainstorming,嘉宾和大家一起探讨了对于非自回归解码几个已经实现或者可能的研究方向和应用。
■ 论文 | Non-Autoregressive Neural Machine Translation■ 链接 | https://www.paperweekly.site/papers/1093■ 作者 | Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. Li, Richard Socher
[b]>>>> 获取完整PPT和视频[/b]关注“PaperWeekly”微信公众号,回复“20180309”获取下载链接。
点击以下标题查看往期实录:
腾讯AI Lab涂兆鹏:如何提升神经网络翻译的忠实度微软亚洲研究院论文解读:GAN在网络特征学习中的应用微软亚洲研究院吴俣:基于动态词表的对话生成研究基于生成模型的事件流研究 + NIPS 2017 论文解读亚马逊高级应用科学家熊元骏:人类行为理解研究进展清华大学冯珺:基于强化学习的关系抽取和文本分类基于双语主题模型的跨语言层次分类体系匹配
*查看更多往期实录,请点击PaperWeekly公众号底部精品栏目菜单。
#榜 单 公 布 #2017年度最值得读的AI论文 | NLP篇 · 评选结果公布2017年度最值得读的AI论文 | CV篇 · 评选结果公布
我是彩蛋
解锁新功能:热门职位推荐!
PaperWeekly小程序升级啦
今日arXiv√猜你喜欢√[b]热门职位√[/b]
找全职找实习都不是问题 解锁方式 1. 识别下方二维码打开小程序2. 用PaperWeekly社区账号进行登陆3. 登陆后即可解锁所有功能
职位发布 请添加小助手微信(pwbot01)进行咨询
长按识别二维码,使用小程序*点击阅读原文即可注册
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。
▽ 点击 | 阅读原文 | 加入社区一起刷论文
相关文章推荐
- 直播实录 | AAAI 2018论文解读:零资源机器翻译的最新进展
- 今晚直播:非自回归神经机器翻译 | PhD Talk #24
- 一次性生成完整句子!Salesforce发布全球首个「全并行」神经翻译系统 | 附ICLR 2018论文
- 直播实录 | 基于生成模型的事件流研究 + NIPS 2017 论文解读
- 香港大学顾佳涛:非自回归神经机器翻译 | 直播预告
- 关于注意力机制(attention mechanism)在神经机器翻译领域的两篇论文的理解
- [持续更新] 神经机器翻译论文汇总 Papers on Neural Machine Translation
- 机器阅读理解 / 知识库 / 深度学习 / 对话系统 / 神经机器翻译 | 本周值得读
- 开源 | 哈佛大学NLP组开源神经机器翻译工具包OpenNMT:已达到生产可用水平
- 融合统计机器翻译特征的蒙汉神经网络机器翻译技术
- AAAI 2018论文解读 | 基于置信度的知识图谱表示学习框架
- 今晚直播 | 腾讯AI Lab涂兆鹏:如何提升神经网络翻译的忠实度
- 机器学习基础 维基翻译 保序回归 随机森林 Pipeline处理 及简单的sklearn例子
- CMU & Facebook论文解读 | 非局部神经网络(附代码实现)
- 神经机器翻译中语言学知识的引入
- 解读DeepMind的论文“教会机器阅读和理解”
- 神经网络机器翻译总结
- 神经网络机器翻译Neural Machine Translation: Attention Mechanism
- 一窥谷歌神经机器翻译模型真面貌 其底层框架开源
- 神经机器翻译中的领域自适应问题 Domain adaptation for NMT