您的位置:首页 > 其它

注意力机制

2018-08-29 19:18 211 查看

1: self Attention比传统的Attention mechanism效果要好,主要原因之一是,传统的Attention机制忽略了源端或目标端句子中词与词之间的依赖关系,相对比,self Attention可以不仅可以得到源端与目标端词与词之间的依赖关系,同时还可以有效获取源端或目标端自身词与词之间的依赖关系。

 

参考博客:

1: https://zhuanlan.zhihu.com/p/31547842知乎专栏

2: https://www.geek-share.com/detail/2721049378.htmlCSDN

阅读更多
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: