这一期主要介绍两篇个关于seq2seq的论文,这是一个类似于编码-解码的模型,用在对话系统比较多,我对于这一块也是在逐渐了解,这次分享的文章就是关于此类模型的。
1.Topic Aware Neural Response Generation
论文来源:https://arxiv.org/abs/1606.08340
简介:这篇工作通过在seq2seq的基础上添加了一个topic attention,使得decoder在生成对话时更具有topic相关性。
2.Sharp Models on Dull Hardware: Fast and Accurate Neural Machine Translation Decoding on the CPU
论文来源:http://cn.arxiv.org/abs/1705.01991
简介:本文是一篇工程性比较强的工作,来自微软研究院。解码是在 CPU 上做,文中提供了 5 种加速 decoding 的方法,将速度提升了 4.4 倍,而且没有影响准确度。