通过学习对齐翻译的神经机器翻译

神经机器翻译是最近提出的机器翻译方法。与传统的统计机器翻译不同,神经机器翻译的目的是建立一个单一的神经网络,可以联合调整,以最大限度地提高翻译性能。最近提出的用于神经机器翻译的模型通常属于编码器 - 解码器族,并且将源语句编码成固定长度向量,解码器从该向量生成翻译。在本文中,我们推测使用固定长度向量是提高这种基本编码器 - 解码器架构的性能的瓶颈。通过允许模型自动(软)搜索与预测目标词相关的部分源语句,而不必明确地将这些部分形成为硬分段的方法解决这个瓶颈。通过这种新的方法,我们取得了与现有的基于短语的系统在英语到法语翻译任务的翻译性能具有可比性的成绩。此外,定性分析揭示了模型发现的(软)对齐对与我们的直觉吻合得很好。

1. 介绍

现有的大部分神经机器翻译模型都是基于编码器-解码器模型。编码器神经网络将源语句读取并编码成固定长度向量。解码器然后从编码向量输出转换。由用于语言对的编码器和解码器组成的整个编码器 - 解码器系统被联合训练以最大化给定源句子的正确翻译的概率。

这种编码器-解码器方法一个潜在的问题就是神经网络必须具备能将有效信息压缩成指定长度向量的能力。这对神经网络处理长句子来说是一个挑战。研究表明,随着句子长度的增加,这种基本的编码器-解码器模型的性能变差得越来越快。

为了解决这个问题,我们在这个编码器-解码器的模型上做了延伸,就是让神经网络联合学习对齐和翻译。每当该模型在翻译中生成单词时,它(软)搜索源语句中集中最相关信息的一组位置。然后,模型基于与这些源位置和所有先前产生的目标字相关联的上下文向量来预测目标字。

该方法与基本编码器 - 解码器的最重要的区别特征在于,它不试图将整个输入语句编码为单个固定长度向量。相反,它将输入句子编码为向量序列,并且在解码翻译时自适应地选择这些向量的子集。这使得神经翻译模型不必将源语句的所有信息压缩成固定长度的向量,而不管其长度如何。我们认为这个模型能更好的处理长句子。

2. 背景

从概率的角度来看,翻译等价于找到最大化给定源句子x的条件概率的目标句子y,即arg maxy p(y | x)。在神经机器翻译中,我们使用参数化模型来使用并行训练语料库来最大化句子对的条件概率。一旦通过翻译模型学习了条件分布,给定源句子,可以通过搜索使条件概率最大化的句子来生成相应的翻译。

2.1 RNN 编码器-解码器

我们简要描述的底层框架,称为RNN编码器 - 解码器,是由Cho等人提出。在这个基础上我们建立一个新的架构,学习同时对齐和翻译。

在编码器 - 解码器框架中,编码器读取输入句子,即向量x =(x1,...,xTx)的序列。最常见的方法是使用RNN, 如下:

ht=f(xt, ht−1)

c=q({h1,···,hTx}),

ht是在t时刻的hidden state, c是从hidden state生成的向量,f和q是一些非线性方程。

这个解码器通常训练为预测基于文本向量c和所有之前预测的词y1~yt'-1的下一个词yt‘。换句话来说,这个解码器通过将联合概率分解为有序条件来定义翻译y上的概率:

p(y) = ??p(yt| {y1,···,yt−1},c)  ??求和符号,底为t=1到T

3. 学习对齐与翻译

在本节中,我们提出了一种用于神经机器翻译的新颖架构。新架构包括作为编码器的双向RNN和在解码翻译期间模拟通过源语句搜索的解码器。

3.1 解码器

在这个模型中,我们定义一个条件概率:

p(yi|y1, . . . , yi−1,x) =g(yi−1, si, ci)

si是RNN在t时刻的hidden state,

si=f(si−1,yi−1,ci).

应当注意,与现有的编码器 - 解码器不同的是,这里概率是基于每个目标字yi的不同的上下文矢量ci为条件。

上下文矢量ci取决于编码器对输入语句进行映射的注释序列(h1,...,hTx)。每个注释hi包含关于整个输入序列的信息,其中强烈关注输入序列的第i个字周围的部分。我们将在下一节详细解释注释的计算方式。

然后,将上下文向量ci计算为这些注释hi的加权和。

3.2 编码器

在一般的RNN中,读取一个输入序列,从第一个到对后一个。然而,在我们的结构中,我们希望annotation不仅可以总结出前面已经翻译过的句子,并且还能处理接下来未翻译的句子。所以,我们提出了双向RNN结构。

一个双向RNN由前向和反向RNN组成。前向RNN读取正常的输入序列,正向计算forward hidden states,反向RNN读取相反的输入序列,反向计算backward hidden states.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,302评论 5 470
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,232评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,337评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,977评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,920评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,194评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,638评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,319评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,455评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,379评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,426评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,106评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,696评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,786评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,996评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,467评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,043评论 2 341

推荐阅读更多精彩内容