采用Attention机制包装的Seq2Seq模型构建英译中翻译器

运行环境

python3.6.3、tensorflow1.10.0
Intel@AIDevCloud:Intel Xeon Gold 6128 processors集群

思路

根据已经给出的中文和英文词汇表以及中文和英文的训练材料,将每句话看作一个时间序列,采用Seq2Seq模型和训练材料进行训练,用attention机制进行包装,最后用一些句子来测试训练好的翻译器的效果。

代码说明

共有六个代码文件,NMTModel.py、NMTModelWithAttention.py、train.py、translate.py、makeData.py和SentenceTool.py。其中NMTModel.py和NMTModelWithAttention.py分别是不带注意力机制的和带注意力机制的Seq2Seq模型的定义,train.py是训练的程序,translate.py是用来根据训练好的模型翻译给定的文本文件的,后面两个都是工具函数,makeData.py是用来从训练材料中提取数据并进行处理的,SentenceTool.py是用来用来实现词汇表和实际语言之间的转换的工具。

源代码

NMTModel.py
# -*- coding: UTF-8 -*-
#Author:Yinli

import tensorflow as tf

'''
定义不带注意力机制的Seq2Seq模型
编码解码都由两层的LSTM模型组成
'''

# 定义相关参数
# LSTM的隐藏层规模
HIDDEN_SIZE = 1024
# LSTM的层数
NUM_LAYERS = 2
# 英文词汇表的大小
SRC_VOCAB_SIZE = 10000
# 中文词汇表的大小
TRG_VOCAB_SIZE = 4000
# dropout层保留的概率
KEEP_PROB = 0.8
# 控制梯度膨胀的梯度大小上限
MAX_GRAD_NORM = 5
# 共享softmax层和词向量层之间的参数
SHARE_EMB_AND_SOFTMAX = True
# 句首和句末的标志
SOS_ID = 1
EOS_ID = 2

# 模型类定义
# 共定义了三个函数,一个初始函数
# 一个前向传播定义训练过程的函数
# 还有一个预测函数
class NMTModel(object):
    # 初始化模型
    def __init__(self):
        # 定义编码器和解码器的LSTM结构
        self.enc_cell = tf.nn.rnn_cell.MultiRNNCell(
            [tf.nn.rnn_cell.BasicLSTMCell(HIDDEN_SIZE) for _ in range(NUM_LAYERS)]
        )
        self.dec_cell = tf.nn.rnn_cell.MultiRNNCell(
            [tf.nn.rnn_cell.BasicLSTMCell(HIDDEN_SIZE) for _ in range(NUM_LAYERS)]
        )

        # 定义两种语言的词向量层
        self.src_embedding = tf.get_variable("src_emb", [SRC_VOCAB_SIZE, HIDDEN_SIZE])
        self.trg_embedding = tf.get_variable("trg_emb", [TRG_VOCAB_SIZE, HIDDEN_SIZE])

        # 如果共享参数则用词向量层的参数初始化softmax层的参数
        if SHARE_EMB_AND_SOFTMAX:
            self.softmax_weight = tf.transpose(self.trg_embedding)
        else:
            self.softmax_weight = tf.get_variable("weight", [HIDDEN_SIZE, TRG_VOCAB_SIZE])
        # 初始化softmax的bias参数
        self.softmax_bias = tf.get_variable("softmax_bias", [TRG_VOCAB_SIZE])

    # 定义模型的前向计算
    def forward(self, src_input, src_size, trg_input, trg_label, trg_size):
        # 获取batch的大小
        batch_size = tf.shape(src_input)[0]

        # 分别将输入和输出转化为词向量
        src_emb = tf.nn.embedding_lookup(self.src_embedding, src_input)
        trg_emb = tf.nn.embedding_lookup(self.trg_embedding, trg_input)

        # 对输入和输出的词向量进行dropout
        src_emb = tf.nn.dropout(src_emb,KEEP_PROB)
        trg_emb = tf.nn.dropout(trg_emb, KEEP_PROB)

        # 用dynamic_rnn定义编码器,输出编码器的每一步输出和最后一步的隐藏状态
        with tf.variable_scope("encoder"):
            enc_outputs, enc_state = tf.nn.dynamic_rnn(self.enc_cell, src_emb, src_size, dtype=tf.float32)

        # 用dynamic_rnn定义解码器,输出解码器的每一步输出
        # 用编码器的最后一步状态来初始解码器的初始状态
        with tf.variable_scope("decoder"):
            dec_outputs, _ = tf.nn.dynamic_rnn(self.dec_cell, trg_emb, trg_size, initial_state=enc_state)

        # 计算解码器每一步的log perplexity
        output = tf.reshape(dec_outputs, [-1, HIDDEN_SIZE])
        logits = tf.matmul(output, self.softmax_weight) + self.softmax_bias
        loss = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=tf.reshape(trg_label,[-1]), logits=logits)

        # 计算平均损失,注意在计算的时候需要将填充的位置设定为0
        label_weights = tf.sequence_mask(trg_size, maxlen=tf.shape(trg_label)[1], dtype=tf.float32)
        label_weights = tf.reshape(label_weights, [-1])
        cost = tf.reduce_sum(loss * label_weights)
        cost_per_token = cost / tf.reduce_sum(label_weights)

        # 获取可训练的参数
        trainable_variables = tf.trainable_variables()

        # 定义反向传播操作、优化步骤和训练步骤
        grads = tf.gradients(cost / tf.to_float(batch_size), trainable_variables)
        grads, _ = tf.clip_by_global_norm(grads, MAX_GRAD_NORM)
        optimizer = tf.train.GradientDescentOptimizer(learning_rate=1.0)
        train_op = optimizer.apply_gradients(zip(grads, trainable_variables))

        # 返回平均损失和训练步骤
        return cost_per_token, train_op

    # 定义预测函数
    def inference(self, src_input):
        # 整理输入,将其转化为一个batch大小为1的batch,并转化为对应的词向量
        src_size = tf.convert_to_tensor([len(src_input)], dtype=tf.int32)
        src_input = tf.convert_to_tensor([src_input], dtype=tf.int32)
        src_emb = tf.nn.embedding_lookup(self.src_embedding, src_input)

        # 定义编码器
        with tf.variable_scope("encoder"):
            enc_outputs, enc_state = tf.nn.dynamic_rnn(self.enc_cell, src_emb, src_size, dtype=tf.float32)

        # 定义解码的最大步骤避免无限循环
        MAX_DEC_LEN = 100

        # 和训练过程不同,需要另外定义解码过程
        with tf.variable_scope("decoder/rnn/multi_rnn_cell"):
            # 初始化生成的句子,用SOS_ID开头
            init_array = tf.TensorArray(dtype=tf.int32, size=0, dynamic_size=True, clear_after_read=False)
            init_array= init_array.write(0, SOS_ID)
            # 初始循环状态以及循环步数
            init_loop_var = (enc_state, init_array, 0)

            # 定义循环结束条件
            def continue_loop_condition(state, trg_ids, step):
                # 如果遍历到了句子结尾或者比定义的最大步骤大就停止循环
                return tf.reduce_all(tf.logical_and(
                    tf.not_equal(trg_ids.read(step), EOS_ID),
                    tf.less(step, MAX_DEC_LEN-1)
                ))

            # 定义循环体
            def loop_body(state,trg_ids, step):
                # 读取最后一步输出的单词并读取其对应的词向量
                trg_input = [trg_ids.read(step)]
                trg_emb = tf.nn.embedding_lookup(self.trg_embedding, trg_input)
                # 调用dec_cell计算下一步的结果
                dec_outputs, next_state = self.dec_cell.call(state=state, inputs=trg_emb)
                # 计算结果对应的softmax层结果
                output = tf.reshape(dec_outputs, [-1, HIDDEN_SIZE])
                logits = (tf.matmul(output, self.softmax_weight) + self.softmax_bias)
                # 根据logits结果求得可能性最大的单词
                next_id = tf.argmax(logits, axis=1, output_type=tf.int32)
                # 将当前计算出来的单词结果写入trg_ids
                trg_ids = trg_ids.write(step+1, next_id[0])
                return next_state, trg_ids, step+1

            # 调用tf.while_loop,返回最终结果即trg_ids
            state, trg_ids, step = tf.while_loop(continue_loop_condition, loop_body, init_loop_var)
            # 返回trg_ids里的值
            return trg_ids.stack()
NMTModelWithAttention.py
# -*- coding: UTF-8 -*-
#Author:Yinli

import tensorflow as tf

'''
用注意力机制包装的Seq2Seq模型
'''

# 定义相关参数
# LSTM的隐藏层规模
HIDDEN_SIZE = 1024
# LSTM的层数
NUM_LAYERS = 2
# 英文词汇表的大小
SRC_VOCAB_SIZE = 10000
# 中文词汇表的大小
TRG_VOCAB_SIZE = 4000
# dropout层保留的概率
KEEP_PROB = 0.8
# 控制梯度膨胀的梯度大小上限
MAX_GRAD_NORM = 5
# 共享softmax层和词向量层之间的参数
SHARE_EMB_AND_SOFTMAX = True
# 句首和句末的标志
SOS_ID = 1
EOS_ID = 2

class NMTModelWithAttention(object):
    def __init__(self):

        # 构造双向循环的网络结构
        self.enc_cell_fw = tf.nn.rnn_cell.BasicLSTMCell(HIDDEN_SIZE)
        self.enc_cell_bw = tf.nn.rnn_cell.BasicLSTMCell(HIDDEN_SIZE)
        # 定义解码器
        self.dec_cell = tf.nn.rnn_cell.MultiRNNCell(
            [tf.nn.rnn_cell.BasicLSTMCell(HIDDEN_SIZE) for _ in range(NUM_LAYERS)]
        )

        # 定义两种语言的词向量层
        self.src_embedding = tf.get_variable("src_emb", [SRC_VOCAB_SIZE, HIDDEN_SIZE])
        self.trg_embedding = tf.get_variable("trg_emb", [TRG_VOCAB_SIZE, HIDDEN_SIZE])

        # 如果共享参数则用词向量层的参数初始化softmax层的参数
        if SHARE_EMB_AND_SOFTMAX:
            self.softmax_weight = tf.transpose(self.trg_embedding)
        else:
            self.softmax_weight = tf.get_variable("weight", [HIDDEN_SIZE, TRG_VOCAB_SIZE])
        # 初始化softmax的bias参数
        self.softmax_bias = tf.get_variable("softmax_bias", [TRG_VOCAB_SIZE])

    def forward(self, src_input, src_size, trg_input, trg_label, trg_size):
        # 获取batch的大小
        batch_size = tf.shape(src_input)[0]

        # 分别将输入和输出转化为词向量
        src_emb = tf.nn.embedding_lookup(self.src_embedding, src_input)
        trg_emb = tf.nn.embedding_lookup(self.trg_embedding, trg_input)

        # 对输入和输出的词向量进行dropout
        src_emb = tf.nn.dropout(src_emb, KEEP_PROB)
        trg_emb = tf.nn.dropout(trg_emb, KEEP_PROB)

        # 构造编码器,使用bidirectional_dynamic_rnn构造双向循环网络
        with tf.variable_scope("encoder"):
            enc_outputs, enc_state = tf.nn.bidirectional_dynamic_rnn(
                self.enc_cell_fw, self.enc_cell_bw, src_emb, src_size, dtype=tf.float32
            )
            # 将两个LSTM的输出拼接为一个张量
            enc_outputs = tf.concat([enc_outputs[0], enc_outputs[1]], -1)

        # 构造解码器
        with tf.variable_scope("decoder"):
            # 选择注意力权重的计算模型
            attention_machanism = tf.contrib.seq2seq.BahdanauAttention(
                HIDDEN_SIZE, enc_outputs, memory_sequence_length = src_size
            )
            # 将原来的dec_cell和注意力一起封装成更高层的attention_cell
            attention_cell = tf.contrib.seq2seq.AttentionWrapper(
                self.dec_cell, attention_machanism, attention_layer_size = HIDDEN_SIZE
            )
            # 用dynamic和attention_cell来构造编码器
            dec_outputs, _ = tf.nn.dynamic_rnn(attention_cell, trg_emb, trg_size, dtype=tf.float32)

        # 计算解码器每一步的log perplexity
        output = tf.reshape(dec_outputs, [-1, HIDDEN_SIZE])
        logits = tf.matmul(output, self.softmax_weight) + self.softmax_bias
        loss = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=tf.reshape(trg_label, [-1]), logits=logits)

        # 计算平均损失,注意在计算的时候需要将填充的位置设定为0
        label_weights = tf.sequence_mask(trg_size, maxlen=tf.shape(trg_label)[1], dtype=tf.float32)
        label_weights = tf.reshape(label_weights, [-1])
        cost = tf.reduce_sum(loss * label_weights)
        cost_per_token = cost / tf.reduce_sum(label_weights)

        # 获取可训练的参数
        trainable_variables = tf.trainable_variables()

        # 定义反向传播操作、优化步骤和训练步骤
        grads = tf.gradients(cost / tf.to_float(batch_size), trainable_variables)
        grads, _ = tf.clip_by_global_norm(grads, MAX_GRAD_NORM)
        optimizer = tf.train.GradientDescentOptimizer(learning_rate=1.0)
        train_op = optimizer.apply_gradients(zip(grads, trainable_variables))

        # 返回平均损失和训练步骤
        return cost_per_token, train_op

    def inference(self, src_input):
        # 整理输入,将其转化为一个batch大小为1的batch,并转化为对应的词向量
        src_size = tf.convert_to_tensor([len(src_input)], dtype=tf.int32)
        src_input = tf.convert_to_tensor([src_input], dtype=tf.int32)
        src_emb = tf.nn.embedding_lookup(self.src_embedding, src_input)

        # 定义编码器
        with tf.variable_scope("encoder"):
            enc_outputs, enc_state = tf.nn.bidirectional_dynamic_rnn(
                self.enc_cell_fw, self.enc_cell_bw, src_emb, src_size, dtype=tf.float32
            )
            enc_outputs = tf.concat([enc_outputs[0], enc_outputs[1]], -1)

        # 定义解码器
        with tf.variable_scope("decoder"):
            attention_machanism = tf.contrib.seq2seq.BahdanauAttention(
                HIDDEN_SIZE, enc_outputs, memory_sequence_length = src_size
            )
            attention_cell = tf.contrib.seq2seq.AttentionWrapper(
                self.dec_cell, attention_machanism, attention_layer_size = HIDDEN_SIZE
            )

        # 定义解码的最大步骤避免无限循环
        MAX_DEC_LEN = 100

        # 另外定义解码过程
        with tf.variable_scope("decoder/rnn/attention_wrapper"):
            # 初始化生成的句子,用SOS_ID开头
            init_array = tf.TensorArray(dtype=tf.int32, size=0, dynamic_size=True, clear_after_read=False)
            init_array= init_array.write(0, SOS_ID)
            # 初始循环状态以及循环步数
            init_loop_var = (attention_cell.zero_state(batch_size=1, dtype=tf.float32),init_array, 0)

            # 定义循环结束条件
            def continue_loop_condition(state, trg_ids, step):
                # 如果遍历到了句子结尾或者比定义的最大步骤大就停止循环
                return tf.reduce_all(tf.logical_and(
                    tf.not_equal(trg_ids.read(step), EOS_ID),
                    tf.less(step, MAX_DEC_LEN - 1)
                ))

            # 定义循环体
            def loop_body(state,trg_ids, step):
                # 读取最后一步输出的单词并读取其对应的词向量
                trg_input = [trg_ids.read(step)]
                trg_emb = tf.nn.embedding_lookup(self.trg_embedding, trg_input)
                # 调用包装好的attention_cell计算下一步的结果
                dec_outputs, next_state = attention_cell.call(state=state, inputs=trg_emb)
                # 计算结果对应的softmax层结果
                output = tf.reshape(dec_outputs, [-1, HIDDEN_SIZE])
                logits = (tf.matmul(output, self.softmax_weight) + self.softmax_bias)
                # 根据logits结果求得可能性最大的单词
                next_id = tf.argmax(logits, axis=1, output_type=tf.int32)
                # 将当前计算出来的单词结果写入trg_ids
                trg_ids = trg_ids.write(step + 1, next_id[0])
                return next_state, trg_ids, step + 1

            # 调用tf.while_loop,返回最终结果即trg_ids
            state, trg_ids, step = tf.while_loop(continue_loop_condition, loop_body, init_loop_var)
            # 返回trg_ids里的值
            return trg_ids.stack()
train.py
# -*- coding: UTF-8 -*-
#Author:Yinli

from makeData import *
from NMTModel import NMTModel
from NMTModelWithAttention import NMTModelWithAttention

'''
训练模型
'''

# 定义训练数据文件和模型保存路径
SRC_TRAIN_DATA = "train.en"
TRG_TRAIN_DATA = "train.zh"
# model文件夹装不带注意力机制的模型
# model1文件夹装带注意力机制的模型
# CHECKPOINT_PATH = "model/seq2seq_ckpt"
CHECKPOINT_PATH = "model1/seq2seq_ckpt"

# 定义batch大小和使用训练数据的轮数
BATCH_SIZE = 100
NUM_EPOCH = 5

# 在模型上训练一轮
def run_epoch(session, cost_op, train_op, saver, step):
    while True:
        try:
            # 训练一次得到损失
            cost, _ = session.run([cost_op, train_op])
            # 每十次训练打印一下损失
            if step % 10 == 0:
                print("——————经过%d步之后,每句话的损失为: %.3f" % (step, cost))
            # 每200次训练保存一下模型
            if step % 200 == 0:
                saver.save(session, CHECKPOINT_PATH, global_step = step)
            step += 1
        # 没有数据了则退出循环
        except tf.errors.OutOfRangeError:
            break
    return step

def main():
    # 定义初始化函数
    initializer = tf.random_normal_initializer(-0.05, 0.05)

    # 定义模型
    with tf.variable_scope("nmt_model", reuse=None, initializer=initializer):
        # train_model = NMTModel
        train_model = NMTModelWithAttention()

    # 获取数据集和其iterator
    data = MakeSrcTrgDataset(SRC_TRAIN_DATA, TRG_TRAIN_DATA, BATCH_SIZE)
    iterator = data.make_initializable_iterator()
    (src, src_size), (trg_input, trg_label, trg_size) = iterator.get_next()

    # 定义前向计算图
    cost_op, train_op = train_model.forward(src, src_size, trg_input, trg_label, trg_size)

    # 训练
    saver = tf.train.Saver()
    step = 0
    with tf.Session() as sess:
        # 初始化
        tf.global_variables_initializer().run()
        for i in range(NUM_EPOCH):
            print("第%d次迭代.." % (i+1))
            sess.run(iterator.initializer)
            step = run_epoch(sess, cost_op, train_op, saver, step)

if __name__ == '__main__':
    main()
translate.py
# -*- coding: UTF-8 -*-
#Author:Yinli

import tensorflow as tf
from NMTModel import NMTModel
from NMTModelWithAttention import NMTModelWithAttention
from SentenceTool import *

import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'

'''
用已经训练好的模型将英文文件翻译为中文并输出
'''

# 定义训练好的模型路径、中英文词汇表和要翻译的文件
# model1路径表示带有注意力机制的模型
# model路径表示不带注意力机制的模型
# CHECKPOINT_PATH = "model/seq2seq_ckpt-9000"
CHECKPOINT_PATH = "model1/seq2seq_ckpt-9000"
SRC_VOCAB = "en.vocab"
TRG_VOCAB = "zh.vocab"
SRC_DATA = "English.txt"

# 输入一句用英文的词汇表的序号的形式表示的句子,返回其对应的翻译结果
def translate(src_sentence):
    # 重置计算图
    tf.reset_default_graph()
    # 定义模型
    with tf.variable_scope("nmt_model", reuse=None):
        model = NMTModelWithAttention()
        # model = NMTModel()
    # 定义翻译过程
    output_op = model.inference(src_sentence)
    # 创建对话并得到翻译结果
    sess = tf.Session()
    saver = tf.train.Saver()
    saver.restore(sess, CHECKPOINT_PATH)
    output = sess.run(output_op)
    # 返回翻译结果
    return output

def main():

    print("————————————用了注意力机制的Seq2Seq模型————————————")
    # 将要翻译的文件转化为词汇表的序号的形式
    src_sentences = EnglishToSentence(SRC_DATA, SRC_VOCAB)
    #print(src_sentences)
    print("")
    print("—————————————————————————————————————————————————")
    trg_sentences = []
    # 逐句翻译每句话并保存
    for src_sentence in src_sentences:
        trg_sentence = translate(src_sentence)
        trg_sentences.append(trg_sentence)

    # 将以中文词汇表序号表示的句子转化成中文
    trg_sentences = SentenceToChinese(trg_sentences, TRG_VOCAB)

    #print(trg_sentences)

if __name__ == '__main__':
    main()
makeData.py
# -*- coding: UTF-8 -*-
#Author:Yinli

import tensorflow as tf

'''
从文件中读取数据并进行一系列处理并返回
'''

# 限定每个句子的最大单词数量
MAX_LEN = 50
# 句首标志
SOS_ID = 1

# 从文件路径中读取一个语言的数据
def MakeDataset(file_path):
    # 读取原始数据
    dataset = tf.data.TextLineDataset(file_path)
    # 根据空格将单词编号切分开
    dataset = dataset.map(lambda string: tf.string_split([string]).values)
    # 将单词编号转化为整数
    dataset = dataset.map(lambda string: tf.string_to_number(string,tf.int32))
    # 在每句话后加入此句子的单词数量
    dataset = dataset.map(lambda x: (x, tf.size(x)))
    return dataset

# 从源语言文件和目标语言文件中读取数据并进行填充等一系列整理工作
def MakeSrcTrgDataset(src_path, trg_path, batch_size):
    # 分别读取源语言数据和目标语言数据
    src_data = MakeDataset(src_path)
    trg_data = MakeDataset(trg_path)

    # 整合为一个数据集
    dataset = tf.data.Dataset.zip((src_data, trg_data))

    # 定义长度过滤器,过滤掉空句子和过长的句子
    def FilterLength(src_tuple, trg_tuple):
        # 将dataset的四个tuple分离出来
        ((src_input,src_len), (trg_label, trg_len)) = (src_tuple, trg_tuple)
        # 过滤并返回
        src_len_ok = tf.logical_and(tf.greater(src_len, 1), tf.less_equal(src_len, MAX_LEN))
        trg_len_ok = tf.logical_and(tf.greater(trg_len, 1), tf.less_equal(trg_len, MAX_LEN))
        return tf.logical_and(src_len_ok, trg_len_ok)

    # 使用过滤器过滤
    dataset = dataset.filter(FilterLength)

    # 生成解码器需要形式的输入和输出数据
    # 解码器输入句子trg_input需要以SOS_ID开头
    # 解码器输出句子trg_label不变
    def MakeTrgInput(src_tuple, trg_tuple):
        ((src_input, src_len), (trg_label, trg_len)) = (src_tuple, trg_tuple)
        trg_input = tf.concat([[SOS_ID], trg_label[:-1]], axis=0)
        return ((src_input, src_len), (trg_input, trg_label, trg_len))

    # 将上面的函数map到每行数据上
    dataset = dataset.map(MakeTrgInput)

    # 随机打乱
    dataset = dataset.shuffle(10000)

    # 定义输出数据的维度
    padded_shapes = (
        (tf.TensorShape([None]), tf.TensorShape([])),
        (tf.TensorShape([None]), tf.TensorShape([None]), tf.TensorShape([]))
    )
    batched_dataset = dataset.padded_batch(batch_size, padded_shapes)
    # 返回最终数据
    return batched_dataset
SentenceTool.py
import codecs

'''
用来实现词汇表和实际语言之间的转换的工具
'''

# 将用中文词汇表序号表示的句子数组转化为中文句子
def SentenceToChinese(src_sentences, trg_vocab):

    # 读取词汇表,构造序号和实际词的映射关系
    with codecs.open(trg_vocab, "r", "utf-8") as f_vocab:
        vocab = [w.strip() for w in f_vocab.readlines()]
    id_to_word = {k:v for (k,v) in zip(range(len(vocab)), vocab)}

    # 内部函数,用来获取序号对应的单词
    def get_word(id):
        return id_to_word[id]

    trg_sentences = []
    print("翻译的结果是:")
    # 转化每个句子
    for src_sentence in src_sentences:
        current_sentence = ""
        for id in src_sentence:
            word = get_word(id)
            # 如果不是首和尾则将这个词添加到当前句子中
            if word!="<sos>" and word!="<eos>":
                current_sentence = current_sentence + get_word(id)
        # 打印查看转化结果
        print(current_sentence)
        # 将当前句子添加到要输出的数组中
        trg_sentences.append(current_sentence)
    return trg_sentences

# 将要翻译的文件逐行转化为用英文词汇表序号表示的数组
def EnglishToSentence(src_data, src_vocab):
    # 读取词汇表,构造序号和实际词的映射关系
    with codecs.open(src_vocab, "r", "utf-8") as f_vocab:
        vocab = [w.strip() for w in f_vocab.readlines()]
    word_to_id = {k: v for (k, v) in zip(vocab, range(len(vocab)))}

    # 内部函数,用来获取单词对应的序号
    # 如果不在词汇表内就定义为unknown
    def get_id(word):
        return word_to_id[word] if word in word_to_id else word_to_id["<unk>"]

    # 打开文件
    fin = codecs.open(src_data, "r", "utf-8")
    sentences = []
    print("要翻译的句子是:")
    # 遍历每个句子
    for line in fin:
        # 打印查看每个句子
        print(line,end="")
        # 分词并在末尾加上一个结束标志
        words = line.strip().split() + ["<eos>"]
        # 将每个词转化为对应的序号
        current_sentence = []
        for w in words:
            current_sentence.append(get_id(w))
        # 将当前转化后的数组保存
        sentences.append(current_sentence)
    # 返回数组
    return sentences

运行结果

带注意力的模型在Intel的云上训练结束花了近15个小时,不带注意力的模型在Intel的云上训练结束花了近8个小时,它们的训练均是复用了5次训练数据,得到的最后的模型是训练过9000次的模型,分别用这两个模型来翻译给定的一些英文句子,结果如下:

要翻译的文本文件
需要翻译的文件
不带注意力的模型
不带注意力的模型
带注意力的模型
带注意力机制的模型

结果分析

从翻译结果可以看出来,不管是带注意力机制的还是不带注意力机制的翻译器,对于短句子比如this is a test这样的句子的翻译效果还好,但如果句子结构复杂句子长度长,翻译效果就会大打折扣,因为所用的训练集不大,只有21万个句子对,而且词汇表也不大,英文1w,中文4000,模型的稳健性并不高。
对于带注意力机制的模型和不带注意力机制的模型比较而言,带注意力机制的模型显然翻译效果稍好一筹,但前者比后者的训练复杂度和训练时间都要大。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容