基于Attention机制的上下文分类算法在问答系统中的应用

文本分类是自然语言处理中的基础算法,在对话系统的应用中,可利用文本分类算法来判断用户的咨询意图。然而单个问题并不能很好捕获用户的意图,通常需要结合用户上文的咨询结合当句才能更好的判断用户的意图。这里就需要我们建立一个基于上下文的分类模型来结合上文信息判断用户的最终意图。这里常用的方式大概分为两个方式:

        1)非end-2-end建模:首先抽取上文的主题、意图或者关键词,然后结合当前问题建模。

        2)end-2-end建模:通过时序模型,直接抽取上文信息结合当前问题建立模型。

本文主要参考《Hierarchical Attention Networks for Document Classification》,该论文介绍了Attention机制在英文文本分类中的应用。文章采用document级分类,即document由sentence组成,而sentence由word组成,因此天然的具有层级关系。以word为粒度输入网络抽取word级特征得到表示sentence的特征向量;然后将sentence级向量输入网络抽取sentence级特征得到最终的document级特征,然后将document特征通过一个线性表示和softmax。为了给与不同的word和不同的sentence分配不同的权重,论文设计一个层级架构的attention机制用于提升模型的性能。本文设计上下文模型的时候稍作修改,将一个会话中的单句作为第一层输入,然后将第一层各个单句抽取的特征作为第二层会话级的输入,获得最终的会话级特征输出。Attention机制最近火的不要不要,被广泛应用在nlp和图像处理中。这里同样在第一层特征抽取之后,设计了一个Attention层,用于更加精确的抽取句子的特征。但是在会话层特征抽取之后,并没有再设计同样的Attention了,因为在对话系统中,和当前句子越接近句子的重要性越高,因此这里我们之后抽取时序模型的最后输出作为最终的特征。整体算法的设计图如下:

H-LSTM-LSTM算法

LSTM网络在处理中文时,其准确率和速度都要差于CNN网络,因此这里对论文的网络结构进行调整,将第一层的LSTM网络替换为CNN网络。论文中在一层和第二层都加入了Attention机制,但是实验时发现第一层加入Attention效果没有提升,因此Attention只在第二层中使用。整个网络在融合CNN和LSTM之后,整个网络结构已经非常复杂了,而GRU是LSTM的简化版,GRU在语料较少时效果更加,因此这里采用GRU替换第二层网络的LSTM,即有最终的模型H-CNN-GRU网络:

H-CNN-GRU算法

实验步骤

1:本次实验采用单句问题和对应的标签作为输入。实验之前首先对问题按字切词,然后采用word2vec对问题进行预训练(这里采用按字切词的方式避免的切词的麻烦,并且同样能获得较高的准确率)。

2:由于本次实验采用固定长度的GRU/LSTM,因此需要对问题和答案进行截断(过长)或补充(过短)。

3:实验建模Input。本次实验单句问题和标签进行建模(q,l),q代表问题,l代表标签。

4:将问题进行Embedding(batch_size*session_len, sentence_len, embedding_size)表示。

5:对一个batch中所有会话包含的问题采用GRU/LSTM模型计算特征。

      1):这里第一层针对单句问题的特征抽取采用固定长度的句子,尝试过采用双向动态rnn,并没有很好的效果提升,并且相对计算速度慢点。

6:GRU/LSTM模型输出向量为(batch_size, seq_len,rnn_size),因此需要对输出特征向量进行特征抽取。常用的特征抽取方式为取模型最后一步的输出为下一层的特征,但是该特征抽取方式只取了最后一步的特征,丢弃了其他的特征信息,所以本次实验采用Attention机制计算每一步特征的权值,然后进行加权平均。

7:将第一层单句级的特征输出作为第二层会话级encoder的输入。

      1):这里采用动态rnn进行特征抽取,因为每一个session所包含的问题不是固定的。

      2):这里没有用双向的rnn而是采用单向的rnn,并且没有外加attention、avg_pool或者max_pool,因为越靠近当前句子理应越为重要。

7:对模型输出的特征进行线性变换。

8:针对多类文本分类,需要将线性变换的输出通过softmax。

参数设置

1:、这里优化函数采用论文中使用的Adam(尝试过SGD,学习速率0.1,效果不佳)。

2、学习速率为2e-4。

3:、训练60轮。

4、embedding_size为150维。

5、attention为100维。

6、batch_size这里采用128。

7、问题长度限制为60字。

8、rnn_size为201。

9、本次算法每一级特征抽取都只采用了单层,由于计算耗时,没有尝试不同级多级的方式。

10、dropout为0.5(在输入和输出时均执行dropout,单次dropout实验时效果不佳)

:从线上数据的分析结果来看,采用H-CNN-GRU算法在处理上下文场景时能取得不错的效果。

如果有任何疑问,欢迎留言或发送到我的邮箱lirainbow0@163.com

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,723评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,485评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,998评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,323评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,355评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,079评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,389评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,019评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,519评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,971评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,100评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,738评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,293评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,289评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,517评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,547评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,834评论 2 345

推荐阅读更多精彩内容