论文-A Self-Attention Joint Model for Spoken Language Understanding in Situational Dialog Applications

1. 简称

论文《A Self-Attention Joint Model for Spoken Language Understanding in Situational Dialog Applications》,作者Mengyang Chen(ByteDance Corporation, China),经典的NLU论文(Semantic Frame)

2. 摘要

3. 引言

口语理解(SLU)是面向目标的对话系统中的重要组成部分。它通常涉及识别说话者的意图并从用户话语中提取语义槽位,这被称为意图检测(ID)和空位填充(SF)。表I展示了一个来自航空旅行信息系统(ATIS)语料库的示例。近年来,人们对SLU问题进行了深入研究。但是,这些方法只是在语法上限制了SF结果,独立地解决了ID和SF,或者没有充分利用两个任务的相互影响。本文提出了一个具有条件随机场(CRF)层和先验掩码的多头自注意力模型。实验表明,与最新模型相比,我们模型的有效性。同时,最近几年中国的在线教育取得了长足的进步。但是,很少有用于学生学习外语的智能教育对话应用程序。因此,我们设计了一个智能对话机器人,该机器人配备了不同的场景设置,可以帮助学生学习交流技能。

我们提出了一个联合模型,该模型使用多头局部自注意来提取共享特征,使用掩码门控机制来探索输出的相关性,并使用CRF来约束SF输出,以完美地解决该问题。

4. 核心

我们在本节中介绍我们的模型,概述为图一。第一层将输入序列X={x_k}映射成向量,通过把词级别嵌入{e_k^w}和从BI-LSTM中获取字级别的嵌入e_k^c连接起来。其中k是序列中单词索引。由于上下文信息(尤其是相邻单词)在序列标记中很有用,因此我们采用多头局部自注意来提取上下文感知特征{c_k^e}。局部上下文特征是H=(h_{k-1},...,h_k,...h_{k+w})和注意力输出计算公式为:

a=softmax(W_{km1}tanh(W_{km2}H))\tag{1}
c_k^e=aH\tag{2}

其中W_{km1}W_{km2}是用于第k个词和第m个头的局部自注意力的第一层和第二层权重。Bi-LSTM层产生{h_k},将其用于使用多层完全连接分类器对意图y^I进行分类。

y^I=softmax(W^Ih_n+b^I)\tag{3}

在训练期间使用了交叉熵损失,并且意图标签对应于在预测期间给出最高概率的索引。

隐藏状态也被发送到类似的多头本地自我关注结构以生成{c_k^h}。由于在不同意图下的槽分布是不同的,我们采用一个先验掩码,它是一个由意图P(y_k^s|y^I)给出槽的条件概率分布。我们将掩码和意图输出相乘,将结果与{c_k^h}连接起来,最后放入一个CRF层去获取受约束的槽结果Y^s={y_k^s},我们把P当做注意力的输出矩阵的得分。P_{k,y_k^s}表示第k个词的y_k^s标签的得分,我们定义得分函数为:

s(X,Y^s)=\sum_{k=0}^nA_{y_k^s,y_{k+1}^s}+\sum_{k=1}^nP_{k,y_k^s}\tag{4}

所有可能的标签序列上的softmax产生序列Y^s的概率。我们在训练过程中最大化正确标签序列的对数概率。解码时,对得分最高的输出序列进行预测。

5. 实验

为了评估所提出模型的效率,我们对ATIS和Snips数据集进行了实验,这些数据集被广泛用作SLU研究的基准。 ATIS包含预订机票的人的录音。片段是从个人语音助手收集的。插槽填充任务的性能由F1分数衡量,而意图检测任务则以预测精度进行评估。表II中列出了针对其他方法的模型结果。与最新方法相比,我们的方法在两个数据集上的ID分别提高了0.14%和0.49%,在SF中分别提高了0.02%和0.04%。

6. 实际应用

在过去的很长一段时间里,非英语母语的学生在语法或阅读理解上花费了太多的时间,以至于他们要么专注于言语影子,要么专注于简单的对话,而没有复杂的对话状态跟踪,从而不能帮助学生流利地表达和处理复杂场景下的对话。

为了帮助K12学生更好地处理旅行、购物和点餐等现实场景,我们设计了一个对话应用程序。该框架实际上是一个标准的面向目标的对话系统,如图4所示。首先,Agent采用前面讨论的SLU方法来分析学生的意图和槽值。其次,利用基于规则的对话跟踪技术记录会话状态变化,并做出相应的动作。最后,使用预定义的模板生成响应。

由于本文讨论的主题是SLU,为了方便起见,我们去掉了ASR和TTS模块,使用了一个简化的版本(实际使用的是百度语音API)。

图2显示了一个购物示例,图3是DST的伪代码和决策逻辑。

当学生不知道如何回应时,可以通过在APP中选择“帮助”来获取提示。

7. EVIDENCE OF POTENTIAL IMPACTS

教育是全世界人民都非常重视的领域。

相关研究表明,中国只有四分之一的学生可以进入本科学习,这远远少于发达国家。幸运的是,在过去的几年里,教育行业取得了很大的进步。2013年以来,中国K12市场规模增速保持在30%以上。然而,由于巨大的租金和教师工资成本,传统公司遇到了利润问题。他们将重点转向在线教育方案,其中CR4(四家公司集中率)低于5%,目前还没有大型公司存在。此外,中国还制定了政府计划,鼓励新兴市场力量进入这一领域。对于父母来说,他们高度重视英语学习,并愿意为加强孩子的口语和听力技能买单。然而,流行的应用,如VIPKID,主要集中在语音阴影上,不能完全满足他们的需求。事实上,学习外语的核心目标是在日常对话中流利地说和听。

只有几家公司专注于情景对话,他们只使用简单的逻辑来跟踪对话状态。换句话说,如果没有预定义的用户话语,对话将无法继续。学生们可能会对这样的模式感到厌倦。基于我们的方法设计的会话机器人提供了更大的交谈自由度,并跟踪不同意图和槽值之间的对话状态转换。

我们从北京当地中小学抽取了50名K12学生,进行了一项用户研究。他们中的大多数人认为这种模式很新鲜,并表现出极大的热情继续与机器人交谈。

这款应用目前正在进行内部测试,稍后将发布。

8. 概述

在本文中,我们提出了SLU任务的联合学习模型。执行局部自我注意和嵌入以提取句子特征,将其发送到双向LSTM以捕获单词之间的关系。然后,使用共享特征在面罩门控机制中执行意图分类和缝隙填充任务。此外,我们应用了CRF层来约束时隙的输出并获得合理的结果。我们还基于提出的SLU方法,基于规则的跟踪技能和基于模板的语言生成技能,设计了一种教育性APP,以帮助学生在实践中很好地说和听。此外,我们建立了几个常见场景对话的数据集。我们将继续扩大数据集并在以后发布。

9. 重点论文

  • Zhang, Xiaodong, and Houfeng Wang. "A Joint Model of Intent Determination and Slot Filling for Spoken Language Understanding." IJCAI. 2016.
  • Liu, Bing, and Ian Lane. "Attention-based recurrent neural network models for joint intent detection and slot filling." arXiv preprint arXiv:1609.01454 (2016).
  • Goo, Chih-Wen, et al. "Slot-gated modeling for joint slot filling and intent prediction." Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers). Vol. 2. 2018.
  • Li, Changliang, Liang Li, and Ji Qi. "A Self-Attentive Model with Gate Mechanism for Spoken Language Understanding." Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. 2018.
  • Xu, Puyang, and Ruhi Sarikaya. "Convolutional neural network based triangular crf for joint intent detection and slot filling." 2013 IEEE Workshop on Automatic Speech Recognition and Understanding. IEEE, 2013.

10. 代码编写

# 后续追加代码分析

参考文献

  1. Chen, M., Zeng, J., & Lou, J. (2019). A Self-Attention Joint Model for Spoken Language Understanding in Situational Dialog Applications. CoRR.
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容