(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(二)

来源: AINLPer 微信公众号(每日更新...
编辑: ShuYini
校稿: ShuYini
时间: 2020-03-18

引言: 本次整理的论文主要偏向于Open-Domain QA,其中主要涉及到混合注意力方法预训练模型分析BERT预训练模型优化QA数据集问答跳转等。

本次论文获取方式
1、百度云链接,提取码:a2cz
2、关注AINLPer 微信公众号(每日更新...)回复:QA002

1、TILE: Compositional De-Attention Networks
Author: Yi Tay,Anh Tuan Luu,Aston Zhang,Shuohang Wang,Siu Cheung Hui
Paper:http://papers.nips.cc/paper/8845-compositional-de-attention-networks.pdf
Code: https://github.com/vanzytay/NeurIPS2019_CODA
论文简述: 注意力模型的显著特征是它们可以学习相对重要性的能力,即为输入值分配不同的权重。本文提出了一种新的具有复合性质的准注意方法,即在学习表示时,学习某一向量是加,是减还是零。这与普通的注意力形成了强烈的对比,传统的注意力方式只是简单地重新调整输入标记的权重。在六个NLP任务上评估CoDA,即开放域问题回答、检索/排序、自然语言推理、机器翻译、情感分析和text2code生成,得到了比较好的结果。


2、TILE: Language Models as Knowledge Bases?
Author: Fabio Petroni,Tim Rocktäschel,Patrick Lewis,Anton Bakhtin, Yuxiang Wu,Alexander H. Miller,Sebastian Riedel
Paper: https://arxiv.org/pdf/1909.01066v2.pdf
Code: https://github.com/facebookresearch/LAMA
论文简述: 本文深入分析了在一系列最先进的预训练语言模型中已经存在(没有微调)的关系知识。我们发现:(1)在没有微调的情况下,BERT包含了与传统NLP方法相竞争的关系知识,后者可以访问oracle知识;(2)BERT在有监督基线的开放域问题回答上也做得非常好,(3)通过标准语言模型的预训练方法,某些类型的事实知识比其他类型的知识更容易学习。这些模型在不进行任何微调的情况下调用事实知识的能力惊人地强,这表明它们作为无监督的开放域QA系统的潜力。


3、TILE: SpanBERT: Improving Pre-training by Representing and Predicting Spans
Author: Mandar Joshi ,Danqi Chen,Yinhan Liu,Daniel S. Weld,Luke Zettlemoyer,Omer Levy
Paper: https://arxiv.org/pdf/1907.10529v3.pdf
Code: https://github.com/facebookresearch/SpanBERT
论文简述: 本文提出了SpanBERT预训练方法,旨在更好地表示和预测文本的跨度。本文方法通过(1)屏蔽连续的随机跨度,而不是随机Tokens来扩展BERT;(2)训练跨度边界表示来预测屏蔽跨度的全部内容,而不依赖于其中的单个Token表示。实验结果显示SpanBERT始终比BERT和我们更好调优的基线表现更好,在回答问题和共同参考解决等跨度选择任务上取得了巨大的进步。



4、TILE: XQA: A Cross-lingual Open-domain Question Answering Dataset
Author: Jiahua Liu , Yankai Lin , Zhiyuan Liu , Maosong Sun
Paper:https://www.aclweb.org/anthology/P19-1227.pdf
Code: https://github.com/thunlp/XQA
论文简述: 本文构建了一个用于跨语言OpenQA研究的新数据集XQA。它包括英语培训集以及其他八种语言的开发和测试集。此外,还为跨语言OpenQA提供了多个基线系统,包括两个基于机器翻译的方法和一个零距离跨语言方法(多语言BERT)。



5、TILE: Multi-Hop Paragraph Retrieval for Open-Domain Question Answering
Author: Yair Feldman , Ran El-Yaniv
Paper: https://arxiv.org/pdf/1906.06606v1.pdf
Code: https://github.com/yairf11/MUPPET
论文简述: 本文研究的是多跳开放域问答系统。本文提出了一种检索多个支持段落的方法,这些段落嵌套在一个庞大的知识库中,包含了回答给定问题所必需的证据。我们的方法通过形成问题和段落的联合向量表示来迭代检索支持段落。检索是通过考虑知识源中段落的上下文化句子级表示来实现的。本文方法在数据集SQuAD Open和HotpotQA上实现了最好的性能,这两个数据集分别作为我们的单跳和多跳开放域QA基准。




6、TILE: Real-Time Open-Domain Question Answering with Dense-Sparse Phrase Index
Author: Minjoon Seo,Jinhyuk Lee,Tom Kwiatkowski,Ankur P. Parikh,Ali Farhadi,Hannaneh Hajishirzi
Paper: https://arxiv.org/pdf/1906.05807v2.pdf
Code: https://github.com/uwnlp/denspi
论文简述: 现有的开放问答(OpenDomain QA)模型不适合实时使用,因为它们需要为每个输入请求按需处理多个长文档。在本文中,提出了一种与文档短语的查询无关的可索引表示,它可以极大地提高开放QA的速度。除此之外,本文密集-稀疏短语编码有效地捕获短语的语法、语义和词汇信息,消除了上下文文档的管道过滤。



7、TILE:DC-BERT: Decoupling Question and Document for Efficient Contextual Encoding
Author: Yuyu Zhang,Ping Nie,Xiubo Geng,Arun Ramamurthy,Le Song,Daxin Jiang
Paper: https://arxiv.org/pdf/2002.12591v1.pdf
Code: None
论文简述: 针对开放域问题回答的研究,使用预先训练的语言模型(如BERT)实现了显著的性能改进。最先进的方法通常遵循“检索和读取”管道,并使用基于BERT的reranker来过滤检索到的文档,然后再将它们提供给阅读器模块。BERT检索器将问题的串联和检索到的每个文档作为输入。尽管这些方法在QA准确性方面取得了成功,但是由于连接的原因,每个问题都包含大量检索到的文档,它们几乎不能处理大量输入的问题。为了解决效率问题,本文提出了一个解耦的上下文编码框架DC-BERT,它具有双重BERT模型:一个在线的BERT只对问题进行一次编码,一个离线的BERT对所有文档进行预编码并缓存它们的编码。



8、TILE: REALM: Retrieval-Augmented Language Model Pre-Training
Author: Kelvin Guu,Kenton Lee,Zora Tung,Panupong Pasupat,Ming-Wei Chang
Paper: https://arxiv.org/pdf/2002.08909v1.pdf
Code: None
论文简述: 语言模型的预训练已经被证明能够获取大量的知识,这对于NLP任务(如回答问题)是至关重要的。然而,这些知识隐含在神经网络的参数中,需要更大的网络来覆盖更多的事实。为了以更模块化和可解释性的方式捕获知识,我们在语言模型预训练中增加了一个潜在的知识检索器,该检索器允许模型从一个大型语料库(如Wikipedia)中检索和处理文档,用于预训练、微调和推理。我们展示了如何以一种无监督的方式预先训练这样一个知识检索器,使用掩蔽语言建模作为学习信号,并通过一个考虑数百万文档的检索步骤进行反向传播。通过对具有挑战性的开放式问题回答(Open-domain Question answer, Open-QA)任务进行微调,我们证明了检索增强语言模型预训练(REALM)的有效性。



Attention

更多自然语言处理相关知识,还请关注AINLPer公众号,极品干货即刻送达。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342

推荐阅读更多精彩内容