LLM系列论文阅读(1)

论文信息

论文题目:Instructed Language Models with Retrievers Are Powerful Entity Linkers
论文原文:arxiv.org/pdf/2311.03250.pdf

摘要

LLM的生成能力已经被证明了能够解决复杂推理的任务中。然而,LLM存在幻觉现象,因此不适合以实体为中心的任务,如实体链接(EL),比如需要在一个大型知识库上进行精确的实体预测这样的任务。为此,我们提出了Instructed Language Models with Retrievers Are Powerful Entity Linkers(INSGENEL),这是一种可以使casual language models依托知识库来执行实体链接的模型。使休闲语言模型能够通过知识库执行实体链接。本文提出的模型主要有以下改进点。第一,借助指令微调对模型进行SeqSeq训练,使其适应EL目标。第二,一种新的生成式EL框架,基于一个轻量级的潜在提及检索器,将模型从重的和非并行的解码中解放出来,实现4×推理加速。此外,我们发现 EL任务仍然是LLM的一个性能瓶颈。

介绍

  • 实体链接(EL)是 NLP 和IR领域的一个基本的研究问题,它作为一个基本任务在各种NLP任务中出现。以前的EL方法通常分为两个步骤:提及检测(MD)和实体消歧(ED)。一旦进入MD模型生成实体提及,那么ED模块将实体提及上下文和候选实体编码为表示。然后使用一个简单的最大内积搜索(MIPS)来捕获提及-实体的对应关系,从而产生对整个知识库(KB)的最终实体预测。EL研究最近的一个趋势是建立一个端到端管道,将MD和ED连接起来,并将它们制定成不同的任务,如问答、多任务学习和语言生成。
  • 虽然生成式大型语言模型(LLMs)在许多NLP任务中显示出优秀的能力,但在以实体为中心的NLP任务领域,尤其是EL。不同于许多可以很容易地统一到Text2Text框架的知识语言基础任务,EL任务的困难在于由于LLM的臭名昭著的幻觉问题,无约束的生成经常无法产生精确的实体标识符。在这项工作中,我们通过提出三种变体来重新审视生成性EL:INSGENEL,INSGENEL-R, INSGENEL-ICL。
  • INSGENEL通过利用一种约束下一个可能的token的方法来解决EL的问题,并在生成过程中消除了无效的选项,从而确保生成的文本可以成功地解析为EL结果。我们通过指令微调方法优化CLM。实验结论证明了指令微调可以在预先训练好的语言模型中解锁特定的实体相关知识。此外,该方法在训练计算效率和数据效率方面都有显著提高,表明基础语言模型可以有效降低针对特定任务目标的学习难度。
  • 然而,在推理过程中,直接生成序列会产生显著的计算开销,因为内存占用和计算都随着序列长度的增加而增加,更不用说自回归解码的非并行性了。为了解决这些挑战,我们将提及检测(MD)的责任转移给外部检索器。对于每个文档,外部检索器会选择可能存在于文档中的前k个实体,并构造一个可能的提及集。然后,匹配过程动态地确定了在生成过程中需要进行决策的范围。最后,只有在需要选择时才使用贪婪解码。
  • 这种新颖的EL生成框架名为INSGENEL-R,具有几个关键优势: a)与约束波束搜索相比,它以简单的向量检索为代价,显著减少了大量正向生成的数量。b)它不会出现生成不可能的提及的问题,从而减少了推理计算。c)它不太可能遗漏明显的提及,而传统的生成式EL在生成提及边界时容易出错。此外,我们以上下文学习(ICL)的方式扩展了同一只LM的使用,比较结果表明,虽然通用的LLM可以通过上下文学习正确地坚持样本的格式,但它们无法匹配INSGENEL-R所表现出的相同的准确性。

方法

原始任务建模

  • 原始的EL生成式模型将实体链接作为自回归序列生成任务,也就是说,给定文档,生成的序列应该表示提到和它们相关的KB实体。训练设置通常遵循一个标准的SeqSeq的任务形式。
f INSGENEL-R with greedy decoding strategy概述,每个带有灰色背景的方框表示一个生成代理决策,虚线箭头表示一个废弃的解码路径。

指令微调的INSGENEL的基线

  • 我们的基线集中于指令调优一个decoder-only的CLM模型。提示部分包括一个可选的自然语言任务指令和要链接的文档。目标序列包括以其纯文本形式存在的链接文档,且带有特殊的边界符号,表示提及和相应的实体标签。我们使用交叉熵损失,Loss定义为CLM的下一个token预测的损失:


检索增强的生成EL:INSGENEL-R

  • 给定一个文档块x∈X,我们希望构建一个双编码器,检索前k候选实体{e1,e2,e3,…,ek}这可能在x中提到。检索器计算文档表示Xp和实体表示Ee,如下:
  • 其中,BERTP和BERTE是两个不共享权重的BERT文本编码器,[CLS]和[SEP]是BERT特殊令牌。ϕtitle(e)和ϕdesc(e)分别是一个实体e的文本标识符和文本描述.

  • 在模型训练中,我们准备了一个文档块x和一组在x中提到的ϗ实体E (x)∈E。我们训练模型要最大化以下目标:


  • 在推理过程中,实体表示Ee被缓存到Faiss索引中,以允许快速的顶部k检索。对于检索到的实体,我们通过查找一个entity2mention字典来构造一组可能的提及。图1的右上角说明了一组可能提到的示例。几个不同的实体可以对应于同一个提及字符串。

  • 然后,我们在一个可能的提及集和文档文本之间运行字符串匹配。文档文本中任何匹配可能提到的部分都被标记为决策要求。每个决策所需的跨度包括开始和结束索引,以及可能在跨度内的提及。

  • 在引导实体链接生成阶段,生成代理将根据其当前状态确定下一个操作:

  1. 基于决策需要的跨度:与3.1中的一般的生成EL模型不同,INSGENEL-R只需要在超出决策需要的跨度时直接复制下一个令牌。
  2. 在决策要求的跨度的开始时: INSGENEL-R必须决定在决策要求的跨度内何时开始提及。这是通过比较下一个文档标记和提到开始边界标记的日志概率来实现的。
  3. 在决策需要考虑的跨度的提到部分:一旦开始提到,如果这个跨度只有一个可能的提到,agent将直接复制这个提到(如图中天蓝色字体的“Steve”的情况)。如果没有,就会决定在这个范围内选择哪个,也就是受到动态生成的前缀树的约束,该树覆盖了跨度中的所有提到选择。
  4. 在决策要求跨度的实体部分中:一旦一个跨度完成了对提及的解码,代理将继续解码实体标识符部分。与提到部分的解码类似,如果只有一个实体与解码的提到相关联,代理将直接复制这个候选实体(例如图1中使用斜体字体的“SteveJobs”)。否则,代理将动态构造一个包含关联实体的前缀树来约束实体标识符的生成(如图中斜体中的“Apple”和“AppleInc.”)。
  • 这个过程只包含一个向量检索的成本,这使得INSGENEL-R对生成模型的调用减少了90%,不再依赖于一个庞大的、预定义的前缀树。由于检索过程考虑了实体描述,因此它减轻了生成式EL范式固有的挑战,即区分具有相似标识符的实体。

INSGENEL-ICL: In-Context Learning Entity Linking Paradigm

  • 使用大型语言模型(LLMs)的上下文学习(ICL)在许多NLP任务中都表现出了很强的zero-shot和few-shot性能。然而,将ICL直接应用于实体链接(EL)是困难的,这主要是由于上下文窗口大小的限制,使得生成模型无法直接访问大量的候选实体标识符。尽管如此,我们配备了一个训练好的检索器,我们将EL任务压缩为一个高级机器阅读理解(MRC)问题:给定潜在的实体和文档,LLM需要从文档中选择提及的跨度和各自的实体。
  • INSGENEL-ICL范式从一个固定的范例和任务指令开始,这两者都作为上下文演示输入给LLM。任务指令提示词经过迭代改进,集成了著名的提示工程技术,如坏添加样例样本,并利用了自动提示优化技巧优化prompt。
  • 值得注意的是,每个预测的最终结果都与一个正则表达式匹配;为了防止由于同一文档中出现多个相同的字符串而解析失败,我们要求模型不仅输出范例中提到的文本,还输出周围的上下文以实现精确的跨度匹配。

实验结果

InKB Micro F1在八个流行的测试集上。对于每个数据集,粗体表示最佳模型,下划线表示第二个最佳模型。使用∗的度量表示该模型在AIDA-CoNLL训练集上训练,而我们的方法没有使用任何域内训练集。-表示,作者既没有报告某些测试集上的度量,也没有发布他们的代码和检查点。
InKB Micro F1报告了选定的四个测试集。在最后一行中列出了INSGENEL-R的指标,以便进行直接比较。
INSGENEL-R的k对K50测试集的检索覆盖率和性能影响。
训练数据的相对大小、训练计算量和EL性能的比较。选定的作品都是用V100进行训练的,因此他们的训练GPU小时数是具有可比性的。图例中的字母“G”和“D”分别代表生成性和区别性
不同基座模型的性能比较。
在K50测试集上的运行时性能基准测试。
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,921评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,635评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,393评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,836评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,833评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,685评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,043评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,694评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,671评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,670评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,779评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,424评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,027评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,984评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,214评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,108评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,517评论 2 343

推荐阅读更多精彩内容