对命名实体识别任务(NER)进行数据增强,不像对分类任务容易,其主要原因它是序列标注任务,识别是token级别。一些常见的方法,如随机删除或替换...
1、研究出发点 本次分享一篇有关embedding的文章,来自2021年ACL的paper《Modeling Fine-Grained Enti...
Introduction 今天分享一篇来自2021年NIPS会议的paper:Improving Contrastive Learning on...
1 前言 关于关系抽取(三元组抽取)的方法有很多,传统的方法采用pipeline方法——先识别文本中所有实体,然后在对识别的实体对遍历判断关系类...
前言 这两年对比学习是一个研究热点,今年的ACL会议有16篇关于对比学习的paper,今天分享其中的一篇——基于语义负样本的对比学习来提升自然语...
1 前言 在NLP领域中,数据增强(data augmentation)已成为解决样本不平衡( data imbalance)或训练数据不足等问...
前言 命名实体识别(Named Entity Recognition,NER)一直是NLP中最主流,也是最基础的任务之一。尽管传统的机器学习方法...
1 前言 在自然语言处理工作(NLP)中,会遇到这样的一个应用问题:如何挖掘文本中某一关键词的语义相似词或近义词?解决该问题的办法很多,比如使用...
1 前言 预训练模型Bert能处理最大序列长度为512,当面对长文本(文档级别)时候,通常是采用text truncation或者sliding...