ACL 2022 共收录4篇词义消歧论文,3篇来自一个意大利科研团队
作者 | Antonio
ACL 2022已经于近期正式在官网上刊登了录取的文章,其中涉及到词义消歧(Word Sense Disambiguation, WSD)的文章共有4篇,参考下图的查询。
WSD是指识别出有多个义项的目标词汇在上下文中的含义,是NLP中一个重要并且具有NP-hard复杂度的任务,不仅可以帮助机器更好地识别词汇语义,还对机器翻译、文本理解等下游任务起到辅助作用。
本文简要整理并介绍其中已经公布了论文全文的前三篇,值得注意的是,这三篇都出自同一个课题组,即来自意大利罗马一大的Sapienza NLP,导师为Roberto Navigli。
(ACL 22上关于WSD的论文)
论文题目:Nibbling at the Hard Core ofWord Sense Disambiguation
下载链接:https://www.researchgate.net/publication/359468349_Nibbling_at_the_Hard_Core_of_Word_Sense_Disambiguation
本文是一篇评测以往的WSD方法的 分析型 论文,并根据对于当前方法的不足,提出了更加富有挑战性的数据集和评测指标。具体而言:
论文链接:https://www.researchgate.net/publication/359280784_DiBiMT_A_Novel_Benchmark_for_Measuring_Word_Sense_Disambiguation_Biases_in_Machine_Translation
一词多义现象在机器翻译中显得尤为突出,这也是机器翻译中常常出现的偏差的原因。文章研究了机器翻译中的多义性偏差现象,并且提出了一个全新的测试基准,包含针对多种语言的测试集以及评价指标。具体来看,文章的贡献有:
文章详细描述了句子的收集过程,包括语言库选择、句子清洗和过滤、数据集标注等。下图展示了数据集的标注统计量:
其中数据集主要收集了名词和动词。之后由于数据集是从BabelNet中收集的,文中则定义了好的和坏的释义集,并且统计了多大比例的释义被标注者添加(OG);多大比例被移除(RG)和两句例句使用同一释义的比例(SL),统计量如下:
从准确率上可以看出,DeepL的性能要显著得比其它方法更好。
在细粒度分析歧义的新指标上,也有类似的趋势:
之后,文章还探讨了很多有意思的语言学分析,比如,是否动词要比名词更难翻译?编码器是否真的可以去歧义等等?有兴趣的读者可以找来文章细细阅读。
代码和评测平台之后会放出:https://nlp.uniroma1.it/dibimt
论文链接:https://www.researchgate.net/publication/359392427_ExtEnD_Extractive_Entity_Disambiguation
文章对WSD内的一个更加细粒度的实体去歧义的任务进行了新的方式去定义,即把它当作一个文本抽取的任务,并且采用两个Transformer模型架构实现(命名为EXTEND)。EXTEND在6个评价数据库中有4个在F1 score上都达到了SOTA水平。
实体是指关系网络中的节点,相比WSD中更加宽泛的词汇,实体名词往往更具有实际意义,并且更有多义性的可能性,下面展示了一个例子,选出Metropolis可能指的是哪个场景下的。
具体而言,如下图,EXTEND架构首先将输入的上下文和所有的候选项拼接在一起,模型的输出则是目标选项的起始和终止的单词索引。其中,提取特征的部分是Longformer,之后的head采用简单的FC输出每一个词汇可能成为起始和终止的概率。
事实上,将WSD定义为这种文本提取的方式在之前的方法ESC和ESCHER中被两次用到(都是同一位作者),其中的ESCHER方法是当前WSD的SOTA方法,这启发我们这种截取式方式的有效性。
以下是模型在6个数据集上的表现,它在其中的4个上面达到了最优的水平。
雷峰网 (公众号:雷峰网) 雷峰网
雷峰网原创文章,未经授权禁止转载。详情见。