ACL 2018 奖项全公布,北大、哈工大上榜,Mark Steedman 获终身成就奖

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

ACL 2018 奖项全公布,北大、哈工大上榜,Mark Steedman 获终身成就奖

雷锋网 AI 科技评论按:ACL 2018 于 7 月 15 日在墨尔本正式开幕,随着会议议程的推进,今天迎来大会的重头戏——ACL 奖项颁布仪式。

在颁奖仪式前,最佳论文名单已经公布,今年共选出 3 篇最佳长论文和 2 篇最佳短论文。颁奖仪式上,荣誉论文( 6 篇长文和 2 篇短文)、最佳 demo 论文(1 篇)、Amazon Door Prize 也一并揭晓。雷锋网注意到,北京大学、哈尔滨工业大学这两所国内高校在 Amazon Door Prize 上均有上榜。终身成就奖得主为爱丁堡大学信息学院教授 Mark Steedman。

最佳论文

长论文(3 篇)

  • Finding syntax in human encephalography with beam search

    用束搜索在人脑成像中寻找句法

    John Hale, Chris Dyer, Adhiguna Kuncoro, Jonathan R. Brennan

论文摘要:循环神经网络文法(RNNGs)是对于「树-字符串」对的生成式模型,它们依靠神经网络来评价派生的选择。用束搜索对它们进行解析可以得到各种不同复杂度的评价指标,比如单词惊异数(word surprisal count)和解析器动作数(parser action count)。当把它们用作回归因子,解析人类大脑成像图像中对于自然语言文本的电生理学响应时,它们可以带来两个增幅效果:一个早期的峰值以及一个类似 P600 的稍迟的峰值。相比之下,一个不具有句法结构的神经语言模型无法达到任何可靠的增幅效果。通过对不同模型的对比,早期峰值的出现可以归功于 RNNG 中的句法组合。结果中体现出的这种模式表明 RNNG+束搜索的组合可以作为正常人类语言处理中的语法处理的一个不错的机理解释模型。

论文地址: https://arxiv.org/abs/1806.04127

  • Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information

    学习如何问好的问题:通过完全信息下的期待值为追问问题排序

    Sudha Rao, Hal Daumé III

论文摘要:在沟通中,提问是一大基本要素:如果机器不知道如何问问题,那它们也就无法高效地与人类合作。在这项研究中,作者们构建了一个神经网络用于给追问的问题做排名。作者们模型设计的启发来源于完全信息情况下的期待值:一个可以期待获得有用的答案的问题就是一个好问题。作者们根据 StackExchange 上抓取的数据研究了这个问题;StackExchange 是一个内容丰富的在线咨询平台,其中有人发帖咨询以后,别的用户会在下面追问起到解释澄清作用的问题,以便更好地了解状况、帮助到发帖人。论文作者们创建了一个由这样的追问问题组成的数据集,其中包含了 StackExchange 上 askubuntu、unix、superuser 这三个领域的约 77k 组发帖+追问问题+问题的回答。作者们在其中的 500 组样本上评估了自己的模型,相比其他基准模型有显著的提高;同时他们也与人类专家的判断进行了对比。

论文地址: https://arxiv.org/abs/1805.04655

  • Let's do it "again": A First Computational Approach to Detecting Adverbial Presupposition Triggers

    让我们「再」做一次:首个检测假定状态触发副词的计算性方法

    Andre Cianflone, Yulan Feng, Jad Kabbara, Jackie Chi Kit Cheung

论文摘要:这篇论文中,作者们介绍了一种新的研究课题——预测副词词性的假定状态触发语(adverbial presupposition triggers),比如「also」和「again」。完成这样的任务需要在对话上下文里寻找重复出现的或者相似的内容;这项任务的研究成果则可以在文本总结或者对话系统这样的自然语言生成任务中起到帮助。作者们为这项任务创造了两个新的数据集,分别由 Penn Treebank 和 AnnotatedEnglish Gigaword 生成,而且也专为这项任务设计了一种新的注意力机制。作者们设计的注意力机制无需额外的可训练网络参数就可以增强基准 RNN 模型的表现,这最小化了这一注意力机制带来的额外计算开销。作者们在文中表明,他们的模型相比多个基准模型都有统计显著的更高表现,其中包括基于 LSTM 的语言模型。

论文地址: https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf

短论文(2 篇)

  • Know What You Don't Know: Unanswerable Questions for SQuAD

    知道你不知道的:SQuAD 中无法回答的问题

    Pranav Rajpurkar, Robin Jia, Percy Liang

论文摘要:提取式的阅读理解系统一般都能够在给定的文档内容中找到正确的内容来回答问题。不过对于正确答案没有明示在阅读文本中的问题,它们就经常会做出不可靠的猜测。目前现有的阅读理解问答数据集,要么只关注了可回答的问题,要么使用自动生成的无法回答的问题,很容易识别出来。为了改善这些问题,作者们提出了 SQuAD 2.0 数据集,这是斯坦福问答数据集 SQuAD 的最新版本。SQuAD 2.0 在现有的十万个问题-答案对的基础上增加了超过五万个无法回答的问题,它们由人类众包者对抗性地生成,看起来很像可以回答的问题。一个问答系统如果想要在 SQuAD 2.0 上获得好的表现,它不仅需要在问题能够回答时给出正确的答案,还要在给定的阅读材料中不包含答案时做出决定、拒绝回答这个问题。SQuAD 2.0 也设立了新的人类表现基准线,EM 86.831,F1 89.452。对于现有模型来说 SQuAD 2.0 是一个具有挑战性的自然语言理解任务,一个强有力的基于神经网络的系统可以在 SQuAD 1.1 上得到 86% 的 F1 分数,但在 SQuAD 2.0 上只能得到 66%。

论文地址: https://arxiv.org/abs/1806.03822

  • 'Lighter' Can Still Be Dark: Modeling Comparative Color Descriptions

    “更浅的颜色”可能仍然有点暗:建模比较性的颜色描述

    Olivia Winn, Smaranda Muresan

我们提出了一种在颜色描述领域内建立基准比较性形容词的新范式。给定一个参考 RGB 色和一个比较项(例如更亮、更暗),我们的模型会学习建立比较项的基准,将其作为 RGB 空间中的一个方向,这样颜色就会沿着向量植根于比较色中。

我们的模型产生了比较形容词的基本表示形式,在期望的改变方向上,平均精确度为 0.65 余弦相似性。与目标颜色相比,依据向量的颜色描述方法 Delta-E 值小于 7,这表明这种方法与人类感知的差异非常小。这一方法使用了一个新创建的数据集,该数据集来自现有的标记好的颜色数据。

论文地址: http://aclweb.org/anthology/P18-2125

荣誉论文

长论文(6 篇)

  • Coarse-to-Fine Decoding for Neural Semantic Parsing

    Li Dong, Mirella Lapata

    论文地址: https://arxiv.org/abs/1805.04793

  • NASH: Toward End-to-End Neural Architecture for Generative Semantic Hashing

    Dinghan Shen, Qinliang Su, Paidamoyo Chapfuwa, Wenlin Wang, Guoyin Wang, Lawrence Carin, Ricardo Henao

    论文地址: https://arxiv.org/abs/1805.05361

  • Backpropagating through Structured Argmax using a SPIGOT

    Hao Peng, Sam Thomson, Noah A. Smith

    论文地址: https://homes.cs.washington.edu/~hapeng/paper/peng2018backprop.pdf

  • Hierarchical Neural Story Generation

    Angela Fan, Mike Lewis, Yann Dauphin

    论文地址: https://arxiv.org/abs/1805.04833

  • Semantically Equivalent Adversarial Rules for Debugging NLP Models

    Marco Tulio Ribeiro, Sameer Singh, Carlos Guestrin

    论文地址: https://homes.cs.washington.edu/~marcotcr/acl18.pdf

  • Large-Scale QA-SRL Parsing

    Nicholas FitzGerald, Julian Michael, Luheng He, Luke Zettlemoyer

    论文地址: https://arxiv.org/abs/1805.05377

短论文(2 篇)

  • Jointly Predicting Predicates and Arguments in Neural Semantic Role Labeling

    Luheng He, Kenton Lee, Omer Levy, Luke Zettlemoyer

    论文地址: https://arxiv.org/abs/1805.04787

  • Do Neural Network Cross-Modal Mappings Really Bridge Modalities?

    Guillem Collell, Marie-Francine Moens

    论文地址: https://arxiv.org/abs/1805.07616

最佳 demo 论文

Out-of-the-box Universal Romanization Tool

Ulf Hermjakob, Jonathan May,Kevin Knight

论文摘要:我们想介绍 uroman,这个工具可以把五花八门的语言和文字(如中文、阿拉伯语、西里尔文)转换为普通拉丁文。该工具基于 Unicode 数据以及其他表,可以处理几乎所有的字符集(包括一些晦涩难懂的语言比如藏文和提非纳文)。uroman 还可以将不同文本中的数字转换为阿拉伯数字。罗马化让比较不同文本的字符串相似性变得更加容易,因为不再需要将两种文字翻译成中间文字再比较。本工具作为一个 Perl 脚本,可以免费提供,可用于数据处理管道和交互式演示网页。

论文地址: http://aclweb.org/anthology/P18-4003

Amazon Door Prize

  • Wanxiang Che,哈尔滨工业大学

  • Prachi Manchanda,德里理工学院(Netaji Subhas Institute of Technology)

  • Fuli Luo,北京大学

  • Nikhilesh Bhatnagar,海得拉巴国际信息技术研究所(IIIT Hyderabad)

  • Wei Xue,佛罗里达国际大学(Florida International University)

  • Sam Wei,悉尼大学(University of Sydney)

  • Samir Kumar,M12

  • Jin-ge Yao,北京大学&微软

ACL 终身成就奖

ACL 2018 奖项全公布,北大、哈工大上榜,Mark Steedman 获终身成就奖

ACL 终身成就奖由 Mark Steedman 获得,他出生于 1946 年,1968 年毕业于苏塞克斯大学(University of Sussex),1973年,获得爱丁堡大学人工智能博士学位(论文:《音乐知觉的形式化描述》)。此后,他曾担任华威大学心理学讲师,爱丁堡大学计算机语言学讲师,宾夕法尼亚大学计算机与信息科学学院副教授,也曾在德克萨斯大学奥斯汀分校,奈梅亨马克斯普朗克心理语言研究所和费城宾夕法尼亚大学担任过访问学者。

目前他担任爱丁堡大学信息学院认知科学系主任,主要研究领域有计算语言学、人工智能和认知科学、AI 会话的有意义语调生成、动画对话、手势交流以及组合范畴语法(Combinatory categorial grammar,CCG)等。此外,他对计算音乐分析和组合逻辑等领域也很感兴趣。

雷锋网 雷锋网 (公众号:雷锋网)

随意打赏

提交建议
微信扫一扫,分享给好友吧。