雷锋网 AI 科技评论按:自然语言处理领域的顶级会议 EMNLP 2017,将于 9 月 7-11 日在哥本哈根召开。今年 EMNLP 共接受论文 323 篇,其中 216 篇为长论文,107 篇为短论文。最佳论文名单已经公布,详见此前报道:EMNLP 2017 最佳论文揭晓,「男人也爱逛商场」获最佳长论文。
雷锋网(公众号:雷锋网)了解到,著名华人 NLP 学者、斯坦福大学副教授 Percy Liang,共有三篇署名论文被 EMNLP 2017 收录:
《Macro Grammars and Holistic Triggering for Efficient Semantic Parsing 》
作者:Yuchen Zhang, Panupong Pasupat, Percy Liang
《Adversarial Examples for Evaluating Reading Comprehension Systems》
作者:Robin Jia, Percy Liang
《Importance sampling for unbiased on-demand evaluation of knowledge base population》
作者:Arun Chaganty, Ashwin Paranjape, Percy Liang and Christopher D. Manning
Percy Liang
三篇论文的第一作者,Yuchen Zhang、Robin Jia 和 Arun Chaganty,均为 Percy Liang 在斯坦福的指导学生。第三篇尚未公开,前两篇论文的摘要如下:
《Adversarial Examples for Evaluating Reading Comprehension Systems》
即“《用对抗方案评估阅读理解系统的例子》”
摘要:
标准的精确度衡量标准表明,阅读理解系统正在快速进步。但这些系统究竟能在多大程度上真正理解语言,仍然未知。为了奖励具有语言理解能力的系统,我们针对斯坦福问答数据集 (SQuAD) 提出一个对抗评估方案。我们的方案会自动生成并在段落中插入对抗语句,然后测试系统是否能围绕这一段落回答问题。这些对抗语句的目的在于干扰计算机回答系统,但并不会改变问题的正确答案,也不会对人类读者造成干扰。在这种对抗方案中,16 个已发表模型的精确度从 75%(F1 分数)降到了 36%。当对抗系统被允许加入不符合语法的短语串,有四个模型的平均精度下降到了 7%。我们希望该发现能激励大家开发出能够更精确理解语言的新模型。
地址:https://arxiv.org/abs/1707.07328
《Macro Grammars and Holistic Triggering for Efficient Semantic Parsing 》
即“《应用于高效语义解析的宏观语法和整体触发》”
摘要:
为了从注解中学习出语义解析器,一个学习算法必须在一个大型逻辑形式组合空间中,搜索与注解匹配的逻辑组合。我们提出一个新的在线学习算法,能随着训练进程搜索地越来越快。两个关键的想法是:1. 对于当前找到的有价值的逻辑形式,把它们的抽象模式用宏观语法(macro grammars)缓存起来;2. 根据句子相似性,使用整体触发(holistic triggering)高效抽取最相关的模式。在 WikiTableQuestions 数据集,我们先是扩展了已有模型的搜索空间,把最高精确度从 38.7% 提升到了 42.7%。然后,用宏观语法和整体触发实现 11 倍的加速和 43.7% 的精确度。
地址:https://arxiv.org/abs/1707.07806
雷锋网AI科技评论编译
雷锋网版权文章,未经授权禁止转载。详情见。
原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/industrynews/128426.html