目录
Rotate-and-Render: 基于单视角图像的自监督真实感人脸旋转
使用基于特征增强的BiLSTM-CRF神经网络对出院总结中的药品相关的实体信息进行抽取
采用神经注意模型生成文本摘要
基于指针生成网络对Abigail进行汇总
基于细观递归神经网络结构的抽象文本摘要
Rotate-and-Render: 基于单视角图像的自监督真实感人脸旋转
论文名称:Rotate-and-Render: Unsupervised Photorealistic Face Rotation from Single-View Images
作者:Zhou Hang /Liu Jihao /Liu Ziwei /Liu Yu /Wang Xiaogang
发表时间:2020/3/18
论文链接:https://paper.yanxishe.com/review/14665?from=leiphonecolumn_paperreview0413
推荐原因
本文已经被CVPR2020接收。近些年来人脸旋转取得了快速的发展,但缺乏高质量的配对训练数据仍然是现有方法的一大障碍。本文提出了一种新颖的无监督框架,可以只使用单视角自然图片来合成逼真的旋转后的人脸。文章方法的核心是在3D空间旋转人脸,再将其重新渲染至2D图像平面,以此作为一个强的自监督。作者采用3D人脸重建和高分辨率GAN来搭建整个网络。由于3D人脸的旋转再渲染可以在不丢失细节的前提下渲染任意角度的人脸图像,文章方法非常适合无标注的自然图像。作者通过实验证明了文章方法在大范围的旋转角度下都能很好地保留身份信息,合成高质量的人脸,超越目前state-of-the-art的表现。
使用基于特征增强的BiLSTM-CRF神经网络对出院总结中的药品相关的实体信息进行抽取
论文名称:GNTeam at 2018 n2c2: Feature-augmented BiLSTM-CRF for drug-related entity recognition in hospital discharge summaries
作者:Maksim Belousov / Nikola Milosevic / Ghada Alfattni / Haifa Alrdahi / Goran Nenadic
发表时间:2019/9/23
论文链接:https://paper.yanxishe.com/review/14666?from=leiphonecolumn_paperreview0413
推荐原因
本文的主要内容作者参加2018年的一个信息抽取比赛时所用的思路、方法和总结,主要的方法是使用预训练的语言模型以及额外的语义特征
作者使用了CLAMP, cTAKES两种语义特征来对文本的词嵌入进行增强,并且得到了第四名的成绩
本文对于数据集的分析、模型的选取、优化、以及结果的分析等方面写的比较细致,对于参加NLP相关的比赛的同学有一些参考价值,尽管只是实体信息的抽取,但是作者也提到了诸如CLAMP,part of speech tags这样的语言学特征增强对于关系抽取和事件抽取也是有效的
采用神经注意模型生成文本摘要
论文名称:A Neural Attention Model for Sentence Summarization
作者:Alexander M. Rush
发表时间:2015/3/4
论文链接:https://paper.yanxishe.com/review/14772?from=leiphonecolumn_paperreview0413
推荐原因
本文的主要内容以及贡献:
本文是一篇关于生成文本摘要的文章,首先,作者对神经机器翻译的最新发展的摘要进行汇总,由于目前学术界中通过抽取式生成的文本摘要在准确性方面存在着一定的误差,在此背景下,作者提出了一种基于神经注意力的模型,在这个模型中,作者把概率模型与生成算法相结合,其目的是用于生成精确度更好的抽象摘要。然后,作者又提出了一种基于神经注意力的模型,在该模型中,作者将概率模型与生成算法相结合,用于生成精确度更好的抽象摘要。最后,作者以数据驱动的方式,来进一步提高摘要的语法性,并对此进行扩展。
基于指针生成网络对Abigail进行汇总
论文名称:Get To The Point: Summarization with Pointer-Generator Networks Abigail See
作者:Abigail See
发表时间:2017/3/15
论文链接:https://paper.yanxishe.com/review/14773?from=leiphonecolumn_paperreview0413
推荐原因
本文的研究内容及创新点:
序列到序列的神经网络模型为生成抽象文本摘要提供了一种可行的新方法,然而,该模型在实际应用中存在着两个缺点:1)通常会考虑到不重要的细节,造成文本摘要不精确;2)存在着反复重复自身的过程,造成信息冗余。为了解决上述问题,作者提出了一种新颖的架构,用于增强标准序列间的注意力。该模型主要以两种正交方式建模。第一,使用混合指针生成器网络从源文本中复制单词。第二,使用覆盖率跟踪已总结的内容。最后,作者通过实验验证,发现该模型具有较强的鲁棒性,生成的文本摘要性能也更加符合实际。
基于细观递归神经网络结构的抽象文本摘要
论文名称:Abstractive Sentence Summarization with Attentive Recurrent Neural Networks
作者:Sumit Chopra
发表时间:2016/6/16
论文链接:https://paper.yanxishe.com/review/14776?from=leiphonecolumn_paperreview0413
推荐原因
本文研究内容以及创新点:
本文是一篇关于文本摘要的文章,作者提出了一种基于条件递归神经网络(RNN)模型用于对当前文章生成文本摘要。该模型采用了一种基于卷积注意力的编码器,用于确保解码器在生成的每个步骤都输入适当的单词,本文提出的模型他的优点表现为:1、文本摘要任务性能仅依赖模型的学习功能,2、易于以端到端的方式在大数据集上进行训练。作者通过实验表明,该模型在DUC-2004共享任务上,无论是在Gigaword数据还是在Gigaword数据上,性能均明显优于其他方法。
雷锋网(公众号:雷锋网)雷锋网雷锋网
相关文章:
今日 Paper | 强化学习;可重构GANs;BachGAN;时间序列分类等
。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/137974.html