今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等

今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等

  目录

跨模态行人重识别:共享与特异特征变换算法cm-SSFT

GarmentGAN:具有图片真实感的对抗时尚迁移

学习将纹理从服装图像转移到3D人体

学会注意错误

MINA: 非刚性形状对齐的凸混合整数规划

  跨模态行人重识别:共享与特异特征变换算法cm-SSFT

论文名称:Cross-modality Person re-identification with Shared-Specific Feature Transfer

作者:Yan Lu

发表时间:2020/2/1

论文链接:https://paper.yanxishe.com/review/13406?from=leiphonecolumn_paperreview0311

推荐原因

本文主要是解决红外线-RGB跨模态行人重识别的问题。由于Specific feature在对面模态中是不存在的,所以目前工业界大部分跨模态行人在识别算法通常只关注shared feature learning,很少关注Specific feature,比如在红外线图片中是没有彩色颜色信息的。

主要创新点:利用近邻信息:给定一红外线query。当搜索彩色target时,可以先找到一些简单的置信度高的彩色样本,接着把这些彩色样本的颜色特异特征给与红外线query,如此往复,便可以实现利用这些彩色信息再去搜索更难的彩色样本的功能。

今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等
今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等

  GarmentGAN:具有图片真实感的对抗时尚迁移

论文名称:GarmentGAN: Photo-realistic Adversarial Fashion Transfer

作者:Amir Hossein Raffiee /Michael Sollami

发表时间:2020/3/4

论文链接:https://paper.yanxishe.com/review/13309?from=leiphonecolumn_paperreview0311

推荐原因

基于机器学习的服装迁移是近些年的一个研究热点,是将虚拟试衣落地的较为现实的解决方案,具有非常大的商业价值和市场前景。

一般服装迁移问题包含两个任务:一是学习将目标人体和服装分离,二是生成目标人体穿着任意衣服的新的图片。本文提出的GarmentGAN是一种基于生成对抗网络的服装迁移算法,其包含两个独立的GAN:形状迁移网络和外观迁移网络,分别处理这两个任务,能够生成较为逼真的目标图片,对于复杂的人体姿态、手部姿势、遮挡情况都能处理的不错。作者最后将GarmentGAN与目前state-of-the-art的方法进行了定性和定量的比较,证明了该方法的有效性。

今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等
今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等

  学习将纹理从服装图像转移到3D人体

论文名称:Learning to Transfer Texture from Clothing Images to 3D Humans

作者:Aymen Mir /Thiemo Alldieck /Gerard Pons-Moll

发表时间:2020/3/4

论文链接:https://paper.yanxishe.com/review/13303?from=leiphonecolumn_paperreview0311

推荐原因

本文已被CVPR2020接收,提出了一种实时自动的从衣服图片的纹理迁移到SMPL人体模型的3D服装上,是一种3D虚拟试衣的最新解决方案,数据和代码将被开源,目前尚未公开。项目地址:https://virtualhumans.mpi-inf.mpg.de/pix2surf/

作者首先使用非刚性3D到2D注册的方法,生成了服装图片和3D外衣的数据对,这种方法非常准确但是速度很慢。然后作者基于这些数据对,通过神经网络学习了图片像素到3D服装表面的映射。作者通过实验表面该方法比基于薄板样条的图片变形和图片到图片的迁移网络更加准确更加快速。

文章方法提供了3D虚拟试衣的新方法,效果逼真,速度快(实时),值得关注。

今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等
今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等

  学会注意错误

论文名称:Learning to pay attention on mistakes

作者:Anonymous authors

发表时间:2020/1/25

论文链接:https://paper.yanxishe.com/review/13405?from=leiphonecolumn_paperreview0311

推荐原因

在医学图像分割任务中,重点是从背景像素中检测和区分出代表感兴趣区域的前景像素。到目前为止,背景像素构成了图像中大多数像素。这导致基于深度学习的医学图像分割频繁出现的假阴性像素分类,即前景像素被错误地分类为属于背景像素类别。作者提出了一种新的注意力机制来解决这种较高的假阴性检测率。作者的方法试图引导模型进行更多的假阳性检测,从而纠正由于训练数据不平衡而导致的分类结果不平衡。提出的注意力机制有三种实现方式:(1)显式指导模型以检测误报;(2)通过转向相反的假阴性来隐式学习假阳性;(3)在多任务环境中,共同引导假阳性和假阴性的学习。为了验证提出的方法,作者在一个比较难的任务中验证了我们提出的网络:对肿瘤核心进行分割。在BRATS 2018训练数据上进行5次交叉验证后,作者的模型优于9个最新的基准模型,包括:空间注意力,空间通道注意力和自我注意力。作者的第三种实现将假阴性降低了10.4%,而假阳性的检增加却可以忽略不计。作者的第三个方案还将网络的Hausdorff距离提高了28%以上,同时将IoU值提高了3%以上。除了显著的性能提升外,提出的注意机制通过一个有效的感受也具有直观的可解释。因为该论文还在Under Review,为了保持保持匿名,该论文隐藏了GitHub上的代码的链接,后续会公布。

今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等
今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等

  MINA: 非刚性形状对齐的凸混合整数规划

论文名称:MINA: Convex Mixed-Integer Programming for Non-Rigid Shape Alignment

作者:Florian Bernard /Zeeshan Khan Suri /Christian Theobalt

发表时间:2020/2/28

论文链接:https://paper.yanxishe.com/review/12864?from=leiphonecolumn_paperreview0311

推荐原因

形状匹配 (Shape Matching) 是计算机视觉、图形学等众多领域的基本问题,其主要是研究如何在两个形状之间建立对应的问题。

本文作者提出了一个用于非刚性形状匹配的凸混合整数规划公式,为了解决该问题,作者提出了一种基于有效的低维离散模型的形状变形模型,能够在(大多数)实际情况下很容易地求得全局最优解。

文章的方法有众多优势:其不依赖与初始值,能够有效收敛到全局最优解、在处理匹配问题的变种时非常灵活等等。作者通过实验证明了文章方法优于现有的稀疏形状匹配方法,并可以用来初始化稠密匹配算法。

今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等
今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等

  论文作者团队招募

为了更好地服务广大 AI 青年,AI 研习社正式推出全新「论文」版块,希望以论文作为聚合 AI 学生青年的「兴趣点」,通过论文整理推荐、点评解读、代码复现。致力成为国内外前沿研究成果学习讨论和发表的聚集地,也让优秀科研得到更为广泛的传播和认可。

我们希望热爱学术的你,可以加入我们的论文作者团队。

加入论文作者团队你可以获得

    1.署着你名字的文章,将你打造成最耀眼的学术明星

    2.丰厚的稿酬

    3.AI 名企内推、大会门票福利、独家周边纪念品等等等。

加入论文作者团队你需要:

    1.将你喜欢的论文推荐给广大的研习社社友

    2.撰写论文解读

如果你已经准备好加入 AI 研习社的论文兼职作者团队,可以添加运营小姐姐的微信(ID:julylihuaijiang),备注“论文兼职作者”

今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等

雷锋网(公众号:雷锋网)雷锋网雷锋网

相关文章:

今日 Paper | 缩放神经网络;形变的LSTM;知识图谱复杂问答;阴影着色等


今日 Paper | 跨模态行人重识别;对抗时尚迁移;学会注意错误;凸混合整数规划等

原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/137804.html

(0)
上一篇 2021年9月2日
下一篇 2021年9月2日

相关推荐

发表回复

登录后才能评论