CVPR 2019 | 视频内容消除新突破——「Deep Flow-Guided」(含开源代码)

雷锋网 AI 科技评论按:视频内容消除的关键在于对视频缺失区域的填充,但由于视频相比图片多了时间维度,因此难以保持视频内容空间与时间的一致性,当前该项技术仍极具挑战性。但本文将展示由香港中文大学的周博磊等研究学者们,提出的一种新型 Deep Flow-Guided 方法进行视频内容消除。该技术不再是直接填充每个帧的 RGB 像素,而是将其转化为像素点扩充问题,这项研究成果被选入 CVPR 2019 论文之列。

CVPR 2019 | 视频内容消除新突破——「Deep Flow-Guided」(含开源代码)

图 1 视频内容消除

具体实现步骤

第一步,使用新设计的深度光流场合成神经网络(DFC-Net)在视频帧上合成表示空间与时间关系的光流场,即整个视频图像中各像素点随时间的运动情况;然后将这个光流场作为像素扩充的导向,使其精确填充视频中的缺失区域。DFC-Net 在合成光流场的过程中遵循粗略到精细的细化原则,结合光流量的难样本挖掘,整个神经网络的质量得到了进一步的提高。

最终,以合成光流场作为导向则可精确填充缺失的视频区域。将这个方法在 DAVIS 和 YouTube-VOS 数据集上进行定性和定量评估,结果显示其运行质量和速度都表现出了超常的技术水平。

框架结构

CVPR 2019 | 视频内容消除新突破——「Deep Flow-Guided」(含开源代码)

图 2 Flow-Guided Frame Inpainting

此方法框架包含两步——第一步是合成缺失的光流场,第二步是以合成光流场为导向,对像素点进行扩充。

在第一步中,DFC-Net 用来对光流场进行由粗略到精细的合成。DFC-Net 由名为 DFC-S 的三个类似的子网络组成;第一个子网以相对粗略的比例估计光流量,并将它们反馈到第二个和第三个子网络中进一步细化。在第二步中,以合成的光流场为导向,通过不同帧的光流对已知区域中的像素点进行扩充,从而填充大部分缺失区域。然后采用传统的图像修复神经网络来填充在整个视频中剩余的一些细节区域。

正是因为在第一步中这个方法对光流的估计较为精确,所以可以很容易得到部分视频内容消除后连贯的完整视频。

消除结果

CVPR 2019 | 视频内容消除新突破——「Deep Flow-Guided」(含开源代码)

图 3 视频消除过程展示

图 3 展示了使用 Deep Flow-Guided 进行视频内容消除的过程。对于每个输入序列(奇数行),图片上显示了带有缺失区域覆盖掩膜的代表帧;在偶数行中则显示了最终的消除结果。

CVPR 2019 | 视频内容消除新突破——「Deep Flow-Guided」(含开源代码)

图 4 与其他方法的结果对比

图 4 则向我们展示了 Deep Flow-Guided 方法与 Huang et al 方法进行视频内容消除后的结果对比,可以看出该方法的消除结果更加精准,消除部分的衔接更加自然。

更多内容,雷锋网(公众号:雷锋网) AI 科技评论将其整理如下:

原文链接

https://nbei.github.io/video-inpainting.html

论文地址

https://arxiv.org/abs/1905.02884?context=cs

Github 开源地址

https://github.com/nbei/Deep-Flow-Guided-Video-Inpainting

雷锋网 AI 科技评论


CVPR 2019 | 视频内容消除新突破——「Deep Flow-Guided」(含开源代码)

原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/135336.html

(0)
上一篇 2021年9月1日
下一篇 2021年9月1日

相关推荐

发表回复

登录后才能评论