龙空技术网

ECCV 2020 论文大盘点-图像视频修复篇

我爱计算机视觉 132

前言:

目前朋友们对“vcnet”大约比较珍视,你们都想要分析一些“vcnet”的相关资讯。那么小编也在网摘上网罗了一些对于“vcnet””的相关资讯,希望看官们能喜欢,大家快快来学习一下吧!

编辑:CV君

本文盘点 ECCV 2020 图像与视频修复(inpainting)所有相关论文,总计 8 篇。

下载包含这些论文的 ECCV 2020 所有论文:

图像修复

Rethinking Image Inpainting via a Mutual Encoder-Decoder with Feature Equalizations

作者 | Hongyu Liu, Bin Jiang, Yibing Song, Wei Huang, Chao Yang

单位 | 湖南大学;腾讯

论文 |

代码 |

备注 | ECCV 2020 oral

提出了一种具有特征均衡的相互编码器-解码器,在图像修复过程中,将填充结构与纹理关联起来。

Short-Term and Long-Term Context Aggregation Network for Video Inpainting

作者 | Ang Li, Shanshan Zhao, Xingjun Ma, Mingming Gong, Jianzhong Qi, Rui Zhang, Dacheng Tao, Ramamohanarao Kotagiri

单位 | 墨尔本大学;悉尼大学;迪肯大学;

论文 |

备注 | ECCV 2020 spotlight

本文研究了视频修复问题,并解决了现有方法的三个局限:

1、short-term 或 long-term 参考帧的无效利用

2、目标帧中缺失区域导致的 short-term 上下文聚合不准确

3、long-term 语境信息的固定采样

基于此,作者提出一个 Short-term, and Long-term 上下文聚合网络,通过两个互补的模块对 short-term 和 long-term 信息进行有效利用。

高分辨率图像修复

High-Resolution Image Inpainting with Iterative Confidence Feedback and Guided Upsampling

作者 | Yu Zeng, Zhe Lin, Jimei Yang, Jianming Zhang, Eli Shechtman, Huchuan Lu

单位 | 大连理工大学;Adobe Research

论文 |

更多结果展示 |

备注 | ECCV 2020

VCNet: A Robust Approach to Blind Image Inpainting

作者 | Yi Wang, Ying-Cong Chen, Xin Tao, Jiaya Jia

单位 | 港中文;腾讯优图;SmartMore

论文 |

代码 |

备注 | ECCV 2020

研究如何自动修复有未知污染的图像

Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed Scenes

作者 | Liang Liao, Jing Xiao, Zheng Wang, Chia-Wen Lin, Shin'ichi Satoh

单位 | 武汉大学;National Institute of Informatics;台湾清华大学

论文 |

备注 | ECCV 2020

使用Inpainting来做更自然的图像数据增广

Learning Object Placement by Inpainting for Compositional Data Augmentation

作者 | Lingzhi Zhang, Tarmily Wen, Jie Min, Jiancong Wang, David Han, Jianbo Shi

单位 | 宾夕法尼亚大学;Army Research Laboratory

论文 |

papers_ECCV/papers/123580562.pdf

备注 | ECCV 2020

视频修复

Learning Joint Spatial-Temporal Transformations for Video Inpainting

作者 | Yanhong Zeng, Jianlong Fu, Hongyang Chao

单位 | 中山大学;微软亚洲研究院

论文 |

代码 |

备注 | ECCV 2020

视频修复是一项挑战性的任务,以往的方法是逐帧修复,这会因为不连续的注意力结果而产生模糊和时序瑕疵。

来自中山大学和微软亚研院的学者提出一种同时修复所有输入帧的自注意力方法:联合时空Transformer网络(STTN),取得了高质量连贯的视频修复效果。

代码已开源。

视频修复,自动驾驶

DVI: Depth Guided Video Inpainting for Autonomous Driving

作者 | Miao Liao, Feixiang Lu, Dingfu Zhou, Sibo Zhang, Wei Li, Ruigang Yang

单位 | 百度

论文 |

代码 |

数据集 |

备注 | ECCV 2020

为了在自动驾驶中获得清晰的街景和照片逼真的模拟效果,作者提出一种自动视频修复算法,该算法可以在深度/点云的指导下,去除视频中的车辆 agents,合成缺失区域。

为解决长时间的遮挡问题,可以通过3D 点云配准融合多个视频,使用多个源视频修复目标视频成为可能。

为了验证所提出方法的有效性,作者在真实的城市道路环境中,利用同步图像和激光雷达数据建立了一个大型修复数据集,其中包括许多挑战场景,例如,长时间遮挡。数据集已公开。

所提出的方法在所有标准上都优于最先进的方法,尤其是RMSE(均方根误差)已经降低了13%左右。

本文为我爱计算机视觉公众号整理,转载请注明出处。

标签: #vcnet