MonoNeRF: Learning Generalizable NeRFs from Monocular Videos without Camera Poses

发布时间 2023-09-19 14:56:47作者: 抚琴尘世客

1. 论文简介

论文题目:MonoNeRF: Learning Generalizable NeRFs from Monocular Videos without Camera Poses

Paper地址:chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://openreview.net/pdf?id=OTZyQCwgNL

Paper类型:新视野合成,深度估计,场景理解

发表刊物:ICML

发表时间:2023

发表作者:Yang Fu, Ishan Misra, Xiaolong Wawng

发表单位:University of California, FAIR, Meta AI.

2. 科学问题及动机

虽然NeRF已经取得了较大的成功,但构建NeRF需要准确的使用真实相机姿态,并且一个场景需要构建一个NeRF,泛化性不足,同时训练耗时。

有一些方法通过在多个场景训练然后再单个场景上fine-tune来解决泛化的问题,但需要相机位姿。

另一些 方法不需要相机位姿,但针对的是单个场景的,泛化性不足。

也就是相机位姿的需求和场景的限制没能同步解决。

这背后的一个基本原因是:以自我监督的方式跨场景执行校准非常具有挑战性。

3.  核心工作

提出了一个广义的神经辐射场- MonoNeRF,它可以在静态场景中移动的大规模单目视频上进行训练,而不需要任何深度和相机姿势的ground truth。

MonoNeRF遵循基于自动编码器的架构,其中编码器估计单目深度和相机姿态,解码器基于深度编码器特征构建多平面NeRF表示,并使用估计的相机渲染输入帧。

学习由重构误差监督。

一旦模型被学习,它可以应用于多种应用,包括深度估计、相机姿态估计和单图像新视图合成。

4. 工作细节

提出了一种新的泛化NeRF,称为MonoNeRF,它可以从静态场景中运动的单目视频中学习,而不使用任何相机ground truth。

我们的关键观点是,现实世界的视频通常伴随着缓慢的镜头变化(连续性),而不是呈现不同的视点。

根据这一观察结果,我们建议在大规模的现实世界视频上训练一个基于autoencoder的模型。

给定输入视频帧,我们的框架使用深度编码器对每帧执行单目深度估计(鼓励保持一致),并使用摄像机姿态编码器估计每两个连续帧之间的相对摄像机姿态。

深度编码器特征和相机姿态是中间解纠缠表示

对于每个输入帧,我们用深度编码器特征构造一个NeRF表示,并根据估计的相机姿态渲染它来解码另一个输入帧。

我们利用渲染帧和输入帧之间的重构损失来训练模型。

然而,单独使用重建损失很容易导致一个平凡的解决方案,因为估计的单目深度、相机姿势和NeRF表示不一定在相同的尺度上。

我们提出的一个关键技术贡献是在训练期间提出一种新的刻度校准方法来校准这三种表示。

我们的框架的优点是:(i)与NeRF不同,它不需要3D相机姿势注释(例如,通过SfM计算);(ii)在大规模视频数据集上进行泛化训练,从而实现更好的迁移。

5. 实现细节