小凡 · 2021年04月02日

CVPR2021:推广到开放世界的在线自适应深度视觉里程计

转载自:计算机视觉工坊
编辑:Amber

Generalizing to the Open World Deep Visual Odometry with Online Adaptation

*CVPR2021:推广到开放世界的在线自适应深度视觉里程计*

【摘要】

近些年,基于学习的视觉里程计已经展现出了较为可观的结果,但预训练网络在未知环境中很容易失效。在这篇论文中,提出一个用于深度VO的在线自适应网络(借助场景不可知的几何计算和贝叶斯推理的辅助)。与基于学习的位姿估计不同,论文的苏阿女法从深度和光流中解算出位姿,同时通过在线学习新观测的不确定性不断提高单证图像的深度估计。另外,通过差分高斯牛顿层,一种在线学习光度不确定性算法也被用于进一步的深度和位姿估计。论文提出的算法在KITTI室外数据集和TUM室内数据集上得到了验证,实验证明,我们的算法在自监督VO算法中实现了最佳的泛化能力(泛化能力:机器学习算法对新样本的适应能力)。

image.png

【主要内容】

经典的SLAM/VO算法由于依赖底层特征因此在弱纹理、动态环境下表现性差,而深度神经网络可以提取高级特征和并通过学习进行端到端的推断,许多基于学习的VO算法已打破了经典VO的限制。在这些算法中,自监督VO算法能通过最小化光度误差同时学习相机位姿、深度和光流。然而基于学习的VO当遇到与预训练环境不同的场景时,表现性能较差,因此预训练网络需要以自监督的方式实现在线自适应。

为提高未知场景下VO的在线自适应能力,论文提出了一种自监督的架构,结合了深度学习和几何计算的优点。

主要贡献:

  1. 提出一个泛化的深度VO,其使用场景未知几何公式和贝叶斯推断来加速自监督在线自适应性;
  2. 估计的深度不断被贝叶斯融合网络优化,后续用于训练深度和光流
  3. 引入在线学习的深度和光流不确定度以实现精度更高的深度估计和差分高斯牛顿优化。

【整体结构】

image.png

系统框架图

首先,FlowNet网络估计关键帧和当前帧之间的稠密光流,同时估计光流不确定度映射。另外,使用DepthNet网络估计关键帧的深度均值和不确定度(为当前场景几何提供先验)。通过本质矩阵或PNP从被选择的匹配图像中求解位姿。在线自适应阶段,首先通过可微三角化算法重建了的稀疏深度。然后先验关键帧深度通过贝叶斯更新网络的深度估计得到进一步的提高。接着,差分高斯牛顿层最小化了和的光度损失。最后,优化后的深度和光流作为伪真值来监督DepthNet和FlowNet的在线学习。

【从光流中进行位姿恢复】

使用RAFT学习关键帧和当前帧之间的稠密光流,关键帧和上一帧之间的光流作为先验来初始化当前光流估计。选择鲁棒的对应关系(),设定这个对应关系有较好的前后光流一致性和适度的流动幅度:

image.png

【深度模型】

论文提出在一个统一的贝叶斯网络中建模深度估计和更新。由于逆深度遵循高斯分布且比目标距离更具有鲁棒性,因此使用逆深度进行建模。将好的逆深度测量值建模为围绕真值的高斯分布,而不好的逆深度视为观测噪声,均匀分布于:

image.png

在自适应过程中,DeepNet在线学习新的场景几何的先验知识。此外,学习到的不确定性还可以用来衡量概率深度融合的可靠性。

【在线深度优化】

关键帧的深度估计可进一步通过双视图三角化进行计算:

image.png
其中,dis()表示距离。中点三角化是差分的,是的我们的VO架构可以实现端到端的在线学习。

在线自适应过程中,用于更新先验深度估计从而获得MAP估计,如下图:

image.png

【学习不确定度的光度误差】

已知估计的位姿和优化后的深度,可通过转换到来合成:

image.png

【差分高斯牛顿优化】

进一步,论文提出使用差分高斯牛顿层来最小化,从而实现优化深度和位姿。计算两个关键帧中每一个像素的权重光度损失:

image.png

高斯-牛顿算法是自然可微的,我们实现它作为一个层的神经网络。在实践中,我们发现它只在3次迭代内收敛

【损失函数】

论文提出使用下列的损失函数来以自监督的形式在线学习DepthNet和FlowNet。

  1. Smoothness loss

为了加强局部平滑,我们引入了深度和光流的边缘感知损失:

image.png

  1. Photometric Loss

在之前定义过光度损失,因此总的损失函数为:

image.png

【实验】

对于DepthNet网络,使用与Monodepth同样的架构,并在输出时增加一个5*5的卷积层来估计深度不确定度映射;

光流网络是基于RAFT的,在输出时增加了一个5*5的卷积层和Sigmoid层来估计光流不确定度。

FlowNet和DepthNet先以自监督的方式进行进行预训练,Adam优化器使用的参数。

在在线自适应阶段,我们在每一个时间戳进行两次迭代重新训练FlowNet和DepthNet。

image.png

上图是在KITTI数据集上测试的深度估计结果,得益于论文提出的三角化过程和多帧深度优化,算法在边缘估计上得到了较好的表现能力。

【结论】

在本文中,我们提出了一个基于场景不可知几何计算和贝叶斯推理的深度VO在线自适应框架。利用贝叶斯深度滤波器对观测数据进行改进,得到了预测的单视图深度。同时,为了处理观测噪声,我们对深度和光度的不确定性进行了显式建模。利用可微高斯-牛顿层优化的位姿、深度和光流进行在线自我监监督。大量的环境变化实验表明,我们的方法比目前最先进的基于学习的VO方法有更好的泛化能力。

推荐阅读

重点介绍:1、3D视觉算法;2、vslam算法;3、图像处理;4、深度学习;5、自动驾驶;6、技术干货。 博主及合伙人分别来国内自知名大厂、海康研究院,深研3D视觉、深度学习、图像处理、自动驾驶、目标检测、VSLAM算法等领域。
欢迎关注微信公众号
3D与Slam 二维码 极术.jpg
推荐阅读
关注数
1105
内容数
100
专注于3D视觉,Vslam,图像处理等,欢迎关注
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息