| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> Consistent Video Depth Estimation——视频深度一致估计 -> 正文阅读 |
|
[人工智能]Consistent Video Depth Estimation——视频深度一致估计 |
文章核心:提出一种算法——重构单眼视频中所有像素的稠密的几何一致的深度,其利用了传统的SFM(从运动中重构)来建立视频中像素的几何约束。与经典重建中的特殊先验不同的是,本文使用的是基于学习的先验(如:训练卷积神经网络来估计单张图像的深度)。在测试阶段,微调网络来满足特定输入视频的几何约束,同时保留其在约束较少的视频部分来合成看似合理的深度细节。定量分析,方法确实比以往的单眼重构方法具有更高的精度和更高的几何一致性。可视化的情况下,本文的结果也似乎更为稳定。本文的算法能够处理-手拍的中等程度运动的视频。面向的应用包括场景重建、视觉特效等。 介绍:利用图像序列进行三维场景重建的研究屡见不鲜。最初,视频中的运动所带来的场景结构的估计不稳定,即模型鲁棒性差,使其只能在实验环境下,即具有高度校准和可预测的设置,才能表现良好。有时甚至产生的是稀疏结构(如:解决只跟踪一些孤立点的深度)。随后,由于高质量的开源重建系统和基于学习的技术的最新进展,从更随便得到的视频中,产生更密集的结构得到了良好的进展。 3D重建最简单的输入来源就是手机视频,其最为普遍。如果能从这样的输入中实现完全密集和准确的重建,这将是非常有用的——然而,这个过程是相当困难的。 任何图像重构系统都存在必须处理的典型问题,如纹理较差的区域、重复图案、遮挡;视频还存在更多的难题,比如更高的噪声等级、震动、运动模糊、滚动快门变形、相邻帧之间的小基线,包括动态的物体,比如人。因此,研究中总会遇到各种各样的问题,比如在深度图中缺失区域(b)、不一致的几何形状以及闪烁(c)等。 传统的方法:稀疏的SFM+密集的多视图点云——本质上匹配极线的补丁,如果匹配正确时,可以实现几何上准确的重建。但是,由于前面提到的复杂性,匹配通常是有噪声的,通常需要使用启发式平滑先验进行正则化。这通常会导致受影响区域出现不正确的几何形状,因此许多方法以低置信度完全丢弃像素,在重建中留下“洞”(如b1)。 最近,基于学习的单张图像方法得到巨大进展。这样就能摈弃启发式正则化(heuristic regularization),直接从数据中学习场景的先验,这样可以更好地在传统重建方法中,对先前弱甚至错误的部分能够进行更好地合成场景的可信深度。尤其,在重建动态场景方面表现出色,因为从单帧的角度,静态对象和动态对象是相同的。但是,如果对每帧都进行独立的处理,那么估计的深度经常不规律地闪烁,而且它也不是度量的,(即与单张缩放因子的真实深度无关),这实际上就是视频重建时几何上的不一致,就好像物体随相机在晃动,而不是在真实场景运动。 视频深度估计的方法有哪些呢?
但是,解决的主要是静态场景。(静态场景还能算视频???小赵困惑,先留疑) 文章就提出了他们的方法:一种新的基于视频的重构系统——结合了传统方法的优势+基于学习的技术。具体而言:利用传统获得几何约束的方法,实现精确、一致的深度,利用基于学习的先验来合理的填充前者弱约束区域的方法。在测试时微调单个图像深度估计网络的权值,以便它学习满足特定场景的几何形状,同时保持其在必要时合成可信的新深度细节的能力。我们的测试时间训练策略允许我们同时使用短期和长期的约束,防止随时间的漂移。 结果:所得到的深度视频是完全密集和详细的,有清晰的物体边界。整个视频满足几何一致性,从而无闪烁出现。
相关工作:1 Supervised monocular depth estimation——有监督的单眼深度估计
本文的方法建立在单图像深度估计的最新进展的基础上,进一步提高了视频深度估计的几何一致性。 2 Self-supervised monocular depth estimation——自监督的单眼深度估计
3 Multi-view reconstruction——多视点重建
相比之下,我们的方法产生密集的深度,即使存在中等程度的动态场景运动。 4 Depth from video——视频深度
相比之下,虽然本文也利用了来自多视图几何的约束,但深度是从(微调的)单图像深度估计模型中估计的,从而自然地处理动态对象,而不需要显式的运动分割。 5 Temporal consistency——时间一致性
本文工作的不同之处在于,目标是从一个几何一致的视频中产生深度估计。这对于随意捕捉的视频尤其重要,因为随着时间的推移,实际的深度可能在时间上不一致。 6 Depth-aware visual effects——深度感知视觉效果
本文工作从随意捕获的视频实现深度一致的估计,能够实现视频特效。 7 Test-time training——测试时间训练
与以往的方法相比,我们的方法以更高的时间平滑度实现了精确和详细的重建,这对许多基于视频的应用非常重要。 除了这些目标之外,本文的方法和之前的方法之间还有一些重要的技术差异。前人的方法执行一个二进制对象级分割,并估计每个对象的刚性转换。这适用于刚性物体,如街景中的汽车,但不适用于高度变形的物体,如人。也有人使用了一个类似于本文的几何损失,然而,它们只对连续的帧对和相对姿态进行训练。本文使用绝对的姿态和长期的时间连接,消融实验证明了其对获得良好的结果是至关重要的。 总览:本文的方法以单目视频作为输入,并估计每个视频帧的相机姿态以及密集的、几何上一致的深度图(达到比例模糊度)。术语几何一致性不仅意味着深度映射不会随时间而闪烁,而且还意味着所有的深度映射都是相互一致的。也就是说,可以通过像素的深度和相机姿态在帧之间精确地投射像素。例如,一个静态点的所有观测结果都应该映射到世界坐标系中的一个共同的3D点,而不会发生漂移。 当输入视频是随意捕获的,其深度估计具有很多挑战特性。因为它们经常是用手持、未校准的相机拍摄,拍摄的视频存在运动模糊和滚动快门变形。恶劣的照明条件可能会导致噪音水平的增加和额外的模糊。最后,这些视频通常包含动态移动的物体,如人和动物,从而打破了许多为静态场景设计的重建系统的核心假设。 传统方法:正如在前面几节中解释的,在场景中有问题的部分,传统的重建方法通常会产生“洞”(或者,如果被迫返回结果,估计非常嘈杂的深度)。但是,在这些方法有足够的信心返回结果的领域,它通常是相当准确和一致的,因为它们强烈依赖于几何约束。 基于学习方法:最近基于学习的方法具有互补特性,这些方法可以很好地处理上述的挑战,因为它们利用强大的数据驱动,然后从任何输入图像预测可信的深度映射。然而,这些方法对每个帧都独立地处理,会导致几何上不一致和时间闪烁的结果。 本文的想法是结合这两种方法的优势。利用现有的单图像深度估计网络,经过训练为一般颜色图像合成可信(但不一致)深度,使用传统重建方法从视频中提取的几何约束对网络进行微调。因此,该网络学会了在一个特定的视频上产生几何上一致的深度。 本文方法分为两个阶段: 预处理:
测试时间训练:
预处理:1 Camera registration——相机参数
2 Scale calibration——尺度校准
3 Frame sampling——帧采样
4?Optical flow estimation——光流估计
关于输入视频的测试时间训练:
1?Geometric loss =?spatial loss +disparity loss:
2?Discussion——讨论
3?Optimization——优化
4 Implementation details——复现细节
结果与评价:1 实验设置
对于静态序列,使用所有三个指标来评估估计的深度。对于动态序列,只评估光度误差和不稳定性,因为漂移度量不考虑在场景中动态移动的对象。
2 定量分析 比较方法:将本文的结果与目前最先进的三类深度估计算法进行了比较。
Quantitative comparison:如上图所示,光度误差、不稳定性和漂移度量与完整性的关系图。在所有三个指标中,本文的方法都优于以前算法。当评估不稳定性和漂移指标时,本文结果特别突出,重点在于其一致性。如下表,描述的更为具体。 Visual comparison:如下图所示,对不同的深度估计方法做定性比较。传统的多视图立体方法在高纹理区域产生精确的深度,可以建立可靠的匹配。这些深度图包含大孔(黑色像素),如下图b所示。基于学习的单图像深度估计方法为每个单独的视频帧生成密集的、可信的深度图。然而,随着时间的推移,闪烁的深度会导致几何上不一致的深度重建。基于视频的方法,如NeuralRGBD可以了时间闪烁,但由于用于深度估计的时间窗口有限,会出现漂移。 3 消融实验 进行消融研究,以验证采用的几种设计选择的有效性。首先研究了损失的影响以及管道中不同步骤的重要性,包括尺度校准和重叠测试。在下表中总结了这些结果。下图也显示了各种模块的重要程度。 实验表明,使用长期约束有助于提高估计深度随时间变化的稳定性。由于视差损失也有助于减少时间闪烁,在下图中进一步研究了两种设计选择的影响。结果表明,包括来自长期帧对的约束将导致更尖锐和时间上更稳定的结果。相比之下,虽然添加视差损失可以减少时间闪烁,但当只使用连续的帧对时,它会产生模糊的结果。 4 对公共基准测试的定量比较 提供三个公开的基准数据集的定量结果,以评估本文的深度估计的性能。在所有的评估设置中,调整输入图像的大小,使最长的图像尺寸为384。微调了20个epoch的单眼深度估计网络(与立体视频数据集中使用的评估设置相同)。? TUM-RGBD dataset:本文方法在所有的评估指标中都比之前的方法相比有很大的优势。特别是,提出的测试时间训练显著提高了Li等人的基线模型的性能 ScanNet dataset:本文方法实现了与最先进的算法的竞争性能,性能略低于在扫描网训练集上训练的DeepV2D方法。 ?KITTI dataset:结果表明,我们的方法确实提高了在80%以上的测试帧的性能(即使当与具有高分辨率输出的模型相比)。然而,由于COLMAP在场景中具有大动态对象的序列中产生错误的姿态估计,微调方法不可避免地会产生具有非常大误差的深度估计。本文的方法也难以处理重要的动态场景运动。因此,当结果在所有的测试帧上被平均时,方法并没有得到明显的改进。 基于视频的视觉效果一致的视频深度估计使有趣的基于视频的特殊效果。如下图显示了这些效应的样本。 缺陷:所提出的视频深度估计方法存在一些局限性和缺点。 ?Poses:方法目前依赖于COLMAP来从单眼视频中估计相机的姿态。然而,在具有挑战性的场景下,例如,有限的相机平移和运动模糊,COLMAP可能无法产生可靠的稀疏重建和相机姿态估计。较大的姿态误差对本文的结果有很强的退化效应。这限制了方法对此类视频的适用性。 Dynamic motion:本文方法仅支持包含适度物体运动的视频,不支持极端的物体运动。 Flow:本文依赖于FlowNet2来建立几何约束。不可靠的光流通过向前向后的一致性检查进行过滤,但它可能以一致的方式偶然错误。在这种情况下,将不能产生正确的深度。尝试使用稀疏流(在常规网格上对密集流进行子采样),但效果不佳。 Speed:当使用视频中的所有帧来提取几何约束时,不支持在线处理。例如,对于一个包含244帧和708个采样流对的视频,测试时间训练步骤大约需要40分钟。而在未来开发在线和快速的变体将对实际应用非常重要。 总结:文章提出了一种简单而有效的方法来估计从单眼视频的一致深度。利用传统的多视图重建方法提取的几何约束,并使用它们来微调预先训练好的单幅图像深度估计网络。使用测试时间微调策略,网络学习在整个视频上产生几何上一致的深度估计。同时,进行了广泛的定量和定性评价。结果表明,本文方法优于几种最先进的深度估计算法。同时,一致的视频深度估计使引人注目的基于视频的视觉效果。 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/26 15:52:49- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |