ORBSLAM系列|ORB-SLAM2论文带读(下)

发布于 2023-9-25 14:29
浏览
0收藏

ORBSLAM系列|ORB-SLAM2论文带读(下) -汽车开发者社区

评估

本文在三个主流数据集上评估ORB-SLAM2,并且与其它最先进的SLAM系统比较(总是使用原作者发表的结果和文献中的标准评估指标)。我们在配有16Gb内存的Intel Core i7-4790台式计算机上运行ORB-SLAM2。为了考虑多线程系统的非确定性本质,我们在每个序列上运行5次,并且展示被估计轨迹精度的中值结果。我们的开源实现包含标定和在所有这些数据集上运行系统的指令。


A.KITTI数据集

ORBSLAM系列|ORB-SLAM2论文带读(下) -汽车开发者社区

ORBSLAM系列|ORB-SLAM2论文带读(下) -汽车开发者社区

本文系统在大多数序列上超越了双目LSD-SLAM,并且总体上获得相对误差低于1%。序列01(​​见图3​​)是训练集中唯一的高速公路序列,其平移误差稍微较差。在这个序列中平移更难估计,由于高速和低帧率,所以只能跟踪到非常少的近点。然而,旋转能够被精确地估计,获得每100米0.21°的误差,因为有很多远点可以长期跟踪。图4展示一些被估计轨迹的示例。

ORBSLAM系列|ORB-SLAM2论文带读(下) -汽车开发者社区

与单目结果相比,本文所提出的双目版本能够处理序列01(其中单目系统失败)。在这个高速公路序列中,近点仅在若干帧中可见。双目版本能够通过仅一个双目关键帧创建地图点,而不是单目版本中的延迟初始化,单目版本通过搜寻两个关键帧之间的匹配来完成初始化,双目版本的这一优势在这个序列中至关重要,它不会丢失跟踪。此外,双目系统估计具有度量尺度的地图和轨迹,并且不受尺度漂移的影响,如图5所示。

ORBSLAM系列|ORB-SLAM2论文带读(下) -汽车开发者社区


B.EuRoC数据集


最新的EuRoC数据集包含11个双目序列,该序列由微型飞行器(MAV)环绕两个不同房间和一个大型工业环境飞行而记录的。双目传感器具有大约11cm基线,并且以20Hz频率提供WVGA图像。该序列根据MAV的飞行速度、光照和场景纹理被分类为简单、中等和困难。在所有序列中,MAV重新回到先前环境中,并且ORB-SLAM2能够复用其地图,当需要时进行回环。表格II展示ORB-SLAM2在所有序列上的绝对平移RMSE,并且与双目LSD-SLAM进行对比。

ORBSLAM系列|ORB-SLAM2论文带读(下) -汽车开发者社区

ORB-SLAM2实现厘米级的定位精度,并且比双目LSD-SLAM更为精确。由于严重的运动模糊,我们的系统跟踪在序列V2_03_difficult的一些部分中丢失。其实,通过IMU信息能够在这个序列上继续运行。图6展示计算的轨迹与真实轨迹相比的示例。

ORBSLAM系列|ORB-SLAM2论文带读(下) -汽车开发者社区


C.TUM RGB-D数据集


TUM RGB-D数据集包含来自RGB-D传感器的室内序列,其在不同纹理、光照和结构条件下被分组为若干类别以评估物体重建和SLAM/里程计方法。我们展示在序列子集上的结果,这些序列子集是大多数RGB-D方法通常评估用的。在表格III中,我们比较系统与如下最先进方法之间的精度:ElasticFusion(ElasticFusion: Real-time dense SLAM and light source estimation)、Kintinuous(Real-time large-scale dense RGB-D SLAM with volumetric fusion)、DVO-SLAM(Dense visual SLAM for RGB-D cameras)和RGB-D SLAM(3-D mapping with an RGB-D camera)。

ORBSLAM系列|ORB-SLAM2论文带读(下) -汽车开发者社区


我们的方法是唯一基于BA且在大多数序列上超越了其它方法。正如我们已经注意到RGB-D SLAM的结果,序列freiburg2的深度图具有4%的尺度偏差(可能来源于校准误差),我们在本文系统中对其进行补偿,这可能部分地解释了本文系统具有明显更好结果的原因。图7展示了通过四个序列中计算的关键帧位姿反向投影传感器深度图得到的点云结果。良好的清晰度以及桌子和招贴画的直线轮廓证明了本文方法具有高精度的定位。

ORBSLAM系列|ORB-SLAM2论文带读(下) -汽车开发者社区


D.耗时结果


为了完成对所提出系统的评估,我们在表格IV中展示使用不同图像分辨率和传感器的三个序列中的耗时结果。

ORBSLAM系列|ORB-SLAM2论文带读(下) -汽车开发者社区

表格中显示每个线程任务的均值和两个标准偏差范围。由于这些序列包含单个回环、全局BA和回环线程仅执行一次且仅报告一次时间测量的一些任务。每帧的平均跟踪时间低于每个序列相机帧率的倒数,这意味着本文系统能够实时工作。由于在双目图像上的ORB特征提取是并行运行的,因此可以看出,在V2_02的双目WVGA图像中提取1000个ORB特征的耗时类似于在序列fr3_office的单个VGA图像通道中提取相同数量特征的耗时。


回环中关键帧的数量仅作为与回环相关的耗时参考。尽管KITTI 07中的回环包含更多的关键帧,但是室内序列fr3_office构建的共视图更为稠密,因此回环融合、位姿图优化和全局BA任务更为耗时。共视图更高的密度使得局部地图包含更多的关键帧和地图点,因此局部地图跟踪和局部BA也更为耗时。

总结

本文提出一种针对单目、双目和RGB-D传感器的完整SLAM系统,它能够在标准CPUs上实时地执行重定位、回环并且复用其地图。我们着重于构建全局一致的地图用于在实验所描述的大量环境中进行可靠且长期的定位。本文所提出的定位模式使用系统的重定位功能,从而是一种对于已知环境非常鲁棒、零漂移且轻量级的定位方法。该模式对于特定应用非常有用,例如在虚拟现实中的已建图区域内跟踪用户视角。


本文系统与最先进方法的比较表明ORB-SLAM2在大多数情况下实现了最高的精度。在KITTI视觉里程计基准数据集上,ORB-SLAM2是目前最优的双目SLAM解决方案。重要的是,与近年来蓬勃发展的双目视觉里程计方法相比,ORB-SLAM2在已建图区域内实现了零漂移定位。


令人惊讶的是,我们的RGB-D结果表明,如果需要最精确的相机定位,则BA比直接法或者ICP(其具有计算代价低的额外优势)表现更好,不需要GPU处理就能实时地运行。


我们已经发布了本文系统的源代码,以及一些示例和指令,以便其他研究者能够容易地使用它。据我们所知,ORB-SLAM2是首个开源的视觉SLAM系统,它能够处理单目、双目和RGB-D输入。此外,我们的源代码包含一个增强现实应用的示例,它使用单目相机来证明我们解决方案的潜力。


举例而言,未来扩展工作可能包括非重叠多相机、鱼眼或者全景相机支持、大尺度稠密融合、协作建图或者增强对于运动模糊的鲁棒性。


文章转载自公众号:自动驾驶专栏

分类
收藏
回复
举报
回复
相关推荐