当前位置: 首页 > news >正文

SLAM定位总结

文章目录

  • 一、激光定位
    • 1.A-LOAM (2018)
    • 2.F-LOAM (2021)
    • 3.CT-ICP (2022)
    • 3.DLO:Fast Localization with Dense Point Clouds (2022)
    • 4.kiss-ICP :In Defense of Point-to-Point ICP Simple, Accurate, and Robust Registration If Done the Right Way(2023)
    • 5.ICP-Flow:LiDAR Scene Flow Estimation with ICP (2024)
    • 6.Traj-LO: In Defense of LiDAR-Only Odometry Using an Effective Continuous-Time Trajectory (2024)
  • 二、视觉定位
    • 1.VINS-Mono: A Robust and Versatile Monocular Visual-Inertial State Estimator (2018)
    • 2.ORB-SLAM3: ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM (2021)
    • 3.DROID-SLAM: Deep Visual SLAM for Monocular,Stereo, and RGB-D Cameras (2022)
    • 4.NICE-SLAM: Neural Implicit Scalable Encoding for SLAM
    • 5.Co-SLAM: Joint Coordinate and Sparse Parametric Encodings for Neural Real-Time SLAM (2023)
    • 6. CG-SLAM: Efficient Dense RGB-D SLAM in a Consistent Uncertainty-aware 3D Gaussian Field (2024)
  • 三、多传感器融合定位
    • 1.LVI-SAM:Tightly-coupled Lidar-Visual-Inertial Odometryvia Smoothing and Mapping (2021)
    • 2. R3LIVE:A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual tightly-coupled state Estimation and mapping package (2022)
    • 3.FAST-LIVO2:Fast, Direct LiDAR-Inertial-Visual Odometry(2024)


一、激光定位

1.A-LOAM (2018)

1.代码:github

A-LOAM 是 LOAM 的高级实现(J. Zhang 和 S. Singh. LOAM: Lidar Odometry and Mapping in Real-time),它使用 Eigen 和 Ceres Solver 简化代码结构。该代码是从 LOAM 和 LOAM_NOTED 修改而来的。代码结构简洁明了,没有复杂的数学推导和冗余操作,是 SLAM 初学者的良好学习材料。

在这里插入图片描述

2.F-LOAM (2021)

代码:github
原文:原文

摘要:同时定位与地图构建(SLAM)在自主驾驶和无人机等机器人应用中具有广泛的应用。计算效率和定位精度对一个良好的 SLAM 系统至关重要。现有的基于 LiDAR 的 SLAM 工作通常将问题分为两个模块:扫描到扫描的匹配和扫描到地图的优化。这两个模块的解决方案都需要进行迭代计算,计算成本较高。在本文中,我们提出了一种通用解决方案,旨在为基于 LiDAR 的 SLAM提供一个计算效率高且准确的框架。具体来说,我们采用一种非迭代的两阶段畸变补偿方法,以降低计算成本。对于每个扫描输入,边缘和平面特征分别提取并匹配到局部边缘图和局部平面图,同时考虑局部平滑性以进行迭代姿态优化。我们进行了全面的实验,以评估该方法在具有挑战性的场景中的表现,包括对仓库自动引导车(AGV)的定位和在自主驾驶公共数据集上的测试。所提出的方法在公共数据集评估中实现了具有竞争力的定位精度,处理速度超过10 Hz,为实际应用提供了性能和计算成本之间的良好权衡。它是 KITTI 数据集中排名最准确和最快的开源 SLAM 系统之一。

在这里插入图片描述

3.CT-ICP (2022)

代码:github
原文:原文

摘要——多束 LiDAR传感器在机器人领域的应用日益增加,特别是在自主汽车的定位和感知任务中,这两者都依赖于构建精确环境地图的能力。为此,我们提出了一种新的实时 LiDAR 专用里程计方法,称为 CT-ICP(连续时间 ICP),并通过一种新颖的回环检测程序将其完善为完整的 SLAM方法。该方法的核心在于引入了扫描匹配中的连续性和扫描之间的不连续性。它允许在配准过程中对扫描进行弹性畸变,以提高精度,同时增强对来自不连续性的高频运动的鲁棒性。我们在此里程计的基础上构建了一个完整的 SLAM,使用基于高程图像的 2D 匹配的快速纯 LiDAR 回环检测,提供了带有回环约束的姿态图。为了展示该方法的鲁棒性,我们在七个数据集上进行了测试:KITTI、KITTI-raw、KITTI-360、KITTI-CARLA、ParisLuco、Newer College 和 NCLT,涵盖驾驶和高频运动场景。CT-ICP 里程计和回环检测均已在线发布。目前,CT-ICP在提供公共代码的系统中位居 KITTI 里程计排行榜第一,平均相对位移误差(RTE)为 0.59%,在单线程 CPU 上每次扫描的平均时间为60 毫秒。

在这里插入图片描述
图 1:上方,彩色显示一幅 LiDAR 扫描;颜色取决于每个点的时间戳(从最旧的蓝色到最新的红色)。扫描通过在扫描开始和结束时对两个姿态的联合优化以及根据时间戳进行插值,弹性变形以与地图(白点)对齐,从而创建了连续时间的扫描到地图的里程计。下方则是我们轨迹的表述,其中扫描内姿态连续,而扫描之间存在不连续性。

3.DLO:Fast Localization with Dense Point Clouds (2022)

代码:代码
原文:原文

摘要——在感知挑战性环境中的野外机器人需要快速且准确的状态估计,但现代 LiDAR传感器很快会使现有的里程计算法不堪重负。为此,本文提出了一种轻量级的前端 LiDAR里程计解决方案,旨在为计算能力有限的机器人平台提供一致且准确的定位。我们的直接 LiDAR里程计(DLO)方法包含多个关键的算法创新,优先考虑计算效率,并能够使用密集、经过最小预处理的点云实时提供准确的姿态估计。这是通过一种新颖的关键帧系统实现的,该系统有效管理历史地图信息,并结合自定义的迭代最近点求解器,以快速进行点云配准并回收数据结构。与当前的最先进方法相比,我们的方法在计算开销更低的情况下更为准确,并已在多种感知挑战性环境中进行了广泛评估,适用于航空和四足机器人,这也是NASA JPL CoSTAR 团队为 DARPA 地下挑战进行的研究和开发工作的一部分。

在这里插入图片描述
图 1. 快速轻量级 LiDAR 里程计。团队 CoSTAR 的两个计算资源有限的机器人平台。(A)我们的定制四旋翼平台,顶部配备 Ouster OS1 LiDAR 传感器。(B)一款波士顿动力 Spot 机器人,装载了定制负载和带保护罩的 Velodyne VLP-16。(C)使用我们轻量级里程计方法在这些机器人进行 DARPA 地下挑战测试和集成时,映射的石灰岩矿的俯视图。

4.kiss-ICP :In Defense of Point-to-Point ICP Simple, Accurate, and Robust Registration If Done the Right Way(2023)

代码:github
原文:原文

摘要——机器人平台的鲁棒且精确的姿态估计,即基于传感器的里程计,是许多机器人应用中的重要组成部分。尽管许多传感器里程计系统通过增加自运动估计过程的复杂性取得了进展,我们则采取相反的方向。通过去除大部分组件并专注于核心要素,我们获得了一个令人惊讶的高效系统,该系统易于实现,并可在不同环境条件下与多种 LiDAR 传感器配合使用。我们的里程计估计方法依赖于点对点 ICP,结合了自适应阈值匹配、鲁棒核函数、一个简单但广泛适用的运动补偿方法以及点云的子采样策略。该方法生成的系统仅包含少数参数,且大多数情况下无需针对特定 LiDAR 传感器进行调整。我们的系统在各种运行条件下表现与最新方法相当,且在不同平台(如汽车平台、无人机操作、赛格威车辆或手持式 LiDAR)中均使用相同参数。我们无需集成 IMU 数据,仅依赖于来自多种 3D LiDAR传感器的三维点云,从而支持广泛的应用和运行条件。我们开源的系统在所有展示的数据集中运行速度快于传感器的帧率,并专为真实场景设计。
在这里插入图片描述
图 1:我们提出的里程计流程在不同数据集上生成的点云地图(蓝色),使用相同的一组参数。最新的扫描以黄色表示。扫描使用不同的传感器记录,具有不同的点密度、不同的朝向和不同的拍摄模式。汽车示例来自 MulRan 数据集 [15]。Voxgraph 数据集 [23] 中的无人机和 NCLT 数据集 [5] 中使用的赛格威机器人展示了高加速度的运动特征。手持的 Livox LiDAR [17] 具有与常用的旋转机械 LiDAR 完全不同的拍摄模式。

5.ICP-Flow:LiDAR Scene Flow Estimation with ICP (2024)

代码:github
原文原文

场景流描述了由自主车辆在相邻时间步捕获的两个 LiDAR扫描之间的三维运动。现有的方法将场景流视为点wise无约束流向量,这些向量可以通过大规模预训练或在推理时的耗时优化进行学习。然而,这些方法并未考虑到自主驾驶中的物体通常是刚性移动的。我们将这一刚性运动假设融入到设计中,目标是将扫描中的物体关联起来,然后估计局部的刚性变换。我们提出了 ICP-Flow,一种无学习的流估计器。我们设计的核心是传统的迭代最近点(ICP)算法,它在时间上对物体进行对齐,并输出相应的刚性变换。重要的是,为了辅助ICP,我们提出了一种基于直方图的初始化方法,发现最可能的平移,从而为 ICP 提供良好的起始点。完整的场景流随后从刚性变换中恢复。我们在 Waymo 数据集上的表现优于最先进的基线,包括监督模型,并在 Argoverse-v2 和 nuScenes上表现出色。此外,我们训练了一个前馈神经网络,以我们模型生成的伪标签作为监督,并在所有能够进行实时推理的模型中取得最佳表现。我们验证了我们的模型在具有更长时间间隔(最长可达 0.4 秒)的场景流估计中的优势,而其他模型无法提供有意义的结果。

在这里插入图片描述
图 1. 场景流的 ICP。给定两个 LiDAR 扫描,我们去除地面,聚类点,并使用 ICP 对聚类进行对齐,因为物体是刚性移动的。我们推导每对聚类的刚性变换,从中可以恢复场景流。此外,我们使用模型的预测作为监督,训练一个前馈网络。该网络实时运行,性能损失微乎其微。
在这里插入图片描述

6.Traj-LO: In Defense of LiDAR-Only Odometry Using an Effective Continuous-Time Trajectory (2024)

代码:代码
原文:原文

LiDAR 里程计是众多机器人应用中的关键组成部分。然而,目前的仅基于 LiDAR 的方法在激烈情况下表现较差。与专注于通过额外的惯性传感器提高精度的主流方法不同,本文展示了通过连续时间视角,LiDAR足以实现类似的能力。首先,将 LiDAR 的测量视为在不同时间连续捕获的流式点。其次,LiDAR的运动通过一个简单但有效的连续时间轨迹进行参数化。因此,我们提出的名为 Traj-LO 的方法可以通过紧密结合 LiDAR 点的几何信息和轨迹平滑性的运动学约束,恢复 LiDAR 的时空一致运动。该框架可推广到不同类型的 LiDAR 以及多 LiDAR 系统。在公共数据集上的大量实验验证了我们提出的仅基于 LiDAR 的方法的鲁棒性和有效性,即使在运动状态超出 IMU测量范围的情况下也能表现良好。

在这里插入图片描述
上面的图显示了室内场景(a)在加速度超过 IMU 测量范围 3G 的情况下的映射结果。橙色线是 LiDAR 轨迹。(b)在如此快速的运动中,摄像头传感器完全模糊。(d)FAST-LIO [7] 显著漂移(c),而我们的方法在仅使用 LiDAR 的情况下仍然有效。

在这里插入图片描述
轨迹 T(t) 显示了激光雷达在时间间隔 [t0, tk) 上的连续移动。底部是一个范围图像[5],它是由一个64线激光雷达在360°的圆形运动中收集的点云。只有同一列中的点是同时测量的。

二、视觉定位

1.VINS-Mono: A Robust and Versatile Monocular Visual-Inertial State Estimator (2018)

代码:github
原文:原文

一台相机和一个低成本的惯性测量单元(IMU)构成了单目视觉惯性系统(VINS),这是进行度量六自由度(DOF)状态估计所需的最小传感器组合(在尺寸、重量和功耗方面)。在本文中,我们提出了 VINS-Mono:一种鲁棒且多功能的单目视觉惯性状态估计器。我们的方法从鲁棒的估计器初始化过程开始。通过融合预积分的 IMU测量和特征观测,使用紧密耦合的非线性优化方法获得高精度的视觉惯性里程计。结合我们的紧密耦合公式,循环检测模块实现了最小计算的重新定位。此外,我们执行 4 自由度的姿态图优化以确保全局一致性。进一步地,所提出的系统可以通过高效的方式保存和加载地图来重用地图。当前地图和之前的地图可以通过全局姿态图优化合并在一起。我们在公共数据集和实际实验中验证了系统的性能,并与其他最先进的算法进行了比较。我们还在微型航空器平台上进行了机载闭环自主飞行,并将算法移植到基于 iOS 的演示中。我们强调,所提出的工作是一个可靠、完整且多功能的系统,适用于需要高定位精度的不同应用。

在这里插入图片描述

2.ORB-SLAM3: ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM (2021)

代码:代码
原文:原文

摘要——本文介绍了 ORB-SLAM3,这是第一个能够使用单目、立体和 RGB-D 相机执行视觉、视觉惯性和多地图 SLAM 的系统,采用针孔和鱼眼镜头模型。 第一个主要创新是一个基于特征的紧密集成视觉惯性 SLAM 系统,该系统完全依赖于最大后验(MAP)估计,甚至在 IMU 初始化阶段也是如此。结果是该系统在小型和大型、室内和室外环境中都能实时稳定运行,其精度是先前方法的两到十倍。 第二个主要创新是一个多地图系统,依赖于一种新的地点识别方法,具有改进的召回率。得益于此,ORB-SLAM3能够在视觉信息较差的长时间段内生存:当系统迷失时,它会启动一个新地图,并在重新访问已映射区域时无缝地与之前的地图合并。与仅使用最近几秒钟信息的视觉里程计系统相比,ORB-SLAM3 是第一个能够在所有算法阶段重用所有先前信息的系统。这使得在捆绑调整中可以包含共视关键帧,这些关键帧提供高视差观测,提升精度,即使它们在时间上相距较远或来自之前的映射会话。我们的实验表明,在所有传感器配置下,ORB-SLAM3 与文献中现有的最佳系统一样稳健,且显著更为精确。值得注意的是,我们的立体惯性 SLAM 在 EuRoC 无人机中实现了平均精度 3.5 厘米,在 TUM-VI 数据集的房间中,在快速手持运动下达到了 9 毫米,这一设置代表了 AR/VR 场景。为了惠及社区,我们公开了源代码。

在这里插入图片描述

3.DROID-SLAM: Deep Visual SLAM for Monocular,Stereo, and RGB-D Cameras (2022)

代码:代码
原文:原文

我们介绍了 DROID-SLAM,一个基于深度学习的新的 SLAM 系统。DROID-SLAM 通过一个密集捆绑调整层进行相机姿态和逐像素深度的递归迭代更新。DROID-SLAM 精度高,相较于之前的工作有显著提升,并且鲁棒性强,遭遇灾难性失败的情况大大减少。尽管是在单目视频上进行训练,它仍然可以利用立体或 RGB-D 视频在测试时实现更好的性能。

图 1:DROID-SLAM 可以在单目、立体和 RGB-D 视频上运行。它在构建环境的密集 3D 地图的同时,实现了相机在地图中的定位。

4.NICE-SLAM: Neural Implicit Scalable Encoding for SLAM

代码:github
原文:原文

摘要:神经隐式表示最近在多个领域展现了令人鼓舞的结果,包括在同时定位与地图构建(SLAM)方面的良好进展。然而,现有方法生成的场景重建过于平滑,且难以扩展到大规模场景。这些局限主要源于其简单的全连接网络架构,未能在观测中结合局部信息。在本文中,我们提出了NICE-SLAM,一种通过引入分层场景表示来整合多级局部信息的密集 SLAM系统。通过使用预训练的几何先验来优化该表示,使得在大型室内场景中能够进行详细重建。与最近的神经隐式 SLAM系统相比,我们的方法更具可扩展性、高效性和鲁棒性。在五个具有挑战性的数据集上的实验表明,NICE-SLAM 在地图构建和跟踪质量方面都取得了具有竞争力的结果。

在这里插入图片描述
图2. 系统概览。我们的方法以RGB-D图像流为输入,并输出相机姿态以及以分层特征网格形式学习的 scene 表示。从右到左,我们的处理流程可以被解释为一个生成模型,它根据给定的 scene 表示和相机姿态渲染深度和彩色图像。在测试时,我们通过反向传播图像和深度重建损失来解决逆问题,估计 scene 表示和相机姿态,通过可微分的渲染器(从左到右)。这两个实体是在交替优化中估计的:映射:反向传播仅更新分层 scene 表示;跟踪:反向传播仅更新相机姿态。为了更好的可读性,我们将用于几何编码的细尺度网格与等大小的颜色网格合并,并展示为一个具有两个属性(红色和橙色)的网格。

5.Co-SLAM: Joint Coordinate and Sparse Parametric Encodings for Neural Real-Time SLAM (2023)

代码:代码
原文:原文

我们介绍了 Co-SLAM,一种基于混合表示的神经 RGB-D SLAM 系统,能够实时执行稳健的相机跟踪和高保真度的表面重建。Co-SLAM 将场景表示为多分辨率哈希网格,以利用其高收敛速度和表示高频局部特征的能力。此外,Co-SLAM采用了一种单一块编码方法,以促进在未观测区域的表面一致性和补全。这种联合参数坐标编码通过结合快速收敛和表面孔填充的优点,实现了实时和稳健的性能。此外,我们的射线采样策略使Co-SLAM 能够对所有关键帧执行全局束调整,而不需要像其他竞争性神经 SLAM方法那样通过选择关键帧来维持少量活动关键帧。实验结果表明,Co-SLAM 的运行频率为 10-17Hz,且在各种数据集和基准测试(ScanNet、TUM、Replica、SyntheticRGBD)中实现了最先进的场景重建结果和具有竞争力的跟踪性能。

在这里插入图片描述
图3. Co-SLAM的概述。1) Scene表示:使用我们新的联合坐标+参数编码,输入坐标通过两个浅层MLP(多层感知机)映射到RGB和SDF(符号距离场)值。2) 跟踪:通过最小化损失来优化每帧的相机姿态 ξ t \xi_{t} ξt。3) 建图:从所有关键帧采样光线进行全局捆绑调整,以联合优化scene表示和相机姿态。

6. CG-SLAM: Efficient Dense RGB-D SLAM in a Consistent Uncertainty-aware 3D Gaussian Field (2024)

代码:githgub
原文:原文

摘要:最近,神经辐射场(NeRF)被广泛用于密集的同时定位与地图构建(SLAM)中的 3D 表示。尽管它们在表面建模和新视图合成方面取得了显著成功,但现有的基于 NeRF 的方法受到计算密集型和耗时的体积渲染流程的限制。本文提出了一种高效的密集 RGB-D SLAM 系统,即CG-SLAM,基于一种新颖的不确定性感知 3D高斯场,具有高一致性和几何稳定性。通过对高斯喷溅的深入分析,我们提出了几种构建一致且稳定的适合于跟踪和地图构建的 3D 高斯场的技术。此外,提出了一种新颖的深度不确定性模型,以确保在优化过程中选择有价值的高斯原语,从而提高跟踪效率和准确性。在各种数据集上的实验表明,CG-SLAM 实现了优越的跟踪和地图构建性能,跟踪速度高达 15 Hz。我们将公开我们的源代码。

在这里插入图片描述
图2:系统概览。在由RGB-D序列构建的3D高斯场中,我们可以通过GPU加速的光栅化器渲染颜色、深度、不透明度和不确定性图。此外,我们为每个高斯原语附加了一个新的不确定性属性,以过滤信息丰富的原语。在建图过程中,我们利用多个渲染结果来设计有效的损失函数,以实现一致且稳定的高斯场。随后,我们使用外观和几何线索来执行准确高效的跟踪。

三、多传感器融合定位

1.LVI-SAM:Tightly-coupled Lidar-Visual-Inertial Odometryvia Smoothing and Mapping (2021)

原文:原文
代码:github

摘要 -我们提出了一个通过平滑和映射实现紧密耦合的激光雷达-视觉-惯性里程计的框架,LVI-SAM,它能够以高准确度和鲁棒性实现实时状态估计和地图构建。LVI-SAM建立在因子图之上,由两个子系统组成:一个视觉-惯性系统(VIS)和一个激光雷达-惯性系统(LIS)。这两个子系统被设计为紧密耦合的方式,其中VIS利用LIS的估计来促进初始化。通过使用激光雷达测量提取视觉特征的深度信息,提高了VIS的准确性。反过来,LIS利用VIS的估计作为初始猜测来支持扫描匹配。循环闭合首先由VIS识别,然后由LIS进一步完善。即使两个子系统之一失败,LVI-SAM也能正常工作,这增强了它在纹理不足和特征不足环境中的鲁棒性。LVI-SAM在从多个平台收集的各种规模和环境中的数据集上进行了广泛的评估。我们的实现可以在 https://git.io/lvi-sam 上找到。

在这里插入图片描述
图1:LVI-SAM的系统结构。该系统接收来自3D激光雷达、摄像头和IMU的输入,可以被划分为两个子系统:一个视觉-惯性系统(VIS)和一个激光雷达-惯性系统(LIS)。VIS和LIS可以独立运行,同时使用彼此的信息来提高系统的准确性和鲁棒性。系统以IMU的速率输出姿态估计。

2. R3LIVE:A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual tightly-coupled state Estimation and mapping package (2022)

代码:代码
原文:

在本文中,我们提出了一种新颖的 LiDAR-惯性-视觉传感器融合框架,称为 R³ LIVE,该框架利用LiDAR、惯性和视觉传感器的测量数据,实现鲁棒且准确的状态估计。R³ LIVE 由两个子系统组成:LiDAR-惯性测程(LIO)和视觉-惯性测程(VIO)。LIO 子系统(FAST-LIO)利用来自 LiDAR和惯性传感器的测量数据,构建地图的几何结构(即 3D 点的位置)。VIO 子系统则使用视觉-惯性传感器的数据,为地图渲染纹理(即 3D 点的颜色)。更具体而言,VIO 子系统通过最小化帧与地图之间的光度误差,直接有效地融合视觉数据。提出的系统 R³ LIVE 基于我们之前的工作 R² LIVE,具有完全不同的 VIO 架构设计。整体系统能够实时重建周围环境的精确、密集、3D RGB彩色地图(请参见我们附带的视频 https://youtu.be/j5fT8NE5fdg)。我们的实验表明,所得到的系统在状态估计的鲁棒性和准确性上优于当前的同类方法。为了分享我们的发现并为社区做出贡献,我们将在我们的 GitHub 上开源 R³ LIVE https://github.com/hku-mars/r31ive。
在这里插入图片描述

3.FAST-LIVO2:Fast, Direct LiDAR-Inertial-Visual Odometry(2024)

代码:代码
原文:原文

摘要—本文提出了FAST-LIVO2:一个快速、直接的激光雷达-惯性-视觉里程计框架,旨在实现准确且稳健的状态估计,以支持同时定位与地图构建(SLAM)任务,并为实时的车载机器人应用提供巨大潜力。FAST-LIVO2通过误差状态迭代卡尔曼滤波器(ESIKF)高效地融合IMU、激光雷达和图像测量。为了解决异构激光雷达和图像测量之间的维度不匹配问题,我们在卡尔曼滤波器中采用顺序更新策略。为了提高效率,我们为视觉和激光雷达融合使用直接方法,其中激光雷达模块在不提取边缘或平面特征的情况下注册原始点,而视觉模块在不提取ORB或FAST角点特征的情况下最小化直接光度误差。视觉和激光雷达测量的融合基于单一统一的体素地图,其中激光雷达模块构建几何结构以注册新的激光雷达扫描,视觉模块将图像块附加到激光雷达点(即视觉地图点),从而实现新的图像对齐。为了提高图像对齐的准确性,我们利用体素地图中的激光雷达点的平面先验(甚至在对齐过程中细化平面先验),并在新的图像对齐后动态更新参考块。此外,为了增强图像对齐的稳健性,FAST-LIVO2采用按需光线投射操作,并实时估计图像曝光时间。我们在基准数据集和私有数据集上进行了广泛的实验,证明了我们提出的系统在准确性、鲁棒性和计算效率方面显著优于其他最先进的里程计系统。此外,系统中关键模块的有效性也得到了验证。最后,我们详细介绍了FAST-LIVO2的三个应用:无人机车载导航,展示了该系统在实时车载导航中的计算效率;空中测绘,展示了系统的测绘精度;以及3D模型渲染(基于网格和基于NeRF),强调了我们重建的密集地图在后续渲染任务中的适用性。我们在GitHub上开源了此工作的代码、数据集和应用,以惠及机器人社区。

在这里插入图片描述
图1:FAST-LIVO2实时生成的测绘结果。(a)-(c)展示了空中测绘,(d)表示使用手持设备收集的零售街道,(e)展示了一次实验,其中无人机携带激光雷达、相机和惯性传感器在其机载计算机上执行实时状态估计(即FAST-LIVO2)、轨迹规划和跟踪控制。在(d)-(e)中,蓝色线条表示计算出的轨迹。在(e1)-(e4)中,白色点表示此时的激光雷达扫描,彩色线条描绘了规划轨迹。(e1)和(e4)标记了激光雷达退化的区域。(e2)和(e3)展示了避障情况。(e5)和(e6)显示了从室内到室外的相机第一人称视角,强调了从突然过度曝光到正常的光照变化。

更新中…


http://www.mrgr.cn/news/65663.html

相关文章:

  • qt QStatusBar详解
  • 回归预测 | MATLAB实现基于RF-Adaboost随机森林结合AdaBoost多输入单输出回归预测
  • 算法妙妙屋-------1.递归的深邃回响:二叉树的奇妙剪枝
  • el-table 滚动条重置 手动控制滚动条
  • 基于Spring Boot的高校宣讲会管理系统设计与实现,LW+源码+讲解
  • grpc 云原生 概念介绍
  • kd树的原理简述
  • Pandas进行时间重采样与聚合
  • keepalived + nginx 实现网站高可用性(HA)
  • 刷题(question)
  • 小张求职记三:面试通过
  • 开源免费的API网关介绍与选型
  • 【InfluxDB】InfluxDB 2.x基础概念及原理
  • 进度条的实现(配合make和makefile超详细)
  • Python绘制正弦函数图形
  • 集成框架 -- 自定义二方包 starter
  • 分析自动下载电路是如何工作的以及CH340的选型
  • Autocad2018
  • LeetCode:3259. 超级饮料的最大强化能量(DP Java)
  • git原理与上传
  • Backbone网络详解
  • Docker部署Portainer CE结合内网穿透实现容器的可视化管理与远程访问
  • Python 枚举enum
  • 时间服务器
  • 【操作系统】基于环形队列的生产消费模型
  • 堆heap的讨论、习题与代码