Skip to main content

初探 SLAM

img

同步定位与地图构建 (SLAM) 是机器人/自动驾驶领域所用的一种技术。你不仅可以用它构建地图,还可同时在该地图上定位你的机器人。SLAM 算法让机器人能够构建未知环境的地图,你还将使用地图信息执行路径规划和避障等任务。

SLAM 为何重要

早在多年前,人们就已开始对 SLAM 开展技术研究。如今,随着计算机处理速度显著提升,且相机和激光雷达等传感器大为普及,SLAM 算法更是在越来越多的领域投入实际应用。

SLAM 为何重要?要回答这个问题,我们可以看看以下这个例子,了解它有哪些好处和应用。

SLAM 示例

假设有一个家用扫地机器人。没有 SLAM,它只会在房间里随机移动,无法打扫整个地面空间。这样会消耗更多功率,电池会更快耗尽。而采用 SLAM 算法的机器人可以使用滚轮转数以及来自相机和其他成像传感器的数据,确定移动量。这称为定位。机器人还可以同步使用相机和其他传感器创建其周围障碍物的地图,避免同一区域清洁两次。这称为建图。

img

SLAM 算法还可用于许多其他应用场景中,例如让移动机器人在仓库中移动并整理货架,让自动驾驶汽车停泊到空车位,或者让无人机在未知环境中完成送货。你可以在实现同步定位与地图构建的同时,完成传感器融合、目标跟踪、路径规划和路径跟随等其他任务。

SLAM 工作原理

大致说来,实现 SLAM 需要两类技术。一类技术是传感器信号处理(包括前端处理),这类技术在很大程度上取决于所用的传感器。另一类技术是位姿图优化(包括后端处理),这类技术与传感器无关。可以通过右侧视频初步了解。img
SLAM 一般处理流程img

SLAM 方法的类型

为了解有关前端处理的更多信息,我们将探索不同 SLAM 方法,如视觉 SLAM、激光雷达 SLAM 和多传感器 SLAM。

视觉 SLAM

顾名思义,视觉 SLAM(又称 VSLAM)使用从相机或其他图像传感器采集的图像。视觉 SLAM 可以使用普通相机(广角、鱼眼和球形相机)、复眼相机(立体相机和多相机)和 RGB-D 相机(深度相机和 ToF 相机)。

视觉 SLAM 所需的相机价格相对低廉,因此实现成本较低。此外,相机可以提供大量信息,因此还可以用来检测路标(即之前测量过的位置)。路标检测还可以与基于图的优化结合使用,这有助于灵活实现 SLAM。

使用单个相机作为唯一传感器的 VSLAM 称为单目 SLAM,这种 vSLAM 难以定义深度。这个问题可以通过以下方式解决:检测待定位图像中的 AR 标记、棋盘格或其他已知目标,或者将相机信息与其他传感器信息融合,例如惯性测量单元 (IMU) 信息。VSLAM 相关的技术包括运动重建 (SfM)、视觉里程计(VO)和捆绑调整(BA)。

视觉 SLAM 算法可以大致分为两类。稀疏方法:匹配图像的特征点并使用 PTAM 和 ORB-SLAM 等算法。稠密方法:使用图像的总体亮度以及 DTAM、LSD-SLAM、DSO 和 SVO 等算法。

vslamvslam

激光雷达 SLAM

相比于相机,激光可以使精确度大大提高,常用于自动驾驶汽车和无人机等高速移动运载设备的相关应用。激光传感器的输出值一般是二维 (x, y) 或三维 (x, y, z) 点云数据。激光传感器点云提供了高精确度距离测度数据,特别适用于 SLAM 算法建图。通过按顺序配准点云来估计移动情况。然后,使用计算得出的移动数据进行车辆定位。要估计点云之间的相对变换,你可以使用配准算法,如迭代最近点 (ICP) 和正态分布变换 (NDT)。您也可以使用基于特征的方法,例如基于 FPFH 特征的激光雷达里程计和地图构建 (LOAM) 或快速全局配准 (FGR)。二维或三维点云地图可以表示为栅格地图或体素地图。

鉴于存在这些挑战,自动驾驶汽车定位可能需要融合轮式里程计、全球导航卫星系统 (GNSS) 和 IMU 数据等其他测量值。仓储机器人等应用场景通常采用二维激光雷达 SLAM,而三维点云 SLAM 常用于无人机和自动驾驶。

2D SLAM3D SLAM
2d slam3d slam

多传感器 SLAM

多传感器 SLAM 是一种利用各种传感器(包括相机、IMU、GPS、激光雷达等)来提高精度和稳健性的 SLAM 算法。通过利用不同传感器的互补优势并避开各自的限制,多传感器 SLAM 可以实现卓越的性能。例如,虽然相机可以提供详细的视觉数据,但在弱光或高速情况下可能效果不佳;另一方面,激光雷达在不同光照条件下表现稳定,但遇到某些表面材料时可能表现欠佳。多传感器 SLAM 通过集成各种来源的数据来提供比单传感器更可靠的解决方案。例如视觉惯性 SLAM(VIO)和激光雷达 IMU SLAM(LIO)。

SLAM 面临的常见挑战

虽然 SLAM 算法已在某些场景下投入实际应用,但是仍面临诸多技术挑战,因此难以得到更为广泛的应用。不过,每项挑战都可以凭借特定的对策加以克服。

1. 定位误差累积

SLAM 算法会估计连续移动,其中包括一定的误差。但是误差会随着时间累积,导致与实际值产生明显偏差。误差还会导致地图数据瓦解或失真,让后续搜索变得困难。我们来看一个绕正方形通道行驶的例子。随着误差累积,机器人的起点和终点对不上了。这称为闭环问题。这类位姿估计误差不可避免。我们必须设法检测到闭环,并确定如何修正或抵消累积的误差。

对于多传感器 SLAM,传感器的精确标定至关重要。差异或标定误差会导致传感器融合不准确并破坏系统的整体功能。

对策之一是记住之前到过的某处的某些特征,将其作为路标,从而最小化定位误差。构建位姿图有助于修正误差。将误差最小化问题视为优化问题进行求解,以生成更准确的地图数据。这种优化在视觉 SLAM 中称为捆绑调整。

2. 定位失败,地图上的位置丢失

图像和点云建图不考虑机器人的移动特征。在某些情况下,这种方法会生成不连续的位置估计。例如,可能会有计算结果显示,以 1 米/秒速度移动的机器人突然向前“瞬移”了 10 米。避免这种定位失败的办法有两种:一是使用恢复算法;二是将运动模型与多个传感器融合,以基于传感器数据计算。

有多种方法可以实现运动模型的传感器融合。一种常见方法是使用卡尔曼滤波进行定位。由于大部分差速驱动机器人和四轮车辆一般都使用非线性运动模型,因此通常会使用扩展卡尔曼滤波器和粒子滤波器(蒙特卡罗定位)。某些情况下,也可以使用无迹卡尔曼滤波器等更加灵活的贝叶斯滤波器。一些常用传感器是惯性测量装置,例如惯性测量单元 (IMU)、航姿参考系统 (AHRS)、惯性导航系统 (INS)、加速度计传感器、陀螺仪传感器和磁力传感器。安装到车辆的轮式编码器通常用于里程计。

定位失败时,一种恢复对策是将之前经过的某个地方的路标记为关键帧。搜索路标时,会以特定方法进行特征提取以便高速扫描。有些方法基于图像特征,例如特征袋 (BoF) 和视觉词袋 (BoVW)。近年来,人们已使用深度学习来比较特征距离。

3. 图像处理、点云处理和优化带来高计算成本

实现 SLAM 算法时,计算成本是个问题。为了实现准确定位,必须高频率执行图像处理和点云匹配。此外,闭环等优化计算都是高成本计算流程。

对策之一是并行运行多个不同流程。例如,特征提取,也就是匹配流程前处理,就相对适合并行运行。GPU 在某些情况下可以进一步提升速度。而且,由于位姿图优化可以在相对长的周期里执行,降低其优先级并以规律间隔执行也能提高性能。