Localization

Fig2 一个单目VO系统的例子,通过匹配2D图像中的对应点来计算在空间中观测相同3D点的相机之间的相对姿态Tnm。如果点的3D位置的已知,就可以通过
3D to 2D
或者3D to 3D
的方法进行计算了。通过关联(concatenating
)相对于参考帧(可以设置为初始帧)的相对变换,计算全局姿态Cn。
Visual Odometry
VO 是通过分析一系列相机图像来估计相机运动的过程,与wheel odometry
类似,VO获得的估计值与随时间累积的误差相关[39]。然而与wheel odometry
相比,VO在更长时间的工作下,可以产生更精确,可靠的定位估计[54]。VO也不会受到类似于由于地面不平坦而车轮打滑的影响。
Motion Estimation
通常有三种VO运动估计手段:3D to 3D
, 3D to 2D
和 2D to 2D
方法。Fig2,演示了一个VO问题的例子。这里我们将概述运动估计的技术。
- 3D to 3D Motion Estimation
在这种情况下,通过对一系列图像中观察到的三维特征点进行三角测量来估计运动,然后通过最小化相应3D点之间的3D欧几里德距离来估计相机帧之间的变换,如下所示。

在上面的等式中,T是两个连续帧之间估计的变换,X是当前帧Fk观察到的3D特征点,X‘是前一帧F_k-1中对应的3D特征点,i是约束转换(constrain the transformation
)所需要的最小的特征对数(feature pairs
)。所需要的点的最小数量取决于系统的DOF和使用的建模类型。即使使用更多的点意味着更多的计算量,但是包括更多的点(比最小数量多)可以实现更好的准确性。f(T,Xi´)
- 3D to 2D Motion Estimation
该方法类似于先前的方法,但是这里2D重新投影误差被最小化以找到所需的变换,下面是它的cost function
:

其中 T 是连续帧之间的估计的变换,Z 是当前帧 Fk中观察到的特征点,f(T,Xi')是在应用变换T之后其在前一帧 Fk-1 中的相应3D特征点的重新投影函数,并且 i 是特征对的数量。同样的,所需的最小点数根据系统中的约束数量而变化。
- 2D to 2D Motion Estimation
只有在3D数据可用时,才能实现3D到3D和3D到2D的方法。实际的情况并不总是这样的。例如,在估计最开始两个校准了的单目相机的帧之间的相对变换的时候,其中的点,并没有经过三角测量。这种情况下,应该使用epipolar geometry
(对极几何)的方法对这种变换进行估计,epipolar geometry
的一个例子如图三所示。该图显示了两个相机,由旋转和平移分开,观测的是相同的3D点。每个相机捕获3D世界的2D图像,从3D到2D的转换被称为epipolar geometry
(透视投影),我们会在‘Camera Modeling and Calibration’章节中介绍。此方法的epipolar constraint
对极约束写为:

其中的 q 和 q'是两个连续帧中的齐次图像点,E是由下式给出的基本矩阵:

其中 R 是旋转矩阵,t 是由下式给出的平移矩阵:

[t]x是由下式给出的反对称矩阵(skew symmetric matrix
):


Fig3 对极几何的例证。两个摄像机由它们的中心OL和OR以及图像平面表示。摄像机居中,3D点及其在图像上的重新投影位于共同的平面中。图像点反投影到3D空间中的光线在第二个图像中被投射回一条线,称为极线(以红色显示)。3D点位于此光线上,因此第二个视图中3D点的图像必须位于极线上。OL和OR之间的姿态可以使用基本矩阵E获得,基本矩阵E是已知校准的极线几何的代数表示。
[75,86,119]提供了使用上述方法解决运动估计的完整描述。
参考文献
[39].Dutton, B., Maloney, E.: Dutton’s navigation & piloting. Naval Institute Press, Annapolis (1978). http://books.google.com.au/books?id=-A5UAAAAMAAJ
[54].Helmick, D., Cheng, Y., Clouse, D., Matthies, L., Roumeliotis, S.: Path following using visual odometry for a Mars Rover in high-slip environments. In: Proceedings of 2004 IEEE Aerospace Conference, vol. 2, pp. 772–789 (2004). doi: 10.1109/AERO.2004.1367679
[78].Longuet-Higgins, H.: A computer algorithm for reconstructing a scene from two projections. In: Fischler, M.A., Fischler, O. (eds.) Readings in Computer Vision: Issues, Problems, Principles, and Paradigms, pp. 61–62. Morgan Kaufmann, San Francisco (1987)
[86].Nister, D.: An efficient solution to the five-point relative pose problem. In: Proceedings of 2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, vol. 2, Part II, p. 195
[119].Zhang, Z.: Determining the epipolar geometry and its uncertainty: a review. Int. J. Comput. Vis. 27(2), 161–195 (1998)
不足之处,敬请斧正; 若你觉得文章还不错,请关注微信公众号“SLAM 技术交流”继续支持我们,笔芯:D。
相关推荐
【ipaper】 Visual Odometry 和Visual SLAM概述: 第三部分
【ipaper】 Visual Odometry 和Visual SLAM概述: 第二部分
【ipaper】 Visual Odometry 和Visual SLAM概述: 第一部分
下次讨论 Stereo Vision Versus Monocular Vision
, 敬请期待。。。
网友评论