摘要:針對移動機器人視覺同步定位以及地圖構(gòu)建(Simultaneous localization and mapping, SLAM)研究中存在精確度較低,、實時性較差等問題,,提出了一種用于移動機器人的RGB-D視覺SLAM算法。首先利用定向二進制簡單描述符(Oriented fast and rotated brief, ORB)算法提取RGB圖像的特征點,,通過基于快速近似最鄰近(Fast library for approximate nearest neighbors, FLANN)的雙向鄰近(K-nearest neighbor, KNN)特征匹配方法得到匹配點對集合,,利用改進后的隨機抽樣一致性(Re-estimate random sample consensus, RE-RANSAC) 算法剔除誤匹配點,估計得到相鄰圖像間的6D運動變換模型,,然后利用廣義迭代最近點(Generalized iterative closest point, GICP)算法得到優(yōu)化后的運動變換模型,,進而求解得到相機位姿。為提高定位精度,,引入隨機閉環(huán)檢測環(huán)節(jié),,減少了機器人定位過程中的累積誤差,并采用全局圖優(yōu)化(General graph optimization, G2O)方法對相機位姿圖進行優(yōu)化,,得到全局最優(yōu)相機位姿和相機運動軌跡,;最終通過點云拼接生成全局彩色稠密點云地圖。針對所測試的FR1數(shù)據(jù)集,,本文算法的最小定位誤差為0.011m,,平均定位誤差為0.0245m,每幀數(shù)據(jù)平均處理時間為0.032s,,滿足移動機器人快速定位建圖的需求。