摘要:針對(duì)移動(dòng)機(jī)器人視覺同步定位以及地圖構(gòu)建(Simultaneous localization and mapping, SLAM)研究中存在精確度較低,、實(shí)時(shí)性較差等問題,,提出了一種用于移動(dòng)機(jī)器人的RGB-D視覺SLAM算法,。首先利用定向二進(jìn)制簡(jiǎn)單描述符(Oriented fast and rotated brief, ORB)算法提取RGB圖像的特征點(diǎn),,通過基于快速近似最鄰近(Fast library for approximate nearest neighbors, FLANN)的雙向鄰近(K-nearest neighbor, KNN)特征匹配方法得到匹配點(diǎn)對(duì)集合,利用改進(jìn)后的隨機(jī)抽樣一致性(Re-estimate random sample consensus, RE-RANSAC) 算法剔除誤匹配點(diǎn),,估計(jì)得到相鄰圖像間的6D運(yùn)動(dòng)變換模型,,然后利用廣義迭代最近點(diǎn)(Generalized iterative closest point, GICP)算法得到優(yōu)化后的運(yùn)動(dòng)變換模型,進(jìn)而求解得到相機(jī)位姿,。為提高定位精度,,引入隨機(jī)閉環(huán)檢測(cè)環(huán)節(jié),減少了機(jī)器人定位過程中的累積誤差,,并采用全局圖優(yōu)化(General graph optimization, G2O)方法對(duì)相機(jī)位姿圖進(jìn)行優(yōu)化,,得到全局最優(yōu)相機(jī)位姿和相機(jī)運(yùn)動(dòng)軌跡;最終通過點(diǎn)云拼接生成全局彩色稠密點(diǎn)云地圖,。針對(duì)所測(cè)試的FR1數(shù)據(jù)集,,本文算法的最小定位誤差為0.011m,平均定位誤差為0.0245m,,每幀數(shù)據(jù)平均處理時(shí)間為0.032s,,滿足移動(dòng)機(jī)器人快速定位建圖的需求。