基于RGB-D的室內(nèi)移動機器人視覺里程計研究
發(fā)布時間:2022-01-19 03:57
移動機器人在未知的環(huán)境下完成自主導(dǎo)航,首先需要確定自身位置,即實現(xiàn)定位功能。常用的室內(nèi)定位導(dǎo)航技術(shù)有激光、慣性導(dǎo)航系統(tǒng)、紅外和WLAN等。但是由于定位精度和成本等問題,這些室內(nèi)導(dǎo)航技術(shù)并不能被廣泛應(yīng)用。視覺里程計是基于相機的光學(xué)定位技術(shù),通過圖像特征信息來推算出機器人的位姿;它價格低廉、信息量豐富。其中,基于RGB-D相機的視覺里程計,由于相機采集速度快,測量精度高,且同時可以獲得彩色信息和深度信息等優(yōu)點,己逐漸成為國內(nèi)外學(xué)者研究的熱點。但是,目前基于RGB-D相機的視覺里程計仍然存在如下問題:如通過相機獲取的深度數(shù)據(jù)存在噪聲和離群點;場景分布較為集中的情況下,特征提取與匹配的精度不高,相機的位姿變換矩陣精度估計不足;系統(tǒng)計算量大,運行速度慢,易造成跟蹤丟失等。針對以上問題,本文做出了如下相關(guān)研究。首先,對RGB-D相機的成像模型進(jìn)行研究,完成彩色攝像頭和深度攝像頭的內(nèi)外參數(shù)標(biāo)定,生成三維點云;同時針對RGB-D相機在獲取場景信息中的深度數(shù)據(jù)存在的噪聲和離群點問題,選用高斯濾波、中值濾波、雙邊濾波進(jìn)行實驗對比,以均方誤差、峰值性噪比以及濾波時間作為評價性能指標(biāo),選取綜合性能較好的雙邊濾...
【文章來源】:安徽工程大學(xué)安徽省
【文章頁數(shù)】:63 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-1移動機器人應(yīng)用??
(c)無人機噴灑農(nóng)藥?(d)潛龍三號深海探測??圖1-1移動機器人應(yīng)用??1.2視覺里程計分類??在視覺定位中,常用的方法有基于相機類型進(jìn)行分類。如圖1.2?(a)所示的??單目相機〔monocular?cameras)、圖?1.2?Cb)所亦的立體相機(stereo?cameras),??圖1.2?(c)所示的RGB-D相機。利用處理圖像特征信息方法進(jìn)行分類,如特征??法和直接法。還有根據(jù)減少實際漂移的方法,分為濾波法和非線性法。這些方法??都己廣泛的應(yīng)用于視覺里程計的設(shè)計t14-16]。以下將具體介紹以相機分類的三種視??覺里程計類型的研宄成果。??1.2.1單目視覺里程計??單目視覺系統(tǒng)主要應(yīng)用于平面視覺,它是通過一臺相機完成對目標(biāo)的測量。??基于單目視覺里程計系統(tǒng)定位的方法,主要是利用前后不同時刻得到的兩幅圖像??進(jìn)行位姿估計,從而獲得移動機器人運動時的實時位姿。從1980年視覺里程計??的概念被提出
?(b)立體相機?(c)?RGB-D相機??圖1-2視覺傳感器??1.3?RGB-D視覺里程計國內(nèi)外研究現(xiàn)狀及分析??1.3.1國外研究現(xiàn)狀??早期Peter?Henry等人提出了基于RGB-D相機的SLAM算法[38]。主要利用??SIFT算法對相鄰兩幀的RGB圖像進(jìn)行了特征檢測和描述子計算。并運用深度圖??像數(shù)據(jù),得到三維特征點對之間的信息。對進(jìn)行三維特征點對進(jìn)行配準(zhǔn)時,運用??隨機米樣一致性(Random?Sample?Consensus,RANSAC)方法,求出相關(guān)的變??換矩陣。最后,使用迭代最近點(Iterative?Closest?Point,ICP)方法完成對機器人位??姿運動變換的優(yōu)化。但是由于SIFT算法特征描述子維度過長,使特征匹配消耗??大量時間,算法的實時性很難保證。后來,Peter?Henry等又改進(jìn)之前所提的算法。??為了解決SIFT方法速度較慢的缺點,采用FAST方法對特征進(jìn)行提取。而描述??子主要采用Calonder方法計算。同時對ICP優(yōu)化設(shè)置條件,滿足匹配結(jié)果中包??含的匹配點對數(shù)目較少或者當(dāng)特征匹配失敗時才進(jìn)行優(yōu)化。??后來Nikolas?Engelhard等人開發(fā)出一套基于手持kinect相機的RGB-D??SLAM系統(tǒng)。它采用SURF算法完成特征提取。在加入深度圖像中的信息后
本文編號:3596167
【文章來源】:安徽工程大學(xué)安徽省
【文章頁數(shù)】:63 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-1移動機器人應(yīng)用??
(c)無人機噴灑農(nóng)藥?(d)潛龍三號深海探測??圖1-1移動機器人應(yīng)用??1.2視覺里程計分類??在視覺定位中,常用的方法有基于相機類型進(jìn)行分類。如圖1.2?(a)所示的??單目相機〔monocular?cameras)、圖?1.2?Cb)所亦的立體相機(stereo?cameras),??圖1.2?(c)所示的RGB-D相機。利用處理圖像特征信息方法進(jìn)行分類,如特征??法和直接法。還有根據(jù)減少實際漂移的方法,分為濾波法和非線性法。這些方法??都己廣泛的應(yīng)用于視覺里程計的設(shè)計t14-16]。以下將具體介紹以相機分類的三種視??覺里程計類型的研宄成果。??1.2.1單目視覺里程計??單目視覺系統(tǒng)主要應(yīng)用于平面視覺,它是通過一臺相機完成對目標(biāo)的測量。??基于單目視覺里程計系統(tǒng)定位的方法,主要是利用前后不同時刻得到的兩幅圖像??進(jìn)行位姿估計,從而獲得移動機器人運動時的實時位姿。從1980年視覺里程計??的概念被提出
?(b)立體相機?(c)?RGB-D相機??圖1-2視覺傳感器??1.3?RGB-D視覺里程計國內(nèi)外研究現(xiàn)狀及分析??1.3.1國外研究現(xiàn)狀??早期Peter?Henry等人提出了基于RGB-D相機的SLAM算法[38]。主要利用??SIFT算法對相鄰兩幀的RGB圖像進(jìn)行了特征檢測和描述子計算。并運用深度圖??像數(shù)據(jù),得到三維特征點對之間的信息。對進(jìn)行三維特征點對進(jìn)行配準(zhǔn)時,運用??隨機米樣一致性(Random?Sample?Consensus,RANSAC)方法,求出相關(guān)的變??換矩陣。最后,使用迭代最近點(Iterative?Closest?Point,ICP)方法完成對機器人位??姿運動變換的優(yōu)化。但是由于SIFT算法特征描述子維度過長,使特征匹配消耗??大量時間,算法的實時性很難保證。后來,Peter?Henry等又改進(jìn)之前所提的算法。??為了解決SIFT方法速度較慢的缺點,采用FAST方法對特征進(jìn)行提取。而描述??子主要采用Calonder方法計算。同時對ICP優(yōu)化設(shè)置條件,滿足匹配結(jié)果中包??含的匹配點對數(shù)目較少或者當(dāng)特征匹配失敗時才進(jìn)行優(yōu)化。??后來Nikolas?Engelhard等人開發(fā)出一套基于手持kinect相機的RGB-D??SLAM系統(tǒng)。它采用SURF算法完成特征提取。在加入深度圖像中的信息后
本文編號:3596167
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3596167.html
最近更新
教材專著