動態(tài)環(huán)境下基于視覺的自運(yùn)動估計與環(huán)境建模方法研究
發(fā)布時間:2021-08-30 07:03
環(huán)境感知與導(dǎo)航定位是移動機(jī)器人實現(xiàn)自主化與智能化所要解決的最基本的問題。由于室內(nèi)GPS信號的缺失與小型慣性傳感器的誤差漂移,機(jī)器人的室內(nèi)導(dǎo)航與定位面臨著巨大的困難,因此基于視覺的機(jī)器人三維運(yùn)動估計與環(huán)境建模技術(shù)展現(xiàn)出了重要的研究與應(yīng)用價值。然而現(xiàn)有的視覺導(dǎo)航與環(huán)境建模方法都只能在靜態(tài)環(huán)境下正常工作。如果場景中出現(xiàn)運(yùn)動物體,那么它們將成為圖像中的干擾元素,嚴(yán)重影響機(jī)器人的視覺運(yùn)動估計與其所建立的環(huán)境地圖。因此,本文研究機(jī)器人在含有運(yùn)動物體的室內(nèi)動態(tài)環(huán)境中,采用基于視覺的方法估計機(jī)器人的三維位置與姿態(tài)信息,并建立一個全局一致且不含運(yùn)動元素的靜態(tài)地圖。本文的主要研究工作和貢獻(xiàn)歸納如下。第一,對RGB-D傳感器的信息預(yù)處理技術(shù)進(jìn)行了深入研究。首先針對其彩色相機(jī)與紅外相機(jī)分別進(jìn)行內(nèi)參數(shù)標(biāo)定,并對這兩個圖像流信號進(jìn)行空間配準(zhǔn)與時間同步,以獲取彩色圖像中每個像素所對應(yīng)的深度值。其次,深入研究了RGB-D攝像機(jī)的深度測量原理,并結(jié)合高斯混合模型,對RGB-D傳感器進(jìn)行不確定度建模,從而獲得像素深度及其三維空間位置的不確定度。第二,針對動態(tài)環(huán)境下的三維視覺自運(yùn)動估計問題,提出了一種新的基于特征區(qū)域分割的...
【文章來源】:浙江大學(xué)浙江省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:99 頁
【學(xué)位級別】:碩士
【文章目錄】:
致謝
摘要
Abstract
第1章 緒論
1.1 研究背景與意義
1.1.1 研究背景
1.1.2 基于視覺的機(jī)器人三維運(yùn)動估計與環(huán)境建模問題描述
1.1.3 動態(tài)環(huán)境下視覺自運(yùn)動估計與環(huán)境建模的挑戰(zhàn)與意義
1.2 論文所涉技術(shù)及研究現(xiàn)狀
1.2.1 視覺自運(yùn)動估計方法及其研究現(xiàn)狀
1.2.2 環(huán)境建模方法及其研究現(xiàn)狀
1.3 論文研究內(nèi)容與創(chuàng)新點
1.3.1 主要研究內(nèi)容
1.3.2 創(chuàng)新點與貢獻(xiàn)
1.4 本文章節(jié)安排
第2章 RGB-D傳感器信息預(yù)處理
2.1 引言
2.2 RGB-D傳感器結(jié)構(gòu)與原理
2.2.1 傳感器結(jié)構(gòu)
2.2.2 深度測量原理
2.3 RGB-D攝像機(jī)標(biāo)定
2.3.1 坐標(biāo)系約定
2.3.2 相機(jī)模型
2.3.3 內(nèi)參數(shù)標(biāo)定
2.4 空間配準(zhǔn)與時間同步
2.4.1 圖像空間配準(zhǔn)
2.4.2 信號時間同步
2.5 不確定度建模
2.5.1 深度測量模型
2.5.2 不確定度建模
2.6 本章小結(jié)
第3章 基于特征區(qū)域分割的RGB-D視覺里程計算法
3.1 引言
3.2 算法框架
3.2.1 視覺里程計原理
3.2.2 FRSVO算法框架
3.3 特征提取與不確定度建模
3.3.1 特征選擇
3.3.2 基于不確定度的特征點篩選
3.4 特征區(qū)域分割
3.4.1 特征匹配
3.4.2 區(qū)域分割
3.5 運(yùn)動估計與關(guān)鍵幀
3.5.1 攝像機(jī)運(yùn)動估計
3.5.2 關(guān)鍵幀技術(shù)
3.6 算法實驗評估
3.6.1 算法運(yùn)行平臺
3.6.2 室內(nèi)動態(tài)環(huán)境實驗
3.6.3 公開數(shù)據(jù)集對比實驗
3.6.4 時間效率測試
3.7 本章小結(jié)
第4章 動態(tài)環(huán)境下的靜態(tài)地圖構(gòu)建
4.1 引言
4.2 系統(tǒng)框架
4.3 SLAM圖模型優(yōu)化
4.3.1 位姿圖
4.3.2 閉環(huán)檢測
4.3.3 全局優(yōu)化
4.4 靜態(tài)地圖構(gòu)建
4.4.1 點云地圖連接
4.4.2 降采樣與野值剔除
4.4.3 靜態(tài)地圖構(gòu)建方法
4.5 系統(tǒng)實驗驗證
4.5.1 算法運(yùn)行平臺
4.5.2 SLAM算法實驗評估
4.5.3 靜態(tài)地圖構(gòu)建方法實驗驗證
4.5.4 時間效率測試
4.6 本章小結(jié)
第5章 總結(jié)與展望
5.1 論文總結(jié)
5.2 研究展望
參考文獻(xiàn)
作者簡介
【參考文獻(xiàn)】:
期刊論文
[1]智能機(jī)器人的現(xiàn)狀及發(fā)展[J]. 任福繼,孫曉. 科技導(dǎo)報. 2015(21)
本文編號:3372310
【文章來源】:浙江大學(xué)浙江省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:99 頁
【學(xué)位級別】:碩士
【文章目錄】:
致謝
摘要
Abstract
第1章 緒論
1.1 研究背景與意義
1.1.1 研究背景
1.1.2 基于視覺的機(jī)器人三維運(yùn)動估計與環(huán)境建模問題描述
1.1.3 動態(tài)環(huán)境下視覺自運(yùn)動估計與環(huán)境建模的挑戰(zhàn)與意義
1.2 論文所涉技術(shù)及研究現(xiàn)狀
1.2.1 視覺自運(yùn)動估計方法及其研究現(xiàn)狀
1.2.2 環(huán)境建模方法及其研究現(xiàn)狀
1.3 論文研究內(nèi)容與創(chuàng)新點
1.3.1 主要研究內(nèi)容
1.3.2 創(chuàng)新點與貢獻(xiàn)
1.4 本文章節(jié)安排
第2章 RGB-D傳感器信息預(yù)處理
2.1 引言
2.2 RGB-D傳感器結(jié)構(gòu)與原理
2.2.1 傳感器結(jié)構(gòu)
2.2.2 深度測量原理
2.3 RGB-D攝像機(jī)標(biāo)定
2.3.1 坐標(biāo)系約定
2.3.2 相機(jī)模型
2.3.3 內(nèi)參數(shù)標(biāo)定
2.4 空間配準(zhǔn)與時間同步
2.4.1 圖像空間配準(zhǔn)
2.4.2 信號時間同步
2.5 不確定度建模
2.5.1 深度測量模型
2.5.2 不確定度建模
2.6 本章小結(jié)
第3章 基于特征區(qū)域分割的RGB-D視覺里程計算法
3.1 引言
3.2 算法框架
3.2.1 視覺里程計原理
3.2.2 FRSVO算法框架
3.3 特征提取與不確定度建模
3.3.1 特征選擇
3.3.2 基于不確定度的特征點篩選
3.4 特征區(qū)域分割
3.4.1 特征匹配
3.4.2 區(qū)域分割
3.5 運(yùn)動估計與關(guān)鍵幀
3.5.1 攝像機(jī)運(yùn)動估計
3.5.2 關(guān)鍵幀技術(shù)
3.6 算法實驗評估
3.6.1 算法運(yùn)行平臺
3.6.2 室內(nèi)動態(tài)環(huán)境實驗
3.6.3 公開數(shù)據(jù)集對比實驗
3.6.4 時間效率測試
3.7 本章小結(jié)
第4章 動態(tài)環(huán)境下的靜態(tài)地圖構(gòu)建
4.1 引言
4.2 系統(tǒng)框架
4.3 SLAM圖模型優(yōu)化
4.3.1 位姿圖
4.3.2 閉環(huán)檢測
4.3.3 全局優(yōu)化
4.4 靜態(tài)地圖構(gòu)建
4.4.1 點云地圖連接
4.4.2 降采樣與野值剔除
4.4.3 靜態(tài)地圖構(gòu)建方法
4.5 系統(tǒng)實驗驗證
4.5.1 算法運(yùn)行平臺
4.5.2 SLAM算法實驗評估
4.5.3 靜態(tài)地圖構(gòu)建方法實驗驗證
4.5.4 時間效率測試
4.6 本章小結(jié)
第5章 總結(jié)與展望
5.1 論文總結(jié)
5.2 研究展望
參考文獻(xiàn)
作者簡介
【參考文獻(xiàn)】:
期刊論文
[1]智能機(jī)器人的現(xiàn)狀及發(fā)展[J]. 任福繼,孫曉. 科技導(dǎo)報. 2015(21)
本文編號:3372310
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3372310.html
最近更新
教材專著