天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 自動化論文 >

基于ORB特征匹配的視覺SLAM研究

發(fā)布時間:2021-01-04 10:56
  近年來,隨著人工智能技術(shù)與機器人制造技術(shù)的快速提升,移動機器人逐漸應用到生產(chǎn)與生活的各個方面,它們越來越智能化的功能與服務不僅大大減輕了人們的勞動量,還極大地豐富了人們的生活。智能移動機器人作為一個可自動執(zhí)行各種任務的移動平臺,自主定位與導航是最基礎(chǔ)的、最核心的功能之一。當移動機器人進入新的環(huán)境時,首要的任務就是感知周圍環(huán)境,避開障礙物并做出相應的路徑規(guī)劃,而解決這些問題需要的就是即時定位與地圖構(gòu)建技術(shù),即SLAM(Simultaneous Localization and Mapping)。早期機器人定位與導航的實現(xiàn)主要依靠激光雷達、慣性測量單元(IMU)、距離傳感器等,而隨著計算機視覺的發(fā)展,相機以其廉價耐用、低功率、體積小、可提供大量豐富的紋理與色彩信息等特點在SLAM領(lǐng)域得到廣泛應用。與此同時,以微軟Kinect V1為代表的深度相機憑借其高性價比、可直接獲取深度等優(yōu)點把視覺SLAM的研究推向了新的高度。本文基于ORB特征點,結(jié)合最新SLAM方案中的一些優(yōu)勢算法與模塊,構(gòu)建了一套以RGB-D傳感器為基礎(chǔ)的即時定位與地圖構(gòu)建系統(tǒng)。本研究的主要理論基礎(chǔ)和工作成果如下:首先,介紹了視... 

【文章來源】:廣東工業(yè)大學廣東省

【文章頁數(shù)】:82 頁

【學位級別】:碩士

【部分圖文】:

基于ORB特征匹配的視覺SLAM研究


世界上第一臺移動機器人ShakeyFigure1-1Theworld'sfirstmobilerobotShakey

方法,傳感器,自主定位,研究方法


圖 1-3 SLAM 的主要研究方法Figure 1-3 The main research method of SLAMSLAM 是一種綜合多種理論與方法的自主定位與導航的研究與實現(xiàn)方法,如圖1-3,按照傳感器的劃分,移動機器人自主定位與導航的任務主要依靠 GPS[8]、慣性測量單元(IMU)[9]、聲納、激光雷達、相機等傳感器來完成,如圖 1-4 所示的多種可實現(xiàn)定位與導航的傳感器。其中,GPS 信號容易受到地理環(huán)境與其它信號的干擾,不能用于室內(nèi)或水下以及地下各種環(huán)境中;超聲波[10]定位成本低,但采集速度慢,測量范圍小,精度比較低。激光雷達[11]測距范圍大,但其價格昂貴。相機作為光學成像器件,不僅體積小、功耗小,可實時獲得清晰地圖像信息。其中,RGB-D 深度相機同時擁有相機和紅外線兩種傳感器,能采集空間數(shù)據(jù)生成 RGB-D 圖像,而且價格也比較低廉,受到了廣大視覺 SLAM[12]研究者的青睞。按照傳感器才記得信息和輸入劃分,SLAM 方法可分為基于地標的 SLAM 研究方法和基于外觀的 SLAM 研究方法,基于外觀的 SLAM 研究方法[13]是利用傳感器在周圍未經(jīng)人為設(shè)置路標的環(huán)

系統(tǒng)流程圖,視覺,系統(tǒng)流程圖,相機模型


第二章 視覺 SLAM 基本框架與相機模型第二章 視覺 SLAM 基本框架與相機模型 視覺 SLAM 基本框架目前,針對視覺 SLAM 的研究越來越多,但一般將視覺 SLAM 系統(tǒng)分端兩個部分,其中前端包括相機獲取圖像、視覺里程計[40],而后端包括、回環(huán)檢測以及構(gòu)建地圖。它們組成 SLAM 系統(tǒng)的流程如圖 2-1。

【參考文獻】:
期刊論文
[1]移動機器人SLAM關(guān)鍵問題和解決方法綜述[J]. 楊雪夢,姚敏茹,曹凱.  計算機系統(tǒng)應用. 2018(07)
[2]工業(yè)機器人運動學與軌跡規(guī)劃仿真[J]. 唐新星,王平,范大川.  重型機械. 2018(02)
[3]激光雷達SLAM技術(shù)及其在無人車中的應用研究進展[J]. 李晨曦,張軍,靳欣宇,李廣敬,李強.  北京聯(lián)合大學學報. 2017(04)
[4]機器人智能碰撞傳感器的設(shè)計與仿真[J]. 林義忠,黃冰鵬,李盛,覃尚活,姚建余.  傳感器與微系統(tǒng). 2017(10)
[5]基于圖優(yōu)化的移動機器人視覺SLAM[J]. 張毅,沙建松.  智能系統(tǒng)學報. 2018(02)
[6]基于光束平差法的雙目視覺里程計研究[J]. 羅楊宇,劉宏林.  控制與決策. 2016(11)
[7]人機交互新模式,VR/AR/MR產(chǎn)業(yè)開始形成[J]. 郝英好.  新型工業(yè)化. 2016(08)
[8]循跡機器人控制系統(tǒng)設(shè)計[J]. 羅儒,張文莉,于婷.  現(xiàn)代機械. 2015(04)
[9]融合全局和局部特征的圖像特征提取方法[J]. 張雅清,劉忠寶.  華僑大學學報(自然科學版). 2015(04)
[10]面向Kinect RGB-D圖像的目標尺寸測量方法[J]. 趙超,張章.  工業(yè)控制計算機. 2014(10)

博士論文
[1]基于視覺的機器人同時定位與地圖構(gòu)建[D]. 武二永.浙江大學 2007

碩士論文
[1]移動機器人全景vSLAM研究[D]. 許俊勇.上海交通大學 2008



本文編號:2956648

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2956648.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶b62c5***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com