天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動(dòng)化論文 >

基于深度學(xué)習(xí)的室內(nèi)三維語義地圖構(gòu)建研究

發(fā)布時(shí)間:2021-11-21 18:19
  自主行駛移動(dòng)平臺(tái)又稱無人平臺(tái),是地面移動(dòng)機(jī)器人的一種形式。即時(shí)定位與地圖構(gòu)建(Simultaneous Localization and Mapping,SLAM)可以使移動(dòng)機(jī)器人等無人平臺(tái)進(jìn)行自身定位同時(shí)對(duì)周圍環(huán)境進(jìn)行地圖構(gòu)建。將語義信息與SLAM結(jié)合,不僅可以提高定位與建圖精度,還可以使其對(duì)周邊環(huán)境進(jìn)行認(rèn)知和理解。本文針對(duì)實(shí)際需要和新的挑戰(zhàn)提出了對(duì)卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化后的全卷積神經(jīng)網(wǎng)絡(luò)與三維視覺SLAM相結(jié)合用以構(gòu)建三維語義地圖的方法。本文完成了圖像語義分割與SLAM技術(shù)相結(jié)合來構(gòu)建環(huán)境的三維語義地圖的任務(wù)。首先,使用深度相機(jī)Kinect2獲得目標(biāo)RGB-D信息,通過Elasitc Fusion算法完成三維視覺SLAM,并構(gòu)建三維RGB-D地圖,同時(shí)結(jié)合全卷積神經(jīng)網(wǎng)絡(luò)(FCN)進(jìn)行語義分割,并構(gòu)建三維語義地圖。對(duì)于FCN部分,提出了一種通過跳躍層來結(jié)合不同特征層結(jié)構(gòu)的全卷積神經(jīng)網(wǎng)絡(luò),這種全卷積網(wǎng)絡(luò)學(xué)習(xí)將粗糙、高層次的信息與清晰、低層次的信息結(jié)合起來,只顯示池化層和預(yù)測(cè)層,省略了中間的卷積層,可以同時(shí)保留粗糙、高層次的語義信息和清晰、低層次的語義信息,用以提高語義分割精度。對(duì)FCN與El... 

【文章來源】:長(zhǎng)春理工大學(xué)吉林省

【文章頁數(shù)】:66 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的室內(nèi)三維語義地圖構(gòu)建研究


FAST特征點(diǎn)檢測(cè)示意圖

流程圖,算法,流程圖,最近點(diǎn)


第2章視覺SLAM算法15圖2.2ElasticFusion算法流程圖2.4.2ICP算法迭代最近點(diǎn),即IterativeClosestPoint,簡(jiǎn)稱ICP。ICP算法作為ElasticFusion中求解相機(jī)位姿的一步,是十分重要的。且由于點(diǎn)云數(shù)據(jù)的獨(dú)特的存儲(chǔ)結(jié)構(gòu),使得可以用較小的存儲(chǔ)成本獲得準(zhǔn)確的拓?fù)浣Y(jié)構(gòu)和幾何結(jié)構(gòu),因而ICP的應(yīng)用越來越廣泛,下面將具體介紹ICP算法的基本原理和步驟。ICP算法的基本原理是:分別在待匹配的目標(biāo)點(diǎn)云P和源點(diǎn)云Q中,按照某種約束條件,找到最鄰近點(diǎn)(,)iipq,然后計(jì)算出最優(yōu)匹配參數(shù)旋轉(zhuǎn)矩陣R和平移向量t,使得誤差函數(shù)最校誤差函數(shù)如式2-21所示。()()211,==+niiiERtqRptn(2-21)式中,n為最臨近點(diǎn)對(duì)的個(gè)數(shù),ip為目標(biāo)點(diǎn)云P中的一點(diǎn),iq為源點(diǎn)云Q中與ip對(duì)應(yīng)的最近點(diǎn)[31]。ICP算法步驟:1)搜索最近點(diǎn),從待配準(zhǔn)點(diǎn)云P中取一點(diǎn)ip,在源點(diǎn)云Q中找出距離ip最近的點(diǎn)iq,則(,)iipq構(gòu)成一組對(duì)應(yīng)點(diǎn)集,由于ip和iq要通過某種旋轉(zhuǎn)平移來進(jìn)行匹配,從

流程圖,流程圖,算法,深度圖像


第2章視覺SLAM算法16而得到一種旋轉(zhuǎn)平移的關(guān)系,即(R,t),而(R,t)為待優(yōu)化目標(biāo)。2)對(duì)(R,t)進(jìn)行求解,由于(,)iipq的個(gè)數(shù)為n,對(duì)應(yīng)了n個(gè)方程組,故而該方程一定可解,但由于要得到精確的變換關(guān)系,采用了迭代算法。3)通過步驟2求解得到的(R,t)應(yīng)用在點(diǎn)集P中的所有點(diǎn)上,從而獲得新的點(diǎn)集P′,定義一個(gè)函數(shù)d,11==′niiidpqn,根據(jù)精度要求,判斷d是否小于給定閾值,如果小于給定閾值則停止迭代,如果不小于給定閾值則返回第二步。4)判斷迭代次數(shù)是否達(dá)到給定上限,如果達(dá)到上限則停止迭代[32]。ICP算法流程圖如圖2.3所示。圖2.3ICP算法流程圖2.4.3融合預(yù)測(cè)的跟蹤1)幾何位姿估計(jì)當(dāng)前幀的深度圖像ltD和上一幀預(yù)測(cè)的模型深度圖像1atD之間存在一個(gè)參數(shù)ξ,該參數(shù)可以通過使三維反投影頂點(diǎn)之間的點(diǎn)到平面誤差最小來得到,如式2-22所示[33]。(()))2=expξkkkicptkEvTvn(2-22)式中,ktv是當(dāng)前幀深度圖像ltD中的t時(shí)刻的第k個(gè)頂點(diǎn)的反投影,即表示在相機(jī)坐標(biāo)系下的空間位置,kv和kn是在t-1時(shí)刻優(yōu)化后得到的與ktv相對(duì)應(yīng)的頂點(diǎn)和法線。T是從上一時(shí)刻的相機(jī)位姿到當(dāng)前時(shí)刻的相機(jī)位姿的轉(zhuǎn)換的估計(jì)。()expξ是將李代數(shù)se3的一個(gè)成員映射到對(duì)應(yīng)的李群SE3的一個(gè)矩陣指數(shù)[34,35]。而對(duì)于頂點(diǎn),則用投影數(shù)據(jù)進(jìn)行數(shù)據(jù)的相互關(guān)聯(lián)。該公式主要給出了如何利用深度圖像來進(jìn)行對(duì)相機(jī)位姿變

【參考文獻(xiàn)】:
期刊論文
[1]基于多源融合FCN的圖像分割[J]. 馮家文,張立民,鄧向陽.  計(jì)算機(jī)應(yīng)用研究. 2018(09)
[2]無人駕駛汽車環(huán)境感知技術(shù)綜述[J]. 王世峰,戴祥,徐寧,張鵬飛.  長(zhǎng)春理工大學(xué)學(xué)報(bào)(自然科學(xué)版). 2017(01)
[3]單目視覺同步定位與地圖創(chuàng)建方法綜述[J]. 顧照鵬,劉宏.  智能系統(tǒng)學(xué)報(bào). 2015(04)
[4]自主移動(dòng)機(jī)器人室內(nèi)定位方法研究綜述[J]. 高云峰,周倫,呂明睿,劉文濤.  傳感器與微系統(tǒng). 2013(12)

博士論文
[1]基于不變特征提取及匹配技術(shù)的螺旋對(duì)稱性檢測(cè)問題研究[D]. 王建東.天津大學(xué) 2014

碩士論文
[1]基于SLAM技術(shù)的移動(dòng)機(jī)器人定位關(guān)鍵技術(shù)研究[D]. 楊建松.東華理工大學(xué) 2019
[2]基于RGB-D數(shù)據(jù)的實(shí)時(shí)稠密重建算法研究[D]. 魏凱.華中科技大學(xué) 2019
[3]基于物體語義信息的室內(nèi)視覺SLAM研究[D]. 張威.山東大學(xué) 2019
[4]基于幀間物體跟蹤的機(jī)器人語義SLAM研究[D]. 遲金鑫.山東大學(xué) 2019
[5]室內(nèi)環(huán)境的二維語義地圖構(gòu)建與路徑規(guī)劃研究[D]. 光興嶼.武漢科技大學(xué) 2019
[6]基于視覺SLAM的語義地圖研究[D]. 常思雨.哈爾濱工業(yè)大學(xué) 2018
[7]室內(nèi)場(chǎng)景的語義地圖建立[D]. 侯誼.哈爾濱工業(yè)大學(xué) 2018
[8]基于環(huán)境語義信息的SLAM算法研究與實(shí)現(xiàn)[D]. 魏樂麒.西安電子科技大學(xué) 2018
[9]基于語義地圖視覺SLAM系統(tǒng)設(shè)計(jì)[D]. 劉震.北京交通大學(xué) 2018
[10]動(dòng)態(tài)場(chǎng)景下基于視覺的同時(shí)定位與建圖[D]. 公維蒙.哈爾濱工業(yè)大學(xué) 2018



本文編號(hào):3510000

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3510000.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶4b064***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com