基于模態(tài)轉(zhuǎn)換的典型無(wú)人駕駛場(chǎng)景下三維目標(biāo)識(shí)別算法研究
發(fā)布時(shí)間:2021-07-01 20:38
無(wú)人駕駛作為目前較為火熱的一個(gè)話題,技術(shù)方面面臨著諸多挑戰(zhàn)。無(wú)人駕駛中目標(biāo)識(shí)別的關(guān)鍵問(wèn)題有三個(gè),即目標(biāo)分類、定位和姿態(tài)確定。由于三維點(diǎn)云數(shù)據(jù)相比二維RGB圖像數(shù)據(jù)可以提供更多空間信息,因此更有利于三維中確定目標(biāo)類別、位置和姿態(tài),但是,點(diǎn)云數(shù)據(jù)量大,對(duì)識(shí)別系統(tǒng)整體的計(jì)算能力和存儲(chǔ)能力帶來(lái)很大挑戰(zhàn),且點(diǎn)云是三維數(shù)據(jù)難以直接應(yīng)用卷積進(jìn)行計(jì)算,這導(dǎo)致點(diǎn)云的應(yīng)用受到了限制。所以目前情況下,如何才能更好地應(yīng)用點(diǎn)云成為算法首先需要考慮的問(wèn)題。本文主要基于典型無(wú)人駕駛真實(shí)場(chǎng)景下,針對(duì)三維點(diǎn)云不易被二維卷積網(wǎng)絡(luò)理解且數(shù)據(jù)量過(guò)大的問(wèn)題,研究了一個(gè)多尺度端到端的三維目標(biāo)識(shí)別算法,用于同時(shí)對(duì)不同大小的目標(biāo)進(jìn)行分類、定位和獲取最小三維矩形框。首先,本文研究了KITTI數(shù)據(jù)集,將3D點(diǎn)云數(shù)據(jù)在2D RGB圖像上進(jìn)行投影,以保證兩者的匹配性?紤]到在二維RGB圖像或是前視圖中,場(chǎng)景中重疊性小目標(biāo)可能存在強(qiáng)遮擋并且相互距離較近,而俯視視角下點(diǎn)云分布具有個(gè)體性,故選擇將點(diǎn)云轉(zhuǎn)化為鳥瞰圖進(jìn)行間接的信息獲取。本文選擇將鳥瞰圖送入卷積神經(jīng)網(wǎng)絡(luò),大大減少計(jì)算量的同時(shí),還可以移植成熟的二維檢測(cè)框架用于三維目標(biāo)識(shí)別,有利于準(zhǔn)確性的...
【文章來(lái)源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:76 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
三維目標(biāo)識(shí)別概況不管是twostage或是onestage的算法,二維目標(biāo)識(shí)別算法在精確性或?qū)崟r(shí)性上都各有所側(cè)重和強(qiáng)調(diào)
圖 1-2 VoxelNet 中 3D 體素編碼示意圖基于點(diǎn)云的方法于點(diǎn)云的各種算法首先要解決的就是如何利用點(diǎn)云,由于激光雷影響,點(diǎn)云呈現(xiàn)稀疏、不均勻的特征,包括近多遠(yuǎn)少、遮擋等,均勻采樣,則會(huì)丟失很多細(xì)節(jié)信息影響后續(xù)識(shí)別;邳c(diǎn)云的人[20,21]提出了 PointNet,從無(wú)序點(diǎn)集入手,巧妙設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò) T-Net 解決了點(diǎn)云旋轉(zhuǎn)帶來(lái)的坐標(biāo)變換問(wèn)題,同時(shí)使用 mlp序性問(wèn)題,它提供了完整的端到端學(xué)習(xí)的途徑,是解決點(diǎn)云應(yīng)用算法。
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文圖 1-2 VoxelNet 中 3D 體素編碼示意圖基于點(diǎn)云的方法于點(diǎn)云的各種算法首先要解決的就是如何利用點(diǎn)云,由于激光雷影響,點(diǎn)云呈現(xiàn)稀疏、不均勻的特征,包括近多遠(yuǎn)少、遮擋等,均勻采樣,則會(huì)丟失很多細(xì)節(jié)信息影響后續(xù)識(shí)別。基于點(diǎn)云的人[20,21]提出了 PointNet,從無(wú)序點(diǎn)集入手,巧妙設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò) T-Net 解決了點(diǎn)云旋轉(zhuǎn)帶來(lái)的坐標(biāo)變換問(wèn)題,同時(shí)使用 mlp序性問(wèn)題,它提供了完整的端到端學(xué)習(xí)的途徑,是解決點(diǎn)云應(yīng)用算法。
【參考文獻(xiàn)】:
期刊論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的三維模型識(shí)別[J]. 楊軍,王亦民. 重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版). 2019(02)
[2]基于點(diǎn)云數(shù)據(jù)的三維目標(biāo)識(shí)別和模型分割方法[J]. 牛辰庚,劉玉杰,李宗民,李華. 圖學(xué)學(xué)報(bào). 2019(02)
[3]SR-SIHKS:一種非剛體全局形狀特征[J]. 萬(wàn)麗莉,苗振江,岑翼剛. 計(jì)算機(jī)工程與應(yīng)用. 2014(04)
博士論文
[1]深度學(xué)習(xí)算法在無(wú)人駕駛視覺(jué)中的應(yīng)用[D]. 蔡惠民.西安電子科技大學(xué) 2018
碩士論文
[1]典型場(chǎng)景下無(wú)人駕駛?cè)S目標(biāo)識(shí)別算法研究[D]. 肖大鵬.哈爾濱工業(yè)大學(xué) 2018
本文編號(hào):3259829
【文章來(lái)源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:76 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
三維目標(biāo)識(shí)別概況不管是twostage或是onestage的算法,二維目標(biāo)識(shí)別算法在精確性或?qū)崟r(shí)性上都各有所側(cè)重和強(qiáng)調(diào)
圖 1-2 VoxelNet 中 3D 體素編碼示意圖基于點(diǎn)云的方法于點(diǎn)云的各種算法首先要解決的就是如何利用點(diǎn)云,由于激光雷影響,點(diǎn)云呈現(xiàn)稀疏、不均勻的特征,包括近多遠(yuǎn)少、遮擋等,均勻采樣,則會(huì)丟失很多細(xì)節(jié)信息影響后續(xù)識(shí)別;邳c(diǎn)云的人[20,21]提出了 PointNet,從無(wú)序點(diǎn)集入手,巧妙設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò) T-Net 解決了點(diǎn)云旋轉(zhuǎn)帶來(lái)的坐標(biāo)變換問(wèn)題,同時(shí)使用 mlp序性問(wèn)題,它提供了完整的端到端學(xué)習(xí)的途徑,是解決點(diǎn)云應(yīng)用算法。
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文圖 1-2 VoxelNet 中 3D 體素編碼示意圖基于點(diǎn)云的方法于點(diǎn)云的各種算法首先要解決的就是如何利用點(diǎn)云,由于激光雷影響,點(diǎn)云呈現(xiàn)稀疏、不均勻的特征,包括近多遠(yuǎn)少、遮擋等,均勻采樣,則會(huì)丟失很多細(xì)節(jié)信息影響后續(xù)識(shí)別。基于點(diǎn)云的人[20,21]提出了 PointNet,從無(wú)序點(diǎn)集入手,巧妙設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò) T-Net 解決了點(diǎn)云旋轉(zhuǎn)帶來(lái)的坐標(biāo)變換問(wèn)題,同時(shí)使用 mlp序性問(wèn)題,它提供了完整的端到端學(xué)習(xí)的途徑,是解決點(diǎn)云應(yīng)用算法。
【參考文獻(xiàn)】:
期刊論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的三維模型識(shí)別[J]. 楊軍,王亦民. 重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版). 2019(02)
[2]基于點(diǎn)云數(shù)據(jù)的三維目標(biāo)識(shí)別和模型分割方法[J]. 牛辰庚,劉玉杰,李宗民,李華. 圖學(xué)學(xué)報(bào). 2019(02)
[3]SR-SIHKS:一種非剛體全局形狀特征[J]. 萬(wàn)麗莉,苗振江,岑翼剛. 計(jì)算機(jī)工程與應(yīng)用. 2014(04)
博士論文
[1]深度學(xué)習(xí)算法在無(wú)人駕駛視覺(jué)中的應(yīng)用[D]. 蔡惠民.西安電子科技大學(xué) 2018
碩士論文
[1]典型場(chǎng)景下無(wú)人駕駛?cè)S目標(biāo)識(shí)別算法研究[D]. 肖大鵬.哈爾濱工業(yè)大學(xué) 2018
本文編號(hào):3259829
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3259829.html
最近更新
教材專著