基于深度學(xué)習(xí)的無人車場(chǎng)景實(shí)例分割技術(shù)研究
發(fā)布時(shí)間:2021-01-26 20:47
隨著計(jì)算機(jī)技術(shù)的發(fā)展,無人駕駛已成為當(dāng)下研究的熱點(diǎn)技術(shù)之一。隨著深度學(xué)習(xí)與計(jì)算機(jī)視覺算法的快速發(fā)展,無人駕駛的智能程度得到了極大的提高,使無人駕駛利用低成本的圖像對(duì)復(fù)雜場(chǎng)景信息進(jìn)行分析成為了可能。在無人駕駛中常用的計(jì)算機(jī)視覺算法有目標(biāo)檢測(cè)算法、圖像語義分割算法等。目標(biāo)檢測(cè)算法雖然能預(yù)測(cè)環(huán)境中每個(gè)實(shí)例所處的大致區(qū)域,卻無法對(duì)實(shí)例進(jìn)行像素級(jí)分類。圖像語義分割能提供全局的像素級(jí)分類信息,卻無法區(qū)分不同的實(shí)例。而實(shí)例分割算法綜合了目標(biāo)檢測(cè)與圖像語義分割兩個(gè)任務(wù)的預(yù)測(cè)結(jié)果,為無人駕駛場(chǎng)景提供環(huán)境中更加豐富具體的實(shí)例相關(guān)信息,使無人駕駛視覺技術(shù)擁有更強(qiáng)的環(huán)境信息分析能力。目前成熟的實(shí)例分割算法大多為兩階段的,推理速度較慢,不適合實(shí)時(shí)性要求較高的無人駕駛場(chǎng)景。本課題提出一種基于單階段目標(biāo)檢測(cè)算法的快速實(shí)例分割算法模型,該方法將Mask RCNN目標(biāo)檢測(cè)部分由原來的先產(chǎn)生候選框,再對(duì)候選框進(jìn)行回歸精修的方式替換為由YOLOv3算法直接生成最終的目標(biāo)包圍框,利用再池化技術(shù)將包圍框從對(duì)應(yīng)特征圖中摳取出來并裁剪為固定大小,之后從這些固定大小的特征圖中預(yù)測(cè)實(shí)例的掩模,最后通過上采樣操作生成原圖中的目標(biāo)實(shí)例掩模...
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:61 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
殘差學(xué)習(xí)模塊[46]
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文-9-路,一種是基于候選區(qū)域的兩階段目標(biāo)檢測(cè)算法,一種是直接預(yù)測(cè)目標(biāo)包圍框的單階段目標(biāo)檢測(cè)算法。兩階段算法的思路是先產(chǎn)生可能包含物體的候選框,再對(duì)候選框進(jìn)行重回歸得到目標(biāo)框位置。針對(duì)候選框的生成,早期使用滑動(dòng)窗口生成,由于計(jì)算量太大,被改進(jìn)為采用選擇性搜索算法生成候選框,此類算法以文獻(xiàn)[8,9,11]為代表。選擇新搜索算法雖然能稍微緩解計(jì)算量大的問題,但該問題仍然存在。為了解決這個(gè)問題,后以文獻(xiàn)[10,45]為代表的算法采用基于候選區(qū)域網(wǎng)絡(luò)的方式生成區(qū)域候選框,減少計(jì)算量的同時(shí)讓網(wǎng)絡(luò)自動(dòng)產(chǎn)生候選區(qū)域。一階段算法思路由文獻(xiàn)[12]開啟,其將包圍框預(yù)測(cè)問題轉(zhuǎn)換為回歸問題,直接預(yù)測(cè)包圍框的位置。文獻(xiàn)[13-16]在次基礎(chǔ)上引入特征金字塔,提高了目標(biāo)檢測(cè)算法的預(yù)測(cè)能力,其中文獻(xiàn)[16]通過引入foaclloss損失函數(shù),緩解了類別不均衡樣本的目標(biāo)檢測(cè)誤差大的問題。圖2-2基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法可以看出,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法已經(jīng)相對(duì)成熟,目前流行的是以FastR-CNN為代表的兩階段目標(biāo)檢測(cè)算法和以YOLO、SSD為代表的單階段目標(biāo)檢測(cè)算法,兩種類型的算法關(guān)注點(diǎn)不同,前者注重精度,后者注重速度。雖然設(shè)計(jì)思路不同,但是許多思想也有相互借鑒,下面就目標(biāo)檢測(cè)涉及到的相關(guān)基礎(chǔ)知識(shí)進(jìn)行深入剖析。2.3.1候選區(qū)域生成兩階段的目標(biāo)檢測(cè)算法一般是基于候選區(qū)域的,主要思想是通過生成一系列的候選區(qū)域,對(duì)候選區(qū)域進(jìn)行分類粗略的得到包含物體的候選框,再對(duì)候選框進(jìn)行精修,即對(duì)選中的候選框進(jìn)行回歸得到物體的具體包圍框。早期的算法利用多
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文-10-尺度的滑動(dòng)窗口在原圖中產(chǎn)生大量的推薦區(qū)域,然后利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)這些候選區(qū)域進(jìn)行回歸和分類,得到最終的結(jié)果。但是計(jì)算量龐大,時(shí)間成本太高。文獻(xiàn)[8]隨后提出了圖2-3所示的R-CNN算法,算法使用了選擇性搜索并將候選區(qū)域縮小到2000個(gè)左右,隨后對(duì)2000個(gè)區(qū)域進(jìn)行目標(biāo)檢測(cè),但仍然計(jì)算量大。圖2-3R-CNN算法框架[8]在此之后,文獻(xiàn)[10]在R-CNN基礎(chǔ)上提出了圖2-4所示的FastRCNN算法,先利卷積神經(jīng)網(wǎng)絡(luò)提取圖片的特征,再在特征圖上進(jìn)行選擇性搜索得到特征圖的候選推薦區(qū)域,這樣從計(jì)算2000張候選區(qū)域的特征變?yōu)榱酥恍枰崛∫淮翁卣,極大減少了計(jì)算量。圖2-4FastRCNN算法框架[10]文獻(xiàn)[45]創(chuàng)造性地提出候選區(qū)域生成網(wǎng)絡(luò)(RegionProposalNetworks,RPN),使候選區(qū)域的生成自動(dòng)化。RPN框架如圖2-5所示。FasterR-CNN與文獻(xiàn)[10]做法一樣都是對(duì)整張圖像進(jìn)行特征提取,RPN和最終的目標(biāo)檢測(cè)任務(wù)共享特征。RPN預(yù)設(shè)了9個(gè)尺度的錨點(diǎn),并在CNN輸出的卷積圖上滑動(dòng)掃描每個(gè)像素點(diǎn)的9個(gè)不同尺度的特征圖,以此獲取候選區(qū)域,對(duì)區(qū)域推薦映射的特征進(jìn)行降維后,最終輸出區(qū)域推薦的坐標(biāo)信息和分類分?jǐn)?shù)。在RPN提取候選區(qū)域階段并不關(guān)注目標(biāo)的
【參考文獻(xiàn)】:
期刊論文
[1]基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法綜述[J]. 周曉彥,王珂,李凌燕. 電子測(cè)量技術(shù). 2017(11)
[2]基于DCNN的圖像語義分割綜述[J]. 魏云超,趙耀. 北京交通大學(xué)學(xué)報(bào). 2016(04)
[3]無人駕駛汽車的發(fā)展現(xiàn)狀和展望[J]. 楊帆. 上海汽車. 2014(03)
[4]深度學(xué)習(xí)研究綜述[J]. 孫志軍,薛磊,許陽明,王正. 計(jì)算機(jī)應(yīng)用研究. 2012(08)
本文編號(hào):3001789
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:61 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
殘差學(xué)習(xí)模塊[46]
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文-9-路,一種是基于候選區(qū)域的兩階段目標(biāo)檢測(cè)算法,一種是直接預(yù)測(cè)目標(biāo)包圍框的單階段目標(biāo)檢測(cè)算法。兩階段算法的思路是先產(chǎn)生可能包含物體的候選框,再對(duì)候選框進(jìn)行重回歸得到目標(biāo)框位置。針對(duì)候選框的生成,早期使用滑動(dòng)窗口生成,由于計(jì)算量太大,被改進(jìn)為采用選擇性搜索算法生成候選框,此類算法以文獻(xiàn)[8,9,11]為代表。選擇新搜索算法雖然能稍微緩解計(jì)算量大的問題,但該問題仍然存在。為了解決這個(gè)問題,后以文獻(xiàn)[10,45]為代表的算法采用基于候選區(qū)域網(wǎng)絡(luò)的方式生成區(qū)域候選框,減少計(jì)算量的同時(shí)讓網(wǎng)絡(luò)自動(dòng)產(chǎn)生候選區(qū)域。一階段算法思路由文獻(xiàn)[12]開啟,其將包圍框預(yù)測(cè)問題轉(zhuǎn)換為回歸問題,直接預(yù)測(cè)包圍框的位置。文獻(xiàn)[13-16]在次基礎(chǔ)上引入特征金字塔,提高了目標(biāo)檢測(cè)算法的預(yù)測(cè)能力,其中文獻(xiàn)[16]通過引入foaclloss損失函數(shù),緩解了類別不均衡樣本的目標(biāo)檢測(cè)誤差大的問題。圖2-2基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法可以看出,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法已經(jīng)相對(duì)成熟,目前流行的是以FastR-CNN為代表的兩階段目標(biāo)檢測(cè)算法和以YOLO、SSD為代表的單階段目標(biāo)檢測(cè)算法,兩種類型的算法關(guān)注點(diǎn)不同,前者注重精度,后者注重速度。雖然設(shè)計(jì)思路不同,但是許多思想也有相互借鑒,下面就目標(biāo)檢測(cè)涉及到的相關(guān)基礎(chǔ)知識(shí)進(jìn)行深入剖析。2.3.1候選區(qū)域生成兩階段的目標(biāo)檢測(cè)算法一般是基于候選區(qū)域的,主要思想是通過生成一系列的候選區(qū)域,對(duì)候選區(qū)域進(jìn)行分類粗略的得到包含物體的候選框,再對(duì)候選框進(jìn)行精修,即對(duì)選中的候選框進(jìn)行回歸得到物體的具體包圍框。早期的算法利用多
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文-10-尺度的滑動(dòng)窗口在原圖中產(chǎn)生大量的推薦區(qū)域,然后利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)這些候選區(qū)域進(jìn)行回歸和分類,得到最終的結(jié)果。但是計(jì)算量龐大,時(shí)間成本太高。文獻(xiàn)[8]隨后提出了圖2-3所示的R-CNN算法,算法使用了選擇性搜索并將候選區(qū)域縮小到2000個(gè)左右,隨后對(duì)2000個(gè)區(qū)域進(jìn)行目標(biāo)檢測(cè),但仍然計(jì)算量大。圖2-3R-CNN算法框架[8]在此之后,文獻(xiàn)[10]在R-CNN基礎(chǔ)上提出了圖2-4所示的FastRCNN算法,先利卷積神經(jīng)網(wǎng)絡(luò)提取圖片的特征,再在特征圖上進(jìn)行選擇性搜索得到特征圖的候選推薦區(qū)域,這樣從計(jì)算2000張候選區(qū)域的特征變?yōu)榱酥恍枰崛∫淮翁卣,極大減少了計(jì)算量。圖2-4FastRCNN算法框架[10]文獻(xiàn)[45]創(chuàng)造性地提出候選區(qū)域生成網(wǎng)絡(luò)(RegionProposalNetworks,RPN),使候選區(qū)域的生成自動(dòng)化。RPN框架如圖2-5所示。FasterR-CNN與文獻(xiàn)[10]做法一樣都是對(duì)整張圖像進(jìn)行特征提取,RPN和最終的目標(biāo)檢測(cè)任務(wù)共享特征。RPN預(yù)設(shè)了9個(gè)尺度的錨點(diǎn),并在CNN輸出的卷積圖上滑動(dòng)掃描每個(gè)像素點(diǎn)的9個(gè)不同尺度的特征圖,以此獲取候選區(qū)域,對(duì)區(qū)域推薦映射的特征進(jìn)行降維后,最終輸出區(qū)域推薦的坐標(biāo)信息和分類分?jǐn)?shù)。在RPN提取候選區(qū)域階段并不關(guān)注目標(biāo)的
【參考文獻(xiàn)】:
期刊論文
[1]基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法綜述[J]. 周曉彥,王珂,李凌燕. 電子測(cè)量技術(shù). 2017(11)
[2]基于DCNN的圖像語義分割綜述[J]. 魏云超,趙耀. 北京交通大學(xué)學(xué)報(bào). 2016(04)
[3]無人駕駛汽車的發(fā)展現(xiàn)狀和展望[J]. 楊帆. 上海汽車. 2014(03)
[4]深度學(xué)習(xí)研究綜述[J]. 孫志軍,薛磊,許陽明,王正. 計(jì)算機(jī)應(yīng)用研究. 2012(08)
本文編號(hào):3001789
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3001789.html
最近更新
教材專著