天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 汽車論文 >

交通標(biāo)志檢測算法及其應(yīng)用研究

發(fā)布時間:2021-09-03 16:13
  交通標(biāo)志是交通系統(tǒng)中的一種重要設(shè)施,在無人駕駛系統(tǒng)的多個領(lǐng)域也發(fā)揮著作用。在感知中,需要準(zhǔn)確地識別出交通標(biāo)志的類別以輔助進(jìn)行駕駛決策;在建圖和定位中,需要穩(wěn)定地檢測出交通標(biāo)志的圖像分割。本文針對無人駕駛對交通標(biāo)志的感知需求,分別提出了交通標(biāo)志的檢測與分割算法,并提出了一種使用交通標(biāo)志進(jìn)行車輛自定位的算法。對于交通標(biāo)志檢測任務(wù),本文提出了一種細(xì)粒度的層次架構(gòu)目標(biāo)檢測網(wǎng)絡(luò)。交通標(biāo)志通常具有上百個細(xì)粒度類別,很多類別形狀顏色十分相似,而傳統(tǒng)目標(biāo)檢測網(wǎng)絡(luò)對細(xì)粒度類別常常識別不準(zhǔn),容易出現(xiàn)誤分類。本文利用細(xì)粒度類別可以聚合為幾個超類的特性,首先對超類進(jìn)行目標(biāo)檢測,對檢測結(jié)果共享超類網(wǎng)絡(luò)的特征層,提出了帶標(biāo)簽的RoIPooling操作,并到對應(yīng)的超類分支上進(jìn)行細(xì)粒度分類,從而實現(xiàn)了一個端對端的細(xì)粒度檢測網(wǎng)絡(luò)。實驗顯示提出的方法能獲得很好的準(zhǔn)確率,并對細(xì)粒度類別識別準(zhǔn)確。對于交通標(biāo)志分割任務(wù),本文提出了一種基于邊緣提取的分割算法。圖像分割網(wǎng)絡(luò)常常需要大量的圖像標(biāo)注數(shù)據(jù),并占用很多計算資源,而交通標(biāo)志具有明確的幾何形狀特征,可以通過直接提取邊緣信息獲得其分割結(jié)果。本文在目標(biāo)檢測結(jié)果的基礎(chǔ)上,首先提取邊... 

【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校

【文章頁數(shù)】:84 頁

【學(xué)位級別】:碩士

【部分圖文】:

交通標(biāo)志檢測算法及其應(yīng)用研究


目標(biāo)檢測網(wǎng)絡(luò)發(fā)展時間線

網(wǎng)絡(luò)結(jié)構(gòu)圖,網(wǎng)絡(luò)結(jié)構(gòu),區(qū)域,卷積


上海交通大學(xué)碩士學(xué)位論文4驟,使得整個流程分兩個階段。一階段檢測框架。不需要進(jìn)行候選區(qū)域提取,直接使用滑動窗口進(jìn)行檢測。這是一種端對端的一階段網(wǎng)絡(luò)。1.基于候選區(qū)域的方法(兩階段框架)在基于候選區(qū)域的框架中,一般需要先從圖像中提取出與類別無關(guān)的候選區(qū)域,然后使用卷積神經(jīng)網(wǎng)絡(luò)從這些區(qū)域提取特征,最后使用分類器來確定候選區(qū)域的類別。卷積神經(jīng)網(wǎng)絡(luò)(CNN)最早大顯身手的就是圖像特征提取,在早期OverFeat[2]和RCNN[3]幾乎獨立且同時提出使用CNN進(jìn)行目標(biāo)特征的提取,并實現(xiàn)目標(biāo)檢測。在這一階段中,一般候選區(qū)域使用其他方法(比如SelectiveSearch)從圖像中獲得,而并沒有將候選區(qū)域提取與卷積神經(jīng)網(wǎng)絡(luò)融合到一個統(tǒng)一的網(wǎng)絡(luò)中,直到FasterR-CNN[1]的出現(xiàn)。圖1-2FasterR-CNN網(wǎng)絡(luò)結(jié)構(gòu)Fig.1-2FasterR-CNNFrameworkFasterR-CNN:在FasterR-CNN[1]出現(xiàn)之前,盡管FastR-CNN已經(jīng)顯著地加快了檢測過程,但它仍然依賴于外部提供的候選區(qū)域。候選區(qū)域成為了目標(biāo)檢測網(wǎng)絡(luò)的瓶頸。因而,在FasterR-CNN中,提出了一個有效和準(zhǔn)確的候選區(qū)域網(wǎng)絡(luò)RPN(RegionProposalNetwork)來生成候選區(qū)域。RPN和FasterR-CNN共享前面的卷積層。最后一個共享卷積層的特征用于進(jìn)行候選區(qū)域的提取和分類。RPN首先在每個特征圖每個位置上初始化k種尺度和縱橫比的n×n參考框(anchor)。每個n×n的anchor被映射到低維的向量矢量(例如ZF為256,VGG為512),它被送入兩個相鄰的全連接層:一個類別分類層和一個包圍盒回歸層。

網(wǎng)絡(luò)結(jié)構(gòu)圖,網(wǎng)絡(luò)結(jié)構(gòu),卷積,特征融合


上海交通大學(xué)碩士學(xué)位論文5與FastR-CNN不同,RPN中用于回歸的特征具有相同的維度大校RPN與FasterR-CNN共享卷積層,從而實現(xiàn)高效的區(qū)域提取計算。事實上,RPN是一種完全卷積網(wǎng)絡(luò)FCN(FullyConvolutionalNetwork)。也就是說,F(xiàn)asterR-CNN是純粹基于CNN的框架,而不使用其他人工實現(xiàn)的算法。使用VGG16模型的FasterR-CNN可以在GPU上以5fps進(jìn)行測試,每張圖像生成300個候選區(qū)域,在PASCALVOC2007上獲得了最好的目標(biāo)檢測精度;贔asterR-CNN的改進(jìn)網(wǎng)絡(luò)眾多,涌現(xiàn)了很多具有創(chuàng)造力和有效的方法。一般來說都是針對某個小方面,如多尺度目標(biāo)檢測、小目標(biāo)檢測等進(jìn)行改進(jìn)。針對特征融合進(jìn)行改進(jìn)的網(wǎng)絡(luò)包括MS-CNN[4],HyperNet[5],RefineDet[6]和FPN[7],特征融合后對尺度變化大的目標(biāo),以及小目標(biāo)的效果有所提升。除此之外,還有引入空間變換來輔助進(jìn)行檢測的STDN[8]。圖1-3RFCN網(wǎng)絡(luò)結(jié)構(gòu)Fig.1-3RFCNframeworkRFCN(RegionbasedFullyConvolutionalNetwork):雖然FasterR-CNN比FastR-CNN快一個數(shù)量級,但是每個RoI仍然需要分別計算后續(xù)的特征,而每張圖中基本上都有幾百個RoI。在FasterR-CNN中,無法共享RoIPooling層之后的計算。一個自然的想法是盡量減少無法共享的計算量,即除了最后一層分類層之外,前面均共享特征。RFCN[9]提出了一種特殊的卷積層來引入位置信息,先在卷積層上完成預(yù)測,再做RoIPooling,最后直接進(jìn)行分類和回歸,這樣大大減少了需要進(jìn)行的計算量,而最大限度的共享了卷積特征。實驗表明使用ResNet101的RFCN可以達(dá)到與FasterR-CNN相當(dāng)?shù)木,?

【參考文獻(xiàn)】:
期刊論文
[1]基于部分慣性傳感器信息的單目視覺同步定位與地圖創(chuàng)建方法[J]. 顧照鵬,董秋雷.  計算機輔助設(shè)計與圖形學(xué)學(xué)報. 2012(02)
[2]基于全景視覺的移動機器人同步定位與地圖創(chuàng)建研究[J]. 許俊勇,王景川,陳衛(wèi)東.  機器人. 2008(04)



本文編號:3381438

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/qiche/3381438.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶cd279***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com