天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于YOLOv3的國(guó)內(nèi)交通標(biāo)志識(shí)別及嵌入式實(shí)現(xiàn)

發(fā)布時(shí)間:2021-08-17 13:22
  近年來(lái),隨著人工智能領(lǐng)域的研究突破,汽車(chē)的輔助駕駛系統(tǒng)的推出改變了以往的駕駛模式。系統(tǒng)通過(guò)獲取實(shí)時(shí)的路況信息,及時(shí)地提醒駕駛員做出準(zhǔn)確的操作,從而防止因疲勞駕駛而導(dǎo)致車(chē)禍發(fā)生。交通標(biāo)志是重要的路況信息,如何快速準(zhǔn)確地識(shí)別交通標(biāo)志牌至關(guān)重要。然而傳統(tǒng)的目標(biāo)檢測(cè)算法在實(shí)景測(cè)試中面臨著一些弊端,例如:易受光線、角度、障礙物遮擋、行車(chē)速度等因素限制,而且難以實(shí)現(xiàn)多目標(biāo)檢測(cè)、容易漏檢、識(shí)別慢。本文面向交通標(biāo)志實(shí)時(shí)準(zhǔn)確識(shí)別的需要采取了針對(duì)性的研究和開(kāi)發(fā),主要工作如下:(1)鑒于國(guó)內(nèi)交通標(biāo)志的研究樣本較少,選擇了數(shù)據(jù)集較為完整的CCTSDB數(shù)據(jù)集,并對(duì)CCTSDB進(jìn)行了預(yù)處理和擴(kuò)充。標(biāo)注數(shù)據(jù)有三大類(lèi):指示標(biāo)志、禁止標(biāo)志、警告標(biāo)志。常見(jiàn)的交通標(biāo)志均已包含,圖片所選環(huán)境的復(fù)雜程度符合實(shí)際情況。(2)首先利用深度學(xué)習(xí)網(wǎng)絡(luò)YOLOv3對(duì)CCTSDB做初步訓(xùn)練,在測(cè)試中,對(duì)于圖片的識(shí)別上,準(zhǔn)確率均到達(dá)98%以上,識(shí)別所需時(shí)間為0.03s左右?梢(jiàn)利用YOLOv3可以進(jìn)行實(shí)時(shí)檢測(cè)識(shí)別。然而,在視頻識(shí)別上,對(duì)于遠(yuǎn)處小目標(biāo)容易出現(xiàn)漏檢,甚至是錯(cuò)檢。針對(duì)這一問(wèn)題,本文對(duì)yolo層下的anchor值做了聚類(lèi)分析,結(jié)合了... 

【文章來(lái)源】:海南大學(xué)海南省 211工程院校

【文章頁(yè)數(shù)】:45 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于YOLOv3的國(guó)內(nèi)交通標(biāo)志識(shí)別及嵌入式實(shí)現(xiàn)


目標(biāo)檢測(cè)算法的發(fā)展進(jìn)程

流程圖,算法,流程,單元格


基于YOLOv3的國(guó)內(nèi)交通標(biāo)志識(shí)別及嵌入式實(shí)現(xiàn)62YOLO目標(biāo)檢測(cè)系列算法研究2.1YOLO系列之YOLOv12.1.1YOLOv1檢測(cè)原理Yolov1出自在CVPR2016上發(fā)表的論文《YouOnlyLookOnce:Unified,Real-Time物體Detection》,是經(jīng)典的one-stage檢測(cè)算法,它憑借著簡(jiǎn)潔的網(wǎng)絡(luò)結(jié)構(gòu)、簡(jiǎn)單的復(fù)現(xiàn)過(guò)程而受到眾多開(kāi)發(fā)人員的追捧。YOLO算法的設(shè)計(jì)思想就是簡(jiǎn)單的端對(duì)端的理念,即整個(gè)檢測(cè)樣本輸入,通過(guò)中間層的特征提取后,最后在輸出層logistics回歸出預(yù)測(cè)框的坐標(biāo)信息與類(lèi)別信息。雖然fasterRCNN也是直接將整個(gè)圖片作為輸入,但采用的是R-CNN系列的proposal+classifier的思想,只不過(guò)將提取proposal的步驟在CNN中實(shí)現(xiàn)[27]。YOLOv1的檢測(cè)過(guò)程如圖2.1所示,具體步驟如下:圖2.1YOLO算法檢測(cè)流程Fig2.1YOLOalgorithmdetectionprocess首先將原始圖片調(diào)整大小到448x448,再劃分為SxS(例:7x7)個(gè)單元格,這是為了方便劃分物體中心位置點(diǎn)。每個(gè)單元格能單獨(dú)檢測(cè)物體對(duì)象。假如物體的中心坐標(biāo)落在某個(gè)單元格內(nèi),那么該單元格對(duì)這個(gè)物體的預(yù)測(cè)相比相鄰的單元格就更加重要,它給出的預(yù)測(cè)信息就決定著該物體是否能被準(zhǔn)確識(shí)別,簡(jiǎn)單來(lái)說(shuō)就是該單元格要對(duì)該物體負(fù)責(zé)。其中,每個(gè)單元格需要預(yù)測(cè)B個(gè)boundingbox值(邊界框值包含坐標(biāo)(x,y)和寬高(w,h)),同時(shí)為每個(gè)邊界框值預(yù)測(cè)一個(gè)置信度(confidencescores)。因此單元格預(yù)測(cè)B個(gè)5維數(shù)組,即(x,y,w,h,confidence)。其中(x,y)是邊界框的中心位置相對(duì)于當(dāng)前單元格左上角的偏移量,取值范圍在0-1之間,(w,h)是

網(wǎng)絡(luò)結(jié)構(gòu)圖,網(wǎng)絡(luò)結(jié)構(gòu),單元格,置信度


海南大學(xué)碩士學(xué)位論文7邊界框相對(duì)于整張圖片的寬長(zhǎng)占比,取值范圍在0-1之間。對(duì)于置信度confidence,這個(gè)置信度的計(jì)算包含兩個(gè)部分,一是單元格內(nèi)是否存在物體;二是預(yù)測(cè)框與真實(shí)框的IoU值。置信度的計(jì)算公式為truthpred)Pr(IoUObject(2.1)1.如果單元格內(nèi)有物體,則1)Object(Pr,此時(shí)置信度等于IoU2.如果單元格內(nèi)沒(méi)有物體,則0)Object(Pr,此時(shí)置信度等于0接著每個(gè)單元格還要給出C(預(yù)測(cè)物體的種類(lèi)個(gè)數(shù))個(gè)條件概率值。記為:ObjectClass)|Pr(i(2.2)這里輸出的種類(lèi)概率值是針對(duì)當(dāng)前單元格的,不是針對(duì)邊界框的。所以一個(gè)單元格只會(huì)輸出C個(gè)類(lèi)別的條件概率信息,故而只能預(yù)測(cè)一種類(lèi)別的物體。在檢測(cè)目標(biāo)時(shí),考慮到C個(gè)類(lèi)別的預(yù)測(cè)信息,confidence的公式就變成:truthpreditruthpredibjectClassO)Pr()Pr()|Pr(IoUClassIoUbjectO(2.3)最后通過(guò)設(shè)置一個(gè)閾值,將confidence的低分部分濾掉,剩下的使用NMS(非極大值抑制)去除多余框,得到最終的標(biāo)定框,也就是圖2.1中最后得到的預(yù)測(cè)框。2.1.2網(wǎng)絡(luò)結(jié)構(gòu)圖2.2YOLOv1的網(wǎng)絡(luò)結(jié)構(gòu)Fig2.2ThenetworkstructureofYOLOv1Yolov1的網(wǎng)絡(luò)架構(gòu)采用的是CNN的經(jīng)典形式,開(kāi)始是convolutionallayers提取特征,再是fullyconnectedlayers進(jìn)行預(yù)測(cè)結(jié)果。其內(nèi)部的具體設(shè)計(jì)是受GoogleNet的啟發(fā),見(jiàn)圖2.2,448x448分辨率的輸入圖片通過(guò)24個(gè)卷積層(均是1x1卷積層+3x3

【參考文獻(xiàn)】:
期刊論文
[1]基于YOLO v3的交通標(biāo)志牌檢測(cè)識(shí)別[J]. 潘衛(wèi)國(guó),劉博,陳英昊,石洪麗.  傳感器與微系統(tǒng). 2019(11)
[2]基于感興趣區(qū)域和HOG-CTH特征的交通標(biāo)志檢測(cè)[J]. 孫露霞,張尤賽,李永順,張碩.  計(jì)算機(jī)與數(shù)字工程. 2018(06)
[3]基于改進(jìn)SIFT算法的英國(guó)交通標(biāo)志識(shí)別研究[J]. 趙炎,藍(lán)箭,李印,斯杭煜.  工業(yè)控制計(jì)算機(jī). 2016(02)



本文編號(hào):3347846

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3347846.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)783a1***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com