開放式環(huán)境下視頻車牌檢測與識別
發(fā)布時間:2021-01-08 13:43
車牌檢測與識別有著三十余年的研究歷史,并且在一些簡單固定場景下已經(jīng)得到了廣泛應(yīng)用,但是在成像設(shè)備不固定、光照不佳等開放式環(huán)境下,現(xiàn)有的車牌檢測與識別算法的效果會急劇下降。近年來深度學(xué)習(xí)在計算機視覺領(lǐng)域得到了廣泛應(yīng)用,其算法在魯棒性、準確度等方面遠超傳統(tǒng)算法,因此本文嘗試將深度學(xué)習(xí)應(yīng)用于車牌檢測與識別,在開放式環(huán)境下達到實時、準確的效果。本文以開放式環(huán)境下視頻車牌檢測與識別為目標,綜合考慮實時性與準確性,結(jié)合實際應(yīng)用場景,提出了基于YOLOv3(You Only Look Oncev3)的車牌檢測算法 LPDNet(License Plate Detection Network)和基于 CRNN(Convolutional Recurrent Neural Network)的車牌序列識別算法 LPSRNet(License Plate Sequence Recognition Network)。本文主要工作和創(chuàng)新如下:(1)建立車牌檢測及識別基準數(shù)據(jù)集目前中文車牌僅有的大型數(shù)據(jù)集為中國科學(xué)技術(shù)大學(xué)公開的CCPD,但其拍攝場景固定、車牌相似度高且每張圖像僅含一個車牌,不適合作為基準數(shù)據(jù)集。...
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:91 頁
【學(xué)位級別】:碩士
【部分圖文】:
CTPN算法“微分”示意圖
??圖2-1場景文字圖像?圖2-2?CTPN算法“微分”示意圖??Figure?2-1?Scene?text?image?Figure?2-2?“differential”?schematic?of?CTPN?algorithm??基于以上兩個核心思想,CTPN的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計如圖2-3所示。??1???^?w?2k?vertical??1?vv?tv-?--Jr.^1?n??/—"一"I——I一 ̄「1 ̄ ̄I ̄ ̄II?念?coordinates??|?|?|?1?|?|?1??IZ]I|IZ ̄I..-i--|-?n??EC:::=*ccr:=?^?H?^?—??*?—??—??2k?scores??■??—^―?I????????VGG16?\?l』丁?::.■?w?h??\?m:孓終t^TII?u?K??di?qt\a?FC?side-refinement??Conv5?BLS???圖2-3?CTPN網(wǎng)絡(luò)結(jié)構(gòu)??Figure?2-3?Architecture?of?CTPN??CTPN算法的具體步驟為:??(1)用?VGG16?網(wǎng)絡(luò)的前?5?個?conv?stage?得到?feature?map,大小為?W*H*C;??(2)用3*3的滑動窗口在前一步得到的feature?map上提取特征,利用這些特??征來對多個anchor進行預(yù)測,這里anchor定義與FasterR-CNN中的定義相同,也??就是幫我們?nèi)ソ缍ǔ瞿繕舜x區(qū)域;??(3)將上一步得到的特征輸入到一個雙向的LSTM中
?CTPN算法的最大特點是將RNN引入到文本檢測中,可以學(xué)習(xí)到文本序列的??前后文信息,不使用RNN與使用RNN的結(jié)果對比如圖2-4所示。另外CTPN使??用了“微分”的思想減小誤差,使用固定寬度的anchor來檢測分割為許多塊的??proposal,最后進行合并即得到檢測結(jié)果。CNN和RNN的聯(lián)合使用極大地提高了??場景文本檢測的精度。??國??■臟_.:Mi??;.,^lr?i[?ESfeM?. ̄§^??^?-?麵漏?WIS—??圖2-4上:不使用RNN的CTPN下:使用RNN的CTPN??Figure?2-4?Top:?CTPN?without?RNN?Bottom:?CTPN?with?RNN??2.2目標檢測算法研究??目標檢測是計算機視覺領(lǐng)域的研究重點,也是各種實際應(yīng)用如安防、無人駕駛、??機器人、工業(yè)檢測的核心模塊。目標檢測是指從一幅圖像中獲得目標的位置信息和??類別信息,包括定位和識別兩個過程,其難點在于如何從待檢測圖像中提取出可能??含有目標的區(qū)域。由于實際場景日趨復(fù)雜,光照、遮擋、角度變化等因素均會導(dǎo)致??圖像變化,這些都為目標檢測帶來新的挑戰(zhàn)。當前目標檢測算法可以分為兩大類,??第一類是基于手工設(shè)計特征和傳統(tǒng)機器學(xué)習(xí)的檢測算法
【參考文獻】:
期刊論文
[1]基于HSI顏色空間和行掃描的車牌定位算法[J]. 胡峰松,朱浩. 計算機工程與設(shè)計. 2015(04)
碩士論文
[1]深度學(xué)習(xí)在車牌識別中的應(yīng)用研究[D]. 張宇澄.南京大學(xué) 2018
本文編號:2964699
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:91 頁
【學(xué)位級別】:碩士
【部分圖文】:
CTPN算法“微分”示意圖
??圖2-1場景文字圖像?圖2-2?CTPN算法“微分”示意圖??Figure?2-1?Scene?text?image?Figure?2-2?“differential”?schematic?of?CTPN?algorithm??基于以上兩個核心思想,CTPN的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計如圖2-3所示。??1???^?w?2k?vertical??1?vv?tv-?--Jr.^1?n??/—"一"I——I一 ̄「1 ̄ ̄I ̄ ̄II?念?coordinates??|?|?|?1?|?|?1??IZ]I|IZ ̄I..-i--|-?n??EC:::=*ccr:=?^?H?^?—??*?—??—??2k?scores??■??—^―?I????????VGG16?\?l』丁?::.■?w?h??\?m:孓終t^TII?u?K??di?qt\a?FC?side-refinement??Conv5?BLS???圖2-3?CTPN網(wǎng)絡(luò)結(jié)構(gòu)??Figure?2-3?Architecture?of?CTPN??CTPN算法的具體步驟為:??(1)用?VGG16?網(wǎng)絡(luò)的前?5?個?conv?stage?得到?feature?map,大小為?W*H*C;??(2)用3*3的滑動窗口在前一步得到的feature?map上提取特征,利用這些特??征來對多個anchor進行預(yù)測,這里anchor定義與FasterR-CNN中的定義相同,也??就是幫我們?nèi)ソ缍ǔ瞿繕舜x區(qū)域;??(3)將上一步得到的特征輸入到一個雙向的LSTM中
?CTPN算法的最大特點是將RNN引入到文本檢測中,可以學(xué)習(xí)到文本序列的??前后文信息,不使用RNN與使用RNN的結(jié)果對比如圖2-4所示。另外CTPN使??用了“微分”的思想減小誤差,使用固定寬度的anchor來檢測分割為許多塊的??proposal,最后進行合并即得到檢測結(jié)果。CNN和RNN的聯(lián)合使用極大地提高了??場景文本檢測的精度。??國??■臟_.:Mi??;.,^lr?i[?ESfeM?. ̄§^??^?-?麵漏?WIS—??圖2-4上:不使用RNN的CTPN下:使用RNN的CTPN??Figure?2-4?Top:?CTPN?without?RNN?Bottom:?CTPN?with?RNN??2.2目標檢測算法研究??目標檢測是計算機視覺領(lǐng)域的研究重點,也是各種實際應(yīng)用如安防、無人駕駛、??機器人、工業(yè)檢測的核心模塊。目標檢測是指從一幅圖像中獲得目標的位置信息和??類別信息,包括定位和識別兩個過程,其難點在于如何從待檢測圖像中提取出可能??含有目標的區(qū)域。由于實際場景日趨復(fù)雜,光照、遮擋、角度變化等因素均會導(dǎo)致??圖像變化,這些都為目標檢測帶來新的挑戰(zhàn)。當前目標檢測算法可以分為兩大類,??第一類是基于手工設(shè)計特征和傳統(tǒng)機器學(xué)習(xí)的檢測算法
【參考文獻】:
期刊論文
[1]基于HSI顏色空間和行掃描的車牌定位算法[J]. 胡峰松,朱浩. 計算機工程與設(shè)計. 2015(04)
碩士論文
[1]深度學(xué)習(xí)在車牌識別中的應(yīng)用研究[D]. 張宇澄.南京大學(xué) 2018
本文編號:2964699
本文鏈接:http://www.sikaile.net/kejilunwen/daoluqiaoliang/2964699.html