基于深度學(xué)習(xí)的圖像識(shí)別應(yīng)用研究
發(fā)布時(shí)間:2017-08-08 08:02
本文關(guān)鍵詞:基于深度學(xué)習(xí)的圖像識(shí)別應(yīng)用研究
更多相關(guān)文章: 深度學(xué)習(xí) CNN RNN CRNN 敏感圖像識(shí)別 車牌識(shí)別
【摘要】:圖像識(shí)別是人工智能領(lǐng)域的一個(gè)重要方向。經(jīng)過多年的研究,圖像識(shí)別技術(shù)取得了一定的研究進(jìn)展。圖像識(shí)別主要包含特征提取和分類識(shí)別,而其中的特征提取是圖像識(shí)別技術(shù)發(fā)展的瓶頸問題,直接決定著識(shí)別性能的好壞。傳統(tǒng)提取的特征主要分為全局特征和局部特征,但是這些特征都是圖像底層的視覺特征,并且需要具備一定專業(yè)知識(shí)人員進(jìn)行特征的設(shè)計(jì)與選擇,這種人工設(shè)計(jì)的特征需要經(jīng)過大量的驗(yàn)證后才能證明其對(duì)某一種識(shí)別任務(wù)的有效性,這也在一定程度上限制了圖像識(shí)別技術(shù)的應(yīng)用。近年來,隨著大數(shù)據(jù)時(shí)代的來臨和計(jì)算資源越來越便宜,深度學(xué)習(xí)技術(shù)不斷取得進(jìn)展。它是一種以數(shù)據(jù)為驅(qū)動(dòng),從圖像識(shí)別任務(wù)中的大量數(shù)據(jù)來自動(dòng)學(xué)習(xí)特征。為此,本文首先對(duì)深度學(xué)習(xí)進(jìn)行了研究,然后將其應(yīng)用到敏感圖像識(shí)別和車牌識(shí)別中。本文的研究?jī)?nèi)容主要包括以下幾個(gè)部分:首先,本文深入研究了深度學(xué)習(xí)。重點(diǎn)研究了深度學(xué)習(xí)的特征提取,以及深度學(xué)習(xí)中三個(gè)重要的網(wǎng)絡(luò)模型,分別是可以實(shí)現(xiàn)無監(jiān)督特征學(xué)習(xí)的深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN),圖像識(shí)別任務(wù)中被廣泛使用的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN),以及可以實(shí)現(xiàn)序列數(shù)據(jù)學(xué)習(xí)的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN),對(duì)它們的網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練方法展開深入的研究。實(shí)驗(yàn)表明,深度學(xué)習(xí)網(wǎng)絡(luò)可以對(duì)不同的識(shí)別任務(wù),從圖像數(shù)據(jù)中學(xué)習(xí)分層特征,最后形成不同類別對(duì)象之間的區(qū)分性特征。其次,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的敏感圖像識(shí)別方法。該方法分為兩個(gè)步驟:粗檢和細(xì)檢。粗檢用來快速識(shí)別出不含或含膚色區(qū)域較少的正常圖像以及大頭照,因?yàn)榇蟛糠謭D像都屬于正常圖像,這可以極大降低識(shí)別時(shí)間。對(duì)于包含膚色較多的圖像,則進(jìn)一步通過細(xì)檢識(shí)別。首先使用大量標(biāo)定好的敏感圖像和非敏感圖像訓(xùn)練CNN分類模型,然后采用分類模型進(jìn)行敏感圖像的識(shí)別。在包含19000多幅圖像的數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果表明,采用本文所提出的方法識(shí)別準(zhǔn)確率可以達(dá)到97.2%,遠(yuǎn)遠(yuǎn)高于傳統(tǒng)的敏感圖像識(shí)別方法。最后,針對(duì)傳統(tǒng)車牌識(shí)別算法存在車牌定位、車牌校正、字符分割、字符識(shí)別等多個(gè)過程,每個(gè)過程都會(huì)影響車牌識(shí)別率的問題,提出了一種基于卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(Convolutional Recurrent Neural Network,CRNN)的車牌識(shí)別算法。該算法包含車牌定位和車牌識(shí)別兩個(gè)部分:首先使用基于邊緣的車牌定位方法確定圖像中車牌的候選區(qū)域,然后采用CRNN網(wǎng)絡(luò)進(jìn)行車牌的訓(xùn)練和識(shí)別。相對(duì)于傳統(tǒng)的車牌識(shí)別技術(shù),本文提出的算法是一種端到端的識(shí)別方法,無需進(jìn)行車牌校正、字符分割等處理,給車牌識(shí)別提供了另一種思路。實(shí)驗(yàn)結(jié)果表明,車牌整體識(shí)別正確率為76%,車牌后六位字符的識(shí)別正確率為91%。
【關(guān)鍵詞】:深度學(xué)習(xí) CNN RNN CRNN 敏感圖像識(shí)別 車牌識(shí)別
【學(xué)位授予單位】:北京工業(yè)大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2016
【分類號(hào)】:TP391.41
【目錄】:
- 摘要4-6
- Abstract6-10
- 第1章 緒論10-14
- 1.1 研究背景和研究意義10-11
- 1.2 深度學(xué)習(xí)研究進(jìn)展11-12
- 1.3 論文的主要內(nèi)容12-13
- 1.4 論文的結(jié)構(gòu)安排13-14
- 第2章 圖像識(shí)別技術(shù)研究進(jìn)展14-22
- 2.1 圖像識(shí)別基本框架14-15
- 2.2 特征提取與表達(dá)15-17
- 2.3 分類器17-18
- 2.4 敏感圖像識(shí)別研究進(jìn)展18-19
- 2.5 車牌識(shí)別研究進(jìn)展19-22
- 第3章 深度學(xué)習(xí)研究22-42
- 3.1 傳統(tǒng)前饋神經(jīng)網(wǎng)絡(luò)22-26
- 3.1.1 神經(jīng)元結(jié)構(gòu)22-23
- 3.1.2 前饋神經(jīng)網(wǎng)絡(luò)23-25
- 3.1.3 前饋網(wǎng)絡(luò)的訓(xùn)練25-26
- 3.2 深度學(xué)習(xí)概念26-27
- 3.3 深度特征學(xué)習(xí)27-28
- 3.4 深度學(xué)習(xí)常用模型28-37
- 3.4.1 深度信念網(wǎng)絡(luò)28-31
- 3.4.2 卷積神經(jīng)網(wǎng)絡(luò)31-35
- 3.4.3 循環(huán)神經(jīng)網(wǎng)絡(luò)35-37
- 3.5 實(shí)驗(yàn)結(jié)果與分析37-40
- 3.6 本章小結(jié)40-42
- 第4章 基于CNN的敏感圖像識(shí)別42-52
- 4.1 引言42
- 4.2 基于CNN的敏感圖像識(shí)別整體框架42-43
- 4.3 敏感圖像粗檢43-45
- 4.3.1 膚色檢測(cè)43-44
- 4.3.2 人臉檢測(cè)44-45
- 4.4 敏感圖像細(xì)檢45-47
- 4.4.1 CNN網(wǎng)絡(luò)結(jié)構(gòu)和實(shí)現(xiàn)45-47
- 4.4.2 網(wǎng)絡(luò)訓(xùn)練47
- 4.5 實(shí)驗(yàn)結(jié)果與分析47-49
- 4.6 本章小結(jié)49-52
- 第5章 基于CRNN的車牌識(shí)別52-64
- 5.1 引言52
- 5.2 基于CRNN的車牌識(shí)別整體框架52-53
- 5.3 車牌定位53-56
- 5.4 基于CRNN的車牌識(shí)別56-61
- 5.4.1 CRNN網(wǎng)絡(luò)結(jié)構(gòu)56-59
- 5.4.2 網(wǎng)絡(luò)訓(xùn)練59-60
- 5.4.3 網(wǎng)絡(luò)實(shí)現(xiàn)60-61
- 5.5 實(shí)驗(yàn)結(jié)果與分析61-63
- 5.6 本章小結(jié)63-64
- 結(jié)論與展望64-66
- 1. 論文完成的主要工作64-65
- 2. 下一步工作展望65-66
- 參考文獻(xiàn)66-72
- 攻讀碩士學(xué)位期間完成的成果72-74
- 攻讀碩士學(xué)位期間參加的科研項(xiàng)目74-76
- 致謝76
本文編號(hào):638906
本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/638906.html
最近更新
教材專著