基于深度學(xué)習(xí)的自然場景中交通標(biāo)志識別研究
發(fā)布時間:2023-02-15 15:34
隨著我國經(jīng)濟(jì)和社會經(jīng)濟(jì)的飛速發(fā)展,越來越多向城市集中的人口為大中型城市的發(fā)展帶來了巨大的機(jī)遇和挑戰(zhàn),其中就包括交通擁堵這一難題,智能交通系統(tǒng)的概念也因此而應(yīng)運而生。智能交通系統(tǒng)包括無人駕駛技術(shù)要進(jìn)入實用階段,最重要的一點就是要能夠?qū)⒌缆飞系母鞣N交通狀況實時地進(jìn)行信息化。如何能夠盡可能地排除來自于環(huán)境因素的干擾,進(jìn)行準(zhǔn)確和高效的交通標(biāo)志檢測與識別,是必須要解決的關(guān)鍵技術(shù)問題,具有很大的研究價值和應(yīng)用前景。早期的交通標(biāo)志識別先通過圖像的顏色和形狀等特征來分割區(qū)域,再利用模板匹配、SVM分類器或人工神經(jīng)網(wǎng)絡(luò)等進(jìn)行識別。在卷積神經(jīng)網(wǎng)絡(luò)出現(xiàn)后,新提出了兩大類完全基于深度學(xué)習(xí)的交通標(biāo)志識別方法,包括最先出現(xiàn)以RCNN系列為代表的二階段檢測法,和以YOLO系列為代表的單階段檢測法。本文對目前主流的基于深度學(xué)習(xí)的交通標(biāo)志識別方法進(jìn)行深入的研究和實驗。首先對視頻圖像數(shù)據(jù)進(jìn)行了基于先驗知識的預(yù)處理,在不損失重要信息的前提下使數(shù)據(jù)量降低了49.14%。對利用人工神經(jīng)網(wǎng)絡(luò)作為識別階段的傳統(tǒng)方法進(jìn)行了實現(xiàn),取得了96.15%的識別率。通過faster RCNN方法的交通標(biāo)志識別實驗,說明該方法用于道路交通標(biāo)志識...
【文章頁數(shù)】:98 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 課題背景與研究意義
1.2 國內(nèi)外研究現(xiàn)狀及分析
1.2.1 國外研究概述
1.2.2 國內(nèi)外研究分析
1.2.3 國內(nèi)外研究中存在的問題
1.3 研究內(nèi)容與章節(jié)安排
1.3.1 本文的研究內(nèi)容
1.3.2 本文的章節(jié)安排
第二章 交通標(biāo)志識別的計算機(jī)圖像形態(tài)學(xué)基礎(chǔ)
2.1 圖像的顏色模型
2.1.1 RGB顏色模型
2.1.2 HSV顏色模型
2.2 圖像的空間濾波
2.3 圖像形態(tài)學(xué)運算
2.3.1 膨脹與腐蝕運算
2.3.2 開啟和閉合運算
2.4 圖像的邊緣檢測
2.5 圖像邊緣的凸包與凹點
2.6 圖像邊緣的形狀檢測
2.6.1 圖像邊緣的圓檢測
2.6.2 圖像邊緣的三角形檢測
2.7 本章小結(jié)
第三章 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)與交通標(biāo)志目標(biāo)檢測方法
3.1 人工神經(jīng)網(wǎng)絡(luò)
3.1.1 神經(jīng)元模型
3.1.2 前饋神經(jīng)網(wǎng)絡(luò)
3.2 卷積神經(jīng)網(wǎng)絡(luò)
3.3 卷積神經(jīng)網(wǎng)絡(luò)模型
3.3.1 AlexNet與ZFNet模型
3.3.2 VGGNet模型
3.3.3 深度殘差網(wǎng)絡(luò)ResNet模型
3.4 交通標(biāo)志目標(biāo)識別方法概述
3.5 傳統(tǒng)檢測與識別方法
3.6 二階段檢測與識別方法
3.6.1 R-CNN、SPP-Net與fastR-CNN方法
3.6.2 fasterR-CNN方法與區(qū)域提議網(wǎng)絡(luò)
3.7 單階段檢測與識別方法
3.7.1 YOLO、YOLO9000與YOLOv2
3.7.2 YOLOv3方法與多標(biāo)簽預(yù)測
3.8 本章小結(jié)
第四章 交通標(biāo)志識別實驗數(shù)據(jù)設(shè)計與環(huán)境準(zhǔn)備
4.1 中國道路交通標(biāo)志概述
4.2 環(huán)境與設(shè)備條件對交通標(biāo)志圖像的影響
4.2.1 天氣和光照差異帶來的影響
4.2.2 設(shè)備因素帶來的影響
4.2.3 不規(guī)范的臨時和簡易標(biāo)志的影響
4.3 本文研究數(shù)據(jù)的設(shè)計
4.3.1 常用交通標(biāo)志公共數(shù)據(jù)集分析
4.3.2 作為研究目標(biāo)的交通標(biāo)志選取
4.3.3 交通標(biāo)志樣本數(shù)據(jù)采集
4.3.4 交通標(biāo)志原始圖像的預(yù)處理
4.3.5 交通標(biāo)志識別數(shù)據(jù)集設(shè)計
4.4 交通標(biāo)志檢測與識別的評價標(biāo)準(zhǔn)
4.4.1 精度與召回率
4.4.2 平均精度均值
4.5 交通標(biāo)志檢測與識別的實驗環(huán)境
4.5.1 實驗計算機(jī)運行環(huán)境
4.5.2 實驗開發(fā)環(huán)境與調(diào)整
4.6 本章小結(jié)
第五章 傳統(tǒng)交通標(biāo)志識別方法研究
5.1 傳統(tǒng)檢測與識別方法概述
5.2 基于顏色的交通標(biāo)志檢測研究
5.2.1 白天良好光照環(huán)境下場景的識別研究
5.2.2 晚間特殊光照場景下的識別研究
5.2.3 HSV顏色分割的閾值選擇研究
5.3 基于幾何形狀的交通標(biāo)志檢測研究
5.4 基于深度網(wǎng)絡(luò)的交通標(biāo)志識別研究
5.4.1 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計
5.4.2 識別結(jié)果與分析
5.5 傳統(tǒng)方法檢測結(jié)果綜述與展望
5.6 本章小結(jié)
第六章 fasterR-CNN交通標(biāo)志識別方法實驗研究
6.1 fasterR-CNN實驗環(huán)境準(zhǔn)備
6.1.1 PASCALVOC2007數(shù)據(jù)集
6.1.2 Windows平臺下faster-RCNN開發(fā)環(huán)境配置
6.1.3 fasterR-CNN的訓(xùn)練方式
6.2 fasterR-CNN交通標(biāo)志識別實驗
6.2.1 預(yù)訓(xùn)練模型的使用
6.2.2 學(xué)習(xí)率與閾值參數(shù)的選擇
6.3 fastR-CNN交通標(biāo)志識別方法優(yōu)化
6.3.1 針對錨框方法的優(yōu)化
6.3.2 針對標(biāo)注精度的參數(shù)優(yōu)化
6.3.3 針對小型交通標(biāo)志目標(biāo)識別的優(yōu)化
6.4 本章小結(jié)
第七章 YOLOv3交通標(biāo)志識別方法實驗研究
7.1 YOLOv3實驗環(huán)境準(zhǔn)備
7.1.1 darknet數(shù)據(jù)集
7.1.2 Darknet網(wǎng)絡(luò)的超參數(shù)
7.2 本章實驗設(shè)計
7.3 各訓(xùn)練集上的YOLOv3交通標(biāo)志識別實驗研究
7.3.1 在訓(xùn)練集A上的實驗研究
7.3.2 在訓(xùn)練集B上的實驗研究
7.3.3 在訓(xùn)練集C上的實驗研究
7.4 YOLOv3交通標(biāo)志識別優(yōu)化研究
7.4.1 數(shù)據(jù)集的擴(kuò)充
7.4.2 學(xué)習(xí)率和參數(shù)的選擇
7.5 在視頻中運行識別結(jié)果
7.6 本章小結(jié)
第八章 總結(jié)與展望
8.1 論文總結(jié)
8.2 工作展望
參考文獻(xiàn)
攻碩士學(xué)位期間取得的研究成果
致謝
附表
本文編號:3743440
【文章頁數(shù)】:98 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 課題背景與研究意義
1.2 國內(nèi)外研究現(xiàn)狀及分析
1.2.1 國外研究概述
1.2.2 國內(nèi)外研究分析
1.2.3 國內(nèi)外研究中存在的問題
1.3 研究內(nèi)容與章節(jié)安排
1.3.1 本文的研究內(nèi)容
1.3.2 本文的章節(jié)安排
第二章 交通標(biāo)志識別的計算機(jī)圖像形態(tài)學(xué)基礎(chǔ)
2.1 圖像的顏色模型
2.1.1 RGB顏色模型
2.1.2 HSV顏色模型
2.2 圖像的空間濾波
2.3 圖像形態(tài)學(xué)運算
2.3.1 膨脹與腐蝕運算
2.3.2 開啟和閉合運算
2.4 圖像的邊緣檢測
2.5 圖像邊緣的凸包與凹點
2.6 圖像邊緣的形狀檢測
2.6.1 圖像邊緣的圓檢測
2.6.2 圖像邊緣的三角形檢測
2.7 本章小結(jié)
第三章 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)與交通標(biāo)志目標(biāo)檢測方法
3.1 人工神經(jīng)網(wǎng)絡(luò)
3.1.1 神經(jīng)元模型
3.1.2 前饋神經(jīng)網(wǎng)絡(luò)
3.2 卷積神經(jīng)網(wǎng)絡(luò)
3.3 卷積神經(jīng)網(wǎng)絡(luò)模型
3.3.1 AlexNet與ZFNet模型
3.3.2 VGGNet模型
3.3.3 深度殘差網(wǎng)絡(luò)ResNet模型
3.4 交通標(biāo)志目標(biāo)識別方法概述
3.5 傳統(tǒng)檢測與識別方法
3.6 二階段檢測與識別方法
3.6.1 R-CNN、SPP-Net與fastR-CNN方法
3.6.2 fasterR-CNN方法與區(qū)域提議網(wǎng)絡(luò)
3.7 單階段檢測與識別方法
3.7.1 YOLO、YOLO9000與YOLOv2
3.7.2 YOLOv3方法與多標(biāo)簽預(yù)測
3.8 本章小結(jié)
第四章 交通標(biāo)志識別實驗數(shù)據(jù)設(shè)計與環(huán)境準(zhǔn)備
4.1 中國道路交通標(biāo)志概述
4.2 環(huán)境與設(shè)備條件對交通標(biāo)志圖像的影響
4.2.1 天氣和光照差異帶來的影響
4.2.2 設(shè)備因素帶來的影響
4.2.3 不規(guī)范的臨時和簡易標(biāo)志的影響
4.3 本文研究數(shù)據(jù)的設(shè)計
4.3.1 常用交通標(biāo)志公共數(shù)據(jù)集分析
4.3.2 作為研究目標(biāo)的交通標(biāo)志選取
4.3.3 交通標(biāo)志樣本數(shù)據(jù)采集
4.3.4 交通標(biāo)志原始圖像的預(yù)處理
4.3.5 交通標(biāo)志識別數(shù)據(jù)集設(shè)計
4.4 交通標(biāo)志檢測與識別的評價標(biāo)準(zhǔn)
4.4.1 精度與召回率
4.4.2 平均精度均值
4.5 交通標(biāo)志檢測與識別的實驗環(huán)境
4.5.1 實驗計算機(jī)運行環(huán)境
4.5.2 實驗開發(fā)環(huán)境與調(diào)整
4.6 本章小結(jié)
第五章 傳統(tǒng)交通標(biāo)志識別方法研究
5.1 傳統(tǒng)檢測與識別方法概述
5.2 基于顏色的交通標(biāo)志檢測研究
5.2.1 白天良好光照環(huán)境下場景的識別研究
5.2.2 晚間特殊光照場景下的識別研究
5.2.3 HSV顏色分割的閾值選擇研究
5.3 基于幾何形狀的交通標(biāo)志檢測研究
5.4 基于深度網(wǎng)絡(luò)的交通標(biāo)志識別研究
5.4.1 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計
5.4.2 識別結(jié)果與分析
5.5 傳統(tǒng)方法檢測結(jié)果綜述與展望
5.6 本章小結(jié)
第六章 fasterR-CNN交通標(biāo)志識別方法實驗研究
6.1 fasterR-CNN實驗環(huán)境準(zhǔn)備
6.1.1 PASCALVOC2007數(shù)據(jù)集
6.1.2 Windows平臺下faster-RCNN開發(fā)環(huán)境配置
6.1.3 fasterR-CNN的訓(xùn)練方式
6.2 fasterR-CNN交通標(biāo)志識別實驗
6.2.1 預(yù)訓(xùn)練模型的使用
6.2.2 學(xué)習(xí)率與閾值參數(shù)的選擇
6.3 fastR-CNN交通標(biāo)志識別方法優(yōu)化
6.3.1 針對錨框方法的優(yōu)化
6.3.2 針對標(biāo)注精度的參數(shù)優(yōu)化
6.3.3 針對小型交通標(biāo)志目標(biāo)識別的優(yōu)化
6.4 本章小結(jié)
第七章 YOLOv3交通標(biāo)志識別方法實驗研究
7.1 YOLOv3實驗環(huán)境準(zhǔn)備
7.1.1 darknet數(shù)據(jù)集
7.1.2 Darknet網(wǎng)絡(luò)的超參數(shù)
7.2 本章實驗設(shè)計
7.3 各訓(xùn)練集上的YOLOv3交通標(biāo)志識別實驗研究
7.3.1 在訓(xùn)練集A上的實驗研究
7.3.2 在訓(xùn)練集B上的實驗研究
7.3.3 在訓(xùn)練集C上的實驗研究
7.4 YOLOv3交通標(biāo)志識別優(yōu)化研究
7.4.1 數(shù)據(jù)集的擴(kuò)充
7.4.2 學(xué)習(xí)率和參數(shù)的選擇
7.5 在視頻中運行識別結(jié)果
7.6 本章小結(jié)
第八章 總結(jié)與展望
8.1 論文總結(jié)
8.2 工作展望
參考文獻(xiàn)
攻碩士學(xué)位期間取得的研究成果
致謝
附表
本文編號:3743440
本文鏈接:http://www.sikaile.net/kejilunwen/daoluqiaoliang/3743440.html
教材專著