基于YOLOv3的自動(dòng)駕駛視覺(jué)識(shí)別方法研究
發(fā)布時(shí)間:2021-04-14 20:07
近年來(lái),隨著人工智能,尤其是深度學(xué)習(xí)的發(fā)展,自動(dòng)駕駛這項(xiàng)當(dāng)年只存在于人們幻想中的技術(shù)越來(lái)越趨近現(xiàn)實(shí)。完整意義的自動(dòng)駕駛離不開(kāi)先進(jìn)的軟硬件設(shè)備的支持。特別是車輛在行駛途中,對(duì)于周圍物體的“認(rèn)知”,需要優(yōu)秀的計(jì)算機(jī)視覺(jué)識(shí)別方法的支撐。YOLOv3具有速度快、背景誤檢率低、泛化能力強(qiáng)等優(yōu)點(diǎn),可以滿足駕駛過(guò)程中需要實(shí)時(shí)檢測(cè)的要求,是自動(dòng)駕駛視覺(jué)識(shí)別方法的不錯(cuò)選擇。但它也存在一些YOLO系列算法的固有問(wèn)題,例如多目標(biāo)場(chǎng)景下識(shí)別性能不高,存在目標(biāo)定位準(zhǔn)確性問(wèn)題,以及對(duì)于小尺度目標(biāo)物體檢出度不夠。本研究的目的是尋求在實(shí)際駕駛環(huán)境下的高性能實(shí)時(shí)視覺(jué)識(shí)別器。因此需要在駕駛場(chǎng)景數(shù)據(jù)集上進(jìn)行測(cè)試,從而了解識(shí)別器的識(shí)別特性。并在此基礎(chǔ)上加以改進(jìn),希望能夠提高其性能,提高自動(dòng)駕駛應(yīng)用中視覺(jué)識(shí)別的置信度。原YOLOv3識(shí)別器在BDD100K上的平均精度均值為0.423,遠(yuǎn)低于其在COCO數(shù)據(jù)集上的平均精度。為此本文首先分析Anchors尺寸對(duì)YOLOv3識(shí)別性能的影響,通過(guò)K-means聚類優(yōu)選出一組Anchors。然后對(duì)YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),增加一個(gè)YOLO頭,構(gòu)造4個(gè)YOLO頭的網(wǎng)絡(luò)結(jié)構(gòu),其在BDD...
【文章來(lái)源】:青島大學(xué)山東省
【文章頁(yè)數(shù)】:63 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
013-2018年全國(guó)交通事故發(fā)生情況匯總分析[1]
青島大學(xué)碩士學(xué)位論文3都需要對(duì)給定圖像進(jìn)行特征提齲在傳統(tǒng)機(jī)器學(xué)習(xí)中,通常利用手動(dòng)設(shè)置特征完成特征提取任務(wù),而在利用深度學(xué)習(xí)進(jìn)行處理時(shí),則通過(guò)卷積神經(jīng)網(wǎng)來(lái)完成特征抽齲(a)目標(biāo)檢測(cè)(b)圖像分類圖1.2目標(biāo)檢測(cè)算法的任務(wù)1.2.1傳統(tǒng)目標(biāo)檢測(cè)算法傳統(tǒng)的目標(biāo)檢測(cè)方法[13]其過(guò)程主要分為三部分:區(qū)域選擇→特征提鰓分類器。即首先在給定的圖像上進(jìn)行可能包含目標(biāo)物體的候選區(qū)域的選擇,然后對(duì)這些區(qū)域提取特征,最后使用訓(xùn)練獲得的分類器進(jìn)行目標(biāo)物體類別屬性的判定。對(duì)于傳統(tǒng)的目標(biāo)檢測(cè)算法其檢測(cè)流程如圖1.3所示。首先將給定的待檢測(cè)圖片作為輸入,采用滑動(dòng)窗口[14]生成候選框,再對(duì)每個(gè)候選框中的部分圖像進(jìn)行特征抽取,特征抽取采用計(jì)算機(jī)視覺(jué)中關(guān)于圖像特征表示的一些方法,常用的方法有基于顏色、紋理或者形狀等的方法(主要分為基于手工設(shè)計(jì)的特征或者基于學(xué)習(xí)的特征這兩大類)。在經(jīng)過(guò)對(duì)候選框進(jìn)行判定后可以得到一系列的可能為當(dāng)前檢測(cè)目標(biāo)的候選框,這些候選框可能存在部分重疊。通過(guò)非極大值抑制算法[15](NMS,Non-MaximumSuppression)對(duì)候選框進(jìn)行篩選,最后輸出結(jié)果。傳統(tǒng)目標(biāo)檢測(cè)算法有其自身的局限性,主要體現(xiàn)在以下兩個(gè)方面:首先,滑動(dòng)窗口的區(qū)域選擇策略沒(méi)有明確的針對(duì)性,容易產(chǎn)生非常多的冗余窗口[16],這會(huì)大大的增加了耗時(shí),另外手動(dòng)設(shè)計(jì)特征對(duì)于多樣性的變化不具備較好的魯棒性。而深度學(xué)習(xí)的算法將特征提取的部分換成卷積神經(jīng)網(wǎng),對(duì)候選框內(nèi)部分特征提取的過(guò)程則采用候選區(qū)域目標(biāo)推薦[17](RPN,RegionProposalNetworks,)網(wǎng)絡(luò)來(lái)完成,極大地提高了檢測(cè)效率。圖1.3傳統(tǒng)目標(biāo)檢測(cè)算法流程圖
青島大學(xué)碩士學(xué)位論文3都需要對(duì)給定圖像進(jìn)行特征提齲在傳統(tǒng)機(jī)器學(xué)習(xí)中,通常利用手動(dòng)設(shè)置特征完成特征提取任務(wù),而在利用深度學(xué)習(xí)進(jìn)行處理時(shí),則通過(guò)卷積神經(jīng)網(wǎng)來(lái)完成特征抽齲(a)目標(biāo)檢測(cè)(b)圖像分類圖1.2目標(biāo)檢測(cè)算法的任務(wù)1.2.1傳統(tǒng)目標(biāo)檢測(cè)算法傳統(tǒng)的目標(biāo)檢測(cè)方法[13]其過(guò)程主要分為三部分:區(qū)域選擇→特征提鰓分類器。即首先在給定的圖像上進(jìn)行可能包含目標(biāo)物體的候選區(qū)域的選擇,然后對(duì)這些區(qū)域提取特征,最后使用訓(xùn)練獲得的分類器進(jìn)行目標(biāo)物體類別屬性的判定。對(duì)于傳統(tǒng)的目標(biāo)檢測(cè)算法其檢測(cè)流程如圖1.3所示。首先將給定的待檢測(cè)圖片作為輸入,采用滑動(dòng)窗口[14]生成候選框,再對(duì)每個(gè)候選框中的部分圖像進(jìn)行特征抽取,特征抽取采用計(jì)算機(jī)視覺(jué)中關(guān)于圖像特征表示的一些方法,常用的方法有基于顏色、紋理或者形狀等的方法(主要分為基于手工設(shè)計(jì)的特征或者基于學(xué)習(xí)的特征這兩大類)。在經(jīng)過(guò)對(duì)候選框進(jìn)行判定后可以得到一系列的可能為當(dāng)前檢測(cè)目標(biāo)的候選框,這些候選框可能存在部分重疊。通過(guò)非極大值抑制算法[15](NMS,Non-MaximumSuppression)對(duì)候選框進(jìn)行篩選,最后輸出結(jié)果。傳統(tǒng)目標(biāo)檢測(cè)算法有其自身的局限性,主要體現(xiàn)在以下兩個(gè)方面:首先,滑動(dòng)窗口的區(qū)域選擇策略沒(méi)有明確的針對(duì)性,容易產(chǎn)生非常多的冗余窗口[16],這會(huì)大大的增加了耗時(shí),另外手動(dòng)設(shè)計(jì)特征對(duì)于多樣性的變化不具備較好的魯棒性。而深度學(xué)習(xí)的算法將特征提取的部分換成卷積神經(jīng)網(wǎng),對(duì)候選框內(nèi)部分特征提取的過(guò)程則采用候選區(qū)域目標(biāo)推薦[17](RPN,RegionProposalNetworks,)網(wǎng)絡(luò)來(lái)完成,極大地提高了檢測(cè)效率。圖1.3傳統(tǒng)目標(biāo)檢測(cè)算法流程圖
【參考文獻(xiàn)】:
期刊論文
[1]基于YOLOv3的自動(dòng)駕駛中運(yùn)動(dòng)目標(biāo)檢測(cè)[J]. 李云鵬,侯凌燕,王超. 計(jì)算機(jī)工程與設(shè)計(jì). 2019(04)
[2]車輛實(shí)時(shí)檢測(cè)研究綜述[J]. 卞山峰,張慶輝. 電子質(zhì)量. 2019(02)
[3]深度學(xué)習(xí)研究綜述[J]. 張榮,李偉平,莫同. 信息與控制. 2018(04)
[4]目標(biāo)檢測(cè)算法研究綜述[J]. 方路平,何杭江,周國(guó)民. 計(jì)算機(jī)工程與應(yīng)用. 2018(13)
[5]未成熟芒果的改進(jìn)YOLOv2識(shí)別方法[J]. 薛月菊,黃寧,涂淑琴,毛亮,楊阿慶,朱勛沐,楊曉帆,陳鵬飛. 農(nóng)業(yè)工程學(xué)報(bào). 2018(07)
[6]基于深度學(xué)習(xí)方法的復(fù)雜場(chǎng)景下車輛目標(biāo)檢測(cè)[J]. 宋煥生,張向清,鄭寶峰,嚴(yán)騰. 計(jì)算機(jī)應(yīng)用研究. 2018(04)
[7]基于YOLO算法的車輛實(shí)時(shí)檢測(cè)[J]. 王宇寧,龐智恒,袁德明. 武漢理工大學(xué)學(xué)報(bào). 2016(10)
[8]基于計(jì)算機(jī)視覺(jué)的自動(dòng)駕駛算法研究綜述[J]. 張貴英,向函,趙勇. 貴州師范學(xué)院學(xué)報(bào). 2016(06)
[9]基于三維激光雷達(dá)和深度圖像的自動(dòng)駕駛汽車障礙物檢測(cè)方法[J]. 王新竹,李駿,李紅建,尚秉旭. 吉林大學(xué)學(xué)報(bào)(工學(xué)版). 2016(02)
碩士論文
[1]基于YOLOv3和多目標(biāo)跟蹤的智能交通視頻監(jiān)控系統(tǒng)[D]. 曾星宇.桂林電子科技大學(xué) 2019
[2]區(qū)域卷積神經(jīng)網(wǎng)絡(luò)在車輛檢測(cè)中的應(yīng)用研究[D]. 張鶴鶴.西安理工大學(xué) 2018
[3]基于車載視頻的道路車輛及行人檢測(cè)[D]. 唐詩(shī).電子科技大學(xué) 2018
[4]基于YOLOv2的實(shí)時(shí)目標(biāo)檢測(cè)研究[D]. 雷維卓.重慶大學(xué) 2018
[5]敏感圖像識(shí)別系統(tǒng)輔助功能的設(shè)計(jì)與實(shí)現(xiàn)[D]. 王鵬.北京交通大學(xué) 2018
[6]一個(gè)改進(jìn)的YOLOv3目標(biāo)識(shí)別算法研究[D]. 譚俊.華中科技大學(xué) 2018
[7]世界汽車安全性技術(shù)法規(guī)與標(biāo)準(zhǔn)的研究[D]. 徐大偉.武漢理工大學(xué) 2007
本文編號(hào):3137937
【文章來(lái)源】:青島大學(xué)山東省
【文章頁(yè)數(shù)】:63 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
013-2018年全國(guó)交通事故發(fā)生情況匯總分析[1]
青島大學(xué)碩士學(xué)位論文3都需要對(duì)給定圖像進(jìn)行特征提齲在傳統(tǒng)機(jī)器學(xué)習(xí)中,通常利用手動(dòng)設(shè)置特征完成特征提取任務(wù),而在利用深度學(xué)習(xí)進(jìn)行處理時(shí),則通過(guò)卷積神經(jīng)網(wǎng)來(lái)完成特征抽齲(a)目標(biāo)檢測(cè)(b)圖像分類圖1.2目標(biāo)檢測(cè)算法的任務(wù)1.2.1傳統(tǒng)目標(biāo)檢測(cè)算法傳統(tǒng)的目標(biāo)檢測(cè)方法[13]其過(guò)程主要分為三部分:區(qū)域選擇→特征提鰓分類器。即首先在給定的圖像上進(jìn)行可能包含目標(biāo)物體的候選區(qū)域的選擇,然后對(duì)這些區(qū)域提取特征,最后使用訓(xùn)練獲得的分類器進(jìn)行目標(biāo)物體類別屬性的判定。對(duì)于傳統(tǒng)的目標(biāo)檢測(cè)算法其檢測(cè)流程如圖1.3所示。首先將給定的待檢測(cè)圖片作為輸入,采用滑動(dòng)窗口[14]生成候選框,再對(duì)每個(gè)候選框中的部分圖像進(jìn)行特征抽取,特征抽取采用計(jì)算機(jī)視覺(jué)中關(guān)于圖像特征表示的一些方法,常用的方法有基于顏色、紋理或者形狀等的方法(主要分為基于手工設(shè)計(jì)的特征或者基于學(xué)習(xí)的特征這兩大類)。在經(jīng)過(guò)對(duì)候選框進(jìn)行判定后可以得到一系列的可能為當(dāng)前檢測(cè)目標(biāo)的候選框,這些候選框可能存在部分重疊。通過(guò)非極大值抑制算法[15](NMS,Non-MaximumSuppression)對(duì)候選框進(jìn)行篩選,最后輸出結(jié)果。傳統(tǒng)目標(biāo)檢測(cè)算法有其自身的局限性,主要體現(xiàn)在以下兩個(gè)方面:首先,滑動(dòng)窗口的區(qū)域選擇策略沒(méi)有明確的針對(duì)性,容易產(chǎn)生非常多的冗余窗口[16],這會(huì)大大的增加了耗時(shí),另外手動(dòng)設(shè)計(jì)特征對(duì)于多樣性的變化不具備較好的魯棒性。而深度學(xué)習(xí)的算法將特征提取的部分換成卷積神經(jīng)網(wǎng),對(duì)候選框內(nèi)部分特征提取的過(guò)程則采用候選區(qū)域目標(biāo)推薦[17](RPN,RegionProposalNetworks,)網(wǎng)絡(luò)來(lái)完成,極大地提高了檢測(cè)效率。圖1.3傳統(tǒng)目標(biāo)檢測(cè)算法流程圖
青島大學(xué)碩士學(xué)位論文3都需要對(duì)給定圖像進(jìn)行特征提齲在傳統(tǒng)機(jī)器學(xué)習(xí)中,通常利用手動(dòng)設(shè)置特征完成特征提取任務(wù),而在利用深度學(xué)習(xí)進(jìn)行處理時(shí),則通過(guò)卷積神經(jīng)網(wǎng)來(lái)完成特征抽齲(a)目標(biāo)檢測(cè)(b)圖像分類圖1.2目標(biāo)檢測(cè)算法的任務(wù)1.2.1傳統(tǒng)目標(biāo)檢測(cè)算法傳統(tǒng)的目標(biāo)檢測(cè)方法[13]其過(guò)程主要分為三部分:區(qū)域選擇→特征提鰓分類器。即首先在給定的圖像上進(jìn)行可能包含目標(biāo)物體的候選區(qū)域的選擇,然后對(duì)這些區(qū)域提取特征,最后使用訓(xùn)練獲得的分類器進(jìn)行目標(biāo)物體類別屬性的判定。對(duì)于傳統(tǒng)的目標(biāo)檢測(cè)算法其檢測(cè)流程如圖1.3所示。首先將給定的待檢測(cè)圖片作為輸入,采用滑動(dòng)窗口[14]生成候選框,再對(duì)每個(gè)候選框中的部分圖像進(jìn)行特征抽取,特征抽取采用計(jì)算機(jī)視覺(jué)中關(guān)于圖像特征表示的一些方法,常用的方法有基于顏色、紋理或者形狀等的方法(主要分為基于手工設(shè)計(jì)的特征或者基于學(xué)習(xí)的特征這兩大類)。在經(jīng)過(guò)對(duì)候選框進(jìn)行判定后可以得到一系列的可能為當(dāng)前檢測(cè)目標(biāo)的候選框,這些候選框可能存在部分重疊。通過(guò)非極大值抑制算法[15](NMS,Non-MaximumSuppression)對(duì)候選框進(jìn)行篩選,最后輸出結(jié)果。傳統(tǒng)目標(biāo)檢測(cè)算法有其自身的局限性,主要體現(xiàn)在以下兩個(gè)方面:首先,滑動(dòng)窗口的區(qū)域選擇策略沒(méi)有明確的針對(duì)性,容易產(chǎn)生非常多的冗余窗口[16],這會(huì)大大的增加了耗時(shí),另外手動(dòng)設(shè)計(jì)特征對(duì)于多樣性的變化不具備較好的魯棒性。而深度學(xué)習(xí)的算法將特征提取的部分換成卷積神經(jīng)網(wǎng),對(duì)候選框內(nèi)部分特征提取的過(guò)程則采用候選區(qū)域目標(biāo)推薦[17](RPN,RegionProposalNetworks,)網(wǎng)絡(luò)來(lái)完成,極大地提高了檢測(cè)效率。圖1.3傳統(tǒng)目標(biāo)檢測(cè)算法流程圖
【參考文獻(xiàn)】:
期刊論文
[1]基于YOLOv3的自動(dòng)駕駛中運(yùn)動(dòng)目標(biāo)檢測(cè)[J]. 李云鵬,侯凌燕,王超. 計(jì)算機(jī)工程與設(shè)計(jì). 2019(04)
[2]車輛實(shí)時(shí)檢測(cè)研究綜述[J]. 卞山峰,張慶輝. 電子質(zhì)量. 2019(02)
[3]深度學(xué)習(xí)研究綜述[J]. 張榮,李偉平,莫同. 信息與控制. 2018(04)
[4]目標(biāo)檢測(cè)算法研究綜述[J]. 方路平,何杭江,周國(guó)民. 計(jì)算機(jī)工程與應(yīng)用. 2018(13)
[5]未成熟芒果的改進(jìn)YOLOv2識(shí)別方法[J]. 薛月菊,黃寧,涂淑琴,毛亮,楊阿慶,朱勛沐,楊曉帆,陳鵬飛. 農(nóng)業(yè)工程學(xué)報(bào). 2018(07)
[6]基于深度學(xué)習(xí)方法的復(fù)雜場(chǎng)景下車輛目標(biāo)檢測(cè)[J]. 宋煥生,張向清,鄭寶峰,嚴(yán)騰. 計(jì)算機(jī)應(yīng)用研究. 2018(04)
[7]基于YOLO算法的車輛實(shí)時(shí)檢測(cè)[J]. 王宇寧,龐智恒,袁德明. 武漢理工大學(xué)學(xué)報(bào). 2016(10)
[8]基于計(jì)算機(jī)視覺(jué)的自動(dòng)駕駛算法研究綜述[J]. 張貴英,向函,趙勇. 貴州師范學(xué)院學(xué)報(bào). 2016(06)
[9]基于三維激光雷達(dá)和深度圖像的自動(dòng)駕駛汽車障礙物檢測(cè)方法[J]. 王新竹,李駿,李紅建,尚秉旭. 吉林大學(xué)學(xué)報(bào)(工學(xué)版). 2016(02)
碩士論文
[1]基于YOLOv3和多目標(biāo)跟蹤的智能交通視頻監(jiān)控系統(tǒng)[D]. 曾星宇.桂林電子科技大學(xué) 2019
[2]區(qū)域卷積神經(jīng)網(wǎng)絡(luò)在車輛檢測(cè)中的應(yīng)用研究[D]. 張鶴鶴.西安理工大學(xué) 2018
[3]基于車載視頻的道路車輛及行人檢測(cè)[D]. 唐詩(shī).電子科技大學(xué) 2018
[4]基于YOLOv2的實(shí)時(shí)目標(biāo)檢測(cè)研究[D]. 雷維卓.重慶大學(xué) 2018
[5]敏感圖像識(shí)別系統(tǒng)輔助功能的設(shè)計(jì)與實(shí)現(xiàn)[D]. 王鵬.北京交通大學(xué) 2018
[6]一個(gè)改進(jìn)的YOLOv3目標(biāo)識(shí)別算法研究[D]. 譚俊.華中科技大學(xué) 2018
[7]世界汽車安全性技術(shù)法規(guī)與標(biāo)準(zhǔn)的研究[D]. 徐大偉.武漢理工大學(xué) 2007
本文編號(hào):3137937
本文鏈接:http://www.sikaile.net/kejilunwen/qiche/3137937.html
最近更新
教材專著