天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于卷積神經(jīng)網(wǎng)絡(luò)的單幅彩色圖像目標(biāo)檢測方法研究

發(fā)布時間:2021-01-25 15:25
  目標(biāo)檢測作為計(jì)算機(jī)視覺領(lǐng)域的一個極為重要的分支,其在視覺領(lǐng)域中所起的作用無可替代。隨著人工智能、計(jì)算機(jī)視覺領(lǐng)域的不斷發(fā)展,目標(biāo)檢測被應(yīng)用于視覺導(dǎo)航、軍事公安以及虛擬現(xiàn)實(shí)等諸多領(lǐng)域,但是檢測效果并不能真正滿足實(shí)際需求,因此如何獲得更好的目標(biāo)檢測效果成為目標(biāo)檢測領(lǐng)域乃至整個計(jì)算機(jī)視覺領(lǐng)域亟待解決的問題。在綜合分析國內(nèi)外研究現(xiàn)狀的基礎(chǔ)之上,并結(jié)合深度學(xué)習(xí)、計(jì)算機(jī)視覺等相關(guān)知識,對如何獲取更好的目標(biāo)檢測結(jié)果進(jìn)行了深入研究。具體研究內(nèi)容如下:首先,介紹了目標(biāo)檢測的基本概念及相關(guān)知識,并對本課題用到的卷積神經(jīng)網(wǎng)絡(luò)和組成卷積神經(jīng)網(wǎng)絡(luò)的卷積層、池化層、全連接層等進(jìn)行了簡要介紹。其次,根據(jù)卷積神經(jīng)網(wǎng)絡(luò)提取的各層次特征圖的特點(diǎn),提出一種利用特征圖加權(quán)融合實(shí)現(xiàn)的目標(biāo)檢測方法。該方法利用卷積神經(jīng)網(wǎng)絡(luò)提取彩色圖像特征,并根據(jù)特征圖加權(quán)融合思想提出特征圖加權(quán)融合方法同時由該方法得到新特征圖,再將新特征圖輸入到改進(jìn)的RPN網(wǎng)絡(luò)中得到區(qū)域建議,最后用ROI Pooling層提取區(qū)域建議特征并對特征分類且同時進(jìn)行目標(biāo)位置邊框回歸操作實(shí)現(xiàn)目標(biāo)檢測。再次,提出一種基于全卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測方法。該方法利用殘差網(wǎng)絡(luò)提取特征... 

【文章來源】:燕山大學(xué)河北省

【文章頁數(shù)】:61 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于卷積神經(jīng)網(wǎng)絡(luò)的單幅彩色圖像目標(biāo)檢測方法研究


目標(biāo)檢測示意圖

彩色圖像,目標(biāo)檢測,方法,檢測精度


3040目標(biāo)類別圖 5-2 第 3 章 VGG 方法與其他方法針對不同類別目標(biāo)的檢測精度比較由圖 5-2 可知,在數(shù)據(jù)集 PASCAL VOC2007 和 VOC2012 上,所提方法對大多數(shù)類別的檢測精度明顯高于文獻(xiàn)[43]方法和文獻(xiàn)[47]方法的檢測精度。而將所提方法與文獻(xiàn)[44]方法進(jìn)行比較時發(fā)現(xiàn),兩種方法在某些類別上的檢測精度雖然相接近,但是所提方法在多數(shù)類別上的檢測精度高于文獻(xiàn)[44]方法,且在部分類別上的檢測精度明顯高于文獻(xiàn)[44]方法,例如“bird”和“bottle”類,從而使所提方法的有效性得到進(jìn)一步驗(yàn)證。在圖 5-2 中,同一種目標(biāo)檢測方法對不同類別目標(biāo)的檢測精度各有差別,其主要原因是數(shù)據(jù)集 VOC2007 和 VOC2012 的訓(xùn)練集中包含每種類別目標(biāo)的彩色圖像的數(shù)量各不相同。所提 VGG 方法對數(shù)據(jù)集 KITTI 中部分圖像進(jìn)行目標(biāo)檢測的結(jié)果如圖 5-3 所示。

彩色圖像,目標(biāo)檢測,方法,分圖像


第 5 章 實(shí)驗(yàn)及結(jié)果分析證了第 4 章所提方法的有效性。在圖 5-4 中,同一種目標(biāo)檢測方法對不同類別目標(biāo)檢測精度各有差別,其原因同樣是數(shù)據(jù)集 VOC2007 和 VOC2012 的訓(xùn)練集中包含種類別目標(biāo)的彩色圖像的數(shù)量各不相同。第 4 章所提 ResNet101 方法對數(shù)據(jù)VOC2007 中部分圖像進(jìn)行目標(biāo)檢測的結(jié)果如圖 5-5 所示。

【參考文獻(xiàn)】:
期刊論文
[1]基于并行跟蹤檢測框架與深度學(xué)習(xí)的目標(biāo)跟蹤算法[J]. 閆若怡,熊丹,于清華,肖軍浩,盧惠民.  計(jì)算機(jī)應(yīng)用. 2019(02)
[2]基于深度學(xué)習(xí)SSD模型的視頻室內(nèi)人數(shù)統(tǒng)計(jì)[J]. 鄭國書,朱秋煜,王輝.  工業(yè)控制計(jì)算機(jī). 2017(11)
[3]基于深度卷積神經(jīng)網(wǎng)絡(luò)的道路場景理解[J]. 吳宗勝,傅衛(wèi)平,韓改寧.  計(jì)算機(jī)工程與應(yīng)用. 2017(22)
[4]視覺導(dǎo)航系統(tǒng)中圖像采集及處理技術(shù)綜述[J]. 潘廣堂,李文文,楊先海.  科技視界. 2016(24)
[5]Where Does AlphaGo Go: From Church-Turing Thesis to AlphaGo Thesis and Beyond[J]. Fei-Yue Wang,Jun Jason Zhang,Xinhu Zheng,Xiao Wang,Yong Yuan,Xiaoxiao Dai,Jie Zhang,Liuqing Yang.  IEEE/CAA Journal of Automatica Sinica. 2016(02)
[6]主方向旋轉(zhuǎn)LBP特征的平面旋轉(zhuǎn)人臉檢測[J]. 李根,李文輝.  電子學(xué)報(bào). 2015(01)
[7]一種基于HOG-LBP的高效車輛檢測方法[J]. 楊先鳳,楊燕.  計(jì)算機(jī)工程. 2014(09)
[8]基于HOG和Haar特征的行人追蹤算法研究[J]. 陸星家,陳志榮,尹天鶴,楊帆.  計(jì)算機(jī)科學(xué). 2013(S1)



本文編號:2999463

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2999463.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶fa879***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com