基于時(shí)空信息CNN物體檢測(cè)方法的研究
發(fā)布時(shí)間:2020-08-14 18:22
【摘要】:近幾年,對(duì)深度學(xué)習(xí)的研究取得了突破的進(jìn)展,基于深度學(xué)習(xí)的物體檢測(cè)任務(wù)在計(jì)算機(jī)視覺(jué)方面有著廣泛的應(yīng)用,如車(chē)載影像、機(jī)器人導(dǎo)航、無(wú)人駕駛等,因此物體檢測(cè)成為了理論研究和應(yīng)用的熱點(diǎn)。目前,基于單幀的物體檢測(cè)方法已經(jīng)取得了很好的效果,但是在基于視頻的物體檢測(cè)中直接使用此方法還存在一些問(wèn)題,如視頻幀中出現(xiàn)模糊、失焦等情況,基于單幀的物體檢測(cè)方法無(wú)法檢測(cè)出此類(lèi)物體。因此,本文對(duì)物體檢測(cè)方法進(jìn)行了研究,利用視頻中相鄰幀之間存在的相關(guān)性,融合了時(shí)間信息與空間信息,并對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行改進(jìn),使物體檢測(cè)的準(zhǔn)確率得到提高。在基于卷積神經(jīng)網(wǎng)絡(luò)的物體檢測(cè)方面,主要對(duì)卷積神經(jīng)網(wǎng)絡(luò)YOLOv3方法進(jìn)行改進(jìn)。本文通過(guò)對(duì)YOLOv3方法進(jìn)行研究和分析,為解決YOLOv3方法對(duì)尺度中等或者較大的物體的檢測(cè)效果不理想,容易出現(xiàn)漏檢、誤檢、重復(fù)檢測(cè)等問(wèn)題,本文提出了改進(jìn)的YOLOv3方法,在主網(wǎng)絡(luò)之后添加兩個(gè)殘差塊,與YOLOv3原有的3個(gè)不同尺度共同組成包括5個(gè)不同尺度的特征金字塔,在這5個(gè)不同尺度的特征圖上進(jìn)行預(yù)測(cè)。通過(guò)改進(jìn)的方法,在檢測(cè)出小物體的同時(shí)提高對(duì)中等尺度或大尺度物體檢測(cè)的準(zhǔn)確率。在視頻中的物體檢測(cè)方面,視頻中含有豐富的時(shí)間信息和空間信息,基于單幀圖像的物體檢測(cè)中未考慮這些信息,無(wú)法檢測(cè)出視頻幀圖像中模糊、失焦的物體。因此,為了提高物體檢測(cè)的準(zhǔn)確率,本文提出了時(shí)空信息融合方法,在本文中首先通過(guò)時(shí)間、空間信息分別對(duì)視頻幀圖像進(jìn)行預(yù)處理,在時(shí)間上使用了光流法,在空間上使用了基于區(qū)域顏色對(duì)比度的方法,然后使用時(shí)空信息融合的方法將時(shí)空信息進(jìn)行融合,最后使用改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行物體檢測(cè)得到檢測(cè)結(jié)果。
【學(xué)位授予單位】:遼寧大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類(lèi)號(hào)】:TP183;TP391.41
【圖文】:
位置的準(zhǔn)確性。其中置信度計(jì)算公式為:Pr( )*truthpredconfidence Object IOU(3其中若邊界框內(nèi)存在物體,Pr(Object)=1;否則 Pr(Object)=0。truthpredIOU 表示預(yù)測(cè)的物體邊框和真實(shí)的物體邊框的交集 Overlap(truth,pred)與它們并Union(truth,pred)的比值,其計(jì)算公式為:( , )( , )Area of Overlap truth predIOUArea of Union truth pred (3在 YOLOv3 方法中使用 Darknet 網(wǎng)絡(luò)模型來(lái)實(shí)現(xiàn)特征提取,使用特征金塔(FPN)進(jìn)行多尺度預(yù)測(cè)。Darknet 網(wǎng)絡(luò)模型中包含了大量的卷積層,降低了網(wǎng)的訓(xùn)練難度。FPN 結(jié)構(gòu)在原來(lái)單一的結(jié)構(gòu)上修改的,將低尺度、高語(yǔ)義信息高層特征和高尺度、第語(yǔ)義信息的底層特征進(jìn)行自上而下的側(cè)邊連接,使所的特征都包含豐富的語(yǔ)義信息。YOLOv3 方法在不同尺度的特征圖上做預(yù)測(cè)每一幅特征圖都融合了不同的語(yǔ)義特征,不同的分辨率,YOLOv3 方法多尺預(yù)測(cè)結(jié)構(gòu)如圖 3-1 所示:
在 YOLOv3 方法中最小的特征圖是 13*13,并在此特征圖上進(jìn)行預(yù)測(cè),使YOLOv3 方法對(duì)尺寸中等或者較大的物體的檢測(cè)效果不理想,容易造成漏檢、誤檢、重復(fù)檢測(cè)等問(wèn)題,如圖3-2 所示。
第 4 章 基于時(shí)空信息融合的 TS-CNN 的物體檢測(cè)方法頻中的物體檢測(cè)的準(zhǔn)確率。于視頻的物體檢測(cè)計(jì)算機(jī)圖像處理領(lǐng)域,物體檢測(cè)任務(wù)占有非常重要的地位,卷積神現(xiàn)使單幀圖像的物體檢測(cè)的速度與準(zhǔn)確率都得到了明顯的提升,部進(jìn)行實(shí)時(shí)檢測(cè),但是在視頻的物體檢測(cè)任務(wù)中直接使用單幀圖像的法還存在一些問(wèn)題,視頻中的物體會(huì)存在運(yùn)動(dòng)情況,使視頻幀圖像現(xiàn)被遮擋、模糊等問(wèn)題,如圖 4-2 所示,導(dǎo)致檢測(cè)網(wǎng)絡(luò)不能有效的檢使基于視頻的物體檢測(cè)任務(wù)變得困難。
本文編號(hào):2793379
【學(xué)位授予單位】:遼寧大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類(lèi)號(hào)】:TP183;TP391.41
【圖文】:
位置的準(zhǔn)確性。其中置信度計(jì)算公式為:Pr( )*truthpredconfidence Object IOU(3其中若邊界框內(nèi)存在物體,Pr(Object)=1;否則 Pr(Object)=0。truthpredIOU 表示預(yù)測(cè)的物體邊框和真實(shí)的物體邊框的交集 Overlap(truth,pred)與它們并Union(truth,pred)的比值,其計(jì)算公式為:( , )( , )Area of Overlap truth predIOUArea of Union truth pred (3在 YOLOv3 方法中使用 Darknet 網(wǎng)絡(luò)模型來(lái)實(shí)現(xiàn)特征提取,使用特征金塔(FPN)進(jìn)行多尺度預(yù)測(cè)。Darknet 網(wǎng)絡(luò)模型中包含了大量的卷積層,降低了網(wǎng)的訓(xùn)練難度。FPN 結(jié)構(gòu)在原來(lái)單一的結(jié)構(gòu)上修改的,將低尺度、高語(yǔ)義信息高層特征和高尺度、第語(yǔ)義信息的底層特征進(jìn)行自上而下的側(cè)邊連接,使所的特征都包含豐富的語(yǔ)義信息。YOLOv3 方法在不同尺度的特征圖上做預(yù)測(cè)每一幅特征圖都融合了不同的語(yǔ)義特征,不同的分辨率,YOLOv3 方法多尺預(yù)測(cè)結(jié)構(gòu)如圖 3-1 所示:
在 YOLOv3 方法中最小的特征圖是 13*13,并在此特征圖上進(jìn)行預(yù)測(cè),使YOLOv3 方法對(duì)尺寸中等或者較大的物體的檢測(cè)效果不理想,容易造成漏檢、誤檢、重復(fù)檢測(cè)等問(wèn)題,如圖3-2 所示。
第 4 章 基于時(shí)空信息融合的 TS-CNN 的物體檢測(cè)方法頻中的物體檢測(cè)的準(zhǔn)確率。于視頻的物體檢測(cè)計(jì)算機(jī)圖像處理領(lǐng)域,物體檢測(cè)任務(wù)占有非常重要的地位,卷積神現(xiàn)使單幀圖像的物體檢測(cè)的速度與準(zhǔn)確率都得到了明顯的提升,部進(jìn)行實(shí)時(shí)檢測(cè),但是在視頻的物體檢測(cè)任務(wù)中直接使用單幀圖像的法還存在一些問(wèn)題,視頻中的物體會(huì)存在運(yùn)動(dòng)情況,使視頻幀圖像現(xiàn)被遮擋、模糊等問(wèn)題,如圖 4-2 所示,導(dǎo)致檢測(cè)網(wǎng)絡(luò)不能有效的檢使基于視頻的物體檢測(cè)任務(wù)變得困難。
【參考文獻(xiàn)】
相關(guān)碩士學(xué)位論文 前5條
1 蔣帥;基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別[D];吉林大學(xué);2017年
2 高亮;基于ADABOOST和BP的車(chē)標(biāo)識(shí)別方法研究[D];安徽大學(xué);2016年
3 王海地;基于顯著性檢測(cè)和分類(lèi)器訓(xùn)練的航拍圖像車(chē)輛檢測(cè)[D];北京交通大學(xué);2015年
4 程剛;基于匹配鏈與數(shù)據(jù)融合的行人檢測(cè)算法研究[D];華中科技大學(xué);2015年
5 潘永麗;決策樹(shù)分類(lèi)算法的改進(jìn)及其應(yīng)用研究[D];云南財(cái)經(jīng)大學(xué);2011年
本文編號(hào):2793379
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2793379.html
最近更新
教材專(zhuān)著