多層深度特征的目標(biāo)跟蹤算法研究
發(fā)布時(shí)間:2021-06-07 04:00
現(xiàn)有的目標(biāo)跟蹤算法大多采用傳統(tǒng)的手工特征或神經(jīng)網(wǎng)絡(luò)的某一層特征描述目標(biāo)的外觀,不利于跟蹤,文中提出一種基于多層深度特征的自適應(yīng)更新目標(biāo)跟蹤算法。采用經(jīng)過(guò)預(yù)訓(xùn)練的深層卷積神經(jīng)網(wǎng)絡(luò)分別提取低層和高層信息用以描述目標(biāo)的空間特征和語(yǔ)義特征,通過(guò)對(duì)兩層特征信息的學(xué)習(xí)得到兩個(gè)濾波模板,對(duì)應(yīng)求得兩個(gè)濾波響應(yīng),這兩個(gè)濾波響應(yīng)以不同的權(quán)重決定最后的跟蹤結(jié)果。算法中還設(shè)計(jì)了對(duì)目標(biāo)外觀模型和濾波模板的自適應(yīng)更新方案,能更好地適應(yīng)目標(biāo)的外觀變化以及遮擋問(wèn)題。采用多層深度特征描述目標(biāo)外觀,并且利用提取的特征訓(xùn)練兩個(gè)濾波模板,求濾波響應(yīng)時(shí)采用核相關(guān)的方法,增強(qiáng)了跟蹤結(jié)果的準(zhǔn)確性并加快了跟蹤的速度。實(shí)驗(yàn)結(jié)果表明,所提算法與現(xiàn)有跟蹤算法相比,可以更好地應(yīng)對(duì)多種挑戰(zhàn)因素,跟蹤速度也完全能滿足實(shí)時(shí)跟蹤任務(wù)的需求。
【文章來(lái)源】:現(xiàn)代電子技術(shù). 2019,42(01)北大核心
【文章頁(yè)數(shù)】:6 頁(yè)
【部分圖文】:
本文算法流程圖Fig.1Flowchartofthealgorithm2基于多層深度特征的跟蹤
相關(guān)可表示為:Kxz=F-1(X⊙Z)(4)其中X和Z都是頻域表示。此時(shí)式(2)變?yōu)椋簑=yKxx+λ(5)濾波響應(yīng)為:f=Kxz⊙w(6)最后將f(m,n)的峰值位置p(m,n)作為跟蹤結(jié)果,有:p(m,n)=argmaxm,n(f(m,n))(7)式中m,n表示像素點(diǎn)位置。2.2本文卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)總體上分為特征提取部分、全連接層和輸出層。特征提取部分是卷積神經(jīng)網(wǎng)絡(luò)的核心,如圖2所示,特征提取部分由卷積層和池化層交替堆疊而成。卷積層通過(guò)卷積核(圖2中已標(biāo)出)與目標(biāo)圖像做卷積計(jì)算,從而獲取特征圖,卷積核大小是實(shí)驗(yàn)中訓(xùn)練優(yōu)化得到的。池化層(如圖2中的maxpooling層)其實(shí)就是降采樣作用,得到分辨率較低的圖像,目的是獲取一定的位移不變性,提高圖像識(shí)別的魯棒性。通常的做法是取一定鄰域內(nèi)像素的平均值或最大值,如圖2所示,也是通過(guò)優(yōu)化的卷積核運(yùn)算實(shí)現(xiàn)的。經(jīng)過(guò)特征提取層后,得到的多個(gè)特征圖構(gòu)成特征向量后通過(guò)全連接層與最終的輸出層相連。圖2卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)Fig.2Basicstructureofconvolutionalneuralnetwork本文所用CNNs如圖3所示,該網(wǎng)絡(luò)設(shè)計(jì)為19層,包括16層卷積層、3層全連接層,其中每一組卷積層后接一個(gè)maxpooling層,與一般的卷積層和池化層交替堆疊的結(jié)構(gòu)有所不同。圖3中“3×3conv,64”表示卷積層中有64個(gè)大小為3×3的卷積核,“Size”表示每一次卷積后得到的特征圖大小,本網(wǎng)絡(luò)卷積核全部為3×3大校本文所用網(wǎng)絡(luò)層數(shù)很深,實(shí)驗(yàn)證明對(duì)于目標(biāo)跟蹤類的問(wèn)題比其他淺層網(wǎng)絡(luò)效?
中已標(biāo)出)與目標(biāo)圖像做卷積計(jì)算,從而獲取特征圖,卷積核大小是實(shí)驗(yàn)中訓(xùn)練優(yōu)化得到的。池化層(如圖2中的maxpooling層)其實(shí)就是降采樣作用,得到分辨率較低的圖像,目的是獲取一定的位移不變性,提高圖像識(shí)別的魯棒性。通常的做法是取一定鄰域內(nèi)像素的平均值或最大值,如圖2所示,也是通過(guò)優(yōu)化的卷積核運(yùn)算實(shí)現(xiàn)的。經(jīng)過(guò)特征提取層后,得到的多個(gè)特征圖構(gòu)成特征向量后通過(guò)全連接層與最終的輸出層相連。圖2卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)Fig.2Basicstructureofconvolutionalneuralnetwork本文所用CNNs如圖3所示,該網(wǎng)絡(luò)設(shè)計(jì)為19層,包括16層卷積層、3層全連接層,其中每一組卷積層后接一個(gè)maxpooling層,與一般的卷積層和池化層交替堆疊的結(jié)構(gòu)有所不同。圖3中“3×3conv,64”表示卷積層中有64個(gè)大小為3×3的卷積核,“Size”表示每一次卷積后得到的特征圖大小,本網(wǎng)絡(luò)卷積核全部為3×3大校本文所用網(wǎng)絡(luò)層數(shù)很深,實(shí)驗(yàn)證明對(duì)于目標(biāo)跟蹤類的問(wèn)題比其他淺層網(wǎng)絡(luò)效果更好,本文所用的網(wǎng)絡(luò)已經(jīng)通過(guò)ImageNet數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練。為了證明CNNs高層與低層特征的不同,本文將前期實(shí)驗(yàn)中提取了第8層和第16層的特征圖做對(duì)比,如圖4所示,其中圖4a)是輸入圖片(隨機(jī)選。瑘D4b)表示卷積第8層輸出的特征圖(隨機(jī)選取1張),圖4c)表示卷積第16層輸出的特征圖(隨機(jī)選取1張)。如圖4所示,卷積第8層特征能很好地識(shí)別目標(biāo)的邊界信息,可以準(zhǔn)確地反映目標(biāo)的位置變化,而卷積第16層特征反映的是目標(biāo)的語(yǔ)義特征,對(duì)于目標(biāo)的外觀能很好地表達(dá)。圖3本文卷積神經(jīng)網(wǎng)絡(luò)Fig.3Convolutionalneuralnetwork圖4卷積第
【參考文獻(xiàn)】:
期刊論文
[1]多通道核相關(guān)濾波的實(shí)時(shí)跟蹤方法[J]. 胡昭華,邢衛(wèi)國(guó),何軍,張秀再. 計(jì)算機(jī)應(yīng)用. 2015(12)
本文編號(hào):3215811
【文章來(lái)源】:現(xiàn)代電子技術(shù). 2019,42(01)北大核心
【文章頁(yè)數(shù)】:6 頁(yè)
【部分圖文】:
本文算法流程圖Fig.1Flowchartofthealgorithm2基于多層深度特征的跟蹤
相關(guān)可表示為:Kxz=F-1(X⊙Z)(4)其中X和Z都是頻域表示。此時(shí)式(2)變?yōu)椋簑=yKxx+λ(5)濾波響應(yīng)為:f=Kxz⊙w(6)最后將f(m,n)的峰值位置p(m,n)作為跟蹤結(jié)果,有:p(m,n)=argmaxm,n(f(m,n))(7)式中m,n表示像素點(diǎn)位置。2.2本文卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)總體上分為特征提取部分、全連接層和輸出層。特征提取部分是卷積神經(jīng)網(wǎng)絡(luò)的核心,如圖2所示,特征提取部分由卷積層和池化層交替堆疊而成。卷積層通過(guò)卷積核(圖2中已標(biāo)出)與目標(biāo)圖像做卷積計(jì)算,從而獲取特征圖,卷積核大小是實(shí)驗(yàn)中訓(xùn)練優(yōu)化得到的。池化層(如圖2中的maxpooling層)其實(shí)就是降采樣作用,得到分辨率較低的圖像,目的是獲取一定的位移不變性,提高圖像識(shí)別的魯棒性。通常的做法是取一定鄰域內(nèi)像素的平均值或最大值,如圖2所示,也是通過(guò)優(yōu)化的卷積核運(yùn)算實(shí)現(xiàn)的。經(jīng)過(guò)特征提取層后,得到的多個(gè)特征圖構(gòu)成特征向量后通過(guò)全連接層與最終的輸出層相連。圖2卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)Fig.2Basicstructureofconvolutionalneuralnetwork本文所用CNNs如圖3所示,該網(wǎng)絡(luò)設(shè)計(jì)為19層,包括16層卷積層、3層全連接層,其中每一組卷積層后接一個(gè)maxpooling層,與一般的卷積層和池化層交替堆疊的結(jié)構(gòu)有所不同。圖3中“3×3conv,64”表示卷積層中有64個(gè)大小為3×3的卷積核,“Size”表示每一次卷積后得到的特征圖大小,本網(wǎng)絡(luò)卷積核全部為3×3大校本文所用網(wǎng)絡(luò)層數(shù)很深,實(shí)驗(yàn)證明對(duì)于目標(biāo)跟蹤類的問(wèn)題比其他淺層網(wǎng)絡(luò)效?
中已標(biāo)出)與目標(biāo)圖像做卷積計(jì)算,從而獲取特征圖,卷積核大小是實(shí)驗(yàn)中訓(xùn)練優(yōu)化得到的。池化層(如圖2中的maxpooling層)其實(shí)就是降采樣作用,得到分辨率較低的圖像,目的是獲取一定的位移不變性,提高圖像識(shí)別的魯棒性。通常的做法是取一定鄰域內(nèi)像素的平均值或最大值,如圖2所示,也是通過(guò)優(yōu)化的卷積核運(yùn)算實(shí)現(xiàn)的。經(jīng)過(guò)特征提取層后,得到的多個(gè)特征圖構(gòu)成特征向量后通過(guò)全連接層與最終的輸出層相連。圖2卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)Fig.2Basicstructureofconvolutionalneuralnetwork本文所用CNNs如圖3所示,該網(wǎng)絡(luò)設(shè)計(jì)為19層,包括16層卷積層、3層全連接層,其中每一組卷積層后接一個(gè)maxpooling層,與一般的卷積層和池化層交替堆疊的結(jié)構(gòu)有所不同。圖3中“3×3conv,64”表示卷積層中有64個(gè)大小為3×3的卷積核,“Size”表示每一次卷積后得到的特征圖大小,本網(wǎng)絡(luò)卷積核全部為3×3大校本文所用網(wǎng)絡(luò)層數(shù)很深,實(shí)驗(yàn)證明對(duì)于目標(biāo)跟蹤類的問(wèn)題比其他淺層網(wǎng)絡(luò)效果更好,本文所用的網(wǎng)絡(luò)已經(jīng)通過(guò)ImageNet數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練。為了證明CNNs高層與低層特征的不同,本文將前期實(shí)驗(yàn)中提取了第8層和第16層的特征圖做對(duì)比,如圖4所示,其中圖4a)是輸入圖片(隨機(jī)選。瑘D4b)表示卷積第8層輸出的特征圖(隨機(jī)選取1張),圖4c)表示卷積第16層輸出的特征圖(隨機(jī)選取1張)。如圖4所示,卷積第8層特征能很好地識(shí)別目標(biāo)的邊界信息,可以準(zhǔn)確地反映目標(biāo)的位置變化,而卷積第16層特征反映的是目標(biāo)的語(yǔ)義特征,對(duì)于目標(biāo)的外觀能很好地表達(dá)。圖3本文卷積神經(jīng)網(wǎng)絡(luò)Fig.3Convolutionalneuralnetwork圖4卷積第
【參考文獻(xiàn)】:
期刊論文
[1]多通道核相關(guān)濾波的實(shí)時(shí)跟蹤方法[J]. 胡昭華,邢衛(wèi)國(guó),何軍,張秀再. 計(jì)算機(jī)應(yīng)用. 2015(12)
本文編號(hào):3215811
本文鏈接:http://www.sikaile.net/kejilunwen/sousuoyinqinglunwen/3215811.html
最近更新
教材專著