基于動態(tài)特征的跨視角步態(tài)識別研究
發(fā)布時間:2021-03-09 01:45
步態(tài)特征是一種生物特征,它具有其他生物特征不具備的優(yōu)勢,如可遠(yuǎn)距離獲取、不易偽裝和非接觸即可獲得等。在監(jiān)控場景下,由于攝像頭與行人的距離較遠(yuǎn),不僅常用的指紋和虹膜特征都無法獲取,人臉特征在較遠(yuǎn)的距離提取出來也會很模糊。很多的研究者已經(jīng)證明了步態(tài)識別在遠(yuǎn)距離的情況下是?分有效的身份識別方法,因此步態(tài)識別技術(shù)具有廣泛的應(yīng)用前景。然而在實際場景下,步態(tài)識別仍然面臨著各種挑戰(zhàn),基于輪廓的步態(tài)特征受視角、衣著和攜帶物品等情況影響比較大,其原因這些情況往往導(dǎo)致行人步態(tài)輪廓的扭曲和變形;而基于模型的步態(tài)特征對視角、衣著和攜帶物品等情況下有比較好的魯棒性,但因獲取精準(zhǔn)的人體姿態(tài)還具有一定的挑戰(zhàn),其識別率往往不如基于輪廓的方法。在總結(jié)和分析前人研究的基礎(chǔ)上,本文針對步態(tài)識別中存在的一系列問題,視角變化下準(zhǔn)確率極大的降低,我們提出了一種新穎的PoseGait步態(tài)識別方法,該方法在服裝和攜帶條件下都很魯棒。通過加入人類先驗知識的時空特征也被設(shè)計加入提高識別率。該方法在兩個大型數(shù)據(jù)集CASIA B和CASIA E上進(jìn)行評估。實驗結(jié)果表明,所提出的方法可以實現(xiàn)最先進(jìn)的性能,并且即使只使用簡潔的CNN模型,對于觀...
【文章來源】:深圳大學(xué)廣東省
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
從左到右:步態(tài)輪廓序列,步態(tài)能量圖GEI,計時步態(tài)圖像CGIs
基于動態(tài)特征的跨視角步態(tài)識別研究圖2-2堆疊漸進(jìn)式自動編碼器來對角度進(jìn)行轉(zhuǎn)換,其每一層轉(zhuǎn)換一個較小的角度,經(jīng)過幾層以后所有GEI可以被轉(zhuǎn)化為側(cè)面角度。有挑戰(zhàn)性的任務(wù)。BenAbdelkader[15]的工作是第一個基于模型的特征表示方法,使用個體的結(jié)構(gòu)步幅參數(shù)來模擬人體。即以米為單位的步幅長度和步調(diào)(每分鐘步數(shù))作為兩個參數(shù),旨在擬合參數(shù)作為步態(tài)特征進(jìn)行識別。大多數(shù)基于模型的特征表示方法會模擬整個人體,Yoo[16]使用通過連接從步態(tài)提取的九個身體點獲得的2D棍棒圖來模擬人體運動。Boulgouris[17]的工作也將人體分成多個部分,他們主要研究了每個部分對識別率的貢獻(xiàn)。在對整個人體進(jìn)行建模之后,通常使用基于模型的特征表示方法,在人體上使用距離或關(guān)節(jié)角度進(jìn)行步態(tài)識別。Bobick和Johnson[18]使用四個距離來模擬和描述人體,分別依次為左右腳間的距離,頭與骨盆的距離,頭和腳的距離,腳與骨盆距離。王等人[19]如圖2-3將人體分成14個部分,并在每個部分使用聯(lián)合角度軌跡來識別個體,他們還結(jié)合了Procrustes形狀分析以提高識別率。Tanawongsuwan和Bobick[18]使用關(guān)節(jié)角度模擬人體,他們從步態(tài)數(shù)據(jù)中提取關(guān)節(jié)角度,并使用關(guān)節(jié)角度的軌跡來識別個體。同時,由于人腿在步態(tài)識別中起著重要作用,因此有些作品側(cè)重于腿部模型,例如Yam等人[20]對人腿進(jìn)行模擬,并用它們來分析人的步行和跑步。Dockstader等人的研究[21]也模擬了人的腿,其中腿被表示為在一點處連接的許多粗線。Cunado等人[22]使用VelocityHough變換(VHT)則從腿和運動中提取特征。人體的骨架和關(guān)節(jié)軌跡對于照明變化和場景變化是具有魯棒性的的,并且由于高度8
基于動態(tài)特征的跨視角步態(tài)識別研究圖2-3人體模型分為14個部分精確的深度傳感器或姿勢估計算法,它們也是越來越易于獲得。對于關(guān)節(jié)特征的提取方法可以分為手工制作的基于特征的方法和深度學(xué)習(xí)方法。Kastaniotis等人[23]如圖2-4利用Kinect傳感器來提取骨架數(shù)據(jù),可以直接獲取人體關(guān)節(jié)點的運動信息。Feng[24]提出了利用人體關(guān)節(jié)的熱度圖作為步態(tài)特征。系列中的人體關(guān)節(jié)熱度圖為輸入,利用長期短期記憶遞歸神經(jīng)網(wǎng)絡(luò)來提取動態(tài)信息。但缺點則是這個網(wǎng)絡(luò)[24]盡管利用了LSTM去提取步態(tài)特征,缺忽略了靜態(tài)特征的提取,同時也面臨著預(yù)測精度的挑戰(zhàn)。最近深度學(xué)習(xí)的成功導(dǎo)致了基于深度學(xué)習(xí)的提取骨架建模方法的激增,例如OpenPose提出了一種實時方法來檢測圖像中的人體的2D姿勢。OpenPose[25],AlphaPose[26]等方法不僅可以從視頻中直接提取關(guān)節(jié)點信息,同時也能達(dá)到一個相對較好的精度。2.3基于深度學(xué)習(xí)的步態(tài)識別深度學(xué)習(xí)最近在計算機(jī)視覺領(lǐng)域中蓬勃發(fā)展。特別是深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)[27]被用來處理各種任務(wù)。CNN由于其深度和高度非線性模型而顯示出優(yōu)于傳統(tǒng)方法的壓倒性優(yōu)勢,如果給出足夠的標(biāo)記訓(xùn)練數(shù)據(jù),它可以式學(xué)習(xí)豐富的特征,例如在視頻領(lǐng)域,Karpathy[28]將CNN應(yīng)用于大規(guī)模視頻分類。在提取視頻特征中,捕獲長距離依賴在深度神經(jīng)網(wǎng)絡(luò)中至關(guān)重要,對于順序數(shù)據(jù)(例如,在語音,語言中),循環(huán)操作RNN是9
本文編號:3072032
【文章來源】:深圳大學(xué)廣東省
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
從左到右:步態(tài)輪廓序列,步態(tài)能量圖GEI,計時步態(tài)圖像CGIs
基于動態(tài)特征的跨視角步態(tài)識別研究圖2-2堆疊漸進(jìn)式自動編碼器來對角度進(jìn)行轉(zhuǎn)換,其每一層轉(zhuǎn)換一個較小的角度,經(jīng)過幾層以后所有GEI可以被轉(zhuǎn)化為側(cè)面角度。有挑戰(zhàn)性的任務(wù)。BenAbdelkader[15]的工作是第一個基于模型的特征表示方法,使用個體的結(jié)構(gòu)步幅參數(shù)來模擬人體。即以米為單位的步幅長度和步調(diào)(每分鐘步數(shù))作為兩個參數(shù),旨在擬合參數(shù)作為步態(tài)特征進(jìn)行識別。大多數(shù)基于模型的特征表示方法會模擬整個人體,Yoo[16]使用通過連接從步態(tài)提取的九個身體點獲得的2D棍棒圖來模擬人體運動。Boulgouris[17]的工作也將人體分成多個部分,他們主要研究了每個部分對識別率的貢獻(xiàn)。在對整個人體進(jìn)行建模之后,通常使用基于模型的特征表示方法,在人體上使用距離或關(guān)節(jié)角度進(jìn)行步態(tài)識別。Bobick和Johnson[18]使用四個距離來模擬和描述人體,分別依次為左右腳間的距離,頭與骨盆的距離,頭和腳的距離,腳與骨盆距離。王等人[19]如圖2-3將人體分成14個部分,并在每個部分使用聯(lián)合角度軌跡來識別個體,他們還結(jié)合了Procrustes形狀分析以提高識別率。Tanawongsuwan和Bobick[18]使用關(guān)節(jié)角度模擬人體,他們從步態(tài)數(shù)據(jù)中提取關(guān)節(jié)角度,并使用關(guān)節(jié)角度的軌跡來識別個體。同時,由于人腿在步態(tài)識別中起著重要作用,因此有些作品側(cè)重于腿部模型,例如Yam等人[20]對人腿進(jìn)行模擬,并用它們來分析人的步行和跑步。Dockstader等人的研究[21]也模擬了人的腿,其中腿被表示為在一點處連接的許多粗線。Cunado等人[22]使用VelocityHough變換(VHT)則從腿和運動中提取特征。人體的骨架和關(guān)節(jié)軌跡對于照明變化和場景變化是具有魯棒性的的,并且由于高度8
基于動態(tài)特征的跨視角步態(tài)識別研究圖2-3人體模型分為14個部分精確的深度傳感器或姿勢估計算法,它們也是越來越易于獲得。對于關(guān)節(jié)特征的提取方法可以分為手工制作的基于特征的方法和深度學(xué)習(xí)方法。Kastaniotis等人[23]如圖2-4利用Kinect傳感器來提取骨架數(shù)據(jù),可以直接獲取人體關(guān)節(jié)點的運動信息。Feng[24]提出了利用人體關(guān)節(jié)的熱度圖作為步態(tài)特征。系列中的人體關(guān)節(jié)熱度圖為輸入,利用長期短期記憶遞歸神經(jīng)網(wǎng)絡(luò)來提取動態(tài)信息。但缺點則是這個網(wǎng)絡(luò)[24]盡管利用了LSTM去提取步態(tài)特征,缺忽略了靜態(tài)特征的提取,同時也面臨著預(yù)測精度的挑戰(zhàn)。最近深度學(xué)習(xí)的成功導(dǎo)致了基于深度學(xué)習(xí)的提取骨架建模方法的激增,例如OpenPose提出了一種實時方法來檢測圖像中的人體的2D姿勢。OpenPose[25],AlphaPose[26]等方法不僅可以從視頻中直接提取關(guān)節(jié)點信息,同時也能達(dá)到一個相對較好的精度。2.3基于深度學(xué)習(xí)的步態(tài)識別深度學(xué)習(xí)最近在計算機(jī)視覺領(lǐng)域中蓬勃發(fā)展。特別是深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)[27]被用來處理各種任務(wù)。CNN由于其深度和高度非線性模型而顯示出優(yōu)于傳統(tǒng)方法的壓倒性優(yōu)勢,如果給出足夠的標(biāo)記訓(xùn)練數(shù)據(jù),它可以式學(xué)習(xí)豐富的特征,例如在視頻領(lǐng)域,Karpathy[28]將CNN應(yīng)用于大規(guī)模視頻分類。在提取視頻特征中,捕獲長距離依賴在深度神經(jīng)網(wǎng)絡(luò)中至關(guān)重要,對于順序數(shù)據(jù)(例如,在語音,語言中),循環(huán)操作RNN是9
本文編號:3072032
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3072032.html
最近更新
教材專著