RGB和2D骨架序列中基于深度特征編碼網(wǎng)絡(luò)的行為識(shí)別方法
發(fā)布時(shí)間:2021-08-16 00:48
行為識(shí)別是計(jì)算機(jī)視覺(jué)的重要研究領(lǐng)域之一,因其具有實(shí)際應(yīng)用前景,吸引了許多國(guó)內(nèi)外學(xué)者的廣泛關(guān)注,并且涌現(xiàn)了許多有價(jià)值的研究成果。但是,行為識(shí)別研究依舊面臨和其他計(jì)算機(jī)視覺(jué)領(lǐng)域相同的問(wèn)題,例如:視角變化,表觀變化,動(dòng)作執(zhí)行速率變化等問(wèn)題。另外,隨著不同類型的數(shù)據(jù)傳感器的出現(xiàn),針對(duì)不同的數(shù)據(jù)類型,如RGB視頻,深度視頻以及骨架數(shù)據(jù),人體行為識(shí)別的研究也涌現(xiàn)了不同的方法。為了更好地適用于實(shí)際場(chǎng)景,本文從RGB視頻和2D骨架數(shù)據(jù)入手,針對(duì)這類數(shù)據(jù)中行為識(shí)別存在的這些問(wèn)題,進(jìn)行了深入的研究,主要的研究?jī)?nèi)容具體包括:(1)首先,本文基于RGB和2D骨架序列設(shè)計(jì)了基于骨架關(guān)節(jié)點(diǎn)采樣的局部軌跡時(shí)空體特征,從視頻中提取更加簡(jiǎn)潔有效的局部時(shí)空特征。其次,在算法中提出了基于深度學(xué)習(xí)的視頻局部特征表示和編碼方法,并且將深度學(xué)習(xí)特征與手工特征融合,提高了基于骨架關(guān)節(jié)點(diǎn)采樣特征的識(shí)別效果。此外,在文本的工作中,對(duì)比了分關(guān)節(jié)點(diǎn)編碼和合并所有節(jié)點(diǎn)特征的編碼方式,在分關(guān)節(jié)點(diǎn)編碼的基礎(chǔ)上,嘗試了不同關(guān)節(jié)點(diǎn)組合的策略,進(jìn)一步提高了識(shí)別準(zhǔn)確率。(2)本文提出了端對(duì)端的視覺(jué)單詞模型以及該模型的訓(xùn)練策略。端對(duì)端模型在許多計(jì)算機(jī)視覺(jué)...
【文章來(lái)源】:華僑大學(xué)福建省
【文章頁(yè)數(shù)】:73 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
傳統(tǒng)方法流程
14圖2.1單隱層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)其中,神經(jīng)元結(jié)構(gòu)的示意圖如圖2.2所示,,,…,表示神經(jīng)元輸入,通過(guò)權(quán)值,,…,得到加權(quán)和,再加入激活函數(shù)f,輸出為。神經(jīng)網(wǎng)絡(luò)將前一層的神經(jīng)元的輸出作為后一層神經(jīng)元的輸入。圖2.2神經(jīng)元結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的擬合過(guò)程是通過(guò)反向傳播(BackPropagation,BP)實(shí)現(xiàn)的。在訓(xùn)練過(guò)程中,網(wǎng)絡(luò)通過(guò)前向傳播得到預(yù)測(cè)值,通過(guò)計(jì)算預(yù)測(cè)值與真實(shí)值之間的差距=∑||||,在反向傳播階段調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù)大小,的值越小,神經(jīng)網(wǎng)絡(luò)的擬合程度就越高。因此,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練目標(biāo)是優(yōu)化函數(shù)使的值變小,如果可以找到全局最小值點(diǎn),那么認(rèn)為神經(jīng)網(wǎng)絡(luò)收斂。待優(yōu)化函數(shù)叫做損失
14圖2.1單隱層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)其中,神經(jīng)元結(jié)構(gòu)的示意圖如圖2.2所示,,,…,表示神經(jīng)元輸入,通過(guò)權(quán)值,,…,得到加權(quán)和,再加入激活函數(shù)f,輸出為。神經(jīng)網(wǎng)絡(luò)將前一層的神經(jīng)元的輸出作為后一層神經(jīng)元的輸入。圖2.2神經(jīng)元結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的擬合過(guò)程是通過(guò)反向傳播(BackPropagation,BP)實(shí)現(xiàn)的。在訓(xùn)練過(guò)程中,網(wǎng)絡(luò)通過(guò)前向傳播得到預(yù)測(cè)值,通過(guò)計(jì)算預(yù)測(cè)值與真實(shí)值之間的差距=∑||||,在反向傳播階段調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù)大小,的值越小,神經(jīng)網(wǎng)絡(luò)的擬合程度就越高。因此,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練目標(biāo)是優(yōu)化函數(shù)使的值變小,如果可以找到全局最小值點(diǎn),那么認(rèn)為神經(jīng)網(wǎng)絡(luò)收斂。待優(yōu)化函數(shù)叫做損失
【參考文獻(xiàn)】:
期刊論文
[1]新一代人工智能發(fā)展規(guī)劃[J]. 先鋒. 2017(08)
本文編號(hào):3345242
【文章來(lái)源】:華僑大學(xué)福建省
【文章頁(yè)數(shù)】:73 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
傳統(tǒng)方法流程
14圖2.1單隱層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)其中,神經(jīng)元結(jié)構(gòu)的示意圖如圖2.2所示,,,…,表示神經(jīng)元輸入,通過(guò)權(quán)值,,…,得到加權(quán)和,再加入激活函數(shù)f,輸出為。神經(jīng)網(wǎng)絡(luò)將前一層的神經(jīng)元的輸出作為后一層神經(jīng)元的輸入。圖2.2神經(jīng)元結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的擬合過(guò)程是通過(guò)反向傳播(BackPropagation,BP)實(shí)現(xiàn)的。在訓(xùn)練過(guò)程中,網(wǎng)絡(luò)通過(guò)前向傳播得到預(yù)測(cè)值,通過(guò)計(jì)算預(yù)測(cè)值與真實(shí)值之間的差距=∑||||,在反向傳播階段調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù)大小,的值越小,神經(jīng)網(wǎng)絡(luò)的擬合程度就越高。因此,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練目標(biāo)是優(yōu)化函數(shù)使的值變小,如果可以找到全局最小值點(diǎn),那么認(rèn)為神經(jīng)網(wǎng)絡(luò)收斂。待優(yōu)化函數(shù)叫做損失
14圖2.1單隱層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)其中,神經(jīng)元結(jié)構(gòu)的示意圖如圖2.2所示,,,…,表示神經(jīng)元輸入,通過(guò)權(quán)值,,…,得到加權(quán)和,再加入激活函數(shù)f,輸出為。神經(jīng)網(wǎng)絡(luò)將前一層的神經(jīng)元的輸出作為后一層神經(jīng)元的輸入。圖2.2神經(jīng)元結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的擬合過(guò)程是通過(guò)反向傳播(BackPropagation,BP)實(shí)現(xiàn)的。在訓(xùn)練過(guò)程中,網(wǎng)絡(luò)通過(guò)前向傳播得到預(yù)測(cè)值,通過(guò)計(jì)算預(yù)測(cè)值與真實(shí)值之間的差距=∑||||,在反向傳播階段調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù)大小,的值越小,神經(jīng)網(wǎng)絡(luò)的擬合程度就越高。因此,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練目標(biāo)是優(yōu)化函數(shù)使的值變小,如果可以找到全局最小值點(diǎn),那么認(rèn)為神經(jīng)網(wǎng)絡(luò)收斂。待優(yōu)化函數(shù)叫做損失
【參考文獻(xiàn)】:
期刊論文
[1]新一代人工智能發(fā)展規(guī)劃[J]. 先鋒. 2017(08)
本文編號(hào):3345242
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3345242.html
最近更新
教材專著