天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于關(guān)注度LSTM的動(dòng)作提議和行為識(shí)別

發(fā)布時(shí)間:2021-10-14 23:46
  行為分析的目的是從視頻中檢測和識(shí)別正在發(fā)生的行為,使得計(jì)算機(jī)系統(tǒng)能夠理解行為并對(duì)場景進(jìn)行進(jìn)一步的語義描述。然而,海量視頻數(shù)據(jù)的背后蘊(yùn)含的是參差不齊的視頻內(nèi)容,這無疑給視頻行為分析帶來了巨大的挑戰(zhàn)與壓力。當(dāng)前已有的各種分析模型雖然能夠較好地對(duì)視頻中的行為進(jìn)行分析和識(shí)別,但是仍然存在一定的局限性:行為分析模型多數(shù)局限于底層特征,難以表達(dá)行為發(fā)生的具體過程;復(fù)雜的背景噪聲和光照條件的變化,使得視頻中包含了大量的背景冗余信息;視頻時(shí)長的長短不一使得視頻中包含了大量與行為分析不太相關(guān)的冗余幀。對(duì)此,本文通過行為分析任務(wù)基本特征,結(jié)合循環(huán)神經(jīng)網(wǎng)絡(luò)的信息依賴特性,在長短期記憶網(wǎng)絡(luò)中引入時(shí)空關(guān)注度機(jī)制,挖掘時(shí)空語境信息,探索行為表達(dá)過程,并且能夠提取視頻中關(guān)鍵幀的顯著性區(qū)域,提取有效信息,強(qiáng)化行為表達(dá)。針對(duì)上述問題,本文主要工作如下:(1)針對(duì)當(dāng)前大多數(shù)行為分析仍然包含大量的噪聲信息以及無法從認(rèn)知角度理解行為的表達(dá)過程,本文在長短期記憶網(wǎng)絡(luò)中引入關(guān)注度機(jī)制,挖掘行為時(shí)空語境線索,關(guān)注時(shí)空有效信息,提高行為分析效率。(2)針對(duì)當(dāng)前大多數(shù)的動(dòng)作提議研究方法的效率低下及步驟繁瑣等問題,本文提出基于空間關(guān)注度... 

【文章來源】:合肥工業(yè)大學(xué)安徽省 211工程院校 教育部直屬院校

【文章頁數(shù)】:73 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于關(guān)注度LSTM的動(dòng)作提議和行為識(shí)別


行為分析過程

過程圖,卷積和,過程,局部連接


圖 2.2 卷積神經(jīng)網(wǎng)絡(luò)的卷積和池化過程Fig 2.2 Convolution and pooling in convolutional neural network2.2.2 卷積神經(jīng)網(wǎng)絡(luò)特點(diǎn)卷積神經(jīng)網(wǎng)絡(luò)有兩個(gè)重要思想幫助提升機(jī)器學(xué)習(xí)算法的性能:局部連接(localconnectivity)和參數(shù)共享(parameter sharing)。傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)層使用單獨(dú)的參數(shù)利用矩陣相乘來描述輸入單元和輸出單元的關(guān)系,這意味著每個(gè)輸出單元與輸入單元都進(jìn)行交互。然而,卷積神經(jīng)網(wǎng)絡(luò)具有局部連接的特性,通過使核的大小小于輸入的大小來實(shí)現(xiàn)。在處理圖像時(shí),輸入圖像可能具有成千上萬的像素,使用全連接會(huì)增加大量的參數(shù)量,是不切實(shí)際的。然而,局部連接有助于濾波器學(xué)習(xí)捕獲重要的圖像特征而不用學(xué)習(xí)全局模式所對(duì)應(yīng)的權(quán)重,這既降低了模型的內(nèi)存需求,又提高了統(tǒng)計(jì)效率。參數(shù)共享是指在多個(gè)位置使用相同的權(quán)重,是一種用于減少與模型相關(guān)的自由參數(shù)數(shù)量的方案。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中,權(quán)重矩陣的每個(gè)元素在計(jì)算層的輸出時(shí)僅使用一次,它乘以輸入的一個(gè)元素,然后再也不會(huì)重新訪問。卷積神經(jīng)網(wǎng)絡(luò)中,核的每個(gè)成員用于輸入的每個(gè)位置,卷積運(yùn)算使用的參數(shù)

循環(huán)連接,展開計(jì)算


卷積的輸出是一個(gè)序列,其中輸出的每個(gè)元素是幾個(gè)數(shù)。參數(shù)共享的思想體現(xiàn)在每個(gè)時(shí)刻的卷積核是相同的。循環(huán)網(wǎng)絡(luò)共享參數(shù),輸出的每個(gè)元素都是先前輸出的函數(shù),使用先前輸出的生成新的輸出。了簡化說明,我們將 RNN 稱為對(duì)包含向量 x (t )的序列進(jìn)行操作,其引t的范圍為 1 到 。時(shí)間步長索引不一定是指現(xiàn)實(shí)世界中的時(shí)間流序列中的位置。RNN 還可以應(yīng)用于圖像等跨域兩個(gè)維度的空間數(shù)據(jù)于涉及時(shí)間的數(shù)據(jù)時(shí),將整個(gè)序列提供給網(wǎng)絡(luò)之前就可以觀察到整以建立在時(shí)間上向后的連接。環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)及特點(diǎn)節(jié)使用計(jì)算圖的思想來闡述循環(huán)神經(jīng)網(wǎng)絡(luò),將輸入和參數(shù)映射到輸進(jìn)行展開并作出解釋,展開計(jì)算圖的方式進(jìn)一步論證了深度網(wǎng)絡(luò)中如圖 2.3 所示,為 RNN 的循環(huán)結(jié)構(gòu)及其展開的計(jì)算圖,從圖中可以絡(luò)在每個(gè)時(shí)刻都有輸出并且在隱單元之間建立循環(huán)連接。

【參考文獻(xiàn)】:
期刊論文
[1]人的視覺行為識(shí)別研究回顧、現(xiàn)狀及展望[J]. 單言虎,張彰,黃凱奇.  計(jì)算機(jī)研究與發(fā)展. 2016(01)
[2]復(fù)雜場景下的人體行為識(shí)別研究新進(jìn)展[J]. 雷慶,陳鍛生,李紹滋.  計(jì)算機(jī)科學(xué). 2014(12)
[3]單目視覺下目標(biāo)三維行為的時(shí)間尺度不變建模及識(shí)別[J]. 王蒙,戴亞平,王慶林.  自動(dòng)化學(xué)報(bào). 2014(08)
[4]基于視覺的人體動(dòng)作識(shí)別綜述[J]. 胡瓊,秦磊,黃慶明.  計(jì)算機(jī)學(xué)報(bào). 2013(12)



本文編號(hào):3437038

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3437038.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶7fb70***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com