天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于關(guān)鍵幀的復(fù)雜人體行為識(shí)別

發(fā)布時(shí)間:2018-12-24 13:44
【摘要】:提出基于關(guān)鍵幀的復(fù)雜人體行為識(shí)別算法.采用人體輪廓表示人體動(dòng)作,根據(jù)輪廓特征向量采用鏡頭邊界檢測(cè)將復(fù)雜行為片段分解后得到一系列簡單行為,分解過程中采用二次采樣提高分界點(diǎn)的查全率,采用自分裂競爭學(xué)習(xí)提取簡單行為片段的關(guān)鍵幀.最后根據(jù)行為片段中關(guān)鍵幀的相似度進(jìn)行復(fù)雜人體行為的識(shí)別,識(shí)別過程中綜合考慮視覺因子、順序因子及干擾因子,使行為識(shí)別的計(jì)算更合理全面.在UCF Sports數(shù)據(jù)庫及自建數(shù)據(jù)庫上的實(shí)驗(yàn)表明文中算法具有較高的識(shí)別精度.
[Abstract]:A complex human behavior recognition algorithm based on key frames is proposed. Human body contour is used to represent human body action. According to contour feature vector, a series of simple behaviors are obtained after decomposing complex behavior fragments by shot boundary detection. In the process of decomposition, secondary sampling is used to improve the recall of demarcation points. Self-splitting competitive learning is used to extract the key frames of simple behavioral fragments. Finally, according to the similarity of the key frames in the behavior segment, the complex human behavior is recognized. In the process of recognition, visual factors, sequence factors and interference factors are considered synthetically, so that the calculation of behavior recognition is more reasonable and comprehensive. Experiments on UCF Sports database and self-built database show that the algorithm has high recognition accuracy.
【作者單位】: 中南大學(xué)信息科學(xué)與工程學(xué)院;
【基金】:國家自然科學(xué)基金項(xiàng)目(No.50808025) 湖南省科技計(jì)劃項(xiàng)目(No.2013GK3012)資助~~
【分類號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測(cè)模型的多人行為識(shí)別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期

2 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識(shí)別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期

3 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識(shí)別算法[J];光電子.激光;2013年08期

4 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J];中國圖象圖形學(xué)報(bào);2014年02期

5 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識(shí)別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期

6 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識(shí)別[J];自動(dòng)化學(xué)報(bào);2010年01期

7 李英杰;尹怡欣;鄧飛;;一種有效的行為識(shí)別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期

8 王新旭;;基于視覺的人體行為識(shí)別研究[J];中國新通信;2012年21期

9 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報(bào);2014年S1期

10 溫向兵;滿君豐;;視頻監(jiān)控中人體行為識(shí)別的研究[J];微型機(jī)與應(yīng)用;2010年23期

相關(guān)會(huì)議論文 前5條

1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識(shí)別技術(shù)研究[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

3 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡單人物行為識(shí)別研究[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

4 安國成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年

5 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

相關(guān)博士學(xué)位論文 前10條

1 邵延華;基于計(jì)算機(jī)視覺的人體行為識(shí)別研究[D];重慶大學(xué);2015年

2 仝鈺;基于條件隨機(jī)場(chǎng)的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年

3 馮銀付;多模態(tài)人體行為識(shí)別技術(shù)研究[D];浙江大學(xué);2015年

4 何衛(wèi)華;人體行為識(shí)別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年

5 吳秋霞;復(fù)雜場(chǎng)景下的人體行為識(shí)別[D];華南理工大學(xué);2012年

6 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年

7 于成龍;基于視頻的人體行為識(shí)別關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2014年

8 王亮;基于判別模式學(xué)習(xí)的人體行為識(shí)別方法研究[D];哈爾濱工業(yè)大學(xué);2011年

9 付朝霞;基于視頻流的人體目標(biāo)檢測(cè)與行為識(shí)別研究[D];中北大學(xué);2013年

10 趙海勇;基于視頻流的運(yùn)動(dòng)人體行為識(shí)別研究[D];西安電子科技大學(xué);2011年

,

本文編號(hào):2390701

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/2390701.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶bd408***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com