基于深度圖像數(shù)據(jù)的人體動(dòng)作識(shí)別
本文選題:人體動(dòng)作識(shí)別 + 深度圖像 ; 參考:《鄭州大學(xué)》2017年碩士論文
【摘要】:人體動(dòng)作和行為識(shí)別在計(jì)算機(jī)視覺(jué)和模式識(shí)別等多個(gè)交叉領(lǐng)域一直以來(lái)都是一個(gè)熱門(mén)的研究課題。它有廣闊的應(yīng)用前景如人機(jī)交互、智能家居、智能監(jiān)控。早期的人體動(dòng)作識(shí)別研究主要針對(duì)彩色可見(jiàn)光攝像機(jī)錄制的視頻數(shù)據(jù),在該數(shù)據(jù)上提出了許多經(jīng)典的算法。但是由于傳統(tǒng)數(shù)據(jù)本身的局限性,這些算法容易受到光照變化等因素的影響。隨著傳感技術(shù)的發(fā)展,廉價(jià)的深度攝像機(jī)比如Kinect的出現(xiàn),為研究者解決人體動(dòng)作識(shí)別中的難題提供了新的思路。深度數(shù)據(jù)不僅不容易受光照變化等因素的影響,還能額外提供場(chǎng)景的三維信息,這使得越來(lái)越多的學(xué)者轉(zhuǎn)向基于深度數(shù)據(jù)的動(dòng)作識(shí)別算法的研究。本論文針對(duì)從深度圖像數(shù)據(jù)中識(shí)別人體動(dòng)作進(jìn)行研究,實(shí)現(xiàn)了多種有效的人體動(dòng)作識(shí)別算法,具體內(nèi)容如下:第一,在深度圖像的基礎(chǔ)上,提出了一種動(dòng)作特征描述方法。首先利用自適應(yīng)深度運(yùn)動(dòng)圖能量來(lái)劃分時(shí)間動(dòng)作序列,通過(guò)分析不同子時(shí)間段動(dòng)作的姿態(tài)來(lái)獲得運(yùn)動(dòng)能量模型(MEM),并利用局部二值模式(LBP)對(duì)其進(jìn)行編碼,得到MEM-LBP描述符來(lái)表示動(dòng)作特征,經(jīng)主成分分析(PCA)降維后,送入7)2范數(shù)協(xié)同表示分類器中進(jìn)行識(shí)別。在MSR Action3D和MSR Gesture3D數(shù)據(jù)庫(kù)上進(jìn)行的測(cè)試分析與對(duì)比表明了該算法的有效性。第二,引入特征融合方法,在MEM的基礎(chǔ)上,提取梯度方向直方圖描述子(HOG)得到新的特征描述符,將其與MEM-LBP特征描述符進(jìn)行特征層融合和決策層融合,并引入核極限學(xué)習(xí)機(jī)(KELM)對(duì)動(dòng)作分類。在數(shù)據(jù)庫(kù)上的測(cè)試實(shí)驗(yàn)結(jié)果表明兩種融合方法都在一定程度上提升了識(shí)別效果,并且決策層融合的效果相對(duì)更好。
[Abstract]:Human motion and behavior recognition has been a hot research topic in many intersecting fields such as computer vision and pattern recognition. It has broad application prospects such as human-computer interaction, intelligent home, intelligent monitoring. The early research on human motion recognition mainly focused on video data recorded by color visible light camera, and put forward many classical algorithms on this data. However, due to the limitation of traditional data, these algorithms are easily affected by illumination changes and other factors. With the development of sensing technology, the emergence of cheap depth cameras such as Kinect provides a new way for researchers to solve the problem of human motion recognition. Depth data is not only not easily affected by illumination and other factors, but also can provide 3D information of scene. As a result, more and more scholars turn to the research of motion recognition algorithm based on depth data. In this paper, the recognition of human motion from depth image data is studied, and a variety of effective human motion recognition algorithms are implemented. The main contents are as follows: first, based on the depth image, an action feature description method is proposed. Firstly, the adaptive depth motion map energy is used to divide the time series of actions, and the motion energy model is obtained by analyzing the posture of the actions in different sub-time periods, and the local binary mode is used to encode the motion energy model. The MEM-LBP descriptor is obtained to represent the action feature. After the principal component analysis (PCA) is used to reduce the dimensionality, the MEM-LBP descriptor is sent to the 7 ~ (2) norm cooperative representation classifier for recognition. The test results on MSR Action3D and MSR Gesture3D database show that the algorithm is effective. Secondly, the feature fusion method is introduced, based on MEM, the gradient histogram descriptor is extracted to obtain the new feature descriptor, and the new feature descriptor is fused with the MEM-LBP feature descriptor at the feature level and decision level. And the nuclear extreme learning machine (KELM) is introduced to classify the action. The experimental results on the database show that the two fusion methods improve the recognition effect to a certain extent, and the effect of decision level fusion is better.
【學(xué)位授予單位】:鄭州大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[J];自動(dòng)化與信息工程;2009年04期
2 胡雅琴;;動(dòng)作識(shí)別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期
3 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機(jī)機(jī)動(dòng)飛行動(dòng)作識(shí)別知識(shí)庫(kù)的建立[J];計(jì)算機(jī)仿真;2005年04期
4 程祥;;人體動(dòng)作識(shí)別的研究[J];電腦知識(shí)與技術(shù);2006年20期
5 黃飛躍;徐光yP;;視角無(wú)關(guān)的動(dòng)作識(shí)別[J];軟件學(xué)報(bào);2008年07期
6 徐光yP;曹媛媛;;動(dòng)作識(shí)別與行為理解綜述[J];中國(guó)圖象圖形學(xué)報(bào);2009年02期
7 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別[J];現(xiàn)代科學(xué)儀器;2012年02期
8 周艷青;王磊;;基于視覺(jué)的人體動(dòng)作識(shí)別綜述[J];山東輕工業(yè)學(xué)院學(xué)報(bào)(自然科學(xué)版);2012年01期
9 曹琨;;基于檢索表的實(shí)時(shí)動(dòng)作識(shí)別技術(shù)研究[J];中外企業(yè)家;2014年05期
10 劉博;安建成;;基于關(guān)鍵姿勢(shì)的人體動(dòng)作識(shí)別[J];電視技術(shù);2014年05期
相關(guān)會(huì)議論文 前9條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[A];廣州市儀器儀表學(xué)會(huì)2009年學(xué)術(shù)年會(huì)論文集[C];2010年
2 黃飛躍;徐光yP;;自然的人體動(dòng)作識(shí)別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年
3 葉喜勇;陶霖密;王國(guó)建;邸慧軍;;視角無(wú)關(guān)的人體軀干動(dòng)作識(shí)別[A];第六屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2010)、第19屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2010)、第6屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2010)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2010)論文集[C];2010年
4 黃艷歡;葉少珍;;連續(xù)動(dòng)作分割綜述[A];第十四屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年
5 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動(dòng)作的識(shí)別與理解[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年
6 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時(shí)空特征的人體動(dòng)作識(shí)別[A];第十五屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年
7 孫曉蘭;趙惠潔;祝世平;;基于深度圖像的邊緣檢測(cè)方法研究[A];2004全國(guó)光學(xué)與光電子學(xué)學(xué)術(shù)研討會(huì)、2005全國(guó)光學(xué)與光電子學(xué)學(xué)術(shù)研討會(huì)、廣西光學(xué)學(xué)會(huì)成立20周年年會(huì)論文集[C];2005年
8 徐秀英;劉卓;王博亮;;一種基于三角函數(shù)的深度圖像曲面擬合方法[A];第十二屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2005年
9 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機(jī)的手部肌電信號(hào)動(dòng)作識(shí)別[A];2013年中國(guó)智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第五分冊(cè))[C];2013年
相關(guān)重要報(bào)紙文章 前3條
1 本報(bào)記者 陳丹;人與機(jī)器的“對(duì)話”[N];科技日?qǐng)?bào);2010年
2 深圳商報(bào)記者 徐明天 實(shí)習(xí)生 桂馨;電視機(jī)可借助電力線上網(wǎng)[N];深圳商報(bào);2010年
3 ;凌空敲鍵盤(pán)?無(wú)線計(jì)算機(jī)手套問(wèn)世[N];中國(guó)計(jì)算機(jī)報(bào);2004年
相關(guān)博士學(xué)位論文 前10條
1 諶先敢;現(xiàn)實(shí)環(huán)境下的人體動(dòng)作識(shí)別[D];武漢大學(xué);2012年
2 陳淵博;視頻序列中的人體動(dòng)作識(shí)別[D];北京郵電大學(xué);2015年
3 劉翠微;視頻中人的動(dòng)作分析與理解[D];北京理工大學(xué);2015年
4 陳萌;基于李代數(shù)高斯表示的動(dòng)作識(shí)別方法研究[D];華中科技大學(xué);2016年
5 李擬s,
本文編號(hào):1805435
本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/1805435.html