天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

基于KINECT的靜態(tài)手勢(shì)和上肢連續(xù)動(dòng)作識(shí)別

發(fā)布時(shí)間:2018-01-12 16:35

  本文關(guān)鍵詞:基于KINECT的靜態(tài)手勢(shì)和上肢連續(xù)動(dòng)作識(shí)別 出處:《北京理工大學(xué)》2016年碩士論文 論文類型:學(xué)位論文


  更多相關(guān)文章: 靜態(tài)手勢(shì)識(shí)別 連續(xù)動(dòng)作識(shí)別 KINECT


【摘要】:隨著電腦技術(shù)的發(fā)展,自然簡(jiǎn)潔的非接觸式交互越來(lái)越受到人們的青睞。手勢(shì)和動(dòng)作作為人們?nèi)粘=涣鞯某S檬侄我渤蔀榱朔墙佑|式交互的主要途徑。當(dāng)前基于單目視覺(jué)的手勢(shì)和動(dòng)作識(shí)別容易受到光照、顏色等環(huán)境因素的影響,基于雙目視覺(jué)的識(shí)別雖然能夠很大程度上避免這些影響,但是計(jì)算過(guò)程較為復(fù)雜。隨著深度攝像機(jī)如KINECT的出現(xiàn),在提供彩色信息的同時(shí)還能夠提供整個(gè)場(chǎng)景的三維信息,因而可以極大程度地減輕環(huán)境因素的影響,有效提升手勢(shì)和動(dòng)作識(shí)別的速度和準(zhǔn)確度。本文基于體感攝像機(jī)提供的深度數(shù)據(jù),對(duì)手勢(shì)識(shí)別和動(dòng)作識(shí)別進(jìn)行研究,主要工作內(nèi)容如下:1)提出了一種基于深度信息和隨機(jī)森林模型的日常靜態(tài)手勢(shì)識(shí)別算法。通過(guò)KINECT提供的人體骨架數(shù)據(jù)對(duì)場(chǎng)景深度圖分割得到手部的二值化圖像,然后通過(guò)迭代算法求解手部的最大內(nèi)接圓進(jìn)而得到掌心的近似位置,同時(shí)通過(guò)對(duì)手部形狀描述符的分析獲取手指的具體信息,在此基礎(chǔ)之上結(jié)合對(duì)手勢(shì)特點(diǎn)的分析提取出簡(jiǎn)單魯棒的手勢(shì)特征,最后選取隨機(jī)森林算法建立手勢(shì)的機(jī)器學(xué)習(xí)模型,實(shí)現(xiàn)靜態(tài)手勢(shì)的識(shí)別。實(shí)驗(yàn)中對(duì)九種靜態(tài)手勢(shì)的識(shí)別效果表明了該方法的有效性。2)提出了一種基于動(dòng)態(tài)規(guī)劃和隱式馬爾可夫模型的上肢連續(xù)動(dòng)作識(shí)別方法。首先通過(guò)視頻中的深度信息提取出歸一化的骨架來(lái)表征人體的姿態(tài);然后通過(guò)隱式馬爾可夫模型對(duì)人體的每個(gè)動(dòng)作進(jìn)行建模,并通過(guò)先驗(yàn)知識(shí)將連續(xù)動(dòng)作序列劃分為多個(gè)子序列;最后利用隱式馬爾可夫模型構(gòu)造代價(jià)函數(shù),通過(guò)動(dòng)態(tài)規(guī)劃算法和一個(gè)閾值模型為每個(gè)子序列計(jì)算最優(yōu)的動(dòng)作識(shí)別標(biāo)簽,最終實(shí)現(xiàn)連續(xù)動(dòng)作識(shí)別。實(shí)驗(yàn)中對(duì)20組上肢連續(xù)動(dòng)作序列的識(shí)別結(jié)果證明了該方法的有效性。
[Abstract]:With the development of computer technology. Natural and concise contactless interaction is becoming more and more popular. Gestures and actions, as the common means of people's daily communication, have become the main way of contactless interaction. At present, gestures and actions based on monocular vision have become the main way of non-contact interaction. Recognition is vulnerable to light. The recognition based on binocular vision can avoid these effects to a great extent, but the calculation process is more complicated. With the appearance of depth camera such as KINECT. While providing color information, it can also provide three-dimensional information of the whole scene, so it can greatly reduce the impact of environmental factors. It can effectively improve the speed and accuracy of gesture and motion recognition. Based on the depth data provided by the somatosensory camera, this paper studies gesture recognition and motion recognition. The main work is as follows: 1). A daily static gesture recognition algorithm based on depth information and stochastic forest model is proposed. The binary hand image is obtained by segmenting the scene depth map from the human skeleton data provided by KINECT. Then the approximate position of the palm is obtained by iterative algorithm, and the specific information of the finger is obtained by analyzing the shape descriptor of the hand. On the basis of this, the simple robust gesture features are extracted by analyzing the gesture characteristics. Finally, the machine learning model of gesture is established by selecting the stochastic forest algorithm. The recognition effect of nine static gestures shows the effectiveness of the method. 2). A method of upper limb continuous motion recognition based on dynamic programming and implicit Markov model is proposed. Firstly, the normalized skeleton is extracted from the depth information of the video to represent the posture of the human body. Then each action of human body is modeled by implicit Markov model, and the continuous action sequence is divided into multiple sub-sequences by prior knowledge. Finally, the cost function is constructed by implicit Markov model, and the optimal action identification label is calculated by dynamic programming algorithm and a threshold model for each sub-sequence. Finally, the recognition of continuous action is realized, and the effectiveness of the method is proved by the recognition results of 20 groups of upper limb continuous action sequences in the experiment.
【學(xué)位授予單位】:北京理工大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2016
【分類號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 胡雅琴;;動(dòng)作識(shí)別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期

2 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機(jī)機(jī)動(dòng)飛行動(dòng)作識(shí)別知識(shí)庫(kù)的建立[J];計(jì)算機(jī)仿真;2005年04期

3 程祥;;人體動(dòng)作識(shí)別的研究[J];電腦知識(shí)與技術(shù);2006年20期

4 黃飛躍;徐光yP;;視角無(wú)關(guān)的動(dòng)作識(shí)別[J];軟件學(xué)報(bào);2008年07期

5 徐光yP;曹媛媛;;動(dòng)作識(shí)別與行為理解綜述[J];中國(guó)圖象圖形學(xué)報(bào);2009年02期

6 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別[J];現(xiàn)代科學(xué)儀器;2012年02期

7 周艷青;王磊;;基于視覺(jué)的人體動(dòng)作識(shí)別綜述[J];山東輕工業(yè)學(xué)院學(xué)報(bào)(自然科學(xué)版);2012年01期

8 曹琨;;基于檢索表的實(shí)時(shí)動(dòng)作識(shí)別技術(shù)研究[J];中外企業(yè)家;2014年05期

9 劉博;安建成;;基于關(guān)鍵姿勢(shì)的人體動(dòng)作識(shí)別[J];電視技術(shù);2014年05期

10 王燕;張紹武;凌志剛;潘泉;;基于圖嵌入線性拓展方法的人體動(dòng)作識(shí)別研究[J];計(jì)算機(jī)仿真;2008年10期

相關(guān)會(huì)議論文 前7條

1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動(dòng)作識(shí)別方法[A];廣州市儀器儀表學(xué)會(huì)2009年學(xué)術(shù)年會(huì)論文集[C];2010年

2 黃飛躍;徐光yP;;自然的人體動(dòng)作識(shí)別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

3 葉喜勇;陶霖密;王國(guó)建;邸慧軍;;視角無(wú)關(guān)的人體軀干動(dòng)作識(shí)別[A];第六屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2010)、第19屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2010)、第6屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2010)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2010)論文集[C];2010年

4 黃艷歡;葉少珍;;連續(xù)動(dòng)作分割綜述[A];第十四屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年

5 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動(dòng)作的識(shí)別與理解[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

6 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時(shí)空特征的人體動(dòng)作識(shí)別[A];第十五屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年

7 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機(jī)的手部肌電信號(hào)動(dòng)作識(shí)別[A];2013年中國(guó)智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第五分冊(cè))[C];2013年

相關(guān)重要報(bào)紙文章 前2條

1 本報(bào)記者 陳丹;人與機(jī)器的“對(duì)話”[N];科技日?qǐng)?bào);2010年

2 ;凌空敲鍵盤?無(wú)線計(jì)算機(jī)手套問(wèn)世[N];中國(guó)計(jì)算機(jī)報(bào);2004年

相關(guān)博士學(xué)位論文 前10條

1 諶先敢;現(xiàn)實(shí)環(huán)境下的人體動(dòng)作識(shí)別[D];武漢大學(xué);2012年

2 陳淵博;視頻序列中的人體動(dòng)作識(shí)別[D];北京郵電大學(xué);2015年

3 劉翠微;視頻中人的動(dòng)作分析與理解[D];北京理工大學(xué);2015年

4 陳萌;基于李代數(shù)高斯表示的動(dòng)作識(shí)別方法研究[D];華中科技大學(xué);2016年

5 李擬s,

本文編號(hào):1415080


資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/1415080.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶cbf59***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com