天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

融合生成模型和判別模型的雙層RBM運動捕獲數(shù)據(jù)語義識別算法

發(fā)布時間:2019-04-24 13:43
【摘要】:對人體運動捕獲數(shù)據(jù)底層特征和高層語義之間常常存在語義鴻溝的問題,結(jié)合深度學(xué)習(xí)思想,提出一種融合受限玻爾茲曼機生成模型和判別模型的運動捕獲數(shù)據(jù)語義識別算法.該算法采用雙層受限玻爾茲曼機,分別對運動捕獲數(shù)據(jù)進行判別性特征提取(特征提取層)和風(fēng)格識別(語義判別層),首先考慮到自回歸模型對時序信息具有出色的表達能力,構(gòu)建一種基于單通道三元因子交互的條件限制玻爾茲曼機生成模型,用于提取運動捕捉數(shù)據(jù)的時空特征信息;然后將提取出的特征與對應(yīng)的風(fēng)格標簽相耦合,作為語義判別層中受限玻爾茲曼機判別模型的當(dāng)前幀數(shù)據(jù)層輸入,進行單幀風(fēng)格識別的訓(xùn)練;最后在獲得各幀參數(shù)的基礎(chǔ)上,在模型頂部加入投票空間實現(xiàn)對運動捕捉序列的風(fēng)格語義的有效識別.實驗結(jié)果表明,文中算法具有良好的魯棒性和可擴展性,能夠滿足多樣化運動序列識別的需求,便于數(shù)據(jù)的有效重用.
[Abstract]:In view of the problem that there is often semantic gap between the bottom features and the high-level semantics of human motion capture data, a semantic recognition algorithm for motion capture data is proposed, which integrates the constrained Boltzmann machine generation model and the discriminant model, combined with the idea of in-depth learning. The two-layer constrained Boltzmann machine is used to extract discriminative features (feature extraction layer) and style recognition (semantic discrimination layer) of motion capture data respectively. Firstly, considering that autoregressive model has excellent ability to express time series information, a conditional constrained Boltzmann machine generation model based on the interaction of single channel and three factors is constructed to extract spatio-temporal feature information of motion capture data. Then, the extracted feature is coupled with the corresponding style tag, which is used as the input of the current frame data layer of the restricted Boltzmann machine discriminant model in the semantic discrimination layer, and the training of the single frame style recognition is carried out. Finally, on the basis of obtaining the parameters of each frame, the voting space is added to the top of the model to realize the effective recognition of the style semantics of motion capture sequences. The experimental results show that the proposed algorithm has good robustness and extensibility and can meet the requirements of diverse motion sequence recognition and facilitate the effective reuse of data.
【作者單位】: 華僑大學(xué)計算機科學(xué)與技術(shù)學(xué)院;廈門市模式識別與計算機視覺重點實驗室;
【基金】:國家自然科學(xué)基金(61673185,61673186) 福建省自然科學(xué)基金(2015J01656) 華僑大學(xué)科研創(chuàng)新能力培養(yǎng)資助項目(1511414012)
【分類號】:TP391.41;TP391.9

【相似文獻】

相關(guān)期刊論文 前10條

1 劉賢梅;沈志明;文必龍;;基于運動捕獲數(shù)據(jù)的人體運動融合[J];科學(xué)技術(shù)與工程;2011年12期

2 吳玲達;瞿師;魏迎梅;于榮歡;;一種運動捕獲數(shù)據(jù)重用方法[J];小型微型計算機系統(tǒng);2012年11期

3 彭淑娟;柳欣;崔振;鄭光;;分段式低秩逼近的運動捕獲數(shù)據(jù)去噪方法[J];計算機科學(xué);2013年09期

4 楊躍東;王莉莉;郝愛民;封春升;;基于幾何特征的人體運動捕獲數(shù)據(jù)分割方法[J];系統(tǒng)仿真學(xué)報;2007年10期

5 楊躍東;王莉莉;郝愛民;;運動串:一種用于行為分割的運動捕獲數(shù)據(jù)表示方法[J];計算機研究與發(fā)展;2008年03期

6 石榮;;基于運動捕獲數(shù)據(jù)的目標導(dǎo)向運動合成[J];計算機應(yīng)用與軟件;2012年07期

7 彭淑娟;柳欣;;一種結(jié)合雙特征的運動捕獲數(shù)據(jù)行為分割方法[J];計算機科學(xué);2013年08期

8 藍榮yN;孫懷江;連荷清;祝銘陽;李斌;;人體運動捕獲數(shù)據(jù)的向量空間建模與檢索[J];計算機輔助設(shè)計與圖形學(xué)學(xué)報;2011年08期

9 潘華偉;孟奇;高春鳴;雷淵;;一種新的運動捕獲數(shù)據(jù)轉(zhuǎn)換方法[J];計算機工程;2012年02期

10 劉賢梅;李冰;吳瓊;;基于運動捕獲數(shù)據(jù)的虛擬人動畫研究[J];計算機工程與應(yīng)用;2008年08期

相關(guān)會議論文 前3條

1 嚴駿馳;朱夢源;劉允才;;基于多目視覺的三維人體運動捕獲和渲染[A];圖像圖形技術(shù)研究與應(yīng)用(2010)[C];2010年

2 高湘冀;鄭江濱;;基于視覺運動捕獲數(shù)據(jù)的三維模型驅(qū)動方法[A];第八屆全國信號與信息處理聯(lián)合學(xué)術(shù)會議論文集[C];2009年

3 向堅;;基于子空間的運動索引[A];中國儀器儀表學(xué)會第九屆青年學(xué)術(shù)會議論文集[C];2007年

相關(guān)重要報紙文章 前1條

1 本報記者 吳德群;跑跑跳跳照樣能測心律心電圖[N];深圳特區(qū)報;2009年

相關(guān)博士學(xué)位論文 前5條

1 呂娜;運動捕獲數(shù)據(jù)的檢索和分割技術(shù)研究[D];山東大學(xué);2014年

2 瞿師;基于運動捕獲的人體運動生成與編輯關(guān)鍵技術(shù)研究[D];國防科學(xué)技術(shù)大學(xué);2011年

3 藍榮yN;人體運動捕獲數(shù)據(jù)的建模與重用研究[D];南京理工大學(xué);2014年

4 邱顯杰;基于視頻的三維人體運動捕獲方法研究[D];中國科學(xué)院研究生院(計算技術(shù)研究所);2006年

5 肖俊;智能人體動畫若干關(guān)鍵技術(shù)研究[D];浙江大學(xué);2007年

相關(guān)碩士學(xué)位論文 前10條

1 杜戰(zhàn)戰(zhàn);人體運動捕獲數(shù)據(jù)的分析方法研究[D];南京理工大學(xué);2015年

2 謝艷梅;融合深度圖和三維模型的人體運動捕獲技術(shù)研究[D];西安工業(yè)大學(xué);2015年

3 王豫;基于Kinect的手臂關(guān)節(jié)三維運動捕獲[D];浙江大學(xué);2015年

4 洪小嬌;運動捕獲數(shù)據(jù)關(guān)鍵幀提取與姿態(tài)過渡技術(shù)研究[D];華僑大學(xué);2015年

5 徐從洋;運動捕獲數(shù)據(jù)關(guān)鍵幀提取與檢索算法研究[D];鄭州大學(xué);2016年

6 李曉陽;基于運動捕獲數(shù)據(jù)的三維模型動畫研究與實現(xiàn)[D];鄭州大學(xué);2016年

7 赫高峰;運動捕獲數(shù)據(jù)重構(gòu)及檢索關(guān)鍵技術(shù)的研究[D];華僑大學(xué);2016年

8 王健;基于單目視頻的人體運動捕獲技術(shù)研究與實現(xiàn)[D];華中科技大學(xué);2007年

9 孫軍;基于運動捕獲數(shù)據(jù)的運動混合技術(shù)研究與實現(xiàn)[D];華中科技大學(xué);2007年

10 馮鋒;人體運動捕獲數(shù)據(jù)的分割算法研究[D];南京理工大學(xué);2011年

,

本文編號:2464495

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/2464495.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶a83ee***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com