基于深度學習的2D平面多人人體姿態(tài)識別
發(fā)布時間:2021-04-11 20:18
人體姿態(tài)識別技術已經(jīng)成為當今計算機視覺領域的重要研究內(nèi)容,應用場景滲透到了日常生活中的方方面面。人體姿態(tài)識別(Human Pose Recognition)是指對數(shù)字圖像或視頻中人體關鍵部位和主要關節(jié)點進行識別,是人體動作識別和行為分析的基礎與前提。人體姿態(tài)識別技術發(fā)展越來越快,但也面臨著眾多挑戰(zhàn)。例如光照條件、背景復雜、人體自身遮擋和物體間遮擋等常見情況的發(fā)生阻礙著姿態(tài)識別研究的進展;谏疃葘W習的人體姿態(tài)識別因為其堆疊的卷積神經(jīng)網(wǎng)絡對大量數(shù)據(jù)集進行提取的特征具有高度抽象性與普適性,相較于傳統(tǒng)的基于圖像結構的方法有較好的泛化性與魯棒性,應對光照條件差、背景復雜、人體部位遮擋等問題有較好的表現(xiàn),但也存在模型結構復雜、模塊相對冗余、實時性存在改進空間等面向實際應用的問題。因此,在自然環(huán)境下實現(xiàn)高精度且具有實時性的姿態(tài)識別仍面臨巨大挑戰(zhàn)。本文針對2D平面圖像與視頻中的人體姿態(tài)識別問題,提出了改進的OpenPose模型,更好地優(yōu)化了精度與實時性之間的關系,充分地發(fā)揮了殘差網(wǎng)絡作為主干網(wǎng)絡地優(yōu)勢,并通過觀察關節(jié)點運動的規(guī)律,將關節(jié)點識別結果簡單地應用于人體動作分類場景上,解決了自然圖像中的人體...
【文章來源】:天津職業(yè)技術師范大學天津市
【文章頁數(shù)】:92 頁
【學位級別】:碩士
【部分圖文】:
LSP數(shù)據(jù)集與標注信息[40]
圖2-2 表示DeepPose模型粗略識別階段,輸入圖像大小為640x450x3,DeepPose網(wǎng)絡輸入圖像尺寸因考慮到計算量問題調(diào)整為220x220x3,模型結構中以Alexnet模型為基本框架,其中藍色矩形框表示卷積層(層內(nèi)包括卷積的大小與數(shù)量,55x55x58:卷積核大小寬55高55,卷積核數(shù)量為48個),橘色矩形框表示全連接層(層內(nèi)包括神經(jīng)元個數(shù)),輸出(xi,yi)表示初始階段網(wǎng)絡預測的左手腕關節(jié)點位置。初始階段(initial stage)粗略的得到關節(jié)點的大概位置,它是基于整幅圖像進行上下文推理的。通常數(shù)據(jù)集中的圖片原始尺寸較大,所以輸入到網(wǎng)絡的時候會對圖像進行下采樣,這樣網(wǎng)絡細節(jié)提取的難度加大,優(yōu)化關節(jié)點的位置相對不夠精確。為了得到更好的精確率,作者訓練了一個級聯(lián)的姿態(tài)回歸器。圖2-3表示DeepPose模型優(yōu)化精修階段,以精修階段中的第一個階段為例,輸入圖像是初始階段的輸出圖像,使用已經(jīng)預測到的關鍵點來切出基于這個關鍵點的鄰域圖像(黃色矩形框),這個子圖像將被用于接下來的網(wǎng)絡輸入,同時將子圖重置為200x200尺寸大小使得網(wǎng)絡獲取更高分辨率的圖像,最終達到更好的精確率。模型結構與粗略識別階段相同,(xis1,yis1)表示(xi,yi)經(jīng)過放大重置后的關節(jié)點位置坐標,輸出(xire,yire)表示精修階段網(wǎng)絡預測的左手關節(jié)點位置。圖2-3 DeepPose模型優(yōu)化精修階段
圖2-2 DeepPose模型粗略識別階段步驟5. 圖2-4 表示DeepPose模型訓練過程簡述。與用于分類問題的卷積神經(jīng)網(wǎng)絡訓練過程類似,僅是將分類損失修改成回歸損失。圖中表達了粗略識別階段得到的紅色預測點,經(jīng)過優(yōu)化精修階段得到的藍色關節(jié)點,向著綠色關節(jié)點所代表的真實位置不斷靠近的過程。
【參考文獻】:
期刊論文
[1]融合HOG和顏色特征的人體姿態(tài)估計新算法[J]. 沈建冬,陳恒. 計算機工程與應用. 2017(21)
[2]基于HOG和顏色特征融合的人體姿態(tài)估計[J]. 韓貴金,朱虹. 模式識別與人工智能. 2014(09)
[3]人體動作行為識別研究綜述[J]. 李瑞峰,王亮亮,王珂. 模式識別與人工智能. 2014(01)
[4]人體步態(tài)特征生物識別方法研究[J]. 張軍. 天津工程師范學院學報. 2010(04)
[5]動作識別與行為理解綜述[J]. 徐光祐,曹媛媛. 中國圖象圖形學報. 2009(02)
博士論文
[1]人體生物特征的綜合分析與應用[D]. 劉歡喜.上海交通大學 2010
碩士論文
[1]視頻監(jiān)控中人體動作識別關鍵技術研究[D]. 渠暢.北方工業(yè)大學 2019
本文編號:3131895
【文章來源】:天津職業(yè)技術師范大學天津市
【文章頁數(shù)】:92 頁
【學位級別】:碩士
【部分圖文】:
LSP數(shù)據(jù)集與標注信息[40]
圖2-2 表示DeepPose模型粗略識別階段,輸入圖像大小為640x450x3,DeepPose網(wǎng)絡輸入圖像尺寸因考慮到計算量問題調(diào)整為220x220x3,模型結構中以Alexnet模型為基本框架,其中藍色矩形框表示卷積層(層內(nèi)包括卷積的大小與數(shù)量,55x55x58:卷積核大小寬55高55,卷積核數(shù)量為48個),橘色矩形框表示全連接層(層內(nèi)包括神經(jīng)元個數(shù)),輸出(xi,yi)表示初始階段網(wǎng)絡預測的左手腕關節(jié)點位置。初始階段(initial stage)粗略的得到關節(jié)點的大概位置,它是基于整幅圖像進行上下文推理的。通常數(shù)據(jù)集中的圖片原始尺寸較大,所以輸入到網(wǎng)絡的時候會對圖像進行下采樣,這樣網(wǎng)絡細節(jié)提取的難度加大,優(yōu)化關節(jié)點的位置相對不夠精確。為了得到更好的精確率,作者訓練了一個級聯(lián)的姿態(tài)回歸器。圖2-3表示DeepPose模型優(yōu)化精修階段,以精修階段中的第一個階段為例,輸入圖像是初始階段的輸出圖像,使用已經(jīng)預測到的關鍵點來切出基于這個關鍵點的鄰域圖像(黃色矩形框),這個子圖像將被用于接下來的網(wǎng)絡輸入,同時將子圖重置為200x200尺寸大小使得網(wǎng)絡獲取更高分辨率的圖像,最終達到更好的精確率。模型結構與粗略識別階段相同,(xis1,yis1)表示(xi,yi)經(jīng)過放大重置后的關節(jié)點位置坐標,輸出(xire,yire)表示精修階段網(wǎng)絡預測的左手關節(jié)點位置。圖2-3 DeepPose模型優(yōu)化精修階段
圖2-2 DeepPose模型粗略識別階段步驟5. 圖2-4 表示DeepPose模型訓練過程簡述。與用于分類問題的卷積神經(jīng)網(wǎng)絡訓練過程類似,僅是將分類損失修改成回歸損失。圖中表達了粗略識別階段得到的紅色預測點,經(jīng)過優(yōu)化精修階段得到的藍色關節(jié)點,向著綠色關節(jié)點所代表的真實位置不斷靠近的過程。
【參考文獻】:
期刊論文
[1]融合HOG和顏色特征的人體姿態(tài)估計新算法[J]. 沈建冬,陳恒. 計算機工程與應用. 2017(21)
[2]基于HOG和顏色特征融合的人體姿態(tài)估計[J]. 韓貴金,朱虹. 模式識別與人工智能. 2014(09)
[3]人體動作行為識別研究綜述[J]. 李瑞峰,王亮亮,王珂. 模式識別與人工智能. 2014(01)
[4]人體步態(tài)特征生物識別方法研究[J]. 張軍. 天津工程師范學院學報. 2010(04)
[5]動作識別與行為理解綜述[J]. 徐光祐,曹媛媛. 中國圖象圖形學報. 2009(02)
博士論文
[1]人體生物特征的綜合分析與應用[D]. 劉歡喜.上海交通大學 2010
碩士論文
[1]視頻監(jiān)控中人體動作識別關鍵技術研究[D]. 渠暢.北方工業(yè)大學 2019
本文編號:3131895
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3131895.html
最近更新
教材專著