融合深度學(xué)習(xí)特征的人體摔倒檢測(cè)研究
本文選題:摔倒檢測(cè) 切入點(diǎn):視頻監(jiān)控 出處:《華東師范大學(xué)》2017年碩士論文 論文類型:學(xué)位論文
【摘要】:隨著社會(huì)的發(fā)展,全球的老齡人口在不斷地增加,使老年人的醫(yī)療健康成為社會(huì)關(guān)注的問(wèn)題之一。在影響老人身體健康的問(wèn)題中,摔倒傷害所占的比率最高。本論文以深度學(xué)習(xí)為基礎(chǔ),研究日常生活中的人體摔倒檢測(cè)問(wèn)題。首先,通過(guò)比較視頻序列和圖片中的人體檢測(cè)方法,選擇前景提取法進(jìn)行運(yùn)動(dòng)人體的初始檢測(cè)。然后,融合深度學(xué)習(xí)框架提取的高維特征以及基于圖像的低維特征表示人體的運(yùn)動(dòng)狀態(tài)。對(duì)于人體摔倒的判斷,構(gòu)建級(jí)聯(lián)的支持向量機(jī)判別模型。第一層支持向量機(jī)實(shí)現(xiàn)某一時(shí)刻人體運(yùn)動(dòng)狀態(tài)的判斷,第二層支持向量機(jī)使用連續(xù)時(shí)間內(nèi)人體的運(yùn)動(dòng)狀態(tài)進(jìn)行摔倒的最終判斷。最后,根據(jù)實(shí)際生活中可能出現(xiàn)的問(wèn)題,引入人體描述符與分類器結(jié)合的檢測(cè)方式,通過(guò)PCANet和迭代梯度提升樹提高了復(fù)雜狀態(tài)下運(yùn)動(dòng)人體的檢測(cè)能力。本文的人體摔倒檢測(cè)模型在自己收集的數(shù)據(jù)集上獲得了 97%的敏感度以及95%的特異性,在公開的摔倒數(shù)據(jù)集獲得的檢測(cè)結(jié)果為93.7%的敏感度和92.0%的特異性。
[Abstract]:With the development of society, the aging population in the world is increasing, and the medical health of the elderly has become one of the social concerns. Fall injury is the highest rate. Based on deep learning, this paper studies the human fall detection in daily life. Firstly, we compare the human body detection methods in video sequences and pictures. The foreground extraction method is selected for the initial detection of moving human body. Then, the high dimensional feature extracted by the depth learning framework and the low-dimensional feature based on image represent the motion state of the human body. A cascade discriminant model of support vector machine is constructed. The first layer realizes the judgment of the human body's motion state at a certain time, the second layer uses the moving state of the human body during the continuous time to make the final judgment of falling down. Finally, According to the possible problems in real life, the method of combining human descriptors with classifiers is introduced. Through PCANet and iterative gradient lifting tree, the detection ability of moving human body in complex state is improved. In this paper, the sensitivity of 97% and the specificity of 95% are obtained on the data set collected in this paper. The results obtained in the open fall dataset were 93.7% sensitivity and 92.0% specificity.
【學(xué)位授予單位】:華東師范大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 於東軍,趙海濤,楊靜宇;人臉識(shí)別:一種基于特征融合及神經(jīng)網(wǎng)絡(luò)的方法(英文)[J];系統(tǒng)仿真學(xué)報(bào);2005年05期
2 周斌;林喜榮;賈惠波;周永冠;;量化層多生物特征融合的最佳權(quán)值[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2008年02期
3 丁寶亮;;基于局部特征融合的人臉識(shí)別研究[J];中國(guó)新技術(shù)新產(chǎn)品;2012年14期
4 劉增榮;余雪麗;李志;;基于特征融合的圖像情感語(yǔ)義識(shí)別研究[J];太原理工大學(xué)學(xué)報(bào);2012年05期
5 黃雙萍;俞龍;衛(wèi)曉欣;;一種異質(zhì)特征融合分類算法[J];電子技術(shù)與軟件工程;2013年02期
6 劉冰;羅熊;劉華平;孫富春;;光學(xué)與深度特征融合在機(jī)器人場(chǎng)景定位中的應(yīng)用[J];東南大學(xué)學(xué)報(bào)(自然科學(xué)版);2013年S1期
7 卞志國(guó);金立左;費(fèi)樹岷;;特征融合與視覺目標(biāo)跟蹤[J];計(jì)算機(jī)應(yīng)用研究;2010年04期
8 韓萍;徐建龍;吳仁彪;;一種新的目標(biāo)跟蹤特征融合方法[J];中國(guó)民航大學(xué)學(xué)報(bào);2010年04期
9 何賢江;何維維;左航;;一種句詞五特征融合模型的復(fù)述研究[J];四川大學(xué)學(xué)報(bào)(工程科學(xué)版);2012年06期
10 劉冬梅;;基于特征融合的人臉識(shí)別[J];計(jì)算機(jī)光盤軟件與應(yīng)用;2013年12期
相關(guān)會(huì)議論文 前7條
1 劉冰;羅熊;劉華平;孫富春;;光學(xué)與深度特征融合在機(jī)器人場(chǎng)景定位中的應(yīng)用[A];2013年中國(guó)智能自動(dòng)化學(xué)術(shù)會(huì)議論文集(第三分冊(cè))[C];2013年
2 翟懿奎;甘俊英;曾軍英;;基于特征融合與支持向量機(jī)的偽裝人臉識(shí)別[A];第六屆全國(guó)信號(hào)和智能信息處理與應(yīng)用學(xué)術(shù)會(huì)議論文集[C];2012年
3 卞志國(guó);金立左;費(fèi)樹岷;;基于增量判別分析的特征融合與視覺目標(biāo)跟蹤[A];2009年中國(guó)智能自動(dòng)化會(huì)議論文集(第三分冊(cè))[C];2009年
4 韓文靜;李海峰;韓紀(jì)慶;;基于長(zhǎng)短時(shí)特征融合的語(yǔ)音情感識(shí)別方法研究[A];第九屆全國(guó)人機(jī)語(yǔ)音通訊學(xué)術(shù)會(huì)議論文集[C];2007年
5 羅昕煒;方世良;;寬帶調(diào)制信號(hào)特征融合方法[A];中國(guó)聲學(xué)學(xué)會(huì)水聲學(xué)分會(huì)2013年全國(guó)水聲學(xué)學(xué)術(shù)會(huì)議論文集[C];2013年
6 金挺;周付根;白相志;;一種簡(jiǎn)單有效的特征融合粒子濾波跟蹤算法[A];2007年光電探測(cè)與制導(dǎo)技術(shù)的發(fā)展與應(yīng)用研討會(huì)論文集[C];2007年
7 孟凡潔;孔祥維;尤新剛;;基于特征融合的相機(jī)來(lái)源認(rèn)證方法[A];全國(guó)第一屆信號(hào)處理學(xué)術(shù)會(huì)議暨中國(guó)高科技產(chǎn)業(yè)化研究會(huì)信號(hào)處理分會(huì)籌備工作委員會(huì)第三次工作會(huì)議?痆C];2007年
相關(guān)博士學(xué)位論文 前10條
1 周斌;多生物特征融合理論的研究與實(shí)驗(yàn)[D];清華大學(xué);2007年
2 彭偉民;特征數(shù)據(jù)的量子表示與融合方法[D];華南理工大學(xué);2013年
3 陳倩;多生物特征融合身份識(shí)別研究[D];浙江大學(xué);2007年
4 蒲曉蓉;多模態(tài)生物特征融合的神經(jīng)網(wǎng)絡(luò)方法[D];電子科技大學(xué);2007年
5 王志芳;基于感知信息的多模態(tài)生物特征融合技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2009年
6 王楠;基于多視覺特征融合的后方車輛檢測(cè)技術(shù)研究[D];東北大學(xué) ;2009年
7 徐穎;基于特征融合與仿生模式的生物特征識(shí)別研究[D];華南理工大學(xué);2013年
8 樊國(guó)梁;基于多類特征融合的蛋白質(zhì)亞線粒體定位預(yù)測(cè)研究[D];內(nèi)蒙古大學(xué);2013年
9 劉金梅;多源遙感影像融合及其應(yīng)用研究[D];中國(guó)海洋大學(xué);2014年
10 張艷;基于柔性陣列 傳感器的足跡特征分析與應(yīng)用研究[D];安徽大學(xué);2015年
相關(guān)碩士學(xué)位論文 前10條
1 付艷紅;基于特征融合的人臉識(shí)別算法研究與實(shí)現(xiàn)[D];天津理工大學(xué);2015年
2 許超;基于特征融合與壓縮感知的實(shí)木地板缺陷檢測(cè)方法研究[D];東北林業(yè)大學(xué);2015年
3 楊文婷;基于微博的情感分析算法研究與實(shí)現(xiàn)[D];西南交通大學(xué);2015年
4 梅尚健;基于特征融合的圖像檢索研究與實(shí)現(xiàn)[D];西南交通大學(xué);2015年
5 王鵬飛;基于多慢特征融合的人體行為識(shí)別研究[D];西南大學(xué);2015年
6 丁倩;基于語(yǔ)音信息的多特征情緒識(shí)別算法研究[D];山東大學(xué);2015年
7 薛冰霞;基于多模特征融合的人體跌倒檢測(cè)算法研究[D];山東大學(xué);2015年
8 何樂(lè)樂(lè);醫(yī)學(xué)圖像分類中的特征融合與特征學(xué)習(xí)研究[D];電子科技大學(xué);2015年
9 戴博;基于結(jié)構(gòu)復(fù)雜度特征融合的視覺注意模型研究及其應(yīng)用[D];復(fù)旦大學(xué);2014年
10 王寧;基于特征融合的人臉識(shí)別算法[D];東北大學(xué);2013年
,本文編號(hào):1609128
本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/1609128.html