天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于RFID信號分析的非綁定式活動(dòng)識別方法研究

發(fā)布時(shí)間:2018-06-17 22:15

  本文選題:非綁定式活動(dòng)識別 + 多普勒頻移。 參考:《西北大學(xué)》2017年碩士論文


【摘要】:行為感知在健康看護(hù)、智能家居以及健身訓(xùn)練等應(yīng)用中扮演著重要角色。其中,每年室內(nèi)跌倒會(huì)造成世界上將近40萬的死亡人數(shù),因而室內(nèi)活動(dòng)識別逐漸受到學(xué)術(shù)界和工業(yè)界的密切關(guān)注。近幾年來,綁定式和非綁定式活動(dòng)識別技術(shù)層出不窮。綁定式活動(dòng)識別研究要求用戶時(shí)時(shí)刻刻攜帶可穿戴設(shè)備才能檢測日常行為,使得無需用戶攜帶任何通信設(shè)備的非綁定式活動(dòng)識別被廣泛采納和認(rèn)可。目前具有普適性的非綁定式活動(dòng)識別在實(shí)際應(yīng)用中也面臨著諸多挑戰(zhàn):不同室內(nèi)監(jiān)測環(huán)境存在不同信號反射路徑而導(dǎo)致活動(dòng)指紋無法適用于不同監(jiān)測環(huán)境,不同活動(dòng)執(zhí)行的速度和方向會(huì)降低活動(dòng)匹配準(zhǔn)確度,等等。針對以上兩大問題,本文研究基于RFID信號分析的非綁定式活動(dòng)識別方法,設(shè)計(jì)一種利用低成本設(shè)備實(shí)現(xiàn)能應(yīng)用于多個(gè)室內(nèi)監(jiān)測環(huán)境的高精度活動(dòng)識別方法。本文的主要研究內(nèi)容和創(chuàng)新點(diǎn)包括以下兩個(gè)方面:(1)從低成本、低采樣率設(shè)備中提取對多徑條件具有魯棒性的活動(dòng)指紋。利用MUSIC算法估計(jì)空間譜的思想,設(shè)計(jì)出一種時(shí)域上的頻譜估計(jì)方法,提取人活動(dòng)引起的無線信號收發(fā)設(shè)備間通信路徑長度變化速度,即多普勒頻移,建立對多徑變化不敏感的多普勒頻移指紋,有效避免了為保持活動(dòng)識別精度而針對每個(gè)監(jiān)測環(huán)境采集活動(dòng)指紋,降低人力代價(jià)。(2)設(shè)計(jì)活動(dòng)匹配算法,降低活動(dòng)速度和方向多樣性帶來的匹配誤差。通過實(shí)驗(yàn)分析,活動(dòng)執(zhí)行速度和方向多樣性會(huì)引起多普勒頻移在時(shí)間長度和幅度上的波動(dòng),本文采用DTW算法解決時(shí)間長度上的波動(dòng)帶來的匹配誤差,又進(jìn)一步改進(jìn)DTW算法,動(dòng)態(tài)調(diào)整兩個(gè)指紋波峰波谷之差所占兩條指紋差距的比例,降低多普勒頻移指紋在幅度上波動(dòng)帶來的匹配誤差。從而在訓(xùn)練一次的前提下,準(zhǔn)確識別執(zhí)行速度和方向多樣性的活動(dòng)。最后,本文利用商業(yè)RFID系統(tǒng),在三種不同典型的室內(nèi)場景(實(shí)驗(yàn)室、家庭場所、圖書館)下進(jìn)行真實(shí)實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果顯示本文方法的活動(dòng)識別準(zhǔn)確率分別為92%、93%、91%,從而驗(yàn)證了本文方法能在訓(xùn)練一次的情況下實(shí)現(xiàn)不同監(jiān)測環(huán)境中的活動(dòng)識別。
[Abstract]:Behavioral perception plays an important role in health care, smart home and fitness training. Among them, indoor falls cause nearly 400000 deaths in the world every year, so indoor activity identification has been paid close attention to by academia and industry. In recent years, binding and non-binding activity recognition techniques have emerged in endlessly. Binding activity recognition requires users to carry wearable devices all the time in order to detect daily behavior, which makes unbound activity recognition without any communication devices widely adopted and recognized. At present, there are many challenges in the practical application of universal unbound activity recognition: different signal reflection paths exist in different indoor monitoring environments, which lead to the fact that the active fingerprints can not be applied to different monitoring environments. Different activity execution speed and direction will reduce the accuracy of activity matching, and so on. Aiming at the above two problems, this paper studies the unbound activity identification method based on RFID signal analysis, and designs a high-precision activity identification method which can be used in multiple indoor monitoring environments by using low-cost equipment. The main research contents and innovations in this paper include the following two aspects: 1) extracting active fingerprints which are robust to multipath conditions from low cost and low sampling rate devices. Using music algorithm to estimate spatial spectrum, a time-domain spectrum estimation method is designed to extract the varying speed of communication path length between wireless signal transceiver devices caused by human activities, that is, Doppler frequency shift. The Doppler frequency shift fingerprint, which is insensitive to multipath change, is established, which effectively avoids the design of activity matching algorithm for each monitoring environment in order to maintain the accuracy of activity identification and reduce the human cost. Reduce the matching error caused by velocity and direction diversity. Through experimental analysis, the diversity of execution speed and direction will cause the wave of Doppler frequency shift in time length and amplitude. In this paper, DTW algorithm is used to solve the matching error caused by the fluctuation of time length, and the DTW algorithm is further improved. Dynamically adjust the proportion of the difference between two fingerprint peaks and troughs in order to reduce the matching error caused by the fluctuation of Doppler frequency shift fingerprint. In order to accurately identify the execution speed and direction of the diversity of activities under the premise of one training. Finally, this paper uses the commercial RFID system to carry out real experiments under three different typical indoor scenes (laboratory, home, library). The experimental results show that the accuracy of activity recognition of this method is 922 / 931, respectively, which verifies that the method in this paper can realize activity recognition in different monitoring environments under the condition of training once.
【學(xué)位授予單位】:西北大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2017
【分類號】:TP391.44

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 蔡翔;網(wǎng)絡(luò)非綁定的管制與創(chuàng)新[J];現(xiàn)代電信科技;2001年07期

2 李來龍,羅蔚文;非綁定DBGrid的系統(tǒng)問題及解決方法[J];計(jì)算機(jī)應(yīng)用;1999年06期

3 吳強(qiáng);楊燦群;葛振;陳娟;;使用GPU加速分子動(dòng)力學(xué)模擬中的非綁定力計(jì)算[J];計(jì)算機(jī)工程與科學(xué);2009年S1期

4 游五洋;拯救美國電信業(yè):FCC制訂非綁定網(wǎng)元新規(guī)則[J];通信世界;2003年07期

5 ;Loksak研發(fā)可阻擋RFID信號的手機(jī)袋 防止信息泄露[J];計(jì)算機(jī)光盤軟件與應(yīng)用;2013年10期

6 ;《戰(zhàn)爭世界》裝備改造系統(tǒng)詳解[J];電腦迷;2014年01期

7 ;真品三星軟驅(qū)識別方法[J];電腦迷;2004年06期

8 施水才;俞鴻魁;呂學(xué)強(qiáng);李渝勤;;基于大規(guī)模語料的新詞語識別方法[J];山東大學(xué)學(xué)報(bào)(理學(xué)版);2006年03期

9 蘇家洪;;試述人臉識別新技術(shù)及編輯識別方法[J];中國新技術(shù)新產(chǎn)品;2012年07期

10 高春庚;孫建國;;基于統(tǒng)計(jì)的人臉識別方法綜述[J];安陽工學(xué)院學(xué)報(bào);2012年04期

相關(guān)會(huì)議論文 前10條

1 溫丹輝;呂廷杰;;非綁定強(qiáng)制租用對電信業(yè)投資的影響[A];通信發(fā)展戰(zhàn)略與業(yè)務(wù)管理創(chuàng)新學(xué)術(shù)研討會(huì)論文集[C];2005年

2 李元鵬;;用于分配多種業(yè)務(wù)的非綁定網(wǎng)絡(luò)中的電纜和光纜[A];中國通信學(xué)會(huì)2003年光纜電纜學(xué)術(shù)年會(huì)論文集[C];2003年

3 鄭凱;;建立多維數(shù)據(jù)異常點(diǎn)識別方法的嘗試[A];第八屆全國體育科學(xué)大會(huì)論文摘要匯編(一)[C];2007年

4 張朋柱;韓崇昭;萬百五;;智能決策支持系統(tǒng)中的問題識別方法與實(shí)現(xiàn)[A];全國青年管理科學(xué)與系統(tǒng)科學(xué)論文集(第2卷)[C];1993年

5 劉麗蘭;劉宏昭;;時(shí)間序列模型的識別方法[A];制造技術(shù)自動(dòng)化學(xué)術(shù)會(huì)議論文集[C];2004年

6 苗振偉;許勇;楊軍;;超聲波人臉識別方法研究[A];中國聲學(xué)學(xué)會(huì)2007年青年學(xué)術(shù)會(huì)議論文集(上)[C];2007年

7 羅智勇;宋柔;荀恩東;;一種基于可信度的人名識別方法[A];第二屆全國學(xué)生計(jì)算語言學(xué)研討會(huì)論文集[C];2004年

8 張茜;鄭崢;亢一瀾;王娟;仇巍;;基于海量實(shí)測數(shù)據(jù)的反演識別方法與盾構(gòu)裝備載荷的力學(xué)建模[A];中國力學(xué)大會(huì)——2013論文摘要集[C];2013年

9 趙銳;陳光發(fā);;軍事口令識別的Fuzzy方法探討[A];第二屆全國人機(jī)語音通訊學(xué)術(shù)會(huì)議論文集[C];1992年

10 駱玉榮;劉建麗;史曉濤;;一種自動(dòng)車窗識別方法的設(shè)計(jì)與實(shí)現(xiàn)[A];計(jì)算機(jī)技術(shù)與應(yīng)用進(jìn)展·2007——全國第18屆計(jì)算機(jī)技術(shù)與應(yīng)用(CACIS)學(xué)術(shù)會(huì)議論文集[C];2007年

相關(guān)重要報(bào)紙文章 前3條

1 續(xù)俊旗 作者為信息產(chǎn)業(yè)部電信研究院高級研究員;借鑒與啟示:FCC調(diào)整規(guī)則促進(jìn)競爭[N];人民郵電;2003年

2 陳春道;甲魚優(yōu)劣及雌雄的識別方法[N];北京科技報(bào);2003年

3 龐席堂;假幣的識別方法[N];中華合作時(shí)報(bào);2003年

相關(guān)博士學(xué)位論文 前10條

1 趙國騰;跨座式單軌交通軌道梁表面裂紋識別方法研究[D];重慶大學(xué);2015年

2 徐訓(xùn);線性與非線性結(jié)構(gòu)動(dòng)力荷載識別方法及實(shí)驗(yàn)研究[D];哈爾濱工業(yè)大學(xué);2015年

3 黃仕建;視頻序列中人體行為的低秩表達(dá)與識別方法研究[D];重慶大學(xué);2015年

4 張航;基于高光譜成像技術(shù)的皮棉中地膜識別方法研究[D];中國農(nóng)業(yè)大學(xué);2016年

5 吳翔;基于機(jī)器視覺的害蟲識別方法研究[D];浙江大學(xué);2016年

6 馮佳;研究前沿識別與分析方法研究[D];吉林大學(xué);2017年

7 鄭銀河;復(fù)雜裂隙網(wǎng)絡(luò)下巖石塊體識別方法研究[D];中國地質(zhì)大學(xué)(北京);2017年

8 徐藝哲;超音速流場中多波系干擾結(jié)構(gòu)識別方法與應(yīng)用研究[D];清華大學(xué);2016年

9 張莉莉;競優(yōu)特征的群識別方法及其應(yīng)用[D];東北大學(xué);2010年

10 陳綿書;計(jì)算機(jī)人臉識別方法研究[D];吉林大學(xué);2004年

相關(guān)碩士學(xué)位論文 前10條

1 成碩;基于RFID信號維修工具管理系統(tǒng)[D];中國鐵道科學(xué)研究院;2016年

2 徐珂瓊;基于視頻的人臉識別方法研究[D];天津理工大學(xué);2015年

3 彭姣麗;針對多表情的人臉識別方法研究[D];昆明理工大學(xué);2015年

4 代秀麗;基于半監(jiān)督判別分析的人臉識別方法研究[D];深圳大學(xué);2015年

5 易磊;基于兩階段的交通標(biāo)志識別方法研究[D];南京理工大學(xué);2015年

6 李彥;基于小波變換的人臉識別方法研究[D];電子科技大學(xué);2014年

7 田曉霞;運(yùn)動(dòng)想象EEG的識別方法及在上肢康復(fù)中的應(yīng)用[D];北京工業(yè)大學(xué);2015年

8 楊俊濤;基于分?jǐn)?shù)譜時(shí)頻特征的SAR目標(biāo)檢測與識別方法研究[D];電子科技大學(xué);2014年

9 宋洪偉;基于模糊集合的漢語主觀句識別方法研究與實(shí)現(xiàn)[D];黑龍江大學(xué);2015年

10 賈博軒;基于手機(jī)傳感器的人類復(fù)雜行為識別方法的研究[D];黑龍江大學(xué);2015年



本文編號:2032633

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/2032633.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶45054***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com