【摘要】:近年來(lái),機(jī)器人成為各國(guó)的研究熱點(diǎn),被廣泛應(yīng)用于安防、娛樂(lè)、教育和工業(yè)等領(lǐng)域,其人機(jī)交互方式也在不斷更新。自2010年微軟推出Kinect體感組件,非接觸式人機(jī)交互技術(shù)逐漸興起并被廣泛地應(yīng)用于各種機(jī)器人控制領(lǐng)域。本文基于Kinect2.0開(kāi)發(fā)設(shè)計(jì)了一款基于手勢(shì)控制的移動(dòng)機(jī)器人,并重點(diǎn)研究了手勢(shì)交互控制技術(shù),其中包括:手勢(shì)定義、手勢(shì)獲取、手勢(shì)預(yù)處理以及手勢(shì)識(shí)別。該機(jī)器人具備通過(guò)識(shí)別手勢(shì)做出相應(yīng)動(dòng)作,并可以在室內(nèi)全方位移動(dòng)、自主躲避障礙和檢測(cè)自身運(yùn)動(dòng)狀態(tài)等功能,為室內(nèi)服務(wù)機(jī)器人的設(shè)計(jì)與實(shí)現(xiàn)奠定了基礎(chǔ)。該機(jī)器人具有廣泛的應(yīng)用前景,未來(lái)可用于輔助老年人、殘疾人的日常生活,改善他們的生活質(zhì)量,也可以用于商業(yè)服務(wù)領(lǐng)域。整個(gè)機(jī)器人系統(tǒng)主要分為下位機(jī)和上位機(jī)兩部分。下位機(jī)采用STM32F103ZET6為主控制器,外部連接6個(gè)超聲傳感器和1個(gè)MPU9250傳感器,下位機(jī)的功能是接收上位機(jī)命令,并根據(jù)命令完成相應(yīng)動(dòng)作。同時(shí),下位機(jī)具有自主避障和自身運(yùn)動(dòng)狀態(tài)檢測(cè)功能。上位機(jī)由安裝了Windows8.1系統(tǒng)的i7雙核工控機(jī)和Kinect2.0組成,主要用于完成視頻信號(hào)的采集、手勢(shì)識(shí)別與處理,并形成命令發(fā)送給下位機(jī),上位機(jī)還可以讀取下位機(jī)狀態(tài)。上位機(jī)和下位機(jī)通過(guò)RS232接口進(jìn)行信息交換。Kinect2.0可以獲取彩色圖像數(shù)據(jù)、深度圖像數(shù)據(jù)和人體骨骼數(shù)據(jù),其獲取的深度圖像不受光照、紋理影響,魯棒性好;其獲取的人體骨骼數(shù)據(jù)包括人體25個(gè)骨骼節(jié)點(diǎn),在人體大部分出現(xiàn)在視野前方的情況下,具有鎖定骨骼位置準(zhǔn)確、獲取骨骼節(jié)點(diǎn)速度快、跟蹤效果好等優(yōu)點(diǎn)。因此,本文重點(diǎn)研究了基于深度圖像進(jìn)行手勢(shì)識(shí)別的方法。在該方法中,首先通過(guò)骨骼數(shù)據(jù)快速鎖定手部圖像;然后提出一種基于雙閾值(一個(gè)為固定閾值,一個(gè)為動(dòng)態(tài)閾值)的圖像差分方法用于將背景與手分離,從而提取手部二值化圖像;最后,采用指尖點(diǎn)計(jì)數(shù)的方法進(jìn)行基于手指數(shù)量的手勢(shì)識(shí)別。本文基于Visual Studio 2012的開(kāi)發(fā)環(huán)境、開(kāi)源計(jì)算機(jī)視覺(jué)庫(kù)OpenCV3.0和Kinect2.0類庫(kù)采用,C++語(yǔ)言開(kāi)發(fā)了上位機(jī)軟件,在Keil4開(kāi)發(fā)環(huán)境下開(kāi)發(fā)了下位機(jī)軟件。經(jīng)過(guò)測(cè)試,整個(gè)系統(tǒng)能夠相對(duì)準(zhǔn)確地識(shí)別6種右手手勢(shì),并根據(jù)手勢(shì)命令做出相應(yīng)動(dòng)作。測(cè)試結(jié)果表明,手勢(shì)命令平均識(shí)別率為92.5%。該系統(tǒng)也可以識(shí)別左手手勢(shì),通過(guò)左右手手勢(shì)的組合,可以擴(kuò)展更多的手勢(shì)用于人機(jī)交互。
[Abstract]:......
【學(xué)位授予單位】:東北師范大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP391.41;TP242
【參考文獻(xiàn)】
相關(guān)期刊論文 前10條
1 易靖國(guó);程江華;庫(kù)錫樹(shù);;視覺(jué)手勢(shì)識(shí)別綜述[J];計(jì)算機(jī)科學(xué);2016年S1期
2 張文前;;智能移動(dòng)機(jī)器人技術(shù)現(xiàn)狀及展望[J];電子技術(shù)與軟件工程;2016年08期
3 李昕迪;朱國(guó)強(qiáng);;基于Kinect的人體姿勢(shì)識(shí)別算法與實(shí)現(xiàn)[J];自動(dòng)化技術(shù)與應(yīng)用;2016年02期
4 劉春陽(yáng);徐軍領(lǐng);程洪濤;王東方;薛玉君;;MPU9250傳感器的姿態(tài)檢測(cè)與數(shù)據(jù)融合[J];河南科技大學(xué)學(xué)報(bào)(自然科學(xué)版);2015年04期
5 蔡娟;蔡堅(jiān)勇;廖曉東;黃海濤;丁僑俊;;基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別初探[J];計(jì)算機(jī)系統(tǒng)應(yīng)用;2015年04期
6 顧德;李吉;;基于深度信息的指尖追蹤及手勢(shì)識(shí)別[J];計(jì)算機(jī)工程與應(yīng)用;2015年07期
7 鄭偉;林山君;陳凱;;中國(guó)人口老齡化的特征趨勢(shì)及對(duì)經(jīng)濟(jì)增長(zhǎng)的潛在影響[J];數(shù)量經(jīng)濟(jì)技術(shù)經(jīng)濟(jì)研究;2014年08期
8 史恩秀;陳敏敏;李俊;黃玉美;;基于蟻群算法的移動(dòng)機(jī)器人全局路徑規(guī)劃方法研究[J];農(nóng)業(yè)機(jī)械學(xué)報(bào);2014年06期
9 林水強(qiáng);吳亞?wèn)|;陳永輝;;基于幾何特征的手勢(shì)識(shí)別方法[J];計(jì)算機(jī)工程與設(shè)計(jì);2014年02期
10 胡瓊;秦磊;黃慶明;;基于視覺(jué)的人體動(dòng)作識(shí)別綜述[J];計(jì)算機(jī)學(xué)報(bào);2013年12期
相關(guān)碩士學(xué)位論文 前7條
1 曹海波;基于Kinect深度信息的靜態(tài)手勢(shì)識(shí)別方法研究[D];山東大學(xué);2016年
2 談家譜;基于指尖信息的手勢(shì)識(shí)別與人機(jī)交互應(yīng)用研究[D];北京交通大學(xué);2016年
3 王松林;基于Kinect的手勢(shì)識(shí)別與機(jī)器人控制技術(shù)研究[D];北京交通大學(xué);2014年
4 鄭斌玨;基于Kinect深度信息的手勢(shì)識(shí)別[D];杭州電子科技大學(xué);2014年
5 彭朔;基于神經(jīng)網(wǎng)絡(luò)的核電站檢修機(jī)器人的智能控制研究[D];華北電力大學(xué)(北京);2010年
6 程文山;基于膚色分割和Camshift的手勢(shì)識(shí)別研究[D];華中師范大學(xué);2009年
7 張輝;非完整性移動(dòng)機(jī)器人體系結(jié)構(gòu)設(shè)計(jì)與軌跡跟蹤控制研究[D];湖南大學(xué);2007年
,
本文編號(hào):
2469025
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2469025.html