機(jī)器人演示編程的示教動(dòng)作識(shí)別與定位方法研究
發(fā)布時(shí)間:2021-01-31 22:02
隨著工業(yè)機(jī)器人在工業(yè)生產(chǎn)中的大量應(yīng)用,其工作方向已從基本的機(jī)械加工和簡(jiǎn)單協(xié)助技術(shù)人員,演變成了基于人機(jī)交互作用完成不同環(huán)境下的復(fù)雜任務(wù),機(jī)器人編程技術(shù)已成研究熱點(diǎn)。論文以機(jī)器人演示編程為研究對(duì)象,針對(duì)傳統(tǒng)演示方式編程部署時(shí)間長(zhǎng)、人機(jī)交互能力差和使用門檻高等問題,以軌跡示教任務(wù)為例,研究基于手勢(shì)識(shí)別軌跡生成方法改進(jìn)及應(yīng)用,結(jié)合工業(yè)機(jī)器人和視覺傳感器,實(shí)現(xiàn)機(jī)器人與操作人員的自然交互、快速示教目的。在手勢(shì)識(shí)別方面,首先分別針對(duì)演示編程技術(shù)與基于手勢(shì)識(shí)別的人機(jī)交互技術(shù)進(jìn)行了國(guó)內(nèi)外研究調(diào)研,結(jié)合機(jī)器人的實(shí)際應(yīng)用場(chǎng)景進(jìn)行設(shè)備選擇,建立整體組織框架;其次提出了基于膚色分割與CNN結(jié)合的手勢(shì)識(shí)別方法,通過利用膚色模型提取手勢(shì)相關(guān)信息,將手勢(shì)圖片輸入RGB與YCbC混合膚色空間去除非膚色區(qū)域,再將分割得到圖像進(jìn)行腐蝕處理、擴(kuò)張?zhí)幚砗透咚篂V波以平滑噪音,以突出輪廓和邊緣,最后進(jìn)行二值化得到手勢(shì)圖像;利用Keras自建CNN模型進(jìn)行特征提取并得到手勢(shì)識(shí)別模型;在Marcel數(shù)據(jù)集上進(jìn)行驗(yàn)證實(shí)驗(yàn),并且針對(duì)開源手勢(shì)樣本,較少的情況,自行采集圖像構(gòu)建手勢(shì)樣本庫(kù)進(jìn)行訓(xùn)練與測(cè)試,通過實(shí)驗(yàn)驗(yàn)證該方法的可靠性,可用于進(jìn)行...
【文章來(lái)源】:西安建筑科技大學(xué)陜西省
【文章頁(yè)數(shù)】:73 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
演示編程系統(tǒng)的意義
穡?岢黿?丈?狽酵糩17]、LBP特征[18],圓形率和長(zhǎng)寬比、歸一化Zernike矩相結(jié)合的特征描述方法,完成目標(biāo)零件識(shí)別[19];其次當(dāng)零件放置位置與工作臺(tái)表面不存在重疊時(shí),對(duì)識(shí)別完成后的目標(biāo)零件進(jìn)行特征信息提取,基于如表面高度等先驗(yàn)信息,采用單目視覺算法完成零件定位后運(yùn)用最小面積矩形(MetalArtifactReduction,MAR)完成目標(biāo)零件位姿估計(jì)[20];對(duì)于存在裝配關(guān)系的零件,利用歸一化的相關(guān)性度量(Zero-meanNormalizedCross-Correlation,ZNCC)[21],結(jié)合匹配點(diǎn)的相對(duì)位置信息完成目標(biāo)零件位姿獲取[22]。圖1.2樂高積木組裝仿真實(shí)驗(yàn)[23]在裝配演示編程中的動(dòng)作識(shí)別方面,譽(yù)洪生針對(duì)原壓縮跟蹤中目標(biāo)尺寸和學(xué)習(xí)率均固定的問題提出了一種改進(jìn)的壓縮跟蹤算法。首先通過對(duì)目標(biāo)圖像采集不同尺度圖像以生成圖像金字塔,其次基于帶通道標(biāo)記的隨機(jī)稀疏測(cè)量矩陣提取Haar特征[24],進(jìn)而完成變尺寸的物體跟蹤;結(jié)合目標(biāo)物體顏色信息,利用計(jì)算跟蹤結(jié)果與跟蹤目標(biāo)的直方圖巴氏距離,對(duì)目標(biāo)物體遮擋情況進(jìn)行分析[25]。為進(jìn)一步實(shí)現(xiàn)實(shí)現(xiàn)連續(xù)裝配動(dòng)作分割與識(shí)別,使用基于分層模型的多特征融合裝配動(dòng)作識(shí)別方法,利用Multi-classSVM分類器實(shí)現(xiàn)了裝配動(dòng)作識(shí)別[26],將多特征融合的動(dòng)作特征描述作為識(shí)別依據(jù),利用滑動(dòng)窗口法實(shí)現(xiàn)裝配動(dòng)作分割,并基于迭代動(dòng)態(tài)規(guī)劃的方法最大化裝配動(dòng)作識(shí)別置信度總和,同時(shí)化化分割點(diǎn)位置和動(dòng)作數(shù)目[27]。
西安建筑科技大學(xué)碩士論文4在裝配演示編程中的機(jī)械臂運(yùn)動(dòng)控制方面,王浩等人通過對(duì)任務(wù)執(zhí)行過程中機(jī)械臂末端的力傳感器數(shù)據(jù)進(jìn)行收集,并利用SVM對(duì)任務(wù)執(zhí)行結(jié)果進(jìn)行預(yù)測(cè)。且為保證裝配的成功率與過程的安全性,將實(shí)驗(yàn)過程中的數(shù)據(jù)運(yùn)用高斯過程進(jìn)行建模,并對(duì)控制進(jìn)行貝葉斯優(yōu)化,在解決噪聲干擾、建模誤差的同時(shí),更好地平衡了搜索空間與搜索效率[28]。圖1.3手電筒的演示編程示意圖國(guó)外對(duì)機(jī)器人演示編程的研究十分注重,并且已經(jīng)取得了不錯(cuò)的進(jìn)展,在機(jī)器人演示編程的關(guān)鍵技術(shù)難題上都有所突破。許多高校和研究機(jī)構(gòu)都在機(jī)器人演示編程技術(shù)領(lǐng)域開展了深入的研究,如荷蘭的戴爾福特大學(xué),意大利的摩德納-雷焦·艾米里亞大學(xué),英國(guó)的埃塞克斯大學(xué)等。來(lái)自加拿大麥克馬斯特大學(xué)JineshPatel等人面向具體工業(yè)場(chǎng)景下的零件分揀,針對(duì)提高該場(chǎng)景下機(jī)器人的容錯(cuò)能力設(shè)計(jì)了示教系統(tǒng)[29]。該系統(tǒng)硬件平臺(tái)由一臺(tái)深度相機(jī)(Kinect),一臺(tái)六自由度機(jī)械臂(CRSRobotics)和一個(gè)固定在機(jī)械臂末端的電磁吸爪組成[30]。機(jī)器人的工作平臺(tái)采用泡沫板以容忍機(jī)器人在垂直方向上的定位誤差。這套演示編程系統(tǒng)的主要功能是通過人手先指向工作臺(tái)上的不同形狀的工件(螺釘、墊圈、螺母),然后再指向要將其分撿的盒子,通過視覺處理使機(jī)器人能夠自動(dòng)進(jìn)行零件的分揀工作。他們的主要工作集中在視覺處理方面的手勢(shì)識(shí)別(HandGestureRecognition,HGR)和零件識(shí)別的軟件算法上[31]。JineshPatel將實(shí)現(xiàn)零件分揀的算法任務(wù)分為兩個(gè)主要模塊,分別是示教模塊和分揀模塊,每個(gè)
【參考文獻(xiàn)】:
期刊論文
[1]基于OpenCV的智能語(yǔ)音識(shí)別分揀機(jī)器人[J]. 池佳豪,方詩(shī)鏹,黃昭,劉雪柔,胡安正. 電子制作. 2019(19)
[2]中國(guó)機(jī)器人產(chǎn)業(yè)發(fā)展報(bào)告(2019年)發(fā)布[J]. 智能機(jī)器人. 2019(04)
[3]工業(yè)機(jī)器人助力制造業(yè)轉(zhuǎn)型升級(jí)[J]. 白文亭. 電氣時(shí)代. 2018(09)
[4]基于BP神經(jīng)網(wǎng)絡(luò)的自然感彩色融合算法[J]. 何炳陽(yáng),張智詮,李強(qiáng),謝志宏. 紅外技術(shù). 2018(05)
[5]倉(cāng)儲(chǔ)領(lǐng)域機(jī)器人的技術(shù)發(fā)展與應(yīng)用[J]. 張穎川,任芳. 物流技術(shù)與應(yīng)用. 2017(09)
[6]結(jié)合膚色模型和卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別方法[J]. 王龍,劉輝,王彬,李鵬舉. 計(jì)算機(jī)工程與應(yīng)用. 2017(06)
[7]基于OpenCL的Viola-Jones人臉檢測(cè)算法性能優(yōu)化研究[J]. 賈海鵬,張?jiān)迫?袁良,李士剛. 計(jì)算機(jī)學(xué)報(bào). 2016(09)
[8]基于Haar特性的LBP紋理特征[J]. 周書仁,殷建平. 軟件學(xué)報(bào). 2013(08)
[9]基于HOG和Haar特征的行人追蹤算法研究[J]. 陸星家,陳志榮,尹天鶴,楊帆. 計(jì)算機(jī)科學(xué). 2013(S1)
[10]基于視覺權(quán)值的分塊顏色直方圖圖像檢索算法[J]. 王向陽(yáng),楊紅穎,鄭宏亮,吳俊峰. 自動(dòng)化學(xué)報(bào). 2010(10)
碩士論文
[1]面向工業(yè)裝配演示編程的機(jī)械臂運(yùn)動(dòng)控制[D]. 王浩.浙江大學(xué) 2018
[2]面向無(wú)人駕駛的高精細(xì)語(yǔ)義點(diǎn)云建圖方法研究[D]. 曹明瑋.上海交通大學(xué) 2018
[3]五金打磨機(jī)器人離線編程技術(shù)研究及應(yīng)用[D]. 劉顯明.華中科技大學(xué) 2017
[4]面向工業(yè)裝配演示編程的動(dòng)作識(shí)別[D]. 譽(yù)洪生.浙江大學(xué) 2017
[5]內(nèi)容與形式相統(tǒng)一的智能交互空間[D]. 蘇功宴.上海交通大學(xué) 2007
本文編號(hào):3011653
【文章來(lái)源】:西安建筑科技大學(xué)陜西省
【文章頁(yè)數(shù)】:73 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
演示編程系統(tǒng)的意義
穡?岢黿?丈?狽酵糩17]、LBP特征[18],圓形率和長(zhǎng)寬比、歸一化Zernike矩相結(jié)合的特征描述方法,完成目標(biāo)零件識(shí)別[19];其次當(dāng)零件放置位置與工作臺(tái)表面不存在重疊時(shí),對(duì)識(shí)別完成后的目標(biāo)零件進(jìn)行特征信息提取,基于如表面高度等先驗(yàn)信息,采用單目視覺算法完成零件定位后運(yùn)用最小面積矩形(MetalArtifactReduction,MAR)完成目標(biāo)零件位姿估計(jì)[20];對(duì)于存在裝配關(guān)系的零件,利用歸一化的相關(guān)性度量(Zero-meanNormalizedCross-Correlation,ZNCC)[21],結(jié)合匹配點(diǎn)的相對(duì)位置信息完成目標(biāo)零件位姿獲取[22]。圖1.2樂高積木組裝仿真實(shí)驗(yàn)[23]在裝配演示編程中的動(dòng)作識(shí)別方面,譽(yù)洪生針對(duì)原壓縮跟蹤中目標(biāo)尺寸和學(xué)習(xí)率均固定的問題提出了一種改進(jìn)的壓縮跟蹤算法。首先通過對(duì)目標(biāo)圖像采集不同尺度圖像以生成圖像金字塔,其次基于帶通道標(biāo)記的隨機(jī)稀疏測(cè)量矩陣提取Haar特征[24],進(jìn)而完成變尺寸的物體跟蹤;結(jié)合目標(biāo)物體顏色信息,利用計(jì)算跟蹤結(jié)果與跟蹤目標(biāo)的直方圖巴氏距離,對(duì)目標(biāo)物體遮擋情況進(jìn)行分析[25]。為進(jìn)一步實(shí)現(xiàn)實(shí)現(xiàn)連續(xù)裝配動(dòng)作分割與識(shí)別,使用基于分層模型的多特征融合裝配動(dòng)作識(shí)別方法,利用Multi-classSVM分類器實(shí)現(xiàn)了裝配動(dòng)作識(shí)別[26],將多特征融合的動(dòng)作特征描述作為識(shí)別依據(jù),利用滑動(dòng)窗口法實(shí)現(xiàn)裝配動(dòng)作分割,并基于迭代動(dòng)態(tài)規(guī)劃的方法最大化裝配動(dòng)作識(shí)別置信度總和,同時(shí)化化分割點(diǎn)位置和動(dòng)作數(shù)目[27]。
西安建筑科技大學(xué)碩士論文4在裝配演示編程中的機(jī)械臂運(yùn)動(dòng)控制方面,王浩等人通過對(duì)任務(wù)執(zhí)行過程中機(jī)械臂末端的力傳感器數(shù)據(jù)進(jìn)行收集,并利用SVM對(duì)任務(wù)執(zhí)行結(jié)果進(jìn)行預(yù)測(cè)。且為保證裝配的成功率與過程的安全性,將實(shí)驗(yàn)過程中的數(shù)據(jù)運(yùn)用高斯過程進(jìn)行建模,并對(duì)控制進(jìn)行貝葉斯優(yōu)化,在解決噪聲干擾、建模誤差的同時(shí),更好地平衡了搜索空間與搜索效率[28]。圖1.3手電筒的演示編程示意圖國(guó)外對(duì)機(jī)器人演示編程的研究十分注重,并且已經(jīng)取得了不錯(cuò)的進(jìn)展,在機(jī)器人演示編程的關(guān)鍵技術(shù)難題上都有所突破。許多高校和研究機(jī)構(gòu)都在機(jī)器人演示編程技術(shù)領(lǐng)域開展了深入的研究,如荷蘭的戴爾福特大學(xué),意大利的摩德納-雷焦·艾米里亞大學(xué),英國(guó)的埃塞克斯大學(xué)等。來(lái)自加拿大麥克馬斯特大學(xué)JineshPatel等人面向具體工業(yè)場(chǎng)景下的零件分揀,針對(duì)提高該場(chǎng)景下機(jī)器人的容錯(cuò)能力設(shè)計(jì)了示教系統(tǒng)[29]。該系統(tǒng)硬件平臺(tái)由一臺(tái)深度相機(jī)(Kinect),一臺(tái)六自由度機(jī)械臂(CRSRobotics)和一個(gè)固定在機(jī)械臂末端的電磁吸爪組成[30]。機(jī)器人的工作平臺(tái)采用泡沫板以容忍機(jī)器人在垂直方向上的定位誤差。這套演示編程系統(tǒng)的主要功能是通過人手先指向工作臺(tái)上的不同形狀的工件(螺釘、墊圈、螺母),然后再指向要將其分撿的盒子,通過視覺處理使機(jī)器人能夠自動(dòng)進(jìn)行零件的分揀工作。他們的主要工作集中在視覺處理方面的手勢(shì)識(shí)別(HandGestureRecognition,HGR)和零件識(shí)別的軟件算法上[31]。JineshPatel將實(shí)現(xiàn)零件分揀的算法任務(wù)分為兩個(gè)主要模塊,分別是示教模塊和分揀模塊,每個(gè)
【參考文獻(xiàn)】:
期刊論文
[1]基于OpenCV的智能語(yǔ)音識(shí)別分揀機(jī)器人[J]. 池佳豪,方詩(shī)鏹,黃昭,劉雪柔,胡安正. 電子制作. 2019(19)
[2]中國(guó)機(jī)器人產(chǎn)業(yè)發(fā)展報(bào)告(2019年)發(fā)布[J]. 智能機(jī)器人. 2019(04)
[3]工業(yè)機(jī)器人助力制造業(yè)轉(zhuǎn)型升級(jí)[J]. 白文亭. 電氣時(shí)代. 2018(09)
[4]基于BP神經(jīng)網(wǎng)絡(luò)的自然感彩色融合算法[J]. 何炳陽(yáng),張智詮,李強(qiáng),謝志宏. 紅外技術(shù). 2018(05)
[5]倉(cāng)儲(chǔ)領(lǐng)域機(jī)器人的技術(shù)發(fā)展與應(yīng)用[J]. 張穎川,任芳. 物流技術(shù)與應(yīng)用. 2017(09)
[6]結(jié)合膚色模型和卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別方法[J]. 王龍,劉輝,王彬,李鵬舉. 計(jì)算機(jī)工程與應(yīng)用. 2017(06)
[7]基于OpenCL的Viola-Jones人臉檢測(cè)算法性能優(yōu)化研究[J]. 賈海鵬,張?jiān)迫?袁良,李士剛. 計(jì)算機(jī)學(xué)報(bào). 2016(09)
[8]基于Haar特性的LBP紋理特征[J]. 周書仁,殷建平. 軟件學(xué)報(bào). 2013(08)
[9]基于HOG和Haar特征的行人追蹤算法研究[J]. 陸星家,陳志榮,尹天鶴,楊帆. 計(jì)算機(jī)科學(xué). 2013(S1)
[10]基于視覺權(quán)值的分塊顏色直方圖圖像檢索算法[J]. 王向陽(yáng),楊紅穎,鄭宏亮,吳俊峰. 自動(dòng)化學(xué)報(bào). 2010(10)
碩士論文
[1]面向工業(yè)裝配演示編程的機(jī)械臂運(yùn)動(dòng)控制[D]. 王浩.浙江大學(xué) 2018
[2]面向無(wú)人駕駛的高精細(xì)語(yǔ)義點(diǎn)云建圖方法研究[D]. 曹明瑋.上海交通大學(xué) 2018
[3]五金打磨機(jī)器人離線編程技術(shù)研究及應(yīng)用[D]. 劉顯明.華中科技大學(xué) 2017
[4]面向工業(yè)裝配演示編程的動(dòng)作識(shí)別[D]. 譽(yù)洪生.浙江大學(xué) 2017
[5]內(nèi)容與形式相統(tǒng)一的智能交互空間[D]. 蘇功宴.上海交通大學(xué) 2007
本文編號(hào):3011653
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3011653.html
最近更新
教材專著