可視機(jī)械臂的目標(biāo)識(shí)別與定位研究
發(fā)布時(shí)間:2022-02-11 10:12
近年來(lái),機(jī)械臂技術(shù)在各個(gè)領(lǐng)域應(yīng)用的越來(lái)越廣泛。但是現(xiàn)有的果園采摘機(jī)械臂、工業(yè)生產(chǎn)機(jī)械臂等存在許多弊端。例如,有些機(jī)械臂配備較為落后的視覺(jué)系統(tǒng),甚至沒(méi)有應(yīng)用視覺(jué)系統(tǒng),這些問(wèn)題阻礙著機(jī)械臂的發(fā)展和應(yīng)用。在實(shí)際應(yīng)用中如何能增強(qiáng)機(jī)械臂系統(tǒng)的識(shí)別與定位能力、完成復(fù)雜任務(wù)的能力就成為了改進(jìn)機(jī)械臂系統(tǒng)的關(guān)鍵問(wèn)題。針對(duì)機(jī)械臂系統(tǒng)識(shí)別與定位能力的不足本文進(jìn)行如下研究:目前,視覺(jué)系統(tǒng)與機(jī)械臂系統(tǒng)的傳統(tǒng)結(jié)合方式是將相機(jī)固定在一端進(jìn)行識(shí)別與定位,由另一端的機(jī)械臂完成抓取任務(wù)。這樣的設(shè)計(jì)方法具有局限性,抓取的物體要根據(jù)相機(jī)的位置而固定。本文為了改善這種弊端,提出一種將深度相機(jī)固定在機(jī)械臂末端的識(shí)別與定位系統(tǒng),這種搭建方式可以根據(jù)目標(biāo)擺放角度的不同進(jìn)行多次、多角度的識(shí)別和定位,增加了系統(tǒng)的泛化能力和實(shí)用性。在識(shí)別方面,深度學(xué)習(xí)算法比基于特征匹配的傳統(tǒng)算法識(shí)別更加準(zhǔn)確。所以本文提出將深度學(xué)習(xí)中的YOLO v3算法應(yīng)用在系統(tǒng)中,并針對(duì)算法對(duì)小目標(biāo)的識(shí)別不夠精準(zhǔn)、識(shí)別框回歸不準(zhǔn)確的問(wèn)題做出改進(jìn)。本文減少了YOLO v3基礎(chǔ)網(wǎng)絡(luò)的層數(shù),同時(shí)增加了多尺度特征提取結(jié)構(gòu),采用卷積核大小為(1×1)、(1×1+3×3)、(1×1...
【文章來(lái)源】:長(zhǎng)春理工大學(xué)吉林省
【文章頁(yè)數(shù)】:76 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
HERB機(jī)器人在美國(guó)的波士頓大學(xué),Andreas等人運(yùn)用3D點(diǎn)云算法和人工智能算法相結(jié)合的方
第1章緒論21.2國(guó)內(nèi)外研究現(xiàn)狀1.2.1國(guó)外研究現(xiàn)狀機(jī)械臂與機(jī)器視覺(jué)相結(jié)合的研究方式最早出現(xiàn)在上個(gè)世紀(jì)90年代,首次將視覺(jué)與機(jī)械臂結(jié)合的應(yīng)用是在1991年,由Herve等人實(shí)現(xiàn)了將傳感信息從圖像空間直接映射到機(jī)械臂空間的控制方法[6]。而后在1995年,由Yoshimi等人使用無(wú)標(biāo)定視覺(jué)的方式完成了視覺(jué)孔軸的裝備任務(wù)[7]。隨后數(shù)十年技術(shù)不斷成熟,將機(jī)械臂與視覺(jué)結(jié)合應(yīng)用成為了機(jī)械臂技術(shù)發(fā)展的熱點(diǎn)方向。HERB(HomeExploringRoboticButler)機(jī)器人是美國(guó)卡耐基梅隆大學(xué)某團(tuán)隊(duì)的研究成果,如圖1.1所示。機(jī)器人具備彩色視頻傳感器、深度傳感器等視覺(jué)傳感器。針對(duì)視覺(jué)與機(jī)械臂的結(jié)合,Berenson的團(tuán)隊(duì)[8]對(duì)其進(jìn)行二次開發(fā),采用為機(jī)器人建立一個(gè)存儲(chǔ)大量3D模型的數(shù)據(jù)庫(kù),通過(guò)機(jī)器人拍攝目標(biāo)的RGB圖像,使用SIFT算法與數(shù)據(jù)庫(kù)中的模型進(jìn)行特征匹配,匹配成功則完成目標(biāo)的識(shí)別和定位任務(wù)。圖1.1HERB機(jī)器人在美國(guó)的波士頓大學(xué),Andreas等人運(yùn)用3D點(diǎn)云算法和人工智能算法相結(jié)合的方式完成機(jī)械臂的識(shí)別與定位任務(wù),如圖1.2所示。首先,將視覺(jué)傳感器拍攝的目標(biāo)的RGB圖像或者點(diǎn)云圖像作為系統(tǒng)的輸入,經(jīng)過(guò)算法處理生成大量的候選抓取位置,然后系統(tǒng)對(duì)候選抓取位置進(jìn)行評(píng)估,最終得到可行的抓取位置,最后完成抓取任務(wù)。圖1.2Andreas等人的實(shí)驗(yàn)平臺(tái)最為著名的是美國(guó)WillowGarage公司研制的PR2(PersonalRobot2)機(jī)器人,
第1章緒論3主要是由視覺(jué)系統(tǒng)、機(jī)械臂系統(tǒng)和底盤組成,如圖1.3所示。其在頭部配備了視覺(jué)傳感器、激光傳感器和RGB-D傳感器。同時(shí),機(jī)器人具有兩個(gè)七自由度的機(jī)械臂和一個(gè)全方位移動(dòng)底盤。機(jī)器人的主要任務(wù)是完成目標(biāo)的識(shí)別、定位與抓取任務(wù),為家庭服務(wù)提供極大的便利。圖1.3PersonalRobot2機(jī)器人由于PR2機(jī)器人在視覺(jué)與機(jī)械臂結(jié)合方面的出色表現(xiàn),加州大學(xué)伯克利分校的Levine等人首次提出將強(qiáng)化學(xué)習(xí)算法等人工智能技術(shù)應(yīng)用在PR2機(jī)器人上[9]。他的團(tuán)隊(duì)使用策略搜索算法學(xué)習(xí)一些不同的抓取姿態(tài)和運(yùn)動(dòng)軌跡,使機(jī)器人能夠適應(yīng)更復(fù)雜的工作環(huán)境。如圖1.4所示。圖1.4PR2機(jī)器人實(shí)驗(yàn)平臺(tái)1.2.2國(guó)內(nèi)研究現(xiàn)狀由于國(guó)內(nèi)的機(jī)械臂技術(shù)起步較晚,所以國(guó)內(nèi)關(guān)于機(jī)械臂與機(jī)器視覺(jué)的研究無(wú)論是從應(yīng)用、研發(fā)等方面都比美國(guó)、日本、歐洲這些在機(jī)械臂技術(shù)發(fā)達(dá)的國(guó)家略有差距。但是隨著我國(guó)對(duì)于機(jī)械臂技術(shù)研究的重視程度越來(lái)越高,同時(shí)為了響應(yīng)國(guó)家的“863計(jì)劃[10]”,我國(guó)的自動(dòng)化研究所、哈爾濱工業(yè)大學(xué)等許多高校開始對(duì)機(jī)器人領(lǐng)域進(jìn)行探索,隨后便涌現(xiàn)出許多優(yōu)秀的研究成果。在2005年,我國(guó)醫(yī)療領(lǐng)域使用機(jī)器人是由東北大學(xué)的潘峰等人開創(chuàng)的,他的團(tuán)隊(duì)使用機(jī)器視覺(jué)與機(jī)械臂相結(jié)合的方式完成腦外科手術(shù)[11],與傳統(tǒng)的手術(shù)相比其能夠通過(guò)計(jì)算機(jī)和機(jī)械臂的幫助降低手術(shù)風(fēng)險(xiǎn)。其系統(tǒng)包括有計(jì)算機(jī)輔助規(guī)劃和引導(dǎo)系統(tǒng)、機(jī)器人和控制系統(tǒng)、機(jī)器視覺(jué)系統(tǒng)以及患者系統(tǒng)等四部分。整個(gè)手術(shù)過(guò)程是由視覺(jué)系統(tǒng)根據(jù)患者的情況在患者頭顱上定位四個(gè)標(biāo)記,將機(jī)械臂的末端也固定上兩個(gè)標(biāo)
【參考文獻(xiàn)】:
期刊論文
[1]工業(yè)機(jī)器人的應(yīng)用現(xiàn)狀及發(fā)展[J]. 樸圣艮. 農(nóng)家參謀. 2019(23)
[2]養(yǎng)老服務(wù)機(jī)器人現(xiàn)狀及其發(fā)展建議[J]. 趙雅婷,趙韓,梁昌勇,孫浩,吳其林. 機(jī)械工程學(xué)報(bào). 2019(23)
[3]一種協(xié)作型機(jī)器人運(yùn)動(dòng)性能分析與仿真[J]. 胡明偉,王洪光,潘新安,田勇,常勇. 智能系統(tǒng)學(xué)報(bào). 2017(01)
[4]全面認(rèn)識(shí)互聯(lián)網(wǎng)+,大力推進(jìn)智能制造[J]. 楊海成. 機(jī)器人技術(shù)與應(yīng)用. 2015(04)
[5]《中國(guó)制造2025》推動(dòng)機(jī)器人發(fā)展[J]. 機(jī)器人技術(shù)與應(yīng)用. 2015(03)
[6]空間機(jī)械臂技術(shù)及發(fā)展建議[J]. 于登云,孫京,馬興瑞. 航天器工程. 2007(04)
[7]視覺(jué)定位腦外科手術(shù)機(jī)器人系統(tǒng)的坐標(biāo)映射[J]. 潘峰,武威,楊軼璐,徐心和. 東北大學(xué)學(xué)報(bào). 2005(05)
[8]國(guó)家863計(jì)劃新一代信息網(wǎng)絡(luò)研究的部署[J]. 趙慧玲. 電信技術(shù). 2003(06)
博士論文
[1]在軌服務(wù)空間機(jī)械臂運(yùn)動(dòng)及任務(wù)規(guī)劃方法研究[D]. 曾岑.大連理工大學(xué) 2013
碩士論文
[1]基于裝配機(jī)器人雙目視覺(jué)系統(tǒng)的障礙物三維重建研究[D]. 傅豪.西安理工大學(xué) 2018
[2]基于快速SSD深度學(xué)習(xí)算法的機(jī)器人抓取系統(tǒng)研究[D]. 王欣.武漢科技大學(xué) 2018
[3]基于SSD物體檢測(cè)技術(shù)的機(jī)器人抓取系統(tǒng)研究[D]. 李亞男.吉林大學(xué) 2018
[4]采摘機(jī)器人目標(biāo)識(shí)別及定位研究[D]. 王偉斌.西安理工大學(xué) 2017
[5]基于視覺(jué)感知的機(jī)械臂運(yùn)動(dòng)控制研究[D]. 劉詩(shī)釗.蘭州理工大學(xué) 2017
[6]6R機(jī)器人的運(yùn)動(dòng)規(guī)劃與仿真研究[D]. 王鵬.北京郵電大學(xué) 2017
[7]基于雙目視覺(jué)的伺服機(jī)械臂運(yùn)動(dòng)控制研究[D]. 于灝洋.大連理工大學(xué) 2016
[8]基于雙目立體視覺(jué)的工業(yè)機(jī)器人目標(biāo)識(shí)別及定位研究[D]. 聶春鵬.長(zhǎng)安大學(xué) 2015
本文編號(hào):3620092
【文章來(lái)源】:長(zhǎng)春理工大學(xué)吉林省
【文章頁(yè)數(shù)】:76 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
HERB機(jī)器人在美國(guó)的波士頓大學(xué),Andreas等人運(yùn)用3D點(diǎn)云算法和人工智能算法相結(jié)合的方
第1章緒論21.2國(guó)內(nèi)外研究現(xiàn)狀1.2.1國(guó)外研究現(xiàn)狀機(jī)械臂與機(jī)器視覺(jué)相結(jié)合的研究方式最早出現(xiàn)在上個(gè)世紀(jì)90年代,首次將視覺(jué)與機(jī)械臂結(jié)合的應(yīng)用是在1991年,由Herve等人實(shí)現(xiàn)了將傳感信息從圖像空間直接映射到機(jī)械臂空間的控制方法[6]。而后在1995年,由Yoshimi等人使用無(wú)標(biāo)定視覺(jué)的方式完成了視覺(jué)孔軸的裝備任務(wù)[7]。隨后數(shù)十年技術(shù)不斷成熟,將機(jī)械臂與視覺(jué)結(jié)合應(yīng)用成為了機(jī)械臂技術(shù)發(fā)展的熱點(diǎn)方向。HERB(HomeExploringRoboticButler)機(jī)器人是美國(guó)卡耐基梅隆大學(xué)某團(tuán)隊(duì)的研究成果,如圖1.1所示。機(jī)器人具備彩色視頻傳感器、深度傳感器等視覺(jué)傳感器。針對(duì)視覺(jué)與機(jī)械臂的結(jié)合,Berenson的團(tuán)隊(duì)[8]對(duì)其進(jìn)行二次開發(fā),采用為機(jī)器人建立一個(gè)存儲(chǔ)大量3D模型的數(shù)據(jù)庫(kù),通過(guò)機(jī)器人拍攝目標(biāo)的RGB圖像,使用SIFT算法與數(shù)據(jù)庫(kù)中的模型進(jìn)行特征匹配,匹配成功則完成目標(biāo)的識(shí)別和定位任務(wù)。圖1.1HERB機(jī)器人在美國(guó)的波士頓大學(xué),Andreas等人運(yùn)用3D點(diǎn)云算法和人工智能算法相結(jié)合的方式完成機(jī)械臂的識(shí)別與定位任務(wù),如圖1.2所示。首先,將視覺(jué)傳感器拍攝的目標(biāo)的RGB圖像或者點(diǎn)云圖像作為系統(tǒng)的輸入,經(jīng)過(guò)算法處理生成大量的候選抓取位置,然后系統(tǒng)對(duì)候選抓取位置進(jìn)行評(píng)估,最終得到可行的抓取位置,最后完成抓取任務(wù)。圖1.2Andreas等人的實(shí)驗(yàn)平臺(tái)最為著名的是美國(guó)WillowGarage公司研制的PR2(PersonalRobot2)機(jī)器人,
第1章緒論3主要是由視覺(jué)系統(tǒng)、機(jī)械臂系統(tǒng)和底盤組成,如圖1.3所示。其在頭部配備了視覺(jué)傳感器、激光傳感器和RGB-D傳感器。同時(shí),機(jī)器人具有兩個(gè)七自由度的機(jī)械臂和一個(gè)全方位移動(dòng)底盤。機(jī)器人的主要任務(wù)是完成目標(biāo)的識(shí)別、定位與抓取任務(wù),為家庭服務(wù)提供極大的便利。圖1.3PersonalRobot2機(jī)器人由于PR2機(jī)器人在視覺(jué)與機(jī)械臂結(jié)合方面的出色表現(xiàn),加州大學(xué)伯克利分校的Levine等人首次提出將強(qiáng)化學(xué)習(xí)算法等人工智能技術(shù)應(yīng)用在PR2機(jī)器人上[9]。他的團(tuán)隊(duì)使用策略搜索算法學(xué)習(xí)一些不同的抓取姿態(tài)和運(yùn)動(dòng)軌跡,使機(jī)器人能夠適應(yīng)更復(fù)雜的工作環(huán)境。如圖1.4所示。圖1.4PR2機(jī)器人實(shí)驗(yàn)平臺(tái)1.2.2國(guó)內(nèi)研究現(xiàn)狀由于國(guó)內(nèi)的機(jī)械臂技術(shù)起步較晚,所以國(guó)內(nèi)關(guān)于機(jī)械臂與機(jī)器視覺(jué)的研究無(wú)論是從應(yīng)用、研發(fā)等方面都比美國(guó)、日本、歐洲這些在機(jī)械臂技術(shù)發(fā)達(dá)的國(guó)家略有差距。但是隨著我國(guó)對(duì)于機(jī)械臂技術(shù)研究的重視程度越來(lái)越高,同時(shí)為了響應(yīng)國(guó)家的“863計(jì)劃[10]”,我國(guó)的自動(dòng)化研究所、哈爾濱工業(yè)大學(xué)等許多高校開始對(duì)機(jī)器人領(lǐng)域進(jìn)行探索,隨后便涌現(xiàn)出許多優(yōu)秀的研究成果。在2005年,我國(guó)醫(yī)療領(lǐng)域使用機(jī)器人是由東北大學(xué)的潘峰等人開創(chuàng)的,他的團(tuán)隊(duì)使用機(jī)器視覺(jué)與機(jī)械臂相結(jié)合的方式完成腦外科手術(shù)[11],與傳統(tǒng)的手術(shù)相比其能夠通過(guò)計(jì)算機(jī)和機(jī)械臂的幫助降低手術(shù)風(fēng)險(xiǎn)。其系統(tǒng)包括有計(jì)算機(jī)輔助規(guī)劃和引導(dǎo)系統(tǒng)、機(jī)器人和控制系統(tǒng)、機(jī)器視覺(jué)系統(tǒng)以及患者系統(tǒng)等四部分。整個(gè)手術(shù)過(guò)程是由視覺(jué)系統(tǒng)根據(jù)患者的情況在患者頭顱上定位四個(gè)標(biāo)記,將機(jī)械臂的末端也固定上兩個(gè)標(biāo)
【參考文獻(xiàn)】:
期刊論文
[1]工業(yè)機(jī)器人的應(yīng)用現(xiàn)狀及發(fā)展[J]. 樸圣艮. 農(nóng)家參謀. 2019(23)
[2]養(yǎng)老服務(wù)機(jī)器人現(xiàn)狀及其發(fā)展建議[J]. 趙雅婷,趙韓,梁昌勇,孫浩,吳其林. 機(jī)械工程學(xué)報(bào). 2019(23)
[3]一種協(xié)作型機(jī)器人運(yùn)動(dòng)性能分析與仿真[J]. 胡明偉,王洪光,潘新安,田勇,常勇. 智能系統(tǒng)學(xué)報(bào). 2017(01)
[4]全面認(rèn)識(shí)互聯(lián)網(wǎng)+,大力推進(jìn)智能制造[J]. 楊海成. 機(jī)器人技術(shù)與應(yīng)用. 2015(04)
[5]《中國(guó)制造2025》推動(dòng)機(jī)器人發(fā)展[J]. 機(jī)器人技術(shù)與應(yīng)用. 2015(03)
[6]空間機(jī)械臂技術(shù)及發(fā)展建議[J]. 于登云,孫京,馬興瑞. 航天器工程. 2007(04)
[7]視覺(jué)定位腦外科手術(shù)機(jī)器人系統(tǒng)的坐標(biāo)映射[J]. 潘峰,武威,楊軼璐,徐心和. 東北大學(xué)學(xué)報(bào). 2005(05)
[8]國(guó)家863計(jì)劃新一代信息網(wǎng)絡(luò)研究的部署[J]. 趙慧玲. 電信技術(shù). 2003(06)
博士論文
[1]在軌服務(wù)空間機(jī)械臂運(yùn)動(dòng)及任務(wù)規(guī)劃方法研究[D]. 曾岑.大連理工大學(xué) 2013
碩士論文
[1]基于裝配機(jī)器人雙目視覺(jué)系統(tǒng)的障礙物三維重建研究[D]. 傅豪.西安理工大學(xué) 2018
[2]基于快速SSD深度學(xué)習(xí)算法的機(jī)器人抓取系統(tǒng)研究[D]. 王欣.武漢科技大學(xué) 2018
[3]基于SSD物體檢測(cè)技術(shù)的機(jī)器人抓取系統(tǒng)研究[D]. 李亞男.吉林大學(xué) 2018
[4]采摘機(jī)器人目標(biāo)識(shí)別及定位研究[D]. 王偉斌.西安理工大學(xué) 2017
[5]基于視覺(jué)感知的機(jī)械臂運(yùn)動(dòng)控制研究[D]. 劉詩(shī)釗.蘭州理工大學(xué) 2017
[6]6R機(jī)器人的運(yùn)動(dòng)規(guī)劃與仿真研究[D]. 王鵬.北京郵電大學(xué) 2017
[7]基于雙目視覺(jué)的伺服機(jī)械臂運(yùn)動(dòng)控制研究[D]. 于灝洋.大連理工大學(xué) 2016
[8]基于雙目立體視覺(jué)的工業(yè)機(jī)器人目標(biāo)識(shí)別及定位研究[D]. 聶春鵬.長(zhǎng)安大學(xué) 2015
本文編號(hào):3620092
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3620092.html
最近更新
教材專著