基于深度學習和深度相機的移動機器人抓取方法研究
發(fā)布時間:2021-11-20 11:12
目前,無論是在日常生活還是工業(yè)上,自動化技術都在朝著智能化的方向快速發(fā)展。智能化的發(fā)展離不開智能的算法,也離不開其載體——機器人。擁有一個性能優(yōu)越的視覺感知系統(tǒng)是機器人的智能化表現(xiàn)之一。近些年,隨著計算機性能的提升,大數(shù)據(jù)以及機器學習技術得到了前所未有的發(fā)展,機器學習中的深度學習的方法也為傳統(tǒng)機器視覺領域打開了一扇新的大門。盡管深度學習的目標檢測算法已經日益成熟,但是將這種理論算法應用于實際機器人上的發(fā)展卻相對緩慢。論文以移動機器人平臺為載體,針對深度學習中的Faster R-CNN目標檢測算法進行改進,建立了新的目標檢測網絡模型,此外,借助于深度相機提供的深度圖像信息,實現(xiàn)了目標物體的抓取點定位。最后,在實際移動機器人上完成了指定目標的抓取任務。主要研究內容包括:深度學習中目標檢測算法的理論研究;數(shù)據(jù)集中的標注真實框對訓練目標檢測網絡的影響,并以此設計了自適應數(shù)據(jù)集的錨框選取算法;改進的Faster R-CNN目標檢測網絡模型的搭建與訓練;以及基于深度相機的抓取點定位與位姿估計。論文首先對10類日常商品:牙刷、牙膏、薯片、餅干、牛奶、可樂、紙巾、洗發(fā)水、書、果汁制作了圖像數(shù)據(jù)集,總共...
【文章來源】:長沙理工大學湖南省
【文章頁數(shù)】:65 頁
【學位級別】:碩士
【部分圖文】:
圖1.1亞馬遜機器人挑戰(zhàn)賽(左)與京東機器人挑戰(zhàn)賽(右)??RFID二
?碩士學位論文???1.*賴fiur傭?2.?i?3?雌權屮獨、y??will:?爾綱肅Jim?預測點進行找?J?J?"?M^5lJ?-?&???部搜索?出抓収點??JL?m?m?l?_P|?.?一?一,—一』mm:,??fcwN^I?? ̄f'??9i3??圖1.2聯(lián)合特征提取方法[AmauRamisa等人,2013]??設計一種特征描述,通過捕獲這種特征描述的方式來處理圖像信息,從而得知當前圖像??內是否存在目標物體。??Jeremy?Maitin-Shepard丨川等人對毛巾這一對象進行了機器人識另丨J抓取的研究,針對??毛巾所采用的布料的幾何特征,對毛巾的識別與抓取主要分為三個步驟:首先對圖像進??行前景提取,僅獲得毛巾的圖像信息;然后根據(jù)圖像灰度的不連續(xù)性判斷出毛巾的邊界??位置;最后通過隨機抽樣一致性算法(Random?Sample?Consensus,?RANSAC)對邊界位??置的候選抓取點進行篩眩實驗表明由于該方法是根據(jù)布料的幾何特征設計的,因此對??材質的變化、大孝外觀等方面的魯棒性較好。??Amau尺3111丨53[32]等人構建了一個3D幾何特征與物體外觀相結合的特征算法,再通??過滑動窗口算法與支持向量機(Support?Vector?Machine,?SVM),使用提出的可抓取估??計方法選出最優(yōu)抓取點。首先獲取圖像并使用測量深度直方圖(Geodesic-Depth??Histogram,?GDH)來提取圖像特征,接著使用基于邏輯回歸檢測的滑動窗口算法進行??分類,并將每個在概率圖上獨立預測的點進行聚類;然后使用SVM進行峰值檢測與局??部搜索;最后通過最優(yōu)的
梅隆大學的機器人研究院的Lerrel?Pinto與Abhinav?Gupta[33]分析了當前??使用人為標注數(shù)據(jù)集進行深度學習完成抓取任務的不足:1.?一種物體可以以多種方式被??機器人抓取,因此手動標注抓取位置是一個相當復雜的任務。2.人為標注的抓取位置往??往帶有偏差。于是Lerrel?Pinto與Abhinav?Gupta嘗試訓練機器人來進行試錯實驗,與以??往不同的是,他們大幅度增加了訓練數(shù)據(jù)集,在700個小時內由機器人的試錯實驗獲取??r?聲通■T“i??n?物?^??圖1.3訓練卷積神經網絡的部分數(shù)據(jù)集[Lerrel?Pinto與Abhinav?Gupta,2015】??7??
【參考文獻】:
期刊論文
[1]基于RFID的車載定位定向技術研究與應用[J]. 陳思,仲啟媛,譚立龍,王鵬,張彥濤. 火炮發(fā)射與控制學報. 2019(01)
[2]深度學習在智能機器人中的應用研究綜述[J]. 龍慧,朱定局,田娟. 計算機科學. 2018(S2)
[3]基于圖像處理的機器人控制系統(tǒng)的研究設計[J]. 羅朝輝,李麗宏,譚爽. 現(xiàn)代制造工程. 2018(10)
[4]一種融合稀疏幾何特征與深度流的深度視覺SLAM算法[J]. 方正,趙世博,李昊來. 機器人. 2019(02)
[5]基于激光信息的移動機器人SLAM研究[J]. 柳俊城,李迪,翁瀟文. 自動化與儀表. 2018(06)
[6]全球機器人市場統(tǒng)計數(shù)據(jù)分析[J]. 梁文莉. 機器人技術與應用. 2018(02)
[7]優(yōu)化初始聚類中心及確定K值的K-means算法[J]. 蔣麗,薛善良. 計算機與數(shù)字工程. 2018(01)
[8]深度學習在目標視覺檢測中的應用進展與展望[J]. 張慧,王坤峰,王飛躍. 自動化學報. 2017(08)
[9]智能制造——“中國制造2025”的主攻方向[J]. 周濟. 中國機械工程. 2015(17)
[10]工業(yè)機器人的技術發(fā)展及其應用[J]. 駱敏舟,方健,趙江海. 機械制造與自動化. 2015(01)
碩士論文
[1]基于視覺導航的自動導引車設計與實現(xiàn)[D]. 趙博.山東大學 2017
本文編號:3507204
【文章來源】:長沙理工大學湖南省
【文章頁數(shù)】:65 頁
【學位級別】:碩士
【部分圖文】:
圖1.1亞馬遜機器人挑戰(zhàn)賽(左)與京東機器人挑戰(zhàn)賽(右)??RFID二
?碩士學位論文???1.*賴fiur傭?2.?i?3?雌權屮獨、y??will:?爾綱肅Jim?預測點進行找?J?J?"?M^5lJ?-?&???部搜索?出抓収點??JL?m?m?l?_P|?.?一?一,—一』mm:,??fcwN^I?? ̄f'??9i3??圖1.2聯(lián)合特征提取方法[AmauRamisa等人,2013]??設計一種特征描述,通過捕獲這種特征描述的方式來處理圖像信息,從而得知當前圖像??內是否存在目標物體。??Jeremy?Maitin-Shepard丨川等人對毛巾這一對象進行了機器人識另丨J抓取的研究,針對??毛巾所采用的布料的幾何特征,對毛巾的識別與抓取主要分為三個步驟:首先對圖像進??行前景提取,僅獲得毛巾的圖像信息;然后根據(jù)圖像灰度的不連續(xù)性判斷出毛巾的邊界??位置;最后通過隨機抽樣一致性算法(Random?Sample?Consensus,?RANSAC)對邊界位??置的候選抓取點進行篩眩實驗表明由于該方法是根據(jù)布料的幾何特征設計的,因此對??材質的變化、大孝外觀等方面的魯棒性較好。??Amau尺3111丨53[32]等人構建了一個3D幾何特征與物體外觀相結合的特征算法,再通??過滑動窗口算法與支持向量機(Support?Vector?Machine,?SVM),使用提出的可抓取估??計方法選出最優(yōu)抓取點。首先獲取圖像并使用測量深度直方圖(Geodesic-Depth??Histogram,?GDH)來提取圖像特征,接著使用基于邏輯回歸檢測的滑動窗口算法進行??分類,并將每個在概率圖上獨立預測的點進行聚類;然后使用SVM進行峰值檢測與局??部搜索;最后通過最優(yōu)的
梅隆大學的機器人研究院的Lerrel?Pinto與Abhinav?Gupta[33]分析了當前??使用人為標注數(shù)據(jù)集進行深度學習完成抓取任務的不足:1.?一種物體可以以多種方式被??機器人抓取,因此手動標注抓取位置是一個相當復雜的任務。2.人為標注的抓取位置往??往帶有偏差。于是Lerrel?Pinto與Abhinav?Gupta嘗試訓練機器人來進行試錯實驗,與以??往不同的是,他們大幅度增加了訓練數(shù)據(jù)集,在700個小時內由機器人的試錯實驗獲取??r?聲通■T“i??n?物?^??圖1.3訓練卷積神經網絡的部分數(shù)據(jù)集[Lerrel?Pinto與Abhinav?Gupta,2015】??7??
【參考文獻】:
期刊論文
[1]基于RFID的車載定位定向技術研究與應用[J]. 陳思,仲啟媛,譚立龍,王鵬,張彥濤. 火炮發(fā)射與控制學報. 2019(01)
[2]深度學習在智能機器人中的應用研究綜述[J]. 龍慧,朱定局,田娟. 計算機科學. 2018(S2)
[3]基于圖像處理的機器人控制系統(tǒng)的研究設計[J]. 羅朝輝,李麗宏,譚爽. 現(xiàn)代制造工程. 2018(10)
[4]一種融合稀疏幾何特征與深度流的深度視覺SLAM算法[J]. 方正,趙世博,李昊來. 機器人. 2019(02)
[5]基于激光信息的移動機器人SLAM研究[J]. 柳俊城,李迪,翁瀟文. 自動化與儀表. 2018(06)
[6]全球機器人市場統(tǒng)計數(shù)據(jù)分析[J]. 梁文莉. 機器人技術與應用. 2018(02)
[7]優(yōu)化初始聚類中心及確定K值的K-means算法[J]. 蔣麗,薛善良. 計算機與數(shù)字工程. 2018(01)
[8]深度學習在目標視覺檢測中的應用進展與展望[J]. 張慧,王坤峰,王飛躍. 自動化學報. 2017(08)
[9]智能制造——“中國制造2025”的主攻方向[J]. 周濟. 中國機械工程. 2015(17)
[10]工業(yè)機器人的技術發(fā)展及其應用[J]. 駱敏舟,方健,趙江海. 機械制造與自動化. 2015(01)
碩士論文
[1]基于視覺導航的自動導引車設計與實現(xiàn)[D]. 趙博.山東大學 2017
本文編號:3507204
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3507204.html
最近更新
教材專著