目標(biāo)物品識(shí)別與空間定位方法研究
發(fā)布時(shí)間:2023-02-26 04:31
隨著科技的不斷發(fā)展,機(jī)器人在多個(gè)領(lǐng)域中都有了應(yīng)用,例如:醫(yī)療領(lǐng)域、工業(yè)領(lǐng)域、教育領(lǐng)域等。尤其在工業(yè)領(lǐng)域中,工業(yè)機(jī)器人對(duì)工業(yè)零件進(jìn)行抓取,然后完成在流水線(xiàn)上的工件加工、零件裝備等流程。在機(jī)器人工作流程中,機(jī)器人抓取技術(shù)的成熟程度至關(guān)重要。機(jī)器人的自主抓取大多數(shù)是基于視覺(jué)技術(shù)來(lái)控制,但是在復(fù)雜環(huán)境下,識(shí)別定位的效果大大下降,從而降低抓取的效率。所以,提供目標(biāo)物體精確的坐標(biāo)是現(xiàn)在急需解決的問(wèn)題。在本文中,基于優(yōu)化Mask R-CNN算法從RGB圖片中識(shí)別出目標(biāo)物體并得到其掩膜分割出目標(biāo)區(qū)域。然后結(jié)合Kinect v2傳感器將二維坐標(biāo)轉(zhuǎn)化到三維空間坐標(biāo),完成對(duì)物體的定位任務(wù)。本文具體工作如下:(1)目標(biāo)物體識(shí)別算法實(shí)驗(yàn)比較。首先介紹了在物體識(shí)別領(lǐng)域中四種較為常用的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)算法,YOLO、SSD、Faster R-CNN和Mask R-CNN。為了提高識(shí)別能力和定位的精度,經(jīng)過(guò)實(shí)驗(yàn)選擇識(shí)別精度最高的Mask RCNN。(2)優(yōu)化Mask R-CNN網(wǎng)絡(luò)進(jìn)行物體識(shí)別與分割。首先使用Kinect v2傳感器彩色相機(jī)采集數(shù)據(jù),并對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理。接著在Mask R-CNN算法基礎(chǔ)上進(jìn)行了...
【文章頁(yè)數(shù)】:68 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 課題背景及研究的目的和意義
1.2 國(guó)內(nèi)外研究現(xiàn)狀與分析
1.2.1 物體識(shí)別方法研究現(xiàn)狀
1.2.2 物體定位方法研究現(xiàn)狀
1.3 本文研究?jī)?nèi)容
1.4 論文章節(jié)安排
第2章 目標(biāo)檢測(cè)算法
2.1 one-stage目標(biāo)檢測(cè)算法
2.1.1 YOLO
2.1.2 SSD
2.2 two-stage目標(biāo)檢測(cè)算法
2.2.1 Faster R-CNN網(wǎng)絡(luò)
2.2.2 Mask R-CNN
2.3 算法比較實(shí)驗(yàn)
2.4 本章小結(jié)
第3章 基于優(yōu)化Mask R-CNN算法的目標(biāo)識(shí)別
3.1 數(shù)據(jù)集
3.1.1 自采數(shù)據(jù)集
3.1.2 自采數(shù)據(jù)集預(yù)處理
3.1.3 公開(kāi)數(shù)據(jù)集
3.2 Mask R-CNN網(wǎng)絡(luò)的優(yōu)化
3.2.1 模型預(yù)處理——cbn層
3.2.2 Loss損失函數(shù)優(yōu)化——加入邊緣信息
3.2.3 雙向特征融合
3.3 實(shí)驗(yàn)結(jié)果與分析
3.3.1 優(yōu)化的Mask R-CNN網(wǎng)絡(luò)結(jié)構(gòu)
3.3.2 網(wǎng)絡(luò)評(píng)估標(biāo)準(zhǔn)
3.3.3 實(shí)驗(yàn)環(huán)境及實(shí)驗(yàn)參數(shù)選擇
3.3.4 主干網(wǎng)絡(luò)選擇
3.3.5 加入邊緣損失函數(shù)對(duì)比實(shí)驗(yàn)
3.3.6 加入雙向特征融合對(duì)比實(shí)驗(yàn)
3.3.7 優(yōu)化的Mask R-CNN對(duì)比實(shí)驗(yàn)
3.4 本章小結(jié)
第4章 基于Kinect v2 的物體空間定位
4.1 Kinect v2 標(biāo)定與空間定位
4.1.1 坐標(biāo)系之間轉(zhuǎn)換
4.1.2 相機(jī)標(biāo)定
4.2 深度數(shù)據(jù)預(yù)處理
4.2.1 3D點(diǎn)云數(shù)據(jù)轉(zhuǎn)化
4.2.2 結(jié)合多幀中值濾波和雙邊濾波
4.3 實(shí)驗(yàn)與分析
4.3.1 相機(jī)標(biāo)定
4.3.2 三維坐標(biāo)計(jì)算實(shí)驗(yàn)
4.4 本章小結(jié)
第5章 實(shí)驗(yàn)平臺(tái)搭建與驗(yàn)證
5.1 系統(tǒng)環(huán)境和設(shè)備
5.2 實(shí)驗(yàn)平臺(tái)設(shè)計(jì)
5.2.1 圖像采集模塊
5.2.2 圖像預(yù)處理模塊
5.2.3 目標(biāo)識(shí)別與分割模塊
5.2.4 空間定位模塊
5.3 實(shí)驗(yàn)與分析
5.4 本章小節(jié)
結(jié)論
參考文獻(xiàn)
致謝
本文編號(hào):3749823
【文章頁(yè)數(shù)】:68 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 課題背景及研究的目的和意義
1.2 國(guó)內(nèi)外研究現(xiàn)狀與分析
1.2.1 物體識(shí)別方法研究現(xiàn)狀
1.2.2 物體定位方法研究現(xiàn)狀
1.3 本文研究?jī)?nèi)容
1.4 論文章節(jié)安排
第2章 目標(biāo)檢測(cè)算法
2.1 one-stage目標(biāo)檢測(cè)算法
2.1.1 YOLO
2.1.2 SSD
2.2 two-stage目標(biāo)檢測(cè)算法
2.2.1 Faster R-CNN網(wǎng)絡(luò)
2.2.2 Mask R-CNN
2.3 算法比較實(shí)驗(yàn)
2.4 本章小結(jié)
第3章 基于優(yōu)化Mask R-CNN算法的目標(biāo)識(shí)別
3.1 數(shù)據(jù)集
3.1.1 自采數(shù)據(jù)集
3.1.2 自采數(shù)據(jù)集預(yù)處理
3.1.3 公開(kāi)數(shù)據(jù)集
3.2 Mask R-CNN網(wǎng)絡(luò)的優(yōu)化
3.2.1 模型預(yù)處理——cbn層
3.2.2 Loss損失函數(shù)優(yōu)化——加入邊緣信息
3.2.3 雙向特征融合
3.3 實(shí)驗(yàn)結(jié)果與分析
3.3.1 優(yōu)化的Mask R-CNN網(wǎng)絡(luò)結(jié)構(gòu)
3.3.2 網(wǎng)絡(luò)評(píng)估標(biāo)準(zhǔn)
3.3.3 實(shí)驗(yàn)環(huán)境及實(shí)驗(yàn)參數(shù)選擇
3.3.4 主干網(wǎng)絡(luò)選擇
3.3.5 加入邊緣損失函數(shù)對(duì)比實(shí)驗(yàn)
3.3.6 加入雙向特征融合對(duì)比實(shí)驗(yàn)
3.3.7 優(yōu)化的Mask R-CNN對(duì)比實(shí)驗(yàn)
3.4 本章小結(jié)
第4章 基于Kinect v2 的物體空間定位
4.1 Kinect v2 標(biāo)定與空間定位
4.1.1 坐標(biāo)系之間轉(zhuǎn)換
4.1.2 相機(jī)標(biāo)定
4.2 深度數(shù)據(jù)預(yù)處理
4.2.1 3D點(diǎn)云數(shù)據(jù)轉(zhuǎn)化
4.2.2 結(jié)合多幀中值濾波和雙邊濾波
4.3 實(shí)驗(yàn)與分析
4.3.1 相機(jī)標(biāo)定
4.3.2 三維坐標(biāo)計(jì)算實(shí)驗(yàn)
4.4 本章小結(jié)
第5章 實(shí)驗(yàn)平臺(tái)搭建與驗(yàn)證
5.1 系統(tǒng)環(huán)境和設(shè)備
5.2 實(shí)驗(yàn)平臺(tái)設(shè)計(jì)
5.2.1 圖像采集模塊
5.2.2 圖像預(yù)處理模塊
5.2.3 目標(biāo)識(shí)別與分割模塊
5.2.4 空間定位模塊
5.3 實(shí)驗(yàn)與分析
5.4 本章小節(jié)
結(jié)論
參考文獻(xiàn)
致謝
本文編號(hào):3749823
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3749823.html
最近更新
教材專(zhuān)著