復(fù)雜環(huán)境下機(jī)器人抓取目標(biāo)位姿估計(jì)研究
發(fā)布時(shí)間:2021-02-04 23:38
在復(fù)雜的視覺(jué)識(shí)別環(huán)境中,對(duì)目標(biāo)物體進(jìn)行抓取操作是機(jī)器人領(lǐng)域中一個(gè)基本挑戰(zhàn)。特別是在生活化場(chǎng)景下機(jī)器人抓取物體時(shí),機(jī)器人對(duì)任意姿態(tài)放置的物體難以快速準(zhǔn)確地識(shí)別目標(biāo)并成功地抓取。因此,迫切需要提高機(jī)器人視覺(jué)目標(biāo)識(shí)別和目標(biāo)位姿估計(jì)能力,從而可使機(jī)器人準(zhǔn)確地操作目標(biāo)物體。傳統(tǒng)的目標(biāo)識(shí)別和位姿估計(jì)算法都依賴(lài)于人為設(shè)計(jì)特征算子提取相關(guān)特征信息,而且在復(fù)雜環(huán)境下難以針對(duì)所有情景設(shè)計(jì)出精確的特征算子。同時(shí),基于模板匹配的傳統(tǒng)位姿估計(jì)算法僅二維圖像無(wú)法估計(jì)出物體位姿。因此,針對(duì)復(fù)雜場(chǎng)景下的目標(biāo)識(shí)別和基于二維圖像的位姿估計(jì)的研究對(duì)提高機(jī)器人的自主能力十分重要。與傳統(tǒng)方法不同,以深度卷積神經(jīng)網(wǎng)絡(luò)為代表的數(shù)據(jù)驅(qū)動(dòng)方法,通過(guò)自主學(xué)習(xí)相關(guān)特征映射,對(duì)目標(biāo)任務(wù)的相關(guān)特征具有強(qiáng)大的表征能力。同時(shí),卷積神經(jīng)網(wǎng)絡(luò)的同變性提高了其在復(fù)雜環(huán)境下識(shí)別目標(biāo)的準(zhǔn)確性。因此,本文基于深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)物體的識(shí)別及位姿估計(jì)問(wèn)題展開(kāi)了一系列的研究:1、基于空洞卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)分割研究。針對(duì)復(fù)雜場(chǎng)景中小目標(biāo)物體的識(shí)別問(wèn)題,本文利用空洞卷積在特征圖中保留較為豐富的空間結(jié)構(gòu)信息,建立了基于空洞卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)分割網(wǎng)絡(luò)模型。基于labe...
【文章來(lái)源】:華中科技大學(xué)湖北省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:98 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
機(jī)器人自主抓取操作任務(wù)
法基于表現(xiàn)目標(biāo)的表現(xiàn)特征描述進(jìn)行目標(biāo)中灰度閾值、區(qū)域、輪廓等視覺(jué)特征對(duì)圖征描述[2]有方向梯度直方圖特征(Histogra特征變換(Scale-invariant feature transform信息為目標(biāo)構(gòu)建特征描述子(Descriptor),別和分割,如圖 1-3 所示。雖然傳統(tǒng)圖像分計(jì)算機(jī)視覺(jué)理解任務(wù),但需要人為設(shè)計(jì)特求較高,僅在結(jié)構(gòu)化環(huán)境下可達(dá)到預(yù)期的目標(biāo)識(shí)別。而與傳統(tǒng)圖像分割方法相比,力,可從大量的數(shù)據(jù)中自主學(xué)習(xí)特征映射究進(jìn)展,已成為現(xiàn)今計(jì)算機(jī)視覺(jué)領(lǐng)域的基高了深度卷積神經(jīng)網(wǎng)絡(luò)的技術(shù)。
華 中 科 技 大 學(xué) 碩 士 學(xué) 位 論 取不同尺度特征,增加多尺度輸入的多層網(wǎng)絡(luò)模型的訓(xùn)練難重復(fù)性較大且限制感受野的區(qū)域,使得模型訓(xùn)練效率較低。內(nèi)存較大,導(dǎo)致基于圖像塊的圖像分割算法十分依賴(lài)硬件的年,UC Berkeley 的 Lone 等人提出了全卷積神經(jīng)網(wǎng)絡(luò)al Network,F(xiàn)CN)[7],去除了原有基于圖像分類(lèi)的卷積神經(jīng)對(duì)圖像像素進(jìn)行密集預(yù)測(cè)。將全連接層轉(zhuǎn)換為卷積層,F(xiàn)CN圖,進(jìn)行有效的端到端密集學(xué)習(xí),如圖 1-4 所示。卷積化模型自然而然地對(duì)目標(biāo)分割這類(lèi)密集問(wèn)題進(jìn)行推測(cè),與基于圖像圖像輸入至 FCN,網(wǎng)絡(luò)的每個(gè)輸出單元均有可用實(shí)際值,充,對(duì)網(wǎng)絡(luò)的前向計(jì)算和反向傳播進(jìn)行積極地優(yōu)化,大大地提這之后,有關(guān)于目標(biāo)分割的絕大部分研究中都會(huì)采用 FCN 網(wǎng)
【參考文獻(xiàn)】:
期刊論文
[1]基于深度卷積網(wǎng)絡(luò)的目標(biāo)檢測(cè)綜述[J]. 吳帥,徐勇,趙東寧. 模式識(shí)別與人工智能. 2018(04)
本文編號(hào):3019119
【文章來(lái)源】:華中科技大學(xué)湖北省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:98 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
機(jī)器人自主抓取操作任務(wù)
法基于表現(xiàn)目標(biāo)的表現(xiàn)特征描述進(jìn)行目標(biāo)中灰度閾值、區(qū)域、輪廓等視覺(jué)特征對(duì)圖征描述[2]有方向梯度直方圖特征(Histogra特征變換(Scale-invariant feature transform信息為目標(biāo)構(gòu)建特征描述子(Descriptor),別和分割,如圖 1-3 所示。雖然傳統(tǒng)圖像分計(jì)算機(jī)視覺(jué)理解任務(wù),但需要人為設(shè)計(jì)特求較高,僅在結(jié)構(gòu)化環(huán)境下可達(dá)到預(yù)期的目標(biāo)識(shí)別。而與傳統(tǒng)圖像分割方法相比,力,可從大量的數(shù)據(jù)中自主學(xué)習(xí)特征映射究進(jìn)展,已成為現(xiàn)今計(jì)算機(jī)視覺(jué)領(lǐng)域的基高了深度卷積神經(jīng)網(wǎng)絡(luò)的技術(shù)。
華 中 科 技 大 學(xué) 碩 士 學(xué) 位 論 取不同尺度特征,增加多尺度輸入的多層網(wǎng)絡(luò)模型的訓(xùn)練難重復(fù)性較大且限制感受野的區(qū)域,使得模型訓(xùn)練效率較低。內(nèi)存較大,導(dǎo)致基于圖像塊的圖像分割算法十分依賴(lài)硬件的年,UC Berkeley 的 Lone 等人提出了全卷積神經(jīng)網(wǎng)絡(luò)al Network,F(xiàn)CN)[7],去除了原有基于圖像分類(lèi)的卷積神經(jīng)對(duì)圖像像素進(jìn)行密集預(yù)測(cè)。將全連接層轉(zhuǎn)換為卷積層,F(xiàn)CN圖,進(jìn)行有效的端到端密集學(xué)習(xí),如圖 1-4 所示。卷積化模型自然而然地對(duì)目標(biāo)分割這類(lèi)密集問(wèn)題進(jìn)行推測(cè),與基于圖像圖像輸入至 FCN,網(wǎng)絡(luò)的每個(gè)輸出單元均有可用實(shí)際值,充,對(duì)網(wǎng)絡(luò)的前向計(jì)算和反向傳播進(jìn)行積極地優(yōu)化,大大地提這之后,有關(guān)于目標(biāo)分割的絕大部分研究中都會(huì)采用 FCN 網(wǎng)
【參考文獻(xiàn)】:
期刊論文
[1]基于深度卷積網(wǎng)絡(luò)的目標(biāo)檢測(cè)綜述[J]. 吳帥,徐勇,趙東寧. 模式識(shí)別與人工智能. 2018(04)
本文編號(hào):3019119
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3019119.html
最近更新
教材專(zhuān)著