基于結(jié)構(gòu)化深度學(xué)習(xí)的單目圖像深度估計(jì)
本文選題:深度估計(jì) + 卷積神經(jīng)網(wǎng)絡(luò) ; 參考:《機(jī)器人》2017年06期
【摘要】:為從單目圖像中提取到豐富的3D結(jié)構(gòu)特征,并用以推測(cè)場(chǎng)景的深度信息,針對(duì)單目圖像深度估計(jì)任務(wù)提出了一種結(jié)構(gòu)化深度學(xué)習(xí)模型,該模型將一種新的多尺度卷積神經(jīng)網(wǎng)絡(luò)與連續(xù)條件隨機(jī)場(chǎng)統(tǒng)一于一個(gè)深度學(xué)習(xí)框架中.卷積神經(jīng)網(wǎng)絡(luò)可以從圖像中學(xué)習(xí)到相關(guān)特征表達(dá),而連續(xù)條件隨機(jī)場(chǎng)可以根據(jù)圖像像素的位置、顏色信息對(duì)卷積神經(jīng)網(wǎng)絡(luò)輸出進(jìn)行優(yōu)化,將二者參數(shù)以聯(lián)合優(yōu)化的方式進(jìn)行學(xué)習(xí)可以提升模型的泛化性能.通過(guò)在NYU Depth數(shù)據(jù)集上的實(shí)驗(yàn)驗(yàn)證了模型的有效性與優(yōu)越性,該模型預(yù)測(cè)結(jié)果的平均相對(duì)誤差為0.187,均方根誤差為0.074,對(duì)數(shù)空間平均誤差為0.671.
[Abstract]:In order to extract rich 3D structure features from monocular images and to speculate the depth information of the scene, a structured depth learning model is proposed for the monocular image depth estimation task. The model unifies a new multi-scale convolution neural network and a continuous conditional random field into a deep learning framework. The convolution neural network can learn the expression of related features from the image, while the continuous conditional random field can optimize the output of the convolutional neural network according to the pixel location and color information of the image. The generalization performance of the model can be improved by learning the two parameters in a joint optimization way. The validity and superiority of the model are verified by experiments on NYU depth dataset. The average relative error, root mean square error and logarithmic space average error of the model are 0.187, 0.074 and 0.671 respectively.
【作者單位】: 哈爾濱理工大學(xué)自動(dòng)化學(xué)院;中國(guó)科學(xué)院自動(dòng)化研究所;
【基金】:國(guó)家自然科學(xué)基金(61572500)
【分類(lèi)號(hào)】:TP18;TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 趙信宇;朱曉蕊;余錦全;;單幅圖像深度信息的提取[J];制造業(yè)自動(dòng)化;2010年03期
2 李樂(lè);張茂軍;熊志輝;徐瑋;;基于內(nèi)容理解的單幅靜態(tài)街景圖像深度估計(jì)[J];機(jī)器人;2011年02期
3 廖均梅;龍建忠;張小琴;;基于頻域特征的圖像深度信息提取方法[J];自動(dòng)化與儀器儀表;2012年06期
4 張蓓蕾;劉洪瑋;;基于馬爾可夫隨機(jī)場(chǎng)的單目圖像深度估計(jì)[J];微型電腦應(yīng)用;2010年11期
5 牛連丁;趙志杰;金雪松;孫華東;王海濤;;基于支持向量機(jī)的圖像深度提取方法[J];哈爾濱商業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版);2012年05期
6 王平;安平;王奎;張兆楊;;基于區(qū)域融合的單視點(diǎn)圖像深度信息提取[J];電視技術(shù);2011年19期
7 袁紅星;吳少群;朱仁祥;胡勁松;安鵬;;利用深度傳感器大數(shù)據(jù)的單目圖像深度估計(jì)[J];計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào);2013年12期
8 張蓓蕾;孫韶媛;武江偉;谷小婧;;基于DRF-MAP模型的單目圖像深度估計(jì)的改進(jìn)算法[J];紅外技術(shù);2009年12期
9 鄧小玲;倪江群;代芬;李震;;基于LLOM的單目圖像深度圖估計(jì)算法[J];計(jì)算機(jī)應(yīng)用研究;2012年11期
10 李國(guó)平;劉華冠;李長(zhǎng)春;張?zhí)旌?;基于機(jī)器視覺(jué)的物料袋圖像深度信息的提取[J];濟(jì)南大學(xué)學(xué)報(bào)(自然科學(xué)版);2010年02期
相關(guān)會(huì)議論文 前2條
1 王東波;陳小荷;年洪東;;基于條件隨機(jī)場(chǎng)的有標(biāo)記聯(lián)合結(jié)構(gòu)自動(dòng)識(shí)別[A];第四屆全國(guó)學(xué)生計(jì)算語(yǔ)言學(xué)研討會(huì)會(huì)議論文集[C];2008年
2 張奇;翁富良;黃萱菁;吳立德;;英文口語(yǔ)中非流利區(qū)域的檢測(cè)[A];內(nèi)容計(jì)算的研究與應(yīng)用前沿——第九屆全國(guó)計(jì)算語(yǔ)言學(xué)學(xué)術(shù)會(huì)議論文集[C];2007年
相關(guān)碩士學(xué)位論文 前10條
1 Grigorev Aleksei;基于深度學(xué)習(xí)的單目圖像深度估計(jì)[D];哈爾濱工業(yè)大學(xué);2016年
2 張蓓蕾;基于馬爾可夫場(chǎng)理論的單目圖像深度估計(jì)研究[D];東華大學(xué);2010年
3 陳婷婷;基于紋理特征概率模型的圖像深度信息提取方法[D];哈爾濱商業(yè)大學(xué);2015年
4 趙九洋;圖像中行人檢測(cè)關(guān)鍵技術(shù)研究[D];南京大學(xué);2015年
5 寧振;基于層疊條件隨機(jī)場(chǎng)的情感分析[D];南昌大學(xué);2015年
6 楊獻(xiàn)祥;面向中文微博的產(chǎn)品名實(shí)體識(shí)別與規(guī)范化算法設(shè)計(jì)與實(shí)現(xiàn)[D];北京理工大學(xué);2015年
7 肖s,
本文編號(hào):2110737
本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/2110737.html