天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 計算機應(yīng)用論文 >

基于結(jié)構(gòu)光深度圖像的目標(biāo)檢測技術(shù)

發(fā)布時間:2021-01-08 04:36
  目標(biāo)檢測技術(shù)廣泛應(yīng)用于公共安全、軍事國防、醫(yī)學(xué)等領(lǐng)域。本文針對利用單一的結(jié)構(gòu)光深度圖像或彩色圖像、同時利用原始低分辨率結(jié)構(gòu)光深度圖像和彩色圖像進行目標(biāo)檢測存在準(zhǔn)確率不高的問題,圍繞圖像超分辨率重建、聯(lián)合結(jié)構(gòu)光深度圖像與彩色圖像的目標(biāo)檢測,開展了如下研究工作:(1)針對SRCNN、ESPCN等無法同時滿足較好重建效果和實時處理要求,提出了一種新的基于CNN的圖像超分辨率重建方法。以未做任何預(yù)處理的低分辨率圖像為輸入數(shù)據(jù),利用卷積操作提取特征,采用1×1的小卷積核作降、擴維處理,減少網(wǎng)絡(luò)參數(shù),改善重建效果;利用反卷積與池化的組合進行放大和縮小,提取對結(jié)果更為敏感的特征;再通過反卷積實現(xiàn)重建。實驗表明,該方法不僅實現(xiàn)了更好的重建效果,而且能夠每秒重建24張以上320×240的圖像,滿足實時處理視頻圖像的要求。(2)針對現(xiàn)有的SRCNN等學(xué)習(xí)能力弱導(dǎo)致重建性能不佳、收斂速度慢等問題,提出了一種基于深度殘差網(wǎng)絡(luò)的圖像超分辨率重建方法。設(shè)計了一個包含42層的深度網(wǎng)絡(luò),在網(wǎng)絡(luò)高層采用Inception結(jié)構(gòu)與殘差網(wǎng)絡(luò)的組合學(xué)習(xí)殘差,再將學(xué)習(xí)到的殘差和輸入數(shù)據(jù)相加得到輸出。Inception結(jié)構(gòu)增加網(wǎng)絡(luò)... 

【文章來源】:海南大學(xué)海南省 211工程院校

【文章頁數(shù)】:69 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于結(jié)構(gòu)光深度圖像的目標(biāo)檢測技術(shù)


圖2?Kinect傳感器的外觀??

傳感器,圖像,深度圖像,深度圖


時會產(chǎn)生位置誤差。雖然Kmect內(nèi)部對該偏差進行了矯正處理,使得拍攝生成的彩??色圖像與同場景深度圖在視覺上沒有偏差,但是,Kinect生成的深度圖像的分辨率較??低、噪聲較大、物體邊界處的深度值不精確,因此還需要進一步處理。下圖3展示了??Kinect傳感器所獲彩色圖像與校準(zhǔn)后的深度圖,其分辨率大小都為640x480。??(a)彩色圖像(640x480)?(b)深度圖像(640x480)??圖3?Kinect傳感器所獲圖像??Fig.3?The?color?image?and?depth?image?acquired?by?Kinect?sensor??2.2卷積神經(jīng)網(wǎng)絡(luò)??在20世紀(jì)60年代以前,傳統(tǒng)的BP神經(jīng)網(wǎng)絡(luò)發(fā)展良好且應(yīng)用廣泛,然而由于其??網(wǎng)絡(luò)參數(shù)隨著網(wǎng)絡(luò)層數(shù)的增加而成倍增加,導(dǎo)致網(wǎng)絡(luò)復(fù)雜度高。Hubei和\¥165£1在研??宄過程中,發(fā)現(xiàn)了一種特別的網(wǎng)絡(luò)結(jié)構(gòu),這種網(wǎng)絡(luò)可以實現(xiàn)局部視覺的感知以及感知??方向的選擇(Hubei?etal.,1959)。隨后,Waibel等提出了時間延遲網(wǎng)絡(luò)(Time?Delay??Neural?Network,?TDNN)并應(yīng)用于語音識別問題(Waibel?et?al.,1990)。Zhang?提出??的平移不變?nèi)斯ど窠?jīng)網(wǎng)絡(luò)(SIANN)被應(yīng)用于檢測醫(yī)學(xué)影像(Zhang,?1988)。LeCun??等提出了用于圖像分類的LeNet

特征圖,卷積,操作過程,特征圖


值參數(shù)量為102,若不采用權(quán)值共享,則權(quán)值參數(shù)量為102xl002=106,顯然,權(quán)值共??享在很大程度上減少了訓(xùn)練參數(shù)量。??卷積操作如圖4所示。??1?0?1??0?1?0??1?0?1?P—, ̄ ̄??______…?上?A??J__I__L?J__1?3?1??J__0__1__]__輸入特征圖??0?10?0?1??10?10?1??10?0?10??輸入圖像??圖4卷積層的卷積操作過程??Fig.4?Convolutional?convolution?operation??如上圖4,采用3x3的卷積核對輸入為5x5的圖像進行卷積,首先確定移動步長??(Stride),卷積核在每次移動后將與輸入圖像相應(yīng)位置的元素按位相乘再相加,從??左至右,從上至下,最終獲得完整的輸出特征圖。此外,還可以對輸入圖像的邊界進??行零填充(zero?padding),從而保留住圖像邊緣的信息,因此,若輸入mx72,卷積??核是AxA,步長是s?,零填充設(shè)成p,則輸出特征圖為??((w?—?ft?+?+?l)x?((n-女?+?)y!s?+1)。??10??


本文編號:2963923

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/2963923.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶9d165***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com