天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 信息工程論文 >

異分辨率激光復(fù)合成像超分辨三維重構(gòu)算法研究

發(fā)布時(shí)間:2021-10-22 20:11
  Gm-APD激光雷達(dá)因其探測靈敏度高、距離分辨率高、方便集成等特點(diǎn)成為現(xiàn)今一大熱門研究領(lǐng)域,但通常其距離像的空間分辨率低,ICCD激光雷達(dá)強(qiáng)度像的空間分辨率高。為了提高Gm-APD距離像的空間分辨率,本課題通過搭建Gm-APD激光雷達(dá)和ICCD激光雷達(dá)雙波長復(fù)合成像系統(tǒng)采集低分辨距離像和高分辨強(qiáng)度像,研究了區(qū)域相似度引導(dǎo)超分辨三維重構(gòu)算法,該算法利用ICCD強(qiáng)度像的高空間分辨率優(yōu)勢引導(dǎo)低空間分辨率的Gm-APD距離像重構(gòu)生成高空間分辨率的Gm-APD距離像。針對該算法的區(qū)域相似度引導(dǎo)項(xiàng)的標(biāo)準(zhǔn)差不可控和重構(gòu)像邊緣模糊兩大不足,本文在此基礎(chǔ)上提出了改進(jìn)的圖像引導(dǎo)超分辨三維重構(gòu)算法。首先,調(diào)研了圖像超分辨三維重構(gòu)算法的研究現(xiàn)狀,通過對國內(nèi)外研究現(xiàn)狀的分析,將區(qū)域相似度引導(dǎo)的圖像引導(dǎo)算法作為本文的主要研究方向。因此,本文研究了區(qū)域相似度引導(dǎo)的圖像引導(dǎo)算法原理,通過詳細(xì)地公式推導(dǎo)獲得了該算法最優(yōu)化目標(biāo)方程的解析解,同時(shí)研究了無參考圖像質(zhì)量評價(jià)指標(biāo)和有參考圖像質(zhì)量評價(jià)指標(biāo)以評估超分辨重構(gòu)圖像質(zhì)量。進(jìn)一步使用雙三次插值、標(biāo)準(zhǔn)圖像引導(dǎo)算法、引導(dǎo)濾波、TGV和區(qū)域相似度引導(dǎo)的圖像引導(dǎo)算法對仿真數(shù)據(jù)和真實(shí)... 

【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校

【文章頁數(shù)】:61 頁

【學(xué)位級別】:碩士

【部分圖文】:

異分辨率激光復(fù)合成像超分辨三維重構(gòu)算法研究


最鄰近插值、雙三次插值、高斯濾波上采樣和JBUF超分辨重構(gòu)對比圖[23]

對比圖,算法,對比圖,指標(biāo)


哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文–3–圖1-2最鄰近插值、雙三次插值、高斯濾波上采樣和JBUF超分辨重構(gòu)對比圖[23]圖1-3不同算法MSE指標(biāo)對比圖[23]2011年,Park等人將非局部均值項(xiàng)添加到正則化項(xiàng)中,并將色彩相似度引導(dǎo)項(xiàng)、超像素分割引導(dǎo)項(xiàng)、邊緣顯著度引導(dǎo)項(xiàng)和雙三次插值引導(dǎo)項(xiàng)添加到加權(quán)函數(shù)的平滑項(xiàng)中,通過求解最優(yōu)化方程得到復(fù)原高分辨深度圖像。非局部均值項(xiàng)、超像素分割和邊緣顯著度引導(dǎo)項(xiàng)的增加在標(biāo)準(zhǔn)MRF算法的基礎(chǔ)上進(jìn)一步豐富細(xì)節(jié)信息和銳化圖像邊緣,但同時(shí)增加了算法運(yùn)行時(shí)間。在幾種算法圖像質(zhì)量評價(jià)指標(biāo)RMSE對比中,Park算法優(yōu)于標(biāo)準(zhǔn)MRF和雙邊濾波,不同算法RMSE指標(biāo)對比如表1-1所示,不同算法重構(gòu)結(jié)果如圖1-4所示[24]。表1-1不同算法RMSE指標(biāo)對比[24]ArtBooksMobius2×4×8×16×2×4×8×16×2×4×8×16×Bilinear0.561.092.104.030.190.350.651.240.200.370.701.32MRFs0.621.011.973.940.220.330.621.210.250.370.671.29Bilateral0.570.701.503.690.300.450.641.450.390.480.691.14Guided0.661.061.773.630.220.360.601.160.240.380.611.20Ours0.430.671.082.210.170.310.571.050.180.300.520.90

對比圖,定量指標(biāo),方法,超分辨


哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文–5–加了卷積層數(shù)量以擴(kuò)大感受野,并且在網(wǎng)絡(luò)末端添加反卷積層以增加超分辨重構(gòu)速度。1.2.2國內(nèi)研究現(xiàn)狀國內(nèi)關(guān)于圖像超分辨重構(gòu)的研究較晚。2005年,謝美華等人[29]提出一種利用圖像梯度信息來進(jìn)行超分辨插值的算法,它首先將圖像是分片連續(xù)的光滑函數(shù)作為先驗(yàn)知識(shí),構(gòu)建出與各點(diǎn)梯度值成反比的函數(shù)以實(shí)現(xiàn)低分辨圖像超分辨重構(gòu)。該方法對邊緣信息比較簡單、對比度較強(qiáng)的低分辨圖像重構(gòu)效果較好,對邊緣信息比較復(fù)雜的圖像進(jìn)行研究,發(fā)現(xiàn)其重構(gòu)結(jié)果優(yōu)于雙線性插值等算法,該方法PSNR較最鄰近插值和雙線性插值提高了約32%。2015年,郝剛濤等人提出一種自適應(yīng)強(qiáng)度值和距離值的馬爾科夫隨機(jī)場(MRF)超分辨重構(gòu)算法,該方法在正則化項(xiàng)中引入高斯核函數(shù)標(biāo)準(zhǔn)差自適應(yīng)的距離相似度引導(dǎo)項(xiàng)、色彩相似度引導(dǎo)項(xiàng)和超像素分割邊緣懲罰引導(dǎo)項(xiàng),并針對圖像部分區(qū)域進(jìn)行快速插值,通過求解該問題的最優(yōu)化方程實(shí)現(xiàn)了超分辨重構(gòu)。通過對仿真數(shù)據(jù)和真實(shí)激光雷達(dá)數(shù)據(jù)的研究顯示該算法較雙線性插值、雙邊濾波和標(biāo)準(zhǔn)MRF重構(gòu)算法性能更優(yōu),其中真實(shí)激光雷達(dá)數(shù)據(jù)重構(gòu)結(jié)果顯示該算法較低分辨距離像和雙線性插值距離像,平均測距精度分別提高了45%和30%,不同算法RMSE和PSNR指標(biāo)對比如圖1-6所示,不同算法重構(gòu)效果對比如圖1-7所示[30]。a)RMSE對比圖b)PSNR對比圖圖1-6四種方法的定量指標(biāo)比較[30]

【參考文獻(xiàn)】:
期刊論文
[1]基于多層連接卷積神經(jīng)網(wǎng)絡(luò)的單幀圖像超分辨重建[J]. 賀瑜飛,高宏偉.  計(jì)算機(jī)應(yīng)用與軟件. 2019(05)
[2]光子計(jì)數(shù)激光測深系統(tǒng)[J]. 張河輝,丁宇星,黃庚華.  紅外與激光工程. 2019(01)
[3]無掃描激光三維成像雷達(dá)研究進(jìn)展及趨勢分析[J]. 卜禹銘,杜小平,曾朝陽,趙繼廣,宋一鑠.  中國光學(xué). 2018(05)
[4]基于馬爾科夫隨機(jī)場的圖像超分辨技術(shù)研究綜述[J]. 黎海雪,林海濤,姜棟瀚.  通信技術(shù). 2018(10)
[5]實(shí)現(xiàn)圖像縮放功能的Matlab插值算法研究與比較[J]. 丁雪晶.  湖北大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(04)
[6]基于稀疏激光點(diǎn)云數(shù)據(jù)和單幀圖像融合的三維重構(gòu)算法[J]. 賀秉安,曾興,李子奇,萬生鵬.  計(jì)測技術(shù). 2017(03)
[7]多尺度有理分形的圖像插值算法[J]. 姚勛祥,張?jiān)品?寧陽,劉一方.  中國圖象圖形學(xué)報(bào). 2016(04)
[8]基于權(quán)值優(yōu)化分塊自適應(yīng)灰度-距離Markov隨機(jī)場的無掃描3D激光雷達(dá)距離圖像重構(gòu)[J]. 郝剛濤,杜小平,宋建軍,宋一鑠.  光學(xué)學(xué)報(bào). 2015(08)
[9]激光雷達(dá)應(yīng)用技術(shù)研究進(jìn)展[J]. 劉斌,張軍,魯敏,滕書華,馬燕新,張文廣.  激光與紅外. 2015(02)
[10]國外空間目標(biāo)激光三維成像雷達(dá)關(guān)鍵技術(shù)分析[J]. 宋一鑠,杜小平,曾朝陽.  裝備學(xué)院學(xué)報(bào). 2014(01)



本文編號(hào):3451774

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/xinxigongchenglunwen/3451774.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶6effb***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com