基于空洞卷積和噪聲估計的圖像去噪算法研究
發(fā)布時間:2021-02-25 14:57
隨著互聯(lián)網(wǎng)的發(fā)展和智能設(shè)備的普及,圖像在生物醫(yī)學(xué)、公共管理等領(lǐng)域發(fā)揮著重要作用。然而,由于環(huán)境、設(shè)備等多種因素影響,圖像會不可避免地受到噪聲污染,進而直接影響以計算機視覺為基礎(chǔ)的相關(guān)研究。因此,研究如何有效對圖像進行去噪,是計算機視覺領(lǐng)域至關(guān)重要的研究課題。近年來,基于卷積神經(jīng)網(wǎng)絡(luò)的去噪方法在快速發(fā)展的同時依舊面臨諸多難題,如深層模型帶來的巨大參數(shù)量影響實際工程應(yīng)用、單流網(wǎng)絡(luò)模型無法在有效去除噪聲的同時保留圖像本身的紋理特征、以及去噪模型無法同時處理多種類型噪聲等問題。本文針對圖像去噪算法面臨的問題,結(jié)合空洞卷積和噪聲估計,對基于深度學(xué)習的去噪方法從模型大小、圖像視覺效果、多噪聲處理能力三個方面進行了深入研究,有效提升了圖像去噪性能。本文的主要工作如下:針對基于深度學(xué)習的圖像去噪模型參數(shù)量過大的問題,提出一種基于編解碼殘差網(wǎng)絡(luò)和空洞卷積的圖像去噪算法。該算法使用了一個端到端的神經(jīng)網(wǎng)絡(luò)去噪模型,其核心模塊相較于普通結(jié)構(gòu)僅需要少量參數(shù)便可實現(xiàn)對圖像特征的有效提取。同時,殘差策略的加入使得正向信息傳導(dǎo)和反向梯度傳播的過程更為高效。實驗分析驗證了編解碼模塊、空洞卷積及殘差策略的有效性,并證明了...
【文章來源】:浙江大學(xué)浙江省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:124 頁
【學(xué)位級別】:博士
【部分圖文】:
圖1-1?Jain等人提出的基于神經(jīng)網(wǎng)絡(luò)的去噪結(jié)構(gòu)??2008年,Jain等人W第一次提出基于卷積神經(jīng)網(wǎng)絡(luò)的圖像去噪方法
他們所提出的方法不需要結(jié)??構(gòu)化的先驗知識,網(wǎng)絡(luò)的降噪能力純粹通過學(xué)習獲得。同時,由于不依賴先驗知??識,SSDA同樣可以用于其他諸如音頻去噪、圖像修復(fù)或數(shù)據(jù)預(yù)處理等任務(wù)。另??外,Xie還指出,SSDA模型的缺點在于它完全依賴于監(jiān)督訓(xùn)練,即SSDA網(wǎng)絡(luò)??只能處理訓(xùn)練時“見過”的噪聲。這應(yīng)該是所有基于深度學(xué)習方法的一個通玻??t?\??^?wmm?■■■?mtm?hm?mh??■、?'??^?amm?m?Mmm?hmb??!??AS?'??L?y??圖1-2?—個簡單的三層MLP模型??同一年,Burger等人[23]認為多層感知機(Multi-Layer?Perception,?MLP)模型??可以看作一個通用的函數(shù)逼近器,比CNN模型更具有普適性。因此,他們提出??了一個多層感知機模型去學(xué)習從噪聲圖像到無噪圖像的映射。一般來說,一個包??含一層隱藏層的簡單MLP模型結(jié)構(gòu)(圖1-2,淺綠色圓形代表神經(jīng)元)可以用如??下式子表示:??f(x)?=?b2?+?W2a{b1?+?WlX)?(1-2)??其中,WYWa和61;62分別代表每層的權(quán)重矩陣和偏移值,a代表非線性激活??函數(shù)。在文中,他們經(jīng)過實驗采用的模型為包含四個尺寸為2017的隱藏層,并??且采用了?Sigmoid函數(shù)來作為非線性激活函數(shù)。另外,文中分別在數(shù)據(jù)、參數(shù)初??始化和學(xué)習率三個層面使用如下所述小技巧(tricks)來使反向傳播更加有效率:??1.在數(shù)據(jù)層面,他們將圖像數(shù)據(jù)歸一化成均值為0且方差為1的分布。??2.在參數(shù)初始化層面,權(quán)值的獲取方式為從方差為0標準差為\/1的正態(tài)分??6??
?浙江大學(xué)博士學(xué)位論文???認的解決方案為在網(wǎng)絡(luò)中添加正則化。但是,添加正則化的深度模型雖然與之前??相比易于訓(xùn)練,但不可避免地遇到了退化問題,即網(wǎng)絡(luò)層數(shù)增加反而導(dǎo)致性能變??差。???y?'???1X1卷積,64通道??ReLU?—?? ̄?1??3X3卷積,64通道?|??ReLU??T? ̄??1X1卷積,256通道???y?[???ReLU?? ̄T ̄??圖1-3殘差網(wǎng)絡(luò)中一個殘差單元??于是,He等人于2015年末提出了一種使用直接映射來連接不同網(wǎng)絡(luò)層??的想法,并以此為基礎(chǔ)提出了經(jīng)典網(wǎng)絡(luò)ResNet。ResNet網(wǎng)絡(luò)核心在于深度殘差??學(xué)習。對于一般的網(wǎng)絡(luò)來說,單層通?梢钥醋鳎?=孖對于殘差網(wǎng)絡(luò)來說,??單層變成了?+?通過殘差塊,信息可以非常流暢地在高低層直接??傳遞。a:可以通過短路連接(shortcut?connection)來實現(xiàn),如圖1-3所示。短??路連接在ResNet中主要實現(xiàn)了恒等映射(identity?mapping),并在每一個殘差塊??中聯(lián)結(jié)輸入和輸出。它的優(yōu)勢在于不增加額外的計算復(fù)雜度。通過殘差連接,網(wǎng)??絡(luò)層數(shù)可以達到驚人的152層。自此,卷積神經(jīng)網(wǎng)絡(luò)真正邁入深度時代。??受到ResNet思想的啟發(fā),Mao等人[2]于2016年提出了一種包含對稱跳躍??連接的深度編解碼網(wǎng)絡(luò)RED來解決深度降噪摸型難以訓(xùn)練的問題。RED模型是??全卷積模型框架,即網(wǎng)絡(luò)中不包含全連接層。圖1-4為一個典型的10層RED模??型,包含5個卷積層(黃色方塊)和5個反卷積層(橙色方塊)。RED模型與之前??的方法相比,網(wǎng)絡(luò)更深且去噪效果更好。該網(wǎng)絡(luò)模型由大量
本文編號:3051138
【文章來源】:浙江大學(xué)浙江省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:124 頁
【學(xué)位級別】:博士
【部分圖文】:
圖1-1?Jain等人提出的基于神經(jīng)網(wǎng)絡(luò)的去噪結(jié)構(gòu)??2008年,Jain等人W第一次提出基于卷積神經(jīng)網(wǎng)絡(luò)的圖像去噪方法
他們所提出的方法不需要結(jié)??構(gòu)化的先驗知識,網(wǎng)絡(luò)的降噪能力純粹通過學(xué)習獲得。同時,由于不依賴先驗知??識,SSDA同樣可以用于其他諸如音頻去噪、圖像修復(fù)或數(shù)據(jù)預(yù)處理等任務(wù)。另??外,Xie還指出,SSDA模型的缺點在于它完全依賴于監(jiān)督訓(xùn)練,即SSDA網(wǎng)絡(luò)??只能處理訓(xùn)練時“見過”的噪聲。這應(yīng)該是所有基于深度學(xué)習方法的一個通玻??t?\??^?wmm?■■■?mtm?hm?mh??■、?'??^?amm?m?Mmm?hmb??!??AS?'??L?y??圖1-2?—個簡單的三層MLP模型??同一年,Burger等人[23]認為多層感知機(Multi-Layer?Perception,?MLP)模型??可以看作一個通用的函數(shù)逼近器,比CNN模型更具有普適性。因此,他們提出??了一個多層感知機模型去學(xué)習從噪聲圖像到無噪圖像的映射。一般來說,一個包??含一層隱藏層的簡單MLP模型結(jié)構(gòu)(圖1-2,淺綠色圓形代表神經(jīng)元)可以用如??下式子表示:??f(x)?=?b2?+?W2a{b1?+?WlX)?(1-2)??其中,WYWa和61;62分別代表每層的權(quán)重矩陣和偏移值,a代表非線性激活??函數(shù)。在文中,他們經(jīng)過實驗采用的模型為包含四個尺寸為2017的隱藏層,并??且采用了?Sigmoid函數(shù)來作為非線性激活函數(shù)。另外,文中分別在數(shù)據(jù)、參數(shù)初??始化和學(xué)習率三個層面使用如下所述小技巧(tricks)來使反向傳播更加有效率:??1.在數(shù)據(jù)層面,他們將圖像數(shù)據(jù)歸一化成均值為0且方差為1的分布。??2.在參數(shù)初始化層面,權(quán)值的獲取方式為從方差為0標準差為\/1的正態(tài)分??6??
?浙江大學(xué)博士學(xué)位論文???認的解決方案為在網(wǎng)絡(luò)中添加正則化。但是,添加正則化的深度模型雖然與之前??相比易于訓(xùn)練,但不可避免地遇到了退化問題,即網(wǎng)絡(luò)層數(shù)增加反而導(dǎo)致性能變??差。???y?'???1X1卷積,64通道??ReLU?—?? ̄?1??3X3卷積,64通道?|??ReLU??T? ̄??1X1卷積,256通道???y?[???ReLU?? ̄T ̄??圖1-3殘差網(wǎng)絡(luò)中一個殘差單元??于是,He等人于2015年末提出了一種使用直接映射來連接不同網(wǎng)絡(luò)層??的想法,并以此為基礎(chǔ)提出了經(jīng)典網(wǎng)絡(luò)ResNet。ResNet網(wǎng)絡(luò)核心在于深度殘差??學(xué)習。對于一般的網(wǎng)絡(luò)來說,單層通?梢钥醋鳎?=孖對于殘差網(wǎng)絡(luò)來說,??單層變成了?+?通過殘差塊,信息可以非常流暢地在高低層直接??傳遞。a:可以通過短路連接(shortcut?connection)來實現(xiàn),如圖1-3所示。短??路連接在ResNet中主要實現(xiàn)了恒等映射(identity?mapping),并在每一個殘差塊??中聯(lián)結(jié)輸入和輸出。它的優(yōu)勢在于不增加額外的計算復(fù)雜度。通過殘差連接,網(wǎng)??絡(luò)層數(shù)可以達到驚人的152層。自此,卷積神經(jīng)網(wǎng)絡(luò)真正邁入深度時代。??受到ResNet思想的啟發(fā),Mao等人[2]于2016年提出了一種包含對稱跳躍??連接的深度編解碼網(wǎng)絡(luò)RED來解決深度降噪摸型難以訓(xùn)練的問題。RED模型是??全卷積模型框架,即網(wǎng)絡(luò)中不包含全連接層。圖1-4為一個典型的10層RED模??型,包含5個卷積層(黃色方塊)和5個反卷積層(橙色方塊)。RED模型與之前??的方法相比,網(wǎng)絡(luò)更深且去噪效果更好。該網(wǎng)絡(luò)模型由大量
本文編號:3051138
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3051138.html
最近更新
教材專著