基于深度學(xué)習(xí)的大倍率遙感影像壓縮技術(shù)研究
發(fā)布時間:2021-01-15 23:46
近年來,隨著遙感衛(wèi)星數(shù)目的增加以及遙感影像分辨率的提升,遙感影像的數(shù)據(jù)規(guī)模正呈幾何級增長。遙感影像規(guī)模的提升使得遙感應(yīng)用數(shù)據(jù)源對質(zhì)量更高,內(nèi)容更加多樣化,同時也增加了遙感影像存儲與傳輸?shù)睦щy。發(fā)展遙感影像大倍率壓縮技術(shù),有利于緩解遙感影像存儲與傳輸?shù)膲毫ΑH欢?現(xiàn)有基于變換的方法進(jìn)行大倍率壓縮(>=32倍率)任務(wù)時,會產(chǎn)生視覺失真,高頻信息丟失嚴(yán)重,高光譜遙感影像壓縮任務(wù)算法復(fù)雜度高等問題。針對以上問題,本文將深度學(xué)習(xí)引入遙感影像壓縮任務(wù),通過記憶大量的分塊遙感影像數(shù)據(jù),實(shí)現(xiàn)遙感影像的稀疏表征以及高維到低維的映射,進(jìn)而達(dá)到遙感影像大倍率壓縮的要求,本文主要工作如下:1、針對視覺失真的問題,設(shè)計了一種基于稀疏棧式自編碼器的大倍率遙感影像壓縮方法。其基本思想為:首先,通過堆疊稀疏自編碼器搭建棧式稀疏自編碼器網(wǎng)絡(luò)。其次,在損失函數(shù)中引入結(jié)構(gòu)相似性度量項,使其與影像保真項聯(lián)合度量,增強(qiáng)遙感影像的視覺效果。最后,對網(wǎng)絡(luò)末端隱藏層的輸出進(jìn)行量化編碼,轉(zhuǎn)換為二進(jìn)制碼流,實(shí)現(xiàn)大倍率壓縮。實(shí)驗(yàn)結(jié)果表明,該方法在大倍率壓縮任務(wù)中,相較SPIHT與JPEG方法的SSIM指標(biāo)和PSNR指標(biāo)均有提升,并且...
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁數(shù)】:106 頁
【學(xué)位級別】:碩士
【部分圖文】:
深層網(wǎng)絡(luò)的結(jié)構(gòu)示意圖
函數(shù)在神經(jīng)網(wǎng)絡(luò)中得到了廣泛應(yīng)用。特別的,Relu 函數(shù)的求導(dǎo)簡單,并且具有良好的稀疏性,在神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù)中得到了更為廣泛的應(yīng)用。圖1.3 四種激活函數(shù)的對比曲線示意圖
圖1.4 LeNet-5 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖[31]基于神經(jīng)網(wǎng)絡(luò)的思想,1989 年,LeCun 團(tuán)隊提出了 LeNet-5 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)[31],這是最早被提出來的一種深層網(wǎng)絡(luò)模型,其網(wǎng)絡(luò)結(jié)構(gòu)如圖 1.4 所示。LeNet-5 共由 7 層組成,其中包含 2 個卷積層,2 個下采樣層以及2 個連接層,1 個高斯連接層。通過卷積層提取特征,降低參數(shù)的數(shù)量;通過下采樣層降維,提取特征;全連接層負(fù)責(zé)降維,將二維的特征圖轉(zhuǎn)換為一維的向量;高斯連接層負(fù)責(zé)輸出各類的概率信息并實(shí)現(xiàn)分類。2012 年的 ImageNet 競賽中,Krizhevsky 等人[32]訓(xùn)練了一種 8 層的深度卷積神經(jīng)網(wǎng)絡(luò) AlexNet,它由 5 個卷積層和 3 個全連接層組成。Krizhevsky 等人成功借助了ImageNet 數(shù)據(jù)集、GPU 的強(qiáng)大計算能力、Relu 函數(shù)、局部響應(yīng)歸一化(LRN, LocalResponse Normalization)技術(shù)與剪枝(Dropout)等優(yōu)化技巧,同時采取訓(xùn)練數(shù)據(jù)擴(kuò)充策略,最終贏得了 2012 年的 ILSVRC 的冠軍,錯誤率為 15.32%。2013 年,Szegedy 等人[33]改變了損失函數(shù),并去掉了頂層的 softmax 分類器,將神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換成為回歸問題。同年,Zeiler 等人[34]提出了 ZF-Net,借助反卷積技術(shù),以及繪制特征圖的方式,
本文編號:2979734
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁數(shù)】:106 頁
【學(xué)位級別】:碩士
【部分圖文】:
深層網(wǎng)絡(luò)的結(jié)構(gòu)示意圖
函數(shù)在神經(jīng)網(wǎng)絡(luò)中得到了廣泛應(yīng)用。特別的,Relu 函數(shù)的求導(dǎo)簡單,并且具有良好的稀疏性,在神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù)中得到了更為廣泛的應(yīng)用。圖1.3 四種激活函數(shù)的對比曲線示意圖
圖1.4 LeNet-5 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖[31]基于神經(jīng)網(wǎng)絡(luò)的思想,1989 年,LeCun 團(tuán)隊提出了 LeNet-5 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)[31],這是最早被提出來的一種深層網(wǎng)絡(luò)模型,其網(wǎng)絡(luò)結(jié)構(gòu)如圖 1.4 所示。LeNet-5 共由 7 層組成,其中包含 2 個卷積層,2 個下采樣層以及2 個連接層,1 個高斯連接層。通過卷積層提取特征,降低參數(shù)的數(shù)量;通過下采樣層降維,提取特征;全連接層負(fù)責(zé)降維,將二維的特征圖轉(zhuǎn)換為一維的向量;高斯連接層負(fù)責(zé)輸出各類的概率信息并實(shí)現(xiàn)分類。2012 年的 ImageNet 競賽中,Krizhevsky 等人[32]訓(xùn)練了一種 8 層的深度卷積神經(jīng)網(wǎng)絡(luò) AlexNet,它由 5 個卷積層和 3 個全連接層組成。Krizhevsky 等人成功借助了ImageNet 數(shù)據(jù)集、GPU 的強(qiáng)大計算能力、Relu 函數(shù)、局部響應(yīng)歸一化(LRN, LocalResponse Normalization)技術(shù)與剪枝(Dropout)等優(yōu)化技巧,同時采取訓(xùn)練數(shù)據(jù)擴(kuò)充策略,最終贏得了 2012 年的 ILSVRC 的冠軍,錯誤率為 15.32%。2013 年,Szegedy 等人[33]改變了損失函數(shù),并去掉了頂層的 softmax 分類器,將神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換成為回歸問題。同年,Zeiler 等人[34]提出了 ZF-Net,借助反卷積技術(shù),以及繪制特征圖的方式,
本文編號:2979734
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2979734.html
最近更新
教材專著