基于深度學(xué)習(xí)的城市高分遙感圖像變化檢測(cè)方法的研究
發(fā)布時(shí)間:2021-03-31 07:11
針對(duì)城市同一區(qū)域不同時(shí)相的高分遙感圖像,提出了基于深度學(xué)習(xí)的高分遙感圖像變化檢測(cè)模型。方法采用多尺度裁剪、數(shù)值歸一化處理、提取綠植等方法進(jìn)行數(shù)據(jù)預(yù)處理;然后基于U-Net、CE-Net和Deep Lab等語義分割模型,以不同時(shí)相的遙感圖和變化區(qū)域掩碼為訓(xùn)練集,設(shè)計(jì)加權(quán)交叉熵?fù)p失函數(shù),進(jìn)行多尺度交叉訓(xùn)練、Adam優(yōu)化;最后將模型預(yù)測(cè)的結(jié)果輸入后處理算法中,采用圖割算法graph cut減少模型預(yù)測(cè)中產(chǎn)生的噪聲。實(shí)驗(yàn)結(jié)果與人工標(biāo)注的變化區(qū)域掩碼比較,計(jì)算F1分?jǐn)?shù),通過實(shí)驗(yàn)發(fā)現(xiàn)將不同的語義分割模型應(yīng)用到遙感變化檢測(cè)中都有較好的性能,增加數(shù)據(jù)預(yù)處理和后處理可以有效提升變化檢測(cè)精度,其中CE-Net相比其他模型效果更好。
【文章來源】:計(jì)算機(jī)應(yīng)用研究. 2020,37(S1)北大核心CSCD
【文章頁數(shù)】:4 頁
【部分圖文】:
DeepLab網(wǎng)絡(luò)結(jié)構(gòu)
謁陌媯?⒃謨鏌宸指盍煊?取得了最佳效果。本實(shí)驗(yàn)采用DeepLabv3方法對(duì)多時(shí)相遙感影像進(jìn)行變化檢測(cè),并與其他語義分割算法作比較。語義分割連續(xù)下采樣后,高層特征語義特征更加抽象,但這樣會(huì)降低特征分辨率,影響定位預(yù)測(cè)效果。此外,多尺度目標(biāo)的存在要求網(wǎng)絡(luò)更加魯棒。基于這些挑戰(zhàn),本文采用的DeepLabv3通過改進(jìn)空洞卷積,使用級(jí)聯(lián)和空間金字塔池化方法,改進(jìn)ASPP(atrousspatialpyramidpooling)可以獲取更大的感受野,從而提取到多尺度信息。全局特征或上下文信息有助于語義分割,如圖5所示,最后的語義特征會(huì)非常小,但這不利于語義分割任務(wù),步幅是8時(shí)會(huì)占用較多內(nèi)存,所以本文訓(xùn)練的DeepLabv3選擇步幅為16,如圖6所示,使用不同采樣率的空洞卷積保持輸出語義特征分辨率。圖5無空洞深度卷積網(wǎng)絡(luò)圖6空洞深度卷積網(wǎng)絡(luò)DeepLabv2提出ASPP模塊,其在特征中并行使用四種采樣率不同的空洞卷積,但實(shí)驗(yàn)表明采樣率太大,會(huì)減少卷積核有效權(quán)重。為此,DeepLabv3改進(jìn)ASPP模塊,如圖7所示,改進(jìn)的ASPP包括一個(gè)1×1卷積核和三個(gè)大小3×3采樣率為6,12,18的空洞卷積,最后將特征全局平均池化,經(jīng)過1×1卷積,再融合得到語義特征,經(jīng)過上采樣后輸出最終圖像分割結(jié)果。圖7DeepLab網(wǎng)絡(luò)結(jié)構(gòu)第37卷增刊陳璐,等:基于深度學(xué)習(xí)的城市高分遙感圖像變化檢測(cè)方法的研究·123·
?U-Net++,是一個(gè)對(duì)U-Net進(jìn)行改進(jìn)的語義分割網(wǎng)絡(luò),主要的改進(jìn)點(diǎn)是在編碼分支和解碼分支中間添加了多個(gè)連接點(diǎn),網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。NestedU-Net認(rèn)為原始的U-Net網(wǎng)絡(luò)直接將編碼分支的淺層特征與解碼分支的深層特征結(jié)合不是很合理,會(huì)產(chǎn)生一定的語義鴻溝。因此NestedU-Net提出了一個(gè)假設(shè),結(jié)合兩個(gè)層次不同但語義差別較小的特征會(huì)使得網(wǎng)絡(luò)在訓(xùn)練過程中更容易理解語義特征所蘊(yùn)涵的信息。為了跨越U-Net原本存在的語義鴻溝,如圖3所示,NestedU-Net在兩個(gè)分支間添加了許多連接。圖3NestedU-Net結(jié)構(gòu)在本文中使用的U-Net的編碼分支和解碼分支的中間增加了多級(jí)節(jié)點(diǎn),有利于逐步漸進(jìn)地生成有意義的語義信息。每生成一個(gè)中間節(jié)點(diǎn)都需要連接所有已存在的同像素特征圖,并且連接一層經(jīng)過上采樣的深層語義特征,逐級(jí)連接的特征會(huì)跨越語義鴻溝的障礙。NestedU-Net最終會(huì)產(chǎn)生多個(gè)同原始圖片同像素的高分遙感特征圖,這些同像素的特征圖可以直接和標(biāo)簽掩模計(jì)算出損失值,因此NestedU-Net利用不同層的語義分割圖計(jì)算多級(jí)損失值并反向更新網(wǎng)絡(luò)參數(shù)。3)CE-Net網(wǎng)絡(luò)Gu等人[17]提出CE-Net用來提取醫(yī)療影像中病灶切片。CE-Net的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)靈感同樣也是來自于U-Net。主要的結(jié)構(gòu)變動(dòng)為在最底層特征層處理過程中添加了感受野更寬的DACblock和不同核大小池化處理的RMPblock,如圖4所示。圖4CE-Net網(wǎng)絡(luò)結(jié)構(gòu)本文采用的CE-Net編碼部分神經(jīng)網(wǎng)絡(luò)采用的是ResNet34網(wǎng)絡(luò),含有殘差塊結(jié)構(gòu),理論上會(huì)有更快的收斂效果。對(duì)底層的高級(jí)語義信息,相較于U-Net,CE-Net采用了更多的增大感受野操作處理。DACblock的設(shè)計(jì)思想與incep
本文編號(hào):3111028
【文章來源】:計(jì)算機(jī)應(yīng)用研究. 2020,37(S1)北大核心CSCD
【文章頁數(shù)】:4 頁
【部分圖文】:
DeepLab網(wǎng)絡(luò)結(jié)構(gòu)
謁陌媯?⒃謨鏌宸指盍煊?取得了最佳效果。本實(shí)驗(yàn)采用DeepLabv3方法對(duì)多時(shí)相遙感影像進(jìn)行變化檢測(cè),并與其他語義分割算法作比較。語義分割連續(xù)下采樣后,高層特征語義特征更加抽象,但這樣會(huì)降低特征分辨率,影響定位預(yù)測(cè)效果。此外,多尺度目標(biāo)的存在要求網(wǎng)絡(luò)更加魯棒。基于這些挑戰(zhàn),本文采用的DeepLabv3通過改進(jìn)空洞卷積,使用級(jí)聯(lián)和空間金字塔池化方法,改進(jìn)ASPP(atrousspatialpyramidpooling)可以獲取更大的感受野,從而提取到多尺度信息。全局特征或上下文信息有助于語義分割,如圖5所示,最后的語義特征會(huì)非常小,但這不利于語義分割任務(wù),步幅是8時(shí)會(huì)占用較多內(nèi)存,所以本文訓(xùn)練的DeepLabv3選擇步幅為16,如圖6所示,使用不同采樣率的空洞卷積保持輸出語義特征分辨率。圖5無空洞深度卷積網(wǎng)絡(luò)圖6空洞深度卷積網(wǎng)絡(luò)DeepLabv2提出ASPP模塊,其在特征中并行使用四種采樣率不同的空洞卷積,但實(shí)驗(yàn)表明采樣率太大,會(huì)減少卷積核有效權(quán)重。為此,DeepLabv3改進(jìn)ASPP模塊,如圖7所示,改進(jìn)的ASPP包括一個(gè)1×1卷積核和三個(gè)大小3×3采樣率為6,12,18的空洞卷積,最后將特征全局平均池化,經(jīng)過1×1卷積,再融合得到語義特征,經(jīng)過上采樣后輸出最終圖像分割結(jié)果。圖7DeepLab網(wǎng)絡(luò)結(jié)構(gòu)第37卷增刊陳璐,等:基于深度學(xué)習(xí)的城市高分遙感圖像變化檢測(cè)方法的研究·123·
?U-Net++,是一個(gè)對(duì)U-Net進(jìn)行改進(jìn)的語義分割網(wǎng)絡(luò),主要的改進(jìn)點(diǎn)是在編碼分支和解碼分支中間添加了多個(gè)連接點(diǎn),網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。NestedU-Net認(rèn)為原始的U-Net網(wǎng)絡(luò)直接將編碼分支的淺層特征與解碼分支的深層特征結(jié)合不是很合理,會(huì)產(chǎn)生一定的語義鴻溝。因此NestedU-Net提出了一個(gè)假設(shè),結(jié)合兩個(gè)層次不同但語義差別較小的特征會(huì)使得網(wǎng)絡(luò)在訓(xùn)練過程中更容易理解語義特征所蘊(yùn)涵的信息。為了跨越U-Net原本存在的語義鴻溝,如圖3所示,NestedU-Net在兩個(gè)分支間添加了許多連接。圖3NestedU-Net結(jié)構(gòu)在本文中使用的U-Net的編碼分支和解碼分支的中間增加了多級(jí)節(jié)點(diǎn),有利于逐步漸進(jìn)地生成有意義的語義信息。每生成一個(gè)中間節(jié)點(diǎn)都需要連接所有已存在的同像素特征圖,并且連接一層經(jīng)過上采樣的深層語義特征,逐級(jí)連接的特征會(huì)跨越語義鴻溝的障礙。NestedU-Net最終會(huì)產(chǎn)生多個(gè)同原始圖片同像素的高分遙感特征圖,這些同像素的特征圖可以直接和標(biāo)簽掩模計(jì)算出損失值,因此NestedU-Net利用不同層的語義分割圖計(jì)算多級(jí)損失值并反向更新網(wǎng)絡(luò)參數(shù)。3)CE-Net網(wǎng)絡(luò)Gu等人[17]提出CE-Net用來提取醫(yī)療影像中病灶切片。CE-Net的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)靈感同樣也是來自于U-Net。主要的結(jié)構(gòu)變動(dòng)為在最底層特征層處理過程中添加了感受野更寬的DACblock和不同核大小池化處理的RMPblock,如圖4所示。圖4CE-Net網(wǎng)絡(luò)結(jié)構(gòu)本文采用的CE-Net編碼部分神經(jīng)網(wǎng)絡(luò)采用的是ResNet34網(wǎng)絡(luò),含有殘差塊結(jié)構(gòu),理論上會(huì)有更快的收斂效果。對(duì)底層的高級(jí)語義信息,相較于U-Net,CE-Net采用了更多的增大感受野操作處理。DACblock的設(shè)計(jì)思想與incep
本文編號(hào):3111028
本文鏈接:http://www.sikaile.net/guanlilunwen/gongchengguanli/3111028.html
最近更新
教材專著