聯(lián)合卷積神經(jīng)網(wǎng)絡(luò)與集成學(xué)習(xí)的遙感影像場(chǎng)景分類
發(fā)布時(shí)間:2021-11-05 14:58
針對(duì)人工設(shè)計(jì)的中、低層特征難以實(shí)現(xiàn)復(fù)雜場(chǎng)景影像的高精度分類以及卷積神經(jīng)網(wǎng)絡(luò)依賴大量訓(xùn)練數(shù)據(jù)等問(wèn)題,結(jié)合遷移學(xué)習(xí)與集成學(xué)習(xí),提出了一種聯(lián)合卷積神經(jīng)網(wǎng)絡(luò)與集成學(xué)習(xí)的遙感影像場(chǎng)景分類算法。首先基于遷移學(xué)習(xí)的思想,利用在自然影像數(shù)據(jù)集上訓(xùn)練好的多個(gè)深層卷積神經(jīng)網(wǎng)絡(luò)模型作為特征提取器,提取圖像多個(gè)高度抽象的語(yǔ)義特征;然后構(gòu)建由Logistic回歸和支持向量機(jī)組成的Stacking集成模型,對(duì)同一圖像的多個(gè)特征分別訓(xùn)練Logistic模型,將預(yù)測(cè)概率結(jié)果融合構(gòu)建概率特征;最后利用支持向量機(jī)對(duì)概率特征訓(xùn)練和預(yù)測(cè),得到場(chǎng)景影像的分類結(jié)果。利用UCMercedLandUse和NWPU-RESISC 45兩種不同規(guī)模的遙感影像數(shù)據(jù)集進(jìn)行試驗(yàn),即使在只有10%的數(shù)據(jù)作為訓(xùn)練樣本情況下,本文方法能夠分別達(dá)到90.74%和87.21%的分類精度。
【文章來(lái)源】:遙感學(xué)報(bào). 2020,24(06)北大核心EICSCD
【文章頁(yè)數(shù)】:11 頁(yè)
【部分圖文】:
卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)
NWPU-RESISC45數(shù)據(jù)集部分樣本
采用MS-DCNN(許鳳暉等,2016)對(duì)UCMerced_LandUse數(shù)據(jù)集樣本劃分方法,每類樣本隨機(jī)選取80%作為訓(xùn)練數(shù)據(jù),其余作為測(cè)試數(shù)據(jù)。為保證試驗(yàn)數(shù)據(jù)的有效性,將數(shù)據(jù)隨機(jī)劃分為5份,任選4份作為訓(xùn)練數(shù)據(jù),其余一份作為測(cè)試數(shù)據(jù),進(jìn)行5組試驗(yàn),并將5組試驗(yàn)結(jié)果的平均值作為最終分類結(jié)果(表6和圖9)。在相同數(shù)據(jù)集及劃分方法下實(shí)驗(yàn),本文方法總體平均精度達(dá)到98.00%,高于其他基于詞袋模型以及卷積神經(jīng)網(wǎng)絡(luò)的分類算法。如圖9所示,UCMerced_LandUse數(shù)據(jù)集中大多數(shù)類別的分類準(zhǔn)確率本文方法可以達(dá)到100%,分類精度最差的類別為TSC(tennis courts),同樣可以達(dá)到87%。5 結(jié)論
【參考文獻(xiàn)】:
期刊論文
[1]高分辨率遙感影像場(chǎng)景的多尺度神經(jīng)網(wǎng)絡(luò)分類法[J]. 鄭卓,方芳,劉袁緣,龔希,郭明強(qiáng),羅忠文. 測(cè)繪學(xué)報(bào). 2018(05)
[2]顧及遙感影像場(chǎng)景類別信息的視覺(jué)單詞優(yōu)化分類[J]. 閆利,朱睿希,劉異,莫楠. 遙感學(xué)報(bào). 2017(02)
[3]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計(jì)算機(jī)學(xué)報(bào). 2017(06)
[4]聯(lián)合顯著性和多層卷積神經(jīng)網(wǎng)絡(luò)的高分影像場(chǎng)景分類[J]. 何小飛,鄒崢嶸,陶超,張佳興. 測(cè)繪學(xué)報(bào). 2016(09)
[5]利用多尺度特征與深度網(wǎng)絡(luò)對(duì)遙感影像進(jìn)行場(chǎng)景分類[J]. 許夙暉,慕曉冬,趙鵬,馬驥. 測(cè)繪學(xué)報(bào). 2016(07)
[6]圖像理解中的卷積神經(jīng)網(wǎng)絡(luò)[J]. 常亮,鄧小明,周明全,武仲科,袁野,楊碩,王宏安. 自動(dòng)化學(xué)報(bào). 2016(09)
本文編號(hào):3478019
【文章來(lái)源】:遙感學(xué)報(bào). 2020,24(06)北大核心EICSCD
【文章頁(yè)數(shù)】:11 頁(yè)
【部分圖文】:
卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)
NWPU-RESISC45數(shù)據(jù)集部分樣本
采用MS-DCNN(許鳳暉等,2016)對(duì)UCMerced_LandUse數(shù)據(jù)集樣本劃分方法,每類樣本隨機(jī)選取80%作為訓(xùn)練數(shù)據(jù),其余作為測(cè)試數(shù)據(jù)。為保證試驗(yàn)數(shù)據(jù)的有效性,將數(shù)據(jù)隨機(jī)劃分為5份,任選4份作為訓(xùn)練數(shù)據(jù),其余一份作為測(cè)試數(shù)據(jù),進(jìn)行5組試驗(yàn),并將5組試驗(yàn)結(jié)果的平均值作為最終分類結(jié)果(表6和圖9)。在相同數(shù)據(jù)集及劃分方法下實(shí)驗(yàn),本文方法總體平均精度達(dá)到98.00%,高于其他基于詞袋模型以及卷積神經(jīng)網(wǎng)絡(luò)的分類算法。如圖9所示,UCMerced_LandUse數(shù)據(jù)集中大多數(shù)類別的分類準(zhǔn)確率本文方法可以達(dá)到100%,分類精度最差的類別為TSC(tennis courts),同樣可以達(dá)到87%。5 結(jié)論
【參考文獻(xiàn)】:
期刊論文
[1]高分辨率遙感影像場(chǎng)景的多尺度神經(jīng)網(wǎng)絡(luò)分類法[J]. 鄭卓,方芳,劉袁緣,龔希,郭明強(qiáng),羅忠文. 測(cè)繪學(xué)報(bào). 2018(05)
[2]顧及遙感影像場(chǎng)景類別信息的視覺(jué)單詞優(yōu)化分類[J]. 閆利,朱睿希,劉異,莫楠. 遙感學(xué)報(bào). 2017(02)
[3]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計(jì)算機(jī)學(xué)報(bào). 2017(06)
[4]聯(lián)合顯著性和多層卷積神經(jīng)網(wǎng)絡(luò)的高分影像場(chǎng)景分類[J]. 何小飛,鄒崢嶸,陶超,張佳興. 測(cè)繪學(xué)報(bào). 2016(09)
[5]利用多尺度特征與深度網(wǎng)絡(luò)對(duì)遙感影像進(jìn)行場(chǎng)景分類[J]. 許夙暉,慕曉冬,趙鵬,馬驥. 測(cè)繪學(xué)報(bào). 2016(07)
[6]圖像理解中的卷積神經(jīng)網(wǎng)絡(luò)[J]. 常亮,鄧小明,周明全,武仲科,袁野,楊碩,王宏安. 自動(dòng)化學(xué)報(bào). 2016(09)
本文編號(hào):3478019
本文鏈接:http://www.sikaile.net/guanlilunwen/gongchengguanli/3478019.html
最近更新
教材專著