天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于自步學(xué)習(xí)和多目標(biāo)模糊聚類(lèi)的無(wú)監(jiān)督遙感圖像變化檢測(cè)

發(fā)布時(shí)間:2020-11-22 17:51
   變化檢測(cè)技術(shù)旨在檢測(cè)同一地域范圍內(nèi)、不同時(shí)刻拍攝的兩幅圖像之間的變化區(qū)域。遙感技術(shù)的發(fā)展為變化檢測(cè)技術(shù)的發(fā)展提供了有效的數(shù)據(jù)依托,并且進(jìn)一步推動(dòng)了變化檢測(cè)技術(shù)在軍事、民用等領(lǐng)域的應(yīng)用。近年來(lái),遙感圖像的變化檢測(cè)方法經(jīng)歷了從傳統(tǒng)的單目標(biāo)、無(wú)監(jiān)督的方法逐步發(fā)展到多目標(biāo)、基于監(jiān)督分類(lèi)器的變化檢測(cè)方法。雖然很多已經(jīng)提出的變化檢測(cè)方法已經(jīng)獲得了不錯(cuò)的檢測(cè)性能,然而面對(duì)日益復(fù)雜的遙感圖像數(shù)據(jù),現(xiàn)有的變化檢測(cè)方法的檢測(cè)精度難以滿(mǎn)足人們?cè)趯?shí)際應(yīng)用中的需求,因此我們需要進(jìn)一步研究探索來(lái)提升變化檢測(cè)方法的性能。本文在分析國(guó)內(nèi)外相關(guān)成果的基礎(chǔ)上,提出了基于分組自步學(xué)習(xí)的變化檢測(cè)框架,并為該框架提出了一個(gè)新的時(shí)變自步正則項(xiàng)以進(jìn)一步提升檢測(cè)性能,此外,我們還提出了基于自步學(xué)習(xí)和模糊聚類(lèi)的進(jìn)化多目標(biāo)變化檢測(cè)方法。本文的主要貢獻(xiàn)如下:1.本文提出了一種基于分組自步學(xué)習(xí)的變化檢測(cè)框架。該方法主要針對(duì)基于監(jiān)督分類(lèi)器的無(wú)監(jiān)督變化檢測(cè)方法中訓(xùn)練樣本難以獲取的問(wèn)題,采用基于分組的自步學(xué)習(xí)方式為監(jiān)督分類(lèi)器挖掘可靠的訓(xùn)練樣本。所提的變化檢測(cè)框架用自步學(xué)習(xí)的機(jī)制,通過(guò)迭代地學(xué)習(xí)加權(quán)的訓(xùn)練樣本和更新樣本權(quán)重來(lái)自動(dòng)地獲取可靠的訓(xùn)練樣本。具體地,在權(quán)重更新過(guò)程中,我們引入了組信息來(lái)避免訓(xùn)練樣本取自圖像的同質(zhì)區(qū)域。在五個(gè)遙感圖像數(shù)據(jù)集上的測(cè)試結(jié)果表明了所提變化檢測(cè)框架的有效性。2.本文提出了一個(gè)新的時(shí)變自步正則項(xiàng)用于基于分組自步學(xué)習(xí)的變化檢測(cè)框架。該時(shí)變自步正則項(xiàng)可以自動(dòng)地為自步學(xué)習(xí)設(shè)計(jì)權(quán)重計(jì)算方案。具體地,在自步學(xué)習(xí)的初期,僅有少數(shù)訓(xùn)練樣本被選來(lái)訓(xùn)練分類(lèi)器,此時(shí)給這些樣本較高的權(quán)重值,以便分類(lèi)器充分學(xué)習(xí)訓(xùn)練特征與分類(lèi)結(jié)果之間的映射關(guān)系;在自步學(xué)習(xí)的后期,隨著步長(zhǎng)參數(shù)值的增大,越來(lái)越多的復(fù)雜樣本被用來(lái)訓(xùn)練,為了削弱不可靠樣本對(duì)分類(lèi)器的影響,僅給其中的少部分的更為可靠的樣本較大的權(quán)重值,其余相對(duì)復(fù)雜的樣本較小的權(quán)重值。在五個(gè)數(shù)據(jù)集上的測(cè)試結(jié)果表明了所提時(shí)變正則項(xiàng)的有效性。3.本文提出了基于自步學(xué)習(xí)和模糊聚類(lèi)的進(jìn)化多目標(biāo)變化檢測(cè)方法。針對(duì)多目標(biāo)模糊聚類(lèi)方法中由于目標(biāo)函數(shù)值計(jì)算復(fù)雜而導(dǎo)致的候選解選擇耗時(shí)的問(wèn)題,我們采用回歸技術(shù)來(lái)對(duì)進(jìn)化過(guò)程中的子代候選解進(jìn)行優(yōu)越性預(yù)測(cè)。具體地,在進(jìn)化過(guò)程中,我們使用自步學(xué)習(xí)為回歸模型獲取可靠的訓(xùn)練樣本以獲得更為魯棒的回歸模型,并從子代候選解中挑選可靠的子代解以便幫助進(jìn)化算法收斂到更優(yōu)的估計(jì)的Pareto最優(yōu)解,從而改善多目標(biāo)變化檢測(cè)方法的性能。
【學(xué)位單位】:西安電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位年份】:2019
【中圖分類(lèi)】:TP751
【部分圖文】:

參考圖,渥太華,變化檢測(cè),數(shù)據(jù)集


(k) FCM+SPSM (l) FCM+GSPSM (m) FCM+SVM (n) FCM+SPSVM (o) FCM+GSPSVM圖3.15渥太華數(shù)據(jù)集上的變化檢測(cè)結(jié)果圖及參考圖(2)石門(mén)數(shù)據(jù)集的變化檢測(cè)結(jié)果所提方法和對(duì)比方法在石門(mén)數(shù)據(jù)集上的變化檢測(cè)結(jié)果圖如圖3.16所示,它們所對(duì)應(yīng)的結(jié)果評(píng)價(jià)指標(biāo)如表3.2所示。由圖(b)~(f) 可以看出,傳統(tǒng)的無(wú)監(jiān)督方法中,MRFFCM和EM算法的結(jié)果圖中存在大量的白色噪點(diǎn)誤將不變區(qū)域檢測(cè)為變化區(qū)域,因而其OE值較高,KC值較低;其他方法結(jié)果圖中的誤檢情況有所改善但仍較為嚴(yán)重。相對(duì)于閾值法和聚類(lèi)法,基于監(jiān)督分類(lèi)器的方法在抑制噪點(diǎn)方面取得了較30

參考圖,舊金山,變化檢測(cè),數(shù)據(jù)集


(k) FCM+SPSM (l) FCM+GSPSM (m) FCM+SVM (n) FCM+SPSVM (o) FCM+GSPSVM圖3.17舊金山數(shù)據(jù)集上的變化檢測(cè)結(jié)果圖及參考圖表3.3舊金山數(shù)據(jù)集的評(píng)價(jià)指標(biāo)結(jié)果變化檢測(cè)方法PCC OE KC(%)FCM 0.8672 19161 62.49FLICM 0.9089 13144 71.76KWFLICM 0.8052 28111 51.17EM 0.9380 8940 78.12OTSU 0.9277 10436 76.28FCM+NN 0.8902 15847 67.18FCM+SPNN 0.9479 7524 80.84FCM+GSPNN 0.9495 7290 81.66FCM+SM 0.7721 19161 45.73FCM+SPSM 0.9441 8064 79.25FCM+GSPSM 0.9453 7893 80.21FCM+SVM 0.8861 16442 66.56FCM+SPSVM 0.9468 7680 80.45FCM+GSPSVM 0.9479 7517 81.29

參考圖,變化檢測(cè),參考圖,數(shù)據(jù)集


西安電子科技大學(xué)碩士學(xué)位論文誤檢程度有所緩和;GSPSVM結(jié)圖中盡管存在大量的綠色誤檢的噪點(diǎn),但是同時(shí)其紅色線狀區(qū)域基本與差異圖中的紅色區(qū)域相一致,因而取得了較高的KC值?傮w來(lái)看,本章所提的基于分組自步學(xué)習(xí)的變化檢測(cè)方法取得了更好的變化檢測(cè)結(jié)果。(a) Ref (b) FCM (c) FLICM (d) MRFFCM (e) EM(f) OTSU (g) FCM+NN (h) FCM+SPNN (i) FCM+GSPNN (j) FCM+SM
【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 眭海剛;馮文卿;李文卓;孫開(kāi)敏;徐川;;多時(shí)相遙感影像變化檢測(cè)方法綜述[J];武漢大學(xué)學(xué)報(bào)(信息科學(xué)版);2018年12期

2 謝馨嫻;岳彩榮;霍鵬;;森林變化檢測(cè)方法比較[J];四川林業(yè)科技;2018年03期

3 王娜;張景發(fā);;SAR圖像變化檢測(cè)技術(shù)方法綜述[J];地殼構(gòu)造與地殼應(yīng)力文集;2016年01期

4 宋英旭;牛瑞卿;張景發(fā);李永生;羅毅;馮時(shí);陳艷;;遙感影像變化檢測(cè)方法對(duì)比[J];地殼構(gòu)造與地殼應(yīng)力文集;2016年02期

5 李強(qiáng);張景發(fā);;變化檢測(cè)技術(shù)在震害信息提取中的應(yīng)用[J];地理空間信息;2014年02期

6 龍玄耀;李培軍;;基于圖像分割的城市變化檢測(cè)[J];地球信息科學(xué);2008年01期

7 于躍龍,盧煥章;以統(tǒng)計(jì)變化檢測(cè)為基礎(chǔ)的實(shí)時(shí)分割視頻對(duì)象新方法[J];中國(guó)圖象圖形學(xué)報(bào);2005年01期

8 孫揚(yáng);朱凌;修田雨;;基于國(guó)產(chǎn)衛(wèi)星影像的協(xié)同分割變化檢測(cè)[J];北京建筑大學(xué)學(xué)報(bào);2018年04期

9 王鑫;;聚類(lèi)分析觀點(diǎn)下的分散式最快變化檢測(cè)[J];南京理工大學(xué)學(xué)報(bào);2014年02期

10 沈壁川;毛期儉;呂翊;;基于巴氏距離的視頻流場(chǎng)景變化檢測(cè)(英文)[J];重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年01期


相關(guān)博士學(xué)位論文 前10條

1 邵攀;非監(jiān)督遙感變化檢測(cè)模糊方法研究[D];武漢大學(xué);2016年

2 李文卓;時(shí)序無(wú)人機(jī)影像二三維綜合的面向?qū)ο蠼ㄖ镒兓瘷z測(cè)關(guān)鍵技術(shù)研究[D];武漢大學(xué);2017年

3 呂臻;高分辨率遙感影像道路提取與變化檢測(cè)關(guān)鍵技術(shù)研究[D];武漢大學(xué);2017年

4 彭代鋒;基于多特征信息挖掘的對(duì)象級(jí)光學(xué)衛(wèi)星影像變化檢測(cè)研究[D];武漢大學(xué);2017年

5 鄭耀國(guó);基于結(jié)構(gòu)化表示學(xué)習(xí)的遙感圖像分類(lèi)及變化檢測(cè)[D];西安電子科技大學(xué);2016年

6 蘇臨之;基于像素信息和深度學(xué)習(xí)的遙感圖像變化檢測(cè)技術(shù)[D];西安電子科技大學(xué);2016年

7 賈璐;基于核理論的遙感影像變化檢測(cè)算法研究[D];西安電子科技大學(xué);2016年

8 李瑜;基于特征學(xué)習(xí)的SAR圖像變化檢測(cè)方法研究[D];西安電子科技大學(xué);2016年

9 李振軒;基于差分測(cè)度的高分辨率遙感影像可靠性變化檢測(cè)方法研究[D];中國(guó)礦業(yè)大學(xué);2018年

10 劉博宇;時(shí)序NDVI數(shù)據(jù)集螺線型構(gòu)建及多形狀參數(shù)變化檢測(cè)[D];吉林大學(xué);2018年


相關(guān)碩士學(xué)位論文 前10條

1 李進(jìn);基于深度學(xué)習(xí)的高分辨率遙感圖像變化檢測(cè)[D];江西師范大學(xué);2019年

2 王成軍;基于超像素與主動(dòng)學(xué)習(xí)采樣策略的高分影像變化檢測(cè)方法研究[D];福州大學(xué);2018年

3 羅星;基于中層語(yǔ)義特征的高分辨率遙感影像變化檢測(cè)方法研究[D];福州大學(xué);2018年

4 劉本強(qiáng);基于鄰域相對(duì)熵和融合紋理信息的SAR影像變化檢測(cè)[D];山東科技大學(xué);2018年

5 周曉君;多時(shí)相高分辨率遙感影像變化檢測(cè)算法研究[D];大連理工大學(xué);2019年

6 張杰;基于樣本不平衡學(xué)習(xí)和結(jié)構(gòu)語(yǔ)義信息的SAR圖像變化檢測(cè)網(wǎng)絡(luò)[D];西安電子科技大學(xué);2019年

7 陳奎伊;基于傾斜攝影測(cè)量的建筑物對(duì)象級(jí)三維變化檢測(cè)方法[D];西南交通大學(xué);2019年

8 劉穗君;基于SAR影像強(qiáng)度與相干系數(shù)的滑坡提取研究[D];西南交通大學(xué);2019年

9 王守峰;面向?qū)ο蟮亩喙庾V遙感影像變化檢測(cè)方法研究[D];合肥工業(yè)大學(xué);2019年

10 吳憲;基于對(duì)象分割的衛(wèi)星圖像中物體變化檢測(cè)與識(shí)別算法研究[D];北京交通大學(xué);2019年



本文編號(hào):2894619

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2894619.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)72f3d***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com