基于貝葉斯框架的全卷積網(wǎng)絡(luò)和顯式邊緣網(wǎng)絡(luò)修正的SAR圖像分類(lèi)
本文選題:合成孔徑雷達(dá) 切入點(diǎn):后置條件隨機(jī)場(chǎng) 出處:《武漢大學(xué)》2017年碩士論文
【摘要】:合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)信號(hào)相較于傳統(tǒng)光學(xué)圖像信號(hào)具有高解析度,多通道的特點(diǎn),主要用于民用的如農(nóng)作物監(jiān)測(cè),災(zāi)害監(jiān)測(cè),軍用的如地圖繪制,軍事偵察等。一般將SAR信號(hào)轉(zhuǎn)化為對(duì)應(yīng)多通道圖像,利用現(xiàn)有光學(xué)圖像的方法來(lái)進(jìn)行場(chǎng)景分類(lèi)與標(biāo)注,本文利用ESAR的Pauli分解偽彩圖,首先用傳統(tǒng)的方法來(lái)分類(lèi),然后使用神經(jīng)網(wǎng)絡(luò)和邊緣約束的方法,相較于以前的方法提高了正確率,改善了邊緣分布。在此之前經(jīng)典的傳統(tǒng)方法要進(jìn)行超像素塊的分割,塊特征的提取,以及特征分類(lèi)器這三個(gè)步驟,均值平移(meanshift)或分水嶺方法常用于超像素塊的提取,分類(lèi)器多采用支持向量機(jī)(Support Vector Machine,SVM)或多層網(wǎng)絡(luò)(Back Propagation Network,BP)等,之后也引入了馬爾科夫場(chǎng)(Markov Random Filed,MRF)和條件隨機(jī)場(chǎng)(Conditional Random Field,CRF)進(jìn)一步考慮周?chē)袼貕K的分類(lèi)類(lèi)別從而進(jìn)一步提高了正確率。首先,以前的方法的分類(lèi)器多使用傳統(tǒng)如SVM,BP,Logistic classifier等分類(lèi)器,這些分類(lèi)器并不適合圖像信號(hào),為提高圖像初始的分類(lèi)正確率,引入全卷積網(wǎng)絡(luò)(Fully Convolutional Network,FCN)網(wǎng)絡(luò)中效果最好的FCN8作為分類(lèi)器,FCN8同時(shí)也負(fù)責(zé)卷積特征提取,同時(shí)FCN不需要用其他方法如meanshift來(lái)先將圖像分塊,再去針對(duì)區(qū)域處理,而是直接作用于單個(gè)像素點(diǎn)的RGB向量上。然后,為了考慮周?chē)袼胤诸?lèi)類(lèi)別的影響,同時(shí)考慮自身像素的分類(lèi)類(lèi)別,引入Deeplab的全連接CRF綜合考慮周?chē)袼氐念?lèi)別先驗(yàn)信息,并用網(wǎng)格優(yōu)化法得到合適的CRF相關(guān)參數(shù)。FCN網(wǎng)絡(luò)用于分割時(shí)邊緣部分的像素點(diǎn)分類(lèi)不準(zhǔn)確,這是反卷積和卷積的卷積核尺度決定的,在Deeplab內(nèi)部利用區(qū)域變換(DomainTransform,DT)網(wǎng)絡(luò)可以稍微修正邊緣像素點(diǎn)的分類(lèi)結(jié)果,但效果不顯著,原DT算法存在很多問(wèn)題,加以分析改進(jìn)提出自己的改進(jìn)DT擴(kuò)散模型,在Deeplab外部利用FCN邊緣網(wǎng)絡(luò)提取邊緣信息,分別與DT的內(nèi)部邊緣網(wǎng)絡(luò)輸出融合后輸入DT中,然后與Deeplab的結(jié)果進(jìn)行外部融合,融合方法包括我提出的改進(jìn)DT的擴(kuò)散法和補(bǔ)洞法。同時(shí)在內(nèi)部和外部進(jìn)行邊緣融合最終可以將分類(lèi)結(jié)果邊緣改善以及提高一定的正確率。最后在ESAR數(shù)據(jù)上進(jìn)行了多方案的對(duì)比實(shí)驗(yàn),分別為基于potts先驗(yàn)的標(biāo)準(zhǔn)CRF或SVM分類(lèi)模型并采取meanshift分割的方法,FCN8,Deeplab以及Deeplab-DT和最終的Deeplab-DT加FCN邊緣網(wǎng)絡(luò)融合的方法,實(shí)驗(yàn)表明每一種方案都比較以前的方案有一定提升,最終的邊緣后置融合的方案效果最好,正確率最高同時(shí)邊緣修正的效果很好。
[Abstract]:Compared with traditional optical image signals, synthetic Aperture radar synthetic Aperture radar (SAR) signals have the characteristics of high resolution and multi-channel. They are mainly used for civilian applications such as crop monitoring, disaster monitoring and military mapping. Military reconnaissance and so on. The SAR signal is generally converted into the corresponding multi-channel image, and the existing methods of optical image are used to classify and label the scene. In this paper, the pseudo-color image is decomposed by Pauli of ESAR. Firstly, the traditional method is used to classify the scene. Then, the neural network and edge constraint are used to improve the accuracy and edge distribution compared with the previous methods. Before this, the classical traditional methods are used to segment the super-pixel blocks and extract the features of the blocks. The three steps of feature classifier, mean shift mean shift (mean shift) or watershed method are often used to extract super-pixel blocks. Support vector machine support Vector machine (SVM) or multilayer network back Propagation network (BP) are often used in classifier. After that, Markov Random filter (MRFs) and conditional conditional Random (CRF) are introduced to further consider the classification classification of the surrounding super-pixel blocks, thus further improving the accuracy. Firstly, the traditional classifiers such as SVMBPPU Logistic classifier are often used in the former methods. These classifiers are not suitable for image signals. In order to improve the initial classification accuracy of images, FCN8, which is the most effective classifier in Fully Convolutional Network (FCN8) network, is also used to extract convolutional features. At the same time, FCN does not need to use other methods such as meanshift to divide the image into blocks first, then to deal with the region. Instead, it acts directly on the RGB vector of a single pixel, and then, in order to consider the effect of the classification of the surrounding pixels, At the same time, considering the classification categories of their own pixels, the fully connected CRF of Deeplab is introduced to synthetically consider the prior information of the surrounding pixels, and the appropriate CRF correlation parameter .FCN network is obtained by using the mesh optimization method to classify the pixels in the edge parts. This is determined by the convolution kernel scale of deconvolution and convolution. The classification results of edge pixels can be slightly modified by using domain transform DTN in Deeplab, but the effect is not significant. There are many problems in the original DT algorithm. The improved DT diffusion model is analyzed and improved. The edge information is extracted by using FCN edge network outside Deeplab, and then input into DT after output fusion with DT's inner edge network, and then external fusion is carried out with the result of Deeplab. The fusion methods include the improved DT diffusion method and the hole filling method proposed by me. At the same time, the edge fusion can improve the edge of classification results and improve the accuracy of the classification results. Finally, it is carried out on the ESAR data. A multi-program comparative experiment, It is a standard CRF or SVM classification model based on potts priori, and uses meanshift segmentation method to merge FCN8 and Deeplab, and Deeplab-DT and the final Deeplab-DT plus FCN edge network fusion method. The experiments show that each scheme has a certain improvement compared with the previous scheme. The final edge post fusion scheme has the best effect and the highest correct rate and good edge correction effect.
【學(xué)位授予單位】:武漢大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類(lèi)號(hào)】:TN957.52
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 李坤;邵蕓;張風(fēng)麗;;基于多極化機(jī)載合成孔徑雷達(dá)(SAR)數(shù)據(jù)的水稻識(shí)別[J];浙江大學(xué)學(xué)報(bào)(農(nóng)業(yè)與生命科學(xué)版);2011年02期
2 劉開(kāi)剛;許梅生;李維;;一種基于雙閾值區(qū)域分割的SAR圖像目標(biāo)提取方法[J];國(guó)外電子測(cè)量技術(shù);2008年03期
3 ;西部測(cè)圖工程機(jī)載干涉SAR測(cè)圖系統(tǒng)項(xiàng)目啟動(dòng)會(huì)在北京召開(kāi)[J];遙感信息;2008年04期
4 蔡紅;;基于稀疏表示的SAR圖像壓縮方法研究[J];計(jì)算機(jī)工程與應(yīng)用;2012年24期
5 李杏朝,董文敏;SAR圖像的水文應(yīng)用研究[J];遙感信息;1996年04期
6 孫盡堯,孫洪;自然場(chǎng)景SAR圖像的仿真[J];雷達(dá)科學(xué)與技術(shù);2003年04期
7 李金;程超;許浩;;無(wú)人機(jī)機(jī)載合成孔徑雷達(dá)(SAR)定位方法綜述[J];影像技術(shù);2008年03期
8 陳原;張榮;尹東;;基于Tetrolet Packet變換的SAR圖像稀疏表示[J];電子與信息學(xué)報(bào);2012年02期
9 何毅;范偉杰;;手機(jī)批量SAR測(cè)試方案[J];安徽電子信息職業(yè)技術(shù)學(xué)院學(xué)報(bào);2013年05期
10 紀(jì)建;田錚;徐海霞;;SAR圖像壓縮的多尺度自回歸滑動(dòng)平均模型方法[J];電子學(xué)報(bào);2005年12期
相關(guān)會(huì)議論文 前10條
1 沈晶;楊學(xué)志;;基于邊緣保持分水嶺算法的SAR海冰圖像分割[A];計(jì)算機(jī)技術(shù)與應(yīng)用進(jìn)展·2007——全國(guó)第18屆計(jì)算機(jī)技術(shù)與應(yīng)用(CACIS)學(xué)術(shù)會(huì)議論文集[C];2007年
2 郝衛(wèi)東;熊鄴;曲蘭英;周志麗;;一種降低手機(jī)SAR的設(shè)計(jì)[A];2009年全國(guó)天線年會(huì)論文集(下)[C];2009年
3 方勇;;綜合多視角SAR圖像改正遮蔽區(qū)試驗(yàn)[A];第十三屆全國(guó)遙感技術(shù)學(xué)術(shù)交流會(huì)論文摘要集[C];2001年
4 于明成;許稼;彭應(yīng)寧;;SAR多普勒中心快速解模糊的新方法[A];第十二屆全國(guó)信號(hào)處理學(xué)術(shù)年會(huì)(CCSP-2005)論文集[C];2005年
5 戴爾燕;金亞秋;;多軌道飛行全極化SAR圖像對(duì)目標(biāo)的立體重構(gòu)[A];第二屆微波遙感技術(shù)研討會(huì)摘要全集[C];2006年
6 常本義;高力;;SAR單圖像定位原理[A];中國(guó)科協(xié)2001年學(xué)術(shù)年會(huì)分會(huì)場(chǎng)特邀報(bào)告匯編[C];2001年
7 錢(qián)方明;鞏丹超;劉薇;;SAR圖像邊緣特征提取方法研究[A];第二屆“測(cè)繪科學(xué)前沿技術(shù)論壇”論文精選[C];2010年
8 陳林輝;葉偉;賈鑫;;分布式衛(wèi)星SAR圖像方位向分辨率分析[A];中國(guó)航空學(xué)會(huì)信號(hào)與信息處理專(zhuān)業(yè)全國(guó)第八屆學(xué)術(shù)會(huì)議論文集[C];2004年
9 孫偉順;計(jì)科峰;朱俊;粟毅;;典型軍用目標(biāo)SAR圖像預(yù)估[A];第六屆全國(guó)信息獲取與處理學(xué)術(shù)會(huì)議論文集(2)[C];2008年
10 黃勇;王建國(guó);黃順吉;;基于分段的非監(jiān)督SAR圖像變化檢測(cè)[A];第十一屆全國(guó)信號(hào)處理學(xué)術(shù)年會(huì)(CCSP-2003)論文集[C];2003年
相關(guān)重要報(bào)紙文章 前2條
1 張顯峰;機(jī)載干涉SAR:掀起測(cè)繪革命[N];科技日?qǐng)?bào);2004年
2 鐘勇;國(guó)內(nèi)首套SAR測(cè)圖系統(tǒng)通過(guò)評(píng)審[N];中國(guó)測(cè)繪報(bào);2010年
相關(guān)博士學(xué)位論文 前10條
1 賀廣均;聯(lián)合SAR與光學(xué)遙感數(shù)據(jù)的山區(qū)積雪識(shí)別研究[D];南京大學(xué);2015年
2 張雙喜;高分辨寬測(cè)繪帶多通道SAR和動(dòng)目標(biāo)成像理論與方法[D];西安電子科技大學(xué);2014年
3 李蘭;森林垂直信息P-波段SAR層析提取方法[D];中國(guó)林業(yè)科學(xué)研究院;2016年
4 張澤兵;知識(shí)輔助的SAR目標(biāo)索引及特征提取技術(shù)研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2014年
5 張鵬;基于統(tǒng)計(jì)模型的SAR圖像降斑和分割方法研究[D];西安電子科技大學(xué);2012年
6 王勃;星載全極化SAR海面散射特性及其船目標(biāo)檢測(cè)方法[D];中國(guó)海洋大學(xué);2013年
7 倪心強(qiáng);SAR圖像分類(lèi)與自動(dòng)目標(biāo)識(shí)別技術(shù)研究[D];中國(guó)科學(xué)院研究生院(電子學(xué)研究所);2007年
8 周鵬;彈載SAR多種工作模式的成像算法研究[D];西安電子科技大學(xué);2011年
9 趙凌君;高分辨率SAR圖像建筑物提取方法研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2009年
10 陳琪;SAR圖像港口目標(biāo)提取方法研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2011年
相關(guān)碩士學(xué)位論文 前10條
1 董立亞;SAR圖像去噪的小波和偏微分方程的數(shù)學(xué)建模[D];河北聯(lián)合大學(xué);2014年
2 陳海文;基于波數(shù)域的圓周SAR三維成像算法研究[D];哈爾濱工業(yè)大學(xué);2015年
3 眭明;星機(jī)雙基地SAR同步技術(shù)研究[D];電子科技大學(xué);2014年
4 羅煜川;基于壓縮感知的陣列SAR三維成像方法研究[D];電子科技大學(xué);2015年
5 張強(qiáng);基于視覺(jué)注意的SAR目標(biāo)快速檢測(cè)算法研究[D];電子科技大學(xué);2015年
6 于利娟;手機(jī)天線輻射特性?xún)?yōu)化與SAR研究[D];西安電子科技大學(xué);2013年
7 吳子斌;機(jī)載三維SAR高分辨成像[D];國(guó)防科學(xué)技術(shù)大學(xué);2013年
8 李志華;基于FPGA的微型SAR實(shí)時(shí)成像處理研究[D];西安電子科技大學(xué);2014年
9 劉東洋;基于Z7的SAR實(shí)時(shí)成像處理設(shè)計(jì)[D];西安電子科技大學(xué);2014年
10 張曉梨;基于實(shí)測(cè)SAR圖像的雜波特性研究和圖像重構(gòu)[D];西安電子科技大學(xué);2014年
,本文編號(hào):1683438
本文鏈接:http://www.sikaile.net/kejilunwen/xinxigongchenglunwen/1683438.html