基于復數(shù)全卷積神經網絡和卷積自編碼器的SAR目標分類
發(fā)布時間:2021-01-20 07:39
合成孔徑雷達(Synthetic Aperture Radar,SAR)具有遠距離、全天時和全天候工作能力,在軍事和民用領域發(fā)揮著非常重要的作用。SAR自動目標識別(SAR Automatic Target Recognition,SAR-ATR)一直是SAR領域的研究熱點之一,它能夠利用計算機自動識別目標并判斷其所屬類別。近年來,深度卷積神經網絡(Convolution Neural Network,CNN)作為一種典型的深度學習技術,被廣泛應用于SAR-ATR中,并取得了較為顯著的成績。目前,多數(shù)基于CNN的SAR-ATR方法只采用了SAR圖像幅度數(shù)據,而丟失了相位數(shù)據。事實上,SAR相位數(shù)據也包含了豐富的目標信息。因此,研究基于復數(shù)卷積神經網絡(Complex-Valued Convolution Neural Network,CCNN)網絡的SAR-ATR方法顯得極為迫切。本文主要提出了三種改進的復數(shù)卷積神經網絡,并在此基礎上引入改進的復數(shù)卷積自編碼器(Improved Complex Convolutional Auto Encoder,ICCAE)對其中的一種進行無監(jiān)督預訓...
【文章來源】:江西理工大學江西省
【文章頁數(shù)】:67 頁
【學位級別】:碩士
【部分圖文】:
停車場內車輛的光學圖像和SAR圖像對比
t權重參數(shù)的學習過程中,LeCunn還提出了如今在深度學習中廣泛使用的隨機梯度下降(StochasticGradientDescent,SGD)算法。由于LeNet結構中首次采用了“卷積”這一名詞,CNN也隨之而得名。1998年,LeCun、Bottou和Bengio等人在LeNet結構基礎上引入了池化層,進一步提出了更為完善的LeNet-5模型,其結構如圖1.2所示[26]。該模型共有7層,第一層為卷積層,第二層為池化層,第三層和第四層又分別為卷積和池化層,第五層至第七層均為全連接層。LeNet-5被成功用于識別手寫數(shù)字,其在MNIST數(shù)據集上的正確識別率能達到99.2%。圖1.2LeNet-5模型結構自2006年“深度學習”概念提出以來,CNN也進一步得到發(fā)展。2012年,Hinton和AlexKrizhevshy提出了AlexNet模型[27]。該網絡模型在ImageNet圖像分類競賽中奪得冠軍,其結構和LeNet相差無幾,如圖1.3所示,但它在CNN結構基礎上加入了ReLU激活函數(shù)以解決梯度消失問題,并在訓練過程中采用Dropout技術以防止過擬合。此外,由于計算機硬件水平的提高,AlexNet采用兩塊GPU大大加速了網絡訓練速度。自那開始,CNN在各類圖像處理領域發(fā)揮著舉足輕重的作用。2013年,Zeiler和Fergus在AlexNet基礎上做了一些修改并提出了ZFNet,該網絡也獲得了當年的ImageNet競賽冠軍。2014年,GoogLeNet[28]和VGGNet[29]分別獲得ImageNet競賽的冠軍和亞軍。VGGNet由牛津大學VisualGeometryGroup(VGG)提出,它的原理與LeNet-5、AlexNet并沒有太大區(qū)別。VGGNet的卷積核大小基本上為3*3,池化核大小為2*2。VGG包含6個網絡,后面網絡采用前面訓練好的網絡參數(shù)進行初始化[28]。VGGNet模型在遷移至其他目標圖像時,比GoogLeNet要更勝一籌。GoogLeNet是由Szegedy提出的一種新的網絡結構[29]。與AlexNet和VGGNet通過堆疊卷積層以加深
撲愀叢傭取?nceptionV3與InceptionV2相比,改進之處包括:采用了RMSProp優(yōu)化器;采用LabelSmoothing防止過擬合;將7*7的卷積核用1*7和7*1兩個卷積核替代,不僅提高了計算效率,而且還增強了網絡非線性表示能力;輔助分類器采用了BN。InceptionV4在InceptionV3結構上做了改進,它以塊的形式構成網絡[31]。InceptionV4與ResNet相結合后,又進一步得到Inception-ResNet-V1和Inception-ResNet-V2[32]。由于殘差塊的引入,兩種網絡的訓練效率得到大大地提高。兩種網絡的結構大體上一致,只是在每個塊的具體實現(xiàn)上有所不同。圖1.3AlexNet模型結構ResNet是受高速路神經網路[33]啟發(fā),由KaimingHe于2015年提出。該網絡共有152層,在ILSVRC數(shù)據集上top-5錯誤率達到了3.57%,獲得了當年的ImageNet競賽冠軍[28]。由于網絡采用了恒等快捷鏈接的思想,有效地解決了因網絡層數(shù)過多而帶來訓練誤差增加的問題。隨著CNN的不斷發(fā)展,近期還有一些新的網絡模型被提出,如DenseNet[34]、DPN[35]、MobileNetV2[36]等。(2)自編碼器早期,AE被當作一種編碼學習算法。1985年,Ackley、Hinton和Sejnowski在玻爾茲曼機(BoltzmanMachine)研究中,提出了AE算法的雛形[37]。1986年,Rumelhart、Hinton和Williams在BP算法研究中,使用了單層AE算法以驗證BP的可實現(xiàn)性[38]。1987年,LeCun利用多層感知器,正式提出了包括編碼器和解碼器兩部分的AE結構[39]2006年,Hinton等人在解決數(shù)據降維問題時,設計了多層編碼器網絡將高維數(shù)據變換為低維,多層解碼器網絡將低維數(shù)據恢復成源數(shù)據[10]。至此,具有“深度”含義的
本文編號:2988659
【文章來源】:江西理工大學江西省
【文章頁數(shù)】:67 頁
【學位級別】:碩士
【部分圖文】:
停車場內車輛的光學圖像和SAR圖像對比
t權重參數(shù)的學習過程中,LeCunn還提出了如今在深度學習中廣泛使用的隨機梯度下降(StochasticGradientDescent,SGD)算法。由于LeNet結構中首次采用了“卷積”這一名詞,CNN也隨之而得名。1998年,LeCun、Bottou和Bengio等人在LeNet結構基礎上引入了池化層,進一步提出了更為完善的LeNet-5模型,其結構如圖1.2所示[26]。該模型共有7層,第一層為卷積層,第二層為池化層,第三層和第四層又分別為卷積和池化層,第五層至第七層均為全連接層。LeNet-5被成功用于識別手寫數(shù)字,其在MNIST數(shù)據集上的正確識別率能達到99.2%。圖1.2LeNet-5模型結構自2006年“深度學習”概念提出以來,CNN也進一步得到發(fā)展。2012年,Hinton和AlexKrizhevshy提出了AlexNet模型[27]。該網絡模型在ImageNet圖像分類競賽中奪得冠軍,其結構和LeNet相差無幾,如圖1.3所示,但它在CNN結構基礎上加入了ReLU激活函數(shù)以解決梯度消失問題,并在訓練過程中采用Dropout技術以防止過擬合。此外,由于計算機硬件水平的提高,AlexNet采用兩塊GPU大大加速了網絡訓練速度。自那開始,CNN在各類圖像處理領域發(fā)揮著舉足輕重的作用。2013年,Zeiler和Fergus在AlexNet基礎上做了一些修改并提出了ZFNet,該網絡也獲得了當年的ImageNet競賽冠軍。2014年,GoogLeNet[28]和VGGNet[29]分別獲得ImageNet競賽的冠軍和亞軍。VGGNet由牛津大學VisualGeometryGroup(VGG)提出,它的原理與LeNet-5、AlexNet并沒有太大區(qū)別。VGGNet的卷積核大小基本上為3*3,池化核大小為2*2。VGG包含6個網絡,后面網絡采用前面訓練好的網絡參數(shù)進行初始化[28]。VGGNet模型在遷移至其他目標圖像時,比GoogLeNet要更勝一籌。GoogLeNet是由Szegedy提出的一種新的網絡結構[29]。與AlexNet和VGGNet通過堆疊卷積層以加深
撲愀叢傭取?nceptionV3與InceptionV2相比,改進之處包括:采用了RMSProp優(yōu)化器;采用LabelSmoothing防止過擬合;將7*7的卷積核用1*7和7*1兩個卷積核替代,不僅提高了計算效率,而且還增強了網絡非線性表示能力;輔助分類器采用了BN。InceptionV4在InceptionV3結構上做了改進,它以塊的形式構成網絡[31]。InceptionV4與ResNet相結合后,又進一步得到Inception-ResNet-V1和Inception-ResNet-V2[32]。由于殘差塊的引入,兩種網絡的訓練效率得到大大地提高。兩種網絡的結構大體上一致,只是在每個塊的具體實現(xiàn)上有所不同。圖1.3AlexNet模型結構ResNet是受高速路神經網路[33]啟發(fā),由KaimingHe于2015年提出。該網絡共有152層,在ILSVRC數(shù)據集上top-5錯誤率達到了3.57%,獲得了當年的ImageNet競賽冠軍[28]。由于網絡采用了恒等快捷鏈接的思想,有效地解決了因網絡層數(shù)過多而帶來訓練誤差增加的問題。隨著CNN的不斷發(fā)展,近期還有一些新的網絡模型被提出,如DenseNet[34]、DPN[35]、MobileNetV2[36]等。(2)自編碼器早期,AE被當作一種編碼學習算法。1985年,Ackley、Hinton和Sejnowski在玻爾茲曼機(BoltzmanMachine)研究中,提出了AE算法的雛形[37]。1986年,Rumelhart、Hinton和Williams在BP算法研究中,使用了單層AE算法以驗證BP的可實現(xiàn)性[38]。1987年,LeCun利用多層感知器,正式提出了包括編碼器和解碼器兩部分的AE結構[39]2006年,Hinton等人在解決數(shù)據降維問題時,設計了多層編碼器網絡將高維數(shù)據變換為低維,多層解碼器網絡將低維數(shù)據恢復成源數(shù)據[10]。至此,具有“深度”含義的
本文編號:2988659
本文鏈接:http://www.sikaile.net/shoufeilunwen/xixikjs/2988659.html
最近更新
教材專著