基于深度學(xué)習(xí)的高光譜圖像目標(biāo)檢測(cè)
發(fā)布時(shí)間:2021-07-10 01:37
近年來,深度學(xué)習(xí)通過提取深層特征極大地提升了網(wǎng)絡(luò)的認(rèn)知能力,在高光譜圖像的特征提取和分類領(lǐng)域中得到了成功的應(yīng)用。然而,在高光譜圖像目標(biāo)檢測(cè)領(lǐng)域中,先驗(yàn)?zāi)繕?biāo)光譜信息非常稀少,會(huì)導(dǎo)致網(wǎng)絡(luò)無法訓(xùn)練,嚴(yán)重阻礙了深度模型的構(gòu)建。本文針對(duì)該問題,從遷移學(xué)習(xí)和生成樣本兩個(gè)角度,分析目標(biāo)光譜特性,設(shè)計(jì)了兩種深度學(xué)習(xí)目標(biāo)檢測(cè)框架,解決了訓(xùn)練樣本稀少的問題,論文的主要工作如下:第一,從遷移學(xué)習(xí)的角度,結(jié)合像素配對(duì)的思想,利用一個(gè)標(biāo)注好的數(shù)據(jù)集,生成像素對(duì),根據(jù)已有的標(biāo)簽信息,為每個(gè)像素對(duì)分配新的標(biāo)簽,構(gòu)建像素對(duì)數(shù)據(jù)集并訓(xùn)練網(wǎng)絡(luò),使網(wǎng)絡(luò)學(xué)習(xí)像素之間的光譜相似特性。測(cè)試時(shí),首先通過線性預(yù)測(cè)算法在測(cè)試圖像上尋找與目標(biāo)光譜差異最大的樣本作為背景像素,然后對(duì)于一個(gè)測(cè)試像素而言,分別與目標(biāo)和背景樣本分別配對(duì),送入網(wǎng)絡(luò),最后將兩組結(jié)果進(jìn)行自適應(yīng)的融合,得到最終的相似性評(píng)分。該方法有效地解決了樣本稀缺的問題,并加入了深度像素對(duì)相似性特征,增強(qiáng)了網(wǎng)絡(luò)的檢測(cè)能力,但該方法需要訓(xùn)練與測(cè)試數(shù)據(jù)的傳感器相同,因此限制了使用范圍。第二,從生成樣本的角度,對(duì)基于遷移學(xué)習(xí)的方法進(jìn)行改進(jìn),利用自編碼器輸出逼近輸入的特性,構(gòu)建目標(biāo)樣本生成器...
【文章來源】:北京化工大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:78 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1多層感知器??Fig.2-1?Multilayer?perceptron??目前深度學(xué)習(xí)最流行的兩大流派是卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò),它們都是??
?北京化工大學(xué)碩士學(xué)位論文???12?;2?上一乂?6?L-^y—廣T??一:P?22?上:4?6?二一^??圖2-2卷積原理??Fig.2-2?Convolution?principle??得到卷積層提取的特征之后,需要將其用來分類,理論上,應(yīng)該將所有的特??征矩陣送入全連接層進(jìn)行分類。然而,這樣的做法會(huì)導(dǎo)致計(jì)算開銷過大而嚴(yán)重地??降低了效率,甚至程序無法運(yùn)行。假設(shè),使用300個(gè)7X7的卷積核在一張100?x??100的圖像進(jìn)行卷積,那么輸出的特征大小為(100?-?7?+?1)?X?(100?-?7?+?1)?x??300?=?2650800。對(duì)于一個(gè)分類器而言,學(xué)習(xí)如此大的特征效率是非常低的,并??且會(huì)使網(wǎng)絡(luò)容易過擬合。為解決這個(gè)問題,需要一個(gè)策略可以對(duì)得到的特征進(jìn)行??降維,保留其中有代表性的信息,去掉其他的冗余信息。池化層正是用來解決這??一問題的,它的本質(zhì)是一種下采樣算法。規(guī)則通常很簡(jiǎn)單,比如選取一個(gè)區(qū)域內(nèi)??的最大值或平均值。如果只對(duì)圖像上連續(xù)的區(qū)域進(jìn)行池化,并且待池化特征來自??相同的節(jié)點(diǎn),那么這些池化節(jié)點(diǎn)就具有轉(zhuǎn)換不變性。也就是說,即使圖像被降采??樣變小了,但是特征圖上與原圖像相對(duì)位置相同的節(jié)點(diǎn)依然保持著原有的特征,??即特性沒有發(fā)生改變。??CNN的最優(yōu)化方法的核心依然是反向傳播算法,但是傳統(tǒng)的反向傳播算法??需要為所有的訓(xùn)練集樣本計(jì)算損失函數(shù)和導(dǎo)數(shù),這無疑會(huì)導(dǎo)致訓(xùn)練速度非常緩慢。??針對(duì)這一問題,隨機(jī)梯度下降算法[43](Stochastic?Gradient?Descent,?SGD)被提出,??它可以在獲取少量甚至一個(gè)樣本信息的情況下,將梯度回傳,從而加快網(wǎng)絡(luò)收斂??速度。對(duì)于目
標(biāo)檢測(cè)理論基礎(chǔ)???這里代表訓(xùn)練樣集中的一對(duì)樣本,該公式表明SGD只用少量樣本的參??數(shù)來計(jì)算梯度。這樣的原因是既可以減少參數(shù)更新時(shí)的變化,使網(wǎng)絡(luò)可以穩(wěn)定的??收斂,還可以使網(wǎng)絡(luò)的計(jì)算充分利用一些對(duì)損失函數(shù)和梯度向量化計(jì)算有益的最??優(yōu)化矩陣操作。??在早期的CNN中常使用sigmoid作為每一個(gè)節(jié)點(diǎn)的激活函數(shù),但是這常常??會(huì)導(dǎo)致梯度消失現(xiàn)象,即從輸出端回傳的導(dǎo)數(shù)越來越小,以至于到比較靠前的層??時(shí)梯度幾乎為0了,這樣會(huì)使網(wǎng)絡(luò)的訓(xùn)練速度越來越慢,無法達(dá)到預(yù)期的結(jié)果。??如圖2-3所示為sigmoid的導(dǎo)數(shù)圖像,可以看到其最大值為0.25,對(duì)于前面層的??導(dǎo)數(shù)而言,是需要由后面層的導(dǎo)數(shù)相乘得到的,因此會(huì)不斷的乘以小于1的數(shù),??這樣也就導(dǎo)致了越靠前導(dǎo)數(shù)越小的現(xiàn)象。Relu[44]?(Rectified?Linear?Units)函數(shù)有??效解決了這一問題,它的函數(shù)公式如下:??Relu(x)?=?max(x,?°)?=?>?〇?式(2-3)??從公式可以看出Relu在大于0的情況下,輸入等于輸出,這樣計(jì)算導(dǎo)數(shù)就簡(jiǎn)單??很多了,并且始終為1,不會(huì)像sigmoid—樣減少前面層的導(dǎo)數(shù)。??—八??0??圖2-3?sigmoid導(dǎo)數(shù)圖像??Fig.2-3?Derivative?of?sigmoid??Relu的出現(xiàn)使CNN的訓(xùn)練效率有所提升,但此時(shí)的收斂速度依然是比較慢??的。批歸一化[45]?(Batch?Normalization,?BN)的出現(xiàn)使網(wǎng)絡(luò)的收斂速度得到了第??二次提升。BN主要是用來解決內(nèi)部變量偏移問題的,該問題是指在訓(xùn)練過程中,??隱藏層的輸入分布會(huì)一直改變,導(dǎo)致網(wǎng)絡(luò)的模型很難穩(wěn)定學(xué)習(xí)規(guī)
【參考文獻(xiàn)】:
期刊論文
[1]高光譜圖像目標(biāo)檢測(cè)研究進(jìn)展[J]. 賀霖,潘泉,邸韡,李遠(yuǎn)清. 電子學(xué)報(bào). 2009(09)
本文編號(hào):3274918
【文章來源】:北京化工大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:78 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1多層感知器??Fig.2-1?Multilayer?perceptron??目前深度學(xué)習(xí)最流行的兩大流派是卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò),它們都是??
?北京化工大學(xué)碩士學(xué)位論文???12?;2?上一乂?6?L-^y—廣T??一:P?22?上:4?6?二一^??圖2-2卷積原理??Fig.2-2?Convolution?principle??得到卷積層提取的特征之后,需要將其用來分類,理論上,應(yīng)該將所有的特??征矩陣送入全連接層進(jìn)行分類。然而,這樣的做法會(huì)導(dǎo)致計(jì)算開銷過大而嚴(yán)重地??降低了效率,甚至程序無法運(yùn)行。假設(shè),使用300個(gè)7X7的卷積核在一張100?x??100的圖像進(jìn)行卷積,那么輸出的特征大小為(100?-?7?+?1)?X?(100?-?7?+?1)?x??300?=?2650800。對(duì)于一個(gè)分類器而言,學(xué)習(xí)如此大的特征效率是非常低的,并??且會(huì)使網(wǎng)絡(luò)容易過擬合。為解決這個(gè)問題,需要一個(gè)策略可以對(duì)得到的特征進(jìn)行??降維,保留其中有代表性的信息,去掉其他的冗余信息。池化層正是用來解決這??一問題的,它的本質(zhì)是一種下采樣算法。規(guī)則通常很簡(jiǎn)單,比如選取一個(gè)區(qū)域內(nèi)??的最大值或平均值。如果只對(duì)圖像上連續(xù)的區(qū)域進(jìn)行池化,并且待池化特征來自??相同的節(jié)點(diǎn),那么這些池化節(jié)點(diǎn)就具有轉(zhuǎn)換不變性。也就是說,即使圖像被降采??樣變小了,但是特征圖上與原圖像相對(duì)位置相同的節(jié)點(diǎn)依然保持著原有的特征,??即特性沒有發(fā)生改變。??CNN的最優(yōu)化方法的核心依然是反向傳播算法,但是傳統(tǒng)的反向傳播算法??需要為所有的訓(xùn)練集樣本計(jì)算損失函數(shù)和導(dǎo)數(shù),這無疑會(huì)導(dǎo)致訓(xùn)練速度非常緩慢。??針對(duì)這一問題,隨機(jī)梯度下降算法[43](Stochastic?Gradient?Descent,?SGD)被提出,??它可以在獲取少量甚至一個(gè)樣本信息的情況下,將梯度回傳,從而加快網(wǎng)絡(luò)收斂??速度。對(duì)于目
標(biāo)檢測(cè)理論基礎(chǔ)???這里代表訓(xùn)練樣集中的一對(duì)樣本,該公式表明SGD只用少量樣本的參??數(shù)來計(jì)算梯度。這樣的原因是既可以減少參數(shù)更新時(shí)的變化,使網(wǎng)絡(luò)可以穩(wěn)定的??收斂,還可以使網(wǎng)絡(luò)的計(jì)算充分利用一些對(duì)損失函數(shù)和梯度向量化計(jì)算有益的最??優(yōu)化矩陣操作。??在早期的CNN中常使用sigmoid作為每一個(gè)節(jié)點(diǎn)的激活函數(shù),但是這常常??會(huì)導(dǎo)致梯度消失現(xiàn)象,即從輸出端回傳的導(dǎo)數(shù)越來越小,以至于到比較靠前的層??時(shí)梯度幾乎為0了,這樣會(huì)使網(wǎng)絡(luò)的訓(xùn)練速度越來越慢,無法達(dá)到預(yù)期的結(jié)果。??如圖2-3所示為sigmoid的導(dǎo)數(shù)圖像,可以看到其最大值為0.25,對(duì)于前面層的??導(dǎo)數(shù)而言,是需要由后面層的導(dǎo)數(shù)相乘得到的,因此會(huì)不斷的乘以小于1的數(shù),??這樣也就導(dǎo)致了越靠前導(dǎo)數(shù)越小的現(xiàn)象。Relu[44]?(Rectified?Linear?Units)函數(shù)有??效解決了這一問題,它的函數(shù)公式如下:??Relu(x)?=?max(x,?°)?=?>?〇?式(2-3)??從公式可以看出Relu在大于0的情況下,輸入等于輸出,這樣計(jì)算導(dǎo)數(shù)就簡(jiǎn)單??很多了,并且始終為1,不會(huì)像sigmoid—樣減少前面層的導(dǎo)數(shù)。??—八??0??圖2-3?sigmoid導(dǎo)數(shù)圖像??Fig.2-3?Derivative?of?sigmoid??Relu的出現(xiàn)使CNN的訓(xùn)練效率有所提升,但此時(shí)的收斂速度依然是比較慢??的。批歸一化[45]?(Batch?Normalization,?BN)的出現(xiàn)使網(wǎng)絡(luò)的收斂速度得到了第??二次提升。BN主要是用來解決內(nèi)部變量偏移問題的,該問題是指在訓(xùn)練過程中,??隱藏層的輸入分布會(huì)一直改變,導(dǎo)致網(wǎng)絡(luò)的模型很難穩(wěn)定學(xué)習(xí)規(guī)
【參考文獻(xiàn)】:
期刊論文
[1]高光譜圖像目標(biāo)檢測(cè)研究進(jìn)展[J]. 賀霖,潘泉,邸韡,李遠(yuǎn)清. 電子學(xué)報(bào). 2009(09)
本文編號(hào):3274918
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3274918.html
最近更新
教材專著