基于DRGAN和支持向量機(jī)的合成孔徑雷達(dá)圖像目標(biāo)識(shí)別
發(fā)布時(shí)間:2020-12-18 18:34
為解決SAR圖像目標(biāo)識(shí)別中樣本缺乏和方位角敏感問(wèn)題,提出了一種基于DRGAN和SVM的SAR圖像目標(biāo)識(shí)別算法。首先,采用多尺度分形特征對(duì)SAR圖像進(jìn)行增強(qiáng),經(jīng)過(guò)分割得到目標(biāo)二值圖像,基于Hu二階矩估計(jì)目標(biāo)的方位角。然后對(duì)估計(jì)得到的目標(biāo)方位角進(jìn)行量化編碼,結(jié)合原始圖像作為輸入,對(duì)設(shè)計(jì)的DRGAN模型參數(shù)進(jìn)行訓(xùn)練與優(yōu)化。由于DRGAN中的深度生成模型將目標(biāo)姿態(tài)與外觀表示進(jìn)行解耦設(shè)計(jì),故可利用該模型將SAR圖像樣本變換到同一方位角區(qū)間。基于變換后的訓(xùn)練樣本分別提取歸一化灰度特征,利用SVM訓(xùn)練分類(lèi)器。采用MSTAR數(shù)據(jù)集在多個(gè)不同操作條件下對(duì)提出的算法進(jìn)行測(cè)試,實(shí)驗(yàn)結(jié)果表明,在帶變體的標(biāo)準(zhǔn)操作條件下,能夠達(dá)到97.97%的分類(lèi)精度,優(yōu)于部分基于CNN模型的分類(lèi)精度,在4種擴(kuò)展操作條件下的分類(lèi)精度分別為97.83%,91.77%,97.11%和97.04%,均優(yōu)于傳統(tǒng)方法的分類(lèi)精度。在SAR圖像目標(biāo)方位角估計(jì)存在一定誤差的情況下,訓(xùn)練得到的GAN模型作為SAR圖像目標(biāo)旋轉(zhuǎn)估計(jì)器,能夠使得在不進(jìn)行復(fù)雜樣本預(yù)處理的前提下,仍然取得較高的SAR圖像目標(biāo)識(shí)別精度。
【文章來(lái)源】:光學(xué)精密工程. 2020年03期 北大核心
【文章頁(yè)數(shù)】:9 頁(yè)
【部分圖文】:
本文算法流程框圖
表1 DRGAN模型中判別模型D和生成模型G結(jié)構(gòu)Tab.1 Architecture of discriminative model D and generative model G in DRGAN Genc和D結(jié)構(gòu) Gdec結(jié)構(gòu) 層名稱(chēng) 濾波器寬度及步長(zhǎng) 輸出尺寸 層名稱(chēng) 濾波器寬度及步長(zhǎng) 輸出尺寸 Input — 96×96×1 FC — 6×6×320 Conv11 3×3/1 96×96×16 DeConv52 3×3/1 6×6×160 Conv12 3×3/1 96×96×32 DeConv51 3×3/1 6×6×128 Conv21 3×3/2 48×48×32 DeConv43 3×3/2 12×12×128 Conv22 3×3/1 48×48×32 DeConv42 3×3/1 12×12×64 Conv23 3×3/1 48×48×64 DeConv41 3×3/1 12×12×96 Conv31 3×3/2 24×24×64 DeConv33 3×3/2 24×24×96 Conv32 3×3/1 24×24×48 DeConv32 3×3/1 24×24×48 Conv33 3×3/1 24×24×96 DeConv31 3×3/1 24×24×64 Conv41 3×3/2 12×12×96 DeConv23 3×3/2 48×48×64 Conv42 3×3/1 12×12×64 DeConv22 3×3/1 48×48×32 Conv43 3×3/1 12×12×128 DeConv21 3×3/1 48×48×32 Conv51 3×3/2 6×6×128 DeConv13 3×3/2 96×96×32 Conv52 3×3/1 6×6×160 DeConv12 3×3/1 96×96×16 Conv53 3×3/1 6×6×320 DeConv11 3×3/1 96×96×1 AvgPool 6×6/1 1×1×320 FC (for D) — Nt+1+Na3.3 基于SVM的分類(lèi)器設(shè)計(jì)
采用本文設(shè)計(jì)的DRGAN模型中的深度生成模型G對(duì)訓(xùn)練樣本進(jìn)行角度歸一化后的圖像如圖3所示。其中,方位角a的one hot編碼設(shè)定為[1, 0, …, 0],隨機(jī)噪聲n設(shè)定為零向量。從圖3可以看出,幾乎所有的目標(biāo)方位角均沿水平方向,僅圖像的灰度分布有一定差異。方位角歸一化后的SAR圖像位于高維歐氏空間的若干低維流形,這將有利于后續(xù)分類(lèi)器的設(shè)計(jì)。本文算法在SOC配置下進(jìn)行目標(biāo)識(shí)別的混淆矩陣、平均分類(lèi)精度(Average Accuracy, AA)和總體分類(lèi)精度(Overall Accuracy, OA)如表3所示,其中每一行最右邊一列代表該類(lèi)別的分類(lèi)精度(Percentage of Correct Classification, PCC)。在測(cè)試樣本包含變體的情況下總體分類(lèi)精度達(dá)到97.97%,與目前基于深度CNN模型的方法接近。在4個(gè)擴(kuò)展操作條件EOC1-EOC4條件下本文算法的識(shí)別結(jié)果分別如表4~表7所示。從表中可以看出,在擴(kuò)展操作條件下,本文提出算法仍然取得了優(yōu)異的分類(lèi)性能,總體分類(lèi)精度分別達(dá)到了97.83%,91.77%,97.11%,97.04%,平均分類(lèi)精度分別達(dá)到了97.83%,91.77%,97.63%,97.19%。這說(shuō)明了本文提出算法的適用性,在多種操作條件下均能取得較好的識(shí)別性能。
【參考文獻(xiàn)】:
期刊論文
[1]基于改進(jìn)CycleGAN的圖像風(fēng)格遷移[J]. 杜振龍,沈海洋,宋國(guó)美,李曉麗. 光學(xué)精密工程. 2019(08)
[2]采用PHOG融合特征和多類(lèi)別Adaboost分類(lèi)器的行為識(shí)別[J]. 馬世偉,劉麗娜,傅琪,溫加睿. 光學(xué)精密工程. 2018(11)
[3]面向SAR目標(biāo)識(shí)別的深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)[J]. 谷雨,徐英. 中國(guó)圖象圖形學(xué)報(bào). 2018(06)
本文編號(hào):2924407
【文章來(lái)源】:光學(xué)精密工程. 2020年03期 北大核心
【文章頁(yè)數(shù)】:9 頁(yè)
【部分圖文】:
本文算法流程框圖
表1 DRGAN模型中判別模型D和生成模型G結(jié)構(gòu)Tab.1 Architecture of discriminative model D and generative model G in DRGAN Genc和D結(jié)構(gòu) Gdec結(jié)構(gòu) 層名稱(chēng) 濾波器寬度及步長(zhǎng) 輸出尺寸 層名稱(chēng) 濾波器寬度及步長(zhǎng) 輸出尺寸 Input — 96×96×1 FC — 6×6×320 Conv11 3×3/1 96×96×16 DeConv52 3×3/1 6×6×160 Conv12 3×3/1 96×96×32 DeConv51 3×3/1 6×6×128 Conv21 3×3/2 48×48×32 DeConv43 3×3/2 12×12×128 Conv22 3×3/1 48×48×32 DeConv42 3×3/1 12×12×64 Conv23 3×3/1 48×48×64 DeConv41 3×3/1 12×12×96 Conv31 3×3/2 24×24×64 DeConv33 3×3/2 24×24×96 Conv32 3×3/1 24×24×48 DeConv32 3×3/1 24×24×48 Conv33 3×3/1 24×24×96 DeConv31 3×3/1 24×24×64 Conv41 3×3/2 12×12×96 DeConv23 3×3/2 48×48×64 Conv42 3×3/1 12×12×64 DeConv22 3×3/1 48×48×32 Conv43 3×3/1 12×12×128 DeConv21 3×3/1 48×48×32 Conv51 3×3/2 6×6×128 DeConv13 3×3/2 96×96×32 Conv52 3×3/1 6×6×160 DeConv12 3×3/1 96×96×16 Conv53 3×3/1 6×6×320 DeConv11 3×3/1 96×96×1 AvgPool 6×6/1 1×1×320 FC (for D) — Nt+1+Na3.3 基于SVM的分類(lèi)器設(shè)計(jì)
采用本文設(shè)計(jì)的DRGAN模型中的深度生成模型G對(duì)訓(xùn)練樣本進(jìn)行角度歸一化后的圖像如圖3所示。其中,方位角a的one hot編碼設(shè)定為[1, 0, …, 0],隨機(jī)噪聲n設(shè)定為零向量。從圖3可以看出,幾乎所有的目標(biāo)方位角均沿水平方向,僅圖像的灰度分布有一定差異。方位角歸一化后的SAR圖像位于高維歐氏空間的若干低維流形,這將有利于后續(xù)分類(lèi)器的設(shè)計(jì)。本文算法在SOC配置下進(jìn)行目標(biāo)識(shí)別的混淆矩陣、平均分類(lèi)精度(Average Accuracy, AA)和總體分類(lèi)精度(Overall Accuracy, OA)如表3所示,其中每一行最右邊一列代表該類(lèi)別的分類(lèi)精度(Percentage of Correct Classification, PCC)。在測(cè)試樣本包含變體的情況下總體分類(lèi)精度達(dá)到97.97%,與目前基于深度CNN模型的方法接近。在4個(gè)擴(kuò)展操作條件EOC1-EOC4條件下本文算法的識(shí)別結(jié)果分別如表4~表7所示。從表中可以看出,在擴(kuò)展操作條件下,本文提出算法仍然取得了優(yōu)異的分類(lèi)性能,總體分類(lèi)精度分別達(dá)到了97.83%,91.77%,97.11%,97.04%,平均分類(lèi)精度分別達(dá)到了97.83%,91.77%,97.63%,97.19%。這說(shuō)明了本文提出算法的適用性,在多種操作條件下均能取得較好的識(shí)別性能。
【參考文獻(xiàn)】:
期刊論文
[1]基于改進(jìn)CycleGAN的圖像風(fēng)格遷移[J]. 杜振龍,沈海洋,宋國(guó)美,李曉麗. 光學(xué)精密工程. 2019(08)
[2]采用PHOG融合特征和多類(lèi)別Adaboost分類(lèi)器的行為識(shí)別[J]. 馬世偉,劉麗娜,傅琪,溫加睿. 光學(xué)精密工程. 2018(11)
[3]面向SAR目標(biāo)識(shí)別的深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)[J]. 谷雨,徐英. 中國(guó)圖象圖形學(xué)報(bào). 2018(06)
本文編號(hào):2924407
本文鏈接:http://www.sikaile.net/kejilunwen/wltx/2924407.html
最近更新
教材專(zhuān)著