天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于DRGAN和支持向量機(jī)的合成孔徑雷達(dá)圖像目標(biāo)識(shí)別

發(fā)布時(shí)間:2020-12-18 18:34
  為解決SAR圖像目標(biāo)識(shí)別中樣本缺乏和方位角敏感問(wèn)題,提出了一種基于DRGAN和SVM的SAR圖像目標(biāo)識(shí)別算法。首先,采用多尺度分形特征對(duì)SAR圖像進(jìn)行增強(qiáng),經(jīng)過(guò)分割得到目標(biāo)二值圖像,基于Hu二階矩估計(jì)目標(biāo)的方位角。然后對(duì)估計(jì)得到的目標(biāo)方位角進(jìn)行量化編碼,結(jié)合原始圖像作為輸入,對(duì)設(shè)計(jì)的DRGAN模型參數(shù)進(jìn)行訓(xùn)練與優(yōu)化。由于DRGAN中的深度生成模型將目標(biāo)姿態(tài)與外觀表示進(jìn)行解耦設(shè)計(jì),故可利用該模型將SAR圖像樣本變換到同一方位角區(qū)間。基于變換后的訓(xùn)練樣本分別提取歸一化灰度特征,利用SVM訓(xùn)練分類(lèi)器。采用MSTAR數(shù)據(jù)集在多個(gè)不同操作條件下對(duì)提出的算法進(jìn)行測(cè)試,實(shí)驗(yàn)結(jié)果表明,在帶變體的標(biāo)準(zhǔn)操作條件下,能夠達(dá)到97.97%的分類(lèi)精度,優(yōu)于部分基于CNN模型的分類(lèi)精度,在4種擴(kuò)展操作條件下的分類(lèi)精度分別為97.83%,91.77%,97.11%和97.04%,均優(yōu)于傳統(tǒng)方法的分類(lèi)精度。在SAR圖像目標(biāo)方位角估計(jì)存在一定誤差的情況下,訓(xùn)練得到的GAN模型作為SAR圖像目標(biāo)旋轉(zhuǎn)估計(jì)器,能夠使得在不進(jìn)行復(fù)雜樣本預(yù)處理的前提下,仍然取得較高的SAR圖像目標(biāo)識(shí)別精度。 

【文章來(lái)源】:光學(xué)精密工程. 2020年03期 北大核心

【文章頁(yè)數(shù)】:9 頁(yè)

【部分圖文】:

基于DRGAN和支持向量機(jī)的合成孔徑雷達(dá)圖像目標(biāo)識(shí)別


本文算法流程框圖

框圖,模型結(jié)構(gòu),框圖,名稱(chēng)


表1 DRGAN模型中判別模型D和生成模型G結(jié)構(gòu)Tab.1 Architecture of discriminative model D and generative model G in DRGAN Genc和D結(jié)構(gòu) Gdec結(jié)構(gòu) 層名稱(chēng) 濾波器寬度及步長(zhǎng) 輸出尺寸 層名稱(chēng) 濾波器寬度及步長(zhǎng) 輸出尺寸 Input — 96×96×1 FC — 6×6×320 Conv11 3×3/1 96×96×16 DeConv52 3×3/1 6×6×160 Conv12 3×3/1 96×96×32 DeConv51 3×3/1 6×6×128 Conv21 3×3/2 48×48×32 DeConv43 3×3/2 12×12×128 Conv22 3×3/1 48×48×32 DeConv42 3×3/1 12×12×64 Conv23 3×3/1 48×48×64 DeConv41 3×3/1 12×12×96 Conv31 3×3/2 24×24×64 DeConv33 3×3/2 24×24×96 Conv32 3×3/1 24×24×48 DeConv32 3×3/1 24×24×48 Conv33 3×3/1 24×24×96 DeConv31 3×3/1 24×24×64 Conv41 3×3/2 12×12×96 DeConv23 3×3/2 48×48×64 Conv42 3×3/1 12×12×64 DeConv22 3×3/1 48×48×32 Conv43 3×3/1 12×12×128 DeConv21 3×3/1 48×48×32 Conv51 3×3/2 6×6×128 DeConv13 3×3/2 96×96×32 Conv52 3×3/1 6×6×160 DeConv12 3×3/1 96×96×16 Conv53 3×3/1 6×6×320 DeConv11 3×3/1 96×96×1 AvgPool 6×6/1 1×1×320 FC (for D) — Nt+1+Na3.3 基于SVM的分類(lèi)器設(shè)計(jì)

SAR圖像,SAR圖像,方位角,訓(xùn)練樣本


采用本文設(shè)計(jì)的DRGAN模型中的深度生成模型G對(duì)訓(xùn)練樣本進(jìn)行角度歸一化后的圖像如圖3所示。其中,方位角a的one hot編碼設(shè)定為[1, 0, …, 0],隨機(jī)噪聲n設(shè)定為零向量。從圖3可以看出,幾乎所有的目標(biāo)方位角均沿水平方向,僅圖像的灰度分布有一定差異。方位角歸一化后的SAR圖像位于高維歐氏空間的若干低維流形,這將有利于后續(xù)分類(lèi)器的設(shè)計(jì)。本文算法在SOC配置下進(jìn)行目標(biāo)識(shí)別的混淆矩陣、平均分類(lèi)精度(Average Accuracy, AA)和總體分類(lèi)精度(Overall Accuracy, OA)如表3所示,其中每一行最右邊一列代表該類(lèi)別的分類(lèi)精度(Percentage of Correct Classification, PCC)。在測(cè)試樣本包含變體的情況下總體分類(lèi)精度達(dá)到97.97%,與目前基于深度CNN模型的方法接近。在4個(gè)擴(kuò)展操作條件EOC1-EOC4條件下本文算法的識(shí)別結(jié)果分別如表4~表7所示。從表中可以看出,在擴(kuò)展操作條件下,本文提出算法仍然取得了優(yōu)異的分類(lèi)性能,總體分類(lèi)精度分別達(dá)到了97.83%,91.77%,97.11%,97.04%,平均分類(lèi)精度分別達(dá)到了97.83%,91.77%,97.63%,97.19%。這說(shuō)明了本文提出算法的適用性,在多種操作條件下均能取得較好的識(shí)別性能。

【參考文獻(xiàn)】:
期刊論文
[1]基于改進(jìn)CycleGAN的圖像風(fēng)格遷移[J]. 杜振龍,沈海洋,宋國(guó)美,李曉麗.  光學(xué)精密工程. 2019(08)
[2]采用PHOG融合特征和多類(lèi)別Adaboost分類(lèi)器的行為識(shí)別[J]. 馬世偉,劉麗娜,傅琪,溫加睿.  光學(xué)精密工程. 2018(11)
[3]面向SAR目標(biāo)識(shí)別的深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)[J]. 谷雨,徐英.  中國(guó)圖象圖形學(xué)報(bào). 2018(06)



本文編號(hào):2924407

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/wltx/2924407.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶6f5f4***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com