天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 搜索引擎論文 >

面向要地安全防護的空中“低小慢”目標(biāo)搜索跟蹤技術(shù)

發(fā)布時間:2021-03-19 17:21
  隨著遙感圖像處理技術(shù)的發(fā)展,對空中“低小慢”目標(biāo)的搜索與跟蹤具有迫切的軍民用需求和廣泛的應(yīng)用前景,已成為各個國家重點研究的問題之一。隨著人工智能的廣泛應(yīng)用,針對普通遙感視頻的目標(biāo)跟蹤技術(shù)已相對成熟。然而,由于“低小慢”目標(biāo)所占像素較少、易受周圍相似目標(biāo)干擾、特征不易提取等問題的存在,目前主流方法還不能對該類目標(biāo)提供有效的解決方案。本文針對相關(guān)難點,利用混合對抗網(wǎng)絡(luò)、時空殘差模塊、顯著性增強機制、上下文感知相關(guān)濾波模塊等方法,構(gòu)建了一套完整的“低小慢”目標(biāo)搜索跟蹤軟件,對空中“低小慢”目標(biāo)的相關(guān)搜索跟蹤研究進行展開。本文主要可以凝練為以下幾個方面:首先,本文提出一種基于混合對抗網(wǎng)絡(luò)的空中“低小慢”目標(biāo)樣本增廣方法,針對少樣本的“低小慢”目標(biāo)存在干擾的問題,本方法利用多級金字塔對其進行多尺度、多旋轉(zhuǎn)角度的樣本增廣,通過一系列的形態(tài)學(xué)方法對所獲得的樣本切片進行處理,為后續(xù)網(wǎng)絡(luò)的訓(xùn)練提供有效的數(shù)據(jù)支撐。此方法可基于先驗信息,對稀有的空中“低小慢”干擾目標(biāo)進行有效的辨識,并通過實驗驗證了所提出混合對抗網(wǎng)絡(luò)的有效性。其次,本文針對網(wǎng)絡(luò)層的結(jié)構(gòu),構(gòu)建了一種有效的顯著性增強機制。針對“低小慢”目標(biāo)具有... 

【文章來源】:北方工業(yè)大學(xué)北京市

【文章頁數(shù)】:61 頁

【學(xué)位級別】:碩士

【部分圖文】:

面向要地安全防護的空中“低小慢”目標(biāo)搜索跟蹤技術(shù)


文獻[7]

示意圖,卷積,神經(jīng)網(wǎng)絡(luò),示意圖


第一章緒論5圖1-2卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖在圖1-2中,卷積層利用局部連接方式,使卷積核按照步長值遍歷全圖,從而減少了神經(jīng)元數(shù)目。池化層的作用主要為防止過擬合及刪除冗余的特征,可以看做是對卷積層所提取特征的統(tǒng)計。全連接層在整個卷積神經(jīng)網(wǎng)絡(luò)模型中,起到“分類器”的作用,用于將網(wǎng)絡(luò)所學(xué)到特征映射到標(biāo)記空間。該類方法適合于特定場景的目標(biāo)跟蹤,可以提高該場景下的跟蹤效率。然而,由于“低小慢”目標(biāo)在運動過程中自身姿態(tài)與背景信息復(fù)雜多變,難以實現(xiàn)穩(wěn)定跟蹤。目前已有方法特別是基于深度學(xué)習(xí)類的方法難以在增強目標(biāo)特性與網(wǎng)絡(luò)結(jié)構(gòu)深度設(shè)計策略上平衡考慮,兼顧性能和效率。這類方法大部分采用深層次的網(wǎng)絡(luò)結(jié)構(gòu),難以在時效性上得到保障,且無監(jiān)督學(xué)習(xí)的穩(wěn)定性不足,對于高質(zhì)量樣本的離線訓(xùn)練要求依然存在。另外,在面向要地安全防護的實際應(yīng)用中,由于蝙蝠、飛鳥等易混動目標(biāo)干擾的出現(xiàn)易造成跟蹤目標(biāo)丟失,且目前已有深度學(xué)習(xí)類方法在動態(tài)幀背景信息學(xué)習(xí)時尚缺乏有效的手段。其次,針對“低小慢”目標(biāo)的幀間搜索技術(shù)可以分為以下兩類:第一類方法是濾波估計類方法。該類方法通過建立目標(biāo)運動的數(shù)學(xué)方程,利用數(shù)據(jù)估計方法對目標(biāo)運動狀態(tài)進行預(yù)判,然后采用粒子濾波等方法獲取真實目標(biāo)位置。文獻[13]提出一種基于引導(dǎo)濾波與時空上下文的紅外弱小目標(biāo)捕獲技術(shù),為了解決傳統(tǒng)目標(biāo)跟蹤算法中未充分利用目標(biāo)與局域背景的時間和空間相關(guān)性,從而導(dǎo)致其不能區(qū)分弱小目標(biāo)和背景邊緣,跟蹤過程中出現(xiàn)偏移現(xiàn)象的問題。該技術(shù)利用引導(dǎo)濾波對局部區(qū)域做預(yù)處理,保留上下文區(qū)域邊緣的同時消除紅外圖像的小噪聲,然后結(jié)合“置信圖”和時空上下文算法計算得出當(dāng)前幀弱小目標(biāo)的實際位置。并通過實驗論證了該方法在主觀和客觀評價指標(biāo)上?

示意圖,類方法,模板匹配,示意圖


第一章緒論6立特征模型和匹配模板、相似性度量等技術(shù)對當(dāng)前幀圖像中目標(biāo)的疑似位置進行評估,尋找最佳的匹配結(jié)果。模板匹配類方法的示意圖如圖1-3所示。圖1-3模板匹配類方法示意圖典型的模板匹配類方法有:基于改進Mean-Shift算法的紅外小目標(biāo)跟蹤[20]。該方法聚焦于復(fù)雜大視場環(huán)境中小目標(biāo)體量孝機動性大的問題,結(jié)合圖像的統(tǒng)計特性,設(shè)計了一種非線性自適應(yīng)算法對圖像預(yù)處理,并將梯度直方圖用于協(xié)助對目標(biāo)進行特征描述,最后借助Mean-Shift算法預(yù)測目標(biāo)在視場中的位置。通過實驗發(fā)現(xiàn),文中所提出的算法框架不僅可以高準確性的跟蹤目標(biāo),更可以降低目標(biāo)與跟蹤窗口的相對晃動,從而增強了目標(biāo)跟蹤算法的魯棒性,提高了在實際場景中應(yīng)用的能力?墒,在空中“低小慢”目標(biāo)運動過程中,場景具有視場大、復(fù)雜性高的難點,且目標(biāo)弱小,較難發(fā)現(xiàn),目前已有方法僅基于特征差異性分析的方法難以準確提取弱小目標(biāo)的表觀特征。此外,雖然深度學(xué)習(xí)類的目標(biāo)跟蹤算法具有較強大的特征感知能力,但對于低分辨率的弱小目標(biāo)而言,多層級構(gòu)造的局限性嚴重制約了其性能發(fā)揮。另一方面,該場景中含有多種相似的遮擋物體,使大量虛警目標(biāo)難以有效剔除,目前已有方法對弱小目標(biāo)的特征增強手段有限。1.2.3研究現(xiàn)狀小結(jié)根據(jù)上述對現(xiàn)狀的總結(jié)可以發(fā)現(xiàn),隨著平臺處理能力的提升與人工智能技術(shù)的發(fā)展,“低小慢”目標(biāo)的搜索跟蹤已經(jīng)受到了越來越多的重視。同時,隨

【參考文獻】:
期刊論文
[1]基于相關(guān)濾波和卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤算法[J]. 王雪麗,李昕.  重慶工商大學(xué)學(xué)報(自然科學(xué)版). 2020(01)
[2]基于殘差網(wǎng)絡(luò)編解碼的磁共振圖像修復(fù)算法[J]. 劉哲,劉劍毅,劉凱,彭召.  計算機工程與設(shè)計. 2020(01)
[3]基于卷積網(wǎng)絡(luò)的目標(biāo)跟蹤應(yīng)用研究[J]. 趙春梅,陳忠碧,張建林.  光電工程. 2020(01)
[4]基于深度殘差網(wǎng)絡(luò)圖像分類算法研究綜述[J]. 趙志成,羅澤,王鵬彥,李健.  計算機系統(tǒng)應(yīng)用. 2020(01)
[5]基于多尺度殘差網(wǎng)絡(luò)和小波變換的LPI雷達信號識別[J]. 劉贏,田潤瀾,董會旭.  電訊技術(shù). 2019(12)
[6]基于多分辨率殘差網(wǎng)絡(luò)的心肌梗死定位識別研究[J]. 齊繼,蔣華,張瑞卿,沈陽,佟彥妮,沙憲政,常世杰.  生物醫(yī)學(xué)工程研究. 2019(04)
[7]條件生成對抗網(wǎng)絡(luò)的低照度圖像增強方法[J]. 黃鐄,陶海軍,王海峰.  中國圖象圖形學(xué)報. 2019(12)
[8]一種改進的基于孿生卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤算法[J]. 任珈民,宮寧生,韓鎮(zhèn)陽.  小型微型計算機系統(tǒng). 2019(12)
[9]面向空中目標(biāo)作戰(zhàn)意圖分析的標(biāo)準化全連接殘差網(wǎng)絡(luò)模型[J]. 翟翔宇,楊風(fēng)暴,吉琳娜,呂紅亮,白永強.  國外電子測量技術(shù). 2019(12)
[10]基于動態(tài)模式和卷積特征的單目標(biāo)跟蹤算法[J]. 張博言,鐘勇,李振東.  西北工業(yè)大學(xué)學(xué)報. 2019(06)



本文編號:3089932

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/sousuoyinqinglunwen/3089932.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶7ecfe***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com