天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 自動化論文 >

基于多傳感器特征信息融合的目標識別技術(shù)研究

發(fā)布時間:2018-10-04 21:49
【摘要】:在現(xiàn)代化的戰(zhàn)場中,由于基于單傳感器的目標識別技術(shù)的自身局限性已經(jīng)遠遠不能滿足現(xiàn)在各領(lǐng)域的需求了,而基于多傳感器多特征目標識別技術(shù)它可以綜合利用各傳感器的特性來完成更多的任務(wù),基于多特征融合的識別技術(shù)可以在許多不確定環(huán)境和復(fù)雜背景下,通過將多個傳感器的特征信息進行有效融合,不僅能夠提高目標識別率,而且能減少有限的數(shù)據(jù)帶寬。目前國內(nèi)對基于多傳感器特征信息融合的目標識別技術(shù)研究相對而言較少,所以非常迫切的等待對其展開深入而有效的理論和技術(shù)研究。為此,我們從以下幾塊內(nèi)容去進行探討和研究:(1)主要介紹了幾種特征提取算法,通過外部傳感器獲得的數(shù)據(jù),利用特征提取算法對其數(shù)據(jù)進行有效的數(shù)據(jù)提取,其中主要對Hu矩、仿射不變矩、小波矩和Zernike矩這四種主要特征提取算法進行了詳細的分析和仿真。(2)主要研究了協(xié)方差矩陣算法,根據(jù)協(xié)方差矩陣它的特點,研究了基于協(xié)方差矩陣圖像特征融合方法。通過構(gòu)造有效可靠的區(qū)域協(xié)方差矩陣來對圖像的特征信息進行融合,從而使融合后的特征信息具有更好地旋轉(zhuǎn)不變性、尺度不變性,魯棒性,類可分性強等特點。(3)主要對BP神經(jīng)網(wǎng)絡(luò)進行了分析和研究,針對其存在收斂速度慢和易陷入局部極小等問題,首先對BP神經(jīng)提出了改進,通過采用附加動量來調(diào)整其權(quán)值和添加自適應(yīng)學(xué)習算法選擇學(xué)習率,然后通過理論分析提出并研究了運用粒子群算法去優(yōu)化改進的BP神經(jīng)網(wǎng)絡(luò)的參數(shù)來進一步提高神經(jīng)網(wǎng)絡(luò)的學(xué)習速度,最后再利用上述的融合特征信息進行目標識別。實驗結(jié)果表明:相對于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),利用粒子群來優(yōu)化改進的BP神經(jīng)網(wǎng)絡(luò)在一定程度上式能夠明顯提高目標識別率,同時將該算法應(yīng)用到了實際的識別系統(tǒng)中,證明了該算法的可行性和有效性。
[Abstract]:In the modern battlefield, because of the limitation of the target recognition technology based on single sensor, it is far from being able to meet the needs of various fields. Based on multi-sensor multi-feature target recognition technology, it can comprehensively utilize the characteristics of each sensor to complete more tasks, and multi-feature fusion based recognition technology can be used in many uncertain environments and complex background. By effectively merging the feature information of multiple sensors, not only the target recognition rate can be improved, but also the limited data bandwidth can be reduced. At present, the research on target recognition based on multi-sensor feature information fusion in China is relatively few, so it is very urgent to wait for the in-depth and effective theoretical and technical research. For this reason, we discuss and study the following parts: (1) this paper mainly introduces several feature extraction algorithms. Through the data obtained by external sensors, we use the feature extraction algorithm to extract the data effectively. Four main feature extraction algorithms, such as Hu moment, affine invariant moment, wavelet moment and Zernike moment, are analyzed and simulated in detail. (2) Covariance matrix algorithm is studied. The method of image feature fusion based on covariance matrix is studied. By constructing an effective and reliable regional covariance matrix to fuse the feature information of the image, the fused feature information has better rotation invariance, scale invariance and robustness. (3) the BP neural network is mainly analyzed and studied. Aiming at the problems of slow convergence rate and easy to fall into local minima, the improvement of BP neural network is put forward. By using additional momentum to adjust its weight and add adaptive learning algorithm to select learning rate, Then the particle swarm optimization algorithm is used to optimize the parameters of the improved BP neural network to further improve the learning speed of the neural network through theoretical analysis. Finally, the fusion feature information is used for target recognition. The experimental results show that compared with the traditional neural network, the improved BP neural network can improve the target recognition rate to a certain extent, and the algorithm is applied to the actual recognition system. The feasibility and effectiveness of the algorithm are proved.
【學(xué)位授予單位】:沈陽理工大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP391.41;TP212

【相似文獻】

相關(guān)期刊論文 前10條

1 王健敏;金玉蘭;;非合作式目標識別技術(shù)概述[J];兵工自動化;2006年08期

2 曹健;王武軍;韓飛;劉玉樹;;基于局部特征的目標識別技術(shù)研究[J];計算機工程;2010年10期

3 ;臉部描述和目標識別技術(shù)[J];電腦與電信;2011年02期

4 崔磊;;針對多種聲特征的聲目標識別技術(shù)研究[J];價值工程;2011年14期

5 王自勇,,文婷;精確目標識別技術(shù)[J];飛航導(dǎo)彈;1995年08期

6 ;《電訊技術(shù)》專題資料 《現(xiàn)代戰(zhàn)爭目標識別技術(shù)的現(xiàn)狀及發(fā)展》題要(一)[J];電訊技術(shù);2003年03期

7 ;《電訊技術(shù)》專題資料 《現(xiàn)代戰(zhàn)爭目標識別技術(shù)的現(xiàn)狀及發(fā)展》題要(二)[J];電訊技術(shù);2003年03期

8 ;《電訊技術(shù)》專題資料 《現(xiàn)代戰(zhàn)爭目標識別技術(shù)的現(xiàn)狀及發(fā)展》題要(四)[J];電訊技術(shù);2003年03期

9 ;《電訊技術(shù)》專題資料 《現(xiàn)代戰(zhàn)爭目標識別技術(shù)的現(xiàn)狀及發(fā)展》題要(五)[J];電訊技術(shù);2003年03期

10 關(guān)成斌;王國宏;李宇;谷勇;;基于多級模糊綜合評判的雷達網(wǎng)目標識別技術(shù)[J];海軍航空工程學(xué)院學(xué)報;2006年02期

相關(guān)會議論文 前4條

1 尹奎英;金林;錢博;房凱;;SAR目標識別技術(shù)綜述[A];第四屆中國科學(xué)院博士后學(xué)術(shù)年會暨工業(yè)經(jīng)濟與可持續(xù)發(fā)展學(xué)術(shù)會議論文集[C];2012年

2 霍富榮;陳宇;苗華;王文生;薛常喜;;空間光調(diào)制器在復(fù)雜背景目標識別技術(shù)中的應(yīng)用[A];第六屆全國信息獲取與處理學(xué)術(shù)會議論文集(2)[C];2008年

3 何慶聲;;光學(xué)多通道體全息快速目標識別技術(shù)[A];2007年光電探測與制導(dǎo)技術(shù)的發(fā)展與應(yīng)用研討會論文集[C];2007年

4 傅志中;李在銘;;亞圖像慣性目標識別技術(shù)及DSP實時實現(xiàn)[A];第十屆全國信號處理學(xué)術(shù)年會(CCSP-2001)論文集[C];2001年

相關(guān)重要報紙文章 前2條

1 何成渠;國防科技大學(xué)創(chuàng)新團隊項目:目標識別技術(shù)[N];科技日報;2006年

2 湯穎;勤思結(jié)網(wǎng)鎖長空 求索密織建豐功[N];中國航空報;2007年

相關(guān)博士學(xué)位論文 前5條

1 常永鑫;基于視覺認知的目標識別技術(shù)研究[D];電子科技大學(xué);2015年

2 姚輝偉;窄帶雷達中段目標識別技術(shù)研究[D];國防科學(xué)技術(shù)大學(xué);2014年

3 高陽;成像制導(dǎo)中的圖像預(yù)處理及目標識別技術(shù)研究[D];西北工業(yè)大學(xué);2006年

4 王大偉;基于特征級圖像融合的目標識別技術(shù)研究[D];中國科學(xué)院研究生院(長春光學(xué)精密機械與物理研究所);2010年

5 胡利平;合成孔徑雷達圖像目標識別技術(shù)研究[D];西安電子科技大學(xué);2009年

相關(guān)碩士學(xué)位論文 前10條

1 郭倩倩;目標識別技術(shù)在鋼筋計數(shù)系統(tǒng)中的研究與應(yīng)用[D];沈陽理工大學(xué);2015年

2 王誠;SAR圖像目標識別技術(shù)研究[D];西安電子科技大學(xué);2015年

3 謝馳港;基于多傳感器的地面目標識別技術(shù)研究[D];沈陽理工大學(xué);2016年

4 劉朝強;基于多傳感器特征信息融合的目標識別技術(shù)研究[D];沈陽理工大學(xué);2016年

5 潘友明;海面紅外目標識別技術(shù)研究[D];南京理工大學(xué);2006年

6 趙永一;多源數(shù)據(jù)融合的輻射源及目標識別技術(shù)[D];西安電子科技大學(xué);2006年

7 劉瓊;激光振動目標識別技術(shù)研究[D];西安電子科技大學(xué);2008年

8 張美仙;基于數(shù)據(jù)融合的聲目標識別技術(shù)研究[D];中北大學(xué);2011年

9 魯欣;紅外圖像目標識別技術(shù)研究[D];哈爾濱工程大學(xué);2007年

10 楊欣穎;潛器光視覺目標識別技術(shù)的研究與設(shè)計[D];哈爾濱工程大學(xué);2010年



本文編號:2251998

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2251998.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶a27da***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com