基于RNN的航空監(jiān)視信息融合技術(shù)的研究與實(shí)現(xiàn)
發(fā)布時(shí)間:2021-10-20 04:16
隨著民用飛機(jī)和軍用飛機(jī)數(shù)量的飛速增長(zhǎng),空中交通越來(lái)越繁忙,為了保障飛機(jī)的飛行安全,航空監(jiān)視信息處理系統(tǒng)的應(yīng)用不可或缺,系統(tǒng)中航空監(jiān)視信息融合技術(shù)是獲取準(zhǔn)確的飛行目標(biāo)位置信息的關(guān)鍵。航空監(jiān)視信息融合致力于將對(duì)同一目標(biāo)飛行器的多來(lái)源探測(cè)數(shù)據(jù)進(jìn)行融合,從而獲得更為準(zhǔn)確的飛機(jī)位置、航向、加速度等。由于基于卡爾曼濾波的傳統(tǒng)航空監(jiān)視信息融合技術(shù)依舊存在不足,如在機(jī)動(dòng)狀態(tài)下融合效果不佳、模型需要耗費(fèi)大量人力物力進(jìn)行反復(fù)調(diào)參等,故本文采用遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Netural Network,RNN)進(jìn)行航空監(jiān)視信息融合。本文構(gòu)建了一個(gè)航空監(jiān)視信息融合的原型系統(tǒng),系統(tǒng)由四部分組成,分別是監(jiān)視信息預(yù)處理模塊、飛機(jī)機(jī)動(dòng)狀態(tài)判別模塊、飛機(jī)位置預(yù)測(cè)模塊和多雷達(dá)監(jiān)視信息融合模塊。監(jiān)視信息預(yù)處理模塊負(fù)責(zé)監(jiān)視信息的報(bào)文解析、坐標(biāo)轉(zhuǎn)換和航跡匹配等工作。飛機(jī)機(jī)動(dòng)狀態(tài)判別模塊選用RNN作為模型進(jìn)行訓(xùn)練,利用訓(xùn)練后的模型可以根據(jù)一段航跡信息來(lái)判斷當(dāng)前飛機(jī)是否處于機(jī)動(dòng)狀態(tài)。飛機(jī)位置預(yù)測(cè)模塊選用加權(quán)最小二乘法對(duì)各維度的監(jiān)視信息與時(shí)間的函數(shù)關(guān)系進(jìn)行擬合,可利用擬合得到的函數(shù)對(duì)各維度的監(jiān)視信息進(jìn)行預(yù)測(cè),飛機(jī)位置預(yù)測(cè)的主要...
【文章來(lái)源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:60 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1遞歸神經(jīng)網(wǎng)絡(luò)??
??圖2-1遞歸神經(jīng)網(wǎng)絡(luò)??RNN中由于在當(dāng)前輸入疊加了歷史信號(hào),所以反向傳導(dǎo)時(shí)也不同于傳統(tǒng)??神經(jīng)網(wǎng)絡(luò),因?yàn)閷?duì)于t時(shí)刻的輸入層,其殘差不僅來(lái)自于輸出,還來(lái)自于之后??的隱層如圖2-2所示:??output??bO????^?娘???^?1?\??xl?X2?X3??圖2-2?RNN的反向傳播??因此RNN的反向傳播不止沿著網(wǎng)絡(luò)結(jié)構(gòu)由輸出層向輸入層傳播,還會(huì)沿??著序列由后向前傳播,不斷更新隱藏層自連接的權(quán)值。BPTT?(back-??propagation?through?time)?算法就是常用?的訓(xùn)練?RNN?的方法?[22】,其實(shí)本質(zhì)還是??BP算法,不同的是RNN用于處理序列數(shù)據(jù),所以要基于時(shí)間反向傳播。??BPTT的中心思想和BP算法相同,即梯度下降法,沿著需要優(yōu)化的參數(shù)的負(fù)??梯度方向不斷尋找更優(yōu)的點(diǎn)直至收斂。??14??
s??圖2-3長(zhǎng)短期記憶網(wǎng)絡(luò)??LSTM的結(jié)構(gòu)如圖2-3所示,其核心思想就是細(xì)胞狀態(tài),水平線(xiàn)在方貫穿??運(yùn)行。LSTM通過(guò)設(shè)計(jì)“門(mén)”的結(jié)構(gòu),與細(xì)胞狀態(tài)產(chǎn)生交互,達(dá)到去除或增加??信息到細(xì)胞狀態(tài)的能力“門(mén)”是一種讓信息有選擇性地通過(guò)的方法,其包??含一個(gè)sigmoid神經(jīng)網(wǎng)絡(luò)層和一個(gè)按位的乘法操作。LSTM?—共擁有三個(gè)門(mén),??他們依次決定著從細(xì)胞狀態(tài)中丟棄什么信息、將什么樣的新信息存放到細(xì)胞狀??態(tài)中以及從LSTM單元中輸出什么樣的細(xì)胞狀態(tài)。但LSTM與RNN之間除了??隱藏層中的非線(xiàn)性單元被替換成具有記憶功能的模塊外,其他結(jié)構(gòu)都基本相??同,RNN是具有短期記憶的,結(jié)合了?LSTM的記憶單元就可以具有長(zhǎng)期記??憶。而發(fā)生在梯度反向傳播過(guò)程中的梯度消失和梯度爆炸的問(wèn)題,也可以通過(guò)??LSTM的應(yīng)用得到解決。隨著時(shí)間間隔不斷增大時(shí),RNN會(huì)喪失學(xué)習(xí)到連接??很遠(yuǎn)的信息能力
本文編號(hào):3446225
【文章來(lái)源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:60 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1遞歸神經(jīng)網(wǎng)絡(luò)??
??圖2-1遞歸神經(jīng)網(wǎng)絡(luò)??RNN中由于在當(dāng)前輸入疊加了歷史信號(hào),所以反向傳導(dǎo)時(shí)也不同于傳統(tǒng)??神經(jīng)網(wǎng)絡(luò),因?yàn)閷?duì)于t時(shí)刻的輸入層,其殘差不僅來(lái)自于輸出,還來(lái)自于之后??的隱層如圖2-2所示:??output??bO????^?娘???^?1?\??xl?X2?X3??圖2-2?RNN的反向傳播??因此RNN的反向傳播不止沿著網(wǎng)絡(luò)結(jié)構(gòu)由輸出層向輸入層傳播,還會(huì)沿??著序列由后向前傳播,不斷更新隱藏層自連接的權(quán)值。BPTT?(back-??propagation?through?time)?算法就是常用?的訓(xùn)練?RNN?的方法?[22】,其實(shí)本質(zhì)還是??BP算法,不同的是RNN用于處理序列數(shù)據(jù),所以要基于時(shí)間反向傳播。??BPTT的中心思想和BP算法相同,即梯度下降法,沿著需要優(yōu)化的參數(shù)的負(fù)??梯度方向不斷尋找更優(yōu)的點(diǎn)直至收斂。??14??
s??圖2-3長(zhǎng)短期記憶網(wǎng)絡(luò)??LSTM的結(jié)構(gòu)如圖2-3所示,其核心思想就是細(xì)胞狀態(tài),水平線(xiàn)在方貫穿??運(yùn)行。LSTM通過(guò)設(shè)計(jì)“門(mén)”的結(jié)構(gòu),與細(xì)胞狀態(tài)產(chǎn)生交互,達(dá)到去除或增加??信息到細(xì)胞狀態(tài)的能力“門(mén)”是一種讓信息有選擇性地通過(guò)的方法,其包??含一個(gè)sigmoid神經(jīng)網(wǎng)絡(luò)層和一個(gè)按位的乘法操作。LSTM?—共擁有三個(gè)門(mén),??他們依次決定著從細(xì)胞狀態(tài)中丟棄什么信息、將什么樣的新信息存放到細(xì)胞狀??態(tài)中以及從LSTM單元中輸出什么樣的細(xì)胞狀態(tài)。但LSTM與RNN之間除了??隱藏層中的非線(xiàn)性單元被替換成具有記憶功能的模塊外,其他結(jié)構(gòu)都基本相??同,RNN是具有短期記憶的,結(jié)合了?LSTM的記憶單元就可以具有長(zhǎng)期記??憶。而發(fā)生在梯度反向傳播過(guò)程中的梯度消失和梯度爆炸的問(wèn)題,也可以通過(guò)??LSTM的應(yīng)用得到解決。隨著時(shí)間間隔不斷增大時(shí),RNN會(huì)喪失學(xué)習(xí)到連接??很遠(yuǎn)的信息能力
本文編號(hào):3446225
本文鏈接:http://www.sikaile.net/kejilunwen/hangkongsky/3446225.html
最近更新
教材專(zhuān)著