可變融合的隨機注意力膠囊網(wǎng)絡入侵檢測模型
發(fā)布時間:2022-01-17 02:20
為了增強檢測模型的準確率與泛化性,提出了一種可變融合的隨機注意力膠囊網(wǎng)絡的入侵檢測模型,通過特征動態(tài)融合,模型能夠更好地捕捉數(shù)據(jù)特征;同時使用隨機注意力機制,減少了對訓練數(shù)據(jù)的依賴,使模型更具有泛化能力。所提模型在NSL-KDD和UNSW-NB15數(shù)據(jù)集上進行驗證,實驗表明,模型在2種測試集上的準確率分別達到了99.49%和98.60%。
【文章來源】:通信學報. 2020,41(11)北大核心EICSCD
【文章頁數(shù)】:9 頁
【部分圖文】:
隨機注意力機制
本文中的動態(tài)路由機制的與文獻[11]中相似,但是為了使動態(tài)過程更加接近入侵檢測的數(shù)據(jù),本文對壓縮函數(shù)Squashing進行了修改,如圖3所示。使用x和y分別代表壓縮函數(shù)中的sj和vj,x和y都是標量,在二維坐標系下研究函數(shù)的性質。從圖3中可以發(fā)現(xiàn),原始的壓縮函數(shù)在處理模長較短的膠囊時,會把數(shù)值壓縮到0附近,這樣的全局壓縮會導致在迭代更新時丟失部分膠囊的重要信息,同時函數(shù)增長速率過緩,對于模長比較短和模長比較長的膠囊會有明顯的區(qū)分,但卻不能很好地區(qū)分中間長度的膠囊,并且影響迭代速度。為了解決這個問題,本文對原來的壓縮方法進行了調整,改進的壓縮方法如式(12)所示,函數(shù)圖像如圖4所示。此壓縮函數(shù)的特點是在模長接近0時起到了放大作用,不像原來函數(shù)一樣進行全局壓縮,導致部分信息被忽略。
為了解決這個問題,本文對原來的壓縮方法進行了調整,改進的壓縮方法如式(12)所示,函數(shù)圖像如圖4所示。此壓縮函數(shù)的特點是在模長接近0時起到了放大作用,不像原來函數(shù)一樣進行全局壓縮,導致部分信息被忽略。在輸出層部分,本文并沒有采用原始膠囊網(wǎng)絡中的重構操作,因為在特征提取過程中融合了全局特征,重構后將會帶來一定的誤差,分類的預測結果依舊采用vj模長的形式來表示,在損失函數(shù)部分,本文只使用了如式(13)所示的Margin Loss函數(shù)。
本文編號:3593858
【文章來源】:通信學報. 2020,41(11)北大核心EICSCD
【文章頁數(shù)】:9 頁
【部分圖文】:
隨機注意力機制
本文中的動態(tài)路由機制的與文獻[11]中相似,但是為了使動態(tài)過程更加接近入侵檢測的數(shù)據(jù),本文對壓縮函數(shù)Squashing進行了修改,如圖3所示。使用x和y分別代表壓縮函數(shù)中的sj和vj,x和y都是標量,在二維坐標系下研究函數(shù)的性質。從圖3中可以發(fā)現(xiàn),原始的壓縮函數(shù)在處理模長較短的膠囊時,會把數(shù)值壓縮到0附近,這樣的全局壓縮會導致在迭代更新時丟失部分膠囊的重要信息,同時函數(shù)增長速率過緩,對于模長比較短和模長比較長的膠囊會有明顯的區(qū)分,但卻不能很好地區(qū)分中間長度的膠囊,并且影響迭代速度。為了解決這個問題,本文對原來的壓縮方法進行了調整,改進的壓縮方法如式(12)所示,函數(shù)圖像如圖4所示。此壓縮函數(shù)的特點是在模長接近0時起到了放大作用,不像原來函數(shù)一樣進行全局壓縮,導致部分信息被忽略。
為了解決這個問題,本文對原來的壓縮方法進行了調整,改進的壓縮方法如式(12)所示,函數(shù)圖像如圖4所示。此壓縮函數(shù)的特點是在模長接近0時起到了放大作用,不像原來函數(shù)一樣進行全局壓縮,導致部分信息被忽略。在輸出層部分,本文并沒有采用原始膠囊網(wǎng)絡中的重構操作,因為在特征提取過程中融合了全局特征,重構后將會帶來一定的誤差,分類的預測結果依舊采用vj模長的形式來表示,在損失函數(shù)部分,本文只使用了如式(13)所示的Margin Loss函數(shù)。
本文編號:3593858
本文鏈接:http://www.sikaile.net/guanlilunwen/ydhl/3593858.html
最近更新
教材專著