基于深度學(xué)習(xí)的網(wǎng)絡(luò)協(xié)議漏洞挖掘方法研究
發(fā)布時(shí)間:2021-08-30 23:56
隨著互聯(lián)網(wǎng)時(shí)代的發(fā)展,網(wǎng)絡(luò)安全問題的重要性與日劇增,而網(wǎng)絡(luò)協(xié)議作為互聯(lián)網(wǎng)中的基礎(chǔ)設(shè)施,其安全性尤為重要。漏洞挖掘技術(shù)能夠提前發(fā)現(xiàn)潛在安全漏洞。主動挖掘漏洞,防范于未然,是維持網(wǎng)絡(luò)安全重要手段。在針對網(wǎng)絡(luò)協(xié)議的漏洞挖掘方法中,模糊測試是如今最常用也最有效的方法。而模糊測試中測試用例的有效性是發(fā)現(xiàn)協(xié)議或系統(tǒng)未知漏洞的關(guān)鍵。為了提供有效的測試用例,研究者通常會學(xué)習(xí)并且分析某待測網(wǎng)絡(luò)協(xié)議的格式規(guī)范,然后基于網(wǎng)絡(luò)協(xié)議規(guī)范的先驗(yàn)知識生成測試用例,對具體的網(wǎng)絡(luò)協(xié)議實(shí)現(xiàn)進(jìn)行模糊測試。然而對各種不同協(xié)議的人工分析需要耗費(fèi)一定的人力和時(shí)間,這也在一定程度上降低了網(wǎng)絡(luò)協(xié)議漏洞挖掘的效率。因此,本文設(shè)計(jì)了一種基于模糊測試的網(wǎng)絡(luò)協(xié)議漏洞挖掘方法。該方法適用于各種網(wǎng)絡(luò)協(xié)議源碼的模糊測試,并通過深度學(xué)習(xí)方法省略了傳統(tǒng)網(wǎng)絡(luò)協(xié)議漏洞挖掘過程中的人工對網(wǎng)絡(luò)協(xié)議的分析。本文工作主要包含以下內(nèi)容:(1)針對測試用例的有效性問題,提出了一種基于深度學(xué)習(xí)的用例優(yōu)選模型與方法,該方法利用深度學(xué)習(xí)機(jī)制替代了對協(xié)議先驗(yàn)知識獲取的過程,并且使用通用性的建模方式,從而適用于多種網(wǎng)絡(luò)協(xié)議測試用例的生成。(2)針對網(wǎng)絡(luò)協(xié)議的模糊測試問題,改進(jìn)...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:99 頁
【學(xué)位級別】:碩士
【部分圖文】:
AFL模糊測試方案
第二章漏洞挖掘與深度學(xué)習(xí)理論綜述列預(yù)測等。如圖2-2所示,其基本結(jié)構(gòu)為包含多個(gè)節(jié)點(diǎn)的輸入層,輸出層,以及具有多個(gè)層次,多個(gè)節(jié)點(diǎn)的使用多種方式連接的隱藏層。簡單來說,就是多層神經(jīng)元的組合網(wǎng)絡(luò)結(jié)構(gòu),其中每一層神經(jīng)元包含多個(gè)節(jié)點(diǎn),層與層之間的節(jié)點(diǎn)互相連接。圖2-2神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)BP神經(jīng)網(wǎng)絡(luò)主要可以分為兩個(gè)過程,第一個(gè)是信號的前向傳播,信號從輸入層進(jìn)入,經(jīng)過隱藏層,最后傳播到輸出層,第二個(gè)是誤差的反向傳播,即從輸出層方向傳播到隱藏層,最后到輸入層。在誤差反向傳播的過程中,BP算法依次調(diào)節(jié)各個(gè)神經(jīng)元的權(quán)重和閾值,最終完成模型的訓(xùn)練。2.3.2卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)(ConcurrentNerualNetwork,CNN)是一種帶有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),最早是為了進(jìn)行圖像預(yù)處理而設(shè)計(jì)出的一種模型。CNN網(wǎng)絡(luò)一般包括:(1)輸入層,通常是輸入的圖片等數(shù)據(jù)。(2)卷積層,包含用于卷積計(jì)算的過濾器。當(dāng)給定一張新圖時(shí),CNN并不能準(zhǔn)確地知道這些特征到底要匹配原圖的哪些部分,所以它會在原圖中把每一個(gè)可能的位置都進(jìn)行嘗試,相當(dāng)于把這個(gè)特征變成了一個(gè)過濾器。(3)池化層,用于縮減矩陣,減少參數(shù)數(shù)量。對于圖片來說,池化就是將輸入圖像進(jìn)行縮小,減少像素信息,只保留重要信息。(4)全連接層,即全連接的神經(jīng)網(wǎng)絡(luò),在整個(gè)卷積神經(jīng)網(wǎng)絡(luò)中起到分類器的作用,即通過卷積,池化等過程后,再經(jīng)過全連接層對結(jié)果進(jìn)行識別分類。(5)輸出層,用于分類輸出。卷積神經(jīng)網(wǎng)絡(luò)本質(zhì)上是一種從輸入到輸出的映射,它能夠?qū)W習(xí)大量的輸入與15
墓亓?浴T諂脹ǖ納窬??韁校?閿氬闃?淶慕詰閌腔ハ嗔?擁模?歡??一網(wǎng)絡(luò)層的節(jié)點(diǎn)之間卻是互不關(guān)聯(lián)的。因此,它不能夠很好的表達(dá)在同一層的節(jié)點(diǎn)的關(guān)聯(lián)性,即序列數(shù)據(jù)的前后關(guān)聯(lián)性。循環(huán)神經(jīng)網(wǎng)絡(luò)是具有時(shí)間聯(lián)結(jié)的前饋神經(jīng)網(wǎng)絡(luò),它們有了狀態(tài),通道與通道之間有了時(shí)間上的聯(lián)系。神經(jīng)元的輸入信息,不僅包括前一神經(jīng)細(xì)胞層的輸出,還包括它自身在先前通道的狀態(tài),如圖2-3所示,左側(cè)圖形就是RNN模型的基本結(jié)構(gòu),而右側(cè)就是它在時(shí)間上進(jìn)行展開的示意圖。xt是時(shí)刻t的輸入,相應(yīng)的ht,ot分別是對應(yīng)時(shí)刻t的隱藏層和輸出層。圖2-3RNN模型基本結(jié)構(gòu)RNN基本模型的主要問題在于梯度爆炸和消失。同時(shí),在前向過程中,開始時(shí)刻的輸入對后面時(shí)刻的影響越來越小,這就是長距離依賴問題。在生物體中,神經(jīng)元擁有對過去時(shí)序狀態(tài)很強(qiáng)的記憶能力。而RNN中的長距離依賴問題則導(dǎo)致該神經(jīng)網(wǎng)絡(luò)失去了記憶的能力。而后提出的長短期記憶(Long-ShortTermMemory,LSTM)模型就是要解決這兩個(gè)問題,該模型通過引入若干門來解決,相比RNN多了一個(gè)狀態(tài)。這個(gè)狀態(tài)用16
本文編號:3373759
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:99 頁
【學(xué)位級別】:碩士
【部分圖文】:
AFL模糊測試方案
第二章漏洞挖掘與深度學(xué)習(xí)理論綜述列預(yù)測等。如圖2-2所示,其基本結(jié)構(gòu)為包含多個(gè)節(jié)點(diǎn)的輸入層,輸出層,以及具有多個(gè)層次,多個(gè)節(jié)點(diǎn)的使用多種方式連接的隱藏層。簡單來說,就是多層神經(jīng)元的組合網(wǎng)絡(luò)結(jié)構(gòu),其中每一層神經(jīng)元包含多個(gè)節(jié)點(diǎn),層與層之間的節(jié)點(diǎn)互相連接。圖2-2神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)BP神經(jīng)網(wǎng)絡(luò)主要可以分為兩個(gè)過程,第一個(gè)是信號的前向傳播,信號從輸入層進(jìn)入,經(jīng)過隱藏層,最后傳播到輸出層,第二個(gè)是誤差的反向傳播,即從輸出層方向傳播到隱藏層,最后到輸入層。在誤差反向傳播的過程中,BP算法依次調(diào)節(jié)各個(gè)神經(jīng)元的權(quán)重和閾值,最終完成模型的訓(xùn)練。2.3.2卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)(ConcurrentNerualNetwork,CNN)是一種帶有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),最早是為了進(jìn)行圖像預(yù)處理而設(shè)計(jì)出的一種模型。CNN網(wǎng)絡(luò)一般包括:(1)輸入層,通常是輸入的圖片等數(shù)據(jù)。(2)卷積層,包含用于卷積計(jì)算的過濾器。當(dāng)給定一張新圖時(shí),CNN并不能準(zhǔn)確地知道這些特征到底要匹配原圖的哪些部分,所以它會在原圖中把每一個(gè)可能的位置都進(jìn)行嘗試,相當(dāng)于把這個(gè)特征變成了一個(gè)過濾器。(3)池化層,用于縮減矩陣,減少參數(shù)數(shù)量。對于圖片來說,池化就是將輸入圖像進(jìn)行縮小,減少像素信息,只保留重要信息。(4)全連接層,即全連接的神經(jīng)網(wǎng)絡(luò),在整個(gè)卷積神經(jīng)網(wǎng)絡(luò)中起到分類器的作用,即通過卷積,池化等過程后,再經(jīng)過全連接層對結(jié)果進(jìn)行識別分類。(5)輸出層,用于分類輸出。卷積神經(jīng)網(wǎng)絡(luò)本質(zhì)上是一種從輸入到輸出的映射,它能夠?qū)W習(xí)大量的輸入與15
墓亓?浴T諂脹ǖ納窬??韁校?閿氬闃?淶慕詰閌腔ハ嗔?擁模?歡??一網(wǎng)絡(luò)層的節(jié)點(diǎn)之間卻是互不關(guān)聯(lián)的。因此,它不能夠很好的表達(dá)在同一層的節(jié)點(diǎn)的關(guān)聯(lián)性,即序列數(shù)據(jù)的前后關(guān)聯(lián)性。循環(huán)神經(jīng)網(wǎng)絡(luò)是具有時(shí)間聯(lián)結(jié)的前饋神經(jīng)網(wǎng)絡(luò),它們有了狀態(tài),通道與通道之間有了時(shí)間上的聯(lián)系。神經(jīng)元的輸入信息,不僅包括前一神經(jīng)細(xì)胞層的輸出,還包括它自身在先前通道的狀態(tài),如圖2-3所示,左側(cè)圖形就是RNN模型的基本結(jié)構(gòu),而右側(cè)就是它在時(shí)間上進(jìn)行展開的示意圖。xt是時(shí)刻t的輸入,相應(yīng)的ht,ot分別是對應(yīng)時(shí)刻t的隱藏層和輸出層。圖2-3RNN模型基本結(jié)構(gòu)RNN基本模型的主要問題在于梯度爆炸和消失。同時(shí),在前向過程中,開始時(shí)刻的輸入對后面時(shí)刻的影響越來越小,這就是長距離依賴問題。在生物體中,神經(jīng)元擁有對過去時(shí)序狀態(tài)很強(qiáng)的記憶能力。而RNN中的長距離依賴問題則導(dǎo)致該神經(jīng)網(wǎng)絡(luò)失去了記憶的能力。而后提出的長短期記憶(Long-ShortTermMemory,LSTM)模型就是要解決這兩個(gè)問題,該模型通過引入若干門來解決,相比RNN多了一個(gè)狀態(tài)。這個(gè)狀態(tài)用16
本文編號:3373759
本文鏈接:http://www.sikaile.net/guanlilunwen/ydhl/3373759.html
最近更新
教材專著