基于深度學習的主用戶信號分析
發(fā)布時間:2020-05-15 08:44
【摘要】:近年來,無線業(yè)務的迅猛增長造成了無線頻譜資源十分緊缺的局面。為了解決該問題,人們提出了一種基于認知無線電的頻譜共享思路:讓次級用戶在不影響主用戶正常使用的情況下與主用戶共享授權頻段。如果已知主用戶信號的特征信息,主用戶和次級用戶就能更好地實現(xiàn)頻譜共享。另一方面,隨著計算機硬件水平的提升和數(shù)據(jù)的海量增長,深度學習已經(jīng)成為當前的研究熱點。本文將深度學習應用在認知無線電領域,利用深度神經(jīng)網(wǎng)絡分析主用戶信號,促進頻譜共享的應用和發(fā)展,緩解當前頻譜資源緊缺的現(xiàn)狀。本文首先介紹了認知無線電的背景、定義以及關鍵技術,同時詳細闡述了深度學習及卷積神經(jīng)網(wǎng)絡。之后,論文給出了認知無線電系統(tǒng)接收端接收到的主用戶信號表達式,設計了一系列適用于深度學習網(wǎng)絡的數(shù)據(jù)預處理方式,并通過實驗選擇最佳的預處理方式作為本文的數(shù)據(jù)表達。接下來,論文討論了主用戶信號數(shù)字調(diào)制方式識別任務。基于卷積神經(jīng)網(wǎng)絡和預處理的星座圖數(shù)據(jù),訓練得到了主用戶調(diào)制方式分類器。該分類器和傳統(tǒng)的基于高階累計量和支持向量機的識別算法相比,一方面不需要手動提取特征,另一方面在低信噪比條件下獲得了更高的識別精度。然后,論文研究到認知無線電系統(tǒng)中存在干擾信號的情況,設計了一種基于深度學習的信號干擾分析算法。該算法綜合考慮多信號影響,不僅能夠在干擾條件下識別出主用戶信號,還能分析出干擾的調(diào)制方式。仿真結果表明,本文設計的算法在多種條件下均具有較好的性能。最后,針對主用戶信號的信噪比估計任務,論文設計了一種基于深度學習的估計方法。該方法利用不同信噪比條件下星座圖的不同樣式來完成模型訓練和結果推斷。與現(xiàn)有的基于二階矩四階矩和信號變化率的估計方法相比,本文方法能夠有效減小信噪比估計值的歸一化均方誤差。
【圖文】:
活函數(shù)得到卷積層的輸出。其中激活函數(shù)的作用是保證卷積層的輸出在一個指定的范圍內(nèi)的映射函數(shù)。通常將卷積層的輸出稱作特征圖,每一個卷積核經(jīng)過計算都會產(chǎn)生一個特征圖。圖1.3展示了卷積層的計算過程。圖1.3 卷積核的計算過程2、池化層。通過卷積層的計算后,,輸出的特征圖理論上可以直接進行下一步特征的高階學習或者直接輸入全連接層進行特征整合后分類。但是由于特征圖的數(shù)量多,在實際應用中如果直接利用卷積后的特征圖進行下一步操作,會導致特征圖的計算量過大,而且容易造成過擬合現(xiàn)象。此時需要減少網(wǎng)絡參數(shù),降低計算復雜度,所以通常在卷積層之后連接一個下采樣層。這一下采樣過程可以理解為,通過卷積層計算后輸出的特征圖是針對每一個像素點進行計算得到的,而相鄰的像素點間的特征差別往往不大,故可以通過一個下采樣操作整合特征圖,在降低后續(xù)計算量的同時降低特征維度。但這種操作又不會損失原始圖像的有效信息。常見的池化方式有兩種:最大池化和平均池化。池化操作同樣的
9圖1.4 最大池化和平均池化操作計算過程池化層的本質是用一個統(tǒng)計值來表示圖像的局部區(qū)域。這種操作能夠有效減少網(wǎng)絡的計算量且在一定程度上緩解過擬合,提高網(wǎng)絡的泛化能力。另外,池化操作還讓圖像特征具有一定程度的平移不變性。由于經(jīng)過池化層后圖像的某一個局部特征都由同一個統(tǒng)計值來表示,這意味著如果將圖像平移一段小的距離,該區(qū)域的特征值還是由該統(tǒng)計值來表示。在許多實際應用中,都需要系統(tǒng)具備平移不變性的特性。3、全連接層。全連接層可以理解為一種特殊的卷積層。在卷積層中,神經(jīng)元與上一層的輸出之間是局部連接,共享權值。而全連接層中的每一個神經(jīng)元都與上層的所有輸出單元全部連接,這樣做的目的是將之前提取到的特征進行融合,用作分類或者回歸任務。另外,由于每個節(jié)點全部連接,全連接層的計算參數(shù)在網(wǎng)絡的總計算參數(shù)中占了很大的比例。1.3 文本主要工作安排本文主要研究針對認知無線電系統(tǒng)中主用戶信號的分析。利用深度學習網(wǎng)絡與接收端接收到的主用戶信號數(shù)據(jù)
【學位授予單位】:華僑大學
【學位級別】:碩士
【學位授予年份】:2018
【分類號】:TN925;TP181
本文編號:2664770
【圖文】:
活函數(shù)得到卷積層的輸出。其中激活函數(shù)的作用是保證卷積層的輸出在一個指定的范圍內(nèi)的映射函數(shù)。通常將卷積層的輸出稱作特征圖,每一個卷積核經(jīng)過計算都會產(chǎn)生一個特征圖。圖1.3展示了卷積層的計算過程。圖1.3 卷積核的計算過程2、池化層。通過卷積層的計算后,,輸出的特征圖理論上可以直接進行下一步特征的高階學習或者直接輸入全連接層進行特征整合后分類。但是由于特征圖的數(shù)量多,在實際應用中如果直接利用卷積后的特征圖進行下一步操作,會導致特征圖的計算量過大,而且容易造成過擬合現(xiàn)象。此時需要減少網(wǎng)絡參數(shù),降低計算復雜度,所以通常在卷積層之后連接一個下采樣層。這一下采樣過程可以理解為,通過卷積層計算后輸出的特征圖是針對每一個像素點進行計算得到的,而相鄰的像素點間的特征差別往往不大,故可以通過一個下采樣操作整合特征圖,在降低后續(xù)計算量的同時降低特征維度。但這種操作又不會損失原始圖像的有效信息。常見的池化方式有兩種:最大池化和平均池化。池化操作同樣的
9圖1.4 最大池化和平均池化操作計算過程池化層的本質是用一個統(tǒng)計值來表示圖像的局部區(qū)域。這種操作能夠有效減少網(wǎng)絡的計算量且在一定程度上緩解過擬合,提高網(wǎng)絡的泛化能力。另外,池化操作還讓圖像特征具有一定程度的平移不變性。由于經(jīng)過池化層后圖像的某一個局部特征都由同一個統(tǒng)計值來表示,這意味著如果將圖像平移一段小的距離,該區(qū)域的特征值還是由該統(tǒng)計值來表示。在許多實際應用中,都需要系統(tǒng)具備平移不變性的特性。3、全連接層。全連接層可以理解為一種特殊的卷積層。在卷積層中,神經(jīng)元與上一層的輸出之間是局部連接,共享權值。而全連接層中的每一個神經(jīng)元都與上層的所有輸出單元全部連接,這樣做的目的是將之前提取到的特征進行融合,用作分類或者回歸任務。另外,由于每個節(jié)點全部連接,全連接層的計算參數(shù)在網(wǎng)絡的總計算參數(shù)中占了很大的比例。1.3 文本主要工作安排本文主要研究針對認知無線電系統(tǒng)中主用戶信號的分析。利用深度學習網(wǎng)絡與接收端接收到的主用戶信號數(shù)據(jù)
【學位授予單位】:華僑大學
【學位級別】:碩士
【學位授予年份】:2018
【分類號】:TN925;TP181
【參考文獻】
相關碩士學位論文 前1條
1 韓立燁;融合數(shù)據(jù)預處理的機器學習在電力預測中的應用研究[D];華北電力大學(北京);2016年
本文編號:2664770
本文鏈接:http://www.sikaile.net/kejilunwen/wltx/2664770.html
最近更新
教材專著