基于深度殘差網絡的低劑量CT圖像處理與重建
發(fā)布時間:2021-09-24 07:19
X射線計算機斷層成像(Computed Tomography,CT)的廣泛應用,使低劑量CT成為臨床應用研究的主要方向。但是,減少CT中的輻射劑量會顯著增加圖像中的噪聲和偽影,這會明顯降低臨床放射科醫(yī)生診斷的準確率。近些年廣泛應用的低劑量CT處理方法主要包括投影域前處理技術、迭代重建技術、圖像后處理技術和深度學習方法,其主要目標是在低劑量的掃描條件下能夠接近甚至達到常規(guī)劑量掃描條件下的CT成像質量。常規(guī)低劑量CT處理和重建技術存在容易丟失組織細節(jié)特征的問題。本論文采用深度學習方法,以卷積神經網絡為基礎,通過構建和訓練深層特征表征網絡,對低劑量噪聲偽影預測的復雜問題進行非線性建模擬合,目的提高低劑量CT成像質量,降低病人承受的掃描輻射危害,為臨床醫(yī)生的檢測診斷提供有效的輔助。本論文分為以下兩個部分:本論文中進行了對于使用自適應卷積濾波網絡替換濾波反投影重建(Filtered Back Projection,FBP)中的固定濾波核的研究。AF-DenseNet網絡使用自適應濾波網絡單元替代FBP中的固定濾波核對處理后的投影數據進行濾波,同時在頻域和空間域進行卷積處理。在濾除噪聲的同時最大限...
【文章來源】:東南大學江蘇省 211工程院校 985工程院校 教育部直屬院校
【文章頁數】:66 頁
【學位級別】:碩士
【部分圖文】:
常規(guī)劑量CT掃描與低劑量CT掃描降低放射劑量和得到清晰的高質量圖像永遠是一對矛盾體,對于特定的掃描條件和檢查
CWH的卷積核對尺寸為WHD的輸入特征圖進行卷積,步長設定為S,經過卷積后的卷積層輸出特征圖尺寸變化為WHD,其中(2)+1CWWPWS+=,(2)+1CHHPHS+=,D=k。由于卷積層具有權值共享的特性,因此每一個通道的卷積核共享同一個權重參數,n個卷積核每一個卷積核權值參數個數為CCWH,卷積層通常會設置1個偏置項,用來進行常數性的偏置修正,因此n個卷積核共需()1CCkWH+個參數項,相比較于多層感知器等傳統(tǒng)深度學習方法的龐大參數量,卷積神經網絡節(jié)省了大量的參數存儲空間,同時也提升了計算速度。圖2-1卷積操作示意圖2.2批歸一化層批歸一化(BatchNormalization,BN)層,是Sergeyloffe在2015年提出的,提出后因其高泛用性和優(yōu)秀的性能提升,受到業(yè)界一致好評,被廣泛應用到深度網絡訓練中。BN層可以理解為對于每一個輸入卷積層的特征圖進行歸一化處理,統(tǒng)一化圖中的均值和方差,然后使用可訓練參數進行修正,使數據和特征具有相似的分布特性,同時還能夠解決不同光照、對比度等引起的輸入圖像數據的像素值偏移問題。BN算法的優(yōu)勢主要有以下幾方面:(1)學習率選擇較為靈活,網絡訓練收斂速度很快,對學習率選擇的依賴性較小;(2)具有正則化作用,提高模型的泛化能力,添加BN層后可以替代原有的Dropout和L1、L2正則化項;(3)可以消除原有特征圖的特定分布模式,有利于后續(xù)卷積層對于有效特征的提取,提高網絡特征表征能力。BN層的輸入特征圖為m個通道的集合1...mInput=x,可訓練參數為和,輸出特
第二章卷積神經網絡理論10ReLU函數:f(x)=max(0,x)(2.10)LeakyReLU函數:,0(),0xxfxxx==(2.11)圖2-2激活函數示意圖從圖2-2中可以看出,Sigmoid函數對中央區(qū)信息增益較大,對兩側區(qū)域信息增益小,容易因輸入過大或過小導致飽和,出現(xiàn)梯度彌散或梯度消失的問題,同時其也存在計算量較大、輸出值和梯度恒定為正值的缺點。Tanh函數特性與Sigmoid函數相近,擁有優(yōu)秀的中央區(qū)域信息增益,也容易出現(xiàn)飽和現(xiàn)象,輸出值可為負值,計算量較Simoid函數而言更大,容易造成較高的計算負擔。本論文主要采用ReLU為非線性激活函數,ReLU具有單側抑制、興奮邊界寬闊、稀疏激活性的特點,更貼近于生物神經元的稀疏激活性,在反向傳播時,ReLU的稀疏性使得每次反向傳播都會有一部分權重不會被更新,這使得ReLU激活函數具有更低的計算量和更高的計算速度。2.4損失函數損失函數是網絡輸出的預測值與真實值之間差異的度量,是衡量網絡性能的重要依據。網絡訓練的目的是使得網絡輸出的預測值與優(yōu)化目標真實值之間相似度越來越高,體現(xiàn)在損失函數上,就是預測值與真實值之間的損失函數越來越低。因此,如何選擇損失函數,如何讓損失函數更好代表預測值與真實值之間的差異性,是每一個深度學習任務面臨的重要任務。目前在圖像處理領域常用的損失函數主要有均方誤差損失(MeanSquareError,MSE)、平均絕對值誤差損失(MeanAbsoluteError,MAE),均方對數損失(MeanSquaredLogarithmicError,MSLE),其中均方誤差損失又稱為L2損失,平均絕對值誤差損失又稱為L1損失。MSE是衡量兩張不同圖像數據之間差異和變化程度的最常用方法之一,圖像客觀質量評估中的MSE代表著網絡輸出圖像和參考常規(guī)劑量圖像之間對應像素差的平方期望值。MSE的值越小,對應
本文編號:3407342
【文章來源】:東南大學江蘇省 211工程院校 985工程院校 教育部直屬院校
【文章頁數】:66 頁
【學位級別】:碩士
【部分圖文】:
常規(guī)劑量CT掃描與低劑量CT掃描降低放射劑量和得到清晰的高質量圖像永遠是一對矛盾體,對于特定的掃描條件和檢查
CWH的卷積核對尺寸為WHD的輸入特征圖進行卷積,步長設定為S,經過卷積后的卷積層輸出特征圖尺寸變化為WHD,其中(2)+1CWWPWS+=,(2)+1CHHPHS+=,D=k。由于卷積層具有權值共享的特性,因此每一個通道的卷積核共享同一個權重參數,n個卷積核每一個卷積核權值參數個數為CCWH,卷積層通常會設置1個偏置項,用來進行常數性的偏置修正,因此n個卷積核共需()1CCkWH+個參數項,相比較于多層感知器等傳統(tǒng)深度學習方法的龐大參數量,卷積神經網絡節(jié)省了大量的參數存儲空間,同時也提升了計算速度。圖2-1卷積操作示意圖2.2批歸一化層批歸一化(BatchNormalization,BN)層,是Sergeyloffe在2015年提出的,提出后因其高泛用性和優(yōu)秀的性能提升,受到業(yè)界一致好評,被廣泛應用到深度網絡訓練中。BN層可以理解為對于每一個輸入卷積層的特征圖進行歸一化處理,統(tǒng)一化圖中的均值和方差,然后使用可訓練參數進行修正,使數據和特征具有相似的分布特性,同時還能夠解決不同光照、對比度等引起的輸入圖像數據的像素值偏移問題。BN算法的優(yōu)勢主要有以下幾方面:(1)學習率選擇較為靈活,網絡訓練收斂速度很快,對學習率選擇的依賴性較小;(2)具有正則化作用,提高模型的泛化能力,添加BN層后可以替代原有的Dropout和L1、L2正則化項;(3)可以消除原有特征圖的特定分布模式,有利于后續(xù)卷積層對于有效特征的提取,提高網絡特征表征能力。BN層的輸入特征圖為m個通道的集合1...mInput=x,可訓練參數為和,輸出特
第二章卷積神經網絡理論10ReLU函數:f(x)=max(0,x)(2.10)LeakyReLU函數:,0(),0xxfxxx==(2.11)圖2-2激活函數示意圖從圖2-2中可以看出,Sigmoid函數對中央區(qū)信息增益較大,對兩側區(qū)域信息增益小,容易因輸入過大或過小導致飽和,出現(xiàn)梯度彌散或梯度消失的問題,同時其也存在計算量較大、輸出值和梯度恒定為正值的缺點。Tanh函數特性與Sigmoid函數相近,擁有優(yōu)秀的中央區(qū)域信息增益,也容易出現(xiàn)飽和現(xiàn)象,輸出值可為負值,計算量較Simoid函數而言更大,容易造成較高的計算負擔。本論文主要采用ReLU為非線性激活函數,ReLU具有單側抑制、興奮邊界寬闊、稀疏激活性的特點,更貼近于生物神經元的稀疏激活性,在反向傳播時,ReLU的稀疏性使得每次反向傳播都會有一部分權重不會被更新,這使得ReLU激活函數具有更低的計算量和更高的計算速度。2.4損失函數損失函數是網絡輸出的預測值與真實值之間差異的度量,是衡量網絡性能的重要依據。網絡訓練的目的是使得網絡輸出的預測值與優(yōu)化目標真實值之間相似度越來越高,體現(xiàn)在損失函數上,就是預測值與真實值之間的損失函數越來越低。因此,如何選擇損失函數,如何讓損失函數更好代表預測值與真實值之間的差異性,是每一個深度學習任務面臨的重要任務。目前在圖像處理領域常用的損失函數主要有均方誤差損失(MeanSquareError,MSE)、平均絕對值誤差損失(MeanAbsoluteError,MAE),均方對數損失(MeanSquaredLogarithmicError,MSLE),其中均方誤差損失又稱為L2損失,平均絕對值誤差損失又稱為L1損失。MSE是衡量兩張不同圖像數據之間差異和變化程度的最常用方法之一,圖像客觀質量評估中的MSE代表著網絡輸出圖像和參考常規(guī)劑量圖像之間對應像素差的平方期望值。MSE的值越小,對應
本文編號:3407342
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3407342.html
最近更新
教材專著