基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分割算法的優(yōu)化與實現(xiàn)
發(fā)布時間:2022-01-26 07:14
惡性腫瘤一直是危害人類健康的主要疾病之一,其發(fā)病率和死亡率一直居高不下。在治療腫瘤的放化療過程中,對腫瘤區(qū)域的靶區(qū)與周圍重要器官的分割一直處于重要地位。此前由醫(yī)生進行的人工分割成本巨大,如何進一步減輕醫(yī)生的工作量,提高治療的效率一直是近年來的研究熱點。隨著人工智能技術(shù)的快速發(fā)展,深度學(xué)習(xí)算法在計算機輔助診斷中取得了突破性的應(yīng)用;谏疃葘W(xué)習(xí)的圖像分割算法應(yīng)用在醫(yī)學(xué)領(lǐng)域,能夠快速地實現(xiàn)自動化的靶區(qū)勾畫與器官分割,減緩醫(yī)療資源的緊張,提高患者的就醫(yī)率。對治療惡性腫瘤意義重大。本文主要是對基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分割算法3D-Unet進行研究優(yōu)化與實現(xiàn)。主要貢獻如下:1.提出了一種水平深度多尺度的U型卷積神經(jīng)網(wǎng)絡(luò)(Level Depth Multiscale U-net,LDM-Unet)分割算法,基于3D-Unet,在水平層采用多卷積堆疊方式提取多尺度信息,提高網(wǎng)絡(luò)對不同尺度目標(biāo)的感知能力,在各深度層利用空洞卷積提取不同深度的空間結(jié)構(gòu)信息,避免連續(xù)池化帶來的信息損失,從而提高網(wǎng)絡(luò)的分割性能。在公開數(shù)據(jù)集BraTS 2018上對WholeTumor,TumorCore以及EnhancingTu...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:75 頁
【學(xué)位級別】:碩士
【部分圖文】:
感知器結(jié)構(gòu)示意圖
第二章相關(guān)理論基礎(chǔ)圖2-2簡單神經(jīng)網(wǎng)絡(luò)示意圖2.1.2梯度下降算法與反向傳播神經(jīng)網(wǎng)絡(luò)的前向傳播可以根據(jù)輸入計算出網(wǎng)絡(luò)的輸出結(jié)果,但是神經(jīng)網(wǎng)絡(luò)的一系列參數(shù)如權(quán)重和偏置需要從數(shù)據(jù)中學(xué)習(xí)得到。1986年hinton[39]提出了反向傳播算法,用于對神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,實踐證明反向傳播對神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果很好,如今的深度學(xué)習(xí)的網(wǎng)絡(luò)模型的訓(xùn)練都是采用反向傳播算法進行的。反向傳播算法的核心思想是,通過前向傳播從輸入數(shù)據(jù)中計算出一個輸出結(jié)果,然后通過一個誤差損失函數(shù)來衡量網(wǎng)絡(luò)的預(yù)測輸出與真實的數(shù)據(jù)標(biāo)簽之間的誤差。計算損失函數(shù)對網(wǎng)絡(luò)模型中各參數(shù)的導(dǎo)數(shù)并通過梯度下降算法來更新所有的網(wǎng)絡(luò)模型參數(shù)。達到參數(shù)的自動化學(xué)習(xí)。均方誤差函數(shù)是經(jīng)典的損失函數(shù)之一,其定義表達式如下:C(w,b)=12nxy(x)aL(x)2(2-6)其中C(w,b)代表了該損失函數(shù)是關(guān)于自變量w與b的函數(shù)映射。w代表了網(wǎng)絡(luò)中所有權(quán)重的集合,b代表了所有的偏置的集合。n為訓(xùn)練樣本的個數(shù),x表示所有訓(xùn)練樣本的集合,y(x)代表了訓(xùn)練樣本對應(yīng)的標(biāo)簽,L代表了網(wǎng)絡(luò)的總層數(shù),aL(x)代表了訓(xùn)練樣本對應(yīng)的網(wǎng)絡(luò)輸出。從函數(shù)定義可知均方誤差函數(shù)是非負的,并且當(dāng)網(wǎng)絡(luò)對應(yīng)輸入x的預(yù)測輸出值越接近x的標(biāo)簽時,函數(shù)值越校當(dāng)損失函數(shù)值接近0時,代表神經(jīng)網(wǎng)絡(luò)的各參數(shù)值已經(jīng)得到了良好的訓(xùn)練,可以使網(wǎng)絡(luò)的輸出與原始的標(biāo)簽達到基本一致。所以對神經(jīng)網(wǎng)絡(luò)的訓(xùn)練轉(zhuǎn)變?yōu)榍笕p失函數(shù)的9
電子科技大學(xué)碩士學(xué)位論文最小值。均方誤差函數(shù)的示意圖如圖2-3所示。圖2-3二元均方誤差函數(shù)示意圖對均方誤差損失函數(shù)求取最小值的過程中,難以利用微積分中尋找最值點的方法,因為神經(jīng)網(wǎng)絡(luò)的訓(xùn)練樣本的維度通常是非常巨大的,這樣就使得損失函數(shù)是一個非常復(fù)雜的多元函數(shù),用微積分來直接計算最小值其計算量是無法承擔(dān)的。解決的方法是利用梯度下降法來近似求解。梯度下降法的核心思想是迭代近似求解,從一個初始點出發(fā),計算函數(shù)在當(dāng)前位置的梯度,然后將位置逆梯度移動,也就是逆梯度方向更新參數(shù),函數(shù)值隨之變小,通過不斷地迭代移動,函數(shù)值最終達到一個可以接收的較小值。二元均方誤差函數(shù)的梯度下降示意如圖2-4所示.梯度下降法更新參數(shù)的規(guī)則如下所示:wk→w′k=wkηCwkbl→b′l=blηCbl(2-7)其中η代表了一次移動的步長,稱為學(xué)習(xí)率,是人為指定的參數(shù),稱為超參數(shù),與權(quán)重偏置等被網(wǎng)絡(luò)自動學(xué)習(xí)的參數(shù)不同。這個超參數(shù)決定了參數(shù)更新的速率。由于訓(xùn)練樣本的數(shù)量通常比較大,所以如果在所有訓(xùn)練樣本上進行梯度下降也會導(dǎo)致訓(xùn)練速度過慢。解決的辦法是每次選取一個批次(Batch)的訓(xùn)練樣本,在這個批次上進行一步梯度下降算法,對網(wǎng)絡(luò)模型的所有參數(shù)進行一次更新操作。10
本文編號:3610064
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:75 頁
【學(xué)位級別】:碩士
【部分圖文】:
感知器結(jié)構(gòu)示意圖
第二章相關(guān)理論基礎(chǔ)圖2-2簡單神經(jīng)網(wǎng)絡(luò)示意圖2.1.2梯度下降算法與反向傳播神經(jīng)網(wǎng)絡(luò)的前向傳播可以根據(jù)輸入計算出網(wǎng)絡(luò)的輸出結(jié)果,但是神經(jīng)網(wǎng)絡(luò)的一系列參數(shù)如權(quán)重和偏置需要從數(shù)據(jù)中學(xué)習(xí)得到。1986年hinton[39]提出了反向傳播算法,用于對神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,實踐證明反向傳播對神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果很好,如今的深度學(xué)習(xí)的網(wǎng)絡(luò)模型的訓(xùn)練都是采用反向傳播算法進行的。反向傳播算法的核心思想是,通過前向傳播從輸入數(shù)據(jù)中計算出一個輸出結(jié)果,然后通過一個誤差損失函數(shù)來衡量網(wǎng)絡(luò)的預(yù)測輸出與真實的數(shù)據(jù)標(biāo)簽之間的誤差。計算損失函數(shù)對網(wǎng)絡(luò)模型中各參數(shù)的導(dǎo)數(shù)并通過梯度下降算法來更新所有的網(wǎng)絡(luò)模型參數(shù)。達到參數(shù)的自動化學(xué)習(xí)。均方誤差函數(shù)是經(jīng)典的損失函數(shù)之一,其定義表達式如下:C(w,b)=12nxy(x)aL(x)2(2-6)其中C(w,b)代表了該損失函數(shù)是關(guān)于自變量w與b的函數(shù)映射。w代表了網(wǎng)絡(luò)中所有權(quán)重的集合,b代表了所有的偏置的集合。n為訓(xùn)練樣本的個數(shù),x表示所有訓(xùn)練樣本的集合,y(x)代表了訓(xùn)練樣本對應(yīng)的標(biāo)簽,L代表了網(wǎng)絡(luò)的總層數(shù),aL(x)代表了訓(xùn)練樣本對應(yīng)的網(wǎng)絡(luò)輸出。從函數(shù)定義可知均方誤差函數(shù)是非負的,并且當(dāng)網(wǎng)絡(luò)對應(yīng)輸入x的預(yù)測輸出值越接近x的標(biāo)簽時,函數(shù)值越校當(dāng)損失函數(shù)值接近0時,代表神經(jīng)網(wǎng)絡(luò)的各參數(shù)值已經(jīng)得到了良好的訓(xùn)練,可以使網(wǎng)絡(luò)的輸出與原始的標(biāo)簽達到基本一致。所以對神經(jīng)網(wǎng)絡(luò)的訓(xùn)練轉(zhuǎn)變?yōu)榍笕p失函數(shù)的9
電子科技大學(xué)碩士學(xué)位論文最小值。均方誤差函數(shù)的示意圖如圖2-3所示。圖2-3二元均方誤差函數(shù)示意圖對均方誤差損失函數(shù)求取最小值的過程中,難以利用微積分中尋找最值點的方法,因為神經(jīng)網(wǎng)絡(luò)的訓(xùn)練樣本的維度通常是非常巨大的,這樣就使得損失函數(shù)是一個非常復(fù)雜的多元函數(shù),用微積分來直接計算最小值其計算量是無法承擔(dān)的。解決的方法是利用梯度下降法來近似求解。梯度下降法的核心思想是迭代近似求解,從一個初始點出發(fā),計算函數(shù)在當(dāng)前位置的梯度,然后將位置逆梯度移動,也就是逆梯度方向更新參數(shù),函數(shù)值隨之變小,通過不斷地迭代移動,函數(shù)值最終達到一個可以接收的較小值。二元均方誤差函數(shù)的梯度下降示意如圖2-4所示.梯度下降法更新參數(shù)的規(guī)則如下所示:wk→w′k=wkηCwkbl→b′l=blηCbl(2-7)其中η代表了一次移動的步長,稱為學(xué)習(xí)率,是人為指定的參數(shù),稱為超參數(shù),與權(quán)重偏置等被網(wǎng)絡(luò)自動學(xué)習(xí)的參數(shù)不同。這個超參數(shù)決定了參數(shù)更新的速率。由于訓(xùn)練樣本的數(shù)量通常比較大,所以如果在所有訓(xùn)練樣本上進行梯度下降也會導(dǎo)致訓(xùn)練速度過慢。解決的辦法是每次選取一個批次(Batch)的訓(xùn)練樣本,在這個批次上進行一步梯度下降算法,對網(wǎng)絡(luò)模型的所有參數(shù)進行一次更新操作。10
本文編號:3610064
本文鏈接:http://www.sikaile.net/yixuelunwen/swyx/3610064.html
最近更新
教材專著