基于卷積神經(jīng)網(wǎng)絡(luò)的乳腺癌病理圖像分類研究
發(fā)布時(shí)間:2021-10-01 23:07
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)模型具有非常出色的學(xué)習(xí)能力,它將圖像數(shù)據(jù)直接輸入,在無(wú)需人工對(duì)圖像進(jìn)行預(yù)處理和額外的特征抽取等復(fù)雜操作的同時(shí)以其特有的細(xì)粒度特征提取方式可以對(duì)圖像進(jìn)行細(xì)致的處理,與傳統(tǒng)的機(jī)器學(xué)習(xí)算法相比,CNN在圖像分類、圖像分割和目標(biāo)檢測(cè)等研究領(lǐng)域取得了很好的成績(jī)。近年來(lái),CNN因其可以從醫(yī)學(xué)圖像中自動(dòng)學(xué)習(xí)提取隱含的疾病診斷特征,使許多研究者將它應(yīng)用于醫(yī)學(xué)圖像分析研究。乳腺癌組織病理圖像本身比較復(fù)雜,具有廣泛的異質(zhì)性,當(dāng)前使用的有關(guān)圖像自動(dòng)分類的方法對(duì)高分辨率圖像處理具有局限性的不足使得最終的分類效果不理想,因此對(duì)細(xì)胞形態(tài)特征的準(zhǔn)確評(píng)估仍然是一大難題。針對(duì)以上問(wèn)題,本文設(shè)計(jì)了兩種基于卷積神經(jīng)網(wǎng)絡(luò)的乳腺癌病理圖像分類模型,主要研究?jī)?nèi)容如下:(1)為了使網(wǎng)絡(luò)性能更加完美以及提高模型的特征提取能力,當(dāng)前CNN向?qū)訑?shù)更深的方向發(fā)展,然而這一過(guò)程會(huì)導(dǎo)致參數(shù)數(shù)量增加、模型訓(xùn)練過(guò)程更加復(fù)雜,容易出現(xiàn)過(guò)擬合的風(fēng)險(xiǎn)。針對(duì)這一問(wèn)題,本文設(shè)計(jì)了一種新的小型壓縮-激勵(lì)-殘差(the Small Squeeze-and-Excitation R...
【文章來(lái)源】:西北師范大學(xué)甘肅省
【文章頁(yè)數(shù)】:54 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
SE-ResNet模塊架構(gòu)
西北師范大學(xué)碩士學(xué)位論文14型壓縮-激勵(lì)-殘差模塊(SmallSE-ResNet,SSER),它包括兩個(gè)連續(xù)的1×3和3×1的卷積,在卷積之前帶有批量正則化和ReLU:conv1×3-conv3×1-conv1×3-conv3×1-SEblock(圖3-1.c)。在僅考慮卷積層參數(shù)的情況下,通過(guò)下面的公式來(lái)計(jì)算一個(gè)卷積層參數(shù)的總數(shù)量:()=×××(3-1)其中××表示卷積核的大小,K表示卷積核的數(shù)量。計(jì)算圖3-1中所示的三個(gè)模型的參數(shù)數(shù)量如下所示:()=(64×3×3×64)×2=18×642(3-2)()=256×1×1×64+64×3×3×64+64×1×1×256=17×642(3-3)()=(64×1×3×64)×2+(64×3×1×64)×2=12×642(3-4)通過(guò)上面的計(jì)算可知,與basicSE-ResNet模塊和bottleneckSE-ResNet模塊相比,SSER模塊的參數(shù)數(shù)量減少了約29.4%至33.3%。3.1.2乳腺癌組織病理學(xué)圖像分類網(wǎng)絡(luò)圖3-2用于乳腺癌組織病理學(xué)圖像良性和惡性分類的BHCNet-3架構(gòu)本章設(shè)計(jì)了一種新的名為乳腺癌組織病理學(xué)圖像分類網(wǎng)絡(luò)(thebreastcancerhistopathologyimageclassificationnetworks,BHCNet)的CNN架構(gòu),使用小型SE-ResNet模塊對(duì)乳腺癌組織病理學(xué)圖像進(jìn)行分類。BHCNet由一個(gè)普通卷積層,三個(gè)SE-ResNet塊及一個(gè)全連接層構(gòu)成,其中每個(gè)SE-ResNet塊由N個(gè)小型SE-ResNet塊堆疊,在本章表示為BHCNet-N,當(dāng)N=3時(shí),BHCNet架構(gòu)如圖3-2所示,BHCNet-3模型參數(shù)數(shù)量為198k,模型大小僅為2.1Mb。
西北師范大學(xué)碩士學(xué)位論文16圖3-3不同的α和β下的高斯誤差調(diào)度器曲線當(dāng)學(xué)習(xí)率接近零時(shí),CNN權(quán)重的更新由噪聲主導(dǎo),這可能會(huì)使后期訓(xùn)練中測(cè)試集的準(zhǔn)確率出現(xiàn)波動(dòng)或者下降,因此在后面的周期不能將學(xué)習(xí)率設(shè)置為0。在設(shè)置高斯誤差調(diào)度器的參數(shù)時(shí)首先確保學(xué)習(xí)率不接近0,其次要求不需要非常仔細(xì)地微調(diào)。在本章中,將設(shè)置為步伐調(diào)度器的最小學(xué)習(xí)率,設(shè)置為最大學(xué)習(xí)率。高斯誤差調(diào)度器可以很容易地與SGD和優(yōu)化算法相結(jié)合,采用Nesterov動(dòng)量SGD的高斯誤差調(diào)度器算法如算法1所示.算法1帶Nesterov動(dòng)量SGD的高斯誤差調(diào)度器輸入:最大學(xué)習(xí)率lr,最小學(xué)習(xí)率,高斯誤差調(diào)度器參數(shù)α和β,動(dòng)量參數(shù)m。輸入:初始CNN參數(shù)θ,初始向量v,初始周期E。1.fore=1toEdo2.從訓(xùn)練集中抽取一個(gè)有m個(gè)樣例的小批次{(1),…,()},對(duì)應(yīng)標(biāo)簽為y(i)。3.臨時(shí)的更新:←+4.計(jì)算梯度(在臨時(shí)點(diǎn)):←1∑((();),())5.計(jì)算學(xué)習(xí)率:=+2(1(()+))6.計(jì)算向量更新:←7.參數(shù)更新:←+8.endfor3.2實(shí)驗(yàn)結(jié)果分析3.2.1在Cifar數(shù)據(jù)集上的性能分析(1)SSER模塊性能分析
【參考文獻(xiàn)】:
期刊論文
[1]樣本遷移支持下的遙感影像自動(dòng)分類方法[J]. 林聰,李二珠,杜培軍. 測(cè)繪通報(bào). 2018(04)
[2]醫(yī)學(xué)圖像分析深度學(xué)習(xí)方法研究與挑戰(zhàn)[J]. 田娟秀,劉國(guó)才,谷珊珊,鞠忠建,劉勁光,顧冬冬. 自動(dòng)化學(xué)報(bào). 2018(03)
[3]基于跨連卷積神經(jīng)網(wǎng)絡(luò)的性別分類模型[J]. 張婷,李玉鑑,胡海鶴,張亞紅. 自動(dòng)化學(xué)報(bào). 2016(06)
[4]語(yǔ)義關(guān)系相似度計(jì)算中的數(shù)據(jù)標(biāo)準(zhǔn)化方法比較[J]. 王正鵬,謝志鵬,邱培超. 計(jì)算機(jī)工程. 2012(10)
碩士論文
[1]基于稀疏編碼的多特征視頻異常事件檢測(cè)[D]. 唐鐘洋.廣東工業(yè)大學(xué) 2019
[2]基于深度學(xué)習(xí)的人臉識(shí)別技術(shù)及其在智能小區(qū)中的應(yīng)用[D]. 藍(lán)振潘.華南理工大學(xué) 2017
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像特征提取算法與圖像分類問(wèn)題研究[D]. 司寧博.蘭州大學(xué) 2017
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的大規(guī)模人臉聚類[D]. 申小敏.廣東工業(yè)大學(xué) 2016
本文編號(hào):3417513
【文章來(lái)源】:西北師范大學(xué)甘肅省
【文章頁(yè)數(shù)】:54 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
SE-ResNet模塊架構(gòu)
西北師范大學(xué)碩士學(xué)位論文14型壓縮-激勵(lì)-殘差模塊(SmallSE-ResNet,SSER),它包括兩個(gè)連續(xù)的1×3和3×1的卷積,在卷積之前帶有批量正則化和ReLU:conv1×3-conv3×1-conv1×3-conv3×1-SEblock(圖3-1.c)。在僅考慮卷積層參數(shù)的情況下,通過(guò)下面的公式來(lái)計(jì)算一個(gè)卷積層參數(shù)的總數(shù)量:()=×××(3-1)其中××表示卷積核的大小,K表示卷積核的數(shù)量。計(jì)算圖3-1中所示的三個(gè)模型的參數(shù)數(shù)量如下所示:()=(64×3×3×64)×2=18×642(3-2)()=256×1×1×64+64×3×3×64+64×1×1×256=17×642(3-3)()=(64×1×3×64)×2+(64×3×1×64)×2=12×642(3-4)通過(guò)上面的計(jì)算可知,與basicSE-ResNet模塊和bottleneckSE-ResNet模塊相比,SSER模塊的參數(shù)數(shù)量減少了約29.4%至33.3%。3.1.2乳腺癌組織病理學(xué)圖像分類網(wǎng)絡(luò)圖3-2用于乳腺癌組織病理學(xué)圖像良性和惡性分類的BHCNet-3架構(gòu)本章設(shè)計(jì)了一種新的名為乳腺癌組織病理學(xué)圖像分類網(wǎng)絡(luò)(thebreastcancerhistopathologyimageclassificationnetworks,BHCNet)的CNN架構(gòu),使用小型SE-ResNet模塊對(duì)乳腺癌組織病理學(xué)圖像進(jìn)行分類。BHCNet由一個(gè)普通卷積層,三個(gè)SE-ResNet塊及一個(gè)全連接層構(gòu)成,其中每個(gè)SE-ResNet塊由N個(gè)小型SE-ResNet塊堆疊,在本章表示為BHCNet-N,當(dāng)N=3時(shí),BHCNet架構(gòu)如圖3-2所示,BHCNet-3模型參數(shù)數(shù)量為198k,模型大小僅為2.1Mb。
西北師范大學(xué)碩士學(xué)位論文16圖3-3不同的α和β下的高斯誤差調(diào)度器曲線當(dāng)學(xué)習(xí)率接近零時(shí),CNN權(quán)重的更新由噪聲主導(dǎo),這可能會(huì)使后期訓(xùn)練中測(cè)試集的準(zhǔn)確率出現(xiàn)波動(dòng)或者下降,因此在后面的周期不能將學(xué)習(xí)率設(shè)置為0。在設(shè)置高斯誤差調(diào)度器的參數(shù)時(shí)首先確保學(xué)習(xí)率不接近0,其次要求不需要非常仔細(xì)地微調(diào)。在本章中,將設(shè)置為步伐調(diào)度器的最小學(xué)習(xí)率,設(shè)置為最大學(xué)習(xí)率。高斯誤差調(diào)度器可以很容易地與SGD和優(yōu)化算法相結(jié)合,采用Nesterov動(dòng)量SGD的高斯誤差調(diào)度器算法如算法1所示.算法1帶Nesterov動(dòng)量SGD的高斯誤差調(diào)度器輸入:最大學(xué)習(xí)率lr,最小學(xué)習(xí)率,高斯誤差調(diào)度器參數(shù)α和β,動(dòng)量參數(shù)m。輸入:初始CNN參數(shù)θ,初始向量v,初始周期E。1.fore=1toEdo2.從訓(xùn)練集中抽取一個(gè)有m個(gè)樣例的小批次{(1),…,()},對(duì)應(yīng)標(biāo)簽為y(i)。3.臨時(shí)的更新:←+4.計(jì)算梯度(在臨時(shí)點(diǎn)):←1∑((();),())5.計(jì)算學(xué)習(xí)率:=+2(1(()+))6.計(jì)算向量更新:←7.參數(shù)更新:←+8.endfor3.2實(shí)驗(yàn)結(jié)果分析3.2.1在Cifar數(shù)據(jù)集上的性能分析(1)SSER模塊性能分析
【參考文獻(xiàn)】:
期刊論文
[1]樣本遷移支持下的遙感影像自動(dòng)分類方法[J]. 林聰,李二珠,杜培軍. 測(cè)繪通報(bào). 2018(04)
[2]醫(yī)學(xué)圖像分析深度學(xué)習(xí)方法研究與挑戰(zhàn)[J]. 田娟秀,劉國(guó)才,谷珊珊,鞠忠建,劉勁光,顧冬冬. 自動(dòng)化學(xué)報(bào). 2018(03)
[3]基于跨連卷積神經(jīng)網(wǎng)絡(luò)的性別分類模型[J]. 張婷,李玉鑑,胡海鶴,張亞紅. 自動(dòng)化學(xué)報(bào). 2016(06)
[4]語(yǔ)義關(guān)系相似度計(jì)算中的數(shù)據(jù)標(biāo)準(zhǔn)化方法比較[J]. 王正鵬,謝志鵬,邱培超. 計(jì)算機(jī)工程. 2012(10)
碩士論文
[1]基于稀疏編碼的多特征視頻異常事件檢測(cè)[D]. 唐鐘洋.廣東工業(yè)大學(xué) 2019
[2]基于深度學(xué)習(xí)的人臉識(shí)別技術(shù)及其在智能小區(qū)中的應(yīng)用[D]. 藍(lán)振潘.華南理工大學(xué) 2017
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像特征提取算法與圖像分類問(wèn)題研究[D]. 司寧博.蘭州大學(xué) 2017
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的大規(guī)模人臉聚類[D]. 申小敏.廣東工業(yè)大學(xué) 2016
本文編號(hào):3417513
本文鏈接:http://www.sikaile.net/shoufeilunwen/mpalunwen/3417513.html
最近更新
教材專著