圖像處理變分模型的神經(jīng)網(wǎng)絡(luò)算法研究
發(fā)布時(shí)間:2021-08-08 02:31
本文主要圍繞對(duì)圖像處理中所提出變分模型的多種求解方法進(jìn)行研究和探索。具體來講,對(duì)目前主流的兩種圖像處理的數(shù)學(xué)建模思路做了具體的討論,基于對(duì)擴(kuò)散方程擴(kuò)散方向可進(jìn)行參數(shù)化控制的思想,提出了正倒向擴(kuò)散混合變分模型。并在傳統(tǒng)差分解法的基礎(chǔ)上,探究新的基于人工神經(jīng)網(wǎng)絡(luò)的算法對(duì)所提出變分模型進(jìn)行求解。這里首先對(duì)所提模型運(yùn)用傳統(tǒng)差分方法數(shù)值進(jìn)行求解,進(jìn)一步地,完成了分別運(yùn)用多層感知器(MLP)神經(jīng)網(wǎng)絡(luò)和徑向基函數(shù)(RBF)神經(jīng)網(wǎng)絡(luò)對(duì)所提模型的求解算法的設(shè)計(jì)和實(shí)現(xiàn)。設(shè)計(jì)的主要出發(fā)點(diǎn)是兩種神經(jīng)網(wǎng)絡(luò)極強(qiáng)的逼近能力。在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法方面,本文采用了反向傳播算法對(duì)網(wǎng)絡(luò)權(quán)重參數(shù)進(jìn)行學(xué)習(xí)更新。不同的是本文在運(yùn)用反向傳播算法時(shí),使用自定義的誤差函數(shù),使得網(wǎng)絡(luò)學(xué)習(xí)可處于無(wú)監(jiān)督的模式。而自定義誤差函數(shù)來自所提出變分模型導(dǎo)出的偏微分方程。網(wǎng)絡(luò)的輸入為待處理像素點(diǎn)(塊),輸出視為理想像素值。除此以外,這里還對(duì)基于MLP和RBF的兩種神經(jīng)網(wǎng)絡(luò)算法的初始化和學(xué)習(xí)過程中的參數(shù)優(yōu)化做了研究分析。經(jīng)過數(shù)值實(shí)現(xiàn)與實(shí)驗(yàn)比較,本文所提出的針對(duì)變分模型的神經(jīng)網(wǎng)絡(luò)算法對(duì)二值以及核磁(MRI)醫(yī)學(xué)圖像去噪表現(xiàn)出比傳統(tǒng)差分方法不同程度的提高,...
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:53 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
多層神經(jīng)網(wǎng)絡(luò)(單隱層)
哈爾濱工業(yè)大學(xué)理學(xué)碩士學(xué)位論文=f ′( x ) f ( x )(1 f ( x))但是 Sigmoid 有比較明顯的缺點(diǎn),就是當(dāng)輸入很大或者很小的時(shí)候,整個(gè)神經(jīng)元處理函數(shù)的梯度幾乎為零。所以在對(duì)參數(shù)的初始化就顯得尤為謹(jǐn)慎,否則會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)很難學(xué)習(xí)。Sigmoid 函數(shù)的另一個(gè)缺陷就是它的輸出并非 0 均值的,有可能對(duì)原始輸入數(shù)據(jù)的處理造成偏差。
哈爾濱工業(yè)大學(xué)理學(xué)碩士學(xué)位論文=f ′( x ) f ( x )(1 f ( x))但是 Sigmoid 有比較明顯的缺點(diǎn),就是當(dāng)輸入很大或者很小的時(shí)候,整個(gè)神經(jīng)元處理函數(shù)的梯度幾乎為零。所以在對(duì)參數(shù)的初始化就顯得尤為謹(jǐn)慎,否則會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)很難學(xué)習(xí)。Sigmoid 函數(shù)的另一個(gè)缺陷就是它的輸出并非 0 均值的,有可能對(duì)原始輸入數(shù)據(jù)的處理造成偏差。
本文編號(hào):3329032
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:53 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
多層神經(jīng)網(wǎng)絡(luò)(單隱層)
哈爾濱工業(yè)大學(xué)理學(xué)碩士學(xué)位論文=f ′( x ) f ( x )(1 f ( x))但是 Sigmoid 有比較明顯的缺點(diǎn),就是當(dāng)輸入很大或者很小的時(shí)候,整個(gè)神經(jīng)元處理函數(shù)的梯度幾乎為零。所以在對(duì)參數(shù)的初始化就顯得尤為謹(jǐn)慎,否則會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)很難學(xué)習(xí)。Sigmoid 函數(shù)的另一個(gè)缺陷就是它的輸出并非 0 均值的,有可能對(duì)原始輸入數(shù)據(jù)的處理造成偏差。
哈爾濱工業(yè)大學(xué)理學(xué)碩士學(xué)位論文=f ′( x ) f ( x )(1 f ( x))但是 Sigmoid 有比較明顯的缺點(diǎn),就是當(dāng)輸入很大或者很小的時(shí)候,整個(gè)神經(jīng)元處理函數(shù)的梯度幾乎為零。所以在對(duì)參數(shù)的初始化就顯得尤為謹(jǐn)慎,否則會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)很難學(xué)習(xí)。Sigmoid 函數(shù)的另一個(gè)缺陷就是它的輸出并非 0 均值的,有可能對(duì)原始輸入數(shù)據(jù)的處理造成偏差。
本文編號(hào):3329032
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3329032.html
最近更新
教材專著