分?jǐn)?shù)階復(fù)值前饋神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的設(shè)計(jì)和分析
發(fā)布時(shí)間:2021-11-10 13:37
復(fù)值神經(jīng)網(wǎng)絡(luò)是一類用復(fù)數(shù)變量解決復(fù)雜問題的網(wǎng)絡(luò)。梯度下降法是訓(xùn)練復(fù)值神經(jīng)網(wǎng)絡(luò)的流行算法之一。目前,建立的傳統(tǒng)網(wǎng)絡(luò)模型大多數(shù)是整數(shù)階模型。與經(jīng)典的整數(shù)階模型相比,建立在分?jǐn)?shù)階微積分上的模型在記憶儲(chǔ)存和遺傳特性上都具有顯著的優(yōu)勢(shì)。源于分?jǐn)?shù)階微分系統(tǒng)特性和復(fù)數(shù)的幾何意義,分?jǐn)?shù)階復(fù)值神經(jīng)網(wǎng)絡(luò)具有比整數(shù)階復(fù)值情形更為優(yōu)越的記憶特性。本文基于分離復(fù)值神經(jīng)網(wǎng)絡(luò),利用分?jǐn)?shù)階導(dǎo)數(shù)來訓(xùn)練分離復(fù)值神經(jīng)網(wǎng)絡(luò)(Split-complex neural networks,SCNNs)。根據(jù)誤差函數(shù)關(guān)于權(quán)值的梯度的不同定義,提出了兩種權(quán)值更新方法。借助微分中值定理和不等式分析技巧,并且在常學(xué)習(xí)率下,證明了分?jǐn)?shù)階復(fù)值神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法在訓(xùn)練迭代中的誤差函數(shù)是單調(diào)遞減的,并且誤差函數(shù)關(guān)于權(quán)值的梯度趨于零。此外,數(shù)值模擬已經(jīng)有效地驗(yàn)證了其性能,同時(shí)也說明了理論結(jié)果。本文主要工作如下:1.提出了分?jǐn)?shù)階復(fù)值神經(jīng)網(wǎng)絡(luò)算法。通過使用分?jǐn)?shù)階最陡下降法(FSDM),描述了基于Faàdi Bruno’s formula的分?jǐn)?shù)階復(fù)值神經(jīng)網(wǎng)絡(luò)(FCBPNNs)的實(shí)現(xiàn)。2.提出一種基于Caputo定義的分?jǐn)?shù)階復(fù)值神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法。在適合的激活...
【文章來源】:中國(guó)石油大學(xué)(華東)山東省 211工程院校 教育部直屬院校
【文章頁數(shù)】:54 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
神經(jīng)元模型
中國(guó)石油大學(xué)(華東)碩士學(xué)位論文9圖2-2變量為復(fù)數(shù)u的Sigmoid函數(shù)圖像Figure2-2Sigmoidfunctionofcomplexvariableu這種使用實(shí)虛型激活函數(shù)的復(fù)值神經(jīng)網(wǎng)絡(luò)在處理n維復(fù)值信息時(shí),更貼近實(shí)際運(yùn)算規(guī)則,能夠得到更好的效果。2.2.2振幅相位型激活函數(shù)除了實(shí)虛部型激活函數(shù)外,振幅相位型激活函數(shù)應(yīng)用也較為廣泛,其表達(dá)式為:()tanh()exp(arg()),apfuuiu(2-5)定義(2-5)表示在振幅上飽和,而相位不變。振幅相位型激活函數(shù)如圖2-3所示。從圖2-3(c)和(d)中可以清楚地觀察到,它與原點(diǎn)(0,i0)有關(guān)。與實(shí)虛型激活函數(shù)相比,振幅相位型激活函數(shù)與實(shí)、虛軸的設(shè)定無關(guān)。因此,它適用于處理能夠在坐標(biāo)原點(diǎn)旋轉(zhuǎn)的信息。尤其是,它適用于處理波或與波有關(guān)的信息。我們假設(shè)波幅對(duì)應(yīng)于神經(jīng)網(wǎng)絡(luò)中復(fù)變量的振幅,而波相位對(duì)應(yīng)于神經(jīng)網(wǎng)絡(luò)中變量的相位。非線性函數(shù)的飽和特性與波能的飽和有關(guān),這在各種物理現(xiàn)象中都有廣泛的觀測(cè)(與此處理不同,我們?cè)谙辔簧戏謩e處理可能與飽和相關(guān)的弱非線性)。此外,波的相位是按照時(shí)刻的進(jìn)展或延遲而旋轉(zhuǎn)的。波的實(shí)部或虛部在實(shí)際測(cè)量中可以被觀察到。因此,在處理波時(shí),振幅相位型激活函數(shù)中關(guān)于坐標(biāo)原點(diǎn)的徑向各向同性是可取的。
第2章預(yù)備知識(shí)10圖2-3變量為復(fù)數(shù)u的Sigmoid函數(shù)圖像Figure2-3Sigmoidfunctionofcomplexvariableu2.3分離復(fù)值神經(jīng)網(wǎng)絡(luò)復(fù)值神經(jīng)網(wǎng)絡(luò)又可以分為分離型CVNNs和全復(fù)型CVNNs。而對(duì)于分離復(fù)值神經(jīng)網(wǎng)絡(luò)(SCNNs)來說,根據(jù)SCNNs權(quán)值向量的特點(diǎn)可以進(jìn)一步將其分為兩類:1.實(shí)值權(quán)值向量和實(shí)值激活函數(shù)的SCNNs;2.復(fù)數(shù)值權(quán)值向量和實(shí)數(shù)值函數(shù)激活的SCNNs。2.3.1實(shí)值權(quán)值向量和實(shí)值激活函數(shù)的SCNNs具有實(shí)值權(quán)值及實(shí)值激活函數(shù)的SCNNs結(jié)構(gòu)可以參照經(jīng)典的實(shí)值多層感知器(MLP)網(wǎng)絡(luò)的反向傳播算法。這里面的,把輸入的復(fù)數(shù)值信號(hào)分為兩個(gè)實(shí)數(shù)值變量,也就是實(shí)部變量和虛部變量。圖2-4實(shí)值權(quán)值向量和實(shí)值激活函數(shù)的SCNNsFigure2-4RealweightvectorandrealactivationfunctionofSCNNs實(shí)數(shù)值的輸入信號(hào):212211[,,,][Re(),Im(),Re(),Im()]mTTmmmxRxxxzzzz
【參考文獻(xiàn)】:
期刊論文
[1]BP網(wǎng)絡(luò)學(xué)習(xí)能力與泛化能力之間的定量關(guān)系式[J]. 李祚泳,易勇鷙. 電子學(xué)報(bào). 2003(09)
本文編號(hào):3487357
【文章來源】:中國(guó)石油大學(xué)(華東)山東省 211工程院校 教育部直屬院校
【文章頁數(shù)】:54 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
神經(jīng)元模型
中國(guó)石油大學(xué)(華東)碩士學(xué)位論文9圖2-2變量為復(fù)數(shù)u的Sigmoid函數(shù)圖像Figure2-2Sigmoidfunctionofcomplexvariableu這種使用實(shí)虛型激活函數(shù)的復(fù)值神經(jīng)網(wǎng)絡(luò)在處理n維復(fù)值信息時(shí),更貼近實(shí)際運(yùn)算規(guī)則,能夠得到更好的效果。2.2.2振幅相位型激活函數(shù)除了實(shí)虛部型激活函數(shù)外,振幅相位型激活函數(shù)應(yīng)用也較為廣泛,其表達(dá)式為:()tanh()exp(arg()),apfuuiu(2-5)定義(2-5)表示在振幅上飽和,而相位不變。振幅相位型激活函數(shù)如圖2-3所示。從圖2-3(c)和(d)中可以清楚地觀察到,它與原點(diǎn)(0,i0)有關(guān)。與實(shí)虛型激活函數(shù)相比,振幅相位型激活函數(shù)與實(shí)、虛軸的設(shè)定無關(guān)。因此,它適用于處理能夠在坐標(biāo)原點(diǎn)旋轉(zhuǎn)的信息。尤其是,它適用于處理波或與波有關(guān)的信息。我們假設(shè)波幅對(duì)應(yīng)于神經(jīng)網(wǎng)絡(luò)中復(fù)變量的振幅,而波相位對(duì)應(yīng)于神經(jīng)網(wǎng)絡(luò)中變量的相位。非線性函數(shù)的飽和特性與波能的飽和有關(guān),這在各種物理現(xiàn)象中都有廣泛的觀測(cè)(與此處理不同,我們?cè)谙辔簧戏謩e處理可能與飽和相關(guān)的弱非線性)。此外,波的相位是按照時(shí)刻的進(jìn)展或延遲而旋轉(zhuǎn)的。波的實(shí)部或虛部在實(shí)際測(cè)量中可以被觀察到。因此,在處理波時(shí),振幅相位型激活函數(shù)中關(guān)于坐標(biāo)原點(diǎn)的徑向各向同性是可取的。
第2章預(yù)備知識(shí)10圖2-3變量為復(fù)數(shù)u的Sigmoid函數(shù)圖像Figure2-3Sigmoidfunctionofcomplexvariableu2.3分離復(fù)值神經(jīng)網(wǎng)絡(luò)復(fù)值神經(jīng)網(wǎng)絡(luò)又可以分為分離型CVNNs和全復(fù)型CVNNs。而對(duì)于分離復(fù)值神經(jīng)網(wǎng)絡(luò)(SCNNs)來說,根據(jù)SCNNs權(quán)值向量的特點(diǎn)可以進(jìn)一步將其分為兩類:1.實(shí)值權(quán)值向量和實(shí)值激活函數(shù)的SCNNs;2.復(fù)數(shù)值權(quán)值向量和實(shí)數(shù)值函數(shù)激活的SCNNs。2.3.1實(shí)值權(quán)值向量和實(shí)值激活函數(shù)的SCNNs具有實(shí)值權(quán)值及實(shí)值激活函數(shù)的SCNNs結(jié)構(gòu)可以參照經(jīng)典的實(shí)值多層感知器(MLP)網(wǎng)絡(luò)的反向傳播算法。這里面的,把輸入的復(fù)數(shù)值信號(hào)分為兩個(gè)實(shí)數(shù)值變量,也就是實(shí)部變量和虛部變量。圖2-4實(shí)值權(quán)值向量和實(shí)值激活函數(shù)的SCNNsFigure2-4RealweightvectorandrealactivationfunctionofSCNNs實(shí)數(shù)值的輸入信號(hào):212211[,,,][Re(),Im(),Re(),Im()]mTTmmmxRxxxzzzz
【參考文獻(xiàn)】:
期刊論文
[1]BP網(wǎng)絡(luò)學(xué)習(xí)能力與泛化能力之間的定量關(guān)系式[J]. 李祚泳,易勇鷙. 電子學(xué)報(bào). 2003(09)
本文編號(hào):3487357
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3487357.html
最近更新
教材專著