基于改進(jìn)LSTM的股價(jià)預(yù)測(cè)研究
發(fā)布時(shí)間:2021-12-16 16:51
股票投資是當(dāng)代社會(huì)的比較流行的投資手段之一。伴隨著較高的期望收益,其所具有的高風(fēng)險(xiǎn)也不容忽視。不斷尋找最優(yōu)的投資思路是投資者趨吉避兇、規(guī)避投資風(fēng)險(xiǎn)的現(xiàn)實(shí)需求。投資者與研究人員一直致力于探尋股票價(jià)格的變化趨勢(shì)及變化規(guī)律,希望能夠相對(duì)準(zhǔn)確地預(yù)測(cè)未來(lái)的股票價(jià)格。從傳統(tǒng)的數(shù)據(jù)統(tǒng)計(jì)分析方法到現(xiàn)有的深度神經(jīng)網(wǎng)絡(luò)模型,都被研究人員用來(lái)研究股票價(jià)格變化問(wèn)題。目前,基于長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)進(jìn)行的擴(kuò)展研究是金融時(shí)間序列問(wèn)題研究方法中比較好的一種。本文正是以LSTM模型為基礎(chǔ)對(duì)股票價(jià)格預(yù)測(cè)問(wèn)題進(jìn)行了深入研究。為了解決以往實(shí)驗(yàn)研究出現(xiàn)的過(guò)擬合,梯度消失,模型崩潰等問(wèn)題,本文提出了一種基于LSTM-Adaboost改進(jìn)的預(yù)測(cè)模型。在模型結(jié)構(gòu)選擇方面,使用了Dropout機(jī)制,同時(shí)引入了L2正則項(xiàng);在激活函數(shù)的選用方面,選用了PRe LU(Parametric Rectified Linear Unit)函數(shù),這樣能夠提高模型預(yù)測(cè)效果,增強(qiáng)模型適用性;在數(shù)值實(shí)驗(yàn)部分,選用了兩只股票的價(jià)格數(shù)據(jù)以及OHLC-Avg、RSI、MTM和MA共四個(gè)主要預(yù)測(cè)指標(biāo),使得研...
【文章來(lái)源】:遼寧科技大學(xué)遼寧省
【文章頁(yè)數(shù)】:68 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
線性可分SVMFig.2.1LinearlyseparableSVM
2.神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)102.機(jī)器學(xué)習(xí)與深度學(xué)習(xí)為了使研究更具可靠性和優(yōu)越性,文章在第五章選用了四個(gè)較為成熟且具有代表性的模型與本文提出的改進(jìn)模型進(jìn)行了對(duì)比。本章分別介紹了對(duì)比實(shí)驗(yàn)的四個(gè)模型,并為第五章所需要的實(shí)驗(yàn)作出了鋪墊。同時(shí),對(duì)模型改進(jìn)的方法使用了深度學(xué)習(xí)方面的技術(shù),在本章也進(jìn)行了相應(yīng)的描述。2.1支持向量回歸機(jī)支持向量機(jī)(SupportVectorMachine,SVM)是支持向量回歸機(jī)的基矗SVM是由Comes和Vapnik首先于1995年提出的一種機(jī)器學(xué)習(xí)方法。SVM基于最優(yōu)邊界分類方法,采用結(jié)構(gòu)風(fēng)險(xiǎn)最小化原則(StructureRiskMinimization,SRM)以找到置信風(fēng)險(xiǎn)和經(jīng)驗(yàn)風(fēng)險(xiǎn)的中心點(diǎn),因此在分析小樣本數(shù)據(jù)時(shí)SVM的分類可以做到很精確。同時(shí),SVM是一個(gè)凸二次優(yōu)化問(wèn)題,能保證找到的極值解就是全局最優(yōu)解,通過(guò)降低維度空間非線性樣本通過(guò)非線性映射轉(zhuǎn)化為高維度線性映射。支持向量機(jī)模型可以根據(jù)數(shù)據(jù)分成線性可分和線性不可分兩類,如圖2.1,圖2.2所示。圖2.1線性可分SVMFig.2.1LinearlyseparableSVM圖2.2線性不可分SVMFig.2.2Linearnon-separableSVM對(duì)于線性可分的SVM問(wèn)題的解決辦法是使用核函數(shù),對(duì)于線性不可分的SVM問(wèn)題的解決辦法是使用軟間隔和使用核函數(shù)升維的方式使得樣本在高維空間線性可分。而軟間隔方法的中心思想為加入松弛變量和懲罰因子,盡可能將原本線性不可分的數(shù)據(jù)進(jìn)行正確分類,在這里主要以講核函數(shù)為主。核函數(shù)是SVM的核心組成部分,同時(shí)SVM的預(yù)測(cè)模型的優(yōu)劣性也與核函數(shù)有很大聯(lián)系。SVM常用的核函數(shù)有以下4個(gè)[26]:
遼寧科技大學(xué)碩士學(xué)位論文29圖3.3Sigmoid函數(shù)的幾何圖形Fig.3.3ThegeometryoftheSigmoidfunction使用sigmoid激活函數(shù)可以使輸入的聯(lián)系變化的值變換成0~1之間的值進(jìn)行輸出,但對(duì)于特別大的正數(shù),輸出則會(huì)無(wú)限逼近于1;特別小的負(fù)數(shù),輸出則會(huì)無(wú)限趨近于0。在使用sigmoid激活函數(shù)時(shí)往往會(huì)出現(xiàn)梯度消失的現(xiàn)象,同時(shí),對(duì)于sigmoid函數(shù)每次輸出的值都不是均值,這會(huì)造成后一層的神經(jīng)元在一定程度上會(huì)得到上一層全部非0的均值輸出之后輸出全為正數(shù)的情況。這樣的情況會(huì)丟失許多特征值,造成實(shí)驗(yàn)訓(xùn)練不夠完善,實(shí)驗(yàn)預(yù)測(cè)結(jié)果不夠準(zhǔn)確。替代了sigmoid函數(shù),目前很多人使用tanh函數(shù)來(lái)彌補(bǔ)sigmoid函數(shù)的一些缺陷。tanh函數(shù)改變了sigmoid函數(shù)的輸出,即在tanh函數(shù)作用下的輸出值是以零為中心的均值,其數(shù)學(xué)表達(dá)形式如式(3.15)、式(3.16),tanh函數(shù)的幾何圖形如圖3.4所示。()tanh()xxxxeefxxee==+(3.15)tanh(x)=2sigmoid(2x)1(3.16)圖3.4Tanh函數(shù)的幾何圖形Fig.3.4ThegeometryoftheTanhfunction
本文編號(hào):3538484
【文章來(lái)源】:遼寧科技大學(xué)遼寧省
【文章頁(yè)數(shù)】:68 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
線性可分SVMFig.2.1LinearlyseparableSVM
2.神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)102.機(jī)器學(xué)習(xí)與深度學(xué)習(xí)為了使研究更具可靠性和優(yōu)越性,文章在第五章選用了四個(gè)較為成熟且具有代表性的模型與本文提出的改進(jìn)模型進(jìn)行了對(duì)比。本章分別介紹了對(duì)比實(shí)驗(yàn)的四個(gè)模型,并為第五章所需要的實(shí)驗(yàn)作出了鋪墊。同時(shí),對(duì)模型改進(jìn)的方法使用了深度學(xué)習(xí)方面的技術(shù),在本章也進(jìn)行了相應(yīng)的描述。2.1支持向量回歸機(jī)支持向量機(jī)(SupportVectorMachine,SVM)是支持向量回歸機(jī)的基矗SVM是由Comes和Vapnik首先于1995年提出的一種機(jī)器學(xué)習(xí)方法。SVM基于最優(yōu)邊界分類方法,采用結(jié)構(gòu)風(fēng)險(xiǎn)最小化原則(StructureRiskMinimization,SRM)以找到置信風(fēng)險(xiǎn)和經(jīng)驗(yàn)風(fēng)險(xiǎn)的中心點(diǎn),因此在分析小樣本數(shù)據(jù)時(shí)SVM的分類可以做到很精確。同時(shí),SVM是一個(gè)凸二次優(yōu)化問(wèn)題,能保證找到的極值解就是全局最優(yōu)解,通過(guò)降低維度空間非線性樣本通過(guò)非線性映射轉(zhuǎn)化為高維度線性映射。支持向量機(jī)模型可以根據(jù)數(shù)據(jù)分成線性可分和線性不可分兩類,如圖2.1,圖2.2所示。圖2.1線性可分SVMFig.2.1LinearlyseparableSVM圖2.2線性不可分SVMFig.2.2Linearnon-separableSVM對(duì)于線性可分的SVM問(wèn)題的解決辦法是使用核函數(shù),對(duì)于線性不可分的SVM問(wèn)題的解決辦法是使用軟間隔和使用核函數(shù)升維的方式使得樣本在高維空間線性可分。而軟間隔方法的中心思想為加入松弛變量和懲罰因子,盡可能將原本線性不可分的數(shù)據(jù)進(jìn)行正確分類,在這里主要以講核函數(shù)為主。核函數(shù)是SVM的核心組成部分,同時(shí)SVM的預(yù)測(cè)模型的優(yōu)劣性也與核函數(shù)有很大聯(lián)系。SVM常用的核函數(shù)有以下4個(gè)[26]:
遼寧科技大學(xué)碩士學(xué)位論文29圖3.3Sigmoid函數(shù)的幾何圖形Fig.3.3ThegeometryoftheSigmoidfunction使用sigmoid激活函數(shù)可以使輸入的聯(lián)系變化的值變換成0~1之間的值進(jìn)行輸出,但對(duì)于特別大的正數(shù),輸出則會(huì)無(wú)限逼近于1;特別小的負(fù)數(shù),輸出則會(huì)無(wú)限趨近于0。在使用sigmoid激活函數(shù)時(shí)往往會(huì)出現(xiàn)梯度消失的現(xiàn)象,同時(shí),對(duì)于sigmoid函數(shù)每次輸出的值都不是均值,這會(huì)造成后一層的神經(jīng)元在一定程度上會(huì)得到上一層全部非0的均值輸出之后輸出全為正數(shù)的情況。這樣的情況會(huì)丟失許多特征值,造成實(shí)驗(yàn)訓(xùn)練不夠完善,實(shí)驗(yàn)預(yù)測(cè)結(jié)果不夠準(zhǔn)確。替代了sigmoid函數(shù),目前很多人使用tanh函數(shù)來(lái)彌補(bǔ)sigmoid函數(shù)的一些缺陷。tanh函數(shù)改變了sigmoid函數(shù)的輸出,即在tanh函數(shù)作用下的輸出值是以零為中心的均值,其數(shù)學(xué)表達(dá)形式如式(3.15)、式(3.16),tanh函數(shù)的幾何圖形如圖3.4所示。()tanh()xxxxeefxxee==+(3.15)tanh(x)=2sigmoid(2x)1(3.16)圖3.4Tanh函數(shù)的幾何圖形Fig.3.4ThegeometryoftheTanhfunction
本文編號(hào):3538484
本文鏈接:http://www.sikaile.net/guanlilunwen/huobilw/3538484.html
最近更新
教材專著