基于深度學(xué)習(xí)的股票市場預(yù)測模型和評估方法研究與應(yīng)用
發(fā)布時間:2021-12-02 08:14
伴隨著全球經(jīng)濟一體化進程飛速發(fā)展,股票市場在全球經(jīng)濟中扮演著越來越重要的角色,準(zhǔn)確的對股票市場進行預(yù)測具有重要的社會經(jīng)濟價值;股票市場擁有來源廣泛而異質(zhì)的海量數(shù)據(jù),這樣的數(shù)據(jù)特性為捕捉股票市場中的隱含規(guī)律和關(guān)聯(lián)進行準(zhǔn)確預(yù)測提出了新的挑戰(zhàn),其研究具有重要的學(xué)術(shù)價值。近年來,深度學(xué)習(xí)在計算機視覺、語音和自然語言處理等多個領(lǐng)域取得了令人矚目的進展,展示出其具有處理各種數(shù)據(jù)類型,特別是多尺度(秒分時天周等不同時間尺度)、多源(股票市場、社交網(wǎng)絡(luò)和門戶網(wǎng)站等不同來源)和異質(zhì)(數(shù)值、文本和圖像等不同形式)數(shù)據(jù)的強大能力,為預(yù)測具有多尺度、多來源且異質(zhì)特性的股票市場提供了強有力的工具。本文在深入研究股票市場預(yù)測問題的特點、廣泛分析已有相關(guān)研究工作的基礎(chǔ)上,針對股票市場預(yù)測技術(shù)的三個關(guān)鍵問題提出了一系列的解決方法,并在多個公開真實數(shù)據(jù)集上進行了有效性驗證。具體而言,本文的主要研究工作和成果包括:針對股票數(shù)據(jù)的多尺度特性,提出了一個多尺度循環(huán)卷積網(wǎng)絡(luò)(Multi-Scale Recurrent Convolutional Neural Network,MS-RCNN)模型進行股票市場預(yù)測。股票數(shù)據(jù)的多尺...
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:121 頁
【學(xué)位級別】:博士
【部分圖文】:
圖2-1循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)??
北京郵電大學(xué)工學(xué)博士學(xué)位論文???\1/?\1/??Input?Gate?(?l?j?Output?Gate?(?0?)??(^??Vs??f?f?]?Forget?Gate???K!l???/l\??圖2-2長短時記憶結(jié)構(gòu)??如圖2-2所示,每個LSTM單元具有由三個門限(input,forget和output)??以及一個Cell單元,其隱變量更新公式如下:??/t?=?cr(\A^[ht_1,?xt])??it?=?^(y^ilht-i,xt])??°t?=?^tl)??Qt?=?Qt-i?*?ft?+?h?*(Wc[ht_i-^t])??ht?=?ot*?tanh(Qt)?(2-3)??這里,;ct是t時刻的輸入,\是【時刻的隱變量,Qt是細(xì)胞單元t時刻的值,??Wp分別是三個門限以及細(xì)胞單元更新所使用的參數(shù)。為了簡化表??達,公式中的偏置項被省略。LSTM通過門限操作來對當(dāng)前輸入信息以及歷史輸??入信息進行選擇和過濾,綜合考慮當(dāng)前和歷史的信息來更新細(xì)胞單元,從而更新??隱變量的值,在一些需要處理長序列輸入場景取得很好的效果而得到廣泛應(yīng)用,??如文本的序列標(biāo)注M以及文本分類[87]等領(lǐng)域。??LSTM在更新隱變量的時候采用了非線性操作,在處理長序列的時候,多次??非線性操作會增加了模型的復(fù)雜程度導(dǎo)致模型隱變量學(xué)習(xí)的在某些場景下難以??學(xué)習(xí)或者需要大量數(shù)據(jù)才能學(xué)習(xí)到。??18??
第二章基本相關(guān)信息??2.2.1.3門限循環(huán)單元模型??門限循環(huán)單元(Gated?Recurrent?Unit,?GRU)間相對LSTM結(jié)構(gòu)來說,其是??對LSTM的結(jié)構(gòu)進行簡化的同時保持解決長依賴問題以及訓(xùn)練時的梯度消失和??梯度爆照問題能力的一種循環(huán)祌經(jīng)網(wǎng)絡(luò)。如圖2-3所示,GRU相對于LSTM合??并了輸入(input)和遺忘(forget)門限(Gate),減少了細(xì)胞單兀(Cell)。同時,??其隱變量更新改變?yōu)榫性操作,而LSTM是非線性操作。??因此,GRU參數(shù)規(guī)模更小,更加適合數(shù)據(jù)關(guān)系復(fù)雜程度不高的情況。在這??種復(fù)雜程度不高情況下,會比LSTM獲得更好的效果I89]。其隱變量更新公式如??下:??rt?=?a(Wrxt+Urht^)??zt?=?CT^Xt+U^t^)??h't?=?tanh(Wftxt+Ur(rt?*?ht_x))??ht?=?(1?+?zth't?(2-4)??0??—-0?——■——-ht????_?_?????/K?A??圖2-3門限循環(huán)單元結(jié)構(gòu)??19??
本文編號:3528059
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:121 頁
【學(xué)位級別】:博士
【部分圖文】:
圖2-1循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)??
北京郵電大學(xué)工學(xué)博士學(xué)位論文???\1/?\1/??Input?Gate?(?l?j?Output?Gate?(?0?)??(^??Vs??f?f?]?Forget?Gate???K!l???/l\??圖2-2長短時記憶結(jié)構(gòu)??如圖2-2所示,每個LSTM單元具有由三個門限(input,forget和output)??以及一個Cell單元,其隱變量更新公式如下:??/t?=?cr(\A^[ht_1,?xt])??it?=?^(y^ilht-i,xt])??°t?=?^tl)??Qt?=?Qt-i?*?ft?+?h?*(Wc[ht_i-^t])??ht?=?ot*?tanh(Qt)?(2-3)??這里,;ct是t時刻的輸入,\是【時刻的隱變量,Qt是細(xì)胞單元t時刻的值,??Wp分別是三個門限以及細(xì)胞單元更新所使用的參數(shù)。為了簡化表??達,公式中的偏置項被省略。LSTM通過門限操作來對當(dāng)前輸入信息以及歷史輸??入信息進行選擇和過濾,綜合考慮當(dāng)前和歷史的信息來更新細(xì)胞單元,從而更新??隱變量的值,在一些需要處理長序列輸入場景取得很好的效果而得到廣泛應(yīng)用,??如文本的序列標(biāo)注M以及文本分類[87]等領(lǐng)域。??LSTM在更新隱變量的時候采用了非線性操作,在處理長序列的時候,多次??非線性操作會增加了模型的復(fù)雜程度導(dǎo)致模型隱變量學(xué)習(xí)的在某些場景下難以??學(xué)習(xí)或者需要大量數(shù)據(jù)才能學(xué)習(xí)到。??18??
第二章基本相關(guān)信息??2.2.1.3門限循環(huán)單元模型??門限循環(huán)單元(Gated?Recurrent?Unit,?GRU)間相對LSTM結(jié)構(gòu)來說,其是??對LSTM的結(jié)構(gòu)進行簡化的同時保持解決長依賴問題以及訓(xùn)練時的梯度消失和??梯度爆照問題能力的一種循環(huán)祌經(jīng)網(wǎng)絡(luò)。如圖2-3所示,GRU相對于LSTM合??并了輸入(input)和遺忘(forget)門限(Gate),減少了細(xì)胞單兀(Cell)。同時,??其隱變量更新改變?yōu)榫性操作,而LSTM是非線性操作。??因此,GRU參數(shù)規(guī)模更小,更加適合數(shù)據(jù)關(guān)系復(fù)雜程度不高的情況。在這??種復(fù)雜程度不高情況下,會比LSTM獲得更好的效果I89]。其隱變量更新公式如??下:??rt?=?a(Wrxt+Urht^)??zt?=?CT^Xt+U^t^)??h't?=?tanh(Wftxt+Ur(rt?*?ht_x))??ht?=?(1?+?zth't?(2-4)??0??—-0?——■——-ht????_?_?????/K?A??圖2-3門限循環(huán)單元結(jié)構(gòu)??19??
本文編號:3528059
本文鏈接:http://www.sikaile.net/shoufeilunwen/jjglbs/3528059.html
最近更新
教材專著