天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于小波變換的數(shù)據(jù)預(yù)處理和LSTM在股價預(yù)測中的應(yīng)用

發(fā)布時間:2022-01-04 06:55
  對于利潤最大化,基于模型的股票價格預(yù)測可以為投資者提供有價值的指導(dǎo)。然而,金融數(shù)據(jù)中存在高噪聲,使用原始數(shù)據(jù)訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)無法實現(xiàn)準(zhǔn)確地預(yù)測股票價格。為了解決這一問題,采用廣泛應(yīng)用于信號去噪的小波變換去噪方法對訓(xùn)練數(shù)據(jù)進行預(yù)處理,實驗結(jié)果表明,采用軟/硬閾值方法進行數(shù)據(jù)預(yù)處理可以明顯抑制噪聲。在本課題研究中,主要工作有:首次提出使用小波變換的方法來對原始股票數(shù)據(jù)作預(yù)處理,并將預(yù)處理數(shù)據(jù)應(yīng)用于模型訓(xùn)練;改進了原始的小波去噪方法,改進后的方法進行數(shù)據(jù)預(yù)處理的模型訓(xùn)練結(jié)果性能得到提升;此外,還提出了一種新的多優(yōu)化組合小波變換(MOCWT)方法,實驗結(jié)果表明該方法對原始數(shù)據(jù)預(yù)處理的效果最好,在該方法中,提出了一種新的閾值去噪函數(shù)來對原始數(shù)據(jù)進行預(yù)處理,以降低信號重構(gòu)中的失真程度。本課題實驗中,利用小波預(yù)處理后的數(shù)據(jù)作為長短時記憶網(wǎng)絡(luò)(LSTM)模型的訓(xùn)練數(shù)據(jù)來進行訓(xùn)練,從而進行股價預(yù)測。LSTM是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),因為它本身具有的獨特的“門循環(huán)”結(jié)構(gòu)使得LSTM更適合于處理和預(yù)測較長時間間距和時間序列延遲類的問題。LSTM是一種典型的非線性模型,通常被看作是一個復(fù)雜的非線性... 

【文章來源】:天津工業(yè)大學(xué)天津市

【文章頁數(shù)】:61 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于小波變換的數(shù)據(jù)預(yù)處理和LSTM在股價預(yù)測中的應(yīng)用


階躍函數(shù)圖像

示意圖,神經(jīng)元,示意圖,神經(jīng)網(wǎng)絡(luò)


天津工業(yè)大學(xué)碩士學(xué)位論文16有著重要意義。在感知機的訓(xùn)練過程中,對于訓(xùn)練樣本(x,y),感知機的權(quán)重會做如下調(diào)整:iiiwww公式(2-3)ii(xyyw)公式(2-4)其中η∈(0,1)為學(xué)習(xí)率,從上式中可以看出,感知機對于訓(xùn)練樣本的正確分類,即有yy,感知機將不做任何調(diào)整,反之,則根據(jù)錯誤的程度進行權(quán)重的調(diào)整。2.4.3前向傳播算法在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中,通常使用前向傳播算法[30]的計算得到神經(jīng)網(wǎng)絡(luò)的輸出。不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)的前向傳播方式也不盡相同,當(dāng)前大多神經(jīng)網(wǎng)絡(luò)所使用的前向傳播算法中,全連接的神經(jīng)網(wǎng)絡(luò)的前向傳播模式最為簡單。神經(jīng)網(wǎng)絡(luò)是由多個神經(jīng)元構(gòu)成,神經(jīng)元是構(gòu)成神經(jīng)網(wǎng)絡(luò)的最小單元,圖2-2是一個最簡單的神經(jīng)元結(jié)構(gòu)。圖2-2神經(jīng)元結(jié)構(gòu)示意圖圖2-2表明,一個神經(jīng)元可以有多個輸入和一個輸出,其中,除了其他神經(jīng)元的輸出可以作為神經(jīng)元的輸入以外,整個神經(jīng)網(wǎng)絡(luò)的輸入也可以作為神經(jīng)元的輸入。輸出是所有輸入的加權(quán)和,其中,不同的輸入的權(quán)重可作為神經(jīng)元的參數(shù)。所謂神經(jīng)網(wǎng)絡(luò)的優(yōu)化就是在訓(xùn)練過程中不斷地對神經(jīng)元中參數(shù)取值優(yōu)化的過程,如圖2-3是一個三層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖。

示意圖,神經(jīng)網(wǎng)絡(luò),示意圖,損失函數(shù)


第二章理論研究基礎(chǔ)及相關(guān)技術(shù)介紹17圖2-3三層神經(jīng)網(wǎng)絡(luò)前向傳播示意圖通常情況下,使用三部分信息即可求得神經(jīng)網(wǎng)絡(luò)前向傳播的計算結(jié)果。其中,必不可少的是神經(jīng)網(wǎng)絡(luò)的輸入,該輸入值可以是具體的特征向量,這些特征向量可以從實體中取得。此外,必須定義神經(jīng)網(wǎng)絡(luò)的內(nèi)部連接結(jié)構(gòu),該結(jié)構(gòu)指定了神經(jīng)網(wǎng)絡(luò)內(nèi)部不同神經(jīng)元之間的輸入輸出的關(guān)系,通常此結(jié)構(gòu)的設(shè)定是否合理對于神經(jīng)網(wǎng)絡(luò)解決特定問題的最終性能起到了重要的作用。最后一部分是神經(jīng)元的參數(shù),在圖2-3中,使用w來表示神經(jīng)元中的參數(shù),w的上下標(biāo)分別代表了神經(jīng)網(wǎng)絡(luò)的層數(shù)和連接點的編號。當(dāng)指定神經(jīng)網(wǎng)絡(luò)的輸入,神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和邊上的權(quán)重時,就可以通過前向傳播算法來計算出神經(jīng)網(wǎng)絡(luò)的輸出。2.4.4BP神經(jīng)網(wǎng)絡(luò)在深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中,一個較為合理的損失函數(shù)通常會被用來度量訓(xùn)練樣本的輸出損失,通過最小化這個損失函數(shù)的值的方式,來實現(xiàn)對整個神經(jīng)網(wǎng)絡(luò)的調(diào)整尋優(yōu)。在對損失函數(shù)優(yōu)化求極值的過程中,使用梯度下降法來逐步迭代完成優(yōu)化的方法較為普遍。其中,反向傳播[31]算法即為深度神經(jīng)網(wǎng)絡(luò)的損失函數(shù)采用梯度下降法來進行迭代優(yōu)化求極小值的過程中的核心算法,被稱為誤差反向傳播神經(jīng)網(wǎng)絡(luò),簡稱BP神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)是被應(yīng)用于神經(jīng)網(wǎng)絡(luò)優(yōu)化中最普遍的神經(jīng)網(wǎng)絡(luò)模型之一。在BP神經(jīng)網(wǎng)絡(luò)中,梯度下降算法會通過反向傳播的方式來不斷調(diào)整整個網(wǎng)絡(luò)的權(quán)重和偏置,即所謂的調(diào)參過程,使得網(wǎng)絡(luò)的誤差取得最小值。BP神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)中,主要包含三個部分,其中有輸入層、隱藏層和輸出層。在BP網(wǎng)絡(luò)的訓(xùn)練過程中,信息的正向傳播會得到網(wǎng)絡(luò)的輸出結(jié)果,誤差的反向傳播來實現(xiàn)參數(shù)的調(diào)優(yōu)。輸入層用來接受外界的輸入信息,并將信息傳遞給


本文編號:3567892

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/3567892.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶5e524***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com