面向公交到達(dá)時間應(yīng)用的循環(huán)神經(jīng)網(wǎng)絡(luò)預(yù)測算法系統(tǒng)實(shí)現(xiàn)
發(fā)布時間:2021-03-04 00:29
在城市的交通系統(tǒng)中,公交網(wǎng)絡(luò)系統(tǒng)是非常重要的一部分,而在構(gòu)建智能公交系統(tǒng)的過程中,提高公交網(wǎng)絡(luò)資源利用率以及準(zhǔn)確預(yù)測公共交通車輛到達(dá)時間極為關(guān)鍵。準(zhǔn)確預(yù)測公交車到達(dá)時間是公共交通領(lǐng)域的難題。傳統(tǒng)的預(yù)測方法主要利用到達(dá)時間和站間距離,而沒有充分利用乘客數(shù)量、停留時間、公交行駛效率等動態(tài)因素,而這對公交到站時間有顯著影響。與此同時,近年來人工智能新硬件與公共交通結(jié)合是提升城市交通智能化的新興發(fā)展趨勢,但是如何對算法進(jìn)行性能優(yōu)化、如何通過集成度高的平臺(如FPGA、嵌入式等)進(jìn)行算法實(shí)現(xiàn)也是需要討論及解決的問題。為了克服傳統(tǒng)方法的缺點(diǎn),本文提出了公交行駛效率的評定方法與一種基于具有雙階段注意機(jī)制的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的新型公交車到達(dá)時間預(yù)測方法。首先,本文通過對共公共交通行駛車輛到達(dá)時間預(yù)測的模型及算法的深入研究,發(fā)現(xiàn)DA-RNN(基于雙階段注意力的遞歸神經(jīng)網(wǎng)絡(luò))的性能優(yōu)于其他經(jīng)典的預(yù)測模型。我們選擇引入注意機(jī)制以從異構(gòu)信息中自適應(yīng)地選擇最相關(guān)的因素,并建立了一個基于DA-RNN(基于雙階段注意的遞歸神經(jīng)網(wǎng)絡(luò))的預(yù)測網(wǎng)絡(luò)。其次,本文發(fā)現(xiàn)在公交到達(dá)時間預(yù)測模型中輸入動態(tài)因素可以提高公交車到站...
【文章來源】:山東大學(xué)山東省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:72 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1預(yù)測模型類型圖??2.1.2平均速度??另外一類歷史數(shù)據(jù)模型使用公共交通車輛運(yùn)行在目標(biāo)線路上的平均速度來??
?山東大學(xué)碩士學(xué)位論文???效地提供令人滿意的公交車到達(dá)時間預(yù)測信息。??隱藏層??輸入層??圖2-2神經(jīng)元網(wǎng)絡(luò)??2.3.3多層感知器(MLP)??多層感知器(MLP)【42]是由完全連接的層組成的簡單神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)為前向??結(jié)構(gòu),可以將一組的輸入向量作為信息映射到一組輸出向量上。MLP神經(jīng)網(wǎng)絡(luò)??的層數(shù)為三層,在每一層中都含有16個神經(jīng)元。??也可以將多層感知器(MLP)當(dāng)作為一個有向圖,該模型由一個一個的節(jié)點(diǎn)??層相互連接構(gòu)成,其中每一個節(jié)點(diǎn)層都全連接到下一個節(jié)點(diǎn)層。層中的每個節(jié)點(diǎn)??也可以稱為處理單元,這些單元都是含有非線性激活函數(shù)的神經(jīng)元。??2.3.4?RNN??基本的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是由人工神經(jīng)元組織成的連續(xù)的層的網(wǎng)絡(luò)。給??定層中的每個節(jié)點(diǎn)都通過有向(單向)連接與下一個連續(xù)層中的每個其他節(jié)點(diǎn)進(jìn)??行連接。每個節(jié)點(diǎn)(神經(jīng)元)都有一個時變的實(shí)值激活。每個連接(突觸)都有一個??可修改的實(shí)值權(quán)重。節(jié)點(diǎn)要么是輸入節(jié)點(diǎn)(從網(wǎng)絡(luò)外部接收數(shù)據(jù)),要么是輸出節(jié)??18??
那些沒有分割成子序列的連續(xù)輸入流。在那之??后,相關(guān)學(xué)者對結(jié)構(gòu)進(jìn)行了改進(jìn),將遺忘門也添加到了內(nèi)存塊中[45],之前模型中??的問題也就不存在了。遺忘門存在的作用是,它可以在細(xì)胞之前添加一個輸入,??而這個輸入就是遺忘門自身,這個操作通過細(xì)胞的自回歸連接完成,同時使得細(xì)??胞的內(nèi)部狀態(tài)進(jìn)行了縮放,同這些操作自適應(yīng)地進(jìn)行遺忘或重置細(xì)胞的記憶。除??此之外,目前現(xiàn)階段LSTM的結(jié)構(gòu)也可以學(xué)習(xí)了解到輸出結(jié)果的精確計時,這是??由于結(jié)構(gòu)中包含著從內(nèi)部的單元到同一單元中的門的窺視孔連接[4呔如下圖2-3??為簡單的LSTM結(jié)構(gòu)。??/?V??ct-l?HX)?^0???Cf??x?.?t?\??\?'???(tanh)??ft?it?y?ot—^??Qt??I??C?g?)?C?g?)?(tanh)?(?〇?)??t?k?“?t?k?>?k??ht-i?—????,ht??v????-J??Xt-1??圖2-3簡單的LSTM結(jié)構(gòu)??2.4方法選擇??相較于以上所述其他方法,_方法具有比較高的預(yù)測結(jié)果時間精度。主要??原因是RNN具有捕獲長期依賴關(guān)系的能力。在此基礎(chǔ)上,我們進(jìn)一步探索了?_??20??
本文編號:3062229
【文章來源】:山東大學(xué)山東省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:72 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1預(yù)測模型類型圖??2.1.2平均速度??另外一類歷史數(shù)據(jù)模型使用公共交通車輛運(yùn)行在目標(biāo)線路上的平均速度來??
?山東大學(xué)碩士學(xué)位論文???效地提供令人滿意的公交車到達(dá)時間預(yù)測信息。??隱藏層??輸入層??圖2-2神經(jīng)元網(wǎng)絡(luò)??2.3.3多層感知器(MLP)??多層感知器(MLP)【42]是由完全連接的層組成的簡單神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)為前向??結(jié)構(gòu),可以將一組的輸入向量作為信息映射到一組輸出向量上。MLP神經(jīng)網(wǎng)絡(luò)??的層數(shù)為三層,在每一層中都含有16個神經(jīng)元。??也可以將多層感知器(MLP)當(dāng)作為一個有向圖,該模型由一個一個的節(jié)點(diǎn)??層相互連接構(gòu)成,其中每一個節(jié)點(diǎn)層都全連接到下一個節(jié)點(diǎn)層。層中的每個節(jié)點(diǎn)??也可以稱為處理單元,這些單元都是含有非線性激活函數(shù)的神經(jīng)元。??2.3.4?RNN??基本的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是由人工神經(jīng)元組織成的連續(xù)的層的網(wǎng)絡(luò)。給??定層中的每個節(jié)點(diǎn)都通過有向(單向)連接與下一個連續(xù)層中的每個其他節(jié)點(diǎn)進(jìn)??行連接。每個節(jié)點(diǎn)(神經(jīng)元)都有一個時變的實(shí)值激活。每個連接(突觸)都有一個??可修改的實(shí)值權(quán)重。節(jié)點(diǎn)要么是輸入節(jié)點(diǎn)(從網(wǎng)絡(luò)外部接收數(shù)據(jù)),要么是輸出節(jié)??18??
那些沒有分割成子序列的連續(xù)輸入流。在那之??后,相關(guān)學(xué)者對結(jié)構(gòu)進(jìn)行了改進(jìn),將遺忘門也添加到了內(nèi)存塊中[45],之前模型中??的問題也就不存在了。遺忘門存在的作用是,它可以在細(xì)胞之前添加一個輸入,??而這個輸入就是遺忘門自身,這個操作通過細(xì)胞的自回歸連接完成,同時使得細(xì)??胞的內(nèi)部狀態(tài)進(jìn)行了縮放,同這些操作自適應(yīng)地進(jìn)行遺忘或重置細(xì)胞的記憶。除??此之外,目前現(xiàn)階段LSTM的結(jié)構(gòu)也可以學(xué)習(xí)了解到輸出結(jié)果的精確計時,這是??由于結(jié)構(gòu)中包含著從內(nèi)部的單元到同一單元中的門的窺視孔連接[4呔如下圖2-3??為簡單的LSTM結(jié)構(gòu)。??/?V??ct-l?HX)?^0???Cf??x?.?t?\??\?'???(tanh)??ft?it?y?ot—^??Qt??I??C?g?)?C?g?)?(tanh)?(?〇?)??t?k?“?t?k?>?k??ht-i?—????,ht??v????-J??Xt-1??圖2-3簡單的LSTM結(jié)構(gòu)??2.4方法選擇??相較于以上所述其他方法,_方法具有比較高的預(yù)測結(jié)果時間精度。主要??原因是RNN具有捕獲長期依賴關(guān)系的能力。在此基礎(chǔ)上,我們進(jìn)一步探索了?_??20??
本文編號:3062229
本文鏈接:http://www.sikaile.net/shoufeilunwen/boshibiyelunwen/3062229.html
最近更新
教材專著