機器學習在交通流預測中的應用
發(fā)布時間:2021-08-27 00:57
機器學習是一門涉及概率論、統(tǒng)計學、運籌學、逼近論等多個領域的交叉學科,被廣泛地應用在計算機視覺、醫(yī)學診斷、生物特征識別等領域中。本文將探討機器學習在交通流預測中的應用問題。交通流預測是智慧交通系統(tǒng)研究領域的熱點,提升交通流預測效果對于緩解城市交通壓力、減少環(huán)境污染具有重要意義。本文首先介紹了機器學習的發(fā)展史和交通流預測理論的發(fā)展歷程,然后介紹了提升樹、時間序列分析和神經網絡的相關理論背景,針對交通流數據存在大量缺失值、樣本數量少和相鄰道路拓撲信息利用難的特點,給出了一種數據預處理的方法。接著,對比了提升樹模型、時間序列模型和神經網絡模型在交通流預測中的實際預測效果,并分析了它們各自的優(yōu)缺點,結果表明提升樹模型在交通流預測問題中的表現優(yōu)于其它兩種模型。針對交通流復雜多變的特點,本文將裝袋方法與提升樹模型相結合,從降低泛化方差的角度來提升預測效果,實驗結果表明,這一方法對提升預測效果有顯著作用。
【文章來源】:浙江大學浙江省 211工程院校 985工程院校 教育部直屬院校
【文章頁數】:49 頁
【學位級別】:碩士
【部分圖文】:
圖2.1泛化誤差與偏差、方差關系??
其中%(?;?=?1,2,...,V)定義與上相同。選擇使a)最小的屬性為劃分屬性。??此外,分類回歸樹算法還要求樣本在屬性測試后只能取“是”或“否”,然后根據測??試結果分為左、右兩個分支,這樣得到的決策樹被稱為分類回歸樹,其結構如圖2.2。??root?node:??interal?node:?卜4?'?0??A?A?|??leaf?node:??I___J??圖2.2分類回歸樹結構??決策樹采取從上到下的遞歸學習,一旦劃分規(guī)則確定,那么我們可以采用貪心法,??叩從根結點開始每次嘗試劃分一個結點,在該結點選擇最佳屬性進行劃分,一直進行下??去直到結束,從而確定整個決策樹的結構。在確定決策樹結構的過程中通常還會有一個??剪枝的過程,即去掉一些己經生成的葉結點,從而避免過擬合。決策樹結構確定之后,??我們就可以建立目標函數,通過優(yōu)化目標函數來學習每個葉節(jié)點上的最優(yōu)預測標記。??II??
圖2.3神經網絡結構??傳統(tǒng)的神經網絡通常包括三層:輸入層,隱層和輸出層。它的各層之間是全連而每層之間的節(jié)點是無連接的,這樣的神經網絡結構也被稱為“多層前饋神經網絡入層僅負責接受輸入,隱層和輸出層負責對信號進行加工,最終由輸出層輸出結經網絡的學習過程,就是根據訓練數據不斷地調整各個神經元中的連接權重和閾值[這個過程我們通常利用誤差逆?zhèn)鞑ィǎ澹颍颍铮?BackPropagation,簡稱BP)算法來完差逆?zhèn)鞑ニ惴ǖ脑硎抢锰荻认陆捣,從誤差函數的負梯度方向更新連接權重和以連接權重%的更新為例,??A?'dEAu;j?=-入冗-,其中£代表誤差函數,A代表學習率,根據不同的誤差函數和神經元表達式我們出的具體表達式,其本質上是利用了鏈式求導法則,這里不再贅述。??
本文編號:3365318
【文章來源】:浙江大學浙江省 211工程院校 985工程院校 教育部直屬院校
【文章頁數】:49 頁
【學位級別】:碩士
【部分圖文】:
圖2.1泛化誤差與偏差、方差關系??
其中%(?;?=?1,2,...,V)定義與上相同。選擇使a)最小的屬性為劃分屬性。??此外,分類回歸樹算法還要求樣本在屬性測試后只能取“是”或“否”,然后根據測??試結果分為左、右兩個分支,這樣得到的決策樹被稱為分類回歸樹,其結構如圖2.2。??root?node:??interal?node:?卜4?'?0??A?A?|??leaf?node:??I___J??圖2.2分類回歸樹結構??決策樹采取從上到下的遞歸學習,一旦劃分規(guī)則確定,那么我們可以采用貪心法,??叩從根結點開始每次嘗試劃分一個結點,在該結點選擇最佳屬性進行劃分,一直進行下??去直到結束,從而確定整個決策樹的結構。在確定決策樹結構的過程中通常還會有一個??剪枝的過程,即去掉一些己經生成的葉結點,從而避免過擬合。決策樹結構確定之后,??我們就可以建立目標函數,通過優(yōu)化目標函數來學習每個葉節(jié)點上的最優(yōu)預測標記。??II??
圖2.3神經網絡結構??傳統(tǒng)的神經網絡通常包括三層:輸入層,隱層和輸出層。它的各層之間是全連而每層之間的節(jié)點是無連接的,這樣的神經網絡結構也被稱為“多層前饋神經網絡入層僅負責接受輸入,隱層和輸出層負責對信號進行加工,最終由輸出層輸出結經網絡的學習過程,就是根據訓練數據不斷地調整各個神經元中的連接權重和閾值[這個過程我們通常利用誤差逆?zhèn)鞑ィǎ澹颍颍铮?BackPropagation,簡稱BP)算法來完差逆?zhèn)鞑ニ惴ǖ脑硎抢锰荻认陆捣,從誤差函數的負梯度方向更新連接權重和以連接權重%的更新為例,??A?'dEAu;j?=-入冗-,其中£代表誤差函數,A代表學習率,根據不同的誤差函數和神經元表達式我們出的具體表達式,其本質上是利用了鏈式求導法則,這里不再贅述。??
本文編號:3365318
本文鏈接:http://www.sikaile.net/kejilunwen/jiaotonggongchenglunwen/3365318.html