基于學習的車輛自組織網(wǎng)的數(shù)據(jù)分發(fā)研究
發(fā)布時間:2021-08-27 02:35
自第一次工業(yè)革命汽車被發(fā)明以來,隨著經(jīng)濟與科技的發(fā)展,各種各樣的車輛越來越多,隨著車輛的增多,傳統(tǒng)的無線蜂窩網(wǎng)絡已無法滿足車輛間通信的帶寬要求,然后車輛自組織網(wǎng)(Vehicle Ad-hoc Network,VANET)的概念被提出。在VANET中,每個車輛都配備有車載單元(On Board Unit,OBU),這些OBU之間可以相互通信,同時它們也可以和路邊單元(Roadside Unit,RSU)進行通信,獲取相關路況數(shù)據(jù)信息等,從而降低事故發(fā)生率,實現(xiàn)實時導航,提高行駛效率等。為了保證所有車輛都能及時獲取所需數(shù)據(jù)信息,提高數(shù)據(jù)分發(fā)效率在VANET中就尤為重要。在現(xiàn)有的研究中,大部分僅采用車輛到基礎設施(Vehicle to Infrastructure,V2I)的通信方式進行數(shù)據(jù)分發(fā),效率較低,即使采用了V2I與車輛到車輛(Vehicle to Vehicle,V2V)通信相結合的方式,也沒有利用深度學習和強化學習等方式,因此對VANET的動態(tài)適應性較差。本課題采用V2I以及V2V通信相結合的基于深度強化學習進行簇頭節(jié)點選擇的方法來提高數(shù)據(jù)分發(fā)效率。具體說來,就是在VANET中,...
【文章來源】:華僑大學福建省
【文章頁數(shù)】:68 頁
【學位級別】:碩士
【部分圖文】:
015-2018年中國汽車保有量車輛自組織網(wǎng)絡(VehicleAd-hocNetwork,VANET)[5]的覆蓋范圍比車聯(lián)網(wǎng)
第1章緒論3圖1.2深度學習發(fā)展歷程強化學習主要的目的是在不同的動作中,選擇出回報值最大的那個動作,即選擇出最優(yōu)策略。具體說來,就是智能體在學習的過程中會不斷地與環(huán)境交互,在此過程中,采用不同的學習策略,即不同的動作,會獲得不同的獎勵值,在不斷學習的過程中,最終采取的動作是對應獎勵值最大的動作,即最優(yōu)策略[12]。下圖展現(xiàn)了強化學習在發(fā)展中的一些重要時間節(jié)點。圖1.3強化學習發(fā)展過程
第1章緒論3圖1.2深度學習發(fā)展歷程強化學習主要的目的是在不同的動作中,選擇出回報值最大的那個動作,即選擇出最優(yōu)策略。具體說來,就是智能體在學習的過程中會不斷地與環(huán)境交互,在此過程中,采用不同的學習策略,即不同的動作,會獲得不同的獎勵值,在不斷學習的過程中,最終采取的動作是對應獎勵值最大的動作,即最優(yōu)策略[12]。下圖展現(xiàn)了強化學習在發(fā)展中的一些重要時間節(jié)點。圖1.3強化學習發(fā)展過程
【參考文獻】:
期刊論文
[1]車聯(lián)網(wǎng)通信機制概述[J]. 黃文榮,樊同亮,康曉蔚. 信息通信. 2016(03)
[2]基于網(wǎng)絡仿真器NS2的Ad hoc網(wǎng)絡路由協(xié)議仿真[J]. 馬崇霄,吳長奇. 電子測量技術. 2008(05)
[3]基于Tan-Sigmoid函數(shù)參數(shù)調(diào)整的BP神經(jīng)網(wǎng)絡改進算法[J]. 羅兵,黃萬杰,楊帥. 重慶大學學報(自然科學版). 2006(01)
[4]Ad Hoc網(wǎng)中的OLSR路由協(xié)議研究[J]. 周懿,郭偉,任智. 中國測試技術. 2004(05)
碩士論文
[1]基于機器學習的車聯(lián)網(wǎng)資源分配機制研究[D]. 劉聰.西安電子科技大學 2017
[2]基于人工智能機器學習的文字識別方法研究[D]. 李雷.電子科技大學 2013
本文編號:3365474
【文章來源】:華僑大學福建省
【文章頁數(shù)】:68 頁
【學位級別】:碩士
【部分圖文】:
015-2018年中國汽車保有量車輛自組織網(wǎng)絡(VehicleAd-hocNetwork,VANET)[5]的覆蓋范圍比車聯(lián)網(wǎng)
第1章緒論3圖1.2深度學習發(fā)展歷程強化學習主要的目的是在不同的動作中,選擇出回報值最大的那個動作,即選擇出最優(yōu)策略。具體說來,就是智能體在學習的過程中會不斷地與環(huán)境交互,在此過程中,采用不同的學習策略,即不同的動作,會獲得不同的獎勵值,在不斷學習的過程中,最終采取的動作是對應獎勵值最大的動作,即最優(yōu)策略[12]。下圖展現(xiàn)了強化學習在發(fā)展中的一些重要時間節(jié)點。圖1.3強化學習發(fā)展過程
第1章緒論3圖1.2深度學習發(fā)展歷程強化學習主要的目的是在不同的動作中,選擇出回報值最大的那個動作,即選擇出最優(yōu)策略。具體說來,就是智能體在學習的過程中會不斷地與環(huán)境交互,在此過程中,采用不同的學習策略,即不同的動作,會獲得不同的獎勵值,在不斷學習的過程中,最終采取的動作是對應獎勵值最大的動作,即最優(yōu)策略[12]。下圖展現(xiàn)了強化學習在發(fā)展中的一些重要時間節(jié)點。圖1.3強化學習發(fā)展過程
【參考文獻】:
期刊論文
[1]車聯(lián)網(wǎng)通信機制概述[J]. 黃文榮,樊同亮,康曉蔚. 信息通信. 2016(03)
[2]基于網(wǎng)絡仿真器NS2的Ad hoc網(wǎng)絡路由協(xié)議仿真[J]. 馬崇霄,吳長奇. 電子測量技術. 2008(05)
[3]基于Tan-Sigmoid函數(shù)參數(shù)調(diào)整的BP神經(jīng)網(wǎng)絡改進算法[J]. 羅兵,黃萬杰,楊帥. 重慶大學學報(自然科學版). 2006(01)
[4]Ad Hoc網(wǎng)中的OLSR路由協(xié)議研究[J]. 周懿,郭偉,任智. 中國測試技術. 2004(05)
碩士論文
[1]基于機器學習的車聯(lián)網(wǎng)資源分配機制研究[D]. 劉聰.西安電子科技大學 2017
[2]基于人工智能機器學習的文字識別方法研究[D]. 李雷.電子科技大學 2013
本文編號:3365474
本文鏈接:http://www.sikaile.net/kejilunwen/daoluqiaoliang/3365474.html