基于強化學(xué)習(xí)與LSTM的短期電力負(fù)荷預(yù)測研究
發(fā)布時間:2021-01-25 22:23
隨著能源領(lǐng)域技術(shù)的進(jìn)步,電力可以更方便,更有效,更經(jīng)濟(jì)地生成,運輸和儲存。智能電網(wǎng)旨在創(chuàng)建自動化,高效的能源輸送網(wǎng)絡(luò),以改善電力輸送的可靠性和質(zhì)量,以及網(wǎng)絡(luò)安全性,能源效率和需求側(cè)管理方面。預(yù)測電力需求是電力系統(tǒng)管理中的一項基本任務(wù),高估或低估需求可能會導(dǎo)致電網(wǎng)不穩(wěn)定以及資源利用不足,從而導(dǎo)致高昂的經(jīng)濟(jì)成本。電力系統(tǒng)基礎(chǔ)架構(gòu)規(guī)劃需要長期負(fù)荷預(yù)測(數(shù)月至一年),但是,智能電網(wǎng)的運營決策必須在短時間內(nèi)做出,并且需要短期負(fù)荷預(yù)測(STLF)(數(shù)小時至數(shù)天)。準(zhǔn)確的短期負(fù)荷預(yù)測對于電力部門的有效運營至關(guān)重要。由于較高的波動性和負(fù)載的不確定性,因此很難對單個家庭或建筑物等細(xì)粒度來預(yù)測負(fù)載,本文電力負(fù)荷針對部分地區(qū)整體負(fù)荷進(jìn)行預(yù)測。本文主要研究以下兩個問題:1、引入強化學(xué)習(xí)思想,與長短期記憶網(wǎng)絡(luò)結(jié)合,建立模型進(jìn)行短期電力負(fù)荷預(yù)測;2、驗證深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)對短期電力負(fù)荷預(yù)測準(zhǔn)確性的影響。本文主要內(nèi)容如下:首先,構(gòu)造短期電力負(fù)荷特征集合,對歷史電力負(fù)荷數(shù)據(jù)進(jìn)行缺失值補全,異常值剔除等數(shù)據(jù)預(yù)處理操作,選取與電力負(fù)荷有關(guān)的影響因素,例如溫度、日期時間信息等,針對不同特征的情況,選取合適的預(yù)處理方式,將處理...
【文章來源】:內(nèi)蒙古科技大學(xué)內(nèi)蒙古自治區(qū)
【文章頁數(shù)】:49 頁
【學(xué)位級別】:碩士
【部分圖文】:
多層前饋神經(jīng)網(wǎng)絡(luò)
內(nèi)蒙古科技大學(xué)碩士學(xué)位論文-17-零填充,則填充與輸入維數(shù)匹配。假設(shè)第k層有n(k)個神經(jīng)元,第k-1層有n(k-1)個神經(jīng)元,全連接共有連接邊n(k)*n(k-1)個,卷積層和下一層之間的連接數(shù)大大減少,由原來的n(k)*n(k-1)個連接變?yōu)閚(k)*m個連接,m為濾波器大校圖3.3全連接層圖3.4卷積層用卷積來代替全連接,第k層的凈輸入z(k)為第k-1層活性值a(k-1)和濾波器w(k)∈Rm的卷積,計算方式如式4-6所示。z(k)=w(k)⊕a(k-1)+b(k)(式3-6)其中,濾波器w(k)為可學(xué)習(xí)的權(quán)重向量,b(k)∈R為可學(xué)習(xí)的偏置。作為參數(shù)的濾波器w(k)對于第k層的所有的神經(jīng)元都是相同的,權(quán)重共享可以理解為一個濾波器只捕捉輸入數(shù)據(jù)中的一種特定的局部特征,若提取多種特征則使用多個不同的濾波器。由于局部連接和權(quán)重共享,卷積層的參數(shù)只有一個m維的權(quán)重w(k)和1維的偏置b(k),共m+1個參數(shù)。一個典型的卷積網(wǎng)絡(luò)是由卷積層、匯聚層、全連接層交叉堆疊而成。卷積層用來提取一個局部區(qū)域的特征,不同卷積核大小相當(dāng)于不同尺寸的特征提取器,匯聚層進(jìn)行特征選擇,降低特征數(shù)量,進(jìn)而減少參數(shù)數(shù)量。匯聚是指對每個區(qū)域進(jìn)行下采樣,得到一個值作為該區(qū)域的概括,經(jīng)常使用到的匯聚函數(shù)有兩種:最大匯聚(MaxPooling),從一個區(qū)域內(nèi)的所有神經(jīng)元中挑選最大值,平均匯聚(MeanPooling),計算出區(qū)域內(nèi)所有神經(jīng)元的平均值,匯聚層能夠有效減少神經(jīng)元數(shù)量,使得網(wǎng)絡(luò)對
內(nèi)蒙古科技大學(xué)碩士學(xué)位論文-17-零填充,則填充與輸入維數(shù)匹配。假設(shè)第k層有n(k)個神經(jīng)元,第k-1層有n(k-1)個神經(jīng)元,全連接共有連接邊n(k)*n(k-1)個,卷積層和下一層之間的連接數(shù)大大減少,由原來的n(k)*n(k-1)個連接變?yōu)閚(k)*m個連接,m為濾波器大校圖3.3全連接層圖3.4卷積層用卷積來代替全連接,第k層的凈輸入z(k)為第k-1層活性值a(k-1)和濾波器w(k)∈Rm的卷積,計算方式如式4-6所示。z(k)=w(k)⊕a(k-1)+b(k)(式3-6)其中,濾波器w(k)為可學(xué)習(xí)的權(quán)重向量,b(k)∈R為可學(xué)習(xí)的偏置。作為參數(shù)的濾波器w(k)對于第k層的所有的神經(jīng)元都是相同的,權(quán)重共享可以理解為一個濾波器只捕捉輸入數(shù)據(jù)中的一種特定的局部特征,若提取多種特征則使用多個不同的濾波器。由于局部連接和權(quán)重共享,卷積層的參數(shù)只有一個m維的權(quán)重w(k)和1維的偏置b(k),共m+1個參數(shù)。一個典型的卷積網(wǎng)絡(luò)是由卷積層、匯聚層、全連接層交叉堆疊而成。卷積層用來提取一個局部區(qū)域的特征,不同卷積核大小相當(dāng)于不同尺寸的特征提取器,匯聚層進(jìn)行特征選擇,降低特征數(shù)量,進(jìn)而減少參數(shù)數(shù)量。匯聚是指對每個區(qū)域進(jìn)行下采樣,得到一個值作為該區(qū)域的概括,經(jīng)常使用到的匯聚函數(shù)有兩種:最大匯聚(MaxPooling),從一個區(qū)域內(nèi)的所有神經(jīng)元中挑選最大值,平均匯聚(MeanPooling),計算出區(qū)域內(nèi)所有神經(jīng)元的平均值,匯聚層能夠有效減少神經(jīng)元數(shù)量,使得網(wǎng)絡(luò)對
本文編號:2999997
【文章來源】:內(nèi)蒙古科技大學(xué)內(nèi)蒙古自治區(qū)
【文章頁數(shù)】:49 頁
【學(xué)位級別】:碩士
【部分圖文】:
多層前饋神經(jīng)網(wǎng)絡(luò)
內(nèi)蒙古科技大學(xué)碩士學(xué)位論文-17-零填充,則填充與輸入維數(shù)匹配。假設(shè)第k層有n(k)個神經(jīng)元,第k-1層有n(k-1)個神經(jīng)元,全連接共有連接邊n(k)*n(k-1)個,卷積層和下一層之間的連接數(shù)大大減少,由原來的n(k)*n(k-1)個連接變?yōu)閚(k)*m個連接,m為濾波器大校圖3.3全連接層圖3.4卷積層用卷積來代替全連接,第k層的凈輸入z(k)為第k-1層活性值a(k-1)和濾波器w(k)∈Rm的卷積,計算方式如式4-6所示。z(k)=w(k)⊕a(k-1)+b(k)(式3-6)其中,濾波器w(k)為可學(xué)習(xí)的權(quán)重向量,b(k)∈R為可學(xué)習(xí)的偏置。作為參數(shù)的濾波器w(k)對于第k層的所有的神經(jīng)元都是相同的,權(quán)重共享可以理解為一個濾波器只捕捉輸入數(shù)據(jù)中的一種特定的局部特征,若提取多種特征則使用多個不同的濾波器。由于局部連接和權(quán)重共享,卷積層的參數(shù)只有一個m維的權(quán)重w(k)和1維的偏置b(k),共m+1個參數(shù)。一個典型的卷積網(wǎng)絡(luò)是由卷積層、匯聚層、全連接層交叉堆疊而成。卷積層用來提取一個局部區(qū)域的特征,不同卷積核大小相當(dāng)于不同尺寸的特征提取器,匯聚層進(jìn)行特征選擇,降低特征數(shù)量,進(jìn)而減少參數(shù)數(shù)量。匯聚是指對每個區(qū)域進(jìn)行下采樣,得到一個值作為該區(qū)域的概括,經(jīng)常使用到的匯聚函數(shù)有兩種:最大匯聚(MaxPooling),從一個區(qū)域內(nèi)的所有神經(jīng)元中挑選最大值,平均匯聚(MeanPooling),計算出區(qū)域內(nèi)所有神經(jīng)元的平均值,匯聚層能夠有效減少神經(jīng)元數(shù)量,使得網(wǎng)絡(luò)對
內(nèi)蒙古科技大學(xué)碩士學(xué)位論文-17-零填充,則填充與輸入維數(shù)匹配。假設(shè)第k層有n(k)個神經(jīng)元,第k-1層有n(k-1)個神經(jīng)元,全連接共有連接邊n(k)*n(k-1)個,卷積層和下一層之間的連接數(shù)大大減少,由原來的n(k)*n(k-1)個連接變?yōu)閚(k)*m個連接,m為濾波器大校圖3.3全連接層圖3.4卷積層用卷積來代替全連接,第k層的凈輸入z(k)為第k-1層活性值a(k-1)和濾波器w(k)∈Rm的卷積,計算方式如式4-6所示。z(k)=w(k)⊕a(k-1)+b(k)(式3-6)其中,濾波器w(k)為可學(xué)習(xí)的權(quán)重向量,b(k)∈R為可學(xué)習(xí)的偏置。作為參數(shù)的濾波器w(k)對于第k層的所有的神經(jīng)元都是相同的,權(quán)重共享可以理解為一個濾波器只捕捉輸入數(shù)據(jù)中的一種特定的局部特征,若提取多種特征則使用多個不同的濾波器。由于局部連接和權(quán)重共享,卷積層的參數(shù)只有一個m維的權(quán)重w(k)和1維的偏置b(k),共m+1個參數(shù)。一個典型的卷積網(wǎng)絡(luò)是由卷積層、匯聚層、全連接層交叉堆疊而成。卷積層用來提取一個局部區(qū)域的特征,不同卷積核大小相當(dāng)于不同尺寸的特征提取器,匯聚層進(jìn)行特征選擇,降低特征數(shù)量,進(jìn)而減少參數(shù)數(shù)量。匯聚是指對每個區(qū)域進(jìn)行下采樣,得到一個值作為該區(qū)域的概括,經(jīng)常使用到的匯聚函數(shù)有兩種:最大匯聚(MaxPooling),從一個區(qū)域內(nèi)的所有神經(jīng)元中挑選最大值,平均匯聚(MeanPooling),計算出區(qū)域內(nèi)所有神經(jīng)元的平均值,匯聚層能夠有效減少神經(jīng)元數(shù)量,使得網(wǎng)絡(luò)對
本文編號:2999997
本文鏈接:http://www.sikaile.net/shoufeilunwen/boshibiyelunwen/2999997.html
最近更新
教材專著