天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > AI論文 >

73Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)研究

發(fā)布時(shí)間:2016-11-15 23:10

  本文關(guān)鍵詞:Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)研究,由筆耕文化傳播整理發(fā)布。


CN43—1258/TPISSN1007—130;計(jì)算機(jī)工程與科學(xué);ComputerEngineering&Scie;第35卷第8期2013年8月;V01.35,No.8,Aug.2013;文章編號(hào):1007一130X(2013)08—0;Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)研究;李翔,朱全銀;(淮陰工學(xué)院計(jì)算機(jī)工程學(xué)院,江蘇淮安223003;摘要:針對(duì)

CN43—1258/TPISSN1007—130X

計(jì)算機(jī)工程與科學(xué)

ComputerEngineering&Science

第35卷第8期2013年8月

V01.35,No.8,Aug.2013

文章編號(hào):1007一130X(2013)08—0096—07

Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)研究。

李翔,朱全銀

(淮陰工學(xué)院計(jì)算機(jī)工程學(xué)院,江蘇淮安223003)

摘要:針對(duì)傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)容易陷入局部極小、預(yù)測(cè)精度低的問(wèn)題,提出使用Adaboost算法和

BP神經(jīng)網(wǎng)絡(luò)相結(jié)合的方法,提高網(wǎng)絡(luò)預(yù)測(cè)精度和泛化能力。該方法首先對(duì)樣本數(shù)據(jù)進(jìn)行預(yù)處理并初始化測(cè)試數(shù)據(jù)分布權(quán)值;然后通過(guò)選取不同的隱含層節(jié)點(diǎn)數(shù)、節(jié)點(diǎn)傳遞函數(shù)、訓(xùn)練函數(shù)、網(wǎng)絡(luò)學(xué)習(xí)函數(shù)構(gòu)造出不同類(lèi)型的BP弱預(yù)測(cè)器并對(duì)樣本數(shù)據(jù)進(jìn)行反復(fù)訓(xùn)練;最后使用Adaboost算法將得到的多個(gè)BP神經(jīng)網(wǎng)絡(luò)弱預(yù)測(cè)器組成新的強(qiáng)預(yù)測(cè)器。對(duì)UCI數(shù)據(jù)庫(kù)中數(shù)據(jù)集進(jìn)行仿真實(shí)驗(yàn),結(jié)果表明本方法比傳統(tǒng)BP網(wǎng)絡(luò)預(yù)測(cè)平均誤差絕對(duì)值減少近50%,提高了網(wǎng)絡(luò)預(yù)測(cè)精度,為神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)提供借鑒。

關(guān)鍵詞:神經(jīng)網(wǎng)絡(luò);強(qiáng)預(yù)測(cè)器;迭代算法;adaboost算法中圖分類(lèi)號(hào):TPl83

doi:10.3969/j.issn.1007—130X.2013.08.015

文獻(xiàn)標(biāo)志碼:A

PredictionofimprovedBPneuralnetwork

byAdaboostalgorithm

LIXiang,ZHUQuan—yin

(Facultyof

Computer

Engineering,HuaiyinInstituteofTechnology,Huai’an223003,China)

Abstract:ThetraditionalBP(BackPropagation)neuralnetworkiseasy

andhasloweraccuracy.AccordingBPneuralnetworkisproposed

to

to

to

fallintolocalminimum

thisproblem,amethodthatcombinestheAdaboostalgorithmand

improvethepredictionaccuracyandgeneralizationabilityoftheneural

network.Firstly,themethodpreprocessesthehistoricaldataandinitializesthedistributionweightsof

test

data.Secondly,itselectsdifferenthiddenlayernodes,nodetransferfunctions,trainingfunctions,

toconstruct

andnetworklearningfunctionsweakpredictorsofBPneuralnetworkandtrainsthesample

to

datarepeatedly.Finally,itmademoreweakpredictorsofBPneuralnetwork

form

newstrongpre—

dictorbyAdaboostalgorithm.ThedatabaseofUCI(UniversityofCaliforniaIrvine)isusedinexperi-ments.Theresultsshowthatthismethodpared

to

can

reducenearly50%forthemean

error

absolutevaluecorn—

thetraditionalBPnetwork,andimprovethepredictionaccuracyofnetwork.Sothismethod

providesreferencesfortheneuralnetworkprediction.

Keywords:neuralnetwork;strongpredictor;iterativealgorithm;adaboostalgorithm

絡(luò)具有較高的預(yù)測(cè)精度、較好的通用性、較強(qiáng)的非

引言

反向傳播BP(BackPropagation)神經(jīng)網(wǎng)絡(luò)是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò),是目前應(yīng)用最廣泛的神經(jīng)網(wǎng)絡(luò)模型之一[1]。BP神經(jīng)網(wǎng)

線(xiàn)性映射能力等優(yōu)點(diǎn)。但是,BP神經(jīng)網(wǎng)絡(luò)也存在一些缺陷,主要表現(xiàn)為容易陷入局部極小值、算法收斂速度較慢、隱含單元的數(shù)目選擇尚無(wú)一般性指導(dǎo)原則、新加入的學(xué)習(xí)樣本對(duì)已學(xué)完樣本的學(xué)習(xí)結(jié)果影響較大等問(wèn)題。

收稿日期:2012—06—18}修回日期:2012—10—22

基金項(xiàng)目:國(guó)家星火計(jì)劃資助項(xiàng)且(2011GA690190);江蘇省屬高校自然科學(xué)重大基礎(chǔ)研究資助項(xiàng)目(11KJA460001)通訊地址:223003江蘇省淮安市大學(xué)城淮陰工學(xué)院計(jì)算機(jī)工程學(xué)院

Address:FacultyofComputerEngineering,HuaiyinInstituteofTechnology,Huai’an

223003,Jiangsu,P,R.China

李翔等:Adahoost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)研究針對(duì)以上問(wèn)題,提出了很多BP網(wǎng)絡(luò)改進(jìn)方

法。文獻(xiàn)[2,3]提出通過(guò)采用附加動(dòng)量法和變學(xué)習(xí)

率改進(jìn)BP網(wǎng)絡(luò)。附加動(dòng)量法有助于使網(wǎng)絡(luò)從誤差曲面的局部極小值中跳出,但對(duì)于絕大多數(shù)實(shí)際應(yīng)用問(wèn)題,該方法訓(xùn)練速度仍然較慢。變學(xué)習(xí)率方法根據(jù)誤差變化自適應(yīng)調(diào)整,使權(quán)系數(shù)調(diào)整向誤差

減少的方向變化,但該方法仍然存在權(quán)值修正量較

小的問(wèn)題,導(dǎo)致學(xué)習(xí)率降低。文獻(xiàn)[4,5]提出使用粒子群算法優(yōu)化BP網(wǎng)絡(luò),使網(wǎng)絡(luò)訓(xùn)練收斂到全局的最優(yōu),已解決了BP算法易陷入局部極小值的問(wèn)題,但該算法只能有限提高原有BP神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)精度,并不能把預(yù)測(cè)誤差較大的BP神經(jīng)網(wǎng)絡(luò)優(yōu)化為能夠準(zhǔn)確預(yù)測(cè)的BP網(wǎng)絡(luò),且對(duì)樣本數(shù)量少、樣本分布不均勻而造成預(yù)測(cè)誤差大的問(wèn)題,優(yōu)化后

的網(wǎng)絡(luò)預(yù)測(cè)能力一般得不到明顯提高。文獻(xiàn)[61提

出將Adaboost算法應(yīng)用到BP網(wǎng)絡(luò),但選用的數(shù)據(jù)記錄僅有11條,預(yù)測(cè)結(jié)果可信度不足。

本文針對(duì)上述問(wèn)題,提出BP神經(jīng)網(wǎng)絡(luò)結(jié)合Adaboost算法組成的強(qiáng)預(yù)測(cè)器的方法,并用UCI

數(shù)據(jù)庫(kù)中的數(shù)據(jù)集進(jìn)行仿真實(shí)驗(yàn),證明本文所提方

法的有效性。

BP神經(jīng)網(wǎng)絡(luò)與Adaboost算法

2.1

BP神經(jīng)網(wǎng)絡(luò)原理

BP神經(jīng)網(wǎng)絡(luò)是一種有監(jiān)督學(xué)習(xí)多層前饋神經(jīng)

網(wǎng)絡(luò),其主要特點(diǎn)是信號(hào)前向傳遞、誤差反向傳播[7]。在信號(hào)前向傳遞過(guò)程中,輸入信號(hào)從輸入層

進(jìn)入,經(jīng)過(guò)隱含層處理,到達(dá)輸出層。每一層的神經(jīng)元狀態(tài)只影響下一層的神經(jīng)元狀態(tài)。判斷輸出層的結(jié)果是否為期望輸出,如果不是,則轉(zhuǎn)入反向傳播,然后根據(jù)預(yù)測(cè)誤差調(diào)整網(wǎng)絡(luò)權(quán)值和閾值,從而使BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)輸出不斷逼近期望輸出[8],BP神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)如圖1所示。

輸人層

患舍層

輸出層

Figure1

Topological

structure

ofBPneuralnetwork

圖1BP神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)圖

97

圖1中,zl,z:,…,z。是BP神經(jīng)網(wǎng)絡(luò)的輸入值,姐。…,Y。是BP神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)值,∞a和∞業(yè)為BP神經(jīng)網(wǎng)絡(luò)權(quán)值。

2.2

Adaboost算法原理

Adaboost是一種迭代算法,通過(guò)對(duì)弱學(xué)習(xí)算

法的加強(qiáng)而得到強(qiáng)學(xué)習(xí)算法,即通過(guò)一個(gè)包含關(guān)鍵特征的弱分類(lèi)器集合,構(gòu)建出具有理想分類(lèi)能力的強(qiáng)分類(lèi)器口]。Adaboost算法的優(yōu)點(diǎn)在于它使用加權(quán)后選取的訓(xùn)練數(shù)據(jù)代替隨機(jī)選取的訓(xùn)練樣本,將弱分類(lèi)器聯(lián)合起來(lái),使用加權(quán)的投票機(jī)制代替平均投票機(jī)制[1

0。。

2.3基于Adaboost算法的BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型

本文通過(guò)對(duì)BP神經(jīng)網(wǎng)絡(luò)選取不同參數(shù)來(lái)構(gòu)造多類(lèi)BP弱預(yù)測(cè)器,然后使用Adaboost算法將得到的多個(gè)弱預(yù)測(cè)器組成新的強(qiáng)預(yù)測(cè)器。

BP神經(jīng)網(wǎng)絡(luò)在Matlab中的構(gòu)造函數(shù)為:

net

newff(P,T,S,TF,BTF,BLF,PF,IPF,

OPF,DDF),其中,P為輸人數(shù)據(jù)矩陣,T為輸出

數(shù)據(jù)矩陣,S為隱含層節(jié)點(diǎn)數(shù),”為節(jié)點(diǎn)傳遞函

數(shù),BTF為訓(xùn)練函數(shù),BLF為網(wǎng)絡(luò)學(xué)習(xí)函數(shù),PF為性能分析函數(shù),IPF為輸人處理函數(shù),oPF為輸

出處理函數(shù),DDF為驗(yàn)證數(shù)據(jù)劃分函數(shù)。一般通

過(guò)設(shè)置S、”、BTF、BLF幾個(gè)參數(shù)來(lái)改變BP神

經(jīng)網(wǎng)絡(luò)性能,可選擇值如表1所示。

Table1

Fuction

paramete隋ofBP

ne刪network

裹1

BP神經(jīng)圈絡(luò)函數(shù)參斂

參數(shù)含義

可選參散及Maflab實(shí)璦函數(shù)

s<n一1(^為輸人層節(jié)點(diǎn)數(shù))

。融舍層s</石再■萬(wàn)+n(n為輸入層節(jié)點(diǎn)數(shù),m為輸出

。

節(jié)點(diǎn)數(shù)層節(jié)點(diǎn)數(shù).n為o~lo的常數(shù))

S—Ibn(n為輸入層節(jié)點(diǎn)數(shù))

仃薹言蠖黧蘭№

硬限幅傳遞函數(shù)hardlim

對(duì)數(shù)S型傳遞函數(shù)Iogsig

梯度下降BP算法弼練函數(shù)traingd

動(dòng)量反傳的梯度下降BP算法訓(xùn)練函數(shù)traingdm

。,。訓(xùn)練動(dòng)態(tài)自適應(yīng)學(xué)習(xí)率的BP算法訓(xùn)練函數(shù)traingda函數(shù)

動(dòng)量反傳和動(dòng)態(tài)自適應(yīng)學(xué)習(xí)率的梯度下降BP算法調(diào)練函數(shù)traiagdx

Levenberg_Marquardt的BP算法訓(xùn)練函數(shù)trainlm

…網(wǎng)絡(luò)學(xué)BP學(xué)習(xí)規(guī)則函數(shù)learngd

~‘習(xí)函數(shù)帶動(dòng)量項(xiàng)的BP學(xué)習(xí)規(guī)則函數(shù)learngdrrl

通過(guò)newff函數(shù)及S、TF、BTF、BLF等參數(shù)

的調(diào)整,可以構(gòu)造出不同類(lèi)型的BP弱預(yù)測(cè)器。

本文提出的基于Adaboost算法的BP神經(jīng)網(wǎng)

98

Computer

Engineering&Science計(jì)算機(jī)工程與科學(xué)2013,35(8)

絡(luò)預(yù)測(cè)算法流程如圖2所示。

[捧磁據(jù)選擇)HB嘲預(yù)測(cè)器供型1)卜

叫BP弱預(yù)測(cè)器供型2)卜Adaboos!

‰㈤=半×{宇,妒l副

踟㈤一室峰塑型

圣(bg擊)

實(shí)驗(yàn)與結(jié)果分析7、。一。一,。’一…

3?1實(shí)驗(yàn)數(shù)據(jù)

l樣本數(shù)據(jù)預(yù)處理卜_叫船弱預(yù)測(cè)器供型3)卜.

L叫BP弱預(yù)測(cè)器供型帕卜

Figure2

算法迭

代運(yùn)算

2Adaboost算法的BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)算法流程圖3基于甜BP基于算法詳細(xì)步驟如下:

步驟1樣本數(shù)據(jù)選擇及網(wǎng)絡(luò)初始化。令迭

neu銎法ne的twork神wi經(jīng)th黼二法流程圖

,‘J

Predictionalgorithmflowchart

代次數(shù)t一1時(shí),權(quán)值分布ln(i)=÷l,i=1,2,

…,咒,其中九為訓(xùn)練集樣本的數(shù)量,令初始誤差率£。一o。根據(jù)樣本輸入輸出維數(shù)設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu),并對(duì)BP網(wǎng)絡(luò)權(quán)值和閾值咖(o<≯<1)進(jìn)行初始化設(shè)置。

步驟2樣本數(shù)據(jù)預(yù)處理。步驟3

BP弱預(yù)測(cè)器預(yù)測(cè)。通過(guò)選取不同

UCI數(shù)據(jù)庫(kù)是美國(guó)加州大學(xué)歐文分校(Uni—

versityofCalifornia

Irvine)提供的用于機(jī)器學(xué)習(xí)

的著名數(shù)據(jù)庫(kù),該庫(kù)目前共有220個(gè)數(shù)據(jù)集,并且其數(shù)目還在不斷增加。本實(shí)驗(yàn)選擇UCI數(shù)據(jù)庫(kù)中

的Computer

Hardware、Concrete

Compressive

Strength兩個(gè)數(shù)據(jù)集進(jìn)行回歸預(yù)測(cè),數(shù)據(jù)集下載地址為http://archive.ics.uci.edu/ml/datasets/。

Computer

Hardware數(shù)據(jù)集包含209條計(jì)算

BP神經(jīng)網(wǎng)絡(luò)函數(shù)構(gòu)造不同類(lèi)別BP弱預(yù)測(cè)器。對(duì)

機(jī)CUP性能數(shù)據(jù),該數(shù)據(jù)集共有10個(gè)屬性,分別為VendorName(P1)、ModelName(P2)、MYCT(P3)、MMIN(P。)、MMAX(P5)、CACH(P6)、

CHMIN(P7)、CHMAX(P。)、PRP(Z0)、ERP

于£=1,…,丁進(jìn)行迭代,在訓(xùn)練第t個(gè)弱預(yù)測(cè)器

時(shí),使用BP神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立回歸模型g。(z)一y。

計(jì)算g。(z)的誤差率e。:

(Z,。),其中PRP為硬件廠(chǎng)商公布的性能,ERP為預(yù)測(cè)性能。從中隨機(jī)選。保叮菇M數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),40組數(shù)據(jù)作為測(cè)試數(shù)據(jù),選。校场。作為訓(xùn)練屬性,選取磊作為實(shí)際輸出,Z。。供參考。

Computer

e。一>:D。(i)

其中i滿(mǎn)足I壘魚(yú)生二苧I>≯。

Yi

步驟4測(cè)試數(shù)據(jù)權(quán)重調(diào)整。令B=e;,更新

權(quán)重如下,式中Bf為標(biāo)準(zhǔn)化因子:

Table2

Hardware數(shù)據(jù)集原始數(shù)據(jù)如表2所

示。

ComputerhardwaredatasetComputerHardware數(shù)據(jù)集

Pt

P7

Ps

z9

表2

釋號(hào)PL

adviser

P2

P3

P‘Ps

32/60470v/7470v/7a470v/7b470v/7c

vs-100

125256600025616128198

2amdahl2980003200032832269

3amdahl2980003200032832220

amdahl29800032000328化駝;

amdahl29

8000

16000

328

208

;i

480

512

;

8000

;

32

wang

盯帖

209

wang

vs-904801000400000

李翔等:Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)研究

ConcreteCompressive

Strength數(shù)據(jù)集包含1

030條混凝土抗壓強(qiáng)度數(shù)據(jù),該數(shù)據(jù)集共有9個(gè)屬性Cement(P1)、Blast

FurnaceSlag(P2)、FlyAsh

(P3)、Water(P4)、Superplasticizer(P5)、Coarse

Aggregate(P6)、FineAggregate(P7)、Age(P8)、

450050400廠(chǎng)—P

f}

99

I匕=型望型1

350

掣300

250噻200

150

Concrete(Z9),其中,Concrete(Z9)為輸出的混凝土抗壓強(qiáng)度。從中隨機(jī)選。保埃埃敖M數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),30組數(shù)據(jù)作為測(cè)試數(shù)據(jù)。Concrete

pressive

Com—

10050

Strength數(shù)據(jù)集原始數(shù)據(jù)如表3所示。

10

152025303540

3.2實(shí)驗(yàn)及結(jié)果分析

使用10個(gè)BP神經(jīng)網(wǎng)絡(luò)構(gòu)成弱預(yù)測(cè)器序列,

Figure3

Computer

Hardware預(yù)測(cè)樣本

error

Absolutevalueofcomputerhardwarprediction

Computer

這lo個(gè)BP神經(jīng)網(wǎng)絡(luò)的S、玎、BTF、BLF參數(shù)選

擇如表4所示。

Table

圖3

帖∞

Hardware預(yù)測(cè)誤差絕對(duì)值圖

ParameterselectionofBPweakpredictor

表4BP弱預(yù)測(cè)器參數(shù)選擇

七’

》(

如巧加

博m,00

淵媸

51510

ConcreteCompressive

20

25

30

Strength預(yù)測(cè)樣本

Figure4

Absolutevalueof

error

Concretecompressivestrengthprediction

圖4ConcreteCompressiveStrength預(yù)測(cè)誤差絕對(duì)值圖

Computer

sive

ComputerHardware和ConcreteCompres—

sive

Hardware和ConcreteCompres—

Strength數(shù)據(jù)集的網(wǎng)絡(luò)訓(xùn)練過(guò)程中誤差均方

下降曲線(xiàn)分別如圖5和圖6所示。

Computersive

Strength數(shù)據(jù)集的強(qiáng)預(yù)測(cè)器預(yù)測(cè)誤差絕對(duì)值Hardware和ConcreteCompres—

和弱預(yù)測(cè)器預(yù)測(cè)平均誤差絕對(duì)值圖分別如圖3和圖4所示。

Table3

ConcreteConcrete

Strength數(shù)據(jù)集的網(wǎng)絡(luò)訓(xùn)練回歸狀態(tài)圖分別

如圖7和圖8所示。

compressivestrengthdataset

表3

序號(hào)

Pl

P2

P3

CompressiveStrength數(shù)據(jù)集

P5

P6

P7

P8

P4Z9

79.99

54000

1622.5104067628

2540

O1622.510556762861.89

332.5

142.5O

228093259427040.27

4332.5142.5O228093259436541.05

5198.6132.4O1920978.4825.536044.30

1029159.1186.7O175.6

11.3989.6788.92832.77

1030

260.9

100.5

78.3200.68.6864.5761.52832.40

100

Computer

Engineering&Science計(jì)算機(jī)工程與科學(xué)2013,,35(8)

Training:R--O

0.5

93251

Validation:R=O92141

o。

一4-

暨0

寧±‰

昌冬

0南

噸C

¨

幫一0.5圭

導(dǎo)

蘭C

言一1

TargetTest:R=0.96907

All:R=092884

蘭o

024

lOEpoehs

Figure5

Decline

curve

ofComputerHardware

圖5

Computer

Hardware誤差均方下降曲線(xiàn)

Figure8

Regression

Concrete

state

ofConcreteCompressiveStrength

圖8

CompressiveStrength回歸狀態(tài)圖Contrastbetweenmean

predictionresults

Table7

error

absolutevalueof

表7預(yù)測(cè)結(jié)果平均誤差絕對(duì)值對(duì)比

預(yù)測(cè)模型co平m均pu誤ter差H絕ar?qū)Γ洌髦担幔颍?/p>

c帆;{i;蕊8iw

2.294.78

20Epochs

AdaboostBP33.89

Figure6

Decline

curve

ofConcrete

BP68.36

CompressiveStrengthMSE

圖6

ConcreteCompressiveStrength誤差均方下降曲線(xiàn)

Training:R--0.98424

使用相關(guān)系數(shù)R來(lái)表示擬合的好壞,R的取值范圍為[o1],R越接近1,表明方程的變量對(duì)Y的解釋能力越強(qiáng),這個(gè)模型對(duì)數(shù)據(jù)擬合得也較好。

從圖3可以看出,ComputerHardware數(shù)據(jù)集預(yù)測(cè)誤差值中,強(qiáng)預(yù)測(cè)器預(yù)測(cè)誤差明顯小于弱預(yù)測(cè)器預(yù)測(cè)誤差,強(qiáng)預(yù)測(cè)器整體預(yù)測(cè)誤差較小,預(yù)測(cè)結(jié)果較好。從圖5可以看出,ComputerHardware數(shù)據(jù)集訓(xùn)練的誤差均方下降曲線(xiàn)收斂速度較快,在第

g寧

詈一0

毒一

罨。

±鮚

Test:R:o91412

All:R=0.96907

四步時(shí)達(dá)到最好的驗(yàn)證集效果為0.0055,誤差曲線(xiàn)開(kāi)始趨于平緩,誤差值基本不再發(fā)生變化,效果較好。從圖7可以看出,強(qiáng)預(yù)測(cè)器預(yù)測(cè)的訓(xùn)練集

05

喜}g

有一0

05

R一0.984R一0.914

2,驗(yàn)證集R一0.9863,測(cè)試集1,總體R一0.9690,回歸預(yù)測(cè)結(jié)果很好。

Compressive

芎e‘

-0.5Target

從圖4可以看出,Concrete

Strength數(shù)據(jù)集預(yù)測(cè)誤差值中,強(qiáng)預(yù)測(cè)器預(yù)測(cè)誤差

state

Figure7

Regression

ofComputerHardware明顯小于弱預(yù)測(cè)器預(yù)測(cè)誤差,強(qiáng)預(yù)測(cè)器整體預(yù)測(cè)誤差較小,預(yù)測(cè)結(jié)果較好。從圖6可以看出,Con-

crete

圖7ComputerHardware回歸狀態(tài)圖

Computer

Hardware數(shù)據(jù)集測(cè)預(yù)誤差如表5

Compressive

Compressive

Strength數(shù)據(jù)集訓(xùn)練的誤差均

所示,Concrete表7所示。

Strength數(shù)據(jù)集預(yù)測(cè)

方下降曲線(xiàn)在第15步時(shí)達(dá)到最好的驗(yàn)證集效果為

0.002

誤差如表6所示,預(yù)測(cè)結(jié)果平均誤差絕對(duì)值對(duì)比如

1,誤差曲線(xiàn)開(kāi)始趨于平緩,誤差值基本不再

發(fā)生變化,效果較好。從圖8可以看出,強(qiáng)預(yù)測(cè)器

 

 

下載地址:73Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)研究_圖文.Doc

  【】

最新搜索

Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)研究_圖文

幼兒園師帶徒協(xié)議書(shū)

小學(xué)漢語(yǔ)拼音字母表卡片(四線(xiàn)格版)03

52替魏延辯誣

962011年時(shí)事政治(國(guó)內(nèi)外)[1]

銷(xiāo)售精英激勵(lì)與實(shí)戰(zhàn)技能提升15

18拳擊比賽的技巧

四五六單元上冊(cè)教案語(yǔ)文71

71二年級(jí)上豎式計(jì)算

100年后45


  本文關(guān)鍵詞:Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)研究,由筆耕文化傳播整理發(fā)布。



本文編號(hào):176400

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/rengongzhinen/176400.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)c31c1***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com