用matlab編bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序

用matlab編bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序

ID:33503628

大?。?78.00 KB

頁(yè)數(shù):22頁(yè)

時(shí)間:2019-02-26

用matlab編bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序_第1頁(yè)
用matlab編bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序_第2頁(yè)
用matlab編bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序_第3頁(yè)
用matlab編bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序_第4頁(yè)
用matlab編bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序_第5頁(yè)
資源描述:

《用matlab編bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。

1、求用matlab編BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序求一用matlab編的程序P=[。。。];輸入T=[。。。];輸出%創(chuàng)建一個(gè)新的前向神經(jīng)網(wǎng)絡(luò)net_1=newff(minmax(P),[10,1],{'tansig','purelin'},'traingdm')%當(dāng)前輸入層權(quán)值和閾值inputWeights=net_1.IW{1,1}inputbias=net_1.b{1}%當(dāng)前網(wǎng)絡(luò)層權(quán)值和閾值layerWeights=net_1.LW{2,1}layerbias=net_1.b{2}%設(shè)置訓(xùn)練參數(shù)net_1.trainParam.show=50;net_1.trainParam.lr=0.

2、05;net_1.trainParam.mc=0.9;net_1.trainParam.epochs=10000;net_1.trainParam.goal=1e-3;%調(diào)用TRAINGDM算法訓(xùn)練BP網(wǎng)絡(luò)[net_1,tr]=train(net_1,P,T);%對(duì)BP網(wǎng)絡(luò)進(jìn)行仿真A=sim(net_1,P);%計(jì)算仿真誤差E=T-A;MSE=mse(E)x=[。。。]';%測(cè)試sim(net_1,x)%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%不可能啊我2009?28   對(duì)初學(xué)神經(jīng)網(wǎng)絡(luò)者的小提示第二步:掌握如下算法:2.最小均方誤差,這個(gè)原理是下面提到的神經(jīng)

3、網(wǎng)絡(luò)學(xué)習(xí)算法的理論核心,入門(mén)者要先看《高等數(shù)學(xué)》(高等教育出版社,同濟(jì)大學(xué)版)第8章的第十節(jié):“最小二乘法”。3.在第2步的基礎(chǔ)上看Hebb學(xué)習(xí)算法、SOM和K-近鄰算法,上述算法都是在最小均方誤差基礎(chǔ)上的改進(jìn)算法,參考書(shū)籍是《神經(jīng)網(wǎng)絡(luò)原理》(機(jī)械工業(yè)出版社,SimonHaykin著,中英文都有)、《人工神經(jīng)網(wǎng)絡(luò)與模擬進(jìn)化計(jì)算》(清華大學(xué)出版社,閻平凡,張長(zhǎng)水著)、《模式分類(lèi)》(機(jī)械工業(yè)出版社,  RichardO.Duda等著,中英文都有)、《神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)》(機(jī)械工業(yè)出版社,MartinT.Hargan等著,中英文都有)。4.ART(自適應(yīng)諧振理論),該算法的最通俗易懂的讀物就是

4、《神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)》(機(jī)械工業(yè)出版社,MartinT.Hargan等著,中英文都有)的第15和16章。若看理論分析較費(fèi)勁可直接編程實(shí)現(xiàn)一下16.2.7節(jié)的ART1算法小節(jié)中的算法.4.BP算法,初學(xué)者若對(duì)誤差反傳的分析過(guò)程理解吃力可先跳過(guò)理論分析和證明的內(nèi)容,直接利用最后的學(xué)習(xí)規(guī)則編個(gè)小程序并測(cè)試,建議看《機(jī)器學(xué)習(xí)》(機(jī)械工業(yè)出版社,TomM.Mitchell著,中英文都有)的第4章和《神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)》(機(jī)械工業(yè)出版社,MartinT.Hargan等著,中英文都有)的第11章。BP神經(jīng)網(wǎng)絡(luò)Matlab實(shí)例(1)分類(lèi):Matlab實(shí)例采用Matlab工具箱函數(shù)建立神經(jīng)網(wǎng)絡(luò),對(duì)一些基本的神經(jīng)

5、網(wǎng)絡(luò)參數(shù)進(jìn)行了說(shuō)明,深入了解參考Matlab幫助文檔。%例1采用動(dòng)量梯度下降算法訓(xùn)練BP網(wǎng)絡(luò)。%訓(xùn)練樣本定義如下:%輸入矢量為?%p=[-1-231%??-115-3]%目標(biāo)矢量為?t=[-1-111]closeallclearclc%---------------------------------------------------------------%NEWFF——生成一個(gè)新的前向神經(jīng)網(wǎng)絡(luò),函數(shù)格式:%net=newff(PR,[S1S2...SNl],{TF1TF2...TFNl},BTF,BLF,PF)takes,%PR--Rx2matrixofminandmaxva

6、luesforRinputelements%(對(duì)于R維輸入,PR是一個(gè)Rx2的矩陣,每一行是相應(yīng)輸入的邊界值)%Si--第i層的維數(shù)%TFi--第i層的傳遞函數(shù),default='tansig'%BTF--反向傳播網(wǎng)絡(luò)的訓(xùn)練函數(shù),default='traingdx'%BLF--反向傳播網(wǎng)絡(luò)的權(quán)值/閾值學(xué)習(xí)函數(shù),default='learngdm'%PF--性能函數(shù),default='mse'%---------------------------------------------------------------%TRAIN——對(duì)BP神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,函數(shù)格式:%train(N

7、ET,P,T,Pi,Ai,VV,TV),輸入?yún)?shù):%net--所建立的網(wǎng)絡(luò)%P--網(wǎng)絡(luò)的輸入%T--網(wǎng)絡(luò)的目標(biāo)值,default=zeros%Pi--初始輸入延遲,default=zeros%Ai--初始網(wǎng)絡(luò)層延遲,default=zeros%VV--驗(yàn)證向量的結(jié)構(gòu),default=[]%TV--測(cè)試向量的結(jié)構(gòu),default=[]%返回值:%net--訓(xùn)練之后的網(wǎng)絡(luò)%TR--訓(xùn)練記錄(訓(xùn)練次數(shù)及每次訓(xùn)練的誤差)%Y--網(wǎng)絡(luò)輸出%E--網(wǎng)絡(luò)誤差%Pf--最終輸入延遲%

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫(huà)的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。