BP神經(jīng)網(wǎng)絡matlab實現(xiàn)的基本步驟

BP神經(jīng)網(wǎng)絡matlab實現(xiàn)的基本步驟

ID:37908877

大小:223.00 KB

頁數(shù):6頁

時間:2019-06-02

BP神經(jīng)網(wǎng)絡matlab實現(xiàn)的基本步驟_第1頁
BP神經(jīng)網(wǎng)絡matlab實現(xiàn)的基本步驟_第2頁
BP神經(jīng)網(wǎng)絡matlab實現(xiàn)的基本步驟_第3頁
BP神經(jīng)網(wǎng)絡matlab實現(xiàn)的基本步驟_第4頁
BP神經(jīng)網(wǎng)絡matlab實現(xiàn)的基本步驟_第5頁
資源描述:

《BP神經(jīng)網(wǎng)絡matlab實現(xiàn)的基本步驟》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫。

1、窗體頂端用戶名:??密碼:登錄窗體底端注冊藍天藍天?主頁博客相冊

2、個人檔案

3、好友

4、i貼吧?查看文章?【轉(zhuǎn)】BP神經(jīng)網(wǎng)絡matlab實現(xiàn)的基本步驟2011-05-1314:56轉(zhuǎn)載自wangyong1518最終編輯紫瀟同夢1、數(shù)據(jù)歸一化2、數(shù)據(jù)分類,主要包括打亂數(shù)據(jù)順序,抽取正常訓練用數(shù)據(jù)、變量數(shù)據(jù)、測試數(shù)據(jù)3、建立神經(jīng)網(wǎng)絡,包括設置多少層網(wǎng)絡(一般3層以內(nèi)既可以,每層的節(jié)點數(shù)(具體節(jié)點數(shù),尚無科學的模型和公式方法確定,可采用試湊法,但輸出層的節(jié)點數(shù)應和需要輸出的量個數(shù)相等),設置隱含層的傳輸函數(shù)等。關(guān)于網(wǎng)絡具體建立使用方法,在后幾節(jié)的例子中

5、將會說到。4、指定訓練參數(shù)進行訓練,這步非常重要,在例子中,將詳細進行說明5、完成訓練后,就可以調(diào)用訓練結(jié)果,輸入測試數(shù)據(jù),進行測試6、數(shù)據(jù)進行反歸一化7、誤差分析、結(jié)果預測或分類,作圖等數(shù)據(jù)歸一化問題歸一化的意義:首先說一下,在工程應用領域中,應用BP網(wǎng)絡的好壞最關(guān)鍵的仍然是輸入特征選擇和訓練樣本集的準備,若樣本集代表性差、矛盾樣本多、數(shù)據(jù)歸一化存在問題,那么,使用多復雜的綜合算法、多精致的網(wǎng)絡結(jié)構(gòu),建立起來的模型預測效果不會多好。若想取得實際有價值的應用效果,從最基礎的數(shù)據(jù)整理工作做起吧,會少走彎路的。歸一化是為了加快訓練網(wǎng)絡的收斂性,

6、具體做法是:1把數(shù)變?yōu)椋?,1)之間的小數(shù)主要是為了數(shù)據(jù)處理方便提出來的,把數(shù)據(jù)映射到0~1范圍之內(nèi)處理,更加便捷快速,應該歸到數(shù)字信號處理范疇之內(nèi)。2把有量綱表達式變?yōu)闊o量綱表達式歸一化是一種簡化計算的方式,即將有量綱的表達式,經(jīng)過變換,化為無量綱的表達式,成為純量比如,復數(shù)阻抗可以歸一化書寫:Z=R+jωL=R(1+jωL/R),復數(shù)部分變成了純數(shù)量了,沒有量綱。另外,微波之中也就是電路分析、信號系統(tǒng)、電磁波傳輸?shù)龋泻芏噙\算都可以如此處理,既保證了運算的便捷,又能凸現(xiàn)出物理量的本質(zhì)含義。神經(jīng)網(wǎng)絡歸一化方法:由于采集的各數(shù)據(jù)單位不一致,

7、因而須對數(shù)據(jù)進行[-1,1]歸一化處理,歸一化方法主要有如下幾種,供大家參考:1、線性函數(shù)轉(zhuǎn)換,表達式如下:復制內(nèi)容到剪貼板代碼:y=(x-MinValue)/(MaxValue-MinValue)說明:x、y分別為轉(zhuǎn)換前、后的值,MaxValue、MinValue分別為樣本的最大值和最小值。2、對數(shù)函數(shù)轉(zhuǎn)換,表達式如下:復制內(nèi)容到剪貼板代碼:y=log10(x)說明:以10為底的對數(shù)函數(shù)轉(zhuǎn)換。3、反余切函數(shù)轉(zhuǎn)換,表達式如下:復制內(nèi)容到剪貼板代碼:y=atan(x)*2/PImatlab中歸一化的實現(xiàn):matlab中的歸一化處理有五種方法,

8、只會其中一種就可以了,我喜歡用第4種,因為習慣和方便注意:第一組和第二組歸一化函數(shù)在Matlab7.0以上已遺棄,他們的用法相似,pre**是歸一化,post**是反歸一化,tram**是使用同樣的設置歸一化另外一組數(shù)據(jù)1.內(nèi)部函數(shù)premnmx、postmnmx、tramnmx,將數(shù)據(jù)歸一化到(-1,1)premnmx的語法格式是復制內(nèi)容到剪貼板代碼:[Pn,minp,maxp,Tn,mint,maxt]=premnmx(P,T)其中P,T分別為原始輸入和輸出數(shù)據(jù),minp和maxp分別為P中的最小值和最大值。mint和maxt分別為T的

9、最小值和最大值。我們在訓練網(wǎng)絡時,如果所用的是經(jīng)過歸一化的樣本數(shù)據(jù),那么以后使用網(wǎng)絡時所用的新數(shù)據(jù)也應該和樣本數(shù)據(jù)接受相同的預處理,這就要用到tramnmx,換句話說使用同一個歸一化設置(setting)歸一化另外一組數(shù)據(jù)。如下所示:復制內(nèi)容到剪貼板代碼:[Pn]=tramnmx(P,minp,maxp)其中P和Pn分別為變換前、后的輸入數(shù)據(jù),maxp和minp分別為premnmx函返回的最大值maxp和最小值minp。2、prestd、poststd、trastd歸化數(shù)據(jù)到(0,1)用法與1差不多。詳細可以helpprestd。上述兩種方

10、法是可以相互轉(zhuǎn)化的,比如,第一種歸化后的數(shù)據(jù)為p,則(1+p)./2的結(jié)果就是第二種了3、mapminmax()將數(shù)據(jù)歸一化到(-1,1),是6.5中**mnmx系列的替換函數(shù)該函數(shù)同時可以執(zhí)行歸一化、反歸一化和歸一化其他數(shù)據(jù)的功能,具體看幫助和后面的實例復制內(nèi)容到剪貼板代碼:%歸一化數(shù)據(jù)輸入為p,輸出為t[normInput,ps]=mapminmax(p);[normTarget,ts]=mapminmax(t);%反歸一化trainOutput=mapminmax('reverse',normTrainOutput,ts);train

11、Insect=mapminmax('reverse',trainSamples.T,ts);validateOutput=mapminmax('reverse',normVali

當前文檔最多預覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當前文檔最多預覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學公式或PPT動畫的文件,查看預覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負責整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細閱讀文檔內(nèi)容,確認文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。