資源描述:
《BP神經(jīng)網(wǎng)絡的改進和MATLAB實現(xiàn).ppt》由會員上傳分享,免費在線閱讀,更多相關內容在應用文檔-天天文庫。
1、改進BP神經(jīng)網(wǎng)絡與MATLAB實現(xiàn)江西師范大學2012.6.111:BP神經(jīng)網(wǎng)絡的概述2:BP神經(jīng)網(wǎng)絡的標準訓練學習3:在MATLAB軟件上運行幾個程序4:基于Levenberg-Marquardt算法的學習優(yōu)化(阻尼最小二乘法)5:基于蟻群算法的初始權值優(yōu)化6:經(jīng)過4和5優(yōu)化后的仿真試驗(發(fā)動機性能趨勢分析和故障診斷中的應用)7:總結多元函數(shù)圖示一元函數(shù)X.R二元函數(shù)xyoR.fD.f.三元函數(shù)xyzo.R.fXXI矩形的面積S=x×y長方體體積V=x×y×z多元函數(shù)圖示xR..多元函數(shù)及其圖形多元函數(shù)及其圖形
2、BP神經(jīng)網(wǎng)絡模型激活函數(shù)必須處處可導一般都使用S型函數(shù)使用S型激活函數(shù)時BP網(wǎng)絡輸入與輸出關系輸入輸出BP神經(jīng)網(wǎng)絡模型輸出的導數(shù)根據(jù)S型激活函數(shù)的圖形可知,對神經(jīng)網(wǎng)絡進行訓練,應該將net的值盡量控制在收斂比較快的范圍內網(wǎng)絡結構輸入層有n個神經(jīng)元,隱含層有p個神經(jīng)元,輸出層有q個神經(jīng)元變量定義輸入向量;隱含層輸入向量;隱含層輸出向量;輸出層輸入向量;輸出層輸出向量;期望輸出向量;輸入層與中間層的連接權值:隱含層與輸出層的連接權值:隱含層各神經(jīng)元的閾值:輸出層各神經(jīng)元的閾值:樣本數(shù)據(jù)個數(shù):激活函數(shù):誤差函數(shù):第一步
3、,網(wǎng)絡初始化給各連接權值分別賦一個區(qū)間(-1,1)內的隨機數(shù),設定誤差函數(shù)e,給定計算精度值和最大學習次數(shù)M。第二步,隨機選取第個輸入樣本及對應期望輸出第三步,計算隱含層各神經(jīng)元的輸入和輸出第四步,利用網(wǎng)絡期望輸出和實際輸出,計算誤差函數(shù)對輸出層的各神經(jīng)元的偏導數(shù)。第五步,利用隱含層到輸出層的連接權值、輸出層的和隱含層的輸出計算誤差函數(shù)對隱含層各神經(jīng)元的偏導數(shù)第六步,利用輸出層各神經(jīng)元的和隱含層各神經(jīng)元的輸出來修正連接權值第七步,利用隱含層各神經(jīng)元的和輸入層各神經(jīng)元的輸入修正連接權。第八步,計算全局誤差第九步,判
4、斷網(wǎng)絡誤差是否滿足要求。當誤差達到預設精度或學習次數(shù)大于設定的最大次數(shù),則結束算法。否則,選取下一個學習樣本及對應的期望輸出,返回到第三步,進入下一輪學習。BP算法直觀解釋情況1的直觀表達當誤差對權值的偏導數(shù)大于零時,權值調整量為負,實際輸出大于期望輸出,權值向減少方向調整,使得實際輸出與期望輸出的差減少。whoe>0,此時Δwho<0BP算法直解釋情況2的直觀表達當誤差對權值的偏導數(shù)小于零時,權值調整量為正,實際輸出少于期望輸出,權值向增大方向調整,使得實際輸出與期望輸出的差減少。e<0,此時Δwho>0who
5、梯度下降法一、無約束優(yōu)化的古典分析法無約束優(yōu)化問題可表示為minf(x1,x2,…,xn)xi?R,i=1,2,…,n如果令x=(x1,x2,…,xn)T,則無約束優(yōu)化問題為minf(x)x?Rn關于f(x):當x=(x)時,f(x)是一條曲線;當x=(x1,x2)T時,f(x1,x2)是一個曲面;當x=(x1,x2,x3)T時,f(x1,x2,x3)是一個體密度(或類位勢函數(shù));當x=(x1,x2,…,xn)T時,f(x1,x2,…,xn)是一個超曲面。設函數(shù)f(x)=f(x1,...,xn)對所有變元都有一階
6、與二階連續(xù)偏導數(shù),則①稱n個一階偏導數(shù)構成的n維列向量為f.(x)的梯度,記作②稱滿足?f(x0)=0的點x0為函數(shù)f(x)的駐點或臨界點。③稱n2個二階偏導數(shù)構成的n階對稱矩陣為函數(shù)f(x)的海森(Hessian)矩陣,記為H(x)或?2f(x):綜上所述,多元函數(shù)f(x)=f(x1,x2,…,xn)的一階導數(shù)是它的梯度?f.(x),二階導數(shù)是它的Hessian矩陣?2f(x)。在最優(yōu)化方法的討論中這是兩個常用的概念。定理(最優(yōu)性條件)設n元函數(shù)y=f(x)對所有變元具有一階及二階連續(xù)偏導數(shù),則x0是f(x)極
7、小點的充分條件為?f(x0)=0,?2f(x0)>0(正定)而x0是f(x)極大點的充分條件為?f(x0)=0,?2f(x0)<0(負定)事實上,如果設?x=(?x1,…,?xn)T,則利用多元函數(shù)的泰勒展開式,我們有其中R為?x的高階無窮小,即R=o
8、
9、?x
10、
11、2。于是,當x0為函數(shù)f.(x)的駐點時可以得到于是,當?xi(i=1,…,n)足夠小時,上式右端的正負號完全由二次型?xT?2f(x0)?x決定,從而完全由Hessian矩陣?2f(x)的正(負)定性決定。注記:微積分中求一元函數(shù)和二元函數(shù)極值的方法,
12、是這個定理的特例。二、無約束優(yōu)化的梯度下降法對于無約束優(yōu)化問題minf(x)(1)x=(x1,x2,…,xn)T?Rn如果f(x)可微,根據(jù)古典分析的方法,可利用?f(x)=0(2)求駐點,然后再利用Hessian矩陣?2f.(x)來判定這些駐點是否極小值點,從而求出無約束優(yōu)化問題(1)的最優(yōu)解。但是,用古典分析的方法求解無約束優(yōu)化問題(1)實際上是行不通的,這是由于:(