《BP算法介紹》PPT課件

《BP算法介紹》PPT課件

ID:36637656

大?。?.10 MB

頁數(shù):73頁

時間:2019-05-09

《BP算法介紹》PPT課件_第1頁
《BP算法介紹》PPT課件_第2頁
《BP算法介紹》PPT課件_第3頁
《BP算法介紹》PPT課件_第4頁
《BP算法介紹》PPT課件_第5頁
資源描述:

《《BP算法介紹》PPT課件》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫。

1、BP神經(jīng)網(wǎng)絡(luò)基本原理Back-propagationArtificialNeuralNetworks2021/7/241人工神經(jīng)元模擬生物神經(jīng)元的一階特性。輸入:X=(x1,x2,…,xn)聯(lián)接權(quán):W=(w1,w2,…,wn)T網(wǎng)絡(luò)輸入:net=∑xiwi向量形式:net=XW2021/7/242人工神經(jīng)元的基本構(gòu)成xnwn∑x1w1x2w2net=XW…激活函數(shù)執(zhí)行對該神經(jīng)元所獲得的網(wǎng)絡(luò)輸入的變換,也可以稱為激勵函數(shù)、活化函數(shù):o=f(net)1、線性函數(shù)(LinerFunction)f(net)=k*net+c2021/7/243激活函數(shù)(Activati

2、onFunction)netoocγifnet≥θf(net)=k*netif

3、net

4、<θ-γifnet≤-θγ>0為一常數(shù),被稱為飽和值,為該神經(jīng)元的最大輸出。2021/7/2442、非線性斜面函數(shù)(RampFunction)2021/7/2452、非線性斜面函數(shù)(RampFunction)γ-γθ-θnetoβifnet>θf(net)=-γifnet≤θβ、γ、θ均為非負實數(shù),θ為閾值二值形式:1ifnet>θf(net)=0ifnet≤θ雙極形式:1ifnet>θf(net)=-1ifnet≤θ2021/7/2463、閾值函數(shù)(ThresholdFu

5、nction)階躍函數(shù)β2021/7/2473、閾值函數(shù)(ThresholdFunction)階躍函數(shù)-γθonet0壓縮函數(shù)(SquashingFunction)和邏輯斯特函數(shù)(LogisticFunction)。f(net)=a+b/(1+exp(-d*net))a,b,d為常數(shù)。它的飽和值為a和a+b。最簡單形式為:f(net)=1/(1+exp(-d*net))函數(shù)的飽和值為0和1。S形函數(shù)有較好的增益控制2021/7/2484、S形函數(shù)2021/7/2494、S形函數(shù)a+bo(0,c)netac=a+b/2生物神經(jīng)網(wǎng)六個基本特征神經(jīng)元及其聯(lián)接、信號傳

6、遞、訓(xùn)練、刺激與抑制、累積效果、閾值。人工神經(jīng)元的基本構(gòu)成2021/7/2410課內(nèi)容回顧xnwn∑x1w1x2w2net=XW…激活函數(shù)與M-P模型線性函數(shù)、非線性斜面函數(shù)、閾值函數(shù)S形函數(shù)M-P模型2021/7/2411上次課內(nèi)容回顧x2w2∑fo=f(net)xnwn…net=XWx1w12021/7/2412簡單單級網(wǎng)……x1x2…xno1o2omwnmw11w1mw2mwn1輸出層輸入層W=(wij)輸出層的第j個神經(jīng)元的網(wǎng)絡(luò)輸入記為netj:netj=x1w1j+x2w2j+…+xnwnj其中,1≤j≤m。取NET=(net1,net2,…,net

7、m)NET=XWO=F(NET)2021/7/2413簡單單級網(wǎng)2021/7/2414單級橫向反饋網(wǎng)輸出層x1o1w11w1mx2o2w2m………xnomwn1輸入層VV=(vij)NET=XW+OVO=F(NET)時間參數(shù)神經(jīng)元的狀態(tài)在主時鐘的控制下同步變化考慮X總加在網(wǎng)上的情況NET(t+1)=X(t)W+O(t)VO(t+1)=F(NET(t+1))O(0)=0考慮僅在t=0時加X的情況。穩(wěn)定性判定2021/7/2415單級橫向反饋網(wǎng)2021/7/2416多級網(wǎng)輸出層隱藏層輸入層o1o2om…x1x2xn………………層次劃分信號只被允許從較低層流向較高層

8、。層號確定層的高低:層號較小者,層次較低,層號較大者,層次較高。輸入層:被記作第0層。該層負責接收來自網(wǎng)絡(luò)外部的信息2021/7/2417輸出層隱藏層輸入層o1o2om…x1x2xn………………第j層:第j-1層的直接后繼層(j>0),它直接接受第j-1層的輸出。輸出層:它是網(wǎng)絡(luò)的最后一層,具有該網(wǎng)絡(luò)的最大層號,負責輸出網(wǎng)絡(luò)的計算結(jié)果。隱藏層:除輸入層和輸出層以外的其它各層叫隱藏層。隱藏層不直接接受外界的信號,也不直接向外界發(fā)送信號2021/7/2418輸出層隱藏層輸入層o1o2om…x1x2xn………………約定:輸出層的層號為該網(wǎng)絡(luò)的層數(shù):n層網(wǎng)絡(luò),或n級網(wǎng)

9、絡(luò)。第j-1層到第j層的聯(lián)接矩陣為第j層聯(lián)接矩陣,輸出層對應(yīng)的矩陣叫輸出層聯(lián)接矩陣。今后,在需要的時候,一般我們用W(j)表示第j層矩陣。2021/7/2419輸出層隱藏層輸入層o1o2om…x1x2xn………………W(1)W(2)W(3)W(h)2021/7/2420多級網(wǎng)層網(wǎng)絡(luò)輸出層隱藏層輸入層o1o2om…x1x2xn………………W(1)W(2)W(3)W(h)非線性激活函數(shù)F(X)=kX+CF3(F2(F1(XW(1))W(2))W(3))2021/7/2421多級網(wǎng)2021/7/2422循環(huán)網(wǎng)x1o1輸出層隱藏層輸入層x2o2omxn…………………如

10、果將輸出信號反饋到輸入端,就可構(gòu)成一個

當前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負責整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細閱讀文檔內(nèi)容,確認文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。