資源描述:
《最新BP神經(jīng)網(wǎng)絡(luò)及簡單示例教學(xué)講義ppt課件.ppt》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫。
1、BP神經(jīng)網(wǎng)絡(luò)及簡單示例神經(jīng)網(wǎng)絡(luò)淺嘗神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識常用函數(shù)介紹案例——蠓蟲分類神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識構(gòu)成:大量簡單的基本元件——神經(jīng)元相互連接工作原理:模擬生物的神經(jīng)處理信息的方式功能:進行信息的并行處理和非線性轉(zhuǎn)化特點:比較輕松地實現(xiàn)非線性映射過程具有大規(guī)模的計算能力神經(jīng)元結(jié)構(gòu)模型x1x2xjx3xnyi可以看出神經(jīng)元一般表現(xiàn)為一個多輸入、單輸出的非線性器件xj為輸入信號,為閾值,表示與神經(jīng)元xj連接的權(quán)值yi表示輸出值傳遞函數(shù)閾值型線性型S型神經(jīng)網(wǎng)絡(luò)的互連模式神經(jīng)元分層排列,分別組成輸入層、中間層(也叫隱含層,可以
2、由若干層組成)和輸出層。前向網(wǎng)絡(luò):輸入層輸出層中間層特點:每層只接受前一層的信息,沒有反饋。如:感知器網(wǎng)絡(luò)和BP神經(jīng)網(wǎng)絡(luò)有反饋的前向神經(jīng)網(wǎng)絡(luò):特點:輸出層對輸入層有反饋信息。如:認知機和回歸BP網(wǎng)絡(luò)。層內(nèi)有互相結(jié)合的前向網(wǎng)絡(luò):特點:可以實現(xiàn)同一層內(nèi)神經(jīng)元之間的橫向抑制或興奮作用相互結(jié)合型網(wǎng)絡(luò):特點:任意兩個神經(jīng)元之間都可能有聯(lián)系BP神經(jīng)網(wǎng)絡(luò)多層前饋神經(jīng)網(wǎng)絡(luò),信號向前傳播,誤差向后傳播。輸入層輸出層中間層ijk輸入層輸出層中間層ijk中間層:輸入輸出輸入層輸出層中間層ijk輸出層:輸入輸出輸入層輸出層中間層ijk思
3、路:1、觸角長和翼長作為輸入信息,分別記為x1,x2。目標(biāo)輸出:(0,1)、(1,0)。Af類記為(1,0),Apf類記為(0,1)。輸入層輸出層中間層ijk輸入層輸出層中間層ijk2、通過已知樣本訓(xùn)練出合適的權(quán)值使輸出為(0,1)或(1,0)。3、將待區(qū)分的蠓蟲數(shù)據(jù)輸入網(wǎng)絡(luò),求值。權(quán)值求法:向后傳播法理想輸出Af類(1,0),Apf類(0,1)記為{Tis}則有誤差:使得E(w)最小的作為所需的權(quán)值傳遞函數(shù)(激活函數(shù))logsig(S型函數(shù)):MATLAB按此函數(shù)計算:調(diào)用格式:A=logsig(N)如:n=-
4、10:0.1:10a=logsig(n)plot(n,a)gridon圖形如下:tansig(雙曲正切S型傳遞函數(shù)):調(diào)用格式:A=tansig(n)如:n=-10:0.1:10a=tansig(n)plot(n,a)gridon如右圖所示newff創(chuàng)建一個BP網(wǎng)絡(luò),其調(diào)用格式為:net=newffnet=newff(PR,[S1S2…SN1],{TF1TF2…TFN1},BTF,BLF,PF)其中,net=newff:用于在對話框中創(chuàng)建一個BP網(wǎng)絡(luò)PR:由每組輸入(共有R組輸入)元素的最大值和最小值組成的R×2
5、維的矩陣;Si:第i層的長度,共計N1層TFi:第i層的傳遞函數(shù),默認為“tansig”BTF:BP網(wǎng)絡(luò)的訓(xùn)練函數(shù),默認為“trainlm”;BLF:權(quán)值和閾值的BP學(xué)習(xí)算法,默認為“l(fā)earngdm”PF:網(wǎng)絡(luò)的性能函數(shù),默認為“mse”常用函數(shù)train用于對神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練。調(diào)用格式為:[net,tr,Y,E,Pf,Af]=train(NET,P,T,Pi,Ai)其中,NET:待訓(xùn)練的神經(jīng)網(wǎng)絡(luò);P:網(wǎng)絡(luò)的輸入信號;T:網(wǎng)絡(luò)的目標(biāo),默認值為0;Pi:初始的輸入延遲,默認為0;Ai:初始的層次延遲,默認為0;n
6、et:函數(shù)返回值,訓(xùn)練后的神經(jīng)網(wǎng)絡(luò);tr:函數(shù)返回值,訓(xùn)練記錄(包括步數(shù)和性能);Y:函數(shù)返回值,神經(jīng)網(wǎng)絡(luò)的輸出信號;E:函數(shù)返回值,神經(jīng)網(wǎng)絡(luò)的誤差;Pf:函數(shù)返回值,最終輸入延遲;Af:函數(shù)返回值,最終層延遲。神經(jīng)網(wǎng)絡(luò)仿真函數(shù)sim調(diào)用格式為:[Y,Pf,Af,E,perf]=sim(net,P,Pi,Ai,T)其中,Y:函數(shù)返回值,網(wǎng)絡(luò)輸出;Pf:函數(shù)返回值,最終輸出延遲;Af:函數(shù)返回值,最終的層延遲;E:函數(shù)返回值,網(wǎng)絡(luò)誤差;perf:函數(shù)返回值,網(wǎng)絡(luò)性能;net:待仿真的神經(jīng)網(wǎng)絡(luò);P:網(wǎng)絡(luò)輸入;Pi:初
7、始輸入延遲,默認為0;Ai:初始的層延遲,默認為0;T:網(wǎng)絡(luò)目標(biāo),默認為0.clearp1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08];p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.001.28,2.00;1.30,1.96];p=[p1;p2]';pr=minmax(p);goal=[ones(1,9),zeros(1,6);zeros(
8、1,9),ones(1,6)];plot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o')net=newff(pr,[3,2],{'logsig','logsig'});net=train(net,p,goal);x=[1.241.80;1.281.84;1.402.04]';y0=sim(net,p)y=sim(net,x)Thanks!