BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法

BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法

ID:38501629

大?。?07.50 KB

頁(yè)數(shù):29頁(yè)

時(shí)間:2019-06-13

BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法_第1頁(yè)
BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法_第2頁(yè)
BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法_第3頁(yè)
BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法_第4頁(yè)
BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法_第5頁(yè)
資源描述:

《BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫(kù)。

1、2.4BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法概述Rumelhart,McClelland于1985年提出了BP網(wǎng)絡(luò)的誤差反向后傳BP(BackPropagation)學(xué)習(xí)算法BP算法基本原理利用輸出后的誤差來(lái)估計(jì)輸出層的直接前導(dǎo)層的誤差,再用這個(gè)誤差估計(jì)更前一層的誤差,如此一層一層的反傳下去,就獲得了所有其他各層的誤差估計(jì)。J.McClellandDavidRumelhart2.4.1BP神經(jīng)網(wǎng)絡(luò)模型三層BP網(wǎng)絡(luò)2.4.1BP神經(jīng)網(wǎng)絡(luò)模型激活函數(shù)必須處處可導(dǎo)一般都使用S型函數(shù)使用S型激活函數(shù)時(shí)BP網(wǎng)絡(luò)輸入與輸出關(guān)系輸入輸出2.4.1BP神經(jīng)網(wǎng)絡(luò)模型輸出的

2、導(dǎo)數(shù)根據(jù)S型激活函數(shù)的圖形可知,對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,應(yīng)該將net的值盡量控制在收斂比較快的范圍內(nèi)2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法學(xué)習(xí)的過(guò)程:神經(jīng)網(wǎng)絡(luò)在外界輸入樣本的刺激下不斷改變網(wǎng)絡(luò)的連接權(quán)值,以使網(wǎng)絡(luò)的輸出不斷地接近期望的輸出。學(xué)習(xí)的本質(zhì):對(duì)各連接權(quán)值的動(dòng)態(tài)調(diào)整學(xué)習(xí)規(guī)則:權(quán)值調(diào)整規(guī)則,即在學(xué)習(xí)過(guò)程中網(wǎng)絡(luò)中各神經(jīng)元的連接權(quán)變化所依據(jù)的一定的調(diào)整規(guī)則。2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法-算法思想學(xué)習(xí)的類型:有導(dǎo)師學(xué)習(xí)核心思想:將輸出誤差以某種形式通過(guò)隱層向輸入層逐層反傳學(xué)習(xí)的過(guò)程:信號(hào)的正向傳播誤差的反向傳播將誤差分?jǐn)偨o各層的所有單元---各層單

3、元的誤差信號(hào)修正各單元權(quán)值2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法-學(xué)習(xí)過(guò)程正向傳播:輸入樣本---輸入層---各隱層---輸出層判斷是否轉(zhuǎn)入反向傳播階段:若輸出層的實(shí)際輸出與期望的輸出(教師信號(hào))不符誤差反傳誤差以某種形式在各層表示----修正各層單元的權(quán)值網(wǎng)絡(luò)輸出的誤差減少到可接受的程度進(jìn)行到預(yù)先設(shè)定的學(xué)習(xí)次數(shù)為止2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法網(wǎng)絡(luò)結(jié)構(gòu)輸入層有n個(gè)神經(jīng)元,隱含層有p個(gè)神經(jīng)元,輸出層有q個(gè)神經(jīng)元變量定義輸入向量;隱含層輸入向量;隱含層輸出向量;輸出層輸入向量;輸出層輸出向量;期望輸出向量;2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法輸入層與中

4、間層的連接權(quán)值:隱含層與輸出層的連接權(quán)值:隱含層各神經(jīng)元的閾值:輸出層各神經(jīng)元的閾值:樣本數(shù)據(jù)個(gè)數(shù):激活函數(shù):誤差函數(shù):2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法第一步,網(wǎng)絡(luò)初始化給各連接權(quán)值分別賦一個(gè)區(qū)間(-1,1)內(nèi)的隨機(jī)數(shù),設(shè)定誤差函數(shù)e,給定計(jì)算精度值和最大學(xué)習(xí)次數(shù)M。第二步,隨機(jī)選取第個(gè)輸入樣本及對(duì)應(yīng)期望輸出2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法第三步,計(jì)算隱含層各神經(jīng)元的輸入和輸出2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法第四步,利用網(wǎng)絡(luò)期望輸出和實(shí)際輸出,計(jì)算誤差函數(shù)對(duì)輸出層的各神經(jīng)元的偏導(dǎo)數(shù)。2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法第五步,利用隱含層到輸出層的

5、連接權(quán)值、輸出層的和隱含層的輸出計(jì)算誤差函數(shù)對(duì)隱含層各神經(jīng)元的偏導(dǎo)數(shù)。2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法第六步,利用輸出層各神經(jīng)元的和隱含層各神經(jīng)元的輸出來(lái)修正連接權(quán)值。2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法第七步,利用隱含層各神經(jīng)元的和輸入層各神經(jīng)元的輸入修正連接權(quán)。2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法第八步,計(jì)算全局誤差第九步,判斷網(wǎng)絡(luò)誤差是否滿足要求。當(dāng)誤差達(dá)到預(yù)設(shè)精度或?qū)W習(xí)次數(shù)大于設(shè)定的最大次數(shù),則結(jié)束算法。否則,選取下一個(gè)學(xué)習(xí)樣本及對(duì)應(yīng)的期望輸出,返回到第三步,進(jìn)入下一輪學(xué)習(xí)。2.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法BP

6、算法直觀解釋情況一直觀表達(dá)當(dāng)誤差對(duì)權(quán)值的偏導(dǎo)數(shù)大于零時(shí),權(quán)值調(diào)整量為負(fù),實(shí)際輸出大于期望輸出,權(quán)值向減少方向調(diào)整,使得實(shí)際輸出與期望輸出的差減少。whoe>0,此時(shí)Δwho<02.4.2BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法BP算法直解釋情況二直觀表達(dá)當(dāng)誤差對(duì)權(quán)值的偏導(dǎo)數(shù)小于零時(shí),權(quán)值調(diào)整量為正,實(shí)際輸出少于期望輸出,權(quán)值向增大方向調(diào)整,使得實(shí)際輸出與期望輸出的差減少。e<0,此時(shí)Δwho>0who2.4.3BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的MATLAB實(shí)現(xiàn)MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能函數(shù)名功能newff()生成一個(gè)前饋BP網(wǎng)絡(luò)tansig()雙曲正切

7、S型(Tan-Sigmoid)傳輸函數(shù)logsig()對(duì)數(shù)S型(Log-Sigmoid)傳輸函數(shù)traingd()梯度下降BP訓(xùn)練函數(shù)2.4.3BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的MATLAB實(shí)現(xiàn)MATLAB中BP神經(jīng)網(wǎng)絡(luò)的重要函數(shù)和基本功能newff()功能建立一個(gè)前向BP網(wǎng)絡(luò)格式net=newff(PR,[S1S2...SN1],{TF1TF2...TFN1},BTF,BLF,PF)說(shuō)明net為創(chuàng)建的新BP神經(jīng)網(wǎng)絡(luò);PR為網(wǎng)絡(luò)輸入取向量取值范圍的矩陣;[S1S2…SNl]表示網(wǎng)絡(luò)隱含層和輸出層神經(jīng)元的個(gè)數(shù);{TFlTF2…TFN1}表示網(wǎng)絡(luò)隱含層和輸出

8、層的傳輸函數(shù),默認(rèn)為‘tansig’;BTF表示網(wǎng)絡(luò)的訓(xùn)練函數(shù),默認(rèn)為‘trainlm’;BLF表示網(wǎng)絡(luò)的權(quán)值學(xué)習(xí)函數(shù),默認(rèn)為‘learngdm’;PF表示性能數(shù),

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。