bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究分析

bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究分析

ID:34897064

大小:196.50 KB

頁(yè)數(shù):8頁(yè)

時(shí)間:2019-03-13

bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究分析_第1頁(yè)
bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究分析_第2頁(yè)
bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究分析_第3頁(yè)
bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究分析_第4頁(yè)
bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究分析_第5頁(yè)
資源描述:

《bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究分析》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫(kù)

1、個(gè)人收集整理僅供參考學(xué)習(xí)BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法地研究劉彩紅資助項(xiàng)目:西安工業(yè)大學(xué)北方信息工程學(xué)院院長(zhǎng)科研基金項(xiàng)目(BXXJJ-1112)作者簡(jiǎn)介:劉彩紅(1980-),女,陜西人,碩士研究生,研究方向?yàn)槿斯ど窠?jīng)網(wǎng)絡(luò)及其應(yīng)用.Email:rainbow_dd@sohu.com手機(jī):13609250662;(西安工業(yè)大學(xué)北方信息工程學(xué)院,西安)摘要:(目地)本文針對(duì)BP算法收斂速度慢地問題,提出一種改進(jìn)地BP算法.(方法)該算法結(jié)合生物神經(jīng)元學(xué)習(xí)與記憶形成地特點(diǎn),針對(duì)特定地訓(xùn)練樣本,只激發(fā)網(wǎng)絡(luò)中地部分神經(jīng)元以產(chǎn)生相應(yīng)地輸出,而未被激發(fā)地神經(jīng)元產(chǎn)生地輸出則與目標(biāo)輸出相差較大,那么我們只需要對(duì)未被激發(fā)地

2、神經(jīng)元權(quán)值閾值進(jìn)行調(diào)整.利用距離來度量訓(xùn)練樣本與神經(jīng)元權(quán)值之間地關(guān)系,可以找到未被激發(fā)地神經(jīng)元.所以本論文提出地算法是對(duì)局部神經(jīng)元權(quán)值閾值地調(diào)整,(結(jié)果)通過實(shí)驗(yàn)表明該算法有助于加快網(wǎng)絡(luò)地學(xué)習(xí)速度.b5E2RGbCAP關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò),學(xué)習(xí)算法,距離,權(quán)值閾值調(diào)整TheStudyofAlgorithmofBPNeuralNetworkLIUCai-hong(Xi’anTechnologicalUniversityNorthInstituteofInformationEngineering,Xi’anChina)p1EanqFDPwAbstract:Thepaperproposedanimp

3、rovedBPalgorithm.Accordingtothecharacteristicsofbiologicalneuroninlearningandmemoryformation,onlysomeneuronswerestimulatedtoproducetheoutputforthespecifictrainingsamples,whiletheotherpartoftheneuronsweren’tstimulated.Therearelargedifferencebetweenthispartoftheneuron’soutputandtarget,andthenweneedthi

4、spartneuronsweightandthresholdvaluetoadjust.Usetomeasurethedistancefromthetrainingsampleandtherelationshipbetweentheweightsofeachneuron,canfindnotstimulatedneurons.Thereforethealgorithmproposedinthispaperonlyadjusttheweightandthethresholdvalueofthelocalneurons,andthiscanacceleratethelearningspeedoft

5、henetwork.DXDiTa9E3dKeywords:BPNeuralNetwork,LearningAlgorithm,,Distance,WeightandThresholdAdjustmentRTCrpUDGiT1引言傳統(tǒng)BP算法是一種利用實(shí)際輸出與期望輸出之間地誤差對(duì)網(wǎng)絡(luò)地各層連接權(quán)值和各結(jié)點(diǎn)地閾值由后向前逐層進(jìn)行校正地一種監(jiān)督式學(xué)習(xí)方法.它根據(jù)最小二乘原理和梯度搜索技術(shù),將學(xué)習(xí)過程分為輸入樣本地正向傳播和誤差地反向傳播兩個(gè)階段.輸入樣本從輸入層傳遞給隱藏層各結(jié)點(diǎn),經(jīng)過各隱藏層用激勵(lì)函數(shù)逐層處理后傳遞給輸出層,若輸出層地實(shí)際輸出與期望輸出地誤差達(dá)不到預(yù)定要求,則將誤差沿著原連接通路

6、反向傳播,同時(shí)根據(jù)誤差來調(diào)整各層地連接權(quán)值和閾值,使實(shí)際輸出與期望輸出地誤差逐漸減小.傳統(tǒng)BP(BackPropagation)算法地性能依賴于初始條件,學(xué)習(xí)速度慢,學(xué)習(xí)過程易陷入局部極小.近年來,人們根據(jù)實(shí)際應(yīng)用地需要對(duì)傳統(tǒng)BP算法做了許多改進(jìn),主要有采用自適應(yīng)學(xué)習(xí)率、與遺傳算法結(jié)合[1-2]和可調(diào)隱層結(jié)構(gòu)[3-4]等,這些方法在一定程度上優(yōu)化了BP算法.但以往大多改進(jìn)算法,在誤差地反向傳播階段也就是訓(xùn)練地第二階段,是對(duì)所有神經(jīng)元地權(quán)值閾值都進(jìn)行修改地.針對(duì)不同地輸入,神經(jīng)網(wǎng)絡(luò)激發(fā)不同地神經(jīng)元,所以可以在訓(xùn)練地第二階段修改部分神經(jīng)元地權(quán)值閾值.但本文8/8個(gè)人收集整理僅供參考學(xué)習(xí)對(duì)此地研究目

7、前僅限于只有一個(gè)隱層地BP神經(jīng)網(wǎng)絡(luò).5PCzVD7HxA2基于局部權(quán)值閾值調(diào)整算法地改進(jìn)思想神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)地過程,實(shí)際上是根據(jù)一定地學(xué)習(xí)算法調(diào)節(jié)網(wǎng)絡(luò)中各連接權(quán)值地過程.這是因?yàn)?,神?jīng)網(wǎng)絡(luò)是通過神經(jīng)元之間地連接,來存儲(chǔ)信息或知識(shí)地[6].也就是說,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)得到地知識(shí)是存儲(chǔ)在連接權(quán)上地.并且依據(jù)生物神經(jīng)元學(xué)習(xí)與記憶形成地特點(diǎn)[5],針對(duì)特定地訓(xùn)練樣本,只激發(fā)網(wǎng)絡(luò)中地部分神經(jīng)元以產(chǎn)生相應(yīng)地輸出,而未被

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。