資源描述:
《bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究分析》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫(kù)。
1、個(gè)人收集整理僅供參考學(xué)習(xí)BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法地研究劉彩紅資助項(xiàng)目:西安工業(yè)大學(xué)北方信息工程學(xué)院院長(zhǎng)科研基金項(xiàng)目(BXXJJ-1112)作者簡(jiǎn)介:劉彩紅(1980-),女,陜西人,碩士研究生,研究方向?yàn)槿斯ど窠?jīng)網(wǎng)絡(luò)及其應(yīng)用.Email:rainbow_dd@sohu.com手機(jī):13609250662;(西安工業(yè)大學(xué)北方信息工程學(xué)院,西安)摘要:(目地)本文針對(duì)BP算法收斂速度慢地問題,提出一種改進(jìn)地BP算法.(方法)該算法結(jié)合生物神經(jīng)元學(xué)習(xí)與記憶形成地特點(diǎn),針對(duì)特定地訓(xùn)練樣本,只激發(fā)網(wǎng)絡(luò)中地部分神經(jīng)元以產(chǎn)生相應(yīng)地輸出,而未被激發(fā)地神經(jīng)元產(chǎn)生地輸出則與目標(biāo)輸出相差較大,那么我們只需要對(duì)未被激發(fā)地
2、神經(jīng)元權(quán)值閾值進(jìn)行調(diào)整.利用距離來度量訓(xùn)練樣本與神經(jīng)元權(quán)值之間地關(guān)系,可以找到未被激發(fā)地神經(jīng)元.所以本論文提出地算法是對(duì)局部神經(jīng)元權(quán)值閾值地調(diào)整,(結(jié)果)通過實(shí)驗(yàn)表明該算法有助于加快網(wǎng)絡(luò)地學(xué)習(xí)速度.b5E2RGbCAP關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò),學(xué)習(xí)算法,距離,權(quán)值閾值調(diào)整TheStudyofAlgorithmofBPNeuralNetworkLIUCai-hong(Xi’anTechnologicalUniversityNorthInstituteofInformationEngineering,Xi’anChina)p1EanqFDPwAbstract:Thepaperproposedanimp
3、rovedBPalgorithm.Accordingtothecharacteristicsofbiologicalneuroninlearningandmemoryformation,onlysomeneuronswerestimulatedtoproducetheoutputforthespecifictrainingsamples,whiletheotherpartoftheneuronsweren’tstimulated.Therearelargedifferencebetweenthispartoftheneuron’soutputandtarget,andthenweneedthi
4、spartneuronsweightandthresholdvaluetoadjust.Usetomeasurethedistancefromthetrainingsampleandtherelationshipbetweentheweightsofeachneuron,canfindnotstimulatedneurons.Thereforethealgorithmproposedinthispaperonlyadjusttheweightandthethresholdvalueofthelocalneurons,andthiscanacceleratethelearningspeedoft
5、henetwork.DXDiTa9E3dKeywords:BPNeuralNetwork,LearningAlgorithm,,Distance,WeightandThresholdAdjustmentRTCrpUDGiT1引言傳統(tǒng)BP算法是一種利用實(shí)際輸出與期望輸出之間地誤差對(duì)網(wǎng)絡(luò)地各層連接權(quán)值和各結(jié)點(diǎn)地閾值由后向前逐層進(jìn)行校正地一種監(jiān)督式學(xué)習(xí)方法.它根據(jù)最小二乘原理和梯度搜索技術(shù),將學(xué)習(xí)過程分為輸入樣本地正向傳播和誤差地反向傳播兩個(gè)階段.輸入樣本從輸入層傳遞給隱藏層各結(jié)點(diǎn),經(jīng)過各隱藏層用激勵(lì)函數(shù)逐層處理后傳遞給輸出層,若輸出層地實(shí)際輸出與期望輸出地誤差達(dá)不到預(yù)定要求,則將誤差沿著原連接通路
6、反向傳播,同時(shí)根據(jù)誤差來調(diào)整各層地連接權(quán)值和閾值,使實(shí)際輸出與期望輸出地誤差逐漸減小.傳統(tǒng)BP(BackPropagation)算法地性能依賴于初始條件,學(xué)習(xí)速度慢,學(xué)習(xí)過程易陷入局部極小.近年來,人們根據(jù)實(shí)際應(yīng)用地需要對(duì)傳統(tǒng)BP算法做了許多改進(jìn),主要有采用自適應(yīng)學(xué)習(xí)率、與遺傳算法結(jié)合[1-2]和可調(diào)隱層結(jié)構(gòu)[3-4]等,這些方法在一定程度上優(yōu)化了BP算法.但以往大多改進(jìn)算法,在誤差地反向傳播階段也就是訓(xùn)練地第二階段,是對(duì)所有神經(jīng)元地權(quán)值閾值都進(jìn)行修改地.針對(duì)不同地輸入,神經(jīng)網(wǎng)絡(luò)激發(fā)不同地神經(jīng)元,所以可以在訓(xùn)練地第二階段修改部分神經(jīng)元地權(quán)值閾值.但本文8/8個(gè)人收集整理僅供參考學(xué)習(xí)對(duì)此地研究目
7、前僅限于只有一個(gè)隱層地BP神經(jīng)網(wǎng)絡(luò).5PCzVD7HxA2基于局部權(quán)值閾值調(diào)整算法地改進(jìn)思想神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)地過程,實(shí)際上是根據(jù)一定地學(xué)習(xí)算法調(diào)節(jié)網(wǎng)絡(luò)中各連接權(quán)值地過程.這是因?yàn)?,神?jīng)網(wǎng)絡(luò)是通過神經(jīng)元之間地連接,來存儲(chǔ)信息或知識(shí)地[6].也就是說,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)得到地知識(shí)是存儲(chǔ)在連接權(quán)上地.并且依據(jù)生物神經(jīng)元學(xué)習(xí)與記憶形成地特點(diǎn)[5],針對(duì)特定地訓(xùn)練樣本,只激發(fā)網(wǎng)絡(luò)中地部分神經(jīng)元以產(chǎn)生相應(yīng)地輸出,而未被