bp神經(jīng)網(wǎng)絡(luò)學習算法的研究

bp神經(jīng)網(wǎng)絡(luò)學習算法的研究

ID:32504471

大?。?75.00 KB

頁數(shù):8頁

時間:2019-02-09

bp神經(jīng)網(wǎng)絡(luò)學習算法的研究_第1頁
bp神經(jīng)網(wǎng)絡(luò)學習算法的研究_第2頁
bp神經(jīng)網(wǎng)絡(luò)學習算法的研究_第3頁
bp神經(jīng)網(wǎng)絡(luò)學習算法的研究_第4頁
bp神經(jīng)網(wǎng)絡(luò)學習算法的研究_第5頁
資源描述:

《bp神經(jīng)網(wǎng)絡(luò)學習算法的研究》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學術(shù)論文-天天文庫

1、.BP神經(jīng)網(wǎng)絡(luò)學習算法的研究劉彩紅資助項目:西安工業(yè)大學北方信息工程學院院長科研基金項目(BXXJJ-1112)作者簡介:劉彩紅(1980-),女,陜西人,碩士研究生,研究方向為人工神經(jīng)網(wǎng)絡(luò)及其應(yīng)用。Email:rainbow_dd@sohu.com手機:13609250662;(西安工業(yè)大學北方信息工程學院,西安)摘要:(目的)本文針對BP算法收斂速度慢的問題,提出一種改進的BP算法。(方法)該算法結(jié)合生物神經(jīng)元學習與記憶形成的特點,針對特定的訓練樣本,只激發(fā)網(wǎng)絡(luò)中的部分神經(jīng)元以產(chǎn)生相應(yīng)的輸出,而未被激發(fā)的神經(jīng)元產(chǎn)生的輸出則與

2、目標輸出相差較大,那么我們只需要對未被激發(fā)的神經(jīng)元權(quán)值閾值進行調(diào)整。利用距離來度量訓練樣本與神經(jīng)元權(quán)值之間的關(guān)系,可以找到未被激發(fā)的神經(jīng)元。所以本論文提出的算法是對局部神經(jīng)元權(quán)值閾值的調(diào)整,(結(jié)果)通過實驗表明該算法有助于加快網(wǎng)絡(luò)的學習速度。關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò),學習算法,距離,權(quán)值閾值調(diào)整TheStudyofAlgorithmofBPNeuralNetworkLIUCai-hong(Xi’anTechnologicalUniversityNorthInstituteofInformationEngineering,Xi’anC

3、hina)Abstract:ThepaperproposedanimprovedBPalgorithm.Accordingtothecharacteristicsofbiologicalneuroninlearningandmemoryformation,onlysomeneuronswerestimulatedtoproducetheoutputforthespecifictrainingsamples,whiletheotherpartoftheneuronsweren’tstimulated.Therearelargedi

4、fferencebetweenthispartoftheneuron’soutputandtarget,andthenweneedthispartneuronsweightandthresholdvaluetoadjust.Usetomeasurethedistancefromthetrainingsampleandtherelationshipbetweentheweightsofeachneuron,canfindnotstimulatedneurons.Thereforethealgorithmproposedinthis

5、paperonlyadjusttheweightandthethresholdvalueofthelocalneurons,andthiscanacceleratethelearningspeedofthenetwork.Keywords:BPNeuralNetwork,LearningAlgorithm,,Distance,WeightandThresholdAdjustment1引言傳統(tǒng)BP算法是一種利用實際輸出與期望輸出之間的誤差對網(wǎng)絡(luò)的各層連接權(quán)值和各結(jié)點的閾值由后向前逐層進行校正的一種監(jiān)督式學習方法。它根據(jù)最小二乘原理

6、和梯度搜索技術(shù),將學習過程分為輸入樣本的正向傳播和誤差的反向傳播兩個階段。輸入樣本從輸入層傳遞給隱藏層各結(jié)點,經(jīng)過各隱藏層用激勵函數(shù)逐層處理后傳遞給輸出層,若輸出層的實際輸出與期望輸出的誤差達不到預(yù)定要求,則將誤差沿著原連接通路反向傳播,同時根據(jù)誤差來調(diào)整各層的連接權(quán)值和閾值,使實際輸出與期望輸出的誤差逐漸減小。傳統(tǒng)BP(BackPropagation)算法的性能依賴于初始條件,學習速度慢,學習過程易陷入局部極小。近年來,人們根據(jù)實際應(yīng)用的需要對傳統(tǒng)BP算法做了許多改進,主要有采用自適應(yīng)學習率、與遺傳算法結(jié)合[1-2]和可調(diào)隱層

7、結(jié)構(gòu)[3-4]等,這些方法在一定程度上優(yōu)化了BP算法。但以往大多改進算法,在誤差的反向傳播階段也就是訓練的第二階段,是對所有神經(jīng)元的權(quán)值閾值都進行修改的。針對不同的輸入,神經(jīng)網(wǎng)絡(luò)激發(fā)不同的神經(jīng)元,所以可以在訓練的第二階段修改部分神經(jīng)元的權(quán)值閾值。但本文...對此的研究目前僅限于只有一個隱層的BP神經(jīng)網(wǎng)絡(luò)。2基于局部權(quán)值閾值調(diào)整算法的改進思想神經(jīng)網(wǎng)絡(luò)學習的過程,實際上是根據(jù)一定的學習算法調(diào)節(jié)網(wǎng)絡(luò)中各連接權(quán)值的過程。這是因為,神經(jīng)網(wǎng)絡(luò)是通過神經(jīng)元之間的連接,來存儲信息或知識的[6]。也就是說,神經(jīng)網(wǎng)絡(luò)學習得到的知識是存儲在連接權(quán)上的

8、。并且依據(jù)生物神經(jīng)元學習與記憶形成的特點[5],針對特定的訓練樣本,只激發(fā)網(wǎng)絡(luò)中的部分神經(jīng)元以產(chǎn)生相應(yīng)的輸出,而未被激發(fā)的神經(jīng)元產(chǎn)生的輸出則與目標輸出相差較大,那么我們就需要對未被激發(fā)的神經(jīng)元的權(quán)值閾值進行調(diào)整。對于一個神經(jīng)元是否被激發(fā),可以通過訓練樣本和該神經(jīng)

當前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負責整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細閱讀文檔內(nèi)容,確認文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。