bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究

bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究

ID:34102321

大小:176.00 KB

頁(yè)數(shù):8頁(yè)

時(shí)間:2019-03-03

bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究_第1頁(yè)
bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究_第2頁(yè)
bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究_第3頁(yè)
bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究_第4頁(yè)
bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究_第5頁(yè)
資源描述:

《bp神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫(kù)。

1、.BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的研究劉彩紅資助項(xiàng)目:西安工業(yè)大學(xué)北方信息工程學(xué)院院長(zhǎng)科研基金項(xiàng)目(BXXJJ-1112)作者簡(jiǎn)介:劉彩紅(1980-),女,陜西人,碩士研究生,研究方向?yàn)槿斯ど窠?jīng)網(wǎng)絡(luò)及其應(yīng)用。Email:rainbow_dd@sohu.com手機(jī):13609250662;(西安工業(yè)大學(xué)北方信息工程學(xué)院,西安)摘要:(目的)本文針對(duì)BP算法收斂速度慢的問題,提出一種改進(jìn)的BP算法。(方法)該算法結(jié)合生物神經(jīng)元學(xué)習(xí)與記憶形成的特點(diǎn),針對(duì)特定的訓(xùn)練樣本,只激發(fā)網(wǎng)絡(luò)中的部分神經(jīng)元以產(chǎn)生相應(yīng)的輸出,而未被激發(fā)的神經(jīng)元產(chǎn)生的輸出則與目標(biāo)輸出相差較大,那么我們只需要對(duì)未被激發(fā)的神經(jīng)元權(quán)值閾

2、值進(jìn)行調(diào)整。利用距離來(lái)度量訓(xùn)練樣本與神經(jīng)元權(quán)值之間的關(guān)系,可以找到未被激發(fā)的神經(jīng)元。所以本論文提出的算法是對(duì)局部神經(jīng)元權(quán)值閾值的調(diào)整,(結(jié)果)通過實(shí)驗(yàn)表明該算法有助于加快網(wǎng)絡(luò)的學(xué)習(xí)速度。關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò),學(xué)習(xí)算法,距離,權(quán)值閾值調(diào)整TheStudyofAlgorithmofBPNeuralNetworkLIUCai-hong(Xi’anTechnologicalUniversityNorthInstituteofInformationEngineering,Xi’anChina)Abstract:ThepaperproposedanimprovedBPalgorithm.Acco

3、rdingtothecharacteristicsofbiologicalneuroninlearningandmemoryformation,onlysomeneuronswerestimulatedtoproducetheoutputforthespecifictrainingsamples,whiletheotherpartoftheneuronsweren’tstimulated.Therearelargedifferencebetweenthispartoftheneuron’soutputandtarget,andthenweneedthispartneuronsweig

4、htandthresholdvaluetoadjust.Usetomeasurethedistancefromthetrainingsampleandtherelationshipbetweentheweightsofeachneuron,canfindnotstimulatedneurons.Thereforethealgorithmproposedinthispaperonlyadjusttheweightandthethresholdvalueofthelocalneurons,andthiscanacceleratethelearningspeedofthenetwork.K

5、eywords:BPNeuralNetwork,LearningAlgorithm,,Distance,WeightandThresholdAdjustment1引言傳統(tǒng)BP算法是一種利用實(shí)際輸出與期望輸出之間的誤差對(duì)網(wǎng)絡(luò)的各層連接權(quán)值和各結(jié)點(diǎn)的閾值由后向前逐層進(jìn)行校正的一種監(jiān)督式學(xué)習(xí)方法。它根據(jù)最小二乘原理和梯度搜索技術(shù),將學(xué)習(xí)過程分為輸入樣本的正向傳播和誤差的反向傳播兩個(gè)階段。輸入樣本從輸入層傳遞給隱藏層各結(jié)點(diǎn),經(jīng)過各隱藏層用激勵(lì)函數(shù)逐層處理后傳遞給輸出層,若輸出層的實(shí)際輸出與期望輸出的誤差達(dá)不到預(yù)定要求,則將誤差沿著原連接通路反向傳播,同時(shí)根據(jù)誤差來(lái)調(diào)整各層的連接權(quán)值和閾值,使

6、實(shí)際輸出與期望輸出的誤差逐漸減小。傳統(tǒng)BP(BackPropagation)算法的性能依賴于初始條件,學(xué)習(xí)速度慢,學(xué)習(xí)過程易陷入局部極小。近年來(lái),人們根據(jù)實(shí)際應(yīng)用的需要對(duì)傳統(tǒng)BP算法做了許多改進(jìn),主要有采用自適應(yīng)學(xué)習(xí)率、與遺傳算法結(jié)合[1-2]和可調(diào)隱層結(jié)構(gòu)[3-4]等,這些方法在一定程度上優(yōu)化了BP算法。但以往大多改進(jìn)算法,在誤差的反向傳播階段也就是訓(xùn)練的第二階段,是對(duì)所有神經(jīng)元的權(quán)值閾值都進(jìn)行修改的。針對(duì)不同的輸入,神經(jīng)網(wǎng)絡(luò)激發(fā)不同的神經(jīng)元,所以可以在訓(xùn)練的第二階段修改部分神經(jīng)元的權(quán)值閾值。但本文...對(duì)此的研究目前僅限于只有一個(gè)隱層的BP神經(jīng)網(wǎng)絡(luò)。2基于局部權(quán)值閾值調(diào)整算法的改

7、進(jìn)思想神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的過程,實(shí)際上是根據(jù)一定的學(xué)習(xí)算法調(diào)節(jié)網(wǎng)絡(luò)中各連接權(quán)值的過程。這是因?yàn)椋窠?jīng)網(wǎng)絡(luò)是通過神經(jīng)元之間的連接,來(lái)存儲(chǔ)信息或知識(shí)的[6]。也就是說,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)得到的知識(shí)是存儲(chǔ)在連接權(quán)上的。并且依據(jù)生物神經(jīng)元學(xué)習(xí)與記憶形成的特點(diǎn)[5],針對(duì)特定的訓(xùn)練樣本,只激發(fā)網(wǎng)絡(luò)中的部分神經(jīng)元以產(chǎn)生相應(yīng)的輸出,而未被激發(fā)的神經(jīng)元產(chǎn)生的輸出則與目標(biāo)輸出相差較大,那么我們就需要對(duì)未被激發(fā)的神經(jīng)元的權(quán)值閾值進(jìn)行調(diào)整。對(duì)于一個(gè)神經(jīng)元是否被激發(fā),可以通過訓(xùn)練樣本和該神經(jīng)

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。