資源描述:
《模糊神經(jīng)網(wǎng)絡(luò)ppt課件.ppt》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫(kù)。
1、模糊神經(jīng)網(wǎng)絡(luò)ANN(ArtificialNeuralNetwork)和FLS(FuzzyLogicalNetwork)的比較:相同之處1)都是非數(shù)值型的非線性函數(shù)的逼近器、估計(jì)器、和動(dòng)態(tài)系統(tǒng);2)不需要數(shù)學(xué)模型進(jìn)行描述,但都可用數(shù)學(xué)工具進(jìn)行處理;3)都適合于VLSI、光電器件等硬件實(shí)現(xiàn)。不同之處:㈠工作機(jī)制方面:ANN——大量、高度連接,按樣板進(jìn)行學(xué)習(xí)FLS——按語(yǔ)言變量、通過(guò)隱含、推理和去模糊獲得結(jié)果。㈣應(yīng)用上:ANN——偏重于模式識(shí)別,分類(lèi)FLN——偏重于控制神經(jīng)模糊網(wǎng)絡(luò)——把ANN的學(xué)習(xí)機(jī)制和FLN的人類(lèi)思維和推理結(jié)合起來(lái)。㈡信
2、息處理基本單元方面:ANN——數(shù)值點(diǎn)樣本,xiyiFLN——模糊集合(Ai,Bi)㈢運(yùn)行模式方面:ANN——學(xué)習(xí)過(guò)程透明,不對(duì)結(jié)構(gòu)知識(shí)編碼FLN——不透明,對(duì)結(jié)構(gòu)知識(shí)進(jìn)行編碼,推理過(guò)程外界可知結(jié)合方式有3種:1)神經(jīng)模糊系統(tǒng)——用神經(jīng)元網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)模糊隸屬函數(shù)、模糊推理,基本上(本質(zhì)上)還是FLN。2)模糊神經(jīng)系統(tǒng)——神經(jīng)網(wǎng)絡(luò)模糊化,本質(zhì)上還是ANN。3)模糊-神經(jīng)混合系統(tǒng)——二者有機(jī)結(jié)合。●基于神經(jīng)網(wǎng)絡(luò)的模糊邏輯運(yùn)算①用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)隸屬函數(shù)②神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)模糊推理③神經(jīng)網(wǎng)絡(luò)的模糊建?!裼蒙窠?jīng)網(wǎng)絡(luò)實(shí)現(xiàn)隸屬函數(shù)wc和wg分別確定Sigmoi
3、d函數(shù)的中心和寬度,?S(x),?M(x),?L(x)組成大、中、小三個(gè)論域的隸屬函數(shù)。邏輯“與”可以用Softmin來(lái)實(shí)現(xiàn):●神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)模糊推理(NDF)解決模糊推理中二個(gè)問(wèn)題:①缺乏確定的方法選擇隸屬函數(shù);②缺乏學(xué)習(xí)功能校正推理規(guī)則。用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)T—S模型,稱(chēng)為神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)模糊推理(NDF).網(wǎng)絡(luò)由二部分組成:r為規(guī)則數(shù),As是前提的模糊集合.NNs是模型的函數(shù)結(jié)構(gòu),由BP網(wǎng)絡(luò)實(shí)現(xiàn).學(xué)習(xí)的網(wǎng)絡(luò)和訓(xùn)練的步驟82)將數(shù)據(jù)聚類(lèi).分成r類(lèi).即有r條規(guī)則.TRD的數(shù)據(jù)有Nt個(gè).3)訓(xùn)練規(guī)則的前提部分網(wǎng)絡(luò)NNm.。4)訓(xùn)練對(duì)應(yīng)于規(guī)則Rs的
4、后件部分(Then部分)NNs665)簡(jiǎn)化后件部分在NNS的輸入端,任意消去xp,比較誤差:6)最終輸出6●神經(jīng)網(wǎng)絡(luò)的模糊建模有三種模型:⑴后件為恒值:⑵后件為一階線性方程⑶后件為模糊變量應(yīng)用假定要辨識(shí)的系統(tǒng)為數(shù)據(jù)40對(duì),見(jiàn)表6.1評(píng)判指標(biāo):常數(shù)模型常數(shù)模型隸屬函數(shù)的變化非線性模型非線性模型隸屬函數(shù)的變化語(yǔ)言輸出模型語(yǔ)言輸出模型隸屬函數(shù)的變化●神經(jīng)網(wǎng)絡(luò)模糊化①模糊感知器精確劃分的問(wèn)題:每個(gè)分量都有同樣的“重要性”,用在分類(lèi)時(shí),當(dāng)分類(lèi)有重疊時(shí)(如圖),得不到很好的結(jié)果。模糊感知器的基本思想:給隸屬函數(shù)以一定的修正量,對(duì)隸屬度接近0.5的
5、樣本,在確定權(quán)值向量時(shí),給予較小的影響:模糊感知器算法的問(wèn)題:如何選擇m?如何給向量賦與模糊隸屬函數(shù)?3)算法的終止判據(jù).回答:1)m>1;如隸屬函數(shù)接近0.5.m》1;如隸屬函數(shù)大于0.5.2)給向量賦與模糊隸屬函數(shù)的規(guī)則:其中:3)算法停止的判據(jù):產(chǎn)生良好的結(jié)果.②模糊聯(lián)想存儲(chǔ)器(FAM)雙向聯(lián)想存貯器的模糊化。把雙向聯(lián)想存貯器的權(quán)矩陣變換成模糊集合的關(guān)系(關(guān)聯(lián))矩陣。(當(dāng)分類(lèi)錯(cuò)誤,不確定向量不再產(chǎn)生另一迭代)模糊關(guān)聯(lián)矩陣M確定有二種方法:1)相關(guān)最小編碼mij=Min(ai,bj)假定A=(0.20.50.91.0),B=(0.
6、90.50.6),則:2)相關(guān)乘積編碼現(xiàn)在看,如果有A能否“回憶”起B(yǎng)?A?M=B;B?MT=[0.20.50.90.9]=A’≠A.現(xiàn)在看,如果有A能否“回憶”起B(yǎng)?如果AT=(0001),則AT?M=B;如果AT=(1000)則AT?M=(0.180.10.12)只回憶起B(yǎng)的20%。由m個(gè)FAM組成的FAM系統(tǒng)。把m個(gè)關(guān)聯(lián)(Ak,Bk)分別存到存貯庫(kù)中,把m個(gè)記憶向量疊加起來(lái)。即:所記憶的隸屬向量,等于各記憶向量的加權(quán)和:如在輸出論域Y=(y1,y2,…,yp)需要一個(gè)單獨(dú)的輸出,則要去模糊:A并行地加于各聯(lián)想存貯器上。神經(jīng)模糊網(wǎng)
7、絡(luò)——神經(jīng)模糊控制器對(duì)任一節(jié)點(diǎn)i輸入與輸出的關(guān)系:輸入:輸出:●模糊自適應(yīng)學(xué)習(xí)控制網(wǎng)絡(luò)(FALCON)29第5層:學(xué)習(xí)(訓(xùn)練)目的:1)決定第2層和第4層中的隸屬函數(shù)中心mij和寬度σij2)決定第3層和第4層中的規(guī)則自組織學(xué)習(xí)a)輸入變量x1空間的劃分?T(x1)???T(x2)??…??T(xn)?=?T(x)??T(yi)?b)第4層處在自上至下的模式d)確定連接和模糊規(guī)則e)規(guī)則合并,減少規(guī)則1)有完全相同的結(jié)果2)前提一樣的規(guī)則3)其它前提的并,組成了某些輸入變量的整個(gè)術(shù)語(yǔ)的集合監(jiān)督學(xué)習(xí)階段●神經(jīng)-模糊網(wǎng)絡(luò)(控制器)的參數(shù)學(xué)
8、習(xí)(ANFIS)相應(yīng)的ANFIS網(wǎng)絡(luò)如圖示。隸屬函數(shù)為鐘形:要調(diào)節(jié)的參數(shù):對(duì)后件參數(shù),可以用Kalman濾波方法進(jìn)行計(jì)算,此時(shí),把后件參數(shù)排列成向量:一組線性方程求解。