多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究

多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究

ID:38138816

大?。?53.50 KB

頁數(shù):3頁

時(shí)間:2019-05-25

多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究_第1頁
多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究_第2頁
多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究_第3頁
資源描述:

《多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在行業(yè)資料-天天文庫。

1、第8卷第3期2008年2月科學(xué)技術(shù)與工程Vol.8No.3Feb.2008167121819(2008)320776203ScienceTechnologyandEngineeringZ2008Sci.Tech.Engng.多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究袁平丁峰(江南大學(xué)控制科學(xué)與工程研究中心,無錫214122)摘要針對(duì)工業(yè)中廣泛存在的多變量系統(tǒng),研究了辨識(shí)這類系統(tǒng)的遺忘梯度辨識(shí)算法,分子系統(tǒng)遺忘梯度辨識(shí)算法和遞階遺忘梯度辨識(shí)算法,對(duì)這三種算法的計(jì)算量進(jìn)行了比較分析,并給出了仿真例子。關(guān)鍵詞最小二乘隨機(jī)梯度遞階辨識(shí)多變量系統(tǒng)中圖法分類號(hào)TP271;文獻(xiàn)標(biāo)志碼A

2、rm到目前為止,多變量辨識(shí)方法比較多,比如最(1)式中u(t)∈和y(t)∈分別是系統(tǒng)輸入和小二乘算法、隨機(jī)梯度算法、輔助變量算法、極大似m1輸出向量,v(t)∈為零均值白噪聲向量,αi∈和然算法等等,這么多算法究竟哪個(gè)計(jì)算量更小,收m×rQi∈分別是待辨識(shí)的系統(tǒng)參數(shù)和參數(shù)矩陣。斂性能更好,實(shí)用性更強(qiáng),誰優(yōu)誰劣究竟如何評(píng)判,定義參數(shù)矩陣θ、參數(shù)向量為α、輸入信息向量這是問題的關(guān)鍵。不過理論上很難從多方面判斷φ(t)和輸出信息矩陣ψ(t)分別為算法的優(yōu)劣和實(shí)用性,可通過具體的仿真例子為辨Tm×n0θ∶=[Q1,Q2,?,Qn]∈,n0∶=nr,識(shí)算法的選擇作理論上的

3、指導(dǎo)。本文用隨機(jī)梯度α∶=[α,α,?,α]T∈n,12n搜索原理或隨機(jī)逼近原理,研究了遺忘梯度算法,φ(t)∶=[uT(t),uT(t-1),?,uT(t-n)]T∈n0,子系統(tǒng)遺忘梯度算法和遞階遺忘梯度算法,并通過ψ(t)∶=[y(t-1),y(t-2),?,y(t-n)]∈m×n。仿真比較研究它們的估計(jì)精度的高低和收斂性能因此,可以得到隨機(jī)系統(tǒng)辨識(shí)模型,的好壞,使算法能更好的指導(dǎo)實(shí)際的應(yīng)用。y(t)+ψ(t)α=θTφ(t)+υ(t)(2)1多變量系統(tǒng)辨識(shí)模型2梯度辨識(shí)算法一個(gè)狀態(tài)空間描述的多變量系統(tǒng),化為傳遞矩n辨識(shí)模型(2)式既包含一個(gè)參數(shù)向量α∈,陣描

4、述,經(jīng)過參數(shù)化可以化為下列形式的差分Tm×n0又包含了一個(gè)參數(shù)矩陣θ∈,使得傳統(tǒng)的辨[1]方程,識(shí)方法,如遞推最小二乘算法(RLS)和隨機(jī)梯度算nny(t)+∑αiy(t-i)=∑Qiu(t-i)+v(t)(1)法(SG)等,不能直接辨識(shí)這模型的參數(shù)向量和參數(shù)i=1i=1[2]矩陣。一種直觀的方案是,將該系統(tǒng)重新參數(shù)化,得到一個(gè)包含參數(shù)向量α與參數(shù)矩陣θ所有元2007年10月22日收到國家自然科學(xué)基金項(xiàng)目(60574051)、n+mn0的高維參數(shù)向量;∈。另一種方案是,把辨江蘇省自然科學(xué)(BK2007017)資助識(shí)模型(2)式按照輸出的數(shù)目分解為m個(gè)子系統(tǒng),第一作

5、者簡介:袁平(1984—),女,江蘇江都人,碩士生,研究方向:系統(tǒng)辨識(shí)與參數(shù)估計(jì)。E2mail:nyp506@163.com。然后分別辨識(shí)每個(gè)子系統(tǒng)的參數(shù)向量。還有一種3方案是,采用遞階辨識(shí)原理,直接辨識(shí)參數(shù)向量α∈通信作者簡介:丁鋒(1963—),男,湖北廣水人,博士,博士生導(dǎo)師。研究方向:系統(tǒng)辨識(shí)、過程控制、多率系統(tǒng)。E2mail:fding@n與參數(shù)矩陣θ∈n0×m,這種方法計(jì)算量最小。jiangnan.edu.cn。在這三種辨識(shí)方案中,都可以采用最小二乘優(yōu)化原3期袁平,等:多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究777理和隨機(jī)梯度搜索原理(或隨機(jī)逼近原理),來研

6、究個(gè)元,θj表示參數(shù)矩陣θ第j列。辨識(shí)模型(2)式可相應(yīng)的辨識(shí)方法。限于篇幅,本文只介紹基于隨機(jī)以分解為m個(gè)子系統(tǒng),T梯度的辨識(shí)方法。下面分別介紹這幾種辨識(shí)方案yj(t)=-ψj(t)α+φ(t)θj+vj(t)=∶和具體辨識(shí)算法,并比較各種方法的優(yōu)缺點(diǎn)。φj(t);j+vj(t),j=1,2,?,m(5)2.1隨機(jī)梯度算法(5)式中第j個(gè)子系統(tǒng)的信息向量和參數(shù)向量分先引入一些符號(hào)。設(shè)Im是m×m單位陣:別為2T(t)=[-ψ(t),φT1×(n+n0)‖X‖∶=tr[XX],á表示Kronecker積或直積,

7、按次序排成的向量。;j=[α,θj]∈。定義擴(kuò)展的參數(shù)向量和擴(kuò)展的輸入輸出信息定義和極小化m個(gè)準(zhǔn)則函數(shù)Jj(α,θj)∶=2矩陣分別為‖yj(t)-φj(t);j‖,可以得到每個(gè)子系統(tǒng)的帶遺αn+mn0忘因子隨機(jī)梯度算法,簡稱子系統(tǒng)遺忘梯度算法(S2;∶=∈,Tcol[θ]FG),Φ(t)∶=[-ψ(t),φT(t)áIm×(n+mn0)Tm]∈。

8、‖φ(t)

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。