資源描述:
《多變量系統(tǒng)隨機梯度辨識方法比較研究》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在行業(yè)資料-天天文庫。
1、第8卷第3期2008年2月科學(xué)技術(shù)與工程Vol.8No.3Feb.2008167121819(2008)320776203ScienceTechnologyandEngineeringZ2008Sci.Tech.Engng.多變量系統(tǒng)隨機梯度辨識方法比較研究袁平丁峰(江南大學(xué)控制科學(xué)與工程研究中心,無錫214122)摘要針對工業(yè)中廣泛存在的多變量系統(tǒng),研究了辨識這類系統(tǒng)的遺忘梯度辨識算法,分子系統(tǒng)遺忘梯度辨識算法和遞階遺忘梯度辨識算法,對這三種算法的計算量進(jìn)行了比較分析,并給出了仿真例子。關(guān)鍵詞最小二乘隨機梯度遞階辨識多變量系統(tǒng)中圖法分類號TP271;文獻(xiàn)標(biāo)志碼A
2、rm到目前為止,多變量辨識方法比較多,比如最(1)式中u(t)∈和y(t)∈分別是系統(tǒng)輸入和小二乘算法、隨機梯度算法、輔助變量算法、極大似m1輸出向量,v(t)∈為零均值白噪聲向量,αi∈和然算法等等,這么多算法究竟哪個計算量更小,收m×rQi∈分別是待辨識的系統(tǒng)參數(shù)和參數(shù)矩陣。斂性能更好,實用性更強,誰優(yōu)誰劣究竟如何評判,定義參數(shù)矩陣θ、參數(shù)向量為α、輸入信息向量這是問題的關(guān)鍵。不過理論上很難從多方面判斷φ(t)和輸出信息矩陣ψ(t)分別為算法的優(yōu)劣和實用性,可通過具體的仿真例子為辨Tm×n0θ∶=[Q1,Q2,?,Qn]∈,n0∶=nr,識算法的選擇作理論上的
3、指導(dǎo)。本文用隨機梯度α∶=[α,α,?,α]T∈n,12n搜索原理或隨機逼近原理,研究了遺忘梯度算法,φ(t)∶=[uT(t),uT(t-1),?,uT(t-n)]T∈n0,子系統(tǒng)遺忘梯度算法和遞階遺忘梯度算法,并通過ψ(t)∶=[y(t-1),y(t-2),?,y(t-n)]∈m×n。仿真比較研究它們的估計精度的高低和收斂性能因此,可以得到隨機系統(tǒng)辨識模型,的好壞,使算法能更好的指導(dǎo)實際的應(yīng)用。y(t)+ψ(t)α=θTφ(t)+υ(t)(2)1多變量系統(tǒng)辨識模型2梯度辨識算法一個狀態(tài)空間描述的多變量系統(tǒng),化為傳遞矩n辨識模型(2)式既包含一個參數(shù)向量α∈,陣描
4、述,經(jīng)過參數(shù)化可以化為下列形式的差分Tm×n0又包含了一個參數(shù)矩陣θ∈,使得傳統(tǒng)的辨[1]方程,識方法,如遞推最小二乘算法(RLS)和隨機梯度算nny(t)+∑αiy(t-i)=∑Qiu(t-i)+v(t)(1)法(SG)等,不能直接辨識這模型的參數(shù)向量和參數(shù)i=1i=1[2]矩陣。一種直觀的方案是,將該系統(tǒng)重新參數(shù)化,得到一個包含參數(shù)向量α與參數(shù)矩陣θ所有元2007年10月22日收到國家自然科學(xué)基金項目(60574051)、n+mn0的高維參數(shù)向量;∈。另一種方案是,把辨江蘇省自然科學(xué)(BK2007017)資助識模型(2)式按照輸出的數(shù)目分解為m個子系統(tǒng),第一作
5、者簡介:袁平(1984—),女,江蘇江都人,碩士生,研究方向:系統(tǒng)辨識與參數(shù)估計。E2mail:nyp506@163.com。然后分別辨識每個子系統(tǒng)的參數(shù)向量。還有一種3方案是,采用遞階辨識原理,直接辨識參數(shù)向量α∈通信作者簡介:丁鋒(1963—),男,湖北廣水人,博士,博士生導(dǎo)師。研究方向:系統(tǒng)辨識、過程控制、多率系統(tǒng)。E2mail:fding@n與參數(shù)矩陣θ∈n0×m,這種方法計算量最小。jiangnan.edu.cn。在這三種辨識方案中,都可以采用最小二乘優(yōu)化原3期袁平,等:多變量系統(tǒng)隨機梯度辨識方法比較研究777理和隨機梯度搜索原理(或隨機逼近原理),來研
6、究個元,θj表示參數(shù)矩陣θ第j列。辨識模型(2)式可相應(yīng)的辨識方法。限于篇幅,本文只介紹基于隨機以分解為m個子系統(tǒng),T梯度的辨識方法。下面分別介紹這幾種辨識方案yj(t)=-ψj(t)α+φ(t)θj+vj(t)=∶和具體辨識算法,并比較各種方法的優(yōu)缺點。φj(t);j+vj(t),j=1,2,?,m(5)2.1隨機梯度算法(5)式中第j個子系統(tǒng)的信息向量和參數(shù)向量分先引入一些符號。設(shè)Im是m×m單位陣:別為2T(t)=[-ψ(t),φT1×(n+n0)‖X‖∶=tr[XX],á表示Kronecker積或直積,7、按次序排成的向量。;j=[α,θj]∈。定義擴展的參數(shù)向量和擴展的輸入輸出信息定義和極小化m個準(zhǔn)則函數(shù)Jj(α,θj)∶=2矩陣分別為‖yj(t)-φj(t);j‖,可以得到每個子系統(tǒng)的帶遺αn+mn0忘因子隨機梯度算法,簡稱子系統(tǒng)遺忘梯度算法(S2;∶=∈,Tcol[θ]FG),Φ(t)∶=[-ψ(t),φT(t)áIm×(n+mn0)Tm]∈。8、‖φ(t)