資源描述:
《多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在行業(yè)資料-天天文庫。
1、第8卷第3期2008年2月科學(xué)技術(shù)與工程Vol.8No.3Feb.2008167121819(2008)320776203ScienceTechnologyandEngineeringZ2008Sci.Tech.Engng.多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究袁平丁峰(江南大學(xué)控制科學(xué)與工程研究中心,無錫214122)摘要針對(duì)工業(yè)中廣泛存在的多變量系統(tǒng),研究了辨識(shí)這類系統(tǒng)的遺忘梯度辨識(shí)算法,分子系統(tǒng)遺忘梯度辨識(shí)算法和遞階遺忘梯度辨識(shí)算法,對(duì)這三種算法的計(jì)算量進(jìn)行了比較分析,并給出了仿真例子。關(guān)鍵詞最小二乘隨機(jī)梯度遞階辨識(shí)多變量系統(tǒng)中圖法分類號(hào)TP271;文獻(xiàn)標(biāo)志碼A
2、rm到目前為止,多變量辨識(shí)方法比較多,比如最(1)式中u(t)∈和y(t)∈分別是系統(tǒng)輸入和小二乘算法、隨機(jī)梯度算法、輔助變量算法、極大似m1輸出向量,v(t)∈為零均值白噪聲向量,αi∈和然算法等等,這么多算法究竟哪個(gè)計(jì)算量更小,收m×rQi∈分別是待辨識(shí)的系統(tǒng)參數(shù)和參數(shù)矩陣。斂性能更好,實(shí)用性更強(qiáng),誰優(yōu)誰劣究竟如何評(píng)判,定義參數(shù)矩陣θ、參數(shù)向量為α、輸入信息向量這是問題的關(guān)鍵。不過理論上很難從多方面判斷φ(t)和輸出信息矩陣ψ(t)分別為算法的優(yōu)劣和實(shí)用性,可通過具體的仿真例子為辨Tm×n0θ∶=[Q1,Q2,?,Qn]∈,n0∶=nr,識(shí)算法的選擇作理論上的
3、指導(dǎo)。本文用隨機(jī)梯度α∶=[α,α,?,α]T∈n,12n搜索原理或隨機(jī)逼近原理,研究了遺忘梯度算法,φ(t)∶=[uT(t),uT(t-1),?,uT(t-n)]T∈n0,子系統(tǒng)遺忘梯度算法和遞階遺忘梯度算法,并通過ψ(t)∶=[y(t-1),y(t-2),?,y(t-n)]∈m×n。仿真比較研究它們的估計(jì)精度的高低和收斂性能因此,可以得到隨機(jī)系統(tǒng)辨識(shí)模型,的好壞,使算法能更好的指導(dǎo)實(shí)際的應(yīng)用。y(t)+ψ(t)α=θTφ(t)+υ(t)(2)1多變量系統(tǒng)辨識(shí)模型2梯度辨識(shí)算法一個(gè)狀態(tài)空間描述的多變量系統(tǒng),化為傳遞矩n辨識(shí)模型(2)式既包含一個(gè)參數(shù)向量α∈,陣描
4、述,經(jīng)過參數(shù)化可以化為下列形式的差分Tm×n0又包含了一個(gè)參數(shù)矩陣θ∈,使得傳統(tǒng)的辨[1]方程,識(shí)方法,如遞推最小二乘算法(RLS)和隨機(jī)梯度算nny(t)+∑αiy(t-i)=∑Qiu(t-i)+v(t)(1)法(SG)等,不能直接辨識(shí)這模型的參數(shù)向量和參數(shù)i=1i=1[2]矩陣。一種直觀的方案是,將該系統(tǒng)重新參數(shù)化,得到一個(gè)包含參數(shù)向量α與參數(shù)矩陣θ所有元2007年10月22日收到國家自然科學(xué)基金項(xiàng)目(60574051)、n+mn0的高維參數(shù)向量;∈。另一種方案是,把辨江蘇省自然科學(xué)(BK2007017)資助識(shí)模型(2)式按照輸出的數(shù)目分解為m個(gè)子系統(tǒng),第一作
5、者簡介:袁平(1984—),女,江蘇江都人,碩士生,研究方向:系統(tǒng)辨識(shí)與參數(shù)估計(jì)。E2mail:nyp506@163.com。然后分別辨識(shí)每個(gè)子系統(tǒng)的參數(shù)向量。還有一種3方案是,采用遞階辨識(shí)原理,直接辨識(shí)參數(shù)向量α∈通信作者簡介:丁鋒(1963—),男,湖北廣水人,博士,博士生導(dǎo)師。研究方向:系統(tǒng)辨識(shí)、過程控制、多率系統(tǒng)。E2mail:fding@n與參數(shù)矩陣θ∈n0×m,這種方法計(jì)算量最小。jiangnan.edu.cn。在這三種辨識(shí)方案中,都可以采用最小二乘優(yōu)化原3期袁平,等:多變量系統(tǒng)隨機(jī)梯度辨識(shí)方法比較研究777理和隨機(jī)梯度搜索原理(或隨機(jī)逼近原理),來研
6、究個(gè)元,θj表示參數(shù)矩陣θ第j列。辨識(shí)模型(2)式可相應(yīng)的辨識(shí)方法。限于篇幅,本文只介紹基于隨機(jī)以分解為m個(gè)子系統(tǒng),T梯度的辨識(shí)方法。下面分別介紹這幾種辨識(shí)方案yj(t)=-ψj(t)α+φ(t)θj+vj(t)=∶和具體辨識(shí)算法,并比較各種方法的優(yōu)缺點(diǎn)。φj(t);j+vj(t),j=1,2,?,m(5)2.1隨機(jī)梯度算法(5)式中第j個(gè)子系統(tǒng)的信息向量和參數(shù)向量分先引入一些符號(hào)。設(shè)Im是m×m單位陣:別為2T(t)=[-ψ(t),φT1×(n+n0)‖X‖∶=tr[XX],á表示Kronecker積或直積,7、按次序排成的向量。;j=[α,θj]∈。定義擴(kuò)展的參數(shù)向量和擴(kuò)展的輸入輸出信息定義和極小化m個(gè)準(zhǔn)則函數(shù)Jj(α,θj)∶=2矩陣分別為‖yj(t)-φj(t);j‖,可以得到每個(gè)子系統(tǒng)的帶遺αn+mn0忘因子隨機(jī)梯度算法,簡稱子系統(tǒng)遺忘梯度算法(S2;∶=∈,Tcol[θ]FG),Φ(t)∶=[-ψ(t),φT(t)áIm×(n+mn0)Tm]∈。8、‖φ(t)