Identifiointiprosessi Identifiointiprosessi Ohjauksen valinta jatkuvasti herättävyys Käytännön koenäkökulmia Mallirakenteen valinta Mallin validointi
Identifiointi mallinnustyökaluna Tavoitteena hyvä malli systeemille tietokonetuki nykyään avainasemassa Perusidea ymmärtää millainen on hyvä malli ymmärtää miten estimointialgoritmit pääpiirteittäin toimivat ymmärtää menetelmien rajoitukset Koesuunnittelu tärkeässä roolissa identifioituvuus parametriestimaatin varianssi
Mallinnuskehä Valitse mallirakenne (rakenneparametrit) Arvioi mallin suorituskyky Estimoi parametrit
Mallinnuksen vaiheet 1. Koesuunnittelu, identifiointikoe 2. Datan esikäsittely: keskiarvotus, trendinpoisto, jako estimointi- ja validointidataan 3. Ei-parametriset menetelmät: kovarianssit, Fourier-, korrelaatio-, spektraalianalyysi => impulssi- ja taajuusvaste, ajatuksia kertaluvuista 4. Mallirakenteen valinta parametrien estimointi 5. Mallin arviointi: simulointi, napa-nolla kuvat, impulssija taajuusvaste jne. 6. Mallin validointi: parametrien merkitsevyys (appr. normaalijakautuneita), residuaalianalyysi
Identifiointikokeen suunnittelu Hyvä koe tuottaa paljon informaatiota systeemistä Suunnitteluongelmia: mitä signaaleja mitataan? miten sisäänmenot valitaan? sopiva näytteenottoväli? Mittaustulosten käsittely: hitaiden variaatioiden, trendien poistaminen korkeataajuisten häiriöiden suodattaminen (laskostuminen) mittausten luotettavuus? onko uudelleennäytteistäminen tarpeen?
Perusajatuksia Millä tahansa menetelmällä tuotettu parametriestimaatti kuvaa systeemiä parhaalla mahdollisella tavalla identifiointikokeen olosuhteissa Malli antaa systeemin täydellisen kuvauksen jos 1. mallin parametrointi sallii sen ja malli on rakenteellisesti identifioituva 2. Identifiointikoe on onnistunut Parametriestimaatin kovarianssi riippuu käänteisesti ennusteen gradientista => pieni kovarianssi jos ennuste on herkkä parametrille
Sisäänmenon valinta Sisäänmeno u(t) herättää systeemin Esim. u(t)=asinωt antaa tietoa (vahvistus & vaihekulma) vain yhdestä taajuudesta => harvoin riittävä u(t):n oltava siis taajuussisällöltään rikas Hyvä signaali on esim. satunnaisesti 2 arvon välillä vaihteleva signaali sisältää kaikkia taajuuksia, taajuuspainotus voidaan valita säätämällä vaihtotodennäköisyyttä lineaarisille malleille arvot valitaan toiminta-alueen ääripäistä epälineaarisille malleille oltava useita tasoja (myös linearisoinnin arvionti) Validointiteho: ei saa unohtaa todellisuutta
...sisäänmenon valinta Taajuussisällön ohjenuorana taajuustulos (9.48) pääosa signaalin energiasta niillä taajuuksilla joilla mallille halutaan hyvä suorituskyky Ajatus aikatasossa: u(t):n sisällettävä niin nopeita vaihteluja että systeemin lyhimmät mielenkiintoiset aikavakiot heräävät vakio pidempiä aikoja staattisen vahvistuksen selvittämiseksi useita aikavakioita systeemissä => joudutaan priorisoimaan Vaihtoehto satunnaiselle signaalille PRBS (PseudoRandom Binary Sequence deterministinen signaali pitkällä periodilla
Yhteenveto näkökulmista 2-tasoiset signaalit ovat usein sopivia lineaaristen systeemien identifiointiin Sisäänmenon energiasisältö oltava mallintamisen kannalta tärkeillä taajuuksilla, esim. Boden diagrammin taitekohdat Sisäänmenon herätettävä hitaimmat ja nopeimmat mielenkiintoiset moodit
Signaalin jatkuvasti herättävyys Lähtökohtana (9.48) Määritelmä: signaalin u(t) (spektri Φ u (ω)) on jatkuvasti herättävä (persistently exciting, p.e.) astetta/ kertalukua n jos kaikilla muotoa M n (q)=m 1 q -1 +...+m n q -n olevilla suotimilla relaatio M n (e iω ) 2 Φ u (ω)=0 pätee vain jos M n (e iω )=0 Seuraus: u(t) on p.e. astetta n Φ u (ω) >0 ainakin n:ssä pisteessä välillä (-π,π) (ol. t=1) Määritelmä: u(t) on jatkuvasti herättävä, jos Φ u (ω) >0 melkein kaikkialla välillä (-π,π) äärelliset lineaariset suotimet eivät vaikuta jatkuvasti herättävyyteen
Määritelmä aikatasossa, esimerkkejä u(t) p.e. astetta n autokovarianssimatriisi on ei-singulaarinen Yksikköimpulssi: p.e. astetta 0 Yksikköaskel : p.e. astetta 1 R ( n 1) Siniaalto: voidaan osoittaa, että Asinω 0 t:n spektri on A 2 /4[δ(ωω 0 )+δ(ω+ω 0 )]... => p.e. astetta 2 Valkoinen kohina: R n =λi n-1 => p.e. (seuraus: kaikki ARMAprosessien ulostulot p.e. PRBS: p.e. astetta M, M = jakson pituus R n = R R u u u (0) M (1) R u R R u u (1) (0) M ( n 2)...... O K Ru ( n 1) R ( 2) u n M Ru (0)
Käytännöllinen tulos Olkoon systeemin siirtofunktio G(q,θ) muotoa B(q,θ)/F(q,θ) ja olkoot polynomien asteluvut n b ja n f. Polynomien kertoimet voidaan estimoida sisäänmenolla u(t), joka on jatkuvasti herättävä vähintään astetta n b +n f (Ljung: System Identification, 1999, th. 13.1) Peukalosääntö: kertalukua n olevan systeemin parametrien identifiointiin tarvitaan signaali joka on p.e. vähintään astetta 2n (Määritelmät yleistyvät MIMO-systeemeihin)
Suljetun silmukan systeemien identifiointi Käytännössä toimivien prosessien säätöä ei voida identifioinnin ajaksi keskeyttää Sisäänmeno määräytyy ainakin osin ulostulosta köyhdyttää sisäänmenoa => hankaluuksia Peukalosääntöjä: vältä yksinkertaisia säätimiä, vähennä säätöä jos mahdollista spektraalianalyysi ei toimi takaisinkytketyssä järjestelmässä Parametriset ennustevirhemenetelmät suositeltavampia
Datan esikäsittely Koe suoritettu, data kerätty => esikäsittely ennen identifiointia Piirrä kuva trendit, ajautuminen outlierit edustavan datasetin valinta Keskiarvota/poista trendi (ellet työskentele rakenteellisten mallien kanssa!) Alipäästösuodatus laskostumisen estämiseksi Poista outlierit! neliöllinen hyvyyskriteeri painottaa outliereita
Esisuodatus Parametriestimointi voidaan tulkita taajuusvasteen sovittamiseksi erään taajuusnormin (9.49) mielessä Esisuodatetaan u(t) ja y(t) L(q):lla => taajuusnormiin tulee komponentti L(e iω ) 2 mukaan valitaan L(.) kaistapäästösuodattimeksi => voidaan jälkikäteen valita sovituksessa painotettavat taajuudet! Huom. ARX-mallin kohinarakenne 1/A(q) eli taajuusnormi 9.49 painottaa korkeita taajuuksia tämä ei ole välttämättä toivottavaa eräs menetelmä: sovitetaan ARX-malli => Â, esisuodatetaan 1/Â:lla, sovitetaan uudestaan ARX-malli
Mallirakenteen valinta Rakenteellinen black box? rakenteellinen vaikea tuottaa mutta usein vähemmän estimoitavaa => tarkempia tuloksia Black-box: mallirakenne & kertaluvut? estimointimenetelmä (ARX PNS, muut vaativat iteratiivisia) kertaluvut? niukkuusperiaate (parsimony principle): valitse kahdesta tasaväkisestä mallista se, jossa on vähemmän parametreja Miksi? Voidaan osoittaa, että ylimääräiset parametrit lisäävät ennustevirheen varianssia (esim. Söderström & Stoica 1989) Käyttötarkoitus; mallinnusosaaminen; algoritminen kompleksisuus;...
Mallirakenteiden vertaaminen Helppoa! verrataan vaan jäännösneliösummia! Vai hetkinen... kun lisään tarpeeksi monta parametria, siitä tulee nolla!?? Tietyn rajan jälkeen malli alkaa sovittautua datan kohinaan Kupletin juoni ei olekaan estimointidataan sovittaminen vaan ilmiön kuvaaminen Ristiinvalidointi (cross-validation): mallin suorituskyvyn (esim. ennustuskyvyn) arviointi riippumattomalla datalla Kvantitatiivinen analyysi: tilastollinen analyysi: pieneneekö hyvyysfunktio merkitsevästi kun siihen lisätään parametri? informaatiokriteerit: sakotetaan parametrien lisäämisestä selittäjien kovarianssin singulaarisuus
F-testi Olkoot M 1 ja M 2 2 hierarkkista mallirakennetta (ts. M 1 saadaan M 2 :sta poistamalla parametri/parametreja) Ol. että kumpikin mallirakenne kuvaa systeemin niin, että ennustevirheet ovat valkoista kohinaa Tällöin testisuure χ=n(v N 1 -V N 2 )/V N 2 on asymptoottisesti χ 2 - jakautunut vapausteilla p 2 -p 1 p i = parametrien lkm mallissa i V N i hyvyyskriteerin arvo mallilla i Idea: poikkeaako testisuure nollasta tilastollisesti merkitsevästi kun siirrytään mallista 1 malliin 2? Huom. jos M 1 ei kuvaa systeemiä täydellisesti, testisuure ei lähesty nollaa kun N kasvaa
Informaatiokriteerit Hyvyyskriteerin optimiarvo vs. parametrien lukumäärä d Tyypillisiä funktionaalisia muotoja W N =V N (1+β(N,d)); β kasvaa kun d kasvaa, lähestyy nollaa kun N kasvaa W N =NlnV N +γ(n,d); γ kasvaa kun d kasvaa Valitse malli, jolle W N on pienin V N =ennustevirheiden minimoitu neliösumma Akaiken (1972) informaatiokriteeri AIC=(1+2d/N)V N kahden tn-jakauman etäisyyttä voidaan mitata Kullbeck-Leibler etäisyydellä (informaatioetäisyys, 1951) AIC:n minimoiva malli minimoi mallin ja systeemin informaatioetäisyyden
FPE (Akaike, 1969) Final Prediction Error, FPE=(1+d/N)/(1-d/N)V N /N Pätee: ennustevirheen varianssin odotusarvo on likimäärin V N /N+λ 0 2d/N, missä λ 0 on systeemin kohinan varianssi eli: kullakin parametrilla on kustannus 2λ 0 /N: jos se ei pienennä keskineliövirhettä tämän vertaa, on se haitallinen (tästä johtuu niukkuusperiaate) edelleen pätee: V N /N λ 0 -dλ 0 /N => estimaatti λ 0 :lle => sij. ylle =>FPE
Rissasen minimipituuskriteeri MDL (1978) MDL=(1+2d logn/n)v N Yritetään tallentaa mallin sisältämä informaatio (mallin parametrit + ennustevirheet) pienimpään mahdolliseen tilaan Koska myös parametrit on talletettava, kriteeri rankaisee liian paljoista paraemetreista
Hankel-matriisin testaus N:nnen kertaluvun järjestelmän impulssivaste h(t) riippuu lineaarisesti n:stä edellisestä arvosta h(t-1),...,h(t-n) Esim. y(t)=-a 1 y(t-1)-a 2 y(t-2)+b 1 u(t-1)+b 2 u(t-2) u(1)=1,u(i)=0 kaikilla i >1; y(0)=y(-1)=y(-2)=0 Vaste h(1)=b1; h(2)=-a 1 h(1)+b2; h(3)=-a 1 h(2)- a 2 h(1);...;a(t)=-a 1 h(t-1)-a 2 h(t-2) kaikilla t>2 Määritellään Hankel-matriisi h( k) h( k + 1) H ( l, k) = M h( k + l 1) h( k h( k h( k + l + 1) + 2) M 2)...... O... h( k + l 1) h( k + l 2) M h( k + 2l 2)
...Hankel-matriisin testaus Järjestelmän kertaluku n => H(l,k):n rangi = n kaikilla l>n Testaus: det (H(l,k))=0 kun l>n Kohinaa => testataan perättäisten determinanttien suhteita: D l = det(h(l,k)) / det(h,l+1,k)) Determinantit voidaan keskiarvottaa yli k:n l=n maksimoi D l :n
Tulomomenttimatriisin testaus Olkoot järjestelmän kertaluku n ja u pe ~n+1 Määr. U( l) = y( l) y( l + 1) M y( N)...... O... y( N y(1) y(2) M l + 1) u( l + 1) u( N) u(1) u(2) M u( N l + 1) Hae suurin l = l* jolla U(l) vielä täyttä (rivi)rangia => n=l* hae suurin l=l* jolla U(l) T U(l) täyttä rangia Eri osien kertaluvut ja kuollut aika voidaan hakea erikseen u( l) M...... O...