Identifiointiprosessi

Samankaltaiset tiedostot
Identifiointiprosessi

Identifiointiprosessi

Identifiointiprosessi II

Identifiointiprosessi

Dynaamisten systeemien identifiointi 1/2

Missä mennään. systeemi. identifiointi. mallikandidaatti. validointi. malli. (fysikaalinen) mallintaminen. mallin mallin käyttötarkoitus, reunaehdot

Parametristen mallien identifiointiprosessi

Mat Systeemien identifiointi, aihepiirit 1/4

Identifiointiprosessi

Parametristen mallien identifiointiprosessi

Signaalimallit: sisältö

Taajuus-, Fourier- ja spektraalianalyysi

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II

Taajuus-, Fourier- ja spektraalianalyysi

Taajuus-, Fourier- ja spektraalianalyysi

Säätötekniikkaa. Säätöongelma: Hae (mahdollisesti ulostulon avulla) ohjaus, joka saa systeemin toimimaan halutulla tavalla

TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio. Mat Systeemien Identifiointi. 4. harjoitus

Säätötekniikkaa. Säätöongelma: Hae (mahdollisesti ulostulon avulla) ohjaus, joka saa systeemin toimimaan halutulla tavalla

4.0.2 Kuinka hyvä ennuste on?

Regressioanalyysi. Kuusinen/Heliövaara 1

805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016)

Yksisuuntainen varianssianalyysi (jatkoa) Heliövaara 1

Harha mallin arvioinnissa

805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016)

Yksisuuntainen varianssianalyysi (jatkoa) Kuusinen/Heliövaara 1

SaSun VK1-tenttikysymyksiä 2019 Enso Ikonen, Älykkäät koneet ja järjestelmät (IMS),

Havaitsevan tähtitieteen peruskurssi I. Datan käsittely. Jyri Lehtinen. kevät Helsingin yliopisto, Fysiikan laitos

Odotusarvoparien vertailu. Vilkkumaa / Kuusinen 1

Todennäköisyyden ominaisuuksia

Signaalit ja järjestelmät aika- ja taajuusalueissa

MS-A0004/A0006 Matriisilaskenta

3. kierros. 2. Lähipäivä

Harjoitus 7: NCSS - Tilastollinen analyysi

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL

5.7 Uskottavuusfunktioon perustuvia testejä II

x = ( θ θ ia y = ( ) x.

805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016)

Sovellettu todennäköisyyslaskenta B

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Keskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6)

Aikatason vaste vs. siirtofunktio Tehtävä

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

805324A (805679S) Aikasarja-analyysi Harjoitus 5 (2016)

Mat Tilastollisen analyysin perusteet, kevät 2007

Batch means -menetelmä

5 Ominaisarvot ja ominaisvektorit

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Laskuharjoitus 9, tehtävä 6

xi = yi = 586 Korrelaatiokerroin r: SS xy = x i y i ( x i ) ( y i )/n = SS xx = x 2 i ( x i ) 2 /n =

Osa 2: Otokset, otosjakaumat ja estimointi

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

Harjoitus 6: Simulink - Säätöteoria. Syksy Mat Sovelletun matematiikan tietokonetyöt 1

6.5.2 Tapering-menetelmä

5 OMINAISARVOT JA OMINAISVEKTORIT

SÄÄTÖJÄRJESTELMIEN SUUNNITTELU

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH

Hyvyyskriteerit. ELEC-C1230 Säätötekniikka. Luku 8: Säädetyn järjestelmän hyvyys aika- ja taajuustasossa, suunnittelu taajuustasossa, kompensaattorit

Luento 8. Suodattimien käyttötarkoitus

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

6.2.3 Spektrikertymäfunktio

SÄÄTÖJÄRJESTELMIEN SUUNNITTELU

Kompleksiluvut signaalin taajuusjakauman arvioinnissa

1 Ominaisarvot ja ominaisvektorit

Y (s) = G(s)(W (s) W 0 (s)). Tarkastellaan nyt tilannetta v(t) = 0, kun t < 3 ja v(t) = 1, kun t > 3. u(t) = K p y(t) K I

Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt

Väliestimointi (jatkoa) Heliövaara 1

ARMA(p, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma.

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

Dynaamiset regressiomallit

Numeeriset menetelmät

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Johdatus tilastotieteeseen Regressiomallin valinta. TKK (c) Ilkka Mellin (2004) 1

Tilaesityksen hallinta ja tilasäätö. ELEC-C1230 Säätötekniikka. Luku 6: Tilasäätö, tilaestimointi, saavutettavuus ja tarkkailtavuus

Kuva 1: Funktion f tasa-arvokäyriä. Ratkaisu. Suurin kasvunopeus on gradientin suuntaan. 6x 0,2

805306A Johdatus monimuuttujamenetelmiin, 5 op

Ilkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Regressiomallin valinta. TKK (c) Ilkka Mellin (2007) 1

Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1

Matriisilaskenta Luento 16: Matriisin ominaisarvot ja ominaisvektorit

2. Uskottavuus ja informaatio

1. Annettu siirtofunktio on siis G(s) ja vastaava systeemi on stabiili. Heräte (sisäänmeno) on u(t) = A sin(ωt), jonka Laplace-muunnos on

Kaksisuuntainen varianssianalyysi. Heliövaara 1

3.6 Su-estimaattorien asymptotiikka

Lohkoasetelmat. Vilkkumaa / Kuusinen 1

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Sovellettu todennäköisyyslaskenta B

2. kierros. 2. Lähipäivä

Harjoitustyö 3. Heiluri-vaunusysteemin parametrien estimointi

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

ABHELSINKI UNIVERSITY OF TECHNOLOGY

Antti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16

Diskriminanttianalyysi I

Osatentti

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

TA7, Ekonometrian johdantokurssi HARJOITUS 4 1 RATKAISUEHDOTUKSET

SGN-1200 Signaalinkäsittelyn menetelmät Välikoe

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B

Vastepintamenetelmä. Kuusinen/Heliövaara 1

Transkriptio:

Identifiointiprosessi Identifiointiprosessi Ohjauksen valinta jatkuvasti herättävyys Käytännön koenäkökulmia Mallirakenteen valinta Mallin validointi

Identifiointi mallinnustyökaluna Tavoitteena hyvä malli systeemille tietokonetuki nykyään avainasemassa Perusidea ymmärtää millainen on hyvä malli ymmärtää miten estimointialgoritmit pääpiirteittäin toimivat ymmärtää menetelmien rajoitukset Koesuunnittelu tärkeässä roolissa identifioituvuus parametriestimaatin varianssi

Mallinnuskehä Valitse mallirakenne (rakenneparametrit) Arvioi mallin suorituskyky Estimoi parametrit

Mallinnuksen vaiheet 1. Koesuunnittelu, identifiointikoe 2. Datan esikäsittely: keskiarvotus, trendinpoisto, jako estimointi- ja validointidataan 3. Ei-parametriset menetelmät: kovarianssit, Fourier-, korrelaatio-, spektraalianalyysi => impulssi- ja taajuusvaste, ajatuksia kertaluvuista 4. Mallirakenteen valinta parametrien estimointi 5. Mallin arviointi: simulointi, napa-nolla kuvat, impulssija taajuusvaste jne. 6. Mallin validointi: parametrien merkitsevyys (appr. normaalijakautuneita), residuaalianalyysi

Identifiointikokeen suunnittelu Hyvä koe tuottaa paljon informaatiota systeemistä Suunnitteluongelmia: mitä signaaleja mitataan? miten sisäänmenot valitaan? sopiva näytteenottoväli? Mittaustulosten käsittely: hitaiden variaatioiden, trendien poistaminen korkeataajuisten häiriöiden suodattaminen (laskostuminen) mittausten luotettavuus? onko uudelleennäytteistäminen tarpeen?

Perusajatuksia Millä tahansa menetelmällä tuotettu parametriestimaatti kuvaa systeemiä parhaalla mahdollisella tavalla identifiointikokeen olosuhteissa Malli antaa systeemin täydellisen kuvauksen jos 1. mallin parametrointi sallii sen ja malli on rakenteellisesti identifioituva 2. Identifiointikoe on onnistunut Parametriestimaatin kovarianssi riippuu käänteisesti ennusteen gradientista => pieni kovarianssi jos ennuste on herkkä parametrille

Sisäänmenon valinta Sisäänmeno u(t) herättää systeemin Esim. u(t)=asinωt antaa tietoa (vahvistus & vaihekulma) vain yhdestä taajuudesta => harvoin riittävä u(t):n oltava siis taajuussisällöltään rikas Hyvä signaali on esim. satunnaisesti 2 arvon välillä vaihteleva signaali sisältää kaikkia taajuuksia, taajuuspainotus voidaan valita säätämällä vaihtotodennäköisyyttä lineaarisille malleille arvot valitaan toiminta-alueen ääripäistä epälineaarisille malleille oltava useita tasoja (myös linearisoinnin arvionti) Validointiteho: ei saa unohtaa todellisuutta

...sisäänmenon valinta Taajuussisällön ohjenuorana taajuustulos (9.48) pääosa signaalin energiasta niillä taajuuksilla joilla mallille halutaan hyvä suorituskyky Ajatus aikatasossa: u(t):n sisällettävä niin nopeita vaihteluja että systeemin lyhimmät mielenkiintoiset aikavakiot heräävät vakio pidempiä aikoja staattisen vahvistuksen selvittämiseksi useita aikavakioita systeemissä => joudutaan priorisoimaan Vaihtoehto satunnaiselle signaalille PRBS (PseudoRandom Binary Sequence deterministinen signaali pitkällä periodilla

Yhteenveto näkökulmista 2-tasoiset signaalit ovat usein sopivia lineaaristen systeemien identifiointiin Sisäänmenon energiasisältö oltava mallintamisen kannalta tärkeillä taajuuksilla, esim. Boden diagrammin taitekohdat Sisäänmenon herätettävä hitaimmat ja nopeimmat mielenkiintoiset moodit

Signaalin jatkuvasti herättävyys Lähtökohtana (9.48) Määritelmä: signaalin u(t) (spektri Φ u (ω)) on jatkuvasti herättävä (persistently exciting, p.e.) astetta/ kertalukua n jos kaikilla muotoa M n (q)=m 1 q -1 +...+m n q -n olevilla suotimilla relaatio M n (e iω ) 2 Φ u (ω)=0 pätee vain jos M n (e iω )=0 Seuraus: u(t) on p.e. astetta n Φ u (ω) >0 ainakin n:ssä pisteessä välillä (-π,π) (ol. t=1) Määritelmä: u(t) on jatkuvasti herättävä, jos Φ u (ω) >0 melkein kaikkialla välillä (-π,π) äärelliset lineaariset suotimet eivät vaikuta jatkuvasti herättävyyteen

Määritelmä aikatasossa, esimerkkejä u(t) p.e. astetta n autokovarianssimatriisi on ei-singulaarinen Yksikköimpulssi: p.e. astetta 0 Yksikköaskel : p.e. astetta 1 R ( n 1) Siniaalto: voidaan osoittaa, että Asinω 0 t:n spektri on A 2 /4[δ(ωω 0 )+δ(ω+ω 0 )]... => p.e. astetta 2 Valkoinen kohina: R n =λi n-1 => p.e. (seuraus: kaikki ARMAprosessien ulostulot p.e. PRBS: p.e. astetta M, M = jakson pituus R n = R R u u u (0) M (1) R u R R u u (1) (0) M ( n 2)...... O K Ru ( n 1) R ( 2) u n M Ru (0)

Käytännöllinen tulos Olkoon systeemin siirtofunktio G(q,θ) muotoa B(q,θ)/F(q,θ) ja olkoot polynomien asteluvut n b ja n f. Polynomien kertoimet voidaan estimoida sisäänmenolla u(t), joka on jatkuvasti herättävä vähintään astetta n b +n f (Ljung: System Identification, 1999, th. 13.1) Peukalosääntö: kertalukua n olevan systeemin parametrien identifiointiin tarvitaan signaali joka on p.e. vähintään astetta 2n (Määritelmät yleistyvät MIMO-systeemeihin)

Suljetun silmukan systeemien identifiointi Käytännössä toimivien prosessien säätöä ei voida identifioinnin ajaksi keskeyttää Sisäänmeno määräytyy ainakin osin ulostulosta köyhdyttää sisäänmenoa => hankaluuksia Peukalosääntöjä: vältä yksinkertaisia säätimiä, vähennä säätöä jos mahdollista spektraalianalyysi ei toimi takaisinkytketyssä järjestelmässä Parametriset ennustevirhemenetelmät suositeltavampia

Datan esikäsittely Koe suoritettu, data kerätty => esikäsittely ennen identifiointia Piirrä kuva trendit, ajautuminen outlierit edustavan datasetin valinta Keskiarvota/poista trendi (ellet työskentele rakenteellisten mallien kanssa!) Alipäästösuodatus laskostumisen estämiseksi Poista outlierit! neliöllinen hyvyyskriteeri painottaa outliereita

Esisuodatus Parametriestimointi voidaan tulkita taajuusvasteen sovittamiseksi erään taajuusnormin (9.49) mielessä Esisuodatetaan u(t) ja y(t) L(q):lla => taajuusnormiin tulee komponentti L(e iω ) 2 mukaan valitaan L(.) kaistapäästösuodattimeksi => voidaan jälkikäteen valita sovituksessa painotettavat taajuudet! Huom. ARX-mallin kohinarakenne 1/A(q) eli taajuusnormi 9.49 painottaa korkeita taajuuksia tämä ei ole välttämättä toivottavaa eräs menetelmä: sovitetaan ARX-malli => Â, esisuodatetaan 1/Â:lla, sovitetaan uudestaan ARX-malli

Mallirakenteen valinta Rakenteellinen black box? rakenteellinen vaikea tuottaa mutta usein vähemmän estimoitavaa => tarkempia tuloksia Black-box: mallirakenne & kertaluvut? estimointimenetelmä (ARX PNS, muut vaativat iteratiivisia) kertaluvut? niukkuusperiaate (parsimony principle): valitse kahdesta tasaväkisestä mallista se, jossa on vähemmän parametreja Miksi? Voidaan osoittaa, että ylimääräiset parametrit lisäävät ennustevirheen varianssia (esim. Söderström & Stoica 1989) Käyttötarkoitus; mallinnusosaaminen; algoritminen kompleksisuus;...

Mallirakenteiden vertaaminen Helppoa! verrataan vaan jäännösneliösummia! Vai hetkinen... kun lisään tarpeeksi monta parametria, siitä tulee nolla!?? Tietyn rajan jälkeen malli alkaa sovittautua datan kohinaan Kupletin juoni ei olekaan estimointidataan sovittaminen vaan ilmiön kuvaaminen Ristiinvalidointi (cross-validation): mallin suorituskyvyn (esim. ennustuskyvyn) arviointi riippumattomalla datalla Kvantitatiivinen analyysi: tilastollinen analyysi: pieneneekö hyvyysfunktio merkitsevästi kun siihen lisätään parametri? informaatiokriteerit: sakotetaan parametrien lisäämisestä selittäjien kovarianssin singulaarisuus

F-testi Olkoot M 1 ja M 2 2 hierarkkista mallirakennetta (ts. M 1 saadaan M 2 :sta poistamalla parametri/parametreja) Ol. että kumpikin mallirakenne kuvaa systeemin niin, että ennustevirheet ovat valkoista kohinaa Tällöin testisuure χ=n(v N 1 -V N 2 )/V N 2 on asymptoottisesti χ 2 - jakautunut vapausteilla p 2 -p 1 p i = parametrien lkm mallissa i V N i hyvyyskriteerin arvo mallilla i Idea: poikkeaako testisuure nollasta tilastollisesti merkitsevästi kun siirrytään mallista 1 malliin 2? Huom. jos M 1 ei kuvaa systeemiä täydellisesti, testisuure ei lähesty nollaa kun N kasvaa

Informaatiokriteerit Hyvyyskriteerin optimiarvo vs. parametrien lukumäärä d Tyypillisiä funktionaalisia muotoja W N =V N (1+β(N,d)); β kasvaa kun d kasvaa, lähestyy nollaa kun N kasvaa W N =NlnV N +γ(n,d); γ kasvaa kun d kasvaa Valitse malli, jolle W N on pienin V N =ennustevirheiden minimoitu neliösumma Akaiken (1972) informaatiokriteeri AIC=(1+2d/N)V N kahden tn-jakauman etäisyyttä voidaan mitata Kullbeck-Leibler etäisyydellä (informaatioetäisyys, 1951) AIC:n minimoiva malli minimoi mallin ja systeemin informaatioetäisyyden

FPE (Akaike, 1969) Final Prediction Error, FPE=(1+d/N)/(1-d/N)V N /N Pätee: ennustevirheen varianssin odotusarvo on likimäärin V N /N+λ 0 2d/N, missä λ 0 on systeemin kohinan varianssi eli: kullakin parametrilla on kustannus 2λ 0 /N: jos se ei pienennä keskineliövirhettä tämän vertaa, on se haitallinen (tästä johtuu niukkuusperiaate) edelleen pätee: V N /N λ 0 -dλ 0 /N => estimaatti λ 0 :lle => sij. ylle =>FPE

Rissasen minimipituuskriteeri MDL (1978) MDL=(1+2d logn/n)v N Yritetään tallentaa mallin sisältämä informaatio (mallin parametrit + ennustevirheet) pienimpään mahdolliseen tilaan Koska myös parametrit on talletettava, kriteeri rankaisee liian paljoista paraemetreista

Hankel-matriisin testaus N:nnen kertaluvun järjestelmän impulssivaste h(t) riippuu lineaarisesti n:stä edellisestä arvosta h(t-1),...,h(t-n) Esim. y(t)=-a 1 y(t-1)-a 2 y(t-2)+b 1 u(t-1)+b 2 u(t-2) u(1)=1,u(i)=0 kaikilla i >1; y(0)=y(-1)=y(-2)=0 Vaste h(1)=b1; h(2)=-a 1 h(1)+b2; h(3)=-a 1 h(2)- a 2 h(1);...;a(t)=-a 1 h(t-1)-a 2 h(t-2) kaikilla t>2 Määritellään Hankel-matriisi h( k) h( k + 1) H ( l, k) = M h( k + l 1) h( k h( k h( k + l + 1) + 2) M 2)...... O... h( k + l 1) h( k + l 2) M h( k + 2l 2)

...Hankel-matriisin testaus Järjestelmän kertaluku n => H(l,k):n rangi = n kaikilla l>n Testaus: det (H(l,k))=0 kun l>n Kohinaa => testataan perättäisten determinanttien suhteita: D l = det(h(l,k)) / det(h,l+1,k)) Determinantit voidaan keskiarvottaa yli k:n l=n maksimoi D l :n

Tulomomenttimatriisin testaus Olkoot järjestelmän kertaluku n ja u pe ~n+1 Määr. U( l) = y( l) y( l + 1) M y( N)...... O... y( N y(1) y(2) M l + 1) u( l + 1) u( N) u(1) u(2) M u( N l + 1) Hae suurin l = l* jolla U(l) vielä täyttä (rivi)rangia => n=l* hae suurin l=l* jolla U(l) T U(l) täyttä rangia Eri osien kertaluvut ja kuollut aika voidaan hakea erikseen u( l) M...... O...