ARMA mallien rakentaminen, Kalmanin suodatin MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016
Viikko 5: ARMA mallien rakentaminen, johdatus dynaamisiin regressiomalleihin 1 ARMA-mallien rakentaminen 1 Box-Jenkins menetelmä 2 Eksponentiaalinen tasoitus 3 Aikasarjojen ositus 2 Kalmanin suodatin
Sisältö 1 ARMA-mallien rakentaminen 2 Kalmanin suodatin
Box-Jenkins mallinnuksen idea Pyritään rakentamaan malli, joka kuvaa ilmiötä riittävän hyvin mahdollisimman vähillä parametreilla. Mitä enemmän parametreja estimoidaan, sitä enemmän voidaan mennä pieleen. Monimutkaisemmat mallit saadaan sovitettua aineistoon paremmin, mutta eivät yleensä toimi hyvin ennustamisessa.
Box-Jenkins mallinnusstrategia Box-Jenkins menetelmä on SARIMA-mallien rakentamisstrategia, joka sisältää kolme vaihetta: 1 Mallin tunnistaminen (a) Aikasarjan stationarisoimiseksi tarvittavien differensointien kertalukujen h ja H (sekä s) valinta (SARIMA SARMA-aikasarja). Muista: h on integroituvuuden aste ja H kausi-integroituvuuden aste. (b) SARMA-mallin viivepolynomien astelukujen (p, q, P, Q) valinta arvaamalla. 2 Mallin estimointi Estimoidaan parametrit θ i, Θ i, φ i, Φ i (yht p + q + P + Q kpl), esimerkiksi suurimman uskottavuuden (SU) menetelmällä (vrt. ARMA-mallin esitimointi edellä). 3 Diagnostiset tarkastukset: Ovatko estimoidun SARMA-mallin jäännökset valkoista kohinaa? Ei Palataan vaiheeseen 1. On Malli on valmis
Box-Jenkins menetelmä: 1a) Mallin tunnistaminen Differensointien kertaluvut Stationaarisuuden saavuttamiseksi aikasarjoja joudutaan usein differensoimaan tai logaritmoimaan. Differensointien kertalukujen valinnan apuna käytetään aikasarjan, sen korrelaatiofunktioiden sekä spektrin kuvaajia. Aikasarjaa differensoidaan kunnes tuloksena saatavaa aikasarjaa voidaan pitää stationaarisena. Jos kuvaajat näyttävät siltä, että aikasarja voisi olla stationaarinen, aikasarjaa ei pidä differensoida. Aikasarjan stationarisoimiseksi välttämättömät differensoinnit yleensä pienentävät aikasarjan varianssia, kun taas ylidifferensoinnilla on taipumus kasvattaa aikasarjan varianssia.
Box-Jenkins menetelmä: 1a) Mallin tunnistaminen Stationarisoinnin työkalut Differenssi Dx t = x t x t 1 poistaa aikasarjasta deterministisen lineaarisen trendin. Vastaavasti p. differenssi D p poistaa p. asteen polynomisen trendin. Kausidifferenssi D s x t = x t x ts poistaa aikasarjasta deterministisen kausivaihtelun, jonka periodi on s. Joskus tarvitaan lisäksi aikasarjan logaritmointia y t = log(x t ) Linearisoi aikasarjassa olevan eksponentiaalisen trendin Vakioi aikasarjan tason mukana kasvavan varianssin Alkuperäinen aikasarja saadaan palautettua käänteismuunnoksella Esim. Jos y t = Dx t niin x 1 = y 1 ja x t = y 1 + y 2 +... + y t, t = 2, 3,..., n. Esim. x t = exp(y t ).
Box-Jenkins menetelmä: 1b) Mallin tunnistaminen viivepolynomien asteluvut Kun aikasarja on stationarisoitu, valitaan käytettävän SARMA-mallin viivepolynomien asteluvut Valinnan apuna käytetään aikasarjan sekä sen korrelaatiofunktioiden ja spektrin kuvaajia Astelukujen valinta viivepolynomeille on usein niin vaativa tehtävä, että tavallisesti joudutaan tyytymään siihen, että mahdollisten astelukujen lukumäärä saadaan rajatuksi. Valittuja astelukuja kokeillaan estimoimalla vastaavat mallit (ks. Kohta 2) ja lopullisen mallin valinta tehdään vertailemalla estimoitujen mallien hyvyyttä. Vertailussa otetaan huomioon sekä estimoidun mallin parametrien merkitsevyys että diagnostisten tarkistusten (ks. Kohta 3) antamat tulokset.
Box-Jenkins menetelmä: 1 Mallin tunnistaminen Kommentteja Kun SARIMA(p, h, q)(p, H, Q) s -malleja sovitetaan yhteiskunnallisiin (esim. taloudellisiin) aikasarjoihin, joudutaan aika harvoin käyttämään malleja, joissa differensointien kertaluvut tai viivepolynomien asteluvut eivät olisi pieniä kokonaislukuja. Usein (ei kuitenkaan aina) riittää tarkastella seuraavia vaihtoehtoja: Differensointien kertaluvut: AR-osien asteluvut: MA-osien asteluvut: h = 0, 1 tai 2; H = 0 tai 1 p = 0, 1 tai 2; P = 0 tai 1 q = 0, 1 tai 2; Q = 0 tai 1
Esimerkki: Satunnaiskävely X 0.0 0.5 1.0 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Satunnaiskävely.
Esimerkki: Satunnaiskävely ACF 0.0 0.6 5 10 15 20 25 Lag Partial ACF 0.0 0.6 5 10 15 20 25 Lag Kuva : Satunnaiskävelyn autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: Satunnaiskävely X 0.0 0.5 1.0 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Satunnaiskävely (musta) ja differensoitu satunnaiskävely (sininen).
Esimerkki: Satunnaiskävely ACF 0.10 0.05 5 10 15 20 25 Lag Partial ACF 0.10 0.05 5 10 15 20 25 Lag Kuva : Differensoidun satunnaiskävelyn autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: Satunnaiskävely X 0.0 0.5 1.0 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Satunnaiskävely (musta) ja kahdesti differensoitu satunnaiskävely (vihreä).
Esimerkki: Satunnaiskävely ACF 0.5 0.1 5 10 15 20 25 Lag Partial ACF 0.5 0.1 5 10 15 20 25 Lag Kuva : Kahdesti differensoidun satunnaiskävelyn autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: geometrinen satunnaiskävely (GRW) Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Geometrinen satunnaiskävely.
Esimerkki: geometrinen satunnaiskävely ACF 0.0 0.6 5 10 15 20 25 Lag Partial ACF 0.0 0.6 5 10 15 20 25 Lag Kuva : GRW:n autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : GRW:n (punainen) ja differensoitu GRW (sininen).
Esimerkki: geometrinen satunnaiskävely ACF 0.10 0.05 5 10 15 20 25 Lag Partial ACF 0.10 0.05 5 10 15 20 25 Lag Kuva : Differensoidun GBM:n autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Geometrinen satunnaiskävely (punainen) ja kahdesti differensoitu GRW (musta).
Esimerkki: geometrinen satunnaiskävely ACF 0.5 0.1 5 10 15 20 25 Lag Partial ACF 0.5 0.1 5 10 15 20 25 Lag Kuva : Kahdesti differensoidun GRW:n autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Geometrinen satunnaiskävely (punainen) ja logaritmoitu GRW (musta).
Esimerkki: geometrinen satunnaiskävely ACF 0.0 0.6 5 10 15 20 25 Lag Partial ACF 0.0 0.6 5 10 15 20 25 Lag Kuva : Logaritmoidun GRW:n autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : GRW (musta) ja differensoitu log-grw (sininen).
Esimerkki: geometrinen satunnaiskävely ACF 0.10 0.05 5 10 15 20 25 Lag Partial ACF 0.10 0.05 5 10 15 20 25 Lag Kuva : Differensoidun log-grw:n autokorrelaatio ja osittaisautokorrelaatio.
Box-Jenkins menetelmä: 2. Mallin estimointi SARMA-malli voidaan estimoida R:llä käyttäen jotakin siihen tarkoitettua funktiota (esim. arima()), joka määrittää annetun aikasarjan parametrit käyttäen jotakin sopivaa menetelmää (esim. suurimman uskottavuuden menetelmä).
Box-Jenkins menetelmä: 3. Diagnostiset tarkistukset Diagnostiset tarkistukset perustuvat estimoidun SARMA-mallin residuaalien tutkimiseen: Tutkitaan residuaalien muodostaman aikasarjan sekä sen korrelaatiofunktioiden ja spektrin kuvaajia Testataan jäännösten korreloimattomuutta Estimoitua mallia pidetään riittävänä, jos sen jäännökset ovat valkoista kohinaa. Jos malli ei ole riittävä, niin on palattava tunnistamisvaiheeseen (1)
Box-Jenkins menetelmä: 3. Diagnostiset tarkistukset Jäännösten korreloimattomuutta voidaan testata Ljung-Box Q-testisuureella K r i Q K = n(n + 2) n i r i on jäännösten autokorrelaatio viiveellä i Saa selvästi sitä suurempia arvoja mitä voimakkaammin residuaalit ovat autokorreloituneita. Jos SARMA-mallin nollahypoteesi H 0 : ɛ t WN pätee, niin i=1 Q K a χ 2 (K m) m on estimoitujen parametrien lukumäärä SARMA-mallissa Suuret testisuureen Q K arvot johtavat nollahypoteesin hylkäämiseen. Q-testisuureen arvo ja sen jakauma rippuu mukaan otettujen autokorrelaatiokertoimien lukumäärästä K. Tavallisesti Q-testisuure on syytä laskea usealle eri K :lle.
Box-Jenkins menetelmä: 3. Diagnostiset tarkistukset Huom Ljung-Box menetelmällä testataan K :n ensimmäisen autokorrelaation merkitsevyyttä yhtä aikaa. K :n on oltava suurempi, kuin estimoitavien parametrien lukumäärä m. Käytännössä testin teho heikkenee, kun K kasvaa, koska testisuure noudattaa asymptoottisesti (n K :n suhteen) χ 2 (K m)-jakaumaa. Jos K on pieni, niin korkeamman asteen autokorrelaatiot jäävät testaamatta. Selkeää sääntöä K :n suuruudelle ei ole.
Eksponentiaalinen tasoitus Ad-hoc ennustemenetelmä, jolla ei ole vankkaa tilastotieteellistä pohjaa. Vrt. ARMA-mallit, joissa ensin oletetaan tietynlainen stokastinen prosessi, estimoidaan sen parametrit ja käytetään estimoitua mallia ennustamiseen. Eksponentiaalinen tasoitus alkaa ennusteesta. Laajasti käytetty Helppo toteuttaa Empiirinen havainto: Antaa robusteja ennusteita (eli suhteellisen hyviä ennusteita) erilaisille stokastisille prosesseille, vaikka ei olekaan yleensä optimaalinen ennuste.
Yksinkertainen eksponentiaalinen tasoitus Ennustetaan x t+1 :tä havaintojen x t, x t 1, x t 2,... painotetulla summalla ˆx t+1 t = w i x t i i=0 Painot w i = α(1 α) i 1, 0 < α < 1 pienenevät eksponentiaalisesti Nimi eksponentiaalinen tasoitus Tasoitusparametri α. Ennuste voidaan konstruoida päivityskaavalla ˆx t+1 t = αx t + (1 α)ˆx t t 1 = αˆɛ t + ˆx t t 1, missä ˆɛ t = x t ˆx t t 1 on askeleen t ennustevirhe.
Yksinkertainen eksponentiaalinen tasoitus: Tulkinta ˆx t+1 t = αx t + (1 α)ˆx t t 1 Voidaan osoittaa että yksinkertainen eksponentiaalinen tasoitus on optimaalinen ennuste, jos x t on ARIMA(0,1,1) prosessi: Dx t on MA(1)-prosessi Dx t = x t x t 1 = ɛ t + θ 1 ɛ t 1, (ɛ) t T WN(0, σ 2 ) Huom Päivitysparametrin arvo on α = θ 1 + 1 Todistus: Harjoitustehtävä. Ehto MA(1) prosessin käännettävyydelle on θ 1 < 1, joten estimoitu MA(1)-malli voi implikoida päivitysparametrille arvon α (0, 2).
Yksinkertainen eksponentiaalinen tasoitus: Tulkinta ˆx t+1 t = αx t + (1 α)ˆx t t 1 Voidaan osoittaa että yksinkertainen eksponentiaalinen tasoitus on optimaalinen ennuste, jos x t on kohinainen satunnaiskävely, eli prosessi: x t = m t + ɛ t, missä m t = m t 1 + η t, on satunnaiskävely ja (ɛ t ) t T IID(0, σ 2 1), (η t ) t T IID(0, σ 2 2) Optimaalinen α riippuu signaali-kohina-suhteesta var(ɛt ) var(η t ). Todistuksessa käytetään Kalman-suodatinta, jota käsitellään myöhemmin. Taso m t on estimoitava havainnoista x t : m t = αx t + (1 α)m t 1 ja ˆx t+1 t = m t.
Kaksinkertainen eksponentiaalinen tasoitus Kaksinkertaisessa eksponentiaalisessa tasoituksessa päivitetään tason m ja trendin β estimaatteja: ˆx t+l t = m t + lβ t m t = α 1 x t + (1 α 1 )(m t 1 + β t 1 ) β t = α 2 (m t m t 1 ) + (1 α 2 )β t 1. Sopivilla parametreilla α i tämä on optimaalinen ARIMA(0,2,2) mallille. Voidaan kirjoittaa missä ˆɛ t = x t ˆx t t 1. m t = m t 1 + β t 1 + α 1ˆɛ t β t = β t 1 + α 1 α 2ˆɛ t,
Eksponentiaalinen tasoitus kausivaihtelulla Eksponentiaalisessa tasoituksessa voidaan ottaa huomioon myös kausivaihtelu (kauden pituus s): ˆx t+l t = ( m t + lβ t ) cn s+l, l = 1, 2,..., missä taso m t, trendi β t ja kausivaihtelu c t saadaan kaavoilla x t m t = α 1 + (1 α 1 ) ( ) m t 1 + β t 1 c t s β t = α 2 (m t m t 1 ) + (1 α 1 )β t 1 c t = α 3 x t m t + (1 α 2 )c t s.
Eksponentiaalinen tasoitus - Kommentteja Eksponentiaalista tasoitusta sovelletaan usein käyttämällä kiinteitä tasoitusparametreja Joskus tasoitusparametrit estimoidaan havainnoista, mikä parantaa mallin sopivuutta havaintoihin SARIMA-mallien käyttöä suositellaan, jos mahdollista Ei arvattuja vakioita (vrt. tasoitusparametrit α i ) vaan parametrit estimoidaan aineistosta. Eksponentiaalinen tasoitus tuottaa yhtä hyviä ennusteita, jos aikasarja todellakin on käytettyä eksponentiaalista tasoitusmenetelmää vastaavan SARIMA-prosessin generoima: Yksinkertainen eksponentiaalinen tasoitus - ARIMA(0,1,1) Kaksinkertainen eksponentiaalinen tasoitus - ARIMA(0,2,2)
Aikasarjojen ositus Useissa aikasarjoissa voidaan nähdä seuraavia piirteitä: Trendejä eli aikasarjan tason systemaattisia muutoksia. Syklistä vaihtelua tai suhdannevaihtelua. Kausivaihtelua, Satunnaista vaihtelua. Tämä empiirinen havainto on johtanut ajatukseen, että aikasarjat kannattaisi osana tilastollista analyysia yrittää osittaa vastaaviin komponentteihin eli osiin.
Aikasarjan osituksen tavoitteet (i) Aikasarjan käyttäytymisen kuvailu komponenttiensa avulla. (ii) Aikasarjan analysointi komponenttiensa avulla. (iii) Kausipuhdistus eli aikasarjan tilastollisen analyysin kannalta häiritseväksi koetun kausivaihtelun eliminointi. x t 0 5 10 15 20 25 5 10 15 20 Time
Aikasarjan ositus Decomposition of additive time series seasonal trend observed random 1.5 0.0 1.5 5 15 25 0 10 20 3 1 1 3 5 10 15 20 Time
Aikasarjan ositus komponentteihin Aikasarjan osituksessa oletetaan, että aikasarja x t, t = 1, 2,..., n voidaan esittää seuraavien komponenttien summana tai tulona: m t = trendikomponentti c t = syklinen (tai suhdanne-) komponentti s t = kausikomponentti e t = jäännös (tai satunnais-) komponentti. Summamuoto: x t = m t + c t + s t + e t. Tulomuoto: x t = m t c t s t e t. Tulomuoto voidaan muuntaa summamuotoon: log x t = log m t + log c t + log s t + log e t.
Aikasarjan ositus komponentteihin Huom Suhdannevaihtelu ja kausivaihtelu eivät ole sama asia: Suhdannevaihtelu (tai syklinen vaihtelu) on vaihtelua, jonka jaksot ovat epäsäännöllisiä ja syklit voivat olla pitkiä. Esimerkiksi talouden suhdanteet (nousukausi vs. lama). Kausivaihtelu puolestaan on saman pituisissa jaksoissa säännöllisesti toistuvaa vaihtelua. Esimerkiksi joulukuusten myynti.
Aikasarjojen ositus: Kausipuhdistus Aikasarjan osituksen tavoitteena on usein aikasarjan kausipuhdistus. Kausipuhdistuksessa alkuperäisestä aikasarjasta x t muodostetaan uusi aikasarja y t, josta häiritseväksi koettu kausivaihtelukomponentti s t on eliminoitu: (i) Kausipuhdistus summamuodossa: y t = x t s t = m t + c t + e t (ii) Kausipuhdistus tulomuodossa: y t = x t s t = m t c t e t.
Aikasarjojen ositusmenetelmät Yleisesti käytettyjä ositusmenetelmiä: X12 (iteratiivinen liukuvien keskiarvojen menetelmä). X12-ARIMA (ARIMA-mallit iteratiiviseen liukuvien keskiarvojen menetelmään yhdistävä menetelmä). Aikasarjojen rakennemallit (vrt. eksp. tasoituksen yhteydessä esitetyt tila-avaruus mallit).
Aikasarjojen osituksen kritiikki Osituksen/kausipuhdistuksen perustelut Komponenttien ja/tai kausipuhdistetun aikasarjan analysointi olisi helpompaa kuin alkuperäisen Osituksen/kausipuhdistuksen kritiikki Aikasarjan jako trendi-, suhdanne-, kausi- ja jäännöskomponentteihin on aina enemmän tai vähemmän mielivaltaista. Komponentit eivät ole todellisia, mitattavissa olevia suureita. Ositusmenetelmien taustalla ei ole (rakennemalleja lukuun ottamatta) mitään tilastollista mallia. Osituksen onnistumista on hyvin vaikeata mitata tilastollisin kriteerein. Kausipuhdistus vääristää aikasarjojen autokorrelaatiorakenteen (sisäiset aikariippuvuudet). Kausipuhdistus vääristää aikasarjojen taajuusalueen ominaisuudet. Kausipuhdistus saattaa vääristää aikasarjojen väliset riippuvuudet.
Aikasarjojen osituksen käyttö Johtopäätös kritiikistä: Aikasarjojen ositusta voidaan suhteellisen järkevästi käyttää osana aikasarjojen kuvailua, mutta komponenttien käyttäminen tilastollisissa malleissa on yleensä arveluttavaa. Kausipuhdistus voidaan tilastollisessa analyysissa korvata muilla, tilastotieteen kannalta paremmin perustelluilla menetelmillä: Ajassa aggregointi Yhdistetään (summaamalla, keskiarvoistamalla) aikasarjan peräkkäisiä havaintoja uudeksi aikasarjaksi Ajassa otanta Poimitaan aikasarjasta havaintoja tasaisin aikavälein uudeksi aikasarjaksi Kausidifferensointi Kausivaihtelun huomioiminen tilastollisten mallien rakenteessa.
Sisältö 1 ARMA-mallien rakentaminen 2 Kalmanin suodatin
Dynaamisen systeemin tila-avaruusesitys Usein halutaan ennustaa tai käyttää ennustamiseen prosessia (tai tilaa) x, josta ei saada suoria havaintoja, mutta käytettävissä on havaintoja prosessista y, joka riippuu tilasta x. Tällaisessa tapauksessa on hyödyllistä kirjoittaa prosessi tila-avaruusesityksen avulla.
Dynaamisen systeemin tila-avaruusesitys Tarkastellaan MA(1)-prosessia y t = ɛ t + θ 1 ɛ t 1. Määritellään tila-vektori x t ja kohina v t+1 asettamalla [ ] [ ] ɛt ɛt+1 x t = ja v t+1 =. 0 ɛ t 1 Silloin ja x t+1 = F x t + v t+1, F = [ ] 0 0 1 0 y t = H x t, missä H = [ 1 θ ].
Dynaamisen systeemin tila-avaruusesitys Määritelmä Olkoot y t = (y 1t,..., y dt ) ja x t = (x 1t,..., x kt ) satunnaisvektorit. Dynaamisen systeemin tila-avaruusesitys on x t+1 = F x t + v t+1 y t = H x t + w t, missä F ja H ovat k k- ja k d-matriisit ja satunnaisvektorit v = (v 1t,..., v kt ) sekä w = (w 1t,..., w dt ) ovat valkoista kohinaa siten, että E[v t w s ] = 0 kaikilla t ja s E[v t x 1 ] = 0 = E[w tx 1 ], t T. Viimeisestä ehdosta seuraa, että kohinat ovat korreloimattomia vektoreiden y t ja x t kanssa kaikilla t T.
Tila-avaruusesitys Esimerkki ARMA(p, q)-prosessin y t = φ 1 y t 1 +... + φ p y t p + ɛ t + θ 1 ɛ t 1 +... + θ q ɛ t q tila-avaruusesitys on φ 1 φ 2 φ k 1 φ k 1 0 0 0 x t+1 = 0 1 0 0 x t +...... 0 0 1 0 y t = [ 1 θ 1 θ 2 θ k 1 ] x t, missä k = max{p, q + 1} ja ɛ t+1 φ j = 0, kun j > p ja θ j = 0 kun j > q. 0 0. 0
Kalmanin suodatin: Ongelma Halutaan ennustaa tilaa x t+1 = (x 1(t+1),..., x k(t+1) ), mutta käytettävissä on vain havaintoja muuttujasta y t = (y 1t,..., y dt ), joka sisältää kaiken käytettävissä olevan informaation tilasta x t+1. Oletetaan, että systeemillä on tila-avaruusesitys x t+1 = F x t + v t+1 y t = H x t + w t missä y t ja w t ovat d-ulotteisia satunnaismuuttujia, x t+1 ja v t+1 ovat k-ulotteisia satunnaismuuttujia sekä { { Q, t = s R, t = s cov(v t, v s ) = ja cov(w t, w s ) = 0, t s 0, t s.
Esimerkki: GPS paikannus m 1 satelliittia mittaa kohteen pseudoetäisyyksien sekä niiden derivaattojen differenssit kuhunkin satelliittiin hetkellä t, ja m 2 kappaletta tukiasemia mittaa etäisyyden kohteeseen, jolloin saadaan mittaustuloksista koostuva vektori y t = (y 1t,..., y dt ), d = 2m 1 + m 2. tila-vektori x t sisältää kohteen sijainnin koordinaatit ξ t ja nopeuden v t, [ ] ξt x t =. v t Tila-avaruusmalli paikannukselle (ja nopeuden mittaamiselle) on x t+1 = F x t + u t y t = h(x t ) + w t, missä h(x t ) on sopivasti valittu epälineaarinen funktio ja u t sekä w t ovat kohinaa.
Kalmanin suodatin Kalmanin suodattimessa ollaan usein kiinnostuttu tilasta x t+1 = (x 1(t+1),...x k(t+1 )), jota pyritään ennustamaan havaintojen y t = (y 1t,..., y dt ) avulla. Ennuste tilalle x t+1 hetkellä t on ehdollinen odotusarvo ˆx t+1 t := E[x t+1 Y t ], Y t := (y t,..., y 1 ). Kalmanin suodatin laskee ennusteet ˆx 1 (), ˆx 2 1,..., ˆx T T 1 rekursiivisesti ja jokaiseen ennusteeseen liittyy keskineliövirhematriisi P t+1 t := E [ (x t+1 ˆx t+1 t )(x t+1 ˆx t+1 t ) ]
Kalmanin suodatin: algoritmi 1 Alkuarvot (pitää valita): ˆx 1 () = E[x 1 ] P 1 () = E [ (x 1 E[x 1 ])(x 1 E[x 1 ]) ] 2 Rekursiokaavat ennusteelle ˆx t+1 t ja matriisille P t+1 t ovat ˆx t+1 t = F ˆx t t 1 + F P t t 1 H ( H P t t 1 H + R ) 1( y t H ˆx ) t t 1 P t+1 t = ( F K t H ) ( F P t t 1 F HK ) t + K t RK t + Q, missä K t on Kalmanin vahvistus (Kalman gain), K t := F P t t 1 H ( H P t t 1 H + R ) 1. 3 Ennuste ŷ t+1 t saadaan kaavalla ŷ t+1 t = H ˆx t+1 t E [ (y t+1 ŷ t+1 t )(y t+1 ŷ t+1 t ) ] = H P t+1 t H + R. ja
Kalmanin suodattimen yleistys Kalmanin suodattimessakin voidaan luopua lineaarisuusoletuksista, jolloin tila-avaruusesitys on x t+1 = f t (z t, x t ) + v t+1 y t = h t (x t ) + w t, missä x t+1, y t, v t+1 ja w t ovat kuten edellä, z t on eksogeeninen, kaikista muista riippumaton muuttuja, sekä f t ja h t ovat ajasta t, tilasta x t sekä syötteestä z t riippuvia funktioita. Tällöin ennusteet ovat monimutkaisempia, mutta erittäin käyttökelpoisia.
Lähteet: 1 Hamilton, J. (1994): Time Series Analysis, Princeton University Press 2 Ali-Löytty, S. (2004): Kalmanin suodatin ja sen laajennukset paikannuksessa, Diplomityö, TTY
Ensi viikolla: Dynaamiset regressiomallit Vierailijaluento: Aleksi Seppänen: Kuntoon perustuva kunnossapito Kertaus
Luentokalvot pohjautuvat osittain Mellinin ja Liesiön aiempien vuosien kalvoihin.