ARMA mallien rakentaminen, johdatus dynaamisiin regressiomalleihin MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015
Viikko 5: ARMA mallien rakentaminen, johdatus dynaamisiin regressiomalleihin 1 ARMA-mallien rakentaminen 1 Box-Jenkins menetelmä 2 Eksponentiaalinen tasoitus 3 Aikasarjojen ositus 2 Johdatus dynaamisiin regressiomalleihin 1 Tavallinen regressiomalli 2 Jakautuneen viipymän malli
Sisältö 1 ARMA-mallien rakentaminen 2 Johdatus dynaamisiin regressiomalleihin
Box-Jenkins mallinnuksen idea Pyritään rakentamaan malli, joka kuvaa ilmiötä riittävän hyvin mahdollisimman vähillä parametreilla. Mitä enemmän parametreja estimoidaan, sitä enemmän voidaan mennä pieleen. Monimutkaisemmat mallit saadaan sovitettua aineistoon paremmin, mutta eivät yleensä toimi hyvin ennustamisessa.
Box-Jenkins mallinnusstrategia Boxin-Jenkins menetelmä on SARIMA-mallien rakentamisstrategia, joka sisältää kolme vaihetta: 1 Mallin tunnistaminen (a) Aikasarjan stationarisoimiseksi tarvittavien differensointien kertalukujen h ja H (sekä s) valinta (SARIMA SARMA-aikasarja). (b) SARMA-mallin viivepolynomien astelukujen (p, q, P, Q) valinta arvaamalla. 2 Mallin estimointi Estimoidaan parametrit θ i, Θ i, φ i, Φ i (yht p + q + P + Q kpl), esimerkiksi SU-menetelmällä (vrt. ARMA-mallin esitimointi edellä). 3 Diagnostiset tarkastukset: Ovatko estimoidun SARMA-mallin jäänökset valkoista kohinaa? Ei Palataan vaiheeseen 1. On Malli on valmis
Box-Jenkins menetelmä: 1a) Mallin tunnistaminen Differensointien kertaluvut Stationaarisuuden saavuttamiseksi aikasarjoja joudutaan usein differensoimaan tai logaritmoimaan. Differensointien kertalukujen valinnan apuna käytetään aikasarjan, sen korrelaatiofunktioiden sekä spektrin kuvaajia. Aikasarjaa differensoidaan kunnes tuloksena saatavaa aikasarjaa voidaan pitää stationaarisena. Jos kuvaajat näyttävät siltä, että aikasarja voisi olla stationaarinen, aikasarjaa ei pidä differensoida. Aikasarjan stationarisoimiseksi välttämättömät differensoinnit yleensä pienentävät aikasarjan varianssia, kun taas ylidifferensoinnilla on taipumus kasvattaa aikasarjan varianssia.
Box-Jenkins menetelmä: 1a) Mallin tunnistaminen Stationarisoinnin työkalut Differenssi Dx t = x t x t 1 poistaa aikasarjasta deterministisen lineaarisen trendin. Vastaavasti p. differenssi D p poistaa p. asteen polynomisen trendin. Kausidifferenssi D s x t = x t x ts poistaa aikasarjasta deterministisen kausivaihtelun, jonka periodi on s. Joskus tarvitaan lisäksi aikasarjan logaritmointia y t = log(x t ) Linearisoi aikasarjassa olevan eksponentiaalisen trendin Vakioi aikasarjan tason mukana kasvavan varianssin Alkuperäinen aikasarja saadaan palautettua integroimalla Esim. Jos y t = Dx t niin x 1 = y 1 ja x t = y 1 + y 2 +... + y t, t = 2, 3,..., n. Esim. x t = exp(y t ).
Box-Jenkins menetelmä: 1b) Mallin tunnistaminen viivepolynomien asteluvut Kun aikasarja on stationarisoitu, valitaan käytettävän SARMA-mallin viivepolynomien asteluvut Valinnan apuna käytetään aikasarjan sekä sen korrelaatiofunktioiden ja spektrin kuvaajia Astelukujen valinta viivepolynomeille on usein niin vaativa tehtävä, että tavallisesti joudutaan tyytymään siihen, että mahdollisten astelukujen lukumäärä saadaan rajatuksi. Valittuja astelukuja kokeillaan estimoimalla vastaavat mallit (ks. Kohta 2) ja lopullisen mallin valinta tehdään vertailemalla estimoitujen mallien hyvyyttä. Vertailussa otetaan huomioon sekä estimoidun mallin parametrien merkitsevyys että diagnostisten tarkistusten (ks. Kohta 3) antamat tulokset.
Box-Jenkins menetelmä: 1 Mallin tunnistaminen Kommentteja Kun SARIMA(p, h, q)(p, H, Q) s -malleja sovitetaan yhteiskunnallisiin (esim. taloudellisiin) aikasarjoihin, joudutaan aika harvoin käyttämään malleja, joissa differensointien kertaluvut tai viivepolynomien asteluvut eivät olisi pieniä kokonaislukuja. Usein (ei kuitenkaan aina) riittää tarkastella seuraavia vaihtoehtoja: Differensointien kertaluvut: AR-osien asteluvut: MA-osien asteluvut: h = 0, 1 tai 2; H = 0 tai 1 p = 0, 1 tai 2; P = 0 tai 1 q = 0, 1 tai 2; Q = 0 tai 1
Esimerkki: Satunnaiskävely X 0.0 0.5 1.0 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Satunnaiskävely.
Esimerkki: Satunnaiskävely ACF 0.0 0.6 5 10 15 20 25 Lag Partial ACF 0.0 0.6 5 10 15 20 25 Lag Kuva : Satunnaiskävelyn autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: Satunnaiskävely X 0.0 0.5 1.0 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Satunnaiskävely (musta) ja differensoitu satunnaiskävely (sininen).
Esimerkki: Satunnaiskävely ACF 0.10 0.05 5 10 15 20 25 Lag Partial ACF 0.10 0.05 5 10 15 20 25 Lag Kuva : Differensoidun satunnaiskävelyn autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: Satunnaiskävely X 0.0 0.5 1.0 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Satunnaiskävely (musta) ja kahdesti differensoitu satunnaiskävely (vihreä).
Esimerkki: Satunnaiskävely ACF 0.5 0.1 5 10 15 20 25 Lag Partial ACF 0.5 0.1 5 10 15 20 25 Lag Kuva : Kahdesti differensoidun satunnaiskävelyn autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: geometrinen satunnaiskävely (GRW) Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Geometrinen satunnaiskävely.
Esimerkki: geometrinen satunnaiskävely ACF 0.0 0.6 5 10 15 20 25 Lag Partial ACF 0.0 0.6 5 10 15 20 25 Lag Kuva : GRW:n autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : GRW:n (punainen) ja differensoitu GRW (sininen).
Esimerkki: geometrinen satunnaiskävely ACF 0.10 0.05 5 10 15 20 25 Lag Partial ACF 0.10 0.05 5 10 15 20 25 Lag Kuva : Differensoidun GBM:n autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Geometrinen satunnaiskävely (punainen) ja kahdesti differensoitu GRW (musta).
Esimerkki: geometrinen satunnaiskävely ACF 0.5 0.1 5 10 15 20 25 Lag Partial ACF 0.5 0.1 5 10 15 20 25 Lag Kuva : Kahdesti differensoidun GRW:n autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Geometrinen satunnaiskävely (punainen) ja logaritmoitu GRW (musta).
Esimerkki: geometrinen satunnaiskävely ACF 0.0 0.6 5 10 15 20 25 Lag Partial ACF 0.0 0.6 5 10 15 20 25 Lag Kuva : Logaritmoidun GRW:n autokorrelaatio ja osittaisautokorrelaatio.
Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : GRW (musta) ja differensoitu log-grw (sininen).
Esimerkki: geometrinen satunnaiskävely ACF 0.10 0.05 5 10 15 20 25 Lag Partial ACF 0.10 0.05 5 10 15 20 25 Lag Kuva : Differensoidun log-grw:n autokorrelaatio ja osittaisautokorrelaatio.
Box-Jenkins menetelmä: 2. Mallin estimointi SARMA-malli voidaan estimoida R:llä käyttäen jotakin siihen tarkoitettua funktiota (esim. arima()), joka määrittää annetun aikasarjan parametrit käyttäen jotakin sopivaa menetelmää (esim. suurimman uskottavuuden menetelmä).
Box-Jenkins menetelmä: 3. Diagnostiset tarkistukset Diagnostiset tarkistukset perustuvat estimoidun SARMA-mallin residuaalien tutkimiseen: Tutkitaan residuaalien muodostaman aikasarjan sekä sen korrelaatiofunktioiden ja spektrin kuvaajia Testataan jäännösten korreloimattomuutta Estimoitua mallia pidetään riittävänä, jos sen jäännökset ovat valkoista kohinaa. Jos malli ei ole riittävä, niin on palattava tunnistamisvaiheeseen (1)
Box-Jenkins menetelmä: 3. Diagnostiset tarkistukset Jäännösten korreloimattomuutta voidaan testata Ljung-Box Q-testisuureella K r i Q K = n(n + 2) n i r i on jäännösten autokorrelaatio viiveellä i Saa selvästi sitä suurempia arvoja mitä voimakkaammin residuaalit ovat autokorreloituneita. Jos SARMA-mallin nollahypoteesi H 0 : ɛ t WN pätee, niin i=1 Q K a χ 2 (K m) m on estimoitujen parametrien lukumäärä SARMA-mallissa Suuret testisuureen Q K arvot johtavat nollahypoteesin hylkäämiseen. Q-testisuureen arvo ja sen jakauma rippuu mukaan otettujen autokorrelaatiokertoimien lukumäärästä K. Tavallisesti Q-testisuure on syytä laskea usealle eri K :lle.
Box-Jenkins menetelmä: 3. Diagnostiset tarkistukset Huom Ljung-Box menetelmällä testataan K :n ensimmäisen autokorrelaation merkitsevyyttä yhtä aikaa. K :n on oltava suurempi, kuin estimoitavien parametrien lukumäärä m. Käytännössä testin teho heikkenee, kun K kasvaa, koska testisuure noudattaa asymptoottisesti (n K :n suhteen) χ 2 (K m)-jakaumaa. Jos K on pieni, niin korkeamman asteen autokorrelaatiot jäävät testaamatta. Selkeää sääntöä K :n suuruudelle ei ole.
Eksponentiaalinen tasoitus Ad-hoc ennustemenetelmä, jolla ei ole vankkaa tilastotieteellistä pohjaa. Vrt. ARMA-mallit, joissa ensin oletetaan tietynlainen stokastinen prosessi, estimoidaan sen parametrit ja käytetään estimoitua mallia ennustamiseen. Eksponentiaalinen tasoitus alkaa ennusteesta. Laajasti käytetty Helppo toteuttaa Empiirinen havainto: Antaa robusteja ennusteita (eli suhteellisen hyviä ennusteita) erilaisille stokastisille prosesseille, vaikka ei olekaan yleensä optimaalinen ennuste.
Yksinkertainen eksponentiaalinen tasoitus Ennustetaan x t+1 :tä havaintojen x t, x t 1, x t 2,... painotetulla summalla ˆx t+1 t = w i x t i i=0 Painot w i = α(1 α) i 1, 0 < α < 1 pienenevät eksponentiaalisesti Nimi eksponentiaalinen tasoitus Tasoitusparametri α. Ennuste voidaan konstruoida päivityskaavalla ˆx t+1 t = αx t + (1 α)ˆx t t 1 = αˆɛ t + ˆx t t 1, missä ˆɛ t = x t ˆx t t 1 on askeleen t ennustevirhe.
Yksinkertainen eksponentiaalinen tasoitus: Tulkinta ˆx t+1 t = αx t + (1 α)ˆx t t 1 Voidaan osoittaa että yksinkertainen eksponentiaalinen tasoitus on optimaalinen ennuste, jos x t on ARIMA(0,1,1) prosessi: Dx t on MA(1)-prosessi Dx t = x t x t 1 = ɛ t + θ 1 ɛ t 1, (ɛ) t T WN(0, σ 2 ) Huom Päivitysparametrin arvo on α = θ 1 + 1 Todistus: Harjoitustehtävä. Ehto MA(1) prosessin käännettävyydelle on θ 1 < 1, joten estimoitu MA(1)-malli voi implikoida päivitysparametrille arvon α (0, 2).
Yksinkertainen eksponentiaalinen tasoitus: Tulkinta ˆx t+1 t = αx t + (1 α)ˆx t t 1 Voidaan osoittaa että yksinkertainen eksponentiaalinen tasoitus on optimaalinen ennuste, jos x t on kohinainen satunnaiskävely, eli prosessi: x t = m t + ɛ t, missä m t = m t 1 + η t, on satunnaiskävely ja (ɛ t ) t T IID(0, σ 2 1), (η t ) t T IID(0, σ 2 2) Optimaalinen α riippuu signaali-kohina-suhteesta var(ɛt ) var(η t ). Todistuksessa käytetään Kalman-suodatinta, jota ei käsitellä tällä kurssilla. Taso m t on estimoitava havainnoista x t : m t = αx t + (1 α)m t 1 ja ˆx t+1 t = m t.
Kaksinkertainen eksponentiaalinen tasoitus Kaksinkertaisessa eksponentiaalisessa tasoituksessa päivitetään tason m ja trendin β estimaatteja: ˆx t+l t = m t + lβ t m t = α 1 x t + (1 α 1 )(m t 1 + β t 1 ) β t = α 2 (m t m t 1 ) + (1 α 2 )β t 1. Sopivilla parametreilla α i tämä on optimaalinen ARIMA(0,2,2) mallille. Voidaan kirjoittaa missä ˆɛ t = x t ˆx t t 1. m t = m t 1 + β t 1 + α 1ˆɛ t β t = β t 1 + α 1 α 2ˆɛ t,
Eksponentiaalinen tasoitus kausivaihtelulla Eksponentiaalisessa tasoituksessa voidaan ottaa huomioon myös kausivaihtelu (kauden pituus s): ˆx t+l t = ( m t + lβ t ) cn s+l, l = 1, 2,..., missä taso m t, trendi β t ja kausivaihtelu c t saadaan kaavoilla x t m t = α 1 + (1 α 1 ) ( ) m t 1 + β t 1 c t s β t = α 2 (m t m t 1 ) + (1 α 1 )β t 1 c t = α 3 x t m t + (1 α 2 )c t s.
Eksponentiaalinen tasoitus - Kommentteja Eksponentiaalista tasoitusta sovelletaan usein käyttämällä kiinteitä tasoitusparametreja Joskus tasoitusparametrit estimoidaan havainnoista, mikä parantaa mallin sopivuutta havaintoihin SARIMA-mallien käyttöä suositellaan, jos mahdollista Ei arvattuja vakioita (vrt. tasoitusparametrit α i ) vaan parametrit estimoidaan aineistosta. Eksponentiaalinen tasoitus tuottaa yhtä hyviä ennusteita, jos aikasarja todellakin on käytettyä eksponentiaalista tasoitusmenetelmää vastaavan SARIMA-prosessin generoima: Yksinkertainen eksponentiaalinen tasoitus - ARIMA(0,1,1) Kaksinkertainen eksponentiaalinen tasoitus - ARIMA(0,2,2)
Aikasarjojen ositus Useissa aikasarjoissa voidaan nähdä seuraavia piirteitä: Trendejä eli aikasarjan tason systemaattisia muutoksia. Syklistä vaihtelua tai suhdannevaihtelua. Kausivaihtelua, Satunnaista vaihtelua. Tämä empiirinen havainto on johtanut ajatukseen, että aikasarjat kannattaisi osana tilastollista analyysia yrittää osittaa vastaaviin komponentteihin eli osiin.
Aikasarjan osituksen tavoitteet (i) Aikasarjan käyttäytymisen kuvailu komponenttiensa avulla. (ii) Aikasarjan analysointi komponenttiensa avulla. (iii) Kausipuhdistus eli aikasarjan tilastollisen analyysin kannalta häiritseväksi koetun kausivaihtelun eliminointi. x t 0 5 10 15 20 25 5 10 15 20 Time
Aikasarjan ositus Decomposition of additive time series seasonal trend observed random 1.5 0.0 1.5 5 15 25 0 10 20 3 1 1 3 5 10 15 20 Time
Aikasarjan ositus komponentteihin Aikasarjan osituksessa oletetaan, että aikasarja x t, t = 1, 2,..., n voidaan esittää seuraavien komponenttien summana tai tulona: m t = trendikomponentti c t = syklinen (tai suhdanne-) komponentti s t = kausikomponentti e t = jäännös (tai satunnais-) komponentti. Summamuoto: x t = m t + c t + s t + e t. Tulomuoto: x t = m t c t s t e t. Tulomuoto voidaan muuntaa summamuotoon: log x t = log m t + log c t + log s t + log e t.
Aikasarjan ositus komponentteihin Huom Suhdannevaihtelu ja kausivaihtelu eivät ole sama asia: Suhdannevaihtelu (tai syklinen vaihtelu) on vaihtelua, jonka jaksot ovat epäsäännöllisiä ja syklit voivat olla pitkiä. Esimerkiksi talouden suhdanteet (nousukausi vs. lama). Kausivaihtelu puolestaan on saman pituisissa jaksoissa säännöllisesti toistuvaa vaihtelua. Esimerkiksi joulukuusten myynti.
Aikasarjojen ositus: Kausipuhdistus Aikasarjan osituksen tavoitteena on usein aikasarjan kausipuhdistus. Kausipuhdistuksessa alkuperäisestä aikasarjasta x t muodostetaan uusi aikasarja y t, josta häiritseväksi koettu kausivaihtelukomponentti s t on eliminoitu: (i) Kausipuhdistus summamuodossa: y t = x t s t = m t + c t + e t (ii) Kausipuhdistus tulomuodossa: y t = x t s t = m t c t e t.
Aikasarjojen ositusmenetelmät Yleisesti käytettyjä ositusmenetelmiä: X12 (iteratiivinen liukuvien keskiarvojen menetelmä). X12-ARIMA (ARIMA-mallit iteratiiviseen liukuvien keskiarvojen menetelmään yhdistävä menetelmä). Aikasarjojen rakennemallit (vrt. eksp. tasoituksen yhteydessä esitetyt tila-avaruus mallit).
Aikasarjojen osituksen kritiikki Osituksen/kausipuhdistuksen perustelut Komponettien ja/tai kausipuhdistetun aikasarjan analysointi olisi helpompaa kuin alkuperäisen aikasarjan analysointi Osituksen/kausipuhdistuksen kritiikki Aikasarjan jako trendi-, suhdanne-, kausi- ja jäännöskomponentteihin on aina enemmän tai vähemmän mielivaltaista. Komponentit eivät ole todellisia, mitattavissa olevia suureita. Ositusmenetelmien taustalla ei ole (rakennemalleja lukuun ottamatta) mitään tilastollista mallia. Osituksen onnistumista on hyvin vaikeata mitata tilastollisin kriteerein. Kausipuhdistus vääristää aikasarjojen autokorrelaatiorakenteen (sisäiset aikariippuvuudet). Kausipuhdistus vääristää aikasarjojen taajuusalueen ominaisuudet. Kausipuhdistus saattaa vääristää aikasarjojen väliset riippuvuudet.
Aikasarjojen osituksen käyttö Johtopäätös kritiikistä: Aikasarjojen ositusta voidaan suhteellisen järkevästi käyttää osana aikasarjojen kuvailua, mutta komponenttien käyttäminen tilastollisissa malleissa on yleensä arveluttavaa. Kausipuhdistus voidaan tilastollisessa analyysissa korvata muilla, tilastotieteen kannalta paremmin perustelluilla menetelmillä: Ajassa aggregointi Yhdistetään (summaamalla, keskiarvoistamalla) aikasarjan peräkkäisiä havaintoja uudeksi aikasarjaksi Ajassa otanta Poimitaan aikasarjasta havaintoja tasaisin aikavälein uudeksi aikasarjaksi Kausidifferensointi Kausivaihtelun huomioiminen tilastollisten mallien rakenteessa.
Sisältö 1 ARMA-mallien rakentaminen 2 Johdatus dynaamisiin regressiomalleihin
Dynaamiset regressiomallit Tilastolliset aikasarjat voidaan jakaa kahteen ryhmään: 1 Autoprojektiiviset aikasarjamallit hyödyntävät pelkästään aikasarjan omaa historiaa (esim. ARMA-mallit). 2 Dynaamiset regressiomallit hyödyntävät aikasarjan oman historian lisäksi sen riippuvuutta muista aikasarjoista ja niiden historiasta.
Tavallinen lineaarinen regressiomalli Tarkastellaan yhden selittäjän lineaarista regressiomallia y t = α + βx t + ɛ t, t T missä selitettävä muuttuja y t ja selittäjä x t ovat aikasarjoja ja jäännöstermi toteuttaa standardioletukset satunnaisen selittäjän tapauksessa, 1 E[ɛ t x t ] = 0, t T 2 var(ɛ t x t ) = σ 2, t T 3 cor(ɛ t, ɛ s x t, x s ) = 0, t s. Tällöin selitettävän muuttujan y t ehdollinen odotusarvo ehdolla x t = x on E[y t x t = x] = α + βx.
Tavallinen lineaarinen regressiomalli: Tasapaino Oletetaan, että selittäjä x s on sama vakio x kaikille s t: x t = x, s t Silloin selitettävän muuttujan y s (ehdollinen) odotusarvo on vakio kaikille s t: E[y s x s = x] = α + βx = y. Sanotaan, että malli on tasapainossa ja sen tasapainotila on (x, y).
Tavallinen lineaarinen regressiomalli: Sopeutuminen y t = α + βx t + ɛ t, t T, Oletetaan että selittäjä kasvaa yhdellä yksiköllä hetkellä t + 1: x t+1 = x + 1. Silloin selitettävän muuttujan y t+1 ehdollinen odotusarvo on E[y t+1 x t+1 = x + 1] = α + β(x + 1) = y + β. Selitettävän muuttujan arvo pysyy samana niin kauan kunnes selittävän muuttujan arvo taas muuttuu, eli malli on hetkellä t + 1 tasapainotilassa (x + 1, y + β).
Tavallinen lineaarinen regressiomalli: Staattisuus y t = α + βx t + ɛ t, t T, Malli siirtyy uuteen tasapainotilaan välittömästi selittäjän muuttuessa. Regressiokerroin β kuvaa selittäjän x t arvossa tapahtuvan yhden yksikön kokoisen lisäyksen välitöntä vaikutusta selitettävän muuttujan y t ehdolliseen odotusarvoon. Lineaarinen regressiomalli on staattinen: Selitettävän muuttujan (ehdollinen) odotusarvo ei muutu, elleivät selittäjien saamat arvot muutu. Selitettävän muuttujan (ehdollinen) odotusarvo reagoi selittäjien arvojen muutoksiin välittömästi, ilman viivettä.
Dynaamiset regressiomallit: Idea Halutaan malli, jossa selitettävän muuttujan (ehdollinen) odotusarvo reagoi selittäjien arvojen muutoksiin vähitellen tai asteittain. Tällaisia malleja kutsutaan dynaamisiksi regressiomalleiksi. Yksinkertaisin dynaaminen regressiomalli on jakautuneen viiveen (distributed lag) malli, jossa selitettävän muuttujan y t arvo riippuu selittäjän x t arvoista myös edellisillä ajanhetkillä.
Jakautuneen viiveen malli Yksinkertainen jakautuneen viiveen malli määritellään asettamalla y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., missä jäännöstermi ɛ t toteuttaa standardioletukset ehdolla x t,..., x t p. Mallissa on p + 1 selittäjää, mutta selittäjät ovat muuttujan x viiveitä. Selitettävän muuttujan arvo ajanhetkellä t riippuu Selittäjän arvosta ajanhetkellä t. Selittäjän lähihistoriasta, eli sen arvoista ajanhetkeä t välittömästi edeltävinä ajanhetkinä t 1,..., t p. Selitettävän muuttujan y t ehdollinen odotusarvo on E[y t x t, x t 1,..., x t p ] = α + β 0 x t + β 1 x t 1 +... + β p x t p.
Jakautuneen viiveen malli y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., Huom Prosessin (y t ) t T mallintaminen jakautuneen viiveen mallilla prosessin (x t ) t T suhteen edellyttää, että prosessien välinen yhteys on ajan suhteen stationaarinen, eli kertoimet riippuvat vain viiveistä, ei ajanhetkistä: Voidaan ajatella, että kertoimet ovat y:n derivaattoja x:n suhteen eri viiveillä, β s = y t x t s = y t+s x t. Ilman tätä ehtoa kertoimet β 0,..., β p riippuisivat ajasta, eikä pelkästään aikavälin pituudesta s, joka tekisi mallin käytöstä vaikeaa.
Jakautuneen viiveen malli: Tasapaino y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., Oletetaan, että selittäjän arvo x s on sama vakio x kaikille s {t p,..., t}, x s = x, s {t p,..., t}. Silloin selitettävän muuttujan y t ehdollinen odotusarvo on E[y t x t, x t 1,..., x t p ] = α + β 0 x + β 1 x +... + β p x = α + βx = y, missä β = β 0 + β 1 +... + β p. Malli on tasapainossa ja sen tasapainotila on (x, y).
Jakautuneen viiveen malli: Sopeutuminen y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., Oletetaan, että x t+1 = x + 1. Tavallinen yhden selittäjän lineaarinen regressiomalli sopeutuu uuteen tasapainoon välittömästi. Jakautuneen viiveen mallin määrittelemän systeemin sopeutuminen uuteen tasapainoon kestää muutoksen jälkeen vielä p ajanhetkeä.
Jakautuneen viiveen malli: Sopeutuminen Kun selittäjä kasvaa yhdellä yksiköllä ajanhetkellä t + 1 ja pysyy sen jälkeen samana, { x kun s {t p,..., t} x s = x + 1 kun s = t + 1, t + 2..., niin E[y t x t,..., x t p ] = α + β 0 x + β 1 x +... + β p x = α + βx = y E[y t+1 x t+1,..., x t p+1 ] = α + β 0 (x + 1) + β 1 x +... + β p x E[y t+2 x t+2,..., x t p+2 ] = α + β 0 (x + 1) + β 1 (x + 1) + β 2 x +... + β p x.. E[y t+p+1 x t+p,..., x t ] = α + β 0 (x + 1) +... + β p 1 (x + 1) + β p x E[y t+p+1 x t+p+1,..., x t+1 ] = α + β 0 (x + 1) +... + β p (x + 1) = y + β
Jakautuneen viiveen malli: Sopeutuminen Jos selittäjän arvo x + 1 ei muutu enää ajanhetken t + 1 jälkeen, niin selittettävän muuttujan y s ehdollinen odotusarvo E[y s x s,..., x s p ] = α + β 0 (x + 1) +... + β p (x + 1) = y + β ei enää muutu, kun s t + p + 1 jälkeen. Siten jakautuneen viiveen malli on päässyt uuteen tasapainoon ajanhetkellä t + p + 1 ja uutena tasapainotilana on (x + 1, y + β)
Jakautuneen viiveen malli: Regressiokertoimien tulkinta Jakautuneen viiveen mallin y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., regressiokertoimia voidaan tulkita seuraavasti: (i) kerroin β 0 kuvaa selittävän muuttujan saaman yhden yksikön kokoisen lisäyksen välitöntä vaikutusta selitettävään muuttujaan. (ii) Regressiokertoimien summa β = β 0 + β 1 +... + β p kuvaa selittävän muuttujan yhden yksikön kokoisen lisäyksen pitkän ajan vaikutusta selitettävään muuttujaan.
Jakautuneen viiveen malli: parametrien estimointi Jakautuneen viiveen mallin y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., parametrit voidaan estimoida lineaarisella regressiolla. Ongelmia: 1 selittäjän multikollineaarisuus, jos prosessi (x t ) t T on autokorreloitunut. 2 jos aikasarjasta (x t ) t T on n havaintoa, niin käytettävissä on n p havaintoa p + 2 parametrin estimoimiseksi (kertoimien β 0,..., β p lisäksi vakioparametri α). vapausasteita jää n 2p 2: yhden parametrin lisääminen pienentää estimointiin käytettävissä olevan aineiston kokoa yhdellä. Jälkimmäisen ongelman voi ratkaista asettamalla rajoitteita kertoimille β i, esimerkiksi lineaarisesti vähenvät β i :t, β i = p + 1 i p + 1 β 0, i = 1, 2,..., p.
Jakautuneen viiveen malli: yleinen muoto Jakautuneen viiveen mallissa voidaan teoriassa ajatella, että y t riippuu prosessien ( ) x 1t t T,..., ( x kt koko historiasta, jolloin )t T y t = α + β 1i x 1(t i) + β 2i x 2(t i) +... + β ki x k(t i) + ɛ t, i=0 i=0 missä (ɛ t ) y T WN ( 0, σ 2). i=0 Jos äärettömän moni kertoimista β ji poikkeaa nollasta (esimerkiksi eksponentiaalisesti väheneviä, β ji = β j0 δ i j, δ j < 1), niin prosessi y t ei saavuta koskaan uutta tasapainotilaa.
Yksinkertainen ARMAX-malli ARMAX-malli on ARMA-mallin ja regressiomallin yhdistelmä, jossa tarkasteltava prosessi y t riippuu missä prosessin historiasta tulevasta autoregressiivisesta osasta kohinan liukuvasta keskiarvosta ulkopuolisesta (ekosgeenisesta) muuttujasta x t. p q b y t = ɛ t + φ i y t i + θ i ɛ t i + η i x t i, i=1 (ɛ t ) t T WN(0, σ 2 ), i=1 φ 1,..., φ p ovat AR-osan parametrit, θ 1,..., θ q ovat MA-osan parametrit ja i=0 η 0,..., η b ovat eksogeeniseen muutujaan x t liittyvät parametrit.
ARMAX-malli Kuten ARMA malleissa, myös ARMAX malleissa voidaan huomioda myös kausivaihtelut ja lisäksi ulkopuolisia muuttujia voi olla useampia. ARMAX-malli voidaan esittää yleisemmin muodossa k Φ(L)y t = Θ(L)ɛ t + H j (L)x jt, missä Φ(L), Θ(L) ja H i (L) ovat samantyyppiset viivepolynomit kuin ARMA-mallien tapauksessa ja selittäjinä käytetään muuttujia x i, joista on havaittu aikasarjat x j = (x j1, x j2,...x jt ), kaikilla j = 1,..., k. j=1
ARIMAX-malli ARIMAX-malli vastaa ARIMA-mallia, mutta siinä on mukana yksi tai useampia eksogeenisiä muuttujia. ARIMAX-mallia noudattavan prosessin y t (jonkin asteen) h differenssit D h y t siis noudattavat ARMAX-mallia ja parametrit estimoidaan differensseille samaan tapaan kuin ARIMA-mallien tapauksessakin. R: arima(), arimax().
Ensi viikolla: Vierailijaluento: Jussi Hirvonen: Ammattina ennustaja diplomityöni Wärtsilässä Dynaaminen regressio Kertaus
Luentokalvot pohjautuvat osittain Mellinin ja Liesiön aiempien vuosien kalvoihin.