ARMA mallien rakentaminen, johdatus dynaamisiin regressiomalle

Samankaltaiset tiedostot
Dynaamiset regressiomallit

ARMA mallien rakentaminen, Kalmanin suodatin

Ennustaminen ARMA malleilla ja Kalmanin suodin

ARMA mallien ominaisuudet ja rakentaminen

Kertaus. MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä

Kertaus. MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari

Regressioanalyysi. Vilkkumaa / Kuusinen 1

ARMA mallien ominaisuudet ja rakentaminen

Regressioanalyysi. Kuusinen/Heliövaara 1

Dynaamiset regressiomallit

Mat Tilastollisen analyysin perusteet, kevät 2007

Stationaariset stokastiset prosessit ja ARMA-mallit

3. Tietokoneharjoitukset

Viikon 5 harjoituksissa käytämme samoja aikasarjoja kuin viikolla 4. Tiedosto Muuttuja Kuvaus Havaintoväli Aikasarjan pituus

4. Tietokoneharjoitukset

4. Tietokoneharjoitukset

Ilkka Mellin Aikasarja-analyysi Aikasarjat

ABHELSINKI UNIVERSITY OF TECHNOLOGY

805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016)

MS-C2128 Ennustaminen ja aikasarja-analyysi ARMA esimerkkejä

Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1

Mat Tilastollisen analyysin perusteet, kevät 2007

Johdatus regressioanalyysiin. Heliövaara 1

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH

6. Tietokoneharjoitukset

6.5.2 Tapering-menetelmä

Yleistetyistä lineaarisista malleista

Tiedosto Muuttuja Kuvaus Havaintoväli Aikasarjan pituus. Intelin osakekurssi. (Pörssi-) päivä n = 20 Intel_Volume. Auringonpilkkujen määrä

Ilkka Mellin Aikasarja-analyysi. Dynaamiset regressiomallit. TKK (c) Ilkka Mellin (2006) 1

9. Tila-avaruusmallit

1. Tilastollinen malli??

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Sovellettu todennäköisyyslaskenta B

Harjoitus 9: Excel - Tilastollinen analyysi

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-C2128 Ennustaminen ja Aikasarja-analyysi, 5 op Esittely

Yleinen lineaarinen malli

Identifiointiprosessi

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Osa 2: Otokset, otosjakaumat ja estimointi

Tilastollisen analyysin perusteet Luento 7: Lineaarinen regressio

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Väliestimointi (jatkoa) Heliövaara 1

4.0.2 Kuinka hyvä ennuste on?

Järjestyslukuihin perustuva eksponentiaalinen tasoitus ja volatiliteetin ennustaminen

Identifiointiprosessi

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

MS-C2128 Ennustaminen ja Aikasarja-analyysi, 5 op Esittely

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

Kuva 3.1: Näyte Gaussisesta valkoisest kohinasta ε t N(0, 1) Aika t

Auringonpilkkujen jaksollisuus

Regressiodiagnostiikka ja regressiomallin valinta

Yksisuuntainen varianssianalyysi (jatkoa) Kuusinen/Heliövaara 1

Odotusarvoparien vertailu. Vilkkumaa / Kuusinen 1

Johdatus tilastotieteeseen Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2004) 1

Aikasarjamallit. Pekka Hjelt

805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016)

Ilkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2007) 1

Yksisuuntainen varianssianalyysi (jatkoa) Heliövaara 1

Aalto-yliopisto, Matematiikan ja systeemianalyysin laitos /Malmivuori MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi,

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Sovellettu todennäköisyyslaskenta B

5.7 Uskottavuusfunktioon perustuvia testejä II

Regressiodiagnostiikka ja regressiomallin valinta

Dynaamisten systeemien identifiointi 1/2

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Estimointi. Vilkkumaa / Kuusinen 1

Erityiskysymyksiä yleisen lineaarisen mallin soveltamisessa

Harjoitus 7 : Aikasarja-analyysi (Palautus )

xi = yi = 586 Korrelaatiokerroin r: SS xy = x i y i ( x i ) ( y i )/n = SS xx = x 2 i ( x i ) 2 /n =

pitkittäisaineistoissa

TA7, Ekonometrian johdantokurssi HARJOITUS 4 1 RATKAISUEHDOTUKSET

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

1. Tutkitaan tavallista kahden selittäjän regressiomallia

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Harjoitus 7: NCSS - Tilastollinen analyysi

MS-C2128 Ennustaminen ja Aikasarja-analyysi, 5 op Esittely

3.6 Su-estimaattorien asymptotiikka

pitkittäisaineistoissa

Sovellettu todennäköisyyslaskenta B

6.2.3 Spektrikertymäfunktio

Kaksisuuntainen varianssianalyysi. Heliövaara 1

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

805306A Johdatus monimuuttujamenetelmiin, 5 op

Korrelaatiokertoinen määrittely 165

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Johdatus regressioanalyysiin

Missä mennään. systeemi. identifiointi. mallikandidaatti. validointi. malli. (fysikaalinen) mallintaminen. mallin mallin käyttötarkoitus, reunaehdot

805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016)

2. Uskottavuus ja informaatio

1. Tutkitaan regressiomallia Y i = β 0 + β 1 X i + u i ja oletetaan, että tavanomaiset

tilastotieteen kertaus

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1

ABHELSINKI UNIVERSITY OF TECHNOLOGY

Johdatus varianssianalyysiin. Vilkkumaa / Kuusinen 1

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

Vastepintamenetelmä. Kuusinen/Heliövaara 1

Transkriptio:

ARMA mallien rakentaminen, johdatus dynaamisiin regressiomalleihin MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015

Viikko 5: ARMA mallien rakentaminen, johdatus dynaamisiin regressiomalleihin 1 ARMA-mallien rakentaminen 1 Box-Jenkins menetelmä 2 Eksponentiaalinen tasoitus 3 Aikasarjojen ositus 2 Johdatus dynaamisiin regressiomalleihin 1 Tavallinen regressiomalli 2 Jakautuneen viipymän malli

Sisältö 1 ARMA-mallien rakentaminen 2 Johdatus dynaamisiin regressiomalleihin

Box-Jenkins mallinnuksen idea Pyritään rakentamaan malli, joka kuvaa ilmiötä riittävän hyvin mahdollisimman vähillä parametreilla. Mitä enemmän parametreja estimoidaan, sitä enemmän voidaan mennä pieleen. Monimutkaisemmat mallit saadaan sovitettua aineistoon paremmin, mutta eivät yleensä toimi hyvin ennustamisessa.

Box-Jenkins mallinnusstrategia Boxin-Jenkins menetelmä on SARIMA-mallien rakentamisstrategia, joka sisältää kolme vaihetta: 1 Mallin tunnistaminen (a) Aikasarjan stationarisoimiseksi tarvittavien differensointien kertalukujen h ja H (sekä s) valinta (SARIMA SARMA-aikasarja). (b) SARMA-mallin viivepolynomien astelukujen (p, q, P, Q) valinta arvaamalla. 2 Mallin estimointi Estimoidaan parametrit θ i, Θ i, φ i, Φ i (yht p + q + P + Q kpl), esimerkiksi SU-menetelmällä (vrt. ARMA-mallin esitimointi edellä). 3 Diagnostiset tarkastukset: Ovatko estimoidun SARMA-mallin jäänökset valkoista kohinaa? Ei Palataan vaiheeseen 1. On Malli on valmis

Box-Jenkins menetelmä: 1a) Mallin tunnistaminen Differensointien kertaluvut Stationaarisuuden saavuttamiseksi aikasarjoja joudutaan usein differensoimaan tai logaritmoimaan. Differensointien kertalukujen valinnan apuna käytetään aikasarjan, sen korrelaatiofunktioiden sekä spektrin kuvaajia. Aikasarjaa differensoidaan kunnes tuloksena saatavaa aikasarjaa voidaan pitää stationaarisena. Jos kuvaajat näyttävät siltä, että aikasarja voisi olla stationaarinen, aikasarjaa ei pidä differensoida. Aikasarjan stationarisoimiseksi välttämättömät differensoinnit yleensä pienentävät aikasarjan varianssia, kun taas ylidifferensoinnilla on taipumus kasvattaa aikasarjan varianssia.

Box-Jenkins menetelmä: 1a) Mallin tunnistaminen Stationarisoinnin työkalut Differenssi Dx t = x t x t 1 poistaa aikasarjasta deterministisen lineaarisen trendin. Vastaavasti p. differenssi D p poistaa p. asteen polynomisen trendin. Kausidifferenssi D s x t = x t x ts poistaa aikasarjasta deterministisen kausivaihtelun, jonka periodi on s. Joskus tarvitaan lisäksi aikasarjan logaritmointia y t = log(x t ) Linearisoi aikasarjassa olevan eksponentiaalisen trendin Vakioi aikasarjan tason mukana kasvavan varianssin Alkuperäinen aikasarja saadaan palautettua integroimalla Esim. Jos y t = Dx t niin x 1 = y 1 ja x t = y 1 + y 2 +... + y t, t = 2, 3,..., n. Esim. x t = exp(y t ).

Box-Jenkins menetelmä: 1b) Mallin tunnistaminen viivepolynomien asteluvut Kun aikasarja on stationarisoitu, valitaan käytettävän SARMA-mallin viivepolynomien asteluvut Valinnan apuna käytetään aikasarjan sekä sen korrelaatiofunktioiden ja spektrin kuvaajia Astelukujen valinta viivepolynomeille on usein niin vaativa tehtävä, että tavallisesti joudutaan tyytymään siihen, että mahdollisten astelukujen lukumäärä saadaan rajatuksi. Valittuja astelukuja kokeillaan estimoimalla vastaavat mallit (ks. Kohta 2) ja lopullisen mallin valinta tehdään vertailemalla estimoitujen mallien hyvyyttä. Vertailussa otetaan huomioon sekä estimoidun mallin parametrien merkitsevyys että diagnostisten tarkistusten (ks. Kohta 3) antamat tulokset.

Box-Jenkins menetelmä: 1 Mallin tunnistaminen Kommentteja Kun SARIMA(p, h, q)(p, H, Q) s -malleja sovitetaan yhteiskunnallisiin (esim. taloudellisiin) aikasarjoihin, joudutaan aika harvoin käyttämään malleja, joissa differensointien kertaluvut tai viivepolynomien asteluvut eivät olisi pieniä kokonaislukuja. Usein (ei kuitenkaan aina) riittää tarkastella seuraavia vaihtoehtoja: Differensointien kertaluvut: AR-osien asteluvut: MA-osien asteluvut: h = 0, 1 tai 2; H = 0 tai 1 p = 0, 1 tai 2; P = 0 tai 1 q = 0, 1 tai 2; Q = 0 tai 1

Esimerkki: Satunnaiskävely X 0.0 0.5 1.0 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Satunnaiskävely.

Esimerkki: Satunnaiskävely ACF 0.0 0.6 5 10 15 20 25 Lag Partial ACF 0.0 0.6 5 10 15 20 25 Lag Kuva : Satunnaiskävelyn autokorrelaatio ja osittaisautokorrelaatio.

Esimerkki: Satunnaiskävely X 0.0 0.5 1.0 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Satunnaiskävely (musta) ja differensoitu satunnaiskävely (sininen).

Esimerkki: Satunnaiskävely ACF 0.10 0.05 5 10 15 20 25 Lag Partial ACF 0.10 0.05 5 10 15 20 25 Lag Kuva : Differensoidun satunnaiskävelyn autokorrelaatio ja osittaisautokorrelaatio.

Esimerkki: Satunnaiskävely X 0.0 0.5 1.0 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Satunnaiskävely (musta) ja kahdesti differensoitu satunnaiskävely (vihreä).

Esimerkki: Satunnaiskävely ACF 0.5 0.1 5 10 15 20 25 Lag Partial ACF 0.5 0.1 5 10 15 20 25 Lag Kuva : Kahdesti differensoidun satunnaiskävelyn autokorrelaatio ja osittaisautokorrelaatio.

Esimerkki: geometrinen satunnaiskävely (GRW) Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Geometrinen satunnaiskävely.

Esimerkki: geometrinen satunnaiskävely ACF 0.0 0.6 5 10 15 20 25 Lag Partial ACF 0.0 0.6 5 10 15 20 25 Lag Kuva : GRW:n autokorrelaatio ja osittaisautokorrelaatio.

Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : GRW:n (punainen) ja differensoitu GRW (sininen).

Esimerkki: geometrinen satunnaiskävely ACF 0.10 0.05 5 10 15 20 25 Lag Partial ACF 0.10 0.05 5 10 15 20 25 Lag Kuva : Differensoidun GBM:n autokorrelaatio ja osittaisautokorrelaatio.

Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Geometrinen satunnaiskävely (punainen) ja kahdesti differensoitu GRW (musta).

Esimerkki: geometrinen satunnaiskävely ACF 0.5 0.1 5 10 15 20 25 Lag Partial ACF 0.5 0.1 5 10 15 20 25 Lag Kuva : Kahdesti differensoidun GRW:n autokorrelaatio ja osittaisautokorrelaatio.

Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : Geometrinen satunnaiskävely (punainen) ja logaritmoitu GRW (musta).

Esimerkki: geometrinen satunnaiskävely ACF 0.0 0.6 5 10 15 20 25 Lag Partial ACF 0.0 0.6 5 10 15 20 25 Lag Kuva : Logaritmoidun GRW:n autokorrelaatio ja osittaisautokorrelaatio.

Esimerkki: geometrinen satunnaiskävely Y 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 t Kuva : GRW (musta) ja differensoitu log-grw (sininen).

Esimerkki: geometrinen satunnaiskävely ACF 0.10 0.05 5 10 15 20 25 Lag Partial ACF 0.10 0.05 5 10 15 20 25 Lag Kuva : Differensoidun log-grw:n autokorrelaatio ja osittaisautokorrelaatio.

Box-Jenkins menetelmä: 2. Mallin estimointi SARMA-malli voidaan estimoida R:llä käyttäen jotakin siihen tarkoitettua funktiota (esim. arima()), joka määrittää annetun aikasarjan parametrit käyttäen jotakin sopivaa menetelmää (esim. suurimman uskottavuuden menetelmä).

Box-Jenkins menetelmä: 3. Diagnostiset tarkistukset Diagnostiset tarkistukset perustuvat estimoidun SARMA-mallin residuaalien tutkimiseen: Tutkitaan residuaalien muodostaman aikasarjan sekä sen korrelaatiofunktioiden ja spektrin kuvaajia Testataan jäännösten korreloimattomuutta Estimoitua mallia pidetään riittävänä, jos sen jäännökset ovat valkoista kohinaa. Jos malli ei ole riittävä, niin on palattava tunnistamisvaiheeseen (1)

Box-Jenkins menetelmä: 3. Diagnostiset tarkistukset Jäännösten korreloimattomuutta voidaan testata Ljung-Box Q-testisuureella K r i Q K = n(n + 2) n i r i on jäännösten autokorrelaatio viiveellä i Saa selvästi sitä suurempia arvoja mitä voimakkaammin residuaalit ovat autokorreloituneita. Jos SARMA-mallin nollahypoteesi H 0 : ɛ t WN pätee, niin i=1 Q K a χ 2 (K m) m on estimoitujen parametrien lukumäärä SARMA-mallissa Suuret testisuureen Q K arvot johtavat nollahypoteesin hylkäämiseen. Q-testisuureen arvo ja sen jakauma rippuu mukaan otettujen autokorrelaatiokertoimien lukumäärästä K. Tavallisesti Q-testisuure on syytä laskea usealle eri K :lle.

Box-Jenkins menetelmä: 3. Diagnostiset tarkistukset Huom Ljung-Box menetelmällä testataan K :n ensimmäisen autokorrelaation merkitsevyyttä yhtä aikaa. K :n on oltava suurempi, kuin estimoitavien parametrien lukumäärä m. Käytännössä testin teho heikkenee, kun K kasvaa, koska testisuure noudattaa asymptoottisesti (n K :n suhteen) χ 2 (K m)-jakaumaa. Jos K on pieni, niin korkeamman asteen autokorrelaatiot jäävät testaamatta. Selkeää sääntöä K :n suuruudelle ei ole.

Eksponentiaalinen tasoitus Ad-hoc ennustemenetelmä, jolla ei ole vankkaa tilastotieteellistä pohjaa. Vrt. ARMA-mallit, joissa ensin oletetaan tietynlainen stokastinen prosessi, estimoidaan sen parametrit ja käytetään estimoitua mallia ennustamiseen. Eksponentiaalinen tasoitus alkaa ennusteesta. Laajasti käytetty Helppo toteuttaa Empiirinen havainto: Antaa robusteja ennusteita (eli suhteellisen hyviä ennusteita) erilaisille stokastisille prosesseille, vaikka ei olekaan yleensä optimaalinen ennuste.

Yksinkertainen eksponentiaalinen tasoitus Ennustetaan x t+1 :tä havaintojen x t, x t 1, x t 2,... painotetulla summalla ˆx t+1 t = w i x t i i=0 Painot w i = α(1 α) i 1, 0 < α < 1 pienenevät eksponentiaalisesti Nimi eksponentiaalinen tasoitus Tasoitusparametri α. Ennuste voidaan konstruoida päivityskaavalla ˆx t+1 t = αx t + (1 α)ˆx t t 1 = αˆɛ t + ˆx t t 1, missä ˆɛ t = x t ˆx t t 1 on askeleen t ennustevirhe.

Yksinkertainen eksponentiaalinen tasoitus: Tulkinta ˆx t+1 t = αx t + (1 α)ˆx t t 1 Voidaan osoittaa että yksinkertainen eksponentiaalinen tasoitus on optimaalinen ennuste, jos x t on ARIMA(0,1,1) prosessi: Dx t on MA(1)-prosessi Dx t = x t x t 1 = ɛ t + θ 1 ɛ t 1, (ɛ) t T WN(0, σ 2 ) Huom Päivitysparametrin arvo on α = θ 1 + 1 Todistus: Harjoitustehtävä. Ehto MA(1) prosessin käännettävyydelle on θ 1 < 1, joten estimoitu MA(1)-malli voi implikoida päivitysparametrille arvon α (0, 2).

Yksinkertainen eksponentiaalinen tasoitus: Tulkinta ˆx t+1 t = αx t + (1 α)ˆx t t 1 Voidaan osoittaa että yksinkertainen eksponentiaalinen tasoitus on optimaalinen ennuste, jos x t on kohinainen satunnaiskävely, eli prosessi: x t = m t + ɛ t, missä m t = m t 1 + η t, on satunnaiskävely ja (ɛ t ) t T IID(0, σ 2 1), (η t ) t T IID(0, σ 2 2) Optimaalinen α riippuu signaali-kohina-suhteesta var(ɛt ) var(η t ). Todistuksessa käytetään Kalman-suodatinta, jota ei käsitellä tällä kurssilla. Taso m t on estimoitava havainnoista x t : m t = αx t + (1 α)m t 1 ja ˆx t+1 t = m t.

Kaksinkertainen eksponentiaalinen tasoitus Kaksinkertaisessa eksponentiaalisessa tasoituksessa päivitetään tason m ja trendin β estimaatteja: ˆx t+l t = m t + lβ t m t = α 1 x t + (1 α 1 )(m t 1 + β t 1 ) β t = α 2 (m t m t 1 ) + (1 α 2 )β t 1. Sopivilla parametreilla α i tämä on optimaalinen ARIMA(0,2,2) mallille. Voidaan kirjoittaa missä ˆɛ t = x t ˆx t t 1. m t = m t 1 + β t 1 + α 1ˆɛ t β t = β t 1 + α 1 α 2ˆɛ t,

Eksponentiaalinen tasoitus kausivaihtelulla Eksponentiaalisessa tasoituksessa voidaan ottaa huomioon myös kausivaihtelu (kauden pituus s): ˆx t+l t = ( m t + lβ t ) cn s+l, l = 1, 2,..., missä taso m t, trendi β t ja kausivaihtelu c t saadaan kaavoilla x t m t = α 1 + (1 α 1 ) ( ) m t 1 + β t 1 c t s β t = α 2 (m t m t 1 ) + (1 α 1 )β t 1 c t = α 3 x t m t + (1 α 2 )c t s.

Eksponentiaalinen tasoitus - Kommentteja Eksponentiaalista tasoitusta sovelletaan usein käyttämällä kiinteitä tasoitusparametreja Joskus tasoitusparametrit estimoidaan havainnoista, mikä parantaa mallin sopivuutta havaintoihin SARIMA-mallien käyttöä suositellaan, jos mahdollista Ei arvattuja vakioita (vrt. tasoitusparametrit α i ) vaan parametrit estimoidaan aineistosta. Eksponentiaalinen tasoitus tuottaa yhtä hyviä ennusteita, jos aikasarja todellakin on käytettyä eksponentiaalista tasoitusmenetelmää vastaavan SARIMA-prosessin generoima: Yksinkertainen eksponentiaalinen tasoitus - ARIMA(0,1,1) Kaksinkertainen eksponentiaalinen tasoitus - ARIMA(0,2,2)

Aikasarjojen ositus Useissa aikasarjoissa voidaan nähdä seuraavia piirteitä: Trendejä eli aikasarjan tason systemaattisia muutoksia. Syklistä vaihtelua tai suhdannevaihtelua. Kausivaihtelua, Satunnaista vaihtelua. Tämä empiirinen havainto on johtanut ajatukseen, että aikasarjat kannattaisi osana tilastollista analyysia yrittää osittaa vastaaviin komponentteihin eli osiin.

Aikasarjan osituksen tavoitteet (i) Aikasarjan käyttäytymisen kuvailu komponenttiensa avulla. (ii) Aikasarjan analysointi komponenttiensa avulla. (iii) Kausipuhdistus eli aikasarjan tilastollisen analyysin kannalta häiritseväksi koetun kausivaihtelun eliminointi. x t 0 5 10 15 20 25 5 10 15 20 Time

Aikasarjan ositus Decomposition of additive time series seasonal trend observed random 1.5 0.0 1.5 5 15 25 0 10 20 3 1 1 3 5 10 15 20 Time

Aikasarjan ositus komponentteihin Aikasarjan osituksessa oletetaan, että aikasarja x t, t = 1, 2,..., n voidaan esittää seuraavien komponenttien summana tai tulona: m t = trendikomponentti c t = syklinen (tai suhdanne-) komponentti s t = kausikomponentti e t = jäännös (tai satunnais-) komponentti. Summamuoto: x t = m t + c t + s t + e t. Tulomuoto: x t = m t c t s t e t. Tulomuoto voidaan muuntaa summamuotoon: log x t = log m t + log c t + log s t + log e t.

Aikasarjan ositus komponentteihin Huom Suhdannevaihtelu ja kausivaihtelu eivät ole sama asia: Suhdannevaihtelu (tai syklinen vaihtelu) on vaihtelua, jonka jaksot ovat epäsäännöllisiä ja syklit voivat olla pitkiä. Esimerkiksi talouden suhdanteet (nousukausi vs. lama). Kausivaihtelu puolestaan on saman pituisissa jaksoissa säännöllisesti toistuvaa vaihtelua. Esimerkiksi joulukuusten myynti.

Aikasarjojen ositus: Kausipuhdistus Aikasarjan osituksen tavoitteena on usein aikasarjan kausipuhdistus. Kausipuhdistuksessa alkuperäisestä aikasarjasta x t muodostetaan uusi aikasarja y t, josta häiritseväksi koettu kausivaihtelukomponentti s t on eliminoitu: (i) Kausipuhdistus summamuodossa: y t = x t s t = m t + c t + e t (ii) Kausipuhdistus tulomuodossa: y t = x t s t = m t c t e t.

Aikasarjojen ositusmenetelmät Yleisesti käytettyjä ositusmenetelmiä: X12 (iteratiivinen liukuvien keskiarvojen menetelmä). X12-ARIMA (ARIMA-mallit iteratiiviseen liukuvien keskiarvojen menetelmään yhdistävä menetelmä). Aikasarjojen rakennemallit (vrt. eksp. tasoituksen yhteydessä esitetyt tila-avaruus mallit).

Aikasarjojen osituksen kritiikki Osituksen/kausipuhdistuksen perustelut Komponettien ja/tai kausipuhdistetun aikasarjan analysointi olisi helpompaa kuin alkuperäisen aikasarjan analysointi Osituksen/kausipuhdistuksen kritiikki Aikasarjan jako trendi-, suhdanne-, kausi- ja jäännöskomponentteihin on aina enemmän tai vähemmän mielivaltaista. Komponentit eivät ole todellisia, mitattavissa olevia suureita. Ositusmenetelmien taustalla ei ole (rakennemalleja lukuun ottamatta) mitään tilastollista mallia. Osituksen onnistumista on hyvin vaikeata mitata tilastollisin kriteerein. Kausipuhdistus vääristää aikasarjojen autokorrelaatiorakenteen (sisäiset aikariippuvuudet). Kausipuhdistus vääristää aikasarjojen taajuusalueen ominaisuudet. Kausipuhdistus saattaa vääristää aikasarjojen väliset riippuvuudet.

Aikasarjojen osituksen käyttö Johtopäätös kritiikistä: Aikasarjojen ositusta voidaan suhteellisen järkevästi käyttää osana aikasarjojen kuvailua, mutta komponenttien käyttäminen tilastollisissa malleissa on yleensä arveluttavaa. Kausipuhdistus voidaan tilastollisessa analyysissa korvata muilla, tilastotieteen kannalta paremmin perustelluilla menetelmillä: Ajassa aggregointi Yhdistetään (summaamalla, keskiarvoistamalla) aikasarjan peräkkäisiä havaintoja uudeksi aikasarjaksi Ajassa otanta Poimitaan aikasarjasta havaintoja tasaisin aikavälein uudeksi aikasarjaksi Kausidifferensointi Kausivaihtelun huomioiminen tilastollisten mallien rakenteessa.

Sisältö 1 ARMA-mallien rakentaminen 2 Johdatus dynaamisiin regressiomalleihin

Dynaamiset regressiomallit Tilastolliset aikasarjat voidaan jakaa kahteen ryhmään: 1 Autoprojektiiviset aikasarjamallit hyödyntävät pelkästään aikasarjan omaa historiaa (esim. ARMA-mallit). 2 Dynaamiset regressiomallit hyödyntävät aikasarjan oman historian lisäksi sen riippuvuutta muista aikasarjoista ja niiden historiasta.

Tavallinen lineaarinen regressiomalli Tarkastellaan yhden selittäjän lineaarista regressiomallia y t = α + βx t + ɛ t, t T missä selitettävä muuttuja y t ja selittäjä x t ovat aikasarjoja ja jäännöstermi toteuttaa standardioletukset satunnaisen selittäjän tapauksessa, 1 E[ɛ t x t ] = 0, t T 2 var(ɛ t x t ) = σ 2, t T 3 cor(ɛ t, ɛ s x t, x s ) = 0, t s. Tällöin selitettävän muuttujan y t ehdollinen odotusarvo ehdolla x t = x on E[y t x t = x] = α + βx.

Tavallinen lineaarinen regressiomalli: Tasapaino Oletetaan, että selittäjä x s on sama vakio x kaikille s t: x t = x, s t Silloin selitettävän muuttujan y s (ehdollinen) odotusarvo on vakio kaikille s t: E[y s x s = x] = α + βx = y. Sanotaan, että malli on tasapainossa ja sen tasapainotila on (x, y).

Tavallinen lineaarinen regressiomalli: Sopeutuminen y t = α + βx t + ɛ t, t T, Oletetaan että selittäjä kasvaa yhdellä yksiköllä hetkellä t + 1: x t+1 = x + 1. Silloin selitettävän muuttujan y t+1 ehdollinen odotusarvo on E[y t+1 x t+1 = x + 1] = α + β(x + 1) = y + β. Selitettävän muuttujan arvo pysyy samana niin kauan kunnes selittävän muuttujan arvo taas muuttuu, eli malli on hetkellä t + 1 tasapainotilassa (x + 1, y + β).

Tavallinen lineaarinen regressiomalli: Staattisuus y t = α + βx t + ɛ t, t T, Malli siirtyy uuteen tasapainotilaan välittömästi selittäjän muuttuessa. Regressiokerroin β kuvaa selittäjän x t arvossa tapahtuvan yhden yksikön kokoisen lisäyksen välitöntä vaikutusta selitettävän muuttujan y t ehdolliseen odotusarvoon. Lineaarinen regressiomalli on staattinen: Selitettävän muuttujan (ehdollinen) odotusarvo ei muutu, elleivät selittäjien saamat arvot muutu. Selitettävän muuttujan (ehdollinen) odotusarvo reagoi selittäjien arvojen muutoksiin välittömästi, ilman viivettä.

Dynaamiset regressiomallit: Idea Halutaan malli, jossa selitettävän muuttujan (ehdollinen) odotusarvo reagoi selittäjien arvojen muutoksiin vähitellen tai asteittain. Tällaisia malleja kutsutaan dynaamisiksi regressiomalleiksi. Yksinkertaisin dynaaminen regressiomalli on jakautuneen viiveen (distributed lag) malli, jossa selitettävän muuttujan y t arvo riippuu selittäjän x t arvoista myös edellisillä ajanhetkillä.

Jakautuneen viiveen malli Yksinkertainen jakautuneen viiveen malli määritellään asettamalla y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., missä jäännöstermi ɛ t toteuttaa standardioletukset ehdolla x t,..., x t p. Mallissa on p + 1 selittäjää, mutta selittäjät ovat muuttujan x viiveitä. Selitettävän muuttujan arvo ajanhetkellä t riippuu Selittäjän arvosta ajanhetkellä t. Selittäjän lähihistoriasta, eli sen arvoista ajanhetkeä t välittömästi edeltävinä ajanhetkinä t 1,..., t p. Selitettävän muuttujan y t ehdollinen odotusarvo on E[y t x t, x t 1,..., x t p ] = α + β 0 x t + β 1 x t 1 +... + β p x t p.

Jakautuneen viiveen malli y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., Huom Prosessin (y t ) t T mallintaminen jakautuneen viiveen mallilla prosessin (x t ) t T suhteen edellyttää, että prosessien välinen yhteys on ajan suhteen stationaarinen, eli kertoimet riippuvat vain viiveistä, ei ajanhetkistä: Voidaan ajatella, että kertoimet ovat y:n derivaattoja x:n suhteen eri viiveillä, β s = y t x t s = y t+s x t. Ilman tätä ehtoa kertoimet β 0,..., β p riippuisivat ajasta, eikä pelkästään aikavälin pituudesta s, joka tekisi mallin käytöstä vaikeaa.

Jakautuneen viiveen malli: Tasapaino y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., Oletetaan, että selittäjän arvo x s on sama vakio x kaikille s {t p,..., t}, x s = x, s {t p,..., t}. Silloin selitettävän muuttujan y t ehdollinen odotusarvo on E[y t x t, x t 1,..., x t p ] = α + β 0 x + β 1 x +... + β p x = α + βx = y, missä β = β 0 + β 1 +... + β p. Malli on tasapainossa ja sen tasapainotila on (x, y).

Jakautuneen viiveen malli: Sopeutuminen y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., Oletetaan, että x t+1 = x + 1. Tavallinen yhden selittäjän lineaarinen regressiomalli sopeutuu uuteen tasapainoon välittömästi. Jakautuneen viiveen mallin määrittelemän systeemin sopeutuminen uuteen tasapainoon kestää muutoksen jälkeen vielä p ajanhetkeä.

Jakautuneen viiveen malli: Sopeutuminen Kun selittäjä kasvaa yhdellä yksiköllä ajanhetkellä t + 1 ja pysyy sen jälkeen samana, { x kun s {t p,..., t} x s = x + 1 kun s = t + 1, t + 2..., niin E[y t x t,..., x t p ] = α + β 0 x + β 1 x +... + β p x = α + βx = y E[y t+1 x t+1,..., x t p+1 ] = α + β 0 (x + 1) + β 1 x +... + β p x E[y t+2 x t+2,..., x t p+2 ] = α + β 0 (x + 1) + β 1 (x + 1) + β 2 x +... + β p x.. E[y t+p+1 x t+p,..., x t ] = α + β 0 (x + 1) +... + β p 1 (x + 1) + β p x E[y t+p+1 x t+p+1,..., x t+1 ] = α + β 0 (x + 1) +... + β p (x + 1) = y + β

Jakautuneen viiveen malli: Sopeutuminen Jos selittäjän arvo x + 1 ei muutu enää ajanhetken t + 1 jälkeen, niin selittettävän muuttujan y s ehdollinen odotusarvo E[y s x s,..., x s p ] = α + β 0 (x + 1) +... + β p (x + 1) = y + β ei enää muutu, kun s t + p + 1 jälkeen. Siten jakautuneen viiveen malli on päässyt uuteen tasapainoon ajanhetkellä t + p + 1 ja uutena tasapainotilana on (x + 1, y + β)

Jakautuneen viiveen malli: Regressiokertoimien tulkinta Jakautuneen viiveen mallin y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., regressiokertoimia voidaan tulkita seuraavasti: (i) kerroin β 0 kuvaa selittävän muuttujan saaman yhden yksikön kokoisen lisäyksen välitöntä vaikutusta selitettävään muuttujaan. (ii) Regressiokertoimien summa β = β 0 + β 1 +... + β p kuvaa selittävän muuttujan yhden yksikön kokoisen lisäyksen pitkän ajan vaikutusta selitettävään muuttujaan.

Jakautuneen viiveen malli: parametrien estimointi Jakautuneen viiveen mallin y t = α + β 0 x t + β 1 x t 1 +... + β p x t p + ɛ t, t = p + 1, p + 2,..., parametrit voidaan estimoida lineaarisella regressiolla. Ongelmia: 1 selittäjän multikollineaarisuus, jos prosessi (x t ) t T on autokorreloitunut. 2 jos aikasarjasta (x t ) t T on n havaintoa, niin käytettävissä on n p havaintoa p + 2 parametrin estimoimiseksi (kertoimien β 0,..., β p lisäksi vakioparametri α). vapausasteita jää n 2p 2: yhden parametrin lisääminen pienentää estimointiin käytettävissä olevan aineiston kokoa yhdellä. Jälkimmäisen ongelman voi ratkaista asettamalla rajoitteita kertoimille β i, esimerkiksi lineaarisesti vähenvät β i :t, β i = p + 1 i p + 1 β 0, i = 1, 2,..., p.

Jakautuneen viiveen malli: yleinen muoto Jakautuneen viiveen mallissa voidaan teoriassa ajatella, että y t riippuu prosessien ( ) x 1t t T,..., ( x kt koko historiasta, jolloin )t T y t = α + β 1i x 1(t i) + β 2i x 2(t i) +... + β ki x k(t i) + ɛ t, i=0 i=0 missä (ɛ t ) y T WN ( 0, σ 2). i=0 Jos äärettömän moni kertoimista β ji poikkeaa nollasta (esimerkiksi eksponentiaalisesti väheneviä, β ji = β j0 δ i j, δ j < 1), niin prosessi y t ei saavuta koskaan uutta tasapainotilaa.

Yksinkertainen ARMAX-malli ARMAX-malli on ARMA-mallin ja regressiomallin yhdistelmä, jossa tarkasteltava prosessi y t riippuu missä prosessin historiasta tulevasta autoregressiivisesta osasta kohinan liukuvasta keskiarvosta ulkopuolisesta (ekosgeenisesta) muuttujasta x t. p q b y t = ɛ t + φ i y t i + θ i ɛ t i + η i x t i, i=1 (ɛ t ) t T WN(0, σ 2 ), i=1 φ 1,..., φ p ovat AR-osan parametrit, θ 1,..., θ q ovat MA-osan parametrit ja i=0 η 0,..., η b ovat eksogeeniseen muutujaan x t liittyvät parametrit.

ARMAX-malli Kuten ARMA malleissa, myös ARMAX malleissa voidaan huomioda myös kausivaihtelut ja lisäksi ulkopuolisia muuttujia voi olla useampia. ARMAX-malli voidaan esittää yleisemmin muodossa k Φ(L)y t = Θ(L)ɛ t + H j (L)x jt, missä Φ(L), Θ(L) ja H i (L) ovat samantyyppiset viivepolynomit kuin ARMA-mallien tapauksessa ja selittäjinä käytetään muuttujia x i, joista on havaittu aikasarjat x j = (x j1, x j2,...x jt ), kaikilla j = 1,..., k. j=1

ARIMAX-malli ARIMAX-malli vastaa ARIMA-mallia, mutta siinä on mukana yksi tai useampia eksogeenisiä muuttujia. ARIMAX-mallia noudattavan prosessin y t (jonkin asteen) h differenssit D h y t siis noudattavat ARMAX-mallia ja parametrit estimoidaan differensseille samaan tapaan kuin ARIMA-mallien tapauksessakin. R: arima(), arimax().

Ensi viikolla: Vierailijaluento: Jussi Hirvonen: Ammattina ennustaja diplomityöni Wärtsilässä Dynaaminen regressio Kertaus

Luentokalvot pohjautuvat osittain Mellinin ja Liesiön aiempien vuosien kalvoihin.