6.5.2 Tapering-menetelmä

Samankaltaiset tiedostot
6.2.3 Spektrikertymäfunktio

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH

805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016)

Vastaavasti voidaan määritellä korkeamman kertaluvun autoregressiiviset prosessit.

4.0.2 Kuinka hyvä ennuste on?

9. Tila-avaruusmallit

Kuva 3.1: Näyte Gaussisesta valkoisest kohinasta ε t N(0, 1) Aika t

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

ARMA mallien ominaisuudet ja rakentaminen

Dynaamiset regressiomallit

6.1 Autokovarianssifunktion karakterisaatio aikatasossa

Stationaariset stokastiset prosessit ja ARMA-mallit

805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016)

805324A (805679S) Aikasarja-analyysi Harjoitus 5 (2016)

Ennustaminen ARMA malleilla ja Kalmanin suodin

Dynaamiset regressiomallit

805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016)

3. Teoriaharjoitukset

ARMA(p, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma.

ARMA mallien ominaisuudet ja rakentaminen

Ilkka Mellin Aikasarja-analyysi Stationaariset stokastiset prosessit

Signaalimallit: sisältö

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

Regressioanalyysi. Kuusinen/Heliövaara 1

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Ilkka Mellin Aikasarja-analyysi ARMA-mallit

6. Tietokoneharjoitukset

Tiedosto Muuttuja Kuvaus Havaintoväli Aikasarjan pituus. Intelin osakekurssi. (Pörssi-) päivä n = 20 Intel_Volume. Auringonpilkkujen määrä

Kertaus. MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari

Sovellettu todennäköisyyslaskenta B

Kertaus. MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä

Dynaamisten systeemien identifiointi 1/2

STOKASTISET PROSESSIT

Identifiointiprosessi

Viikon 5 harjoituksissa käytämme samoja aikasarjoja kuin viikolla 4. Tiedosto Muuttuja Kuvaus Havaintoväli Aikasarjan pituus

Likimääräisratkaisut ja regularisaatio

3. Tietokoneharjoitukset

ARIMA- ja GARCH-mallit sekä mallin sovittaminen osakeaineistoon

Osa 2: Otokset, otosjakaumat ja estimointi

ARMA mallien rakentaminen, Kalmanin suodatin

Koska ovat negatiiviset. Keskihajontoja ei pystytä laskemaan mutta pätee ¾.

Missä mennään. systeemi. identifiointi. mallikandidaatti. validointi. malli. (fysikaalinen) mallintaminen. mallin mallin käyttötarkoitus, reunaehdot

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Sovellettu todennäköisyyslaskenta B

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

Keskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6)

ABHELSINKI UNIVERSITY OF TECHNOLOGY

Estimointi. Vilkkumaa / Kuusinen 1

Vastepintamenetelmä. Kuusinen/Heliövaara 1

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Johdatus varianssianalyysiin. Vilkkumaa / Kuusinen 1

Yksisuuntainen varianssianalyysi (jatkoa) Heliövaara 1

Aikasarjamallit. Pekka Hjelt

Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1

Sovellettu todennäköisyyslaskenta B

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

Yksisuuntainen varianssianalyysi (jatkoa) Kuusinen/Heliövaara 1

Kaksisuuntainen varianssianalyysi. Heliövaara 1

Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).

ARMA mallien rakentaminen, johdatus dynaamisiin regressiomalle

TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio. Mat Systeemien Identifiointi. 4. harjoitus

Maximum likelihood-estimointi Alkeet

Tilastotieteen aihehakemisto

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Mat Tilastollisen analyysin perusteet, kevät 2007

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Odotusarvoparien vertailu. Vilkkumaa / Kuusinen 1

Todennäköisyyden ominaisuuksia

Johdatus regressioanalyysiin. Heliövaara 1

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:

Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

MS-C2128 Ennustaminen ja aikasarja-analyysi ARMA esimerkkejä

LUKU 3. Ulkoinen derivaatta. dx i 1. dx i 2. ω i1,i 2,...,i k

Mat Dynaaminen optimointi, mallivastaukset, kierros Vaimennetun heilurin tilanyhtälöt on esitetty luennolla: θ = g sin θ r θ

805306A Johdatus monimuuttujamenetelmiin, 5 op

Väliestimointi (jatkoa) Heliövaara 1

Ilkka Mellin Aikasarja-analyysi. Dynaamiset regressiomallit. TKK (c) Ilkka Mellin (2006) 1

Harha mallin arvioinnissa

tilastotieteen kertaus

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Gripenberg. MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta

4. Tietokoneharjoitukset

1 Kertaus. Lineaarinen optimointitehtävä on muotoa:

9. laskuharjoituskierros, vko 12-13, ratkaisut

MS-C2128 Ennustaminen ja Aikasarja-analyysi, 5 op Esittely

4. Tietokoneharjoitukset

Johdatus tilastotieteeseen Väliestimointi. TKK (c) Ilkka Mellin (2005) 1

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Tilastollisen analyysin perusteet Luento 7: Lineaarinen regressio

3 Yleistä estimointiteoriaa. Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin

2. Teoriaharjoitukset

r = r f + r M r f (Todistus kirjassa sivulla 177 tai luennon 6 kalvoissa sivulla 6.) yhtälöön saadaan ns. CAPM:n hinnoittelun peruskaava Q P

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen

Sovellettu todennäköisyyslaskenta B

805324A (805679S) Aikasarja-analyysi (Syksy 2016) Sari Lasanen

Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle

Transkriptio:

6.5.2 Tapering-menetelmä Määritelmä 6.7. Tapering on spektrin estimointimenetelmä, jossa estimaattori on muotoa f m (ω) = 1 m ( ) k w 2π m Γ(k)e ikω, k= m missä Γ on otosautokovarianssifunktio ja ikkunafunktio w on jatkuva funktio, jolle w(0) = 1, 1 w(x) 1 kaikilla x ja w(x) = 0 kun x > 1. Huomautus 6.5.2. Painoja w kutsutaan myös tapeiksi. Englanninkielisiä termejä ovat data window ja taper. Jos viiveikkunafunktioon käytetään Fourier-sarjan määritelmää, saadaan ns. spektriikkuna W m (ω) = 1 m ( ) k w 2π m e ikω. Ikkunointi keskiarvoistaa spektriä: k= m Lemma 6.4. Spektri-ikkunafunktiolle pätee m k= m w( k/m)g k e ikω = π π W m (ω ω )G(ω )dω aina kun G(ω) = 1 2π k= g k e ikω. Todistus. π π W (ω ω )G(ω )dω = = π π π π = 1 2π W (ω ω ) 1 g k e ikω dω 2π k= 1 m ( ) k w 2π m e ikω 1 2π k= m m ( ) k w m g k e ikω. k= m k = g k e ik ω dω Esimerkki 6.14. Dirichlet ydinfunktio (=katkaistu ikkuna): W (ω) = sin((m + 1 2 )ω)) 2π sin(ω/2) jolle w(x) = 1 kun x 1 ja w(x) = 0 muulloin. 76

Esimerkki 6.15. Bartlett-ydinfunktio (kolmioikkuna) Esimerkki 6.16. Parzen-ydinfunktio W (ω) = sin2 (mω/2) 2πm sin 2 (ω/2) { 1 x, kun x 1 w(x) = 0 muulloin. W (ω) = 6 sin4 (mω/4) πm 3 sin 4 (ω/4). Esimerkki 6.17. Tukey-Hamming-ikkuna: { 0.54 + 0.46 cos(πj/m)(1 j /M) kun j m w(j) = 0 muulloin. 77

Esimerkki 6.18. Split cosine bell taper w(j) = { 1, j ( (n ( 1)(1 ( α/2) ))) 0.5 1 cos π 2 j 2 + 1, (n 1)(1 α/2) < j n 1 α(n 1) α Kuva 6.16: Split cosine bell taper (α = 2=sininen, α=0.4=musta, α = 1.2=punainen). 0.0 0.4 0.8 40 20 0 20 40 Kuva 6.17: Aikasarja X t = cos( 11πt 128 ), t = 1,..., 128. aikasarja 1.0 0.5 0.0 0.5 1.0 0 20 40 60 80 100 120 aika 78

Kuva 6.18: Näytteen otosautokovarianssi Series x5 ACF (cov) 0.4 0.0 0.4 0 20 40 60 80 100 120 Lag Kuva 6.19: Näytteen otosautokovarianssi on käsitelty tapering-menetelmällä Tapered sample autocovariance 0.4 0.0 0.4 400 200 0 200 400 lags 79

Kuva 6.20: Periodogrammi ja tapering-menetelmällä käsitelty periodogrammi 0.00 0.05 0.10 0.15 0.20 0.25 0.0 0.2 0.4 0.6 0.8 taajuus 80

7. Epästationääriset prosessit Tähän asti käsittelimme heikosti stationäärisiä prosesseja. Useat aikasarjat ovat kuitenkin selkeästi epästationäärisiä. Epästationäärisyys voi ilmetä usealla eri tavalla 1. Odotusarvo µ t = E[X t ] riippuu ajasta. 2. Autokovarianssifunktio Γ t (τ) = E[(X t E[X t ])(X t τ E[X t τ ])] riippuu ajasta (vaikka odotusarvo ei riippuisikaan ajasta). Mikäli kohta 1 tai kohta 2 on totta, niin prosessi X t ei ole heikosti stationäärinen. 3. Prosessin X t äärellisulotteiset jakaumat riippuvat ajasta. Mikäli kohta 3 on totta, niin prosessi ei ole stationäärinen (vaikka se olisi heikosti stationäärinen.) Tässä luvussa käsittelemme eräitä epästationääristen prosessien malleja. 7.1 Aikasarjan klassiset komponentit Klassinen tapa esittää epästationäärinen aikasarjamalli on jakaa prosessi kolmeen eri komponenttiin: X t = m t + s t + ε t, missä trendi m t on hitaasti muuttuva funktio. Kun aikasarja on pitkällä aikavälillä kasvava (tai vähenevä), niin malliin otetaan mukaaan trendi m t. s t on kausikomponentti. Kun aikasarjassa on säännöllisesti toistuvaa vaihtelua, niin malliin otetaan mukaan s t. ε t on stokastinen jäännöskompoentti. Trendin ja kausikomponentin valinnoilla pyritään saamaan jäännöskomponentti heikosti stationääriseksi prosesssiksi, jonka odotusarvo on nolla. Joskus malliin otetaan mukaan ns. syklinen komponentti c t, joka edustaa toistuvaa, mutta ajallisesti epäsäännöllistä käyttäytymistä. Prosessin klassinen jako trendiin, kausikomponenttiin ja stokastiseen komponenttiin on puhtaasti pragmaattinen ja perustuu aikasarjan visuaaliseen tarkasteluun. Jaottelu trendiin ja kausikomponenttiin ei ole tarkkaa matemaattista luokittelua, vaan jako tähtää aikasarjan approksimatiiviseen mallittamiseen. 81

Kuva 7.1: Prosessin X t epästationäärisyys ja (heikko) stationäärisyys. Ei ripu ajasta Odotusarvo E[X t ] Riippuu ajasta Autokovarianssifunktio E[(X t E[X t ])(X t E[X t ])] Ei heikosti stationäärinen eikä stationäärinen Riippuu ajasta Ei ripu ajasta Heikosti stationäärinen Ei heikosti stationäärinen eikä stationäärinen Riippuu ajasta Ei ripu ajasta Ei ole stationäärinen Stationäärinen 82

Kuva 7.2: Päivittäinen pörssi-indeksi (DAX) Frankfurtin pörssin sulkeutumisaikaan. Aikasarjassa on pitkällä aikavälillä kasvua, joten sen mallissa on otettava trendi huomioon. DAX 2000 3000 4000 5000 6000 1992 1993 1994 1995 1996 1997 1998 Aika (Vuosina) 7.2 Trendi Esimerkki 7.1. Trendi voi olla deterministinen tai stokastinen. Deterministinen trendi voi olla lineaarinen tai epälineaarinen ajan funktio. Yksinkertaisin (mutta suosittu!) trendi on missä a, δ R. m t = a + δt, (7.2.1) Yksinkertainen trendimalli (7.2.1) sisällytetään yleensä aikasarjamalliin. Erikoistapaus a = δ = 0 antaa silloin trendittömän mallin. Epälineaarisen trendimallin tarve voidaan havaita aikasarjan kuvaajaa tarkastelemalla. Jos aikasarjan arvot ovat positiivisia, voidaan epälineaarinen trendi usein linearisoida ottamalla aikasarjasta logaritmi. Esimerkiksi puhtaasti ekponentiaalinen kasvu m t = exp(δt) muuntuu silloin lineaariseksi log(m t ) = δt. Esimerkki 7.2 (ARMA-malli+trendi). Olkoon Y t ARMA(p, q)-prosessi, jonka odotusarvo on nolla. Silloin prosessi X t = a + δt + Y t on epästationäärinen prosessi, jonka trendi m t = a + δt. 83

Kuva 7.3: Nouseva trendi: m t = 3 + 0.5t. (Näyte prosessista X t = 3 + 0.5t + Y t, kun Y t on AR(1)-prosessi Y t = 0.9Y t 1 + ε t, missä valkoinen kohina ε N(0, 1)) X t 0 10 20 30 40 50 0 20 40 60 80 100 Aika t Kuva 7.4: Laskeva trendi: m t = 3 0.5t. (Näyte prosessista X t = 3 0.5t + Y t, kun Y t on AR(1)-prosessi Y t = 0.9Y t 1 + ε t, missä valkoinen kohina ε N(0, 1)) X t 50 40 30 20 10 0 0 20 40 60 80 100 Aika t Esimerkki 7.3 (ARMA-malli+epälineaarinen trendi). Olkoon Y t ARMA(p, q)-prosessi, jonka odotusarvo on nolla. Silloin prosessi on epästationäärinen prosessi, jonka trendi X t = a + δ 1 t + δ 2 t 2 + Y t m t = a + δ 1 t + δ 2 t 2. 84

Kuva 7.5: Epälineaarinen trendi: m t = 3 + 0.05t + 0.01t 2. (Näyte prosessista X t = m t + Y t, kun Y t on AR(1)-prosessi Y t = 0.9Y t 1 + ε t, missä valkoinen kohina ε N(0, 1)) X t 0 50 100 150 0 20 40 60 80 100 Aika t Kuva 7.6: Epälineaarinen trandi: m t = 3 + e 0.05t. (Näyte prosessista X t = 3 + m t + Y t, kun Y t on AR(1)-prosessi Y t = 0.9Y t 1 + ε t, missä valkoinen kohina ε N(0, 1)) X t 0 20 40 60 80 100 0 20 40 60 80 100 Aika t 7.3 ARIMA-malli ARIMA-malli on ARMA-mallin epästationäärinen yleistys, joka ottaa huomioon trendin olemassaolon. ARIMA-malli perustuu aikasarjan muuntamiseen heikosti stationääriseksi viivekuvausten avulla. Epästationäärisen prosessin X t = m t + ε t ensimmäiset differenssit X t X t 1 = m t m t 1 + ε t ε t 1 ovat lineaarisen trendin tapauksessa trendittömiä, sillä m t m t 1 = a + δt a δ(t 1) = δ. 85

Määritelmä 7.1. Olkoon p, q, d ei-negatiivisia kokonaislukuja ja L viivekuvaus. Stokastinen prosessi X t on ARIMA (p, d, q)-prosessi (autoregressiivinen integroitu liukuvan keskiarvon malli), jos (I L) d X t on ARMA(p, q)-prosessi, jonka AR-osa toteuttaa kausaalisuusehdon: 1 φ 1 z φ p z p 0 aina, kun z 1. Esimerkki 7.4. Olkoon Y t = 0.8Y t 1 + ε t. Silloin 1 0.8z = 0 z = 1 0.7 > 1, joten Y t on sallittu AR-prosessi. Kun (I L)X t = X t X t 1 = Y t niin X t on ARIMA(1,1,0)-prosessi. missä Y t on AR(1)-prosessi. Samoin kuin Harjoituksen 1 tehtävässä 3, voidaan X t muodostaa rekursiivisesti Tällöin odotusarvo X t = X 0 + E[X t ] = E[X 0 + riippuu kiinnitetystä prosessin arvosta. Samoin autokovarianssi E[(X t E[X 0 ])(X t τ E[X 0 ])] = t k=1 Y k t Y k ] = E[X 0 ] k=1 t t τ φ k k E[( k=1 k =1 t τ E[( Y k )(X 0 E[X 0 ])] + E[(X 0 E[X 0 ]) 2 ], k=1 t Y k )(X 0 E[X 0 ]) kun t > τ. Sekä odotusarvo että autokovarianssi riippuvat ARIMA-mallin parametrien lisäksi myös prosessin X t kiinnitetystä pisteestä. k=1 86

Kuva 7.7: Näyte ARIMA(1,1,0)-prosessista X t. X t 0 5 10 15 20 25 30 0 10 20 30 40 Aika t Kuva 7.8: Näytteen otosautokovarianssi Series x 50 0 50 100 0 10 20 30 40 Esimerkki 7.5. Gaussinen satunnaiskävelijä (eng. Gaussian random walk) voidaan tulkita ARIMA(0,1,0)-prosessiksi. X t = X t 1 + ε t, ε t N(0, 1) ARIMA-mallilla X t on seuraavat ominaisuudet. Kun d 0, niin ARIMA-malli on epästationäärinen. Efektiivisesti ARIMA-malli lisää kausaalisen ARMA-mallin AR-polynomiin juuren, joka on yksikköympyrän kehällä. Tällaisesta juuresta käytetään nimitystä yksikköjuuri Edes lineaarinen trendi a + δt ei sisälly kokonaisuudessaan ARIMA-mallin parametreihin, sillä lineaarinen trendi poistuu, kun differenssit (I L)X t lasketaan (kts Esim. 7.6. Mikäli halutaan estimoida koko trendiä, tarvitaan muutakin kuin ARIMA-malli. 87

Differenssien oton jälkeen saadaan aikasarja (I L) d X t, jonka tulee olla heikosti stationäärinen. Kaikille aikasarjoille tämä vaatimus ei toteudu. ARIMA-malli on erikoistapaus epästationäärisistä prosesseista. 7.3.1 ARIMA-mallin ennustaminen Ryhdytään laatimaan ARIMA-mallin yhden askeleen ennustetta lineaaristen projektioiden avulla. Ennustetaan arvoa X n+1, kun tunnetaan arvot (X 1,..., X n ). ARIMA-mallin MMSE-ennuste on X n+1 = E[X n+1 X 0,... X n ]. Esimerkki 7.6 (ARIMA(1,1,0)-malli). Esimerkissä osoitettiin, että ARIMA(1,1,0)-malli X t X t 1 = Y t, missä voidaan kirjoittaa muodossa Y t = 0.8Y t 1 + ε t, X t = X 0 + t Y k = X t 1 + Y t. k=1 Koska X n tunnetaan, ennustaminen voidaan palauttaa ARMA-prosessin Y n+1 ennustamiseen, kun X 1,..., X n tunnetaan. Toisaalta satunnaismuuttujat X 0,..., X n voidaan ilmaista satunnaismuuttujien X 0, Y 1,..., Y n lineaarisena yhdisteenä, jolloin arvoa Y n+1 ennustetaan arvojen X 0, Y 1,..., Y n perusteella. Jos voidaan olettaa, että X 0 ja Y n+1 ovat tilastollisesti riippumattomia, on palautuu ennusteen laskeminen täysin ARMA-mallin tapaukseen. Lineaarisilla projektioilla laskettu ennuste on X n+1 = α 0 + α (X 1, X 2,..., X n ), missä α 0 R ja α = (α 1,..., α n ) R n toteuttavat yhtälöt E[(X n+1 X n+1 )X k ] = 0, k = 1,..., n (7.3.2) E[(X n+1 X n+1 )] = 0, k = 1,..., n (7.3.3) Oleellista on tuntea odotusarvot E[X 0 Y t ] kun t = 1,..., n. Jos satunnaismuuttujien X 0 ja Y t korrelaatio häviää, kun t = 1,..., n, niin ennusteen laskeminen palautuu ARMAmallin ennustamiseen. Ennusteen kertoimet toteuttavat yhtälön 1 E[X 0 ] E[Y 1 ] E[Y n ] E[X E[X 0 ] E[X0] 2 EX 0 Y 1 ] E[X 0 Y n ] α n+1 ] 0 E[Y 1 ] E[Y 1 X 0 ] E[Y1 2 ]... E[Y 1 Y n ] α 1 E[X n+1 X 0 ].......... = E[X n+1 Y 1 ].. E[Y n ] E[Y n X 0 ]...... E[Y 2 α n E[X n+1 Y n ] 88 n ]

7.4 Trendin estimointi Tarkastellaan aikasarjamallia X t = m t + ε t missä m t on deterministinen trendi ja ε t on heikosti stationäärinen stokastinen prosessi, jonka odotusarvo on nolla. Pyritään estimoimaan trendi m t havaintovektorin perusteella. Kuva 7.9: Päivittäinen pörssi-indeksi (DAX) logaritmi Frankfurtin pörssin sulkeutumisaikaan. log(dax) 7.5 8.0 8.5 1992 1993 1994 1995 1996 1997 1998 Aika (Vuosina) 7.4.1 Suodatus Oletetaan, että trendi on hitaasti muuttuva, jolloin m t m t0 kun t t 0 on pieni. Tällöin 1 2m + 1 m j= m X t0 +j m t0 + Keskiarvoistaminen pienentää varianssia. 1 2m + 1 7.4.2 Pienimmän neliösumman menetelmä m j= m Stokastisesta prosessista X t on havainnot X 1 = a 1,..., X n = a n. Havaintoihin sovitetaan parametrisoitu trendimalli, esim. polynomimalli m t = a 0 + a 1 t + + a m t m Kertoimet a 0,..., a m estimoidaan pienimmän neliösumman menetelmällä (kts. luku 5.1.3) ε t. (â 0,..., â m ) = argmin a 0,...,a m n X t m t 2 t=1 89

Esimerkki 7.7 (karkea). Olkoon havainnot X 1 = 2, X 2 = 4, X 3 = 4, X 4 = 7 annettu. Sovitetaan aikasarjaan polynomimalli Tällöin m(t) = a 1 + a 2 t + a 3 t 2. n X t m t 2 = 2 a 1 a 2 a 3 2 + 4 a 1 2a 2 4a 3 2 + 4 a 1 3a 2 9a 3 2 + 7 a 1 4a 2 16a 3 2, t=1 joka voidaan kirjoittaa matriisimuodossa 2 1 1 1 4 4 1 2 4 a 1 1 3 9 a 2 a 7 1 4 16 3 PNS-estimaatti voi poimia itseensä piirteitä heikosti stationäärisestä prosessista ε t (tapahtuu ns. ylisovitus, trendin estimaatti mukailee enemmän prosessia ε t kuin todellista trendiä.) 2 7.5 SARIMA-mallit SARIMA-malli ottaa huomioon kausittaisen vaihtelun (seasonal-arima). Kun prosessilla X t on kausivaihtelua, jonka periodi on s, niin differenssi poistaa kausivaihtelun. Esimerkki 7.8. Olkoon missä kausikomponentti (I L s )X t = X t X t s X t = s t + ε t, s t = cos( 2π t). }{{} 4 ω 0 Kausivaihtelun periodi on s = 2π ω 0 = 4. Kun operoidaan differensseillä, saadaan uusi aikasarja X t L 4 X t = cos jolla ei ole kausivaihtelua. 2π 4 }{{} ω 0 t.ε t cos 2π (t 4) }{{} 4 ε t 4 = ε t ε t 4, ω 0 90

Määritelmä 7.2. Olkoon p, q, d ei-negatiivisia kokonaislukuja ja L viivekuvaus. Stokastinen prosessi X t on SARIMA (p, d, q) (P, D, Q) s -prosessi (autoregressiivinen integroitu liukuvan keskiarvon malli), jos (I L) d (I L s ) D X t =: Y t on ARMA-prosessi, joka toteuttaa yhtälön φ(l)φ(l s )Y t = θ(l)θ(l s )ε t, missä ε t on korreloimatonta valkoista kohinaa, φ(z) = 1 φ 1 z φ p z p Φ(z) = 1 Φ 1 z Φ P z P θ(z) = 1 + θ 1 z + + θ q z q Θ(z) = 1 + Θ 1 z + + Θ Q z Q ovat sellaisia polynomeja, että φ(z) 0 ja Φ(z) 0 aina kun z 1. Huomautus 7.5.1. SARIMA-mallissa käytetään yleisimmin arvoja D = 1 ja P, Q 3. 7.5.1 Boxin ja Jenkinsin metodi Epästationäärisen aikasarjan stokastisen mallin parametrien määrä pyritään Boxin ja Jenkinsin metodissa pitämään mahdollisimman alhaisena. Metodi on seuraava: 1. Aikasarja X t muunnetaan uudeksi aikasarjaksi Xt, jonka tulisi olla heikosti stationäärinen. Useimmiten käytettyjä muunnoksia ovat logaritmi ja differenssit ( ARIMA ja SARIMA-mallit). 2. Muunnettuun aikasarjaan X t sovelletaan ARMA-mallia, jonka parametrit estimoidaan. 3. Estimoitu malli tarkistetaan mallidiagnostiikan avulla. 4. Mikäli malli ei ole riittävän hyvä, palataan kohtaan 1. 91