1 Johdanto. y t = (y 1t ; :::; y nt ) ; t = 1; :::; T;

Samankaltaiset tiedostot
Moniulotteiset aikasarjat

Liite. Matriisilaskentaa

Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

3.6 Su-estimaattorien asymptotiikka

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

H 0 : R = b; jossa R (q dim ()) ja b (q 1) ovat tunnettuja ja r (R) = q. 2 J () =

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

4.0.2 Kuinka hyvä ennuste on?

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

9. Tila-avaruusmallit

Osa 2: Otokset, otosjakaumat ja estimointi

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

(7.15) jossa W (u) BM (I n r ) ja F (u) = W (u) 0 1 0

1 Rajoittamaton optimointi

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Maximum likelihood-estimointi Alkeet

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Mat Tilastollisen analyysin perusteet, kevät 2007

Kuva 3.1: Näyte Gaussisesta valkoisest kohinasta ε t N(0, 1) Aika t

Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus

Regressioanalyysi. Kuusinen/Heliövaara 1

Tilastollinen päättely II, kevät 2017 Harjoitus 2A

Liittomatriisi. Liittomatriisi. Määritelmä 16 Olkoon A 2 M(n, n). Matriisin A liittomatriisi on cof A 2 M(n, n), missä. 1) i+j det A ij.

802320A LINEAARIALGEBRA OSA I

1 Lineaariavaruus eli Vektoriavaruus

3 Yleistä estimointiteoriaa. Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

Sovellettu todennäköisyyslaskenta B

Dynaamiset regressiomallit

1. Tilastollinen malli??

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH

Testejä suhdeasteikollisille muuttujille

Mat Sovellettu todennäköisyyslasku A. Moniulotteiset jakaumat. Avainsanat:

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:

Sovellettu todennäköisyyslaskenta B

2. Uskottavuus ja informaatio

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

802118P Lineaarialgebra I (4 op)

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1

1 Matriisit ja lineaariset yhtälöryhmät

Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3

ARMA mallien ominaisuudet ja rakentaminen

Lineaarikuvauksen R n R m matriisi

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio

7 Vapaus. 7.1 Vapauden määritelmä

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1

Lineaariset yhtälöryhmät ja matriisit

Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia. TKK (c) Ilkka Mellin (2005) 1

STOKASTISET PROSESSIT

Odotusarvo. Odotusarvon ominaisuuksia Satunnaismuuttujien ominaisuuksia 61

Erityiskysymyksiä yleisen lineaarisen mallin soveltamisessa

ax + y + 2z = 0 2x + y + az = b 2. Kuvassa alla on esitetty nesteen virtaus eräässä putkistossa.

Moniulotteiset satunnaismuuttujat ja jakaumat

Matematiikan tukikurssi

Matriisien tulo. Matriisit ja lineaarinen yhtälöryhmä

11 Raja-arvolauseita ja approksimaatioita

3 Yleistä estimointiteoriaa. Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin

Matriisi-vektori-kertolasku, lineaariset yhtälöryhmät

Luento 9: Yhtälörajoitukset optimoinnissa

Määritelmä Olkoon T i L (V i, W i ), 1 i m. Yksikäsitteisen lineaarikuvauksen h L (V 1 V 2 V m, W 1 W 2 W m )

Ennakkotehtävän ratkaisu

Lineaarinen yhtälöryhmä

Likimääräisratkaisut ja regularisaatio

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

Ilkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2007) 1

Johdatus tilastotieteeseen Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2004) 1

10 Moniulotteinen normaalijakauma

1.1. Määritelmiä ja nimityksiä

5.7 Uskottavuusfunktioon perustuvia testejä II

MS-A0004/A0006 Matriisilaskenta

Mitään muita operaatioita symbolille ei ole määritelty! < a kaikilla kokonaisluvuilla a, + a = kaikilla kokonaisluvuilla a.

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Lineaarialgebra ja matriisilaskenta II. LM2, Kesä /141

Talousmatematiikan perusteet: Luento 11. Lineaarikuvaus Matriisin aste Käänteismatriisi

Lineaarialgebra ja matriisilaskenta I

1 + b t (i, j). Olkoon b t (i, j) todennäköisyys, että B t (i, j) = 1. Siis operaation access(j) odotusarvoinen kustannus ajanhetkellä t olisi.

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen

Johdatus tilastotieteeseen Testit laatueroasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1

MS-C1340 Lineaarialgebra ja

Analyysi III. Jari Taskinen. 28. syyskuuta Luku 1

MS-A0003/A Matriisilaskenta Laskuharjoitus 6

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Ominaisarvo-hajoitelma ja diagonalisointi

ABHELSINKI UNIVERSITY OF TECHNOLOGY

Yleistetyistä lineaarisista malleista

Gaussin ja Jordanin eliminointimenetelmä

Talousmatematiikan perusteet: Luento 10. Lineaarikuvaus Matriisin aste Determinantti Käänteismatriisi

MS-C1340 Lineaarialgebra ja

1 Kannat ja kannanvaihto

Tilastollinen aineisto Luottamusväli

Käänteismatriisi 1 / 14

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

5 Integroituneet ja yhteisintegroituneet prosessit

Transkriptio:

1 Johdanto 1.1 Taustaa Kurssilla tarkastellaan moniulotteisten aikasarjojen kuvaamiseen ja ennustamiseen käytettäviä tilastollisia malleja ja niiden parametrien estimointia ja testausta. Moniulotteinen tai vektoriarvoinen aikasarja on havaintoaineisto, jossa on vektoriarvoisia havaintoja peräkkäisinä ajankohtina eli y t = (y 1t ; :::; y nt ) ; t = 1; :::; T; jossa t on ajankohta, n tarkasteltavien muuttujien lukumäärä ja T havaintojen lukumäärä. 1 Tällä kurssilla oletetaan, että havainnot ovat ajallisesti yhtä kaukana toisistaan tai niitä voidaan käsitellä sellaisina. Jos n = 1, on kysymyksessä yksiulotteinen tai reaaliarvoinen aikasarja. Kurssilla oletetaan perustiedot yksiulotteisten aikasarjojen mallintamisesta. Esimerkki moniulotteisesta aikasarjasta saadaan tarkastelemalla vaikkapa usean pörssikurssin päivittäistä kehitystä Helsingin pörsissä vuonna 009. Myöhemmin tarkastellaan kaksiulotteista esimerkkiä, jossa toisena komponenttina on euron ja Yhdysvaltojen dollarin välisen kuukausittaisen vaihtokurssin (euro/u.s. dollari) muutos (dexch t ) ajanjaksona 1999I - 009XI. Taloustieteessä esitetyn ns. kattamattoman korkopariteettiteorian mukaan vaihtokurssin odotetun muutoksen pitäisi vastata vertailuvaluuttojen korkoeroa (euroalue/us), jota mitataan euroalueen ja Yhdysvaltojen 10 vuoden valtioiden obligaatioiden keskikorkojen erolla (rdif t ). Vaihtokurssin odotettu muutos ajankohtana t määritellään muuttujan dexch t+1 ehdollisena odotusarvona ehdolla kaikki ajankohtana t käytetävissä oleva relevantti informaatio. Jos tämän odotuksen korvikkeena käytetään ajankohtana t tiedossa olevaa muutosta dexch t, voidaan vaihtokurssin muutosta ja korkoeroa kuvaavien aikasarjojen dexch t ja rdif t odottaa olevan yhteydessä toisiinsa. Kuviossa 1.1 esitetään näistä muuttujista koostuva aineisto graa sesti. Keskeinen mielenkiinto tässä kuten moniulotteisissa aikasarja-aineistoissa yleensäkin kohdistuu tarkasteltavien muuttujien välisiin riippuvuuksiin, jotka eivät välttämättä ilmene samanaikaisina riippuvuuksina. Kuten yksiulotteisessa tapauksessakin vaikuttaa moniulotteisten aikasarja-aineistojen analysointiin ja siinä käytettäviin tekniikoihin se, ovatko aikasarjat stationaarisia vai trendimäisesti epästationaarisia. Seuraavassa tarkastellaan tähän liittyviä yleisiä kysyksiä moniulotteisten aikasarjojen tapauksessa. 1 Tällä kurssilla käytetään yleensä samaa merkintää satunnaismuuttujista ja niiden havaituista arvoista. Ero on ymmärrettävä asiayhteydestä. Vektorit tulkitaan matriisilaskuissa aina pystyvektoreiksi ja niistä voidaan käyttää myös matriislaskennan merkintää eli esimerkiksi y t = [y 1t y nt ] 0, jossa pilkku osoittaa vektorin (samoin kuin myöhemmin matriisin) transponointia. 1

Kuvio 1.1. Euron ja Yhdysvaltojen dollarin välisen kuukausittaisen vaihtokurssin (euro/u.s. dollari) muutos (ylhäällä) ja euroalueen ja Yhdysvaltojen 10 vuoden valtioiden obligaatioiden keskikorkojen ero (alhaalla) ajanjaksona 1999I - 009XI. 1. Stokastinen prosessi Aikasarja voidaan tulkita stokastisen prosessin realisaatioksi eli satunnaisilmiön havaituksi kehityskuluksi ajassa. Stokastinen prosessi tai usein vain prosessi voidaan tällä kurssilla määritellä joukoksi satunnaisvektoreita (sv) tai yksiulotteisessa tapauksessa satunnaismuuttujia (sm): fy t ; t Zg (diskreetti aika) tai fy t ; t Rg (jatkuva aika). Erityisesti jatkuva-aikaisessa tapauksessa käytetään myös merkintää y (t). Aikamuuttuja t voi kuulua myös johonkin Z:n tai R:n osajoukkoon kuten N tai f0 t 1g. Jatkossa merkitään yleensä lyhyesti fy t g tai vain y t. Merkintä fy t g korostaa sitä, että stokastinen prosessi on (yleisesti ottaen) ääretönulotteinen satunnaismuuttuja. Esimerkiksi reaaliarvoinen diskreettiaikainen prosessi fy t g = f:::; y 1 ; y 0 ; y 1 ; :::g saa

arvoja joukossa R 1 = R R. Jatkuva-aikainen prosessi voi puolestaan saada arvoja esimerkiksi joukossa C [0; 1] eli kaikkien välillä [0; 1] määriteltyjen jatkuvien reaaliarvoisten funktioiden joukossa. Käytännössä havaittu aikasarja on vain yksi ääretönulotteisen satunnaismuuttujan saama arvo tai yleensä vain osa sen saamasta arvosta (esim. y 1 ; :::; y T ; T < 1). Kun stokastinen prosessi tulkitaan ääretönulotteisena satunnaismuuttujana, voidaan kysyä mitä tarkoitetaan sen todennäköisyysjakaumalla, joka on määriteltävä esimerkiksi joukossa R 1 tai C [0; 1]. Tätä jakaumaa tarvitaan todennäköisyysteoreettisissa tarkasteluissa, kun tutkitaan sellaisten tapahtumien todennäköisyyksiä, joita ei voida ilmaista käyttäen todennäköisyyksiä P fy t1 A 1 ; :::; y tm A m g ; 1 m < 1; (1.1) eli ns. äärellisulotteisia jakaumia. Esimerkki tällaisesta tapahtumasta on vaikkapa f0 y t 1 : 8 t 100g. Kysymys stokastisen prosessin todennäköisyysjakaumasta kuuluu kehittyneen todennäköisyyslaskennan piiriin. Keskeinen tulos stokastisten prosessien teoriasta sanoo hieman yksinkertaistaen, että prosessin (ääretönulotteinen) jakauma määräytyy yksikäsitteisesti äärellisulotteisista jakaumista (1.1). Käänteinen tulos eli prosessin äärellisulotteisten jakaumien (1.1) määräytyminen yksikäsitteisesti ääretönulotteisista jakaumista on ilmeinen. Prosessin jakauma voidaan siis karakterisoida käyttäen äärellisulotteisia jakaumia. Tästä seuraa esimerkiksi, että prosessi fy t g on normaalinen täsmälleen silloin, kun sen kaikki äärellisulotteiset jakaumat ovat normaalisia eli sv (y t1 ; :::; y tm ) noudattaa multinormaalijakaumaa kaikilla t 1 ; :::; t m ja kaikilla m 1 (m Z, mutta jatkuva-aikaisessa tapauksessa t 1 ; :::; t m eivät välttämättä ole kokonaislukuja). Stokastisen prosessin ensimmäiset ja toiset momentit määritellään seuraavasti (olettaen, että ne ovat äärellisinä olemassa). Prosessin y t odotusarvo(funktio) on ja kovarianssifunktio t = E (y t ) (n 1) s;t = Cov (y s ; y t ) = E (y s s ) (y t t ) 0 (n n). Valitsemalla viimeksi mainitussa s = t saadaan prosessin kovarianssmatriisi t = eli t = Cov (y t ) = E (y t t ) (y t t ) 0 (n n). Jatkuva-aikaisessa tapauksessa alaindeksit s ja t voivat saada mitä reaalilukuarvoja tahansa. Käytännössä rajoitutaan usein näiden momenttien selvittämiseen (normaalisessa tapauksessa muuta selvitettävää ei olekaan). Teoreettisissa tarkasteluissa oletukset korkeampiasteisista momenteista ovat kuitenkin tavallisia. Ellei toisin mainita, tulkitaan merkintöjen kuten t = E (y t ) ja t = Cov (y t ; y t ) sisältävän automaattisesti oletuksen, että kyseiset momentit ovat äärellisinä olemassa. 3 t;t

Stationaariset prosessit.1 Määritelmiä Stationaarisuus määritellään moniulotteisessa tapauksessa samalla tavalla kuin yksiulotteisessa tapauksessa. Stokastinen prosessi y t (n 1) on siten (vahvasti) stationaarinen, jos P fy t1 A 1 ; :::; y tm A m g = P fy t1 +k A 1 ; :::; y tm+k A m g kaikilla A 1 ; :::; A m, t 1 ; ::::; t m, k ja m 1 (jatkuva-aikaisessa tapauksessa vain m:n tarvitsee olla kokonaisluku). Toisin sanoen, stationaarisen prosessin todennäköisyysstruktuuri on aikainvariantti. Stationaarisuuden määritelmästä seuraa erityisesti, että sv:t y t ovat samoin jakautuneita kaikilla t ja myös, että sv:t (y t ; y t+h ) ja (y s ; y s+h ) ovat samoin jakautuneita kaikilla t ja s ja jokaisella (kiinteällä) h. Näiden ominaisuuksien lisäksi (vahvasti) stationaarisilla prosesseilla on se hyödyllinen ominaisuus, että ne säilyttävät luonteensa funktiomuunnoksissa. Erityisesti siis, jos z t on (vahvasti) stationaarinen diskreettiaikainen prosessi (t Z), niin samoin on y t = g (z t+h ; :::; z t k ) (h; k 0) millä tahansa siistillä (eli esim. jatkuvalla tai yleisemmin ns. mitallisella) funktiolla g. Lisäksi h:n tai k:n tai molempien paikalla voi olla 1. Kun h ja k ovat äärellisiä seuraa tämä ominaisuus jokseenkin suoraan (vahvan) stationaarisuuden määritelmästä. Prosessi y t (n 1) on heikosti stationaarinen tai kovarianssistationaarinen, jos sen toiset (ja siten myös ensimmäiset) momentit ovat äärellisinä olemassa ja ne ovat aikainvariantteja eli E (y t ) = ja Cov (y t ; y t+k ) = k kaikilla t ja k: (Jatkuva-aikaisessa tapauksessa t R ja myös k R.). Vahvasta stationaarisuudesta ja toisten momenttien äärellisyydestä seuraa ilmeisesti heikko stationaarisuus. Käänteinen tulos pitää paikkansa normaalisilla prosesseilla, mutta ei yleisesti. Huomaa myös, että heikosti stationaariset prosessit eivät yleisesti säilytä luonnettaan funktiomuunnuksissa. Jatkossa pelkkä stationaarisuus viittaa aina vahvaan stationaarisuuteen (tämä puhetapa ei ole yleisesti käytössä). Yksinkertaisin esimerkki (diskreettiaikaisesta) stationaarisesta prosessista on jono riippumattomia samoin jakautuneita satunnaisvektoreita (stationaarisuus voidaan todeta suoraan määritelmästä). Jos y t (n 1) on tällainen jono ja lisäksi E (y t ) = ja Cov (y t ) = ovat äärellisinä olemassa, merkitään y t iid (; ) (t Z). Tällaista prosessia sanotaan (vahvaksi) valkoiseksi kohinaksi. Jos y t on lisäksi normaalisti jakautunut, merkitään y t nid (; ). Jos edellä oletetaan riippumattomuuden asemesta (lievemmin) korreloimattomuus eli Cov (y s ; y t ) = 0, t 6= s, on y t heikosti stationaarinen eli ns. heikko valkoinen kohina. 4

Yksiulotteisessa tapauksessa kovarianssifunktio on symmetrinen viipymän k suhteen. Moniulotteisessa tapauksessa näin ei ole. Sen sijaan pätee k = E (y t ) (y t k ) 0 = E (y t k ) (y t ) 0 0 = 0 k: Kuten yksiulotteisessa tapauksessakin, riittää siis tuntea k vain, kun k 0 (tai k 0). Kovarianssifunktiosta saadaan prosessin komponenttien autokovarianssifunktiot ja ristikovarianssifunktiot. Olkoon y t = (y 1t ; :::; y nt ) ja k = ab;k (a; b = 1; :::; n). Tällöin prosessin y at autokorrelaatiofunktio on a;k = a;k = a;0 ; a = 1; :::; n ja prosessien y at ja y bt välinen ristikorrelaatiofunktio on ab;k = ab;k = p a;0 b;0 a; b = 1; :::; n: Edellä a;k = aa;k ja ab;k (a 6= b) ovat vastaavasti autokovarianssi- ja ristikovarianssifunktioita. Käytännön kannalta voidaan stationaariseen prosessiin liittää yleensä oletus k! 0, kun jkj! 1; (.1) jossa suppeneminen voidaan tulkita tapahtuvaksi alkioittain (matriisiarvoisten jonojen suppenemista on tarkasteltu Liitteessä A.1). Tällöin y t ja y t+k ovat lähes korreloimattomia, kun jkj on suuri eli, kun y t ja y t+k ovat ajallisesti kaukana toisistaan. (Huomaa kuitenkin, että ehto (.1) ei seuraa stationaarisuudesta.) Jos ehto (.1) pätee, riittää y t :n ensimmäisten ja toisten momenttien estimoimiseksi (olennaisesti) estimoida vain äärellinen määrä parametreja (eli ja k; k = K; :::; K; suurella K:n arvolla). Ellei toisin mainita, oletetaan tarkasteltavat prosessit seuraavassa diskreettiaikaisiksi.. Lineaarinen prosessi Tarkastellaan aluksi yksiulotteista (kausaalista) lineaarista prosessia y t = 1X j" t j ; " t iid 0;! ; t Z; (.) Lineaarinen prosessi voidaan määritellä myös yleisemmin sallimalla yhtälössä (.) indeksille j arvot j < 0. Tällaista lineaarista prosessia kutsutaan toisinaan ei-kausaaliseksi. 5

jossa 0 = 1 ja 1X j < 1: (.3) Yhtälön (.) oikealla puolella oleva ääretön summalauseke voidaan tulkita osasummien P N j" t j jonon kvadraattiseksi raja-arvoksi (N! 1). Stokastisten prosessien (kehittyneestä) teoriasta tiedetään, että ehdon (.3) voimassa ollessa tämä kvadraattinen raja-arvo on olemassa ja lisäksi, että raja-arvolla on äärellinen toinen momentti. Yhtälössä (.) olevasta iid prosessista käytetään hieman tilanteesta riippuen nimitystä virhe, sokki tai innovaatio. Vahvan valkoisen kohinan asemasta voitaisiin " t olettaa monissa tarkasteluissa lievemmin heikoksi valkoiseksi kohinaksi (samoin sen alempana esitettävä moniulotteinen vastine). Koska prosessi f" t g on (vahvasti) stationaarinen pätee sama myös prosessille fy t g. Heikko stationaarisuus nähdään seuraavassa esitettävän moniulotteisen yleistyksen yhteydessä. Moniulotteisessa tapauksessa y t = (y 1t ; :::; y nt ) määritellään (kausaalinen) lineaarinen prosessi yhtälöllä y t = 1X j" t j ; " t iid (0; ) ; t Z; (.4) jossa 0 = I n (n n yksikkömatriisi) ja kerroinmatriisien j täytyy toteuttaa sopiva yhtälön (.3) vastine. Käyttäen (Euklidisen) matriisinormin käsitettä tämä ehto voidaan esittää kätevästi muodossa 1X k jk < 1: (.5) Normi k jk määritellään yksinkertaisesti muodostamalla matriisin j alkioista vektori ja soveltamalla tavallista R n :n (Euklidista) vektorinormia. Määritelmä on esitetty yksityiskohtaisemmin Liitteessä A.1, missä todetaan myös, että ehto (.5) on yhtäpitävää sen kanssa, että ehdon (.3) vastine pätee matriisijonon j kaikille alkioille. Yhtälön (.4) oikea puoli voidaan tulkita komponenteittain kvadraattisina rajaarvoina aivan kuten yksiulotteisessa tapauksessa (.). Prosessin fy t g (vahva) stationaarisuus seuraa seuraa prosessin f" t g vastaavasta ominaisuudesta kuten yksiulotteisessa tapauksessakin. Heikko stationaarisuus todetaan laskelmalla E (y t ) = 1X E ( j" t j ) = 1X je (" t j ) = 0 6

ja Cov (y t ; y t+k ) = E y t yt+k 0 1X 1X = E i" t i " 0 t+k j = = i=0 1X 1X ie(" t i " 0 t+k j) j 0 j+k: 0 j 0 j Laskelmissa on käytetty odotusarvon lineaarisuusominaisuutta ja innovaatioiden " t riippumattomuutta, josta seuraa E(" t i " 0 t+k j ) = 0, kun j 6= k + i, ja E(" t" 0 t) =. 3 Koska matriisinormin ominaisuuksien perusteella 0 j j kk k jk, nähdään kolmioepäyhtälön avulla, että Cov (y t ) on ehdon (.5) voimassa ollessa äärellinen (ks. Liite A.1), joten y t on heikosti stationaarinen. Edellä esitetyt odotusarvoa E (y t ) ja kovarianssia Cov (y t ; y t+k ) koskevat laskelmat pätevät myös, kun innovaatiot ovat vain korreloimattomia (eli Cov (" t ; " t+k ) = 0; k 6= 0), joten heikko stationaarisuus pätee tällöinkin. Huomaa myös, että tarkastelemalla y t :n asemesta prosessia y t voidaan ottaa huomioon nollasta poikkeava odostusarvo..3 VAR(p) prosessi Astetta p olevan yksiulotteisen autoregressiivisen prosessin eli AR(p) prosessin tai AR(p) mallin lähtökohtana on yhtälö y t = a 1 y t 1 + + a p y t p + " t ; " t iid 0;! (t Z) : (.6) Toisin sanoen, havaittavan prosessin y t arvo ajankohtana t riippuu lineaarisesti sen omista viipymistä y t 1 ; :::; y t p ja ei havaittavasta virhetermistä " t aivan kuten lineaarisessa regressiomallissa. Moniulotteisessa tapauksessa y t = (y 1t ; :::; y nt ) otetaan lähtökohdaksi yhtälön (.6) yleistys y t = A 1 y t 1 + + A p y t p + " t ; " t iid (0; ) (t Z) ; (.7) jossa A 1 ; :::; A p ovat n n kerroinmatriiseja ja " t (n 1) on ei havaittava virhetermi (tai sokki tai innovaatio). Ellei toisin mainita, oletetaan kovarianssimatriisi positiivisesti de niitiksi (ja siten epäsingulaariseksi eli kääntyväksi). 4 Tässä yhteydessä 3 Lineaarisuusominaisuuden käyttäminen tässä eli odotusarvon ja äärettömän summan järjestyksen vaihtamisen luvallisuus ei ole itsestään selvää, vaan perustuu äärettömän summan (.4) kvadraatisen konvergenssin tapaan stokastisten prosessien (kehittyneeseen) teoriaaan. 4 Symmetrinen matriisi A (k k) on positiivisesti de nitti, jos x 0 Ax > 0 kaikilla nollasta poikkeavilla vektoreilla x (k 1) : Positiivisesti de niitti matriisi on tunnetusti epäsingulaarinen. Symmetristä matriisia A sanotaan positiivisesti semide niitiksi, jos x 0 Ax 0 kaikilla x (k 1) : 7

puhutaan VAR(p) prosessista tai VAR(p) mallista ( V viittaa sanaan vektori). Ideana on siis selittää jokaista vektorin y t komponenttia sen omilla viipymillä ja myös y t :n muiden komponenttien viipymillä lineaarisen regressiomallin tapaan. Moniulotteisessa tapauksessa voidaan siten tarkastella myös muuttujien välisiä viivästettyjä riippuvuuksia kuten esimerkiksi sitä, miten y t vaikuttaa y 1t :n tulevaan kehitykseen ja miten y 1t vaikuttaa y t :n tulevaan kehitykseen. Jotta yhtälö (.7) määrittelisi stationaarisen prosessin (tai edes stokastisen prosessin), täytyy kerroinmatriisien A 1 ; :::; A p toteuttaa sopiva ehto. Tämän ehdon esittämiseksi on kätevää tarkastella yhtälöön (.7) läheisesti liittyvää yhtälöä y t = Ay t 1 + " t (t Z) ; (.8) jossa A = 6 4 A 1 A A p 1 A p I n 0 0 0 0 I n 0 0....... 0 0 I n 0 3 7 5 (np np) : y t = [y 0 t y 0 t p+1] 0 (np 1) ja " t = [" 0 t 0 0 0 0 ] 0 (np 1) : Nähdään helposti, että yhtälö (.8) pätee jos ja vain jos yhtälö (.7) pätee. Oletuksesta " t iid (0; ) seuraa, että " t iid (0; ), = diag [ 0 0] ; jossa diag [ 0 0] on lohkodiagonaalinen matriisi diagonaaleilla osoitetut (n n) matriisit. Kovarianssimatriisi on siis singulaarinen (ei kääntyvä) silloinkin, kun on positiivisesti de niitti. Tästä huolimatta voidaan prosessia (.8) käyttää apuvälineenä tutkittaessa VAR(p) prosessin (.7) ominaisuuksia. VAR(p) prosessin stationaarisuusehto. Seuraavassa todetaan, että yhtälö (.8) määrittelee stationaarisen prosessin, jos matriisin A kaikki ominaisarvot ovat itseisarvoltaan ykköstä pienempiä. On helppo todeta, että tämä ehto voidaan esittää yhtäpitävästi käyttäen determinanttiehtoa det (I np Az) 6= 0, jzj 1 (z C) ; (.9) jossa jzj on kompleksiluvun z itseistarvo (ks. Liite A.). 5 Jos yhtälön (.8) määrittelemä prosessi y t on stationaarinen, niin samoin on yhtälön (.7) määrittelemä prosessi y t (y t on lineaarinen muunnos y t :stä). Kun edellä mainittua ehtoa sovelletaan 5 Jos z C eli z = x + iy i = 1, niin jzj = p x + y on z:n itseisarvo. 8

yksiulotteiseen AR prosessiin (.6) tapauksessa p = 1, saadaan AR(1) prosessin tuttu stationaarisuusehto ja 1 j < 1. Tarkastellaan ensin yhtälöä (.8) tapauksessa t 1, jolloin prosessi y t on hyvin määritelty, kun alkuarvo y 0 spesi oidaan. Peräkkäisillä sijoituksilla saadaan y 1 = Ay 0 + " 1 y = Ay 1 + " = A y 0 + A" 1 + ". Xt 1 y t = A t y 0 + A j " t j : Sopivan alkuarvon määrittelemiseksi todetaan, että ehdon (.9) voimassa ollessa A j! 0 geometrisesti, kun j! 1, mistä seuraa P 1 A j < 1 (ks. Liite A.). Edellisessä jaksossa todetun nojalla voidaan siten määritellä lineaarinen prosessi y t = 1X A j " t j, t Z; joka on sekä vahvasti että heikosti stationaarinen (eli vahvasti stationaarinen ja toiset momentit äärellisinä olemassa). Valitsemalla alkuarvoksi y 0 = y 0 saadaan lineaarinen prosessi X 1 Xt 1 1X y t = A t A j " j + A j " t j = A j " t j, t 1: Toisin sanoen, fy t ; t 1g on stationaarinen. Lisäksi on selvää, että esitetty ratkaisu voidaan laajentaa kaikille t Z eli ehdon (.9) voimassa ollessa yhtälö (.8) määrittelee stationaarisen prosessin y t = 1X A j " t j, (t Z) : (.10) Määrittelemällä matriisi J = [I n : 0 : : 0] (n np) nähdään, että y t = Jy t ja " t = J 0 " t ; joten yhtälöstä (.10) seuraa y t = 1X j" t j, (t Z) ; (.11) jossa j = JA j J 0 ja siten 0 = I n. Koska A j! 0 geometrisesti, kun j! 1, pätee vastaava ominaisuus myös matriiseille j, joten erityisesti P 1 k jk < 1: 9

Jos prosessia y t tarkastellaan rajoittuen ajankohtiin t 1 eikä alkuarvojen y p+1 ; :::; y 0 oleteta olevan stationaarisia, on fy t ; t 1g epästationaarinen. Edellä esitetystä nähdään, että alkuarvojen vaikutus häviää kuitenkin t:n kasvaessa ja prosessi stationarisoituu. Tässä yhteydessä puhutaan usein stabiilisuudesta tai asymptoottisesta stationaarisuudesta ja ehtoa (.9) kutsutaan stabiilisuusehdoksi. Myöhemmin esitettävät estimointija testaustulokset soveltuvat myös tällaisten prosessien analysointiin. Stationaarisuusehdon vaihtoehtoinen muotoilu. Määritellään mihin tahansa (mahdollisesti vektoriarvoiseen) jonoon x t liittyvä viivästysoperaattori B yhtälöllä Bx t = x t 1 ja induktiivisesti B k x t = x t k (B 0 x t = x t ja B k x t = x t+k ). Tällöin VAR(p) prosessi (.7) voidaan kirjoittaa lyhyesti A (B) y t = " t " t iid (0; ) (t Z) ; (.1) jossa A (B) = I n A 1 B A p B p : Voidaan osoittaa, että stationaarisuusehto (.9) on yhtäpitävä seuraavan ehdon kanssa (perustelu jätetään tehtäväksi): det A (z) 6= 0; jzj 1: (.13) Tässä A (z) on esimerkki polynomimatriisista eli matriisista, jonka alkiot ovat polynomeja (vastaavasti yhtälössä (.1), jossa argumentti on viivätysoperaattori B). Vaihtoehtoisesti A (z) voidaan tulkita matriisipolynomiksi eli polynomiksi, jonka kertoimet ovat matriiseja. Polynomimatriiseilla laskutoimitukset määritellään kuten tavanomaisilla reaalilukumatriiseilla (ks. Liite A.3). Yhtälö (.1) voidaan siten ratkaista formaalisti kertomalla vasemmalta käänteismatriisilla A (B) 1. Ratkaisuksi täytyy tietenkin tulla (.11) eli lyhyesti ilmaistuna y t = (B) " t (t Z) ; jossa (B) = P 1 jb j = A (B) 1. Stationaarisuusehtoa (.13) voidaan havainnollistaa käyttämällä tulosta A (B) 1 = [1= det (A (B))] A (B), jossa A (B) on (äärellisasteinen) matriisipolynomi (ks. Liite A.4). Ehdon (.13) riittävyys stationaarisuudelle nähdään siten käyttäen (tunnetuksi oletettua) yksiulotteisen AR(p) prosessin stationaarisuusehtoa. Yhtälön (.11) yhteydessä todettiin, että j = JA j J 0. Vaihtoehtoinen esitys matriiseille j saadaan käyttäen identiteettiä (B) A (B) = I n eli Tästä seuraa I n = 0 + 1B + B + (I n A 1 B A p B p ) = 0 + ( 1 0A 1 ) B + ( 1A 1 0A ) B +. I n = 0 0 = 1 0A 1 0 = 1A 1 0A. 10

mistä nähdään edelleen, että matriisit j voidaan laskea rekursiivisesti yhtälöistä jossa A i = 0, kun i > p. 0 = I n jx j = i=1 j ia i ; j = 1; ; :::, Impulssivasteet. Kuten aiemmin jo mainittiin, voidaan VAR(p) malli ajatella usean lineaarisen regressiomallin systeeminä, jossa selittävät muuttujat ovat selitettävien muuttujien viivästettyjä arvoja. Tavanomaiseen regressiomalliin verrattuna selittävät muuttujat on siten valittu erityisellä tavalla. Ei havaittavien muuttujien " t tulkinta jäännös tai virhetermeinä on kuitenkin pitkälti samanlainen kuin regressiomalleissa. Regressiomallien tapaan voidaan kerroinmatriisien A 1 ; :::; A p alkioiden tulkita kuvaavan selittävien muuttujien y t 1 ; :::; y t p komponenttien vaikutusta selitettäviin muuttujiin eli y t :n komponentteihin. Näiden kerroinmatriisien alkioiden tulkinnallinen hyöty on kuitenkin varsin rajallinen, sillä yleensä ollaan kiinnostuneita muuttujien välisistä dynaamisista vaikutuksista eli esimerkiksi siitä, miten y 1t :ssä tapahtuva muutos vaikuttaa kaikkien y t :n komponenttien tulevaan kehitykseen. Tällaisten dynaamisten vaikutuksien selvittäminen suoraan kerroinmatriisien A 1 ; :::; A p alkioiden avulla on hankalaa. Tämän näkee havainnollisesti jo tapauksessa n = kaaviokuvasta, johon on merkitty nuolilla se, miten muuttujat y 1t ja y t vaikuttavat tuleviin arvoihinsa y 1;t+j ja y ;t+j, j = 1; ; :::. Vaikka kysymyksessä on vain kaksiulotteinen tapaus, tulee kuviosta varsin sekavan näköinen. Vaihtoehtoinen tulkinta perustuu ajatukseen, jossa virhetermin " t komponentit tulkitaan prosessiin y t vaikuttaviksi impulsseiksi tai sokeiksi. Tällöin kiinnostava kysymys on, miten tällaisen yhden yksikön kokoisen impulssin vaikutus ilmenee prosessin y t komponenteissa ja niiden tulevissa arvoissa. Tähän kysymykseen palataan yksityiskohtaisemmin myöhemmin. Yhtälön (.11) perusteella on kuitenkin helppo uskoa, että matriisin j alkiot kuvaavat tällaisen ajankohtana t 0 tapahtuneen impulssin vaikutusta prosessin y t komponenttien saamiin arvoihin ajankohtana t 0 + j. Tästä syystä matriisin j alkioita sanotaan impulssivasteiksi. VAR(p) prosessin odotusarvo ja kovarianssifunktio. Koska stationaarisella VAR(p) prosessilla on lineaarinen esitys (.11), voidaan sen odotusarvo ja kovarianssifunktio johtaa jaksossa. esitetyllä tavalla. Tulokseksi saadaan E (y t ) = 0 ja k = 1X j j+k = 0 k, k 0; jossa j on kuten yhtälössä (.11). Koska j! 0 geometrisesti, kun j! 1, vaimenee myös kovarianssifunktio k geometrisesti nollaan viipymän k kasvaessa rajatta. 11

Vaimeneminen on sitä hitaampaa mitä lähempänä ykköstä yhtälössä (.8) määritellyn matriisin A suurin ominaisarvo on itseisarvoltaan (vrt. yhtälöt (.10) ja (.11) ja huomaa, että tapauksessa n = p = 1 matriisi A on AR kerroin ja A k on k. autokorrelaatiokerroin). Kovarianssifunktio voidaan selvittää myös seuraavalla vaihtoehtoisella tavalla. Kertomalla yhtälö (.7) oikealta (transponoidulla) vektorilla yt+k 0 ja ottamalla odotusarvo puolittain saadusta yhtälöstä saadaan E y t y 0 t+k = A1 E y t 1 y 0 t k + + Ap E y t p y 0 t k + E "t y 0 t k : Kun k = 0, nähdään yhtälöstä (.11), että E (" t y 0 t) = E (" t " 0 t) =, joten ottamalla huomioon tulos E (y t ) = 0, tulee edellä johdetusta yhtälöstä 0 = A 1 1 + + A p p + : Kun k > 0, nähdään vastaavasti, että E " t y 0 t k = 0 ja edelleen, että tai yhtäpitävästi k = A 1 1 k + + A p p k ; k > 0; 0 k = A 1 0 k 1 + + A p 0 k p ; k > 0: Kuten yksiulotteisessa tapauksessakin, sanotaan viimeksi mainittuja yhtälöitä Yule-Walker -yhtälöiksi. Niiden avulla voidaan kerroinmatriisit A 1 ; :::; A p lausua kovarianssimatriisien 0 ; :::; p 1 funktiona (perustelu jätetään tehtäväksi). Lisäksi niiden avulla voidaan laskea kovarianssimatriisit k; k p; kun kerroinmatriisit A 1 ; :::; A p on annettu ja kovarianssimatriisit 0; :::; p 1 tunnetaan. Koko kovarianssifunktion k selvittämiseksi (kerroinmatriisien A 1 ; :::; A p funktiona) on siten vielä selvitettävä kovarianssimatriisien 0 ; :::; p 1 riippuvuus kerroinmatriiseista A 1 ; :::; A p ja (kuten ilmeistä) kovarianssimatriisista. Koska E (y t ) = 0 ja k = 0 k, pätee yhtälössä (.8) määritellylle (stationaariselle) prosessille y t 0 3 1 B6 Cov (y t ) = E @ 4 = 6 4 y t. y t p+1 7 5 y 0 t y 0 t p+1 p 1 1 0 C A 3 0 1 p+1. 1 0........ 7.. 5 := 0: 1 1

Koska E " t yt k 0 = 0, k > 0; on E "t y 0 t 1 = 0, joten yhtälöstä (.8) saadaan matriisille 0 yhtälö h i 0 0 = E Ay t 1 + " t Ayt 1 + " t = AE y t 1 y 0 t 1 A 0 + E (" t " 0 t) = A 0 A 0 + ; jossa = Cov (" t ) kuten aikaisemminkin. Matriisi 0 voidaan ratkaista matriisien A ja funktiona edellä johdetusta yhtälöstä. Ratkaisukaavan esittämisessä tarvitaan ns. vec () operaattoria ja Kroneckerin tuloa. Edellinen muodostaa matriisista vektorin asettamalla sarakkeet alekkain alkaen ensimmäisestä (ks. Liite A.1). Dimensioista riippumatta matriisien A ja B Kroneckerin tulo A B määritellään yhtälöllä A B = [a ij B], jossa a ij on matriisin A tyypillinen alkio (ks. Liite A.5). Jättäen perustelut tehtäväksi todetaan, että mille tahansa matriiseille A, B ja C pätee vec (A + B) = vec (A) + vec (B) ja vec (ABC) = (C 0 A) vec (B) (olettaen summa ja tulo määritellyiksi). Edellä johdetusta yhtälöstä saadaan siten eli vec ( 0 ) = (A A) vec ( 0 ) + vec () (I n p A A) vec ( 0) = vec () ; josta voidaan ratkaista 6 vec ( 0) = (Inp A A) 1 vec () : Kun matriisit A 1 ; :::; A p ja tunnetaan, tunnetaan tämän yhtälön oikea puoli ja matriisin 0 määritelmän nojalla siten myös matriisit 0; :::; p 1. VAR(p) prosessin ennustaminen. Tarkastellaan VAR(p) prosessin ennustamista teoreettisessa tilanteessa, jossa prosessin parametrien arvot tunnetaan. Käytännössä joudutaan tietenkin käyttämään estimaatteja. Todennäköisyyslaskennasta tiedetään, että sm:n Y sv:iin X perustuva optimaalinen ennuste on E (Y jx) eli Y :n ehdollinen odotusarvo ehdolla X (ks. Liite A.6, jossa motivoidaan myös merkintä E (Y jx) ja esitetään tarvittavat ehdollisen odotusarvon ominaisuudet). Tässä optimaalinen viittaa ennusteeseen, joka minimoi ennusteen keskineliövirheen. Jos Y on vektori, pätee sama tulos, kun kriteerinä on keskineliövirhematriisin minimointi. Tällä tarkoitetaan seuraavaa. Olkoon Y ~ = g (X) 6 Käänteismatriisin olemassaolo seuraa, sillä stationaarisuusoletuksen mukaan matriisin A ominaisarvot ovat itseisarvoltaan ykköstä pienempiä ja matriisin A A ominaisarvojen voidaan puolestaan osoittaa olevan A:n ominaisarvojen tuloja, joten nekin ovat itseisarvoltaan ykköstä pienempiä. Tästä seuraa erityisesti, että matriisi I n p A A on epäsingulaarinen ja mainittu (yksikäsitteinen) ratkaisu on olemassa. 13

mikä tahansa sv:n Y ennuste, joka on sv:n X funktio. Tällöin MSE( ~ Y ) = E[(Y ~ Y )(Y ~ Y ) 0 ] on ennusteen Y ~ keskineliövirhematriisi (= E[(Y ja (perustelu jätetään tehtäväksi) ~ Y ) ] reaaliarvoisessa tapauksessa) a 0 MSE( ~ Y )a a 0 MSE (E (Y jx)) a kaikilla dimensioltaan sopivilla vektoreilla a. Toisin sanoen, matriisi MSE( Y ~ ) MSE (E (Y jx)) on positiivisesti semide niitti eli symbolein MSE( Y ~ ) MSE (E (Y jx)) 0. Valitsemalla a = (0; :::; 0; 1; 0; :::; 0) nähdään, että ennusteen Y ~ jokaisen komponentin keskineliövirhe on vähintään yhtäsuuri kuin ennusteella E (Y jx). Sovelletaan nyt edellä esitettyä VAR(p) prosessiin (.7). Muodostetaan ensin ennuste muuttujalle y t+1, kun prosessin koko edeltävä historia y t ; y t 1 ; ::: tunnetaan. 7 Prosessin määrittely-yhtälöstä (.7) nähdään, että E t (y t+1 ) := E (y t+1 jy t j ; j 0) = E (y t+1 jy t ; :::; y t p+1 ) =: y t (1) : Yhtälöstä (.11) ja virheiden riippumattomuudesta nähdään lisäksi, että " t k y t j ; j > 0. Käyttäen yleisesti merkintää E t () = E (jy t j ; j 0) saadaan siten E t (" t+j ) = E (" t+j ) = 0 (j > 0) ja Yleisemmin, kun h 1, saadaan eli toisin merkinnöin y t (1) = A 1 E t (y t ) + + A p E t (y t+1 p ) + E t (" t+1 ) = A 1 y t + + A p y t+1 p : E t (y t+h ) = A 1 E t (y t+h 1 ) + + A p E t (y t+h p ) y t (h) = A 1 y t (h 1) + + A p y t (h p) ; jossa y t (h j) = E t (y t+h j ) ja y t (h j) = y t+h j, kun h j. Toisin sanoen, y t (h j) on prosessin havaittu arvo y t+h j, kun sellainen on ennusteajankohtana t tiedossa, ja ajankohtana t tehty ennuste E t (y t+h j ) muulloin. Käyttäen mallin lineaarista esitystä (.11) saadaan ennusteelle vaihtoehtoinen esitys 1X 1X y t (h) = E t (y t+h ) = je t (" t+h j ) = j" t+h j ; 7 Vaihtoehtoisesti voitaisiin tarkastella tulevien arvojen y T +h, h 1, ennustamista, kun käytettävissä on havaittu aikasarja y 1 ; :::; y T. VAR(p) prosessin tapauksessa näillä kahdella tavalla ei ole eroa, kun T > p: 14 j=h

josta voidaan johtaa ennustevirheelle yhtälö y t+h y t (h) = Xh 1 j" t+h j ( 0 = I n ) : Tästä nähdään, että ennustevirheen odotusarvo on nolla eli ennuste on harhaton ja kovarianssimatriisi eli keskineliövirhematriisi on P h 1 0 j j. Normaalisessa tapauksessa " t nid (0; ) saadaan ennustevirheelle siten tulos! Xh 1 y t+h y t (h) N 0; j ; jonka avulla voidaan muodostaa luottamusvälejä ennustettavan y t+h komponenteille. Jos i (h) on matriisin P h 1 j 0 j i. diagonaalialkio, niin ilmeisin merkinnöin (y i;t+h y i;t (h)) = i (h) N (0; 1) 0 j ja 0:95 = P 1:96 y i;t+h y i;t (h) 1:96 i (h) = P fy i;t (h) 1:96 i (h) y i;t+h y i;t (h) + 1:96 i (h)g : Toisin sanoen, 95%:n luottamusväli ennustettavan muuttujan y t i:nnelle komponentille on y i;t (h) 1:96 i (h) : Käytännössä tuntemattomat parametrit korvataan estimaateilla, jolloin edellä esitetty pätee vain likimäärisesti. Huomaa myös, että esitettyä luottamusväliä johdettaessa indeksit i ja h oletettiin kiinnitetyiksi. Tarkasteltaessa useita tällaisia luottamusvälejä joudutaan tavanomaisiin yhdistettyjen luottamusvälien ongelmiin. VAR(p) prosessi, kun E (y t ) 6= 0: Käytännössä on yleensä epärealistista olettaa, että havaitut aikasarjat tuottaneen prosessin odotusarvo olisi nolla. Kaikki VAR(p) prosessista edellä esitetyt tulokset voidaan yleistää helposti tapaukseen E (y t ) 6= 0. Prosessin y t paikalle asetetaan vain sen keskistetty version y t, jolloin stationaarisuusehdon voimassa ollessa = E (y t ). Koska A (B) (y t ) = A (B) y t A (1), voidaan vaihtoehtoisesti tarkastella prosessia y t = + A 1 y t 1 + + A p y t p + " t ; " t iid (0; ) (t Z) ; jossa = A (1) ja muut merkinnät ovat kuten aikaisemmin. Kuten stationaarisuusehdosta (.13) nähdään, on matriisi A (1) on epäsingulaarinen, joten odotusarvon ja vakiotermin välinen suhde voidaan kirjoittaa myös = A (1) 1. 15

.4 VARMA(p,q) prosessi Yksiulotteisessa tapauksessa AR(p) prosessi voidaan yleistää ARMA(p,q) prosessiksi lisäämällä yhtälön (.6) oikealle puolelle innovaatioiden " t 1 ; :::; " t q lineaaarikombinaatio. Vastaava moniulotteinen yleistys on y t =A 1 y t 1 + + A p y t p (.14) + " t M 1 " t 1 M q " t q ; " t iid (0; ) (t Z) ; jossa M 1 ; :::; M q ovat n n kerroinmatriiseja ja muut merkinnät ovat kuten yhtälössä (.7). Tässä yhteydessä käytetään nimitystä VARMA(p,q) prosessi tai VARMA(p,q) malli. Kuten yksiulotteisessa tapauksessa voidaan todeta, että riittävä stationaarisuusehto on sama kuin VAR(p) prosessilla eli (.9) tai vaihtoehtoisesti (.13). Käyttäen viivästysoperaattoria voidaan yhtälö (.14) kirjoittaa A (B) y t = M (B) " t ; jossa A (B) = I n A 1 B A p B p ja M (B) = I n M 1 B M q B q. Stationaarisuusehdon voimassa ollessa voidaan tässä yhtälössä kertoa vasemmalta käänteismatriisilla A (B) 1 ja saada ratkaisuksi hyvin määritelty lineaarinen prosessi y t = (B) " t ; jossa nyt (B) = P 1 jb j = A (B) 1 M (B) ja 0 = I n. Kuten VAR(p) prosessin tapauksessakin, j! 0 geometrisesti, kun j! 1, ja siten myös VARMA(p,q) prosessin kovarianssifunktio vaimenee geometrisesti nollaan viipymän kasvaessa rajatta. VARMA(p,q) prosessien teoria ja soveltaminen on huomattavasti hankalampaa kuin VAR(p)-prosessien. Tämä johtuu pitkälti polynomimatriisien ominaisuuksista, joiden vuoksi VARMA(p,q) prosessien rakenneteoria ja siihen liittyvä mallinvalinta tulee monimutkaisemmaksi kuin VAR(p) prosesseilla. Tämä näkyy erityisesti yksikäsitteisyys- tai identi oituvuusehdossa, joka yksiulotteisessa tapauksessa n = 1 vaatii, että (nyt) polynomeilla A (z) ja M (z) ei ole yhteisiä tekijöitä ja ainakin toinen korkeimman asteen kertoimista on nollasta poikkeava. Seuraava esimerkki havainnollistaa miksi yksikäsitteisyyskysymys hankaloituu moniulotteisessa tapauksessa n > 1. Tarkastellaan kaksiulotteista VARMA(1,1) prosessia 1 ab 1 mb y 0 1 t = " 0 1 t ; a 6= m: (.15) Ensimmäisen asteen polynomimatriisit A (B) ja M (B) näyttäisivät toteuttavan yksiulotteisen ARMA(1,1) prosessin yksikäsitteisyysehdon kaltaisen ehdon. Kertomalla yhtälö (.15) vasemmalta käänteismatriisilla A (B) 1 1 = 16 ab 0 1

saadaan prosessin lineaarinen esitys 1 (m a)b y t = 0 1 " t ; joka on vektoriarvoinen MA(1) prosessi eli lyhyesti VMA(1) prosessi (vastaavasti puhutaan MA(q) prosessista, jossa q = 1 on myös mahdollinen). Vastaavasti kertomalla yhtälö (.15) vasemmalta käänteismatriisilla M (B) 1 saadaan 1 (a m)b y 0 1 t = " t eli VAR(1) prosessi. VARMA(1,1) prosessi (.15) voidaan siis lausua myös VAR(1) ja VMA(1) prosessina. Jos tällaisessa tilanteessa sovitetaan aineistoon VARMA(1,1) prosessi, joutuu estimointimenetelmä hankaluuksiin, koska löytyy kolme eri mallia, jotka sopivat aineistoon yhtä hyvin. Ongelma ratkeaa tietysti, jos prosessin rakenteesta on tietoa niin, että estimoitavaksi voidaan valita joko VAR(1) tai VMA(1) malli. Yleensä tällaista tietoa ei kuitenkaan ole ja monimutkaisemmissa tapauksissa ongelman tunnistaminenkaan ei onnistu yhtä helposti kuin tässä tarkastellussa yksinkertaisessa esimerkissä. VARMA(p,q) prosesseille on kehitetty varsin täydellinen yksikäsitteisyysteoria, johon perustuen mallinvalintakin voidaan hoitaa käytännössä ns. mallinvalintakriteerejä käyttäen. Myös (normaalijakaumaan perustuva) suurimman uskottavuuden estimointiteoria on kehitetty. Näiden kysymysten tarkastelu sivuutetaan kuitenkin tällä kurssilla, koska niiden opiskelu on selvästi haastavampaa kuin VAR(p) prosseilla. Esitettyjä VAR(p) prosesseihin perustuvia tilastollisia menetelmiä voidaan perustella approksimaatioina, sillä käännettävyysehdon det (M (z)) 6= 0; jzj 1; voimassa ollessa, VARMA(p,q) prosessi voidaan kirjoittaa M (B) 1 A (B) y t = " t ; jossa M (B) 1 A (B) = P 1 jb j ja kerroinmatriisit j konvergoivat nollaan geometrisesti, kun j! 1 ( 0 = I n ). VARMA(p,q) prosessia voidaan siten approksimoida VAR(p) prosessilla, kun aste p on tarpeeksi suuri. 3 Stationaarisen prosessin ensimmäisten ja toisten momenttien estimointi Otoskeskiarvon tarkentuvuus. Olkoon y t = (y 1t ; :::; y nt ) stationaarinen prosessi odotusarvona E (y t ) = ja kovarianssifunktiona Cov (y t ; y t+k ) = k = ij;k. Oletetaan, että (vrt. ehto (.1)) 1X k k k < 1: (3.1) k= 1 17

Tarkastellaan otoskeskiarvoa y = T 1 P T y t odotusarvon estimaattorina. Harhattomuus on ilmeisen, sillä E (y) = T 1 E (y t ) = : Kun merkitään y = (y 1 ; :::; y n ) ja = ( 1 ; :::; n ) saadaan lisäksi! 3 Var (y i ) = E 4 T 1 (y it i ) 5 = T = T 1 E [(y it i )(y is i )] s=1 t s= T = T 1 k= T 1 (T jt sj) i;t s jkj T i;k : Tässä kolmannen yhtälön voi todeta huomaamalla, että edeltävä kaksoissumma on matriisin i;t s alkioiden summa. Kolmioepäyhtälön ja oletuksen (3.1) avulla t;s=1;::;t saadaan tulos Var (y i ) = E (y i i ) T 1 k= T 1 jkj T i;k! 0, kun T! 1: Yhdistämällä edellä todettu voidaan päätellä (Markovin epäyhtälöä käyttäen), että otoskeskiarvo y i on odotusarvon i tarkentuva estimaattori ja edelleen, että sama pätee otoskeskiarvolle y. Toisin sanoen, on todettu stokastinen konvergenssi y p! : (3.) Oletus (3.1) on voimassa erityisesti VARMA(p,q) prosesseille, koska tällöin k! 0 geometrisesti, kun jkj! 1. Otoskovarianssifunktion tarkentuvuus. Tarkastellaan nyt otoskovarianssifunktiota k C k = [c ij;k ] = (T k) 1 (y t y) (y t+k y) 0 ; k = 0; :::T 1; C k = C 0 k ; k = T + 1; :::; 1: Kiinnitetään indeksit i; j ja k 0 ja määritellään yksinkertaisuuden vuoksi muuttuja x t = y it y j;t+k, joka on keskeinen osa estimaattoria 18

c ij;k. Oletetaan E (y 4 it) < 1 (i = 1; :::; n), jolloin x t on stationaarinen ja sillä on äärellinen toinen momentti. Jos oletetaan, että x t :n autokovarianssifunktio toteuttaa ehdon (3.1) vastineen, saadaan edellä otoskeskiarvolle todetun perusteella tulos x = (T k) 1 p y it y j;t+k! E (yit y j;t+k ) ; jossa kovarianssin määritelmän perusteella E (y it y j;t+k ) = ij;k + E (y it ) E (y j;t+k ) = ij;k + i j : Olettaen, että edellä tehdyt oletukset pätevät kaikilla i; j ja k 0 voidaan estimaattorin x tarkentuvuudesta ja tuloksesta (3.) johtaa edelleen tulokset c ij;k! ij;k p ja p C k! k : (3.3) Yksityiskohdat, joissa tarvitaan lisäksi stokastisen konvergenssin jatkuvan kuvauksen lausetta (ks. Liite B, Lause B.1), jätetään tehtäväksi. Voidaan siis todeta, että kohtuullisin oletuksin otoskovarianssifunktio on tarkentuva. (Huomaa kuitenkin, että edellä k on kiinteä.) Tarvittavat oletukset on helppo tarkistaa erikoistapauksessa y t iid (; ) ja sen jälkeen edelleen VMA(q) prosessin tapauksessa (q < 1). Yleisillä VARMA(p,q) prosesseilla tartentuvuustulos (3.3) voidaan perustella käyttäen approksimaatiota VARMA(p,q) VMA(h), kun h on suuri. Yksityiskohdat ovat kuitenkin hieman teknisiä ja sivuutetaan. Asymptoottinen normaalisuus. Edellä esitetyt tulokset havainnollistavat sitä, että stationaarisilla prosesseilla suurten lukujen lait pätevät varsin yleisin oletuksin. Seuraavassa yritetään havainnollistaa sitä, että sama pätee keskeiselle raja-arvolauseelle. Tarkastellaan yksinkertaisuuden vuoksi (n ulotteista) lineaarista prosessia y t = + (B) " t ; " t iid (0; ) ; (3.4) jossa (B) = P 1 jb j ja 0 = I n. Oletetaan lisäksi vahvemmin kuin jaksossa. eli 1X j k jk < 1. j=1 Tällöin voidaan kirjoittaa (B) = (1) + G (B) ; jossa = 1 B on di erensointioperaattori ja G (B) = P 1 G jb j toteuttaa ehdon P 1 kg jk < 1 ja siten P 1 kg jk < 1 (ks. Liite A. 4). Soveltamalla tätä yhtälössä (3.4) saadaan y t = (1) " t + u t ; u t = G (B) " t : 19

Edellä todetun nojalla u t on lineaarinen prosessi ja sen komponenteille pätee E (u it) < 1 (ks. jakso.). Otoskeskiarvolle y saadaan siten p T (y ) = (1) 1 p T = (1) 1 p T " t + 1 p T (u t u t 1 ) " t + 1 p T (u T u 0 ): Koska " t iid (0; ), niin tavanomaisen (moniulotteisen) keskeisen raja-arvolauseen nojalla pätee jakaumakonvergenssi T P 1= T " d t! N (0; ). Toisaalta, koska E (u it ) = 0 ja E (u it) c < 1 kaikilla i = 1; :::; n ja kaikilla t Z, saadaan Markovin epäyhtälöä käyttäen T 1= p u T! 0 ja T 1= p u 0! 0 eli T 1= (u T u 0 )! p 0. Käyttäen tunnettua jakaumakonvergenssia ja stokastista konvergenssia koskevaa jatkuvan kuvauksen lausetta (ks. sv:lla p T (y Liite B, Lause B.3) voidaan kaiken kaikkiaan päätellä, että ) ja (1) T P 1= T " t on sama asymptoottinen jakauma ja p T (y )! d N 0; (1) (1) 0 : (3.5) Otoskeskiarvon keskeinen raja-arvolause voidaan osoittaa myös ilman lineaarisuusoletusta (3.4), mutta yhtä kätevää perustelua kuin edellä ei ole helppo esittää. Olennainen vaatimus useissa vastaavisssa tuloksissa on, että sv:t y t ja y t k tulevat riippumattomiksi, kun k! 1. Lineaarisen prosessin (3.4) tapauksessa y t k riippuu virhetermeistä " t k ; " t k 1 ; ::: ja y t riippuu näistä (ja siten y t k :sta) vain muunnosten k" t k ; k+1" t k 1 ; ::: kautta. Koska k! 0, kun k! 1, häviää sv:ien y t ja y t k riippuvuus k:n kasvaessa. Tuloksen (3.5) perustelussa käytettyä tekniikkaa voidaan soveltaa myös otoskovarianssifunktion C k tapauksessa, mutta algebralliset laskelmat tulevat ikäviksi. Koska saatava tulos on lisäksi moimutkainen erikoistapauksia (lähinnä VMA(q) ja iid tapausta) lukuun ottamatta, ei sitä käsitellä. Käytännössä kovarianssit korvataan yleensä vastaavilla korrelaatioilla eli käytetään otossuureita r ij;k = c ij;k p ci;0 c j;0 ; c i;0 = c ii;0 : Voidaan osoittaa, että tapauksessa y t iid (; ) pätee asymptoottinen tulos r ij;k as N (0; 1=T ) : (3.6) Lisäksi, jos R k = [r ij;k ], ovat R k ja R l asymptoottisesti riippumattomia, kun k 6= l. Tämä ei kuitenkaan päde yleisesti estimaattorin R k alkioille. Esimerkki 3.1. Kuviossa 3.1 nähdään Kuvion 1.1 valuuttakurssi/korkoaineiston kahdesta aikasarjasta lasketut auto- ja ristikorrelaatiofunktiot. Kuvioon on piirretty 0

Kuvio 3.1. Euron ja Yhdysvaltojen dollarin välisen kuukausittaisen vaihtokurssin muutoksen (y 1t ) ja euroalueen ja Yhdysvaltojen 10 vuoden valtioiden obligaatioiden keskikorkojen eron (y t ) estimoidut autokorrelaatio- ja ristikorrelaatiofunktiot (t = 1999I,...,009XI, T = 131). myös kriittiset rajat = p T, joiden sisään yksittäisen korrelaation pitäisi jäädä likimain 95%:n todennäköisyydellä, mikäli kysymyksessä olisi iid prosessista saatu realisaatio. Estimoidut autokorrelaaitot vahvistavat jo Kuviosta 1.1 nähtävän selvän autokorrelotuneisuuden. Estimoidut ristikorrelaatiot näyttävät sen sijaan pieniltä. Huomaa kuitenkin, että komponenttisarjojen autokorreloituneisuuden vuoksi kuvion kriittisiä rajoja ei voida sovaltaa ristikorrelaatioestimaatteihin edellä kuvatulla tavalla. 4 Stationaarisen VAR mallin teoriaa 4.1 Parametrien rajoittamaton estimointi Mallin määrittely. Oletetaan, että havaittuun n:n aikasarjan aineistoon voidaan soveltaavar(p) mallia y t = + A 1 y t 1 + + A p y t p + " t ; t = 1; :::; T; (4.1) jossa alkuarvot y p+1 ; :::; y 0 on myös havaittu ja kerroinmatriisit A 1 ; :::; A p (n n) toteuttavat stationaarisuus- tai stabiilisuusehdon (.9) (tai yhtäpitävästi ehdon (.13)). Jotta parametrien estimoinnissa ja testauksessa päästäisiin soveltamaan suurimman uskottavuuden (SU) teoriaa, liitetään virhetermiin normaalisuusoletus " t nid (0; ) ; (4.) 1

jossa kovarianssimatriisi on positiivisesti de niitti. Todettakoon kuitenkin, että esitettävät asymptoottiset tulokset pätevät yleisemmin oletuksella " t iid (0; ). Uskottavuusfunktion johto. Otetaan käyttöön merkinnät x t = 1 y 0 t 1 y 0 t p+1 0 = 1 y 0 t 1 0 ((np + 1) 1) ja = 6 4 0 1. 3 7 5 = [ : A 1 : : A p ] (n (np + 1)) : 0 n Tällöin yhtälö (4.1) voidaan kirjoittaa Tämä on yhtälöittäin esitettynä ( 0 ix t = x 0 t i ) y t = x t + " t ; t = 1; :::; T: (4.3) y it = x 0 t i + " it ; i = 1; :::; n; t = 1; :::; T; (4.4) mistä nähdään, että yhtälö (4.3) voidaan kirjoittaa jossa = [ 0 1 0 n] 0 (n(np + 1) 1) ja y t = X 0 t + " t ; t = 1; :::; T; (4.5) X 0 t = diag [x 0 t x 0 t] = I n x 0 t (n n(np + 1)) : Uskottavuusfunktion johtoa varten merkitään Y t = 0, y 0 p+1; :::; y0; 0 y1; 0 :::; yt 0 t = 0; 1; :::; T. Jättäen argumentit yksinkertaisuuden vuoksi pois merkitään satunnaisvektorin Y t tiheysfunktiota symbolilla f Y t. Tällöin koko aineistoa vastaavan sv:n Y T yhteistiheysfunktio on f Y T ja käyttäen ehdollisen tiheysfunktion kaavaa saadaan f Y T = f yt jy T 1 f Y T 1 = f yt jy T 1 f yt 1 jy T f Y T = = TY f yt jy t 1 f Y 0 : Jakossa.3 esitetyn VAR(p) prosessin lineaarisesta esityksestä (.11) seuraa riippumattomuus y t j k " t, j 1, joten erityisesti Y t 1 k " t : Tämän ja malliyhtälön (4.1) perusteella on selvää, että sv:n y t ehdollinen jakauma ehdolla Y t 1 riippuu vain Y t 1 :n p:stä ensimmäisestä osavektorista y t 1 ; :::; y t p eli sv:sta y t 1 : Käyttäen malliyhtälön (4.1) esitystä (4.5) saadaan siten 8 y t jy t 1 y t yt 1 N (X 0 t; ) ; t = 1; :::; T: 8 Tässä voi käyttää seuraavaa multinormaalijakaumaan liittyvää tulosta. Jos Y = X + Z, jossa X k Z ja Z N (; ), niin Y j (X = x) N ( + x; ) (perustelu jätetään tehtäväksi).

Multinormaalijakauman tiheysfunktion lausekkeesta saadaan näin ollen 1 f yt jy t 1 y t jy t 1 = () 1= det () 1= exp (y t Xt) 0 0 1 (y t Xt) 0 : (4.6) Koko aineistoa vastaavan sv:n Y T tiheysfunktion f Y T selvittämiseksi on siten vielä selvitettävä alkuarvovektorin Y 0 = y 0 jakauma. Stationaarisessa tapauksessa oletuksesta (4.) seuraa, että y 0 on (normaalisti jakautuneiden sv:ien lineaarisena muunnoksena) normaalisti jakautunut. Odotusarvo saadaan tuloksesta E (y t ) = A (1) 1 (ks. jakson.3 loppu) ja kovarianssimatriisi on 0 = [ i j] (i; j = 1; :::; p), joka voidaan lausua parametrien, A 1 ; :::; A p ja funktiona (ks. jakso.3). Seuraavassa alkuarvo y 0 tulkitaan kiinteäksi vakioksi tai yhtäpitävästi ehdollistaan sen saaman arvon suhteen. Tällöin päädytään ns. ehdolliseen uskottavuusfunktioon, joka saadaan edellä todetun mukaan tulkitsemalla tulo f y1 jy 0 f yt jy T 1 parametrien funktiona. Käyttäen yhtälöä (4.6) ja ottamalla logaritmi päädytään siten ehdolliseen log uskottavuusfunktioon (parametrista riippumaton vakio jätetään pois) l (; ) = T log det () 1 (y t Xt) 0 0 1 (y t Xt) 0 : (4.7) On selvää, että suurilla havaintomäärillä alkuarvojen y p+1 ; :::; y 0 huomiotta jättämisellä on mitätön vaikutus ja uskottavuusfunktioon perustuvien tilastollisten menetelmien asymptoottisiin ominaisuuksiin sillä ei ole mitään vaikutusta. Ellei toisin mainita, tarkoitetaan uskottavuusfunktiolla seuraavassa ehdollista uskottavuusfunktiota. Uskottavuusfunktion maksimointi. Maksimoidaan nyt uskottavuusfunktio tavanomaista derivointimenettelyä käyttäen. Derivoimalla saadaan yhtälöstä (4.7) (ks. Liite A.7) @ @ l (; ) = X t 1 (y t Xt) 0 : (4.8) Matriisin X t määritelmän ja Kroneckerin tulon ominaisuuksia käyttäen saadaan (ks. Liite A.5) X t 1 = (I n x t ) 1 1 = 1 x t = 1 I np+1 (In x t ) ; jossa siis (I n x t ) = X t. Yhtälö (4.8) voidaan näin ollen kirjoittaa @ @ l (; ) = X T 1 I np+1 X t (y t Xt) 0 : (4.9) Asettamalla @l (; ) =@ = 0 voidaan (epäsingulaarinen) tekijä ( 1 I np+1 ) supistaa pois, joten parametrin uskottavuusyhtälöksi saadaan X t Xt 0 = X t y t ; 3

jonka yksikäsitteinen ratkaisu on ^ =! 1 X t Xt 0 X t y t eli malliyhtälöstä (4.5) muodostettu pienimmän neliösumman (PNS) estimaattori. Viimeksi mainittu seikka tulee havainnollisemmaksi, kun yhtälöryhmä (4.5) kirjoitetaan matriisimuodossa 3 3 3 tai lyhyesti 6 4 y 1. y T 7 6 5 = 4 X 0 1. X 0 T 7 6 5 + 4 y = X 0 + ": Suoraviivaisella matriisilaskulla nähdään, että ^ saadaan tavanomaisella PNS kaavalla ^ = (X 0 X) 1 X 0 y: Huomaa kuitenkin, että Cov (") = I T, mikä poikkeaa tavanomaisesta lineaarisen mallin yhteydessä tehtävästä oletuksesta. Syy sille, että SU menetelmä johtaa tästä huolimatta tavanomaiseen PNS estimointiin piilee selittäjämatriisin X erityisessä rakenteessa. Myöhemmin nähdään, että vastaava tulos ei päde, kun matriisin X rakenne muuttuu. Suoralla (tehtäväksi jätettävällä) laskulla nähdään, että estimaattorivektorin ^ osavektorit ^ 1 ; ::::; ^ n saadaan soveltamalla PNS menetelmää yhtälöryhmän (4.4) yksittäisiin yhtälöihin. Tarkastellaan nyt kovarianssimatriisin SU estimointia. Tässä yhteydessä on kätevää johtaa käänteismatriisin 1 =: SU estimaattori, minkä jälkeen :n SU estimaattori saadaan SU menetelmän invarianssiominaisuuden nojalla kääntämällä :n SU estimaattori. Käyttäen parametrimatriisia ja lyhennysmerkintää " t () = y t Xt 0 voidaan log uskottavuusfunktio kirjoittaa l (; ) = T log det () 1 Liitteessä A.7 esitettyjen derivointikaavojen mukaan on " 1. " T 7 5 " t () 0 " t () : joten @ @ @" t () 0 " t () = " t () " t () 0 @ @ l (; ) = T 1 ja @ @ log det () = 1 = ; " t () " t () 0 : 4

Asettamalla oikea puoli nollaksi ja korvaamalla vektorissa " t () parametri edellä johdetulla :n uskottavuusyhtälön ratkaisulla ^ saadaan ratkaisu ^ = 1 T (y t Xt^) 0 (y t Xt^) 0 0 : Koska ^ minimoi PNS estimaattorina log uskottavuusfunktion l (; ) summalausekkeen (ks. (4.7)), on SU menetelmän invarianssiominaisuuden nojalla selvää, että ^ ja ^ ovat parametrien ja (ehdollisia) SU estimaattoreita. 9 SU estimaattorien asymptoottiset ominaisuudet. SU estimaattorien asymptoottisten ominaisuuksien selvittämisessä nojaudutaan tavanomaiseen SU teoriaan, jonka toimiminen perustuu siihen, että tavanomaiset raja-arvolauseet (eli suurten lukujen laki ja keskeinen raja-arvolause) pätevät tarkasteltevan VAR(p) mallin tapauksessa. Oletetaan alkuarvot y p+1 ; :::; y 0 yksinkertaisuuden vuoksi stationaarisiksi. Estimaattorin ^ asymptoottisen jakauman johtamiseksi lasketaan ensin (ks. (4.9) ja Liite A.7) @ l (; ) = @@ 0 X T 1 I np+1 X t Xt 0 = 1 x t x 0 t; jossa jälkimmäinen yhtälö perustuu matriisin X t esitykseen X t = I n x t ja Kroneckerin tulon ominaisuuksiin (ks. Liite A.5). Koska x t = 0, 1 y 0 t 1 on parametrin Fisherin informaatiomatriisi siten @ I (; ) := E l (; ) = T 1 @@0 x ; jossa x = E (x t x 0 t) = 1 E y 0 t 1 E y t 1 E yt 1 y 0 t 1 Todetaan seuraavaksi, että (ks. (4.8) ja Liite A.7) @ E l (; ) @@! ij = = = 0: : @ E X t 1 (y t X 0 @! t) ij @ E X t 1 E (" t ) @! ij 9 Mainittakoon, että edellä esitettyä menettelyä soveltaen voidaan johtaa SU estimaattorit myös usean yhtälön regressiomallissa eli mallissa, jonka määrittelee yhtälö (4.3), kun X t on kiinteä (tai voidaan tulkita kiinteäksi) ja virhetermi toteuttaa normaalisuusoletuksen (4.). Erikoistapaus tästä on malli Y 1 ; :::; Y T N (; ) k. 5

Tässä toinen yhtälö perustuu yhtälöön " t = y t Xt 0 ja siihen, että " t on riippumaton muuttujista y t 1 ; y t ; ::: ja siten muuttujasta X t (ks. X t :n määritelmä yhtälössä (4.5)). Edellä todetusta seuraa, että parametrien ja Fisherin informaationmatriisi on lohkodiagonaalinen eli parametrit ja ovat ortogonaaliset. Yleisestä SU estimointiteoriasta voidaan siten päätellä, että estimaattorit ^ ja ^ ovat asymptoottisesti riippumattomat ja estimaattorin ^ asymptoottinen jakauma on sama kuin tapauksessa, jossa parametrin arvo tunnettaisiin. Toisin sanoen, ^ on asymptoottisesti normaalinen odotusarvona ja kovarianssimatriisina I (; ) 1. Koska ( 1 x ) 1 = 1 x saadaan matriisin I (; ) määritelmän nojalla siten tulos ^ N ; T 1 1 x : as Estimaattorin ^ asymptoottista jakaumaa ei tarkastella. Myöhemmin vedotaan kuitenkin tarkentuvuuteen ^ p!. Huom.: Edellä johdettu tulos pätee myös ilman oletusta stationaarisista alkuarvoista, kunhan matriisi T ( 1 x ) korvataan Fisherin informaatiomatriisin yleisellä lausekkeella I (; ) = 1 P T E (x tx 0 t). Sama pätee seuraavassa esitettävään rajoitettuun estimointiin ja testimenetelmiin. On kuitenkin syytä huomata, että asymptoottisten jakauma-approksimaatioiden toimivuuteen vaikuttaa se, kuinka voimakasta prosessin korreloituneisuus on. Kun prosessin stabiilisuusehto (ks. jakso.3) on lähellä rikkoontua, voivat asymptoottiset jakaumat olla pienillä havaintomäärillä harhaanjohtavia. 4. Estimointi lineaarisin rajoittein Tarkastellaan edellisen jakson mallia, jossa parametreihin A 1 ; :::; A p ja mahdollisesti myös liitetään lineaarisia rajoitteita. Nämä rajoitetteet on kätevä esittää käyttäen yhtälön (4.5) parametrivektoria, jonka oletetaan toteuttavan = H + a; (4.10) jossa H on tunnettu n (np + 1) m matriisi, a on tunnettu n (np + 1) vektori ja on tuntematon m 1 parametrivektori. Lisäksi oletetaan, että matriisi H on täyttä sarakeastetta eli r (H) = m Usein lineaariset parametrirajoitteet esitetään vaihtoehtoisella tavalla käyttäen yhtälöä R = b; (4.11) jossa R (q n (np + 1)) ja b (q 1) ovat tunnettuja ja r (H) = q. Lineaarialgebraa käyttäen rajoitteet (4.10) ja (4.11) voidaan todeta yhtäpitäviksi (perustelu jätetään tehtäväksi). Edellinen on kätevä tämän jakson estimointitarkasteluissa ja jälkimmäinen seuraavan jakson Waldin testissä. 6