2. Yhden selittäajäan lineaarinen regressiomalli. 2.1 Malli ja parametrien estimointi. Malli:



Samankaltaiset tiedostot
2. Yhden selittäajäan lineaarinen regressiomalli. 2.1 Malli ja parametrien estimointi. Malli:

Regressio-termi peräaisin Galtonilta. IsÄan ja pojan pituus: PitkÄa isäa lyhyempi poika, lyhyt isäa pidempi poika.

1. PÄÄTTELY YHDEN SELITTÄJÄN LINEAARISESTA REGRESSIOMALLISTA

3. Useamman selittäajäan regressiomalli. p-selittäaväaäa muuttujaa. Y i = + 1 X i p X ip + u i

Mat Tilastollisen analyysin perusteet, kevät 2007

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Regressioanalyysi. Kuusinen/Heliövaara 1

xi = yi = 586 Korrelaatiokerroin r: SS xy = x i y i ( x i ) ( y i )/n = SS xx = x 2 i ( x i ) 2 /n =

54. Tehdään yhden selittäjän lineaarinen regressioanalyysi, kun selittäjänä on määrällinen muuttuja (ja selitettävä myös):


Johdatus regressioanalyysiin. Heliövaara 1

1. USEAN SELITTÄJÄN LINEAARINEN REGRESSIOMALLI JA OSITTAISKORRELAATIO

A250A0050 Ekonometrian perusteet Tentti

Tilastollisen analyysin perusteet Luento 7: Lineaarinen regressio

Esim Brand lkm keskiarvo keskihajonta A ,28 5,977 B ,06 3,866 C ,95 4,501

VARIANSSIANALYYSI ANALYSIS OF VARIANCE

Harjoitus 9: Excel - Tilastollinen analyysi

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

USEAN MUUTTUJAN REGRESSIOMALLIT JA NIIDEN ANA- LYYSI

2. Teoriaharjoitukset

031021P Tilastomatematiikka (5 op) kertausta 2. vk:een

Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. eli matriisissa on 200 riviä (havainnot) ja 7 saraketta (mittaus-arvot)

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä

Harha mallin arvioinnissa

Tilastollisen analyysin perusteet Luento 3: Epäparametriset tilastolliset testit

Ilkka Mellin Tilastolliset menetelmät. Osa 3: Tilastolliset testit. Tilastollinen testaus. TKK (c) Ilkka Mellin (2007) 1

1. YKSISUUNTAINEN VARIANSSIANALYYSI: AINEISTON ESITYSMUODOT

1. REGRESSIOMALLIN SYSTEMAATTISEN OSAN MUOTO

Testejä suhdeasteikollisille muuttujille

Perusnäkymä yksisuuntaiseen ANOVAaan

Johdatus tilastotieteeseen Yhden selittäjän lineaarinen regressiomalli. TKK (c) Ilkka Mellin (2005) 1

Residuaalit. Residuaalit. UK Ger Fra US Austria. Maat

r = n = 121 Tilastollista testausta varten määritetään aluksi hypoteesit.

Maximum likelihood-estimointi Alkeet

Todennäköisyyden ominaisuuksia

2. Tietokoneharjoitukset

Estimointi populaation tuntemattoman parametrin arviointia otossuureen avulla Otossuure satunnaisotoksen avulla määritelty funktio

ABHELSINKI UNIVERSITY OF TECHNOLOGY

(d) Laske selittäjään paino liittyvälle regressiokertoimelle 95 %:n luottamusväli ja tulkitse tulos lyhyesti.

Mat Tilastollisen analyysin perusteet. Painotettu PNS-menetelmä. Avainsanat:

Yleistetyistä lineaarisista malleista

Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu JMP:llä

Virhearviointi. Fysiikassa on tärkeää tietää tulosten tarkkuus.

Estimointi. Vilkkumaa / Kuusinen 1

Korrelaatiokertoinen määrittely 165

Ilkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2007) 1

Johdatus varianssianalyysiin. Vilkkumaa / Kuusinen 1

Sovellettu todennäköisyyslaskenta B

Väliestimointi (jatkoa) Heliövaara 1

Dynaamiset regressiomallit

Sovellettu todennäköisyyslaskenta B

9. laskuharjoituskierros, vko 12-13, ratkaisut

805306A Johdatus monimuuttujamenetelmiin, 5 op

Osa 2: Otokset, otosjakaumat ja estimointi

OHJ-7600 Ihminen ja tekniikka -seminaari, 4 op Käyttäjäkokemuksen kvantitatiivinen analyysi. Luento 3

Mat Tilastollisen analyysin perusteet, kevät 2007

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Geenikartoitusmenetelmät. Kytkentäanalyysin teoriaa. Suurimman uskottavuuden menetelmä ML (maximum likelihood) Uskottavuusfunktio: koko aineisto

Identifiointiprosessi

MTTTP5, luento Luottamusväli, määritelmä

Mat Tilastollisen analyysin perusteet, kevät 2007

3.6 Su-estimaattorien asymptotiikka

Kaksisuuntainen varianssianalyysi. Vilkkumaa / Kuusinen 1

805306A Johdatus monimuuttujamenetelmiin, 5 op

Tilastollisten menetelmien perusteet II TILTP3 Luentorunko

3. Useamman selittäajäan regressiomalli. p-selittäaväaäa muuttujaa

Sovellettu todennäköisyyslaskenta B

Kaksisuuntainen varianssianalyysi. Heliövaara 1

SAS/IML käyttö ekonometristen mallien tilastollisessa päättelyssä. Antti Suoperä

TA7, Ekonometrian johdantokurssi HARJOITUS 4 1 RATKAISUEHDOTUKSET

Johdatus regressioanalyysiin

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

7. Lohkominen ja sulautus 2 k kokeissa. Lohkominen (Blocking)

Johdatus tilastotieteeseen Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2004) 1

1. Tutkitaan regressiomallia Y i = β 0 + β 1 X i + u i ja oletetaan, että tavanomaiset

Aalto-yliopisto, Matematiikan ja systeemianalyysin laitos /Malmivuori MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi,

Aki Taanila YHDEN SELITTÄJÄN REGRESSIO

2. Keskiarvojen vartailua

Harjoitus 7: NCSS - Tilastollinen analyysi

1. Tilastollinen malli??

Yksisuuntainen varianssianalyysi (jatkoa) Heliövaara 1

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Identifiointiprosessi

Ilmoittaudu Weboodissa klo (sali L4) pidettävään 1. välikokeeseen!

Harjoitukset 2 : Monimuuttujaregressio (Palautus )

Yleinen lineaarinen malli eli usean selittäjän lineaarinen regressiomalli

Sisällysluettelo 6 REGRESSIOANALYYSI. Metsämuuronen: Monimuuttujamenetelmien perusteet SPSS-ympäristössä ALKUSANAT... 4 ALKUSANAT E-KIRJA VERSIOON...

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

Suhtautuminen Sukupuoli uudistukseen Mies Nainen Yhteensä Kannattaa Ei kannata Yhteensä

Sovellettu todennäköisyyslaskenta B

4.0.2 Kuinka hyvä ennuste on?

Yksisuuntainen varianssianalyysi (jatkoa) Kuusinen/Heliövaara 1

Lumipallo regressioanalyysista. Logistinen regressioanalyysi. Soveltuvan menetelmän valinta. Regressioanalyysi. Logistinen regressioanalyysi I

Opiskelija viipymisaika pistemäärä

Frequencies. Frequency Table

MTTTP5, luento Otossuureita ja niiden jakaumia (jatkuu)

Tilastolliset mallit hakkuukoneen katkonnan ohjauksessa. Tapio Nummi Tampereen yliopisto

Transkriptio:

2. Yhden selittäajäan lineaarinen regressiomalli Regressio-termi peräaisin Galtonilta. IsÄan ja pojan pituus: PitkÄa isäa lyhyempi poika, lyhyt isäa pidempi poika. Son height (cm) 21 2 19 18 17 16 15 15 16 17 18 19 2 21 Father height (cm) Kuvio. IsÄan ja pojan pituus. 2.1 Malli ja parametrien estimointi Malli: Y i = + X i + u i, Y Riippuva (dependent) SelitettÄavÄa (explained) (predictand) (regressand) vaste (respond) Oletukset: i =1,...,n X Riippumaton (independent) SelittÄavÄa (explanatory) (predictor) (regressor) (stimulus) (control variable) 1. E (u i )= tai E(Y i X i )= + X i 2. Var(u i )= 2 Var(Y i X i )= 2 3. Cov(u i,u j )=,i= j Cov(Y i,y j )=,i= j 4. Cov(X i,u i )=, i 5. (X i ¹X) 2 > Huom. Usein oletetaan, ettäa X on kiinteäa (ei-stokastinen) 32 33 u i : Virhetermi on yhdistelmäa eritekijäoistäa, kuten (Ramanathan 1998, p. 84{85) 1. (PoisjÄatetyt muuttujat) It accounts the e ects of variables omitted from the model 2. (EpÄalineaarisuudet) It captures the e ects of nonlinearities in the relationship between Y and X. Thus,ifthetruemodel were Y i = + X i + X 2 i + v i,andweassume that it was Y i = + X i + u i,then the e ect of X 2 i wouldbeabsorbedbyu i. Estimointi: 28 26 24 22 Price $1 (Y ) Area (X) 136.17 121 137.2 1219 154.1 14 169.2 156 195.87 1846 195.87 1846 195.87 1846 27.32 1968 227.22 218 231.91 223 238.48 23 238.48 23 247.87 24 259.79 2527 3. (Mittausvirheet) Errors in measuring X and Y arealsoabsorbedinu i. Price (USD) 2 18 16 4. (Ennakoimattomat tekijäat, unpredictable e ect) u i also includes inherently unpredictable random e ects. 14 12 1 1 12 14 16 18 2 22 24 26 28 Square feet Kuvio. NeliÄomÄaÄarÄa (square feet) vs hinta (dollareina) 34 35

PienimmÄan neliäosumman estimointi (PNS) OLS = Ordinary Least Squares. Sovitetaan aineistoon suora ^Y =^ + ^X siten, ettäa neliäosumma n n n f(^, ^) = e 2 i = (Y i ^Y i ) 2 = (Y i ^ ^X i ) 2 i=1 minimoituus. i=1 Derivoimalla ja ratkaisemalla derivaattojen nollakohdat, saadaan normaaliyhtäaläot i=1 n^ + ^ X i = Y i ^ X i + ^ X 2 i = X i Y i josta ratkaisemalla saadaan OLS-estimaattorit Esim. Asunnon hinnan ja pinta-alan väalinen suhde. Parametrien tulkinnasta: Nyt ^Y i = 22.6 +.94X i, (46.8) (.24) R 2 =.563,s=37.48 jossa ^Y = estimoitu hinta ja X = pinta-ala. Estimaattoreiden keskivirheet on esitetty suluissa kertoimien alla. Kulmakerroin ilmaisee yksikkäomuutoksen, silläa d^y/dx = ^. TÄaten yhden neliäojalan lisäays pinta-alassa lisäaäa keskimäaäarin asunnon hintaa ^ = 94 dollarilla. Kun X = on ^Y = ^, joka voidaan tulkita rakentamattoman tonttimaan keskihinnaksi. TÄaten rakentamattoman tonttimaan keskihinnaksi tulisi $22 6. ^ = (Xi ¹X)(Y i ¹Y ) ^ = ¹Y ^ ¹X (Xi ¹X) 2 = s y s x r xy Huom. Otoksesta laskettua virhetermiäa e i = Y i (^ + ^X i ) = u i = Y i ( + X i ) sanotaan residuaaliksi eli jäaäannäostermiksi (ks. tarkemmin Doughert kalvot). 36 37 Usein on myäos mielenkiintoista tarkastella joustoja. Esim. EdellÄa olevan esimerkin tapauksessa E = X^Y d^y dx = ^ X^Y, joka riippuu sekäa hinnastaettäa pinta-alasta. Price $1 (Y ) Area (X).94 X^Y 136.17 121.834 137.2 1219.835 154.1 14.853 169.2 156.866 195.87 1846.885 195.87 1846.885 195.87 1846.885 27.32 1968.891 227.22 218.91 231.91 223.93 238.48 23.95 238.48 23.95 247.87 24.99 259.79 2527.913 Huomioita: Hinnan pinta-alajousto on alle ykkäosen, ts. pinta-alan kasvaessa hinta kasvaa prosentuaalisesti väahemmäan kuin prosentuaalinen pinta-ala. Toisaalta jousto kasvaa pinta-alan kasvun myäotäa, eli suhteellisesti lisäapinta-ala on kalliimpi isoissa asunnoissa kuin pienissäa. TÄamÄa on tietysti selväa, koska pintaalalla on täassäa mallissa vakiohinta! Kuitenkin tulokset ilmaisevat, ettäa esimerkiksi 1 prosentin pinta-alan lisäays isossa asunnossa tulee täamäan mallin mukaan suhteellisesti kalliimmaksi kuin vastaava prosentuaalinen lisäays pienessäa asunnossa. (HyÄoty!) Onko jäarkeväa!? KÄaytÄannÄossÄa lienee niin, ettäa neliäohinta on isoissa asunnoissa pienempi! Palataan täahäan tuonnempana. 38 39

2.2 MittayksikÄon muutoksen vaikutus estimaatteihin Esim. $1 =.82Eur ja 1ft =.348m. MerkitÄaÄan H =.82 P ja NM = (.348) 2 SQFT =.929 SQFT. SelittÄavÄan muuttujan skaalaus vaikuttaa vain vastaavan regressiokertoimen suuruuteen, silläa jos Z = ax (a >), niin X = Z/a = Z, jossa = /a. Estimoitu malli muunnetuissa mittayksikäoissäa onsiis ^H =.82 22.61 +.82.929.94NM = 18.533 +.83NM dh =.83 dnm. Jos ala kasvaa neliäometrilläa, niin hinta muuttuu keskimäaäarin 82 Eurolla. SelitettÄavÄan muuttujan skaalauksessa on kerrottava yhtäaläon molemmat puolet, joten kaikki regressiokertoimet ja residuaalitermi muuttuvat. Esim. EdellÄa (1 ) euroina P = + SQFT + u H = + NM + u, jossa =.82, =.82/.929 ja u =.82u. 4 41 2.3 OLS Estimaattoreiden ominaisuuksia Best Linear Unbiased Estimator (BLUE) eli paras lineaarinen harhaton estimaattori (PLHE) Voidaan helposti osoittaa, ettäa aiemmin tehtyjen (klassisten) oletusten vallitessa OLS estimaattori on BLUE (ns. Gauss-Markov teoreema ). Estimaattoria, joka on havaintojen lineaarikombinaatio, eli muotoa n ^ = a i Y i i=1 sanotaan lineaariseksi estimaattoriksi. LisÄaksi, jos sille päatee: LisÄaksi päatee, ettäa OLS-estimaattori on tarkentuva (Consistent) tehokas, jos residuaalitermit u i ovat normaalisti jakutuneita. harhaton varianssi on pienin tarkasteltavan parametrin lineaaristen ja harhattomien estimaattoreiden joukossa Huom. BLUE pitäaäa sisäalläaäan sen, ettäa OLS estimaattorit ovat harhattomia. niin kyseinen estimaattori on BLUE. 42 Gauss-Markov Theorem: Parametrien ja lineaarisista harhattomista estimattoreista OLS estimaattoreiden ^ ja ^ varianssit ovat pienimmäat 43

2.4 Estimoinnin tarkkuus Estimaattorin tarkkuutta mitataan estimaattorin keskivirheelläa (standard error). ^ = var(^) 2^ = = u 2 (Xi ¹X) 2, jossa u 2 =var(u i ). Korvaamalla u 2 sen estimaattorilla s 2 u = 1 n (Y i ^Y i ) 2 n 2 i=1 ja ottamalla neliäojuuri saadan ^:n keskivirheestimaattori s^ = s u (Xi ¹X) 2. Vastaavalla tavalla leikkaustemin ^ keskivirheestimaattoriksi tulee s^ = s X 2 i u n (X i ¹X) 2 = s 1 u n + ¹X 2 (Xi ¹X) 2. 44 HT: Miten muuttujien skaalaus vaikuttaa keskivirheisiin? Huom. Kuten aiemmin on todettu, Gauss- Markov teoreeman mukaan, jos lineaarisen regression oletukset 1{5 ovat voimassa, niin OLS estimaattorit ovat BLUE eli niilläa on lineaarisista harhattomista estimaattoreista pienin varianssi. Jos residuaalitermi on likipitäain normaalijakautunut, saadaan keskivirheiden avulla muodostettua mm. luottamusväalit. 1(1 p)-prosentin luottamusväalit : : ^ ± t 12 p s^ ^ ± t 12 p s^, jossa t p on t-jakauman taulukkoarvo vapausasteilla n 2(havaintojenlkm-estimoitujen parametrin lkm). 45 2.5 Selitysaste e i =^u i = Y i ^Y i Esim. (NeliÄohintadata) df =14 2 = 12, s^ =46.84 ja s^ =.24 95 prosentin luottamusväaleiksi saadaan, kun t.25 (12) = 2.179 ^ ± t.25 s^ =22.6 ± 2.179 46.84 eli (79.46, 124.66) Vastaavasti :n 95 prosentin luottamusväaliksi saadaan (.42,.146). HT: Laske luottamusväalit, kun rahayksikkäonäa oneuro ja pinta-alana neliäometri. Y i ¹Y =(^Y i ¹Y )+(Y i ^Y i )=(^Y i ¹Y )+e i Korotetaan neliäoäon ja summataan (Yi ¹Y ) 2 = (^Y i ¹Y ) 2 + e 2 i +2 (^Y i ¹Y )e i = = (^Y i ¹Y ) 2 + (Y i ^Y i ) 2 SST = SSR + SSE Huom. Leikkaustermin luottamusväali sisäaltäaäa nollan. LuottamusvÄaleistÄa enemmäan tuonnempana. Selitysaste R 2 = SSR SSE =1 SST SST. Voidaan osoittaa, ettäa rxy 2 = R 2 täassäa yhden selittäajäan regressiomallissa. 46 47

z Y Yleistys: usean selittäajäan regressioanalyysissäa yhteiskorrelaatiokertoimen (multiple correlation) neliäo (R 2 = r 2 y^y ). Huom. Vain yksi, joskin ehkäa käaytetyin mallin (teknisen) hyvyyden mitta. Esim. (jatkoa) R 2 =.563. HT: Vaikuttaako muuttujien skaalaus selitysasteeseen? Osoita todeksi väaittäamäasi. Saattaa esimerkiksi olla, ettäa kahdella mallilla virhetermin suuruuta kuvaava hajonta (s u ) on sama, mutta selitysasteet ovat eri suuria. TÄallÄoin mallien hyvyydet absoluuttisella tarkkuudella mitattuna ovat samat vaikka selitysaste toisessa onkin korkeampi. Esim. Selitysaste ja residuaalihajonta. y x z u 1.79 5.18.43 4.58 y = a + b x + e 7.38 3.4 3.31.59 13.97 7.99 4.38-2.1 17 9.84 5.39 3.37 -.94 15 6.72 4.12 1.77-1.52 13 13.57 5.69 6.74 2.18 11 6.98 4.5 2.12-1.12 9 1.98 3.77 6.46 3.44 12.67 5.63 5.91 1.4 7 5 12.53 6.13 5.18.28 3 9.48 5.62 2.74-1.76 1 7.48 5.13 1.32-2.79 7.29 3.68 2.87 -.7 2 3 4 5 6 7 8 X 12.5 6.59 4.59 -.69 1.78 5.58 4.8 -.38 11.67 5.81 4.7.5 z = c + d x + e 14.25 6.13 6.89 1.99 12.3 6.29 4.48 -.56 16 14 1.85 5.67 4.5 -.48 1.24 4.43 4.92 1.38 12 7.2 3.6 3.53 1.9 1 15.47 6.6 7.54 2.26 8 8.15 3.26 4.25 1.64 7.69 3.45 3.55.79 6 4 13.92 7.43 5.1 -.93 2 11.35 6.3 4.11 -.71 9.26 4.11 4.32 1.3 14.18 6.87 5.93.44 2 3 4 5 6 7 8 x 15.64 7.65 6.46.34 y = a + b x + e SUMMARY OUTPUT ANOVA df SS MS F P-val 156.43 156.43 8.22. Regression Statistics Regression 1 Multiple R.86 Residual 27 52.65 1.95 R Square.75 Total 28 29.8 Adj R Squa.74 Std Err 1.4 Coeff Std Err Stat t P-value Observatio 29 Intercept 1.7 1.5 1.62.12 X Variable 1.72.19 8.96. z = c + d x + e SUMMARY OUTPUT ANOVA df SS MS F P-val 14.12 14.12.1 Regression Statistics Regression 1 7.24 Multiple R.46 Residual 27 52.65 1.95 R Square.21 Total 28 66.77 Adj R Squa.18 Std Err 1.4 Coeff Std Err Stat t P-value Observatio 29 Intercept 1.7 1.5 1.62.12 x.52.19 2.69.1 48 49 2.6 Normaalisuusoletus LisÄatÄaÄan oletuksiin (1{5) 6. u i N(, 2 u). Normaalisuusoletus on usein perusteltavissa keskeisen raja-arvolauseen kautta. JÄaÄannÄostemin jakaumaoletuksesta seuraa estimaattoreiden jakaumaominaisuudet! X 2 ^ N, i n (X i ¹X) 22 u ^ 2 u N, (Xi ¹X) 2 jossa ^Y X N + X, 2^y, 2^y = 1 n + (X ¹X) 2 (Xi ¹X) 2 2 u. 5 Esimerkiksi ^ z = (Xi N(, 1). u / ¹X) 2 Kun u korvataan estimaattorillaan s u, niin ^ t = (Xi s u / ¹X) t n2, 2 jossa s 2 u = 1 e 2 n 2 i. SiispÄa: Residuaalin jakaumasta seuraa estimaattoreiden jakaumat. NÄaille puolestaan perustuvat luottamusväalien laskeminen ja tilstollisten testien muodostaminen. NÄaistÄa syistäa on täarkeäaäa, ettäa tarkistetaan residuaalitermin normaalisuusoletuksen paikkansapitäavyys, jotta testien ja luottamusväalien antamat tuloksetolisivatkäayttäokelpoisia. HT: Miten muuttujien skaalaus vaikuttaa t- jaz-testi- suureisiin? Osoita todeksi väaittäamäasi. 51

2.7 Kertoimien luottamusväalit 2.8 Kertoimien testaus Tilastolliset hypoteesivaihtoehdot: Y = + X + u. LuottamusvÄali :lle ^ P ( <t 1 ) =1 p, s^ 2 p eli P (^ t 12 p s^ < < ^ + t 12 p s^ ) =1 p. :n 1(1p) prosentin luottamusväaliksi saadaan siis ^ ± t 12 p s^. Tulkinta! (ks. kuvio) H : = H 1 : = tai H : H 1 : > tai H : H 1 : < Esim. SQFT-data H : H 1 : > t =.94 =3.932, p-val =.2 <.1,.24 joten H hyläatäaäan ja > (eipäalieneylläatys!) Vastaavalla tavalla saadaan -parametrin p- arvoksi.638, joten ^ ei ole tilastollisesti merkitseväa! 52 53 p-arvo (p-value): Merkitsevyystaso eli ensimmäaisen lajin virheen todennäakäoisyys p-arvo = P (HylÄatÄaÄan H H on tosi), joka siis ilmaisee todennäakäoisyyden riskille, ettäa hyläatäaäan H vaikka se on tosi (hylkäaysvirhe). Tietokoneen testin yhteydessäa laskemap-arvo ilmaisee pienimmäan merkitsevyystason, jolla H voitaisiin hyläatäa. Tavanomisesti käaytettyjäa merkitsevyystasoja ovat.5,.1 tai.1, joten jos laskettu p-arvo on pienempi kuin esimerkiksi.5 hyläatäaäan H viiden prosentin merkitsevyystasolla. Esim. SQF-data H : = H 1 : = Excel-tulostuksesta: p-val =.2 <.1, joten todetaan, ettäa kerroin poikkeaa tilastollisesti merkiteväasti nollasta. Sensijaanleikkaustermin tapauksessa p-val =.638, joten jos hylkäaäamme nollahypoteesin, ettäa =ottaisimme 64 prosentin riskin hyläatäa väaäarin perustein kyseinen hypoteesi. Emme kuitenkaan tee niin vaan päaäattelemme, ettäa leikkaustemi on nolla. 2.9. ANOVA-taulu Yleiseksi tavaksi on tullut, ettäa kokonaisneliäosumman SST hajoitelma kootaan varianssianalyysin tauluun (ANOVA ANalysis Of VAriance): 54 55

Source df SS MS F p-value Regression p SSR Residual n p 1 SSE Total n 1 SST SSR p SSE (np1) SSR SSE np1 p P (F >F obs ) 2.1 Ennustaminen Olkoon X annettu X:n arvo. saadaan ennustearvo Silloin Y :lle missäa p on selittäavien muuttujien lukumäaäaräa mallissa. joka on mallin ^Y =^ + ^X, Huom. F -testi testaa koko regression merkitsevyyttäa, joka yhden selittäajäan tapauksessa on sama kuin regressiokertoimen t-testi. PÄatee: t 2 = F (1,n 2). Ei kuitenkaan, jos selittäajiäa on useampia. Esim. SQF-data. Housing price data from Ramanathan (1993) Price SQFT SUMMARY OUTPUT Obs Y X 1 Regression Statistics 1 128.5 1219 Multiple R.75 2 139.5 121 R Square.563 3 139.5 14 Adj R Square.527 4 152.5 156 Std Err 37.5 5 153 1846 Obs 14 6 185 24 7 29 1846 ANOVA 8 211 1846 df SS MS F Signf F 9 214 23 Regression 1 2172.2 2172.2 15.5.2 1 226 223 Residual 12 1686.8 145.1 11 25 23 Total 13 38581. 12 259 218 13 269.9 2527 Coeff Std Err t Stat P-value 14 298 1968 Intercept 22.6 46.8.483.6381 SQFT.94.23873 3.931731.2 56 systemaattisen osan Y = + X + u E(Y )= + X paras lineaarinen harhaton estimaattori (BLUE), kun X = X. On kuitenkin huomattavaa, ettäa ^Y :aa ei voida pitäaäa Y :n BLUE:na! Se ei ole edes Y :n harhaton estimaattori, silläa E(^Y )=+X = Y = + X + u,josu =. 57 Kuitenkin, koska X:n arvolla X päatee E(u )=E(Y ^Y )=, niin voidaan ennustetta ^Y pitäaäa siinäa mielessäa Y :n harhattoman estimaattorina, ettäa ennustevirheen odotusarvo on nolla. Voidaan osoittaa, ettäa ennusteella ^Y on täallaisten estimaattoreiden joukossa pienin varianssi. TÄamÄan vuoksi sanotaan, ettäa ^Y on Y :n paras lineaarinen harhaton ennuste (BLUP = Best Linear Unbiased Predictor). Ennusteen luottamusväali Yleiseti varianssille Var( ^Y ) päatee 1 Var( ^Y )= n + (X ¹X) 2 (Xi ¹X) 2 u, 2 jonka estimaattori saadaan korvaamalla tuntematon parametri u 2 estimaatillaan s 2 u. TÄaten saadaan yleiselläa X:n arvolla odotusarvon E(Y X) eli regressiosuoran luottamusväaliksi E(Y X) : ^Y ± t 12 p s 1 u n + (X ¹X) 2 (Xi ¹X) 2 YksittÄaisen havainnon luottamusväaliksi tulee puolestaan: Y : ^Y ± t 12 p s 1 u 1+ n + (X ¹X) 2 (Xi ¹X) 2 58 59

Esim. SQF-Data Ennusteiden vertailu: Confidence intervals Housing prices per square feets. Price i ($1) SQFT Housing prices vs Area 1 128.5 1219 4. 2 139.5 121 3 139.5 14 4 152.5 156 3. 5 153. 1846 6 185. 24 7 29. 1846 8 211. 1846 2. 9 214. 23 1 226. 223 11 25. 23 1. 12 259. 218 13 269.9 2527 14 298. 1968 1916.57. 1 R Square.563 12 14 16 18 2 22 24 26 Area Adj R Sqr.527 s 37.484 No of Obs 14 Price ANOVA df SS MS F P-value 2172.22 2172.22 15.46.2 Regression 1 Residual 12 1686.79 145.7 Total 13 38581.1 Std err t Stat Coeff P-value Intercept 22.61 46.838.483.638 X Variable.94.24 3.932.2 RESIDUAL OUTPUT Prediction intervals E(Y X) Y X Obs Pred Price Residuals L95% U95 L95 U95 137.2-8.52 19.17 164.86 37.1 236.94 1 2 136.17 3.33 18.27 164.7 36.24 236.11 3 154.1-14.51 127.13 18.88 54.35 253.66 4 169.2-16.52 142.79 195.26 69.54 268.51 5 195.87-42.87 17.2 221.54 96.53 295.2 6 247.87-62.87 221.14 274.59 148.26 347.48 7 195.87 13.13 17.2 221.54 96.53 295.2 8 195.87 15.13 17.2 221.54 96.53 295.2 9 238.48-24.48 212.15 264.81 138.97 337.99 1 231.91-5.91 25.81 258.2 132.46 331.36 11 238.48 11.52 212.15 264.81 138.97 337.99 12 227.22 31.78 21.25 253.19 127.81 326.63 13 259.79 1.11 232.44 287.13 16.1 359.57 14 27.32 9.68 181.66 232.98 17.99 36.65 Mean absolute error (MAE): MAE = 1 n Yi ^Y i Mean absolute percentage error (MAPE): MAPE = 1 1 Y i ^Y i. n Y i Mean Square Error (MSE): MSE = 1 n (Yi ^Y i ) 2. Root Mean Square Error (RMSE): RMSE = MSE. 6 61 Aikasarja-aineistossa (Y t ) Theilin U: U = Tt=1 (Y t ^Y t ) 2 Tt=2 (Y t Y t1 ) 2 1 2. U vertaa ennustetta naiviin menetlemäaäan, jossa seuraavan periodin ennustearvo on sama kuin nykyinen arvo, eli Enn(Y t+1 )=Y t. TÄaten jos U<1, niin ^Y t ennustaa paremmin kuin vakioennuste U = 1, sama jos ennustetaan nykyiselläa arvolla U>1, naiivi ennuste on parempi. Huom. U on käayttäokelpoinen vain aikasarjaaineistossa. YleensÄa näaitäa käaytetäaäan vertaamaan eri menetelmilläa saatuja ennusteita keskenäaäan. Esim. Cultorin liikevaihto Cultor Oy:n liikevaihto [1983-1998] Cultor Liikevaihto Vuosi Liikevaihto LN(lv) t 1983 2713 7.91 1 1984 2873 7.96 1 9 Trendi ennuste 1985 327 8.2 2 8 1986 3551 8.17 3 7 1987 3591 8.19 4 6 1988 451 8.31 5 5 1989 4559 8.42 6 4 199 59 8.52 7 3 Tasaisen kasvun 1991 5823 8.67 8 2 1992 615 8.7 9 1 1993 6359 8.76 1 1994 616 8.7 11 198 1985 199 1995 2 1995 621 8.73 12 1996 8362 9.3 13 1997 8437 9.4 14 Regressioestimaatit vuosilta 83--92 1998 8488 9.5 15 SUMMARY OUTPUT Regression Statistics v t = (1+g ) t v u t Multiple R.993 y t = + t + t, R Square.986 jossa y t = ln(v t), = ln(v ) Adjusted R Square.984 ja = ln(1+g) ja t = ln(u t) Standard Error.36 Observations 1 ANOVA df SS MS F Signif F Regression 1.73.73 552.. Residual 8.1. Total 9.74 Coeff Std Error t Stat P-value Intercept 7.864.21 368.4. t.94.4 23.5. ==> Kasvu % 9.85 RESIDUAL OUTPUT Ennusteet vuosille 93 -- 98 Year Pred LN(lv) Pred LV Ennuste Virheet 83 7.86 26 Vuosi Tot Trendi Tas-kasv Trendi m Tas kasv LV t-lv t-1 84 7.96 2856 1993 6359 6652 667 293 248 344 85 8.5 3138 1994 616 738 6985 1292 969-343 86 8.15 3447 1995 621 827 669 1826 48 185 87 8.24 3786 1996 8362 8818 6812 456-155 2161 88 8.33 4159 1997 8437 9687 9186 125 749 75 89 8.43 4569 1998 8488 1641 9268 2153 78 51 9 8.52 519 91 8.62 5513 Trendi Tas-kasvu Naiivi 92 8.71 656 MAE 1212 784 527 93 8.8 6652 MAPE (% 16.9 9 8 94 8.9 738 MSE 1915571 789889 824726 95 8.99 827 RMSE 1384 889 98 96 9.9 8818 U 1.52.98 1. 97 9.18 9687 98 9.27 1641 62 63

Esim. Suomen kansantalouden kasvu: 2.11 EpÄalineaariset riippuvuussuhteet year Muutos-% Ennuste-% LCL-5% UCL-5% 1973 6.49 2.98.27 5.77 SAS-estimates from data for 1973-1999 1974 2.98 5.1 2.81 7.44 Variable Coeff Std Error t Ratio p-val 1975 1.59 2.41.25 4.62 Intercept.27 42.1 1.97. 1976 -.1 1.66 -.42 3.79 time.2.2 15.4. 1977.34 1.18 -.84 3.23 A(1) -1.43.137-1.4. 1978 2.31 2.8.1 4.1 A(2).7.138 5.1. 1979 6.55 3.54 1.59 5.54 198 4.99 5.49 3.54 7.47 1981 2.12 3.64 1.76 5.54 Maximum Likelihood Estimates 1982 3.9 1.67 -.13 3.51 SSE.11 DFE 26 1983 2.7 2.2.41 4.1 MSE. Root MSE.21 1984 3.36 1.86.1 3.65 SBC -135.2 AIC -14.8 1985 3.6 2.8.34 3.86 Reg Rsq.93 Total Rsq.992 1986 2.46 1.71 -.3 3.47 Durbin-Wats 2.52 1987 4.13 1.29 -.44 3.4 1988 4.63 2.2.27 3.8 Tutkimuslaitosten ennusteet 1989 5.1 1.78.2 3.56 22 23 199.3 1.35 -.42 3.15 ETLA 1.9 3.7 1991-6.46-1.47-3.21.31 Merita 1.5 3.5 1992-3.38-3.52-5.27-1.75 OECD 1.5 3.4 1993-1.15.17-1.68 2.5 Osuusp 2.5 na 1994 3.88 2.75.81 4.73 Sampo 1.5 3 1995 3.74 6.3 3.97 8.12 PTT 1.5 2.7 1996 3.93 5.56 3.46 7.71 PT 1.3 2.5 1997 6.1 5.29 3.13 7.49 VM 1.3 2.8 1998 5.2 5.85 3.61 8.14 Average 1.6 3.1 1999 3.97 4.41 2.13 6.73 Std.4.49 2 5.93 3.1.78 5.47 21.69 3.54 1.14 6. 22..3-2.11 2.76 23..62-2.58 3.92 Suomen talouskasvun muutokset (%) 1 BKT muutos % 5-5 -1 1973 1975 1977 1979 1981 1983 1985 1987 1989 1991 1993 1995 1997 1999 21 23 Muutos % Kasvuennuste % LCL-5% UCL-5% 64 Lineaarista regressiomallia voidaan soveltaa kunhan vain malli on muunnettavissa lineaariseen muotoon. Esim. Oletetaan, ettäa muuttuja P t kasvaa ajan funktiona tasaisesti. Eli P t =(1+g) t P, jossa P on P :n arvo alkuhetkelläa. Ottamalla logaritmit ln P t = lnp + t ln(1 + g) ja mäaäarittelemäalläa Y t =lnp t, 7 =lnp, X t = t ja =ln(1+g), sekäa lisäaäamäalläa malliin satunnaiskomponentti saadaan Y t = + X t + u t. Eli lineaarinen malli. Huom! Logaritmisessa muodossa perusolettamusten mukaan E(u t ) =. Kuitenkin siirryttäaessäa alkuperäaisiin havaintoihin on malli muotoa ~P t = (1 + g) t P w t, jossa w t = e ut. Jotta E( ~P t) = P t olisi oltava E(w t) = 1. Kuitenkin, voidaan osoittaa, ettäa jos u t N(, 2 ), niin E(w t)=e(e ut )=e 1 2 2. TÄamÄan vuoksi ennustettaessa käaytetäaäan korjausta ^P t+1 = exp(^ + ^t) exp( 1 2 s2 )), jossa s 2 on 2 :n estimaattori. 65 Muuntamalla takaisin saadaan estimoinnin jäalkeen laskettua ennusteet alkuperäaisille muuttujille. Esim. ^g = e^ 1. Cultor-esimerkissÄa vuosien 1983{92 havaintoihin perustuen ^ =.94, joten ^g = e.94 1 =.99 eli 9.9%. Vastaavalla tavalla voidaan linearisoida muitakin epäalineaarisia yhtäaläoitäa. Kaikkia epäalineaarisia malleja ei kuitenkaan voida aina linearisoida. Esim. Oletetaan, ettäa asunnon hankinnassa ihmiset arvostavat asuinpinta-alan lisäaystäa suuremmissa asunnoissa väahemmäan kuin pienissäa. ErÄas mahdollinen malli on silloin P i = + ln(sqf) + u i. Parametrin tulkinta? Nyt dp dsqf = 1 SQF eli P = (SQF) SQF. Toisin sanoen ilmaisee hinnan muutoksen (satoina tuhansina dollareina), kun asuinpinta-ala muttuu yhdelläa prosentilla 66 67

Muita mallivaihtoehtoja: (1) P i = + SQFT i + u i (linear model) (2) P i = + ln SQFT i + u i (linear-log model) (3) ln P i = + SQFT i + u i (linear-log model) (4) ln P i = + ln SQFT i + u i (log model) (5) P i = + SQFT i + u i (square root) etc. (1) (2) (3) (4) (5) Derivaatta dp dsqft = dp dsqft = 1 dp SQFT dsqft = P dp dsqft = P SQFT dp dsqft = 1 2 1 SQFT Jousto E = SQFT P E = 1 P E = SQFT E = E = 1 2 SQFT P 68 69 Esim. Linaarinen malli (1) Esim. Lin-log malli (2) House Prices (Linear model) Housing (lin-log model) SUMMARY OUTPUT 3 Housing prices vs Area Regression Statistics 25 Multiple R.75318 R Square.562977 2 Adj R Sqr.526558 15 s 37.48421 Area No of Obs 14 1 1 12 14 16 18 2 22 24 26 ANOVA df SS MS F P-value 2172.22 2172.22 15.46.2 Regression 1 Residual 12 1686.79 145.7 Total 13 38581.1 Price Coefficientstandard Err t Stat P-value 22.61 46.838.483.638 Intercept X Variable.94.24 3.932.2 SUMMARY OUTPUT 3 ln(sqft) Line Fit Plot 25 Regression Statistics Multiple R.76249 2 R Square.58719 15 Adjusted R.545779 1 Standard E 36.71544 5 ln(sqft) Observatio 14 7. 7.2 7.4 7.6 7.8 8. ANOVA df SS MS F ignificance F Regression 1 2244.73 2244.73 16.6243.1535 Residual 12 16176.28 1348.23 Total 13 38581.1 Coefficientstandard Err t Stat P-value -169.58 312.1796-3.42616.521 Intercept ln(sqft) 168.895 41.42815 4.76816.1535 Price RESIDUAL OUTPUT RESIDUAL OUTPUT PROBABILITY OUTPUT Obs Pred Price SQF Residuals Elasticity 137.2 1219-8.52.835 1 2 136.17 121 3.33.834 3 154.1 14-14.51.853 4 169.2 156-16.52.866 5 195.87 1846-42.87.885 6 247.87 24-62.87.99 7 195.87 1846 13.13.885 8 195.87 1846 15.13.885 9 238.48 23-24.48.95 1 231.91 223-5.91.93 11 238.48 23 11.52.95 12 227.22 218 31.78.91 13 259.79 2527 1.11.913 14 27.32 1968 9.68.891 Elasticity.92.91.9.89.88.87.86.85.84.83 1 15 2 25 3 Obs Pred price Resid Elasticity Percentile Price 13.55-2.5 1.29 3.57 128.5 1 2 129.3 1.2 1.31 1.71 139.5 3 153.94-14.44 1.1 17.86 139.5 4 172.21-19.71.98 25. 152.5 5 2.64-47.64.84 32.14 153. 6 244.97-59.97.69 39.29 185. 7 2.64 8.36.84 46.43 29. 8 2.64 1.36.84 53.57 211. 9 237.78-23.78.71 6.71 214. 1 232.56-6.56.73 67.86 226. 11 237.78 12.22.71 75. 25. 12 228.73 3.27.74 82.14 259. 13 253.68 16.22.67 89.29 269.9 14 211.45 86.55.8 96.43 298. 1 Residual plot Normal Probability Plot ln(sqft) Residual Plot Residuals 5 1 12 14 16 18 2 22 24 26 Area -5 Price 3 28 26 24 22 2 18 16 14 12 1 2 4 6 8 1 Sample Percentile Residuals 1 8 6 4 2-27. 7.2 7.4 7.6 7.8 8. -4-6 ln(sqft) 7 71

Esim. Log-log malli (4) 2.12 Regressioanalyysin tulosten esittäaminen House prices (Log-log model) SUMMARY OUTPUT 3 Line Fit Plot Regression Statistics Orig Data 25 Multiple R.89537.751795 R Square.655351.565196 2 Adjusted R.62663.528962 Standard E.168577 37.49553 15 Observatio 14 14 1 1 15 2 25 3 ANOVA df SS MS F P-value.64845.64845 22.8181.451 Regression 1 Residual 12.3412.28418 Total 13.98947 Coefficients Std Error t Stat P-value -1.56751 1.433359-1.9359.29562 Intercept ln(sqft).98626.19216 4.77682.451 Elasticity =.98626 RESIDUAL OUTPUT PROBABILITY OUTPUT Percentile ln(price) Observationdicted ln(pr Residuals Pred Price Price Resid 1 4.89 -.3 132.82 3.57 4.86 128.5-4.3 2 4.88.6 131.93 1.71 4.94 139.5 7.6 3 5.1 -.8 15.62 17.86 4.94 139.5-11.1 4 5.11 -.9 166.19 25. 5.3 152.5-13.7 5 5.27 -.24 193.65 32.14 5.3 153. -4.7 6 5.5 -.28 245.8 39.29 5.22 185. -6.8 7 5.27.8 193.65 46.43 5.34 29. 15.3 8 5.27.9 193.65 53.57 5.35 211. 17.3 9 5.47 -.1 236.48 6.71 5.37 214. -22.5 1 5.44 -.2 229.93 67.86 5.42 226. -3.9 11 5.47.6 236.48 75. 5.52 25. 13.5 12 5.42.14 225.24 82.14 5.56 259. 33.8 13 5.55.5 257.59 89.29 5.6 269.9 12.3 14 5.32.37 25.25 96.43 5.7 298. 92.8 Residuals ln(sqft) Residual Plot.4 5.7 5.6.3 5.5.2 5.4 5.3.1 5.2. 5.1 7. 7.2 7.4 7.6 7.8 8. -.1 5. 4.9 -.2 4.8 -.3 ln(sqft) Price ln(price) SQFT Normal Probability Plot 2 4 6 8 1 Sample Percentile Analyysin tulokset esitetäaäan vaihtelevilla tavoilla. Yksi yleinen tapa on esittäaäa estimoitu regressioyhtäaläo ja laittaa t-tunnusluvut tai keskivirheet (tai p-arvot) kertoimien alle sulkuihin. Esim. ^P = 22.61 +.9386 SQFT (.483) (3.93) R 2 =.563, df = 12, F =15.459, s =37.484, missäa t-arvo suluissa. Toinen, usein jopa käayttäokelpoisempi tapa, on esittäaäa tulokset taulukkossa. NÄain erityisesti, jos tarkastellaan useampia mallivaihtoehtoja tai mallissa on useita selittäaviäa muuttujia. 72 73 Esim. Taulukko. Assunon hinta (1 $) ja pinta-ala (neliäojalkaa) SelittÄavÄa Kerroin muuttuja estimaatti std err t-arvo p-arvo Vakio 22.61 46.83.483.638 Pinta-ala.937.24 3.932.2 Regressiotunnuslukuja R 2.563 s 37.48 F 15.46 df 12 n 14 2.13 Eri mallivaihtoehtojen selitysasteiden R 2 vertailu Usein joudutaan punnitsemaan eri funktiomuotoja keskenäaäan valittaessa lopullista mallia. Ei kuitenkaan ole oikein verrata selitysasteita kekenäaäan, jos riippuvat muuttujat ovat eri muuttujia (esim toisessa mallissa ln Y ja toisessa Y ). Jos ne ovat samoja, niin vertailu voidaan tehdäa. Heuristinen tapa: muunnetaan ensin samoiksi ja lasketaan korrelaatiot Y :n ja ^Y :n väalilläa ja verrataan näaiden neliäoitäa kekenäaäan. 74 75

Toinen mahdollisuus on verrata virhevariansseja s 2 u = 1 (Yi ^Y i ) 2 n 2 keskenäaäan. Huom. TÄassÄakin on ensin tehtäaväa muunnos alkuperäaiseen malliin takaisin. Kolmas tapa valita malli eri funktiomuotojen väalilläa on tilastollinen testaus. YleispÄatevÄaÄa tilastollista testiäa ei ole, mutta joissakin erikoistapauksissa testaus käay päainsäa. Usein lineaarisen preusmallin Y i = + 1 X i + i vaihtoehtona on logariminen malli (log-lineaarinen malli) y i = + i x i + i, jossa y i =logy i ja x i =logx i. MerkitÄaÄan ja ja olkoon n SSE L = (Y i ^Y i ) 2 i=1 n SSE LL = (y i ^y i ) 2, i=1 ¹Y g =(Y 1 Y 2 Y n ) 1/n Y : n geometrinen keskiarvo, silloin voidaan osoittaa, ettäa n 2 log SSE L/¹Y 2 g SSE LL on asymptoottisesti 2 jakautunut vapausasteella 1, jos molemmat mallit sopivat yhtäa hyvin havaintoaineistoon. 76 77 Esim. Asuntojen hintojen geometrinen keskiarvo ¹Y g = $195.6. Lineaarisen mallin SSE L = 1686.8 ja logmallin SSE LL =.3412, joten Esim. Tarkastellaan auton nopeuden ja jarrutusmatkan väalistäa yhteyttäa. n SSEL/¹Y 2 2 log g = 14 SSE LL 2 log 1686.8/195.6 2 =1.796.3412 2 -arvoa vastaava p-arvo yhdelläa vapausasteella on p =.18, joten molemmat mallit ovat empiirisesti yhtäa hyviäa. ObservationDistance Speed 1 2 4 2 1 4 3 4 7 4 22 7 5 16 8 6 1 9 7 18 1 8 26 1 9 34 1 1 17 11 11 28 11 12 14 12 13 2 12 14 24 12 15 28 12 16 26 13 17 34 13 18 34 13 19 46 13 2 26 14 21 36 14 22 6 14 23 8 14 24 2 15 25 26 15 26 54 15 27 32 16 28 4 16 29 32 17 3 4 17 31 5 17 32 42 18 33 56 18 34 76 18 35 84 18 36 36 19 37 46 19 38 68 19 39 32 2 4 48 2 41 52 2 42 56 2 43 64 2 44 66 22 45 54 23 46 7 24 47 92 24 48 93 24 49 12 24 5 85 25 Distance Speed vs Distance 12 1 8 6 4 2 5 1 15 2 25 Speed 78 79

Aineistoon voidaan sovittaa useita erilaisia mallivaihtoehtoja, jota ovat tilastollisilta ominaisuuksiltaan likipitäain ekvivalentteja. Kuitenkin täassäa voidaankäaytäaäa hyväaksi myäos teoreettista tietäamystäa: Fysiikan lakien mukaan teoreettinen etäaisyys jarrutushetkestäa on verrannollinen nopeuden neliäoäon. TÄaten teoreettinen jarrutusmatka on 1 S 2. TÄamÄan lisäaksi matkaan vaikuttaa kuljettajan reaktionopeus ennen kuin häan merkin tultua tajuaa painaa jarrua. TÄanÄa aikana auto ehtii kulkea matkan S, jossa on keskimäaäaräainen reaktioaika. Kunkin yksiläon reaktioaika voidaan ajatella olevan +, jossa kuvaa yksiläon poikkeamaa keskiarvosta ja Var (e) = 2 (sama kaikilla yksiläoilläa). TÄaten sopiva malli on D = S + 1 S 2 + u Huom. Residuaalitermi on muotoa u = S, jossa on reaktioajan residuaali Reaktioaika vaihtelee henkiläostäa toiseen jonkin verran satunnaisesti, odotusarvona ja varianssina 2. TÄaten regressiotermiin se aiheuttaa heteroskedastisuutta. Toisin sanoen edelläa olevan regressiomallin jäaäannäosvarianssi on muotoa S 2 2. 8 81 Estimoidut mallit. Kuvio: Lineaarinen malli. Estimates of both models Original data Regression Statistics Multiple R.81 R Square.65 Adjusted R Square.64 Standard Error 15.38 Observations 5 12 1 Linear model D = + S + e ANOVA df SS MS F Significance F 21185.46 21185.46 89.57. Regression 1 Residual 48 11353.52 236.53 Total 49 32538.98 Coefficients Standard Error Stat P-value t -17.58 6.76.1 Intercept -2.6 Speed 3.93.42 9.46. Distance 8 6 4 2 Transformed data 5 1 15 2 25 Regression Statistics Regression Statistics Multiple R.44.82 R Square.19.67 Adjusted R Square.18.66 Standard Error.97 15.2 Observations 5 5-2 Speed Speed Residual Plot ANOVA (Transformed data) df SS MS F Significance F Regression 11.58. 1 1.86 1.86 Residual 48 45.3.94 Total 49 55.89 Coefficients Standard Error P-value t Stat 1.26.43. Intercept 2.96 Speed.9.3 3.4. Coeffisicents for the untransformed model Coefficients Standard Error t Stat P-value Speed 1.26.43. 2.96 Speed Squared.9.3 3.4. Residuals 5 4 3 2 1 5 1 15 2 25-1 -2-3 Speed 82 83

Kuvio: EpÄalineaarinen malli Speed vs Distance 12 1 8 6 4 2 5 1 15 2 25 Residuals Residuas of D = S + 1 S 2 + u 5 4 3 2 1-1 1 21 41 61 81 11-2 -3 Predicted distance 84