5 Hypoteesien testaaminen

Samankaltaiset tiedostot
5.7 Uskottavuusfunktioon perustuvia testejä II

5 Hypoteesien testaaminen

Väliestimointi (jatkoa) Heliövaara 1

6.1.2 Luottamusjoukon määritelmä

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

3.6 Su-estimaattorien asymptotiikka

ABHELSINKI UNIVERSITY OF TECHNOLOGY

1. Tilastollinen malli??

2. Uskottavuus ja informaatio

3 Yleistä estimointiteoriaa. Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:

Sovellettu todennäköisyyslaskenta B

Mat Tilastollisen analyysin perusteet, kevät 2007

Harjoitus 7: NCSS - Tilastollinen analyysi

2. Uskottavuus ja informaatio

Yksisuuntainen varianssianalyysi (jatkoa) Heliövaara 1

3 Yleistä estimointiteoriaa. Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin

Odotusarvoparien vertailu. Vilkkumaa / Kuusinen 1

Yksisuuntainen varianssianalyysi (jatkoa) Kuusinen/Heliövaara 1

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1

Tilastollisen analyysin perusteet Luento 2: Tilastolliset testit

HY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät Ratkaisuehdotuksia

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2005) 1

HY, MTO / Matemaattisten tieteiden kandiohjelma Tilastollinen päättely II, kevät 2018 Harjoitus 8B Ratkaisuehdotuksia.

Tilastollisen analyysin perusteet Luento 10: Johdatus varianssianalyysiin

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Sovellettu todennäköisyyslaskenta B

Testejä suhdeasteikollisille muuttujille

Tilastolliset menetelmät. Osa 3: Tilastolliset testit. Tilastollinen testaus KE (2014) 1

Jos nollahypoteesi pitää paikkansa on F-testisuuren jakautunut Fisherin F-jakauman mukaan

Tilastollinen päättömyys, kevät 2017 Harjoitus 6A

Sovellettu todennäköisyyslaskenta B

Johdatus tilastotieteeseen Tilastolliset testit. TKK (c) Ilkka Mellin (2005) 1

Sovellettu todennäköisyyslaskenta B

Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden

Tilastolliset testit. Tilastolliset testit. Tilastolliset testit: Mitä opimme? 2/5. Tilastolliset testit: Mitä opimme? 1/5

VALTIOTIETEELLINEN TIEDEKUNTA TILASTOTIETEEN VALINTAKOE Ratkaisut ja arvostelu < X 170

Tilastollisia peruskäsitteitä ja Monte Carlo

Tilastollinen aineisto Luottamusväli

Kertausluento. Tilastollinen päättely II - 2. kurssikoe

Johdatus varianssianalyysiin. Vilkkumaa / Kuusinen 1

Mat Sovellettu todennäköisyyslasku A

Sovellettu todennäköisyyslaskenta B

Pelaisitko seuraavaa peliä?

031021P Tilastomatematiikka (5 op) viikko 5

Tilastollinen päättely II, kevät 2017 Harjoitus 2A

Estimointi. Vilkkumaa / Kuusinen 1

Sovellettu todennäköisyyslaskenta B

Tilastollinen päättömyys, kevät 2017 Harjoitus 5b

Yleistä tietoa kokeesta

Gripenberg. MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

11. laskuharjoituskierros, vko 15, ratkaisut

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

edellyttää valintaa takaisinpanolla Aritmeettinen keskiarvo Jos, ½ Ò muodostavat satunnaisotoksen :n jakaumasta niin Otosvarianssi Ë ¾

10. laskuharjoituskierros, vko 14, ratkaisut

Johdatus tilastotieteeseen Testit laatueroasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

1. (Jatkoa Harjoitus 5A tehtävään 4). Monisteen esimerkin mukaan momenttimenetelmän. n ne(y i Y (n) ) = 2E(Y 1 Y (n) ).

Testit laatueroasteikollisille muuttujille

MTTTA1 Tilastomenetelmien perusteet 5 op Luento Kokonaisuudet johon opintojakso kuuluu

Ilkka Mellin Tilastolliset menetelmät. Osa 3: Tilastolliset testit. Tilastollinen testaus. TKK (c) Ilkka Mellin (2007) 1

Tilastollinen päättely II, kevät 2017 Harjoitus 1A

χ = Mat Sovellettu todennäköisyyslasku 11. harjoitukset/ratkaisut

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä

Todennäköisyyden ominaisuuksia

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

9. laskuharjoituskierros, vko 12-13, ratkaisut

MTTTA1 Tilastomenetelmien perusteet 5 op Luento , osa 1. 1 Kokonaisuudet johon opintojakso kuuluu

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi. Viikko 5

Kaksisuuntainen varianssianalyysi. Vilkkumaa / Kuusinen 1

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Tutkimusongelmia ja tilastollisia hypoteeseja: Perunalastupussien keskimääräinen paino? Nollahypoteesi Vaihtoehtoinen hypoteesi (yksisuuntainen)

Kaksisuuntainen varianssianalyysi. Heliövaara 1

Sisällysluettelo ESIPUHE... 4 ALKUSANAT E-KIRJA VERSIOON... 5 SISÄLLYSLUETTELO JOHDANTO TILASTOLLISEEN PÄÄTTELYYN TODENNÄKÖISYYS...

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Osa 2: Otokset, otosjakaumat ja estimointi

¼ ¼ joten tulokset ovat muuttuneet ja nimenomaan huontontuneet eivätkä tulleet paremmiksi.

Maximum likelihood-estimointi Alkeet

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

r = n = 121 Tilastollista testausta varten määritetään aluksi hypoteesit.

Sovellettu todennäköisyyslaskenta B

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

Ilkka Mellin Aikasarja-analyysi Suurimman uskottavuuden menetelmä

Sisällysluettelo ESIPUHE KIRJAN 1. PAINOKSEEN...3 ESIPUHE KIRJAN 2. PAINOKSEEN...3 SISÄLLYSLUETTELO...4

MTTTP5, luento Otossuureita ja niiden jakaumia (jatkuu)

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt

1. Nollahypoteesi on, että teksti on kirjoitettu lyhyemmällä murteella. Mahdollisiavaihtoehtojaonvainyksieliettäteksti

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Estimointi populaation tuntemattoman parametrin arviointia otossuureen avulla Otossuure satunnaisotoksen avulla määritelty funktio

806109P TILASTOTIETEEN PERUSMENETELMÄT I Hanna Heikkinen Esimerkkejä estimoinnista ja merkitsevyystestauksesta, syksy (1 α) = 99 1 α = 0.

Mat Tilastollisen analyysin perusteet, kevät 2007

2. Keskiarvojen vartailua

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

Tilastollinen testaaminen tai Tilastollinen päättely. Geneettinen analyysi

Transkriptio:

5 Hypoteesien testaaminen Seuraavaksi tutustumme tilastollisiin testeihin ja niihin liittyviin peruskäsitteisiin Esittelemme aluksi hypoteesit sekä testisuureet ja puhumme p-arvosta (eli havaitusta merkitsevyystasosta) Ensi viikolla turvaudumme testaamisessa myös voiman käyttöön

5.1 Johdanto Tilastolliset testien avulla otetaan kantaa tutkittavaa ilmiötä koskeviin väitteisiin eli hypoteeseihin Esimerkkinä sopivasta kysymyksestä: onko lantti harhaton?

5.1.1 Esimerkki Tehdas on valmistanut suuren määrän hehkulamppuja, ja valmistaja väittää että korkeintaan 1% on rikki. Poimitaan sadan (100) lampun otos ja havaitaan että kolme (3) on rikki. Mitä voimme sanoa valmistajan väitteestä? Kumpi olisi parempi selitys havainnolle H 0 : Valmistaja puhuu totta (sattui vain peikkomaisesti) H 1 : Valmistaja puhuu vaihtoehtoista totuutta.

5.2.4 Esimerkki: lantin harhattomuus Halutaan tutkia, onko lantti harhaton. Tehdään tuhat heittoa, ja saadaan 560 kruunua. Voidaanko sanoa, että lantti on harhaton?

5.1.2 Testin vaiheet yleisesti Jotta kysymystä voitaisiin tarkastella tilastollisesti, formuloidaan koeasetelmaa kuvaava malli (ja oletamme että jokin parametrinen malli f Y (y; θ), θ Ω R d käy :) Testin vaiheet ovat yleisesti: 1. Asetetaan nollahypoteesi H 0 ja mahdollisesti vastahypoteesi H 1. 2.-4....

5.2.1 Hypoteesit ja kysymyksenasettelu Hypoteesilla tarkoitetaan väitettä, joka koskee mallin parametria ja voidaan kirjoittaa muotoon θ Ω, jossa Ω on jokin Ω:n epätyhjä osajoukko Hypoteesi on yksinkertainen, jos Ω on yksiö ja yhdistetty muuten.

5.2.1 Nollahypoteesi ja vastahypoteesi Nollahypoteesi H 0 on väite H 0 : θ Ω 0 jonka paikkaansapitävyyden arviointi on testin tavoitteena Joskus halutaan päättää, että pitäisikö H 0 hyväksyä vai hylätä nollahypoteesi kuvaa neutraalia tai oletusarvoista tilannetta, joten erityisesti sen hylkäämistä väärin perustein tulee välttää

5.2.1 Nollahypoteesi ja vastahypoteesi Vaihtoehtoinen hypoteesi eli vastahypoteesi H 1 on väite H 1 : θ Ω 1 jonka paikkaansapitävyyden arviointi on testin tavoitteena Aina Ω 0 Ω 1 = ja usein (muttei aina) Ω = Ω 0 Ω 1. Jos vastahypoteesi asetetaan, arvioidaan pitäisikö H 1 hyväksyä nollahypoteesin H 0 sijaan, eli jos H 0 päätetään hylätä ollaan hyväksymässä H 1

5.1.1 Esimerkki: jatkuu Lamppukoetta voimme mukavasti mallintaa mallilla K Bin(100, θ), missä θ Ω = (0, 1) on rikkinäisten lamppujen suhde kaikkiin valmistettuihin. Nyt väitteet H 0 : Valmistaja puhuu totta (sattui vain peikkomaisesti) H 1 : Valmistaja puhuu vaihtoehtoista totuutta. voidaan muotoilla H 0 : θ Ω 0 = (0, 0.01] ja H 1 : θ Ω 1 = (0.01, 1) tai mukavammin H 0 : θ 0.01 ja H 1 : θ > 0.01 Kumpikin väitteistä on yhdistetty väite.

5.2.4 Esimerkki: jatkuu Lanttikoetta voimme mukavasti mallintaa mallilla K = kruunujen lkm Bin(1000, θ), missä θ Ω = (0, 1) Nyt nollahypoteesi H 0 : θ = 1 2 Tämä on yksinkertainen väite

Esimerkki 5.1.1. ja 5.2.4.: hypoteesijoukot kuvina

5.1.2 Testin vaiheet yleisesti Jotta kysymystä voitaisiin tarkastella tilastollisesti, formuloidaan koeasetelmaa kuvaava malli (ja oletamme että jokin parametrinen malli f Y (y; θ), θ Ω R d käy :) Testin vaiheet ovat yleisesti: 1. Asetetaan nollahypoteesi H 0 ja mahdollisesti vastahypoteesi H 1. 2. Valitaan käyttävä testisuure 3.-4....

5.2.2 Testisuure Testisuureella tarkoitetaan aineistosta laskettavaa reaaliarvoista tunnuslukua t = t(y), jolla on monotonisuusominaisuus Tyypillisesti t:n pienet arvot ovat sopusoinnussa H 0 :n kanssa ja suuret arvot ovat sitä vastaan (tukevat H 1 :tä jos se on asetettu) Kaksisuuntaisissa testausasetelmissa testisuuressa mitataan poikkeamaa vertailuarvosta t 0, ja voidaan ymmärtää t t 0 :na Testisuureen valinta on testauksen suurin haaste (siihen vaikuttaa tilastollinen malli, H 0, H 1 ) Myöhemmin käsittelemme yleisiä periaatteita valinnalle, sekä tavallisten mallien tyypillisiä testisuureita.

5.1.1 Esimerkki: jatkuu Lamppukoetta voimme mukavasti mallintaa mallilla K = k(y) Bin(100, θ), missä θ Ω = (0, 1) on rikkinäisten lamppujen suhde kaikkiin valmistettuihin. Nyt valmistajan väitettä H 0 tukee havainnot, joissa on vähän rikkinäisiä lamppuja ja väitettä vastaan ovat suuret K:n arvot. Nämä puolestaan tukevat vastaväitettä H 1 Valitsemme tässä testisuureeksi k = k(y):n eli rikkinäisten lamppujen lukumäärän.

5.2.4 Esimerkki: jatkuu Lanttikoetta voimme mukavasti mallintaa mallilla K = kruunujen lkm Bin(1000, θ), missä θ Ω = (0, 1) Kun nollahypoteesi H 0 : θ = 1 2, niin odotamme, että saadaan 500 kruunua (t 0 = 500 vertailuarvo) Päädymme valitsemaan kaksisuuntaisen testausasetelman ja testisuureeksi poikkeaman t(y) = k 500 Tällöin pienet arvot (eli havainnot lähellä odotettua 500:aa) ovat sopusoinnussa H 0 :n kanssa ja suuret arvot (joko selvästi yli tai selvästi alle 500:n) ovat sitä vastaan.

5.1.2 Testin vaiheet yleisesti Jotta kysymystä voitaisiin tarkastella tilastollisesti, formuloidaan koeasetelmaa kuvaava malli (ja oletamme että jokin parametrinen malli f Y (y; θ), θ Ω R d käy :) Testin vaiheet ovat yleisesti: 1. Asetetaan nollahypoteesi H 0 ja mahdollisesti vastahypoteesi H 1. 2. Valitaan käyttävä testisuure 3. Lasketaan havaittua aineistoa vastaava testisuureen arvo sekä havaittu merkitsevyystaso eli p-arvo 4. Tehdään johtopäätökset

5.2.3 Havaittu merkitsevyystaso Oletus: käytämme testisuuretta t, jonka suuret arvot ovat H 0 :lle kriittisiä Olkoon T = t(y) sitä vastaava sm ja y havaittu aineisto. Määritelmä Testin p-arvo eli havaittu merkitsevyystaso p on todennäköisyys p = p(y) = P θ (T t(y)), θ Ω 0 jos H 0 on yksinkertainen tai jos tämä todennäköisyys on sama kaikilla θ Ω 0 ja muutoin p = p(y) = sup θ Ω 0 P θ (T t(y)).

5.3 Havaitun merkitsevyystason tulkinnasta p-arvo on siis yläraja H 0 :n pätiessä sille tn:lle, että satunnaismuuttuja T saa arvon, joka on yhtä suuri tai suurempi kuin nyt havaittu arvo t(y). hyvin pieni p-arvo todistaa H 0 :aa vastaan (ja voi jopa johtaa hylkäykseen), ei ihan pieni p-arvo taas on sopusoinnussa H 0 :n kanssa Huom. p-arvon laskeminen edellyttää sitä, että testisuuretta vastaavan satunnaismuuttujan T jakauma hallitaan ainakin kaikilla nollahypoteesiarvoilla θ Ω 0

5.3 Havaitun merkitsevyystason tulkinnasta Huom. p-arvon laskeminen edellyttää sitä, että testisuuretta vastaavan satunnaismuuttujan T jakauma hallitaan ainakin kaikilla nollahypoteesiarvoilla θ Ω 0 on siis eduksi, että testisuureen jakauma on hyvin tunnettu Käytännössä p-arvon laskennassa joudutaan usein turvautumaan approksimattivisiin jakaumatuloksiin ja niistä saataviin likiarvoihin

5.3 havaittu merkitsevyystaso kuvana

5.1.1 Esimerkki: jatkuu Lamppukokessa: mallina K Bin(100, θ), missä θ Ω = (0, 1) on rikkinäisten lamppujen suhde kaikkiin valmistettuihin. Testisuureena: k eli rikkinäisten lamppujen lukumäärän. Havaittu testisuureen arvo on siis k = 3, joten kun θ H 0 eli kun θ < 0.01 on P θ (K 3) P 0.01 (K 3) = 1 P 0.01 (K 2) 0.08

5.1.1 Esimerkki: jatkuu Siispä: tässä havaittu merkitsevyystaso eli p-arvo on p 0.08 = 8/100. Tämä on pieni, muttei hurjan pieni, joten H 0 :aa ei kannata hylätä Jos taas rikkinäisiä olisi ollut k = 5, olisi p-arvo tällöin p 0.003 = 3/1000 ja nyt H 0 voitaisiin jo hylätä ja siten hyväksyä vastahypoteesi H 1

5.1.1 p-arvot kuvina

5.1.1 p-arvot kuvina

5.1.1 p-arvot kuvina

5.2.4 Esimerkki: jatkuu Lanttikokeessa: mallina K Bin(1000, θ), missä θ Ω = (0, 1) Testisuureena: t(y) = k 500 eli kuinka paljon kruunujen lkm eroaa (nollahypoteesin vallitessa) odotetusta 500:sta Havaittiin: k = 560, joten p-arvo on P H0 (t(y) t(y)) = P 1 ( K 500 560 500 ) 2 = 1 P 1 (440 < K < 560) 2 Tämän numeerinen laskeminen ja siitä tehtävien johtopäätösten tekemin on (HT).

5.2.4 p-arvot kuvina

5.3.1 P-arvo on tunnusluku p-arvo on aineistosta laskettu tunnusluku p = p(y) se mittaa aineiston ja nollahypoteesin yhteensopivuutta usein sovelluksissa ilmoitetaan p-arvo likimääräisesti ja tulkitaan sitä sanallisesti

5.3.2 Päätösteoreettinen lähestymistapa Joissakin sovelluksissa on tarpeen tehdä havaitun aineiston perusteella selkeä päätös: joko H 0 hyväksytään tai se hylätään ja mahdollinen vastahypoteesi H 1 hyväksytään. Voimme toimia seuraavasti: Kiinnitetään jo ennalta jokin luku α (0, 1), jota kutsutaan merkitsevyystasoksi. Lasketaan aineistosta p-arvo p = p(y) ja verrataan sitä valittuun merkitsevyystasoon: jos p > α, niin H 0 hyväksytään, ja jos taas p α, niin H 0 hylätään ja mahdollinen H 1 hyväksytään.

5.3.2 Tavallisia merkitsevyystasoja Tämä tapa määrää kullakin merkitsevyystasolla α (0, 1) päätössäännön { H 0 hylätään (H 1 hyväksytään), kun p α y H 0 hyväksytään (H 1 hylätään), kun p > α Tavallisesti käytetään seuraavia merkitsevyystasoja: 0.05 melkein merkitsevä α = 0.01 merkitsevä 0.001 erittäin merkitsevä Higgsin bosonin kohdalla merkitsevyystasona α käytettiin lukua α = 0.0000003 (yksisuuntaiselle testille)

5.3.2 Päätökset ja niiden seuraukset Hypoteesin testauksen päätöspeli voidaan esittää taulukkona Hyväksytään H 0 Hylätään H 0 H 0 totta Päätös ok :) Hylkäämisvirhe!! H 0 ei totta Hyväksymisvirhe Päätös ok :) Hylkäämisvirhettä nimitään usein I lajin ja hyväksymisvirhettä II lajin virheeksi, koska hylkäämisvirhettä pidetään vakavampana

5.3.2 Päätökset ja niiden seuraukset Analogia päätöspelille ja virhelajeille on: H 0 : henkilö N on syytön H 1 : henkilö N on syyllinen N vapautetaan N tuomitaan H 0 syytön vapautetaan syytön tuomitaan!! H 1 syyllinen vapautetaan syyllinen tuomitaan

5.3.2 Merkitsevyystaso ja hylkäämisvirheen tn Hylkäysvirhettä on syytä välttää, joten kuinka todennäköistä sen tekeminen on? Havaitsemme, että merkitsevyystasolla α hylkäämme H 0 :n virheellisesti todennäköisyydellä P H0 (hylätään H 0 ) = P H0 (p(y) α) α Eli: α on hylkäämisvirheen todennäköisyyden yläraja.

5.3.2 Merkitsevyystaso ja hylkäämisvirheen tn Testauksessa valitaan α (eli hylkäämisvirheen riski) etukäteen Testisuureen valintaa ohjaa siten hyväksymisvirheen hallinta ja tätä käsittelee testisuureen voima (tähän palaamme piakkoin)

5.3.3 P-arvo ei puhu H 0 :n todennäköisyydestä Huom. joskus saattaa törmätä ajatukseen, että p-arvo on nollahypoteesin todennäköisyys, ja lyhyesti: tästä ei ole kyse Frekventistisesti väitteeseen { θ Ω 0 } emme luonnolisestikaan liitä mitään tn-tulkintaa Bayesiläisittäin ajateltunakaan p-arvo ei puhu väitteen { θ Ω 0 } todennäköisyydestä vaan testisuureen häntätodennäköisyydestä, kun H 0 oletetaan.

5.3.4 Valintakorjaus Tilastollisissa tutkimuksissa tapaa toisinaan menettelyä, jossa samaa tai samantapaisia nollahypoteeseja testataan usealla eri testillä ja raportoidaan saaduista p-arvoista pienin eli tilastollisesti merkitsevin Tämä on ongelmallista sillä helposti näemme aineistossa (tai sen osassa) merkityksiä ja säännönmukaisuuksia, joita siellä on vain sattuman johdosta Tilastollisesti pätevä menettelytapa on, että ennen aineistoon tutustumista tai jopa ennen sen keruuta päätetään, millaisia hypoteeseja halutaan tutkia ja mitä testejä tähän tarkoitukseen käytetään

5.3.4 Valintakorjaus Jos kuitenkin testataan samaa nollahypoteesia useammilla testeillä voidaan tehdä valintakorjaus. sama nollahypoteesi H 0 : θ Ω 0 tehdään k eri testiä, p-arvot p 1 (y),..., p k (y) muodostetaan sm Q = min(p 1 (Y),..., p k (Y)) Ajatus: mitataan milloin tn, että tehtäisiin ainakin yksi hylkäämisvirhe olisi korkeintaan annettu α?

5.3.4 Valintakorjaus Tiedämme jo: P θ (p j (Y) p) p kun θ Ω 0 kullakin p (0, 1) ja kullakin j Jos p 1 (Y),..., p k (Y), niin P θ (Q q) 1 (1 q) k kun θ Ω 0 kullakin q (0, 1). Yleisemmin (ilman riippumattomuutta), Bonferronin ey kun θ H 0 kullakin q (0, 1) P θ (Q q) kq

5.3.4 Valintakorjaus Esimerkiksi, tehdään kolme testiä k = 3 ja saadaan p-arvot p 1 = 0.05, p 2 = 0.2 ja p 3 = 0.3. Tällöin (jälkimmäisellä ey:llä) P θ (min(p 1, P 2, P 3 ) 0.05) 3 0.05 = 0.15 joten olisimme tn:llä 0.15 tekemässä ainakin yhden hylkäämisvirheen.

5.4 Normaalimallin perustestit Palautetaan mieliin normaalimallin perustestit (johdantokursseilta) Ensin esitelllään perustestit odotusarvolle (sekä tapauksessa varianssi tunnetaan ja että sitä ei tunneta) Ja sitten palautamme mieleen perustestin varianssille

5.4.1 Odotusarvon testi, kun varianssi tunnettu Havainnot: Y 1,..., Y n N(µ, σ 2 ) (5.1) Oletetaan, että σ 2 = σ0 2 > 0 on tunnettu Tarkastellaan kaksisuuntaista testausasetelmaa: H 0 : µ = µ 0, H 1 : µ µ 0. (5.2) Testaussuure: z-testisuure z = z(y) = n(y µ0 ) σ 0

5.4.1 Odotusarvon testi, kun varianssi tunnettu Kun H 0 on voimassa: Z = z(y) N(0, 1), joten p = P µ0 ( Z z ) = 2(1 Φ( z )) Taulukosta: p 0.05 kun z 1.96 p 0.01 kun z 2.58 p 0.001 kun z 3.29

5.4.1 Kaksisuuntainen testausasetelma kuvana

5.4.1 Kaksisuuntainen testausasetelma kuvana

5.4.1 Odotusarvon testi, kun varianssi tunnettu Tarkastellaan nyt yksiisuuntaista testausasetelmaa: H 0 : µ = µ 0, H 1 : µ > µ 0. (5.2) Nyt z-testisuuretta vastaa p-arvo p = P µ0 (Z z) = 1 Φ(z)

5.4.1 Yksisuuntainen testausasetelma kuvana

5.4.2 Odotusarvon testi, kun varianssi kiusaa Havainnot: Y 1,..., Y n N(µ, σ 2 ) (5.1) Tällä kertaa myös varianssi on tuntematon. Tarkastellaan kaksisuuntaista testausasetelmaa: H 0 : µ = µ 0, H 1 : µ µ 0. (5.2) Nyt H 0 = { µ 0 } (0, ) on yhdistetty

5.4.2 Odotusarvon testi, kun varianssi kiusaa Nyt satunnaismuuttuja n(y µ0 ) Z = Z(Y) = σ ei ole tunnusluku eikä siten kelpaa testisuureeksi Käyttämällä otosvarianssia päädytään t-testisuureeseen T = t(y) = Y µ 0 S 2 /n

5.4.2 t-testisuureen jakauma (TN2 Lause 10.7) Kun (µ, σ 2 ) H 0, niin t-testisuureen jakauma noudattaa Studentin t-jakaumaa vapausasteella n 1, sillä: a) T = Z/ V /(n 1), missä Z V ja b) n(y µ0 ) Z = N(0, 1) σ c) ja 2 (n 1)S V = χ 2 n 1. σ 2 Huom. Vaikka σ esiintyykin yllä, on testisuureen T jakauma sama kaikilla (µ, σ 2 ) H 0.

5.4.2 t-testisuureen p-arvot kuvina

TN2 luku5: t-jakauma Määritelmä 5.2 (t-jakauma, TN2) Jos Z N(0, 1) ja V χ 2 ν (jollekin ν > 0) ja Z V, niin satunnaismuuttujalla T = Z V /ν on jakauma, jota kutsutaan (Studentin) t-jakaumaksi ν:llä vapausasteella tai vapausasteluvulla ν (engl. degrees of freedom, df), eli T t ν.

5.4.3 Varianssin testi Tarkastellaan nyt hypoteeseja H 0 : σ 2 = σ 2 0, H 1 : σ 2 > σ 2 0. Tässäkin H 0 on yhdistetty: H 0 = R { σ 2 0 } Testisuure voidaan rakentaa otosvarianssin varaan Valitsemme testisuureeksi (n 1)S 2, mikä noudattaa χ 2 n 1 -jakaumaa, kun H 0 on voimassa. p-arvoksi saamme siten häntätodennäköisyyksiä χ 2 n 1 -jakaumasta. σ 2 0

5.5 Testin voima ja Neymanin Pearsonin teoria Tähän mennessä olemme tutustuneet hypoteesien testaukseen ja eri tyyppisiin päätösvirheisiin Kun merkitsevyytaso on asetettu, on hylkäysvirheen todennäköisyys taputeltu. Kysymys: millä perusteilla testisuure pitäisi valita? Vai onko ihan sama mitä testisuuretta käyttää? Tähän kysymykseen antaa valoa voiman (engl. power) käsite

5.5 Testin voima ja Neymanin Pearsonin teoria Tarkastellaan tilannetta: Y 1,..., Y n Poi(λ) Tarkastellaan hypoteeseja: H 0 : λ = 1, H 1 : λ > 1. Tiedämme: EY 1 = λ ja var Y 1 = λ Voisimme ajatella: t 1 (y) = y 1 tai t 2 (y) = s 2 1 olisivat sopivia testisuureita. Kumpaa kannattaisi käyttää? Vai onko ne yhtä hyviä?

5.5.1 Kriittiset alueet ja voimafunktio Seuraavassa oletetaan aina: tilastollinen malli f Y (y; θ), ja parametriavaruus Ω. Tarkastellaan päätöstehtävää: H 0 : θ Ω 0, H 1 : θ Ω 1, (5.3) tarkoituksena on joko hyväksyä H 0 tai hylätä se ja hyväksyä H 1 sen sijaan.

5.5.1 Kriittiset alueet ja voimafunktio Valitaan merkitsevyytaso α (0, 1) ja palautetaan mieleen päätössäätömme { H 0 hylätään, kun p α y H 0 hyväksytään, kun p > α missä p-arvo p = p(y) Havaitsemme: jos sovimme että H 0 hylätään vastaa lukuarvoa 1 ja hyväksyminen vastaa lukuarvoa 0, niin päätös on y 1{ y C α } kun joukko C α = { y ; p(y) α }

5.5.1 Kriittiset alueet ja voimafunktio Määritelmä Joukko C α = { y ; p(y) α } on testisuureen t = t(y) indusoima α-tasoinen kriittinen alue. Päätössääntö H 0 :n hylkäämisestä on siten mukavasti esitetty kriittisen alueen avulla 1{ y C α }.

5.5.1 Kriittiset alueet ja voimafunktio Lasketaan päätössääntöä vastaavan sm:n 1{ Y C α } odotettu arvo, mitä kutsumme voimaksi. Määritelmä Testisuureen t = t(y) α-tasoinen voima tai voimafunktio π α (θ) = P θ (Y C α ) = P θ (H 0 hylätään), θ Ω. Huom. π α (θ) α aina, kun θ Ω 0 ja 1 π α (θ) = P θ (hyväksymisvirhe), kun θ Ω 1.

5.5.1 Kriittiset alueet ja voimafunktio Voiman avulla voimme nyt hallita myös hyväksymisvirheen: kun merkitsevyytaso α on valittu, pyritään valitsemaan testisuure t, jonka voima on mahdollisimman lähellä ykköstä, kun H 1 pätee.

5.5.2 Esimerkki: toistokoemalli Tarkastellaan toistokoemallia K Bin(7, θ) Hypoteesit: H 0 : θ 0.4, H 1 : θ > 0.4 Merkitsevyystaso: α = 0.1 ja testisuure: k. Tällöin: Kriittinen alue { 5, 6, 7 } sekä: voimafunktio π 0.1 (θ) = θ 7 (21g(θ) 2 + 7g(θ) + 1), kun g(θ) = (1 θ)/θ.

5.5.2 Esimerkki: voimafunktion kuva

5.5.2 Esimerkki: voimafunktion kuva

5.5.3 Esimerkki: normaalimallin odotusarvo Oletetaan, että Y 1,..., Y n N(µ, σ 2 0 ). Nollahypoteesina H 0 : µ = 0 ja vastahypoteesina H 1 : µ 0. Testisuureena: z = z(y) = ny/σ 0 Tällöin: kriittinen alue C α = { y ; y z α/2σ 0 n } missä Φ(z α/2 ) = 1 α/2. ja voimafunktio nµ π α (µ) = 1 Φ(z α/2 ) + Φ( z α/2 σ 0 nµ σ 0 )

5.5.3 Esimerkki: voimafunktioiden kuvaajat

5.5.3 Esimerkki: voimafunktioiden kuvaajat

5.5.4 Testien voiman vertailu Oletetaan että t ja t ovat kaksi testisuuretta ja testataan samoja hypoteeseja H 0 : θ Ω 0, H 1 : θ Ω 1, (5.3) Määritelmä Testisuure t on voimakkaampi kuin t pisteessä θ Ω 1, jos π α (θ; t) π α (θ; t ) (5.4) Testisuure t on tasaisesti voimakkaampi kuin t, jos se on voimakkaampi jokaisella θ Ω 1.

5.5.4 Testien voiman vertailu Nyt voimme etsiä voimakkaimpia testisuureita :) Määritelmä Testisuure t on voimakkain pisteessä θ Ω 1, jos testisuure t on voimakkaampi kuin mikä tahansa testisuure t pisteessä θ Ω 1. Testisuure t on tasaisesti voimakkain, jos se on voimakkain testisuure jokaisella θ Ω 1. Huom. Mikä olisi mukavampaa, kuin käyttää aina kussakin testausasetelmassa sitä vastaavaa tasaisesti voimakkainta testisuuretta :) Valitettavasti aina tälläista ei löydy (paitsi tietty yksinkertaisimmissa testausasetelmissa).

5.5.Neymanin Pearsonin apulause Lause Tarkastellaan tilastollista mallia f Y (y; θ) ja yksinkertaisia hypoteeseja H 0 : θ = θ 0 ja H 1 : θ = θ 1. Merkitään v(y) = L(θ 1; y) L(θ 0 ; y) = f Y(y; θ 1 ) f Y (y; θ 0 ) Tämä on voimakkain testisuure kaikilla α, joilla jollakin v α. Todistus. Ehkä liitutaululla. P θ0 (v(y) v α ) = P θ0 (Y C α) = α.

5.5.4 Neymanin Pearsonin apulause Testisuuretta v(y) kutsutaan uskottavuusosamäärän testisuureeksi. Joukko C α = { y ; v(y) v α } on Neymanin Pearsonin α-tasoinen kriittinen alue, eli testissä v nollahypoteesi hylätään, jos { y C α }. Ekvivalentti testi eli samat p-arvot ja kriittiset alueet saadaan mistä tahansa sen aidosti kasvavasta muunnoksesta. Myöhemmin käytetään siitä varsinkin muunnosta 2 log v(y) = 2 ( l(θ 1 ; y) l(θ 0 ; y) ). Käytännössä Neymanin Pearsonin apulauseen oletukset ovat harvoin voimassa.

5.5.5 Esimerkki: uskottavuusosamäärän testi normaalimallin odotusarvolle Seuraavassa esimerkissä sillä löydetään tasaisesti voimakkain testisuure (vaikka oletukset eivät toteudukaan) Tarkastellaan taas normaalimallia Y 1,..., Y n N(µ, σ 2 0 ) sen eräs uskottavuusfunktio (laskimme jo esimerkissä 2.1.4 tämän) on L(µ) = exp ( n(y µ)2 ) 2σ0 2 Kun H 0 : µ = µ 0 ja H 1 : µ = µ 1 ja µ 1 > µ 0, niin Neymanin Pearsonin uskottavuusosamäärän saadaan muotoon L(θ 1 ; y) L(θ 0 ; y) = exp ( n 2σ 2 0 ((y µ 1 ) 2 (y µ 0 ) 2) = exp ( n 2σ0 2 (2y(µ 1 µ 0 ) (µ 2 1 µ 2 0) )

5.5.5 Esimerkki: uskottavuusosamäärän testi normaalimallin odotusarvolle Kun µ 1 > µ 0 on kuvaus v(y) = exp ( n 2σ0 2 (2y(µ 1 µ 0 ) (µ 2 1 µ 2 0) ) = w(y) ja w on aidosti kasvava. Havaitsemme: P µ0 (v(y) v(y)) = P µ0 (w(y ) w(y)) = P µ0 (z(y) z(y)) kun z(y) = n(y µ 0 )/σ 0 on z-testisuure. Siispä testisuurella v ja z on samat p-arvot

5.5.5 Esimerkki: uskottavuusosamäärän testi normaalimallin odotusarvolle Koska lisäksi α = P µ0 (Y C α ) = P µ0 (Z c ) niin luvusta 5.4.1. tiedämme, että c on luku, jolla α = 1 Φ(c ). Olemme päätelleet: z-testisuureella ja Neymanin Pearsonin uskottavuusosamääräntestisuureella on sama kriittinen alue ja niillä on samat p-arvot, joten ne ovat ekvivalentit

5.5.6 Monotoninen uskottavuusosamäärä Tarkastellaan yleisesti mallia f Y (y; θ), jonka parametri on yksiulotteinen. Määritelmä Sanotaan, että mallilla on monotoninen uskottavuusosamäärä, jos löytyy sellainen tunnusluku t = t(y), että v(y) = L(θ 1; y) L(θ 0 ; y) = f Y(y; θ 1 ) f Y (y; θ 0 ) = w(t(y)) ja lisäksi w on aidosti kasvava aina kun θ 1 > θ 0. Huom. tällöin t(y) on tasaisesti voimakkain testisuure, kun H 0 : θ = θ 0 ja H 1 : θ > θ 0 (vast. H 1 : θ < θ 0 )

5.5.7 Esimerkki: eksponenttimalli Oletetaan: Y 1,..., Y n Exp(λ) ja 0 < λ < λ. Tällöin: v(y) = f Y (y; λ ) f Y (y; λ) = (λ ) n exp( λ yi ) λ n exp( λ y i ) = ( λ λ )n exp( (λ λ) y i ) = w( y i )

5.5.7 Esimerkki: eksponenttimalli Päättelemme: mallilla on monotoninen uskottavuusosamäärä Testisuure t(y) = y i on tasaisesti voimakkain testisuure testille H 0 : λ = λ 0, H 1 : λ > λ 0. (pienet arvot ovat kriittisiä).

5.6 Uskottavuusfunktioon perustuvia testejä I Realistisissa testausasetelmissa ainakin vastahypoteesi on yhdistetty eikä yleensä ole mahdollista löytää tasaisesti voimakkainta testiä Monotonine uskottavuusosamäärä on poikkeus. Kysymykseen onko mitenkään mahdollista läytää sopivia testisuureita? esittelemme kolme uskottavuusfunktioon perustuvaa testiä

5.6.2 Uskottavuusosamäärän testisuure Tämä perustuu Neymanin Pearsonin testisuureeseen Korvataan θ 1 (koska H 1 yhdistetty) suurimman uskottavuuden estimaatilla Määritelmä Testisuuretta r(y) = 2 ( l( θ(y); y) l(θ 0 ; y) ) kutsutaan uskottavuusosamäärän testisuureeksi. Tämä on aina positiivinen ja suuret arvot ovat kriittisiä H 0 :lle. Intuitiivisesti ajattelemme, että jos uskottavuus θ 0 :ssa on paljon pienempi kuin uskottavuus su-estimaatissa, niin tämä todistaa H 0 :aa vastaan.

5.6.3 Esimerkki: normaalimalli, kun varianssi tunnettu Jälleen kerran normaalimalli toimii mainiosti. Oleteaan: Y 1,..., Y n N(µ, 1) ja tarkastellaan hypoteesia H 0 : µ = µ 0. Tällöin: l(µ; y) = n/2(y µ) 2 sekä µ = y. Siispä: r(y) = n(y µ 0 ) 2, kun H 0 pätee. Siispä: r(y) χ 2 1, kun H 0 pätee, koska tällöin n(y µ0 ) N(0, 1).

5.6.4 Uskottavuusosamäärän testisuureen asymptoottinen jakauma Edellisen normaalimallin tulos on voimassa asymptoottisesti kun havainnot ovat samoin jakautuneita ja riippumattomia, sekä malli on riittävän säännöllinen. Apulause Asymptoottisesti uskottavuusosamäärätestin jakauma on r(y) as χ 2 1, kun H 0 : θ = θ 0 pätee (5.6) Todistus. Ehkä liitutaululla.

5.6.4 Uskottavuusosamäärän testisuureen asymptoottinen jakauma Todistuksen oleellisin pointti on näyttää, että r(y) ι(θ 0 )( θ(y) θ 0 ) 2 Tällöin su-estimaattorin asymptoottinen normaalisuus (Lause 3.6.5) kertoo, että Ja tästä väite seuraakin. ι(θ0 )( θ(y) θ 0 ) N(0, 1) as

5.5.3 khin neliön χ 2 1 tiheysfunktion kuvaaja

5.6.5 Waldin testisuure Nämä testisuureet perustuu suoraan erotukseen θ θ 0 :) Määritelmä Asetetaan ja w 1/2 (y) = ι(θ 0 )( θ(y) θ 0 ) w(y) = ι(θ 0 )( θ(y) θ 0 ) 2. Näitä kutsutaan Waldin testisuureiksi. Vaihtoehtoisia testisuureita saadaan vaihtamalla Fisherin informaatio joksikin seuraavista: j(θ 0 ; y), j( θ; y) ja ι( θ)

5.6.5 Waldin testisuure Tyypillisin variantti mitä näkee, on se, missä käytetään Fisherin informaatiota su-estimaatin kohdalla ι( θ) Edellä nähtiin, että seuraavien testisuureiden asymptoottinen jakauma selviää su-estimaattorin asymptoottisesta normaalisuudesta Tarkemmin: w 1/2 (Y) as N(0, 1), w(y) as χ 2 1 kun H 0 : θ = θ 0 pätee Näistä w 1/2 :ta voi käyttää sekä yksi- että kaksisuuntaiseen vastahypoteesien kanssa ja w:tä kaksisuuntaisten vastahypoteesien kanssa

5.6.6 Raon testisuure Raon pistemäärätestisuure perustuu ajatukseen, että H 0 :n pätiessä pistemäärän l (θ 0 ; y) 0. Tarkemmin: (säännöllisille malleille) pistemäärän odotusarvo E θ l (θ 0 ; Y) = 0 kun H 0 pätee (Apulause 2.5.3) Osoitimme luvussa 3.6.7. että kaiken lisäksi l (θ 0 ; Y) as N(0, ι(θ 0 )) kun H 0 : θ = θ 0 pätee

5.6.6 Raon testisuure Määritelmä Asetetaan u 1/2 (y) = l (θ 0 ; y) ι(θ0 ) ja u(y) = l (θ 0 ; y) 2 ι(θ 0 ) Näitä kutsutaan Raon testisuureiksi. Testisuureita käytetään samoin kuin Waldin testisuureita. Huom. eräs Raon testisuureiden hyvistä puolista on, ettei su-estimaattia tarvitse selvittää niiden muodostamista varten

5.6.7 Esimerkki: eksponenttimalli Verrataan edellisiä testisuureita eksponenttimallille, sillä normaalimallilla eroja on hankala havaita :) Oletetaan: Y 1,..., Y n Exp(1/µ) ja nollahypoteesi H 0 : µ = µ 0 (ja µ 0 > 0) Tiedämme: log-uskottavuusfunktio on l(µ; y) = n log µ ny/µ Tiedämme: µ = y (otoskeskiarvo).

5.6.7 uskottavuusosamäärätesti eksponenttimallille Uskottavuusosamäärän testisuure voidaan nyt määrätä r(y) = 2 ( n(log µ log µ) ny(1/ µ 1/µ) ) = 2n ( log(y/µ) 1 + y/µ ) Waldin ja Raon testisuureita varten tarvitsemme vielä Fisherin informaation ι(µ)

5.6.7 Fisherin informaatio eksponenttimallille Derivoimalla kahdesti µ:n suhteen saamme, Siispä: l (µ; y) = n µ 2 2ny µ 3 ι(µ) = E µ ( l (µ; Y)) = n µ 3 (E µ(2y µ)) = n µ 2

5.6.7 Waldin testisuure eksponenttimallille Edellisten laskujen mukaan w 1/2 (y) = ι(µ 0 )( µ(y) µ 0 ) = n(y µ0 ) µ 0 Tämän variantti, kun Fisherin informaatio korvataan ι( µ):lla, on n(y w 1/2 µ0 ) (y) = y Koska tämä on vallan tyypillinen määritelmä Waldin testisuureelle, käytämme seuraavassa jälkimmäistä

5.6.7 Raon testisuure eksponenttimallille Pistemäärä jäi laskematta, mutta l (µ; y) = n/µ + ny/µ 2 = n(y µ) µ 2 Siispä Raon testisuure on u 1/2 (y) = 1 ι(θ0 ) n(y µ 0) µ 2 = 0 n(y µ0 ) µ 0

5.6.7 Numeerinen esimerkki kestoikämalli (1.2.2): µ = keskimääräinen kestoikä (tunneissa) H 0 : µ = 1000 (eli valmistaja väittää kestoksi 1000 tuntia (keskimäärin) H 1 : µ < 1000 (arvellaan pienemmäksi, mitä valmistaja väittää) otoskoko n = 50 ja havaitaan y = 800. Koska yksisuuntainen testi, niin uskottavuusosamäärän testisuure ei kovin käyttökelpoinen.

5.6.7 Numeerinen esimerkki Waldin testisuure (jälkimmäinen variantti): Raon testisuure: w 1/2 (y) = 50(800 1000) 800 1.77 u 1/2 (y) = 50(800 1000) 1.41 1000

5.6.7 Numeerinen esimerkki Waldin testisuure (jälkimmäinen variantti) ja p-arvo: 50(800 1000) w 1/2 (y) = 800 Raon testisuure ja p-arvo: 1.77, p Φ( 1.77) 0.038 u 1/2 (y) = 50(800 1000) 1000 1.41, p Φ( 1.41) 0.079 Tarkka p-arvo (sillä Y /10 χ 2 100, kun µ = 1000) p = P 1000 (Y /10 80) 0.070

5.7 Uskottavuusfunktioon perustuvia testejä II Tässä pykälässä pohditaan edellä tarkasteltujen kolmen testisuureen yleistystä malleihin, joiden parametri on useampiulotteinen, ja testausasetelmiin, joissa nollahypoteesi on mahdollisesti yhdistetty. Tyypillisesti nollahypoteesi ottaa kantaa vain joihinkin parametrivektorin komponentteihin.

5.7.1 vapaa ja rajoitettu malli On annettu malli f Y (y; θ), jonka parametriavaruus on Ω R d, ja nollahypoteesi H 0 : θ Ω 0, jossa Ω 0 on Ω:n osajoukko. Tehtävänä on siis testata, onko havaittu aineisto sopusoinnussa sen hypoteesin kanssa, että todellinen parametriarvo kuuluisi joukkoon Ω 0. Kysymystä voidaan lähestyä ajattelemalla, että tarkasteltavana on kaksi mallia: vapaa malli: f Y (y; θ), θ Ω rajoitettu malli: f Y (y; θ), θ Ω 0

5.7.1 vapaa ja rajoitettu su-estimaatti Niiden kummankin puitteissa voidaan aineistosta y laskea suurimman uskottavuuden estimaatit: vapaa su-estimaatti θ Ω L( θ; y) = max L(θ; y) θ Ω rajoitetettu su-estimaatti θ 0 Ω L( θ 0 ; y) = max θ Ω 0 L(θ; y)

5.7.1 vapaa ja rajoitettu su-estimaatti (kuva)

5.7.1 Uskottavuusfunktioon perustuvia testejä II Uskottavuusosamäärän testisuureeksi on nyt luontevaa valita r(y) = 2(l( θ; y) l( θ 0 ; y)) Ilmeisesti tämän suuret arvot ovat nollahypoteesin kannalta kriittisiä, sillä nehän merkitsevät, että rajoitetun mallin antama selitys havaitulle aineistolle on parhaimmillaankin paljon epäuskottavampi kuin vapaan mallin antama. Jatkossa nähdään, että myös Waldin ja Raon testisuureet voidaan yleistää. Ensin mainittu perustuu erotusvektoriin θ θ 0 ja jälkimmäinen log-uskottavuusfunktion gradientin (pistemäärän) arvoon l( θ 0 ; y).

5.7.2 Oletukset Rajataan hieman yleisyyttä, jotta asiat on selkeitä Oletetaan jatkossa, että a) mallin parametri voidaan osittaa muotoon θ = (ψ, λ), jossa ψ = (θ 1,..., θ q ) ja λ = (θ q + 1,..., θ d ). b) parametriavaruus Ω voidaan kirjoittaa vastaavasti tulona Ω = Ω Ω, jossa Ω R q ja Ω R d q,ja c) nollahypoteesi on H 0 : ψ = ψ 0, jossa ψ 0 Ω on tunnettu kiinteä vektori, ts. Ω 0 = { ψ 0 } Ω = { (ψ 0, λ) ; λ Ω }. Lisäksi on vaadittava, että malli toteuttaa tietyt säännöllisyysehdot (jotta asymptoottiset tuloksemme ovat voimassa)

5.7.2 Kuva oletuksista (kuva)

5.7.2 Malliesimerkki oletuksista Tämä vastaa mainiosti normaalimallin testausasetelmaa, kun H 0 : µ = µ 0 ja varianssi σ 2 on tuntematon Tällöin parametrina on θ = (µ, σ 2 ), ψ = µ ja λ = σ 2 Parametriavaruushan oli Ω = R (0, ) = Ω Ω, joten huomaamme, että Ω 0 = { µ 0 } Ω

5.7.2 Oletusten merkityksestä Nollahypoteesi siis kiinnittää symbolilla ψ merkityn parametrivektorin osan mutta ei ota mitään kantaa osaan λ. Koska tutkijan mielenkiinto on tässä testausasetelmassa kohdistunut osaan ψ, sitä voidaan kutsua kiinnostavaksi parametriksi. Osa λ puolestaan on kiusaparametri. Tämä vastaa normaalimallin termistöä (varianssin ollessa kiusaparatmetri ja odotusarvon olleen kiinnostuksen kohde)

5.7.2 Oletusten merkityksestä Näillä oletuksilla rajoitettu su-estimaatti on muotoa θ 0 = (ψ 0, λ 0 ), jossa λ 0 saadaan maksimointitehtävän L(ψ 0, λ 0 ; y) = max λ Ω L(ψ 0, λ; y) ratkaisuna eli estimoimalla malli f Y (y; ψ 0, λ), λ Ω, suurimman uskottavuuden menetelmällä.

5.7.3 Esimerkkejä a) Katsotaan vielä kerran normaalimallin tapaus :) Mallissa Y 1,..., Y n N(µ, σ 2 ) parametri on (µ, σ 2 ) ja parametriavaruus R (0, ). Jos H 0 : µ = µ 0, niin µ on kiinnostava parametri ja σ 2 on kiusaparametri.

5.7.3 Esimerkkejä b) Hieman mielenkiintoisempi esimerkki on yhden selittäjän regressiomalli Y 1,..., Y n, Y i N(α + βx i, σ 2 ) (ks. 1.2.4) parametri on (α, β, σ 2 ) ja parametriavaruus R R (0, ). Tavallisesti halutaan testata hypoteesia H 0 : β = 0, jolloin β on kiinnostavan parametrin asemassa ja (α, σ 2 ) on kiusaparametri. Jos taas testattavana on H 0 : α = 0, niin α on kiinnostava parametri ja (β, σ 2 ) kiusaparametri.

5.7.3 Esimerkkejä c) Oletusten 5.7.2 a)-c) mukaisen testausasetelman sovellusaluetta voi usein laajentaa mallin sopivan uudelleenparametroinnin avulla. Tarkastellaan esimerkkinä tilannetta, jossa havaintoja vastaavat satunnaismuuttujat ovat X 1,..., X m, Y 1,..., Y n ja X 1,..., X m N(µ, σ 2 ), Y 1,..., Y n N(ν, τ 2 ). Tämän mallin parametri on (µ, ν, σ 2, τ 2 ).

5.7.3 Esimerkkejä Halutaan testata hypoteesia H 0 : µ = ν eli tutkia, voisivatko x-havainnot ja y-havainnot olla peräisin normaalijakaumista, joilla on sama odotusarvo. Tämä hypoteesi ei suoraan ole c-oletuksen mukainen. Olkoon δ = ν µ Uudelleenparametrointi (µ, ν, σ 2, τ 2 ) (µ, δ, σ 2, τ 2 ) korjaa tämän ongelman :) Tämän esimerkin testausasetelmaa kutsutaan tilastollisen päättelyn kirjoissa perinteisesti Behrensin ja Fisherin ongelmaksi.

5.7.4 Uskottavuusosamäärän testisuure Tarkastellaan edellä kohdissa 5.7.1 ja 5.7.2 kuvattua asetelmaa. Olkoon θ vapaa su-estimaatti ja θ 0 rajoitettu eli H 0 :n puitteissa muodostettu su-estimaatti. Määritelmä Uskottavuusosamäärän testisuure on r(y) = 2(l( θ; y) l( θ 0 ; y))

5.7.4 Uskottavuusosamäärän testisuure Yleistämällä yksiulotteisen parametrin tapauksessa suoritettua päättelyä (ks. 5.6.4) ja olettamalla riittävät säännöllisyysehdot voidaan osoittaa, että r(y) as χ 2 q, kun H 0 pätee. Uskottavuusosamäärän testin approksimatiivinen p-arvo saadaan siis χ 2 q-jakaumasta: p P(χ 2 q r(y)). Huomaa, että vapausasteiden lukumäärä q on sama kuin kiinnostavan parametrin dimensio eli H 0 :n asettamien (skalaaristen) side-ehtojen lukumäärä.

5.7.5 Waldin testisuure Kauan sitten (Kappaleessa 2.6) asetimme malliin f Y (y; θ) liittyvän Fisherin informaatiomatriisin (symmetrinen d d-matriisi) ι 1,1 (θ)... ι 1,d (θ) ι(θ) =..... ι d,1 (θ)... ι d,d (θ) kun θ Ω. Kappaleessa 3.6.8. totesimme, että myös moniparametrisessa tilanteessa su-estimaattori on asymptoottisesti multinormaalijakautunut θ (n) (Y) as N d (θ, ι(θ) 1 )

5.7.5 Waldin testisuure Kappaleessa 3.4.6. otimme käyttöön yläindeksimerkinnän Fisherin informaation käänteismatriisille ι 1,1 (θ)... ι 1,d (θ) ι 1 (θ) =..... ι d,1 (θ)... ι d,d (θ) Tämän motivoimana merkitään yläindeksimerkinnällä lohkottua Fisherin informaation käänteismatriisille ( ι 1 ι (θ) = ψ,ψ (θ) ι ψ,λ ) (θ) ι λ,ψ (θ) ι λ,λ (θ)

5.7.5 Waldin testisuure Kun jaetaan vastaavasti su-estimaattori θ kahteen osaankirjoittamalla θ = ( ψ, λ), niin ψ (n) (Y) as N q (ψ, ι ψ,ψ (θ)) Lineaaristen mallien kurssilla osoitetaan (ja itse asiassa teimme tämän jo TN2:lla), että tällöin ( ψ(y) ψ) ι ψ,ψ (θ) 1 ( ψ(y) ψ) as χ 2 q

5.7.5 Waldin testisuure Näiden tarkastelujen pohjalta Waldin testisuureen määritelmäksi kohdan 5.7.2 tilanteessa otetaan Määritelmä Asetetaan w(y) = ( ψ(y) ψ 0 ) ι ψ,ψ ( θ) 1 ( ψ(y) ψ 0 ), kun θ = ( ψ, λ) on vapaa su-estimaatti. Tätä kutsutaan Waldin testisuureeksi.

5.7.5 Waldin testisuure Matriisin ι ψ,ψ ( θ) sijasta voidaan käyttää myös vastaavaa havaitusta informaatiosta saatavaa matriisia. Edellisen päätelyn pohjalta (säännöllisyysoletusten vallitessa) seuraava asymptoottinen jakaumatulos on uskottava w(y) as χ 2 q, kun H 0 pätee. Testisuureen w(y) suuret arvot asettavat nollahypoteesin kyseenalaiseksi, joten approksimatiivinen p-arvo lasketaan samoin kuin uskottavuusosamäärän testissä.

5.7.6 Raon testisuure Kauan sitten luvussa 2.6. määrittelimme vektoriparametrisen mallin pistemäärän tarkoitetaan log-uskottavuusfunktion gradienttia ( ) l(θ; y) = θ 1 l(θ; y),..., θ d l(θ; y). Ositetaan tämä kahteen osaan ( ) l(θ; y) = ψ l(θ; y), λ l(θ; y).

5.7.6 Raon testisuure Raon pistemäärätestisuure määritellään nyt kaavalla Määritelmä Asetetaan u(y) = ( ψ l( θ 0 ; y) ) ι ψ,ψ ( θ 0 ) ( ψ l( θ 0 ; y) ) missä θ 0 = ( ψ 0, λ 0 ) on rajoitettu su-estimaatti. Tätä kutsutaan Raon testisuureeksi.

5.7.6 Raon testisuure Määritelmässä voidaan ι ψ,ψ ( θ 0 ) korvata vastaavalla havaitusta informaatiosta saatavalla matriisilla. Riittävien säännöllisyysehtojen vallitessa voidaan osoittaa, että u(y) as χ 2 q, kun H 0 pätee. Havaitsemme, että approksimatiivinen p-arvo lasketaan siis kuten uskottavuusosamäärän ja Waldin testeissä.

5.7.7 Testisuureiden vertailua Kaikki kolme uskottavuusfunktioon perustuvaa testisuuretta noudattavat nollahypoteesin pätiessä asymptoottisesti samaa jakaumaa χ 2 q. Ne kuitenkin eroavat toisistaan vaadittavan suurimman uskottavuuden estimoinnin suhteen.

5.7.7 Testisuureiden vertailua Uskottavuusosamäärän testisuureen r(y) muodostamiseksi on estimoitava sekä vapaa että rajoitettu malli. Waldin testisuure w(y) puolestaan perustuu pelkästään vapaaseen su-estimaattiin Raon testisuure u(y) perustuu pelkästään rajoitettuun su-estimaattiin. Näillä seikoilla on oma merkityksensä, kun tarkastellaan monimutkaisia malleja, joissa estimointi edellyttää raskasta numeerista laskentaa. Laskennalliset ongelmat ovat tosin viime vuosina paljolti poistuneet tietokoneiden laskentakapasiteetin kehityksen myötä.

5.7.8 Esimerkki: Raon testi normaalimallille Tarkastellaan (jälleen kerran) normaalimallia Y 1,..., Y n N(µ, σ 2 ) Muodostetaan Raon testisuure (yhdistetylle) hypoteesille H 0 : µ = µ 0. varianssi σ 2 on tällöin kiusaparametri Tässä λ = σ 2 ja ψ = µ.

5.7.8 Esimerkki: Raon testi normaalimallille Testisuurehan oli u(y) = ( ψ l( θ 0 ; y) ) ι ψ,ψ ( θ 0 ) ( ψ l( θ 0 ; y) ) missä θ 0 = θ 0 (y). Tässä tilanteessa siis: u(y) = ( µ l( θ 0 ; y) ) ι µ,µ ( θ 0 ) ( µ l( θ 0 ; y) ) Sitä varten tarvitsemme: Fisherin informaation käänteismatriisin rajoitetun su-estimaatin θ 0 (y) pistemäärän

5.7.8 Esimerkki: Raon testi: Fisherin informaatio Napsitaan helpot ensin :) Esimerkissä 2.6.3. laskimme Fisherin informaatiomatriisin normaalimallille ( ) ι(µ, σ 2 n/σ 2 0 ) = 0 n/2σ 4 Ja Esimerissä 3.4.7. käytimme tätä apuna Fisherin informaation käänteismatriisin laskemiseen ( ι 1 (µ, σ 2 σ ) = 2 ) /n 0 ( ι 0 2σ 4 = µ,µ (θ) ι µ,λ ) (θ) /n ι λ,µ (θ) ι λ,λ (θ)

5.7.8 Esimerkki: Raon testi: pistemäärä Pistemäärän tapauksessa meille riittää siis osittaisderivaatta µ l(µ, σ2 ; y) Esimerkin 2.1.4. alussa määräsimme suoraan uskottavuusfunktion L ilman otoskeskiarvoa ja otosvarianssia, joten aloitetaan siitä l(µ, σ 2 ; y) = n 2 log(σ2 ) 1 2σ 2 n (y i µ) 2 i=1 Tämän avulla tarvittava pistemäärä µ l on µ l(µ, σ2 ; y) = 1 σ 2 n (y i µ) = i=1 n(y µ) σ 2

5.7.8 Esimerkki: Raon testi: rajoitettu su-estimaatti Koska H 0 : µ = µ 0 vastaa joukkoa Ω 0 = { µ 0 } (0, ), niin rajoitettu su-estimaattori θ 0 = (µ 0, σ 2 0 ). Tarkastellaan uskottavuusyhtälöä (σ 2 ) l(µ 0, σ 2 ) = n 2σ 2 + 1 2(σ 2 ) 2 Tämän ainoa ratkaisu on n (y i µ 0 ) 2 = 0 i=1 σ 2 = 1 n n (y i µ 0 ) 2 i=1

5.7.8 Esimerkki: Raon testi: rajoitettu su-estimaatti Suurilla σ 2 derivaatta on negatiivinen ja pienillä positiivinen ja derivaatta on jatkuva: siispä rajoitettu su-estimaatti on σ 2 0(y) = 1 n n (y i µ 0 ) 2 i=1 Tämä voidaan ilmaista myös vapaan su-estimaatin avulla σ 2 0(y) = 1 n n (y i y) 2 + (y µ 0 ) 2 = σ 2 (y) + (y µ 0 ) 2 i=1

5.7.8 Esimerkki: Raon testisuure Sijoitetaan nyt kaikki tiedot testisuureen lausekkeeseen u(y) = ( µ l( θ 0 ; y) ) ι µ,µ ( θ 0 ) ( µ l( θ 0 ; y) ) Saamme: ( n(y µ) ) 2 σ 2 u(y) = 0 n σ 2 0 = n(y µ)2 σ 2 0 Tämä voidaan ilmaista myös vapaan su-estimaatin avulla u(y) = n(y µ)2 σ 2 + (y µ) 2

5.7.8 Esimerkki: Raon testisuure vs t-testisuure Muotoillaan Raon testisuure vapaan su-estimaatin avulla uudestaan ( σ 2 ) u(y) = n 1 σ 2 + (y µ) 2 = n (1 ( 1 + t(y)2 ) ) 1 n 1 = w( t(y) ) Yllä t(y) on t-testisuure t(y) = y µ 0 s/ n

5.7.8 Esimerkki: Raon testisuure vs t-testisuure Kuvaus w on aidosti kasvava positiivisilla reaaliluvuilla w (t) = n (1 + t2 ) 2 2t n 1 n 1 > 0 Siispä: Raon testisuure u ja kaksisuuntainen t-testisuure ovat ekvivalentit :) sillä niillä on samat p-arvot ja kriittiset alueet Harjoituksissa pääsette näyttämään saman Waldin ja uskottavuusosamäärän testisuureelle :)