9 Moniulotteinen jakauma

Samankaltaiset tiedostot
1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x

Matemaattisten tieteiden kandiohjelma / MTL Todennäköisyyslaskenta IIb Kurssikoe (kesto 2h 30 min)

0 3 y4 dy = 3 y. 15x 2 ydx = 15. f Y (y) = 5y 4 1{0 y 1}.

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,

7 Kaksiulotteinen jakauma

8.1 Ehdolliset jakaumat

10 Moniulotteinen normaalijakauma

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2

Sallitut apuvälineet: kirjoitusvälineet, laskin sekä käsinkirjoitettu, A4-kokoinen lunttilappu ja MAOL taulukkokirjaa

1. Tilastollinen malli??

0 kun x < 0, 1/3 kun 0 x < 1/4, 7/11 kun 1/4 x < 6/7, 1 kun x 1, 1 kun x 6/7,

7 Kaksiulotteinen jakauma

Todennäköisyyslaskenta, syksy Petri Koistinen Matematiikan ja tilastotieteen laitos Helsingin yliopisto

1. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden heittojen lukumäärä, joilla tuli 1, 2, 3 tai 4.

3.1 Kaksiulotteinen satunnaisvektori ja sen jakauma

8.1 Ehdolliset jakaumat

Odotusarvo. Odotusarvon ominaisuuksia Satunnaismuuttujien ominaisuuksia 61

Yleistä tietoa kokeesta

Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.

10 Moniulotteinen normaalijakauma

4.0.2 Kuinka hyvä ennuste on?

Inversio-ongelmien laskennallinen peruskurssi Luento 7

4.1 Diskreetin satunnaismuuttujan odotusarvo

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

Maximum likelihood-estimointi Alkeet

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

Moniulotteisia todennäköisyysjakaumia

2. Uskottavuus ja informaatio

Matematiikan tukikurssi

Sovellettu todennäköisyyslaskenta B

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Luento 9: Yhtälörajoitukset optimoinnissa

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Mat Sovellettu todennäköisyyslasku A. Moniulotteiset jakaumat. Avainsanat:

TODENNÄKÖISYYSLASKUN KERTAUS Peruskäsitteitä

4.2.2 Uskottavuusfunktio f Y (y 0 X = x)

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

Johdatus tn-laskentaan torstai

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

Satunnaismuuttujien muunnokset ja niiden jakaumat

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio

Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat. TKK (c) Ilkka Mellin (2004) 1

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1

Insinöörimatematiikka D

Sovellettu todennäköisyyslaskenta B

3.1 Kaksiulotteinen satunnaisvektori ja sen jakauma

x 4 e 2x dx Γ(r) = x r 1 e x dx (1)

HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

Mallipohjainen klusterointi

k S P[ X µ kσ] 1 k 2.

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Pelaisitko seuraavaa peliä?

Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat

Satunnaismuuttujat Satunnaismuuttuja kuvaa kokeen tuloksen reaaliakselille Satunnaismuuttuja on siis funktio X(s) joka saa reaalisia arvoja Koe s

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

Tilastomatematiikka Kevät 2008

Johdatus tn-laskentaan perjantai

9. Tila-avaruusmallit

HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2017 Harjoitus 1 Ratkaisuehdotuksia

Tilastollinen päättely II, kevät 2017 Harjoitus 1A

031021P Tilastomatematiikka (5 op) viikko 7

12. Hessen matriisi. Ääriarvoteoriaa

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

Matemaattinen tilastotiede. Erkki Liski Matematiikan, Tilastotieteen ja Filosofian Laitos Tampereen Yliopisto

Moniulotteiset satunnaismuuttujat ja jakaumat

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B

EX1 EX 2 EX =

MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

Antti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16

Johdatus todennäköisyyslaskentaan Moniulotteiset satunnaismuuttujat ja todennäköisyysjakaumat. TKK (c) Ilkka Mellin (2005) 1

Tilastollinen päättely II, kevät 2017 Harjoitus 2A

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

r > y x z x = z y + y x z y + y x = r y x + y x = r

Lineaarikuvauksen R n R m matriisi

Ilkka Mellin (2008) 1/5

Luento 8: Epälineaarinen optimointi

MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio.

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus

Inversio-ongelmien laskennallinen peruskurssi Luento 2

11 Raja-arvolauseita ja approksimaatioita

802320A LINEAARIALGEBRA OSA II

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi. Viikko 3. Kaksiulotteiset satunnaismuuttujat

Ominaisarvo ja ominaisvektori

MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi

Kuva 1: Funktion f tasa-arvokäyriä. Ratkaisu. Suurin kasvunopeus on gradientin suuntaan. 6x 0,2

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

Harjoitus 4 Tehtävä 1

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Liite. Matriisilaskentaa

Transkriptio:

9 Moniulotteinen jakauma Moniulotteisella satunnaisvektorilla voi olla useampi kuin kaksi komponenttia. Sen jakaumaa kuvaillaan samaan tapaan kuin kaksiulotteisen satunnaisvektorin jakaumaa. Suurin osa tämän luvun ideoista on ennestään tuttuja, eikä tuttuja tuloksia enää perustella uudestaan. Tilastotieteilijä tarvitsee moniulotteisia jakaumia sen takia, että hän voisi määritellä ja analysoida tilastollisia malleja.

Moniulotteisuudesta johtuvia uusia asioita Reunajakauma voidaan määritellä mille tahansa komponenttien osajoukolle. Ehdollisia jakaumia voidaan laskea ehdollistamalla millä tahansa komponenttien osajoukolla. Ehdollinen riippumattomuus on käsite, joka ei ole mielekäs kuin vasta dimensioissa kolmesta eteenpäin. Moniulotteisten jakaumien havainnollistaminen on hankalaa. Kuvien piirtäminen ei onnistu korkeissa dimensioissa, vaan niiden sijasta pitää luottaa kaavojen manipulointiin.

9.1 Satunnaisvektori Jos X 1,..., X n ovat samalla perusjoukolla Ω määriteltyjä satunnaismuuttujia, niin X = (X 1,..., X n ) on n-ulotteinen satunnaisvektori (lyh. sv). Ts. satunnaisvektori on kuvaus Ω R n siten, että X 1 (ω) X(ω) = X (ω) = (X 1 (ω),..., X n (ω)) =. X n (ω)

Diskreetisti jakautunut satunnaisvektori Jos kaikki satunnaisvektorin X komponentit X i ovat diskreettejä sm:ia, niin sen ptnf eli sm:ien X i yhteispistetodennäköisyysfunktio (yptnf) on f X (x) = P(X = x) = P(X 1 = x 1,..., X n = x n ). (9.1) Jos g(x ) on sv:n X reaaliarvoinen muunnos, niin sen odotusarvo saadaan kaavalla (tiedostamattoman tilastotieteilijän laki diskreetissä tapauksessa). Eg(X) = x g(x) f X (x), (9.2) mikäli kyseinen summa suppenee itseisesti

Jatkuvasti jakautunut satunnaisvektori Satunnaisvektorilla X on jatkuva jakauma, mikäli sillä on tiheysfunktio f X. Tämä tarkoittaa sitä, että P(X B) = f X = B B f X (x) dx, kaikilla B R n. Tällöin sen komponenteilla X 1,..., X n on jatkuva yhteisjakauma, ja tiheysfunktiota f X1,...,X n (x 1,..., x n ) = f X (x), x = (x 1,..., x n ) kutsutaan sm:ien X 1,..., X n yhteistiheysfunktioksi. (9.3)

Kuinka n-kertainen integraali lasketaan Edellä kyseessä on n-kertainen integraali, f X (x) dx = 1 B (x) f X (x) dx 1 dx n, B joka voidaan laskea iteroituna integraalina käyttämällä mielivaltaista integrointijärjestystä.

Tiedostamattoman tilastotieteilijän laki jatkuvassa tapauksessa Jos g(x) on sv:n X reaaliarvoinen muunnos, niin sen odotusarvo saadaan kaavalla Eg(X) = g(x) f X (x) dx (9.4) mikäli kyseinen integraali suppenee itseisesti. Tämä integraali voidaan laskea iteroituna integraalina käyttäen mielivaltaista integrointijärjestystä. Kun integrointijoukkoa ei merkitä näkyviin, tarkoitetaan koko avaruuden (tässä R n ) yli laskettua integraalia. Jos dimensio n 2, niin tämä merkintä ei sekaannu määrämättömän integraalin (engl. indefinite integral) merkinnän kanssa, sillä määräämättömän integraalin käsitettä käytetään vain dimensiossa yksi.

Ytf:n ja ykf:n välinen yhteys Jatkuvan (yhteis)jakauman tapauksessa ykf on F X (x) = x1 s 1 =... xn s n= f X (s 1,..., s n ) ds 1 ds n. Kun tätä funktiota derivoidaan osittain jokaisen argumenttinsa suhteen, nähdään että n F X (x 1,..., x n ) x 1 x n = f X (x 1,..., x n ), ainakin niissä pisteissä (x 1,..., x n ), joissa f X on jatkuva. Voidaan osoittaa, että tämä funktio kelpaa jatkuvasti jakautuneen sv:n tiheysfunktioksi (kun se jatketaan mielivaltaisesti niissä pisteissä, joissa ko. derivaatta ei ole olemassa).

Diskreetin ja jatkuvan sv:n yhteisjakauma Jos X on diskreetti sv, ja Y on jatkuvasti jakautunut sv, ja ne on määritelty samalla perusjoukolla Ω, niin silloin niiden yhteisjakauma voidaan esittää funktiolla f X,Y (x, y) = f X (x) f Y X (y x), jossa f X on sv:n X reunajakauman (yhteis-)ptnf, ja f Y X (y x) on sv:n Y ehdollinen (yhteis-)tf ehdolla X = x. Jos g(x, Y) on reaaliarvoinen sm, niin sen odotusarvo saadaan kaavalla Eg(X, Y) = g(x, y) f X,Y (x, y) dy, (9.5) x mikäli kyseinen odotusarvo on olemassa.

9.2 Odotusarvovektori ja kovarianssimatriisi Asetamme seuraavat määritelmät, mikäli kyseessä olevat odotusarvot ovat olemassa. Satunnaisvektorin X = (X 1,..., X n ) odotusarvo tai odotusarvovektori on n-komponenttinen vakiovektori EX 1 EX = E(X) = (EX 1,..., EX n ) =.. EX n

Satunnaismatriisin odotusarvo Dimensioltaan m n olevan satunnaismatriisin Z = Z = (Z ij ) odotusarvo tai odotusarvomatriisi on se m n-vakiomatriisi, jonka alkio (i, j) on alkion Z ij odotusarvo, ts. Z 11 Z 12... Z 1n EZ 11 EZ 12... EZ 1n Z 21 Z 22... Z 2n EZ = E...... = EZ 21 EZ 22... EZ 2n....... Z m1 Z m2... Z mn EZ m1 EZ m2... EZ mn

Kahden satunnaisvektorin kovarianssi Satunnaisvektorien X = (X 1,..., X n ) ja Y = (Y 1,..., Y k ) (välinen) kovarianssi on n k-matriisi cov(x, Y) = E ( (X EX)(Y EY) ) cov(x 1, Y 1 ) cov(x 1, Y 2 )... cov(x 1, Y k ) cov(x 2, Y 1 ) cov(x 2, Y 2 )... cov(x 2, Y k ) =....... cov(x n, Y 1 ) cov(x n, Y 2 )... cov(x n, Y k ) cov(x, Y) on matriisi, joka sisältää kaikkien parien (X i, Y j ) kovarianssit cov(x i, Y j ). Mikäli cov(x, Y) = 0, niin sanotaan, että satunnaisvektorit X ja Y eivät korreloi eli että ne ovat korreloimattomat (engl. uncorrelated).

Satunnaisvektorin kovarianssimatriisi Satunnaisvektorin X = (X 1,..., X n ) kovarianssimatriisi on n n-matriisi Cov(X) = cov(x, X) = E ( (X EX)(X EX) ) cov(x 1, X 1 ) cov(x 1, X 2 )... cov(x 1, X n ) cov(x 2, X 1 ) cov(x 2, X 2 )... cov(x 2, X n ) =....... cov(x n, X 1 ) cov(x n, X 2 )... cov(x n, X n ) Satunnaisvektorin kovarianssimatriisi on symmetrinen ja sen päälävistäjällä on komponenttisatunnaismuuttujien varianssit. Näissä merkinnöissä Cov() on yhden argumentin funktio, ja cov(, ) on kahden argumentin funktio.

Laskusääntöjä odotusarvolle Palautetaan mieleen, että määritelmästä odotusarvolle seuraa suoraan, että E(Z ) = (EZ). (9.6) Laskusääntö E ( AZB + C ) = A(EZ)B + C, (9.7) on voimassa kun Z on satunnaismatriisi ja A, B ja C ovat vakiomatriiseja, joiden dimensiot ovat sellaiset, että lauseke on määritelty. Ts. vakiomatriisit saadaan vetää ulos odotusarvosta, jos ne sijaitsevat matriisitulossa äärimmäisenä vasemmalla tai äärimmäisenä oikealla.

Riippumattomuus Mikäli Y ja Z ovat satunnaisvektoreita, ja G(Y) ja H(Z) ovat matriisiarvoisia lausekkeita, niin Y Z G(Y) H(Z). (9.8) Matriisilausekkeiden riippumattomuus tarkoittaa sitä, että kaikki matriisin G(Y) komponentit ovat riippumattomia kaikista matriisin H(Z) komponenteista. Riippumattomien satunnaisvektorien funktiot ovat keskenään riippumattomia. Koska tämä asia pätee matrisiarvoisille funktioille, se pätee tietenkin myös vektori- tai skalaariarvoisille funktioille.

Riippumattomien satunnaismatriisien tulon odotusarvo Riippumattomuudesta ja matriisikertolaskun määritelmästä seuraa, että Y Z E ( G(Y) H(Z) ) = E ( G(Y) ) E ( H(Z) ) (9.9) mikäli dimensiot ovat matriisitulossa G(Y) H(Z) yhteensopivat ja mikäli odotusarvot ovat olemassa.

Kahden satunnaisvektorin kovarianssin ominaisuuksia Jos X Y, ja X on m-komponenttinen ja Y on n-komponenttinen, niin cov(x, Y) = 0 m n. Sv:ien X ja Y kovarianssi voidaan laskea myös kaavalla cov(x, Y) = E ( XY ) (EX)(EY). Jos v R m on vakiovektori, ja X on n-komponenttinen sv, niin cov(v, X) = 0 m n, cov(x, v) = 0 n m.

Kahden satunnaisvektorin kovarianssin ominaisuuksia cov(x, Y) = cov(y, X). Jos X 1, X 2 ja Y ovat satunnaisvektoreita, niin cov(x 1 + X 2, Y) = cov(x 1, Y) + cov(x 2, Y), cov(y, X 1 + X 2 ) = cov(y, X 1 ) + cov(y, X 2 ). Jos A ja B ovat vakiomatriiseja ja v ja w ovat vakiovektoreja, niin cov(ax + v, BY + w) = A cov(x, Y) B. (9.10) Erityisesti Cov(AX + v) = A Cov(X)A. (9.11)

Esimerkki: summan kovarianssimatriisi Jos satunnaisvektorit X ja Y ovat samanpituisia, niin Cov(X + Y) = cov(x + Y, X + Y) = cov(x, X + Y) + cov(y, X + Y) = cov(x, X) + cov(x, Y) + cov(y, X) + cov(y, Y) = Cov(X) + Cov(Y) + cov(x, Y) + cov(y, X). Jos X ja Y eivät korreloi, niin cov(x, Y) = 0 ja cov(y, X) = 0. Korreloimattomille satunnaisvektoreille summan kovarianssimatriisi on summattavien satunnaisvektoreiden kovarianssimatriisien summa. Tämä pitää erityisesti paikkansa riippumattomille satunnaisvektoreille.

Neliömatriisin mahdollisia ominaisuuksia Neliömatriisi B on säännöllinen eli kääntyvä eli ei-singulaarinen, jos sillä on olemassa käänteismatriisi B 1 ; symmetrinen, jos B = B; positiivisesti semidefiniitti, jos v Bv 0 kaikilla v; positiivisesti definiitti, jos v Bv > 0 kaikilla v 0.

Definiittisyys ja ominaisarvot On olemassa matriiseja, joiden kaikki alkiot ovat positiivisia, mutta jotka eivät ole positiivisesti semidefiniittejä, kuten esim. ( ) 1 2 B =. 2 1 Valitsemalla v = ( 1, 1) saadaan v Bv = 2. Definittisyyden voi käsittää helposti ominaisarvojen etumerkkien avulla (mikäli ominaisarvot ovat tuttu käsite): Symmetrinen matriisi B on positiivisesti semidefiniitti jos ja vain jos kaikki sen ominaisarvot ovat suurempia tai yhtä kuin nolla. Symmetrinen matriisi B on positiivisesti definiitti jos ja vain jos kaikki sen ominaisarvot ovat aidosti suurempia kuin nolla. Myös Sylvesterin kriteeri (jos tuttu) on toimiva tapa selvittää definiittisyys

Satunnaisvektorin kovarianssimatriisin definiittisyys Lause 9.2 Sv:n X kovarianssimatriisi on symmetrinen ja positiivisesti semidefiniitti matriisi. Jos se ei ole positiivisesti definiitti, niin sv:n X komponenttien välillä on lineaarisia sidosehtoja, eli X saa todennäköisyydellä yksi arvoja vain tietyltä kiinteältä hypertasolta. Seuraus: Jos Cov X ei ole positiivisesti definiitti, niin X:llä ei voi olla jatkuva jakauma, sillä hypertaso on alempiulotteisena pintana nollamittainen. Huomaa analogia satunnaismuuttujan Z varianssin var(z) ominaisuuksien kanssa.

Todistus Kovarianssimatriisin symmetrisyys seuraa sen määritelmästä. Positiivinen semidefiniittisyys seuraa siitä, että v Cov(X)v = v E ( (X EX)(X EX) ) v = E ( v (X EX)(X EX) v ) ( ( ) ) 2 = E v (X EX) 0, sillä ei-negatiivisen sm:n odotusarvo on ei-negatiivinen. Jos kovarianssimatriisi ei ole positiivisesti definiitti, niin on olemassa v 0 siten, että ( ( ) ) 2 0 = v Cov(X) v = E v (X EX), joten todennäköisyydellä yksi on v (X EX) = 0.

9.3 Ehdolliset jakaumat, kertolaskusääntö ja ehdollinen odotusarvo Tarkastellaan sv:ia Z, jonka r ensimmäistä koordinaattia muodostavat sv:n X ja loput s koordinaattia sv:n Y, Z = (X, Y) = (X 1,..., X r, Y 1,..., Y s ). Ehdolliset jakaumat Y (X = x) ja X (Y = y) hallitaan tutuilla kaavoilla: f Y X (y x) = f X,Y(x, y) f X (x), f X Y (x y) = f X,Y(x, y). f Y (y) Miten reunajakaumien tiheydet lasketaan? Pitääkö kaikkien komponenttien olla joko disreettejä tai jatkuvia?

Diskreettejä vai jatkuvia komponentteja? Oletamme, että sv:n Z = (X, Y) yhteisjakauman esittää tiheys f Z (z) = f X,Y (x, y), z = (x, y). Sallimme sen tilanteen, että jotkut Z:n koordinaatit ovat diskreettejä sm:ia ja lopuilla on jatkuva yhteisjakauma.

Marginalisointi: yhteisjakaumasta reunajakaumaan Osavektorin X:n reunajakauman esittää tiheys f X, joka saadaan summaamalla pois tiheydestä f X,Y sv:n Y diskreetit komponentit ja integroimalla pois sen jatkuvat komponentit. Merkintöjä väärinkäyttämällä, f X (x) = f X,Y (x, y) dy, (9.12) missä integraalimerkki tarkoittaa summaamista diskreettien komponenttien kohdalla. X:n jakauma saadaan marginalisoimalla yhteisjakaumasta. Vastaavasti f Y saadaan kaavalla f Y (y) = f X,Y (x, y) dx.

Marginalisointi, kun komponentit ovat hujan hajan vektorissa Z Edellä marginalisoitiin satunnaisvektorin Z = (X, Y) yhteisjakaumasta joko ensimmäisten komponenttien X tai viimeisten komponenttien Y reunajakauma. Se tilanne, missä pitää reunajakauma pitää etsiä mielivaltaiselle osajoukolle Z:n komponentteja saadaan palautettua edelliseen tilanteeseen permutoimalla koordinaatteja. Menettely selviää esimerkistä.

Esimerkki kahden muuttujan reunajakauman laskemisesta nejän muuttujan yhteisjakaumasta Olkoot U ja V diskreettejä sm:ia ja (X, Y ) jatkuvasti jakautunut sv. Yhteisjakauman esittää tiheys f U,V,X,Y (u, v, x, y) Etsitään komponenttien V ja Y reunajakauma (ts. niiden yhteisjakauma). Jotta päästäisiin soveltamaan em. kaavoja, permutoidaan V ja Y ensimmäisiksi f V,Y,U,X (v, y, u, x) = f U,V,X,Y (u, v, x, y), (kaikilla kyseeseen tulevilla arvoilla u, v, x, y). Tämän jäkeen vektori (V, Y ) on ensimmäisenä, joten sm:ien V ja Y yhteisjakauman esittää tiheys f V,Y (v, y) = f V,Y,U,X (v, y, u, x) dx, u

Esimerkki jatkuu Nyt muistetaan, että f V,Y,U,X (v, y, u, x) on sama asia kuin f U,V,X,Y (u, v, x, y). Siispä sm:ien V ja Y yhteisjakauman esittää tiheys f V,Y (v, y) = f U,V,X,Y (u, v, x, y) dx. u Käytännön laskuissa siirryttäisiin suoraan viimeiseen vaiheeseen ilman välissä esitettyjä permutointivälivaiheita. Diskreetit komponentit yksinkertaisesti marginalisoidaan pois summaamalla ja jatkuvat komponentit integroimalla.

Kertolaskusääntö Kertolaskusääntö (eli ketjusääntö) on voimassa, eli f X,Y (x, y) = f X (x) f Y X (y x) = f Y (y) f X Y (x y). Kertolaskusääntöä voidaan iteroida. Oletetaan, että sv X = (U, V). Tällöin minkä takia f U,V (u, v) = f U (u) f V U (v u), f U,V,Y (u, v, y) = f U (u) f V U (v u) f Y U,V (y u, v).

Lisää kertolaskusäännöstä Kertolaskusäännön soveltamista voidaan jatkaa, kunnes ollaan päästy skalaarikomponentteihin asti. Esimerkiksi neljän sm:n U, V, X, Y tiheys voidaan esittää muodossa f U,V,X,Y (u, v, x, y) = f U (u) f V U (v u) f X U,V (x u, v) f Y X,U,V (y x, u, v). Kertolaskusääntöä voidaan soveltaa yhtä hyvin käyttämällä jotakin muuta sm:ien permutaatiota.

Kertolaskusääntö pätee myös ehdollisille jakaumille Esim. f U,V Y (u, v y) = f U,V,Y(u, v, y) f Y (y) = f U,Y(u, y) f Y (y) = f U Y (u y) f V U,Y (v u, y). f U,V,Y (u, v, y) f U,Y (u, y) Ensimmäinen tekijä on komponentin U reunajakauma ehdollisessa yhteisjakaumassa (ehtona Y = y) ja toisena tekijänä komponentin V ehdollinen jakauma ehdolla U = u (kun edelleen ehdollistetaan arvolla Y = y).

Marginalisointi ehdollisesta yhteisjakaumasta Ehdollisen jakauman reunajakauman voi laskea marginalisoimalla tuttuun tapaan ehdollista yhteisjakaumaa. Esim. f U Y (u y) = f U,Y(u, y) = 1 f U,V,Y (u, v, y) dv f Y (y) f Y (y) = f U,V Y (u, v y) dv.

Merkintöjä mielellään yksinkertaistetaan Kun jakaumien välisiä yhteyksiä johdetaan tähän tapaan kertolaskukaavan ja marginalisoinnin kautta, niin tiheysfunktioiden alaindeksit jätetään usein kirjoittamatta, koska ne selviävät tiheysfunktion argumenteista. Muussa tapauksessa kaikki argumentit joudutaan kirjoittamaan kahteen kertaan: alaindekseissä esiintyvät satunnaismuuttujat (tai -vektorit) ja funktion argumentteina niiden mahdolliset arvot. Tämä merkintöjen väärinkäyttö ei johda sekaannukseen, kunhan pidetään mielessä, että esim. f (x), f (y), f (x y) ja f (y x) ovat tyypillisesti kaikki eri funktioita.

Ehdollistaminen satunnaisvektorin kiinteällä arvolla Seuraavassa g = (g 1,..., g n ), kun n 1, on jokin (vektoriarvoinen) muunnos. Satunnaisvektorin g(x, Y) ehdollinen odotusarvo(vektori) ehdolla X = x määritellään siten, että se on satunnaisvektorin g(x, Y) odotusarvovektori, kun Y:n jakaumana käytetään ehdollista jakaumaa f Y X ( x). Merkintöjä väärinkäyttämällä E(g(X, Y) X = x) = g(x, y) f Y X (y x) dy. Tässä integraalimerkki voi tarkoittaa summausta joidenkin vektorin y komponenttien suhteen.

Ehdollistaminen satunnaisvektorilla Jos ehdollistetaan satunnaisvektorilla X, niin satunnaisvektori E(g(X, Y) X) määritellään niin, että se on m(x), kun m(x) = E(g(X, Y) X = x), Edellä funktion m määritelmä jatketaan tarvittaessa nollavektoriksi niillä argumentin arvoilla, jolla se ei luonnostaan ole määritelty.

Ehdollinen kovarianssimatriisi Satunnaisvektorin g(x, Y) ehdollinen kovarianssimatriisi ehdolla X = x määritellään satunnaisvektorin g(x, Y) kovarianssimatriisina, kun Y:n jakaumana käytetään ehdollista jakaumaa f Y X ( x). Voidaan käyttää merkintää Cov(g(X, Y) X = x). Jos ehdollistetaan satunnaisvektorilla X, niin ehdollinen kovarianssimatriisi on satunnaismatriisi, ja sitä merkitään Cov(g(X, Y) X).

9.4 Ehdollinen riippumattomuus Palautetaan mieleen, mitä (ei-ehdollinen) riippumattomuus tarkoittaa. Satunnaisvektorit X ja Y ovat riippumattomia, jos kaikilla argumenteilla x, y. f X,Y (x, y) = f X (x) f Y (y). Vastaavasti satunnaisvektorit X 1,..., X n ovat riippumattomia, jos kaikilla argumenteilla. f X1,...,X n (x 1,..., x n ) = f X1 (x 1 ) f Xn (x n )

Ehdollinen riippumattomuus Määritelmä 9.2 Satunnaisvektorit X ja Y ovat riippumattomia ehdolla Z, mikä voidaan merkitä (X Y) Z, jos ne ovat riippumattomia niiden ehdollisessa yhteisjakaumassa ehdolla Z = z kaikilla z, ts. mikäli f X,Y Z (x, y z) = f X Z (x z) f Y Z (y z), kaikilla x, y ja z (9.13) Vastaavasti, satunnaisvektorit X 1,..., X n ovat riippumattomia ehdolla Z, mikäli f X1,...,X n Z(x 1,..., x n z) = kaikilla x 1,..., x n ja kaikilla z. n f Xi Z(x i z) i=1

Riippumattomuus ja ehdollinen riippumattomuus ovat eri asioita Ehdollisesti riippumattomat satunnaisvektorit eivät tyypillisesti ole marginaalisesti riippumattomia, eli riippumattomia niiden (reuna-)yhteisreunajakaumassa. Esim. jos (X Y) Z, niin f X,Y (x, y) = f X,Y Z (x, y z) f Z (z) dz = f X Z (x z) f Y Z (y z) f Z (z) dz, eikä tämä tyypillisesti enää faktoroidu.

9.5 Tilastollisia malleja Tilastolliseen päättelyyn on kaksi pääasiallista lähestymistapaa: ns. frekventistinen päättely ja Bayes-päättely. Ne molemmat perustuvat uskottavuusfunktion käyttöön. Jotta uskottavuusfunktio saataisiin selville, pitää selvittää havaintosatunnaisvektorin tiheys (esim. ypntf tai ytf).

Tilastollisen päättelyn perusasetelma Meillä on numeerinen aineisto vektorin y = (y 1,..., y n ) muodossa. Ennen havaintojen tekoa aineiston arvot ovat epävarmoja (mittausvirheiden, populaation luonnollisen vaihtelun tms. syyn takia). Mallinnamme tilanteen niin, että y on jollakin perusjoukolla Ω määritellyn satunnaisvektorin Y havaittu arvo, ts. y = Y(ω act ), jossa ω act on todennäköisyysmallissa aktualisoitunut alkeistapaus.

Tilastollinen malli Tyypillisesti vektorin Y jakauma mallinnetaan parametrisella mallilla, jossa on yksi tai useampia parametreja θ 1,..., θ p, jotka kootaan parametrivektoriksi θ. Kun parametrivektorin arvo on kiinnitetty, niin tilastollisessa mallissa sv:n Y jakauman esittää tiheys y f (y θ). Kiinnostuksen kohteena on sv:n Y jakauma. Sitä voidaan arvoida, jos ensin arvioidaan eli estimoidaan tuntematonta parametrivektoria θ.

Uskottavuusfunktio Kun aineisto y on havaittu, ja havaittua arvoa käytetään funktion f (y θ) ensimmäisenä argumenttina, niin funktiota θ f (y θ) kutsutaan uskottavuusfunktioksi (engl. likelihood function). Tässä yhteydessä tiheysfunktiosta saatetaan jättää pois kertoimia, jotka eivät riipu parametrivektorista θ, ja silti kyseistä funktiota edelleen kutsutaan uskottavuusfunktioksi.

Frekventistinen päättely Ns. klassisessa eli frekventistisessä tilastotieteessä parametrivektoria θ pidetään tuntemattomana vakiona, josta tiedetään vain, missä joukossa (eli parametriavaruudessa) sen arvot voivat olla. Tällöin merkintään f (y θ) ei liitetä tulkintaa ehdollisena jakaumana, koska parametrivektorille ei ole olemassa mitään todennäköisyysjakaumaa. Tyypillisempi merkintä olisikin f (y; θ). Uskottavuusfunktiota esim. maksimoidaan, jolloin saadaan määriteltyä suurimman uskottavuuden estimaatti.

Bayes-päättely Bayes-päättelyssä parametrivektoria pidetään satunnaisvektorin Θ arvona. Funktio f (y θ) ja ehdollinen jakauma f Y Θ (y θ) samastetaan. Bayes-päättelyssä tilastollisessa mallissa tarvitaan uskottavuusfunktion lisäksi reunajakauma vektorille Θ. Tätä kutsutaan priorijakaumaksi. Sen on tarkoitus kuvata ennen havaintoja olevaa tietoa parmetrien järkevistä arvoista.

Bayes-päättely: uskottavuusfunktiosta ja priorista posterioriin Parametrivektorin ja havaintovektorin yhteisjakauman esittää tiheys (y, θ) f Θ,Y (θ, y) = f Θ (θ) f Y Θ (y θ). Kun on saatu havainto Y = y, niin tilastolliset päätelmät tehdään karakterisoimalla parametrivektorin posteriorijakaumaa, joka on ehdollinen jakauma f Θ Y (θ y) = f Θ,Y(θ, y) f Y (y) = f Θ(θ) f Y Θ (y θ) fθ (t) f Y Θ (y t) dt

Mihin tilastotieteessä tarvitaan moniulotteisia jakaumia? Kummassakin tilastollisen päättelyn lähestymistavassa tarvitaan konkreettinen kaava uskottavuusfunktiolle. Uskottavuusfunktio on havaintosatunnaisvektorin yhteisjakauman tiheys (esim. yptnf tai ytf) ajateltuna tuntemattoman parametrivektorin funktiona, kun havainnot on siihen sijoitettu. Tämän takia tilastotieteilijän pitää osata johtaa moniulotteisten satunnaisvektoreiden tiheyksiä. Monisteessa on tästä joitakin esimerkkejä.

9.6 Tiheysfunktion muuntokaava Tarkastelemme diffeomorfisimia g : A B, jossa A, B R n ovat avoimia joukkoja. Tällöin g:llä on käänteisfunktio h : B A, ja sekä g että h ovat jatkuvasti derivoituvia. Näiden kuvausten komponenttifunktiot ovat g = (g 1,..., g n ), h = (h 1,..., h n ). Nämä funktiot määrittelevät bijektiivisen vastaavuuden koordinaattien x ja y välillä kaavoilla y = g(x) x = h(y). Tätä ajatusta voidaan merkitä vaihtoehtoisesti kaavoilla y = y(x) x = x(y).

Merkintä osittaisderivaatoille Otamme käyttöön merkinnän D i h j (y) tarkoittamaan reaaliarvoisen funktion h j osittaisderivaattaa sen i:nnen argumentin suhteen pisteessä y, ts. D i h j (y) = y i h j (y).

Derivaattamatriisi ja jacobiaani Kuvauksen h = (h 1,..., h n ) derivaatta tai derivaattamatriisi (tai Jacobin matriisi) pisteessä y B on D 1 h 1 (y) D 2 h 1 (y)... D n h 1 (y) D 1 h 2 (y) D 2 h 2 (y)... D n h 2 (y)...... D 1 h n (y) D 2 h n (y)... D n h n (y) Kuvauksen h jacobiaani, eli Jacobin determinantti eli funktionaalideterminantti J h (y) = x y = (x 1,..., x n ) (y 1,..., y n ) on derivaattamatriisin determinantti.

Tiheysfunktion muuntokaava Lause 9.3 Jos g : A B on diffeomorfismi, h : B A on sen käänteiskuvaus, eli h = g 1, ja sv:lla X on jatkuva jakauma, ja P(X A) = 1, niin sv:lla Y = g(x) on jatkuva jakauma tf:lla ja nolla muualla. f Y (y) = f X (h(y)) J h (y), kun y B, Todistus on suora seuraus n-ulotteisten integraalien muuntokaavasta (jossa integraali pitää ymmärtää Lebesguen integraaliksi).

Muistisääntö Tiheysfunktion muuntokaava (diffeomorfismille) kannattaa pitää mielessään muodossa f X (x) x = f Y (y) y, kun (9.14) y = g(x) x = h(y), x A, y B (9.15)

Tiheysfunktion muuntuminen affiinissa muunnoksessa Jos A on vakiomatriisi ja b on vakiovektori siten, että seuraavassa kaavassa dimensiot ovat yhteensopivia, niin funktiota g(x) = Ax + b, x R n. kutsutaan affiiniksi muunnokseksi. Jos A on kääntyvä matriisi (jolloin se on neliömatriisi), niin tämän kuvauksen käänteiskuvaus on myös affiini, sillä y = g(x) = Ax + b x = A 1 (y b) = h(y)

Muuntokaava affiinille kuvaukselle jatkoa Kuvauksen h(y) = A 1 (y b) derivaattamatriisi on A 1, joten jacobiaaniksi saadaan J h (y) = x y = det(a 1 ) = 1 det(a). Jos X on n-ulotteinen sv, jolla on jatkuva jakauma, ja sv Y määritellään kaavalla Y = g(x), niin muistisäännöstä f X (x) x = f Y (y) y saadaan tulos f Y (y) = f X (x) x y = f X(A 1 (y b)) 1 det(a).

9.7 Satunnaisvektorin momenttiemäfunktio Määritelmä 9.3 Satunnaisvektorin X = (X 1,..., X n ) momenttiemäfunktio, eli satunnaismuuttujien X 1,..., X n yhteismomenttiemäfunktio on ( n M(t) = M X (t) = E exp(t X) = E exp t j X j ), niillä t = (t 1,..., t n ) R n, joilla odotusarvo on määritelty. Sv:n X kumulanttiemäfunktio (eli sm:ien X 1,... X n yhteiskumulanttiemäfunktio) on K(t) = K X (t) = ln M X (t), niillä t R n, joilla M(t) on määritelty. j=1

Momenttiemäfunktion ominaisuuksia Lause 9.4 Jos M X (t) on olemassa jossakin epätyhjässä origon ympäristössä, niin M X määrää sv:n X jakauman. Kertaluvun (k 1,..., k n ) momentti saadaan laskettuna tiettynä momenttiemäfunktion osittaisderivaattana (ks. moniste).

Osista kootun satunnaisvektorin momenttiemäfunktio Lause 9.6 Olkoon X = (Y, Z) sellainen sv, että sen momenttiemäfunktio M X (t) on olemassa jossakin origon ympäristössä. Olkoon t = (u, v) ositettu samandimensioisiin osiin kuin Y and Z. Tällöin (a) Sv:ien Y ja Z momenttiemäfunktiot ovat M Y (u) = M X (u, 0), M Z (v) = M X (0, v). (b) Y Z jos ja vain jos kaikilla riittävän pienillä u ja v. M X (u, v) = M Y (u) M Z (v). Todistus taululla. Hankalinta on todistaa, että riippumattomuus seuraa momenttiemäfunktion jakautumisesta tekijöihin.