- voidaan käyttä lisämään tieteellistä ymmärrystä ilmiöstä. - joidenkin havaittavien suureiden vaikutus voi olla paljon suurempi kuin toisten

Samankaltaiset tiedostot
exp Luento 3 Normaalijakauma (Gaussian) Normaalijakauma tunnetulla varianssilla Normaalijakauma tunnetulla keskiarvolla Poisson-mallli

S Bayesilaisen mallintamisen perusteet

p(θ 1 y) on marginaalijakauma p(θ 1 θ 2, y) on ehdollinen posteriorijakauma Viime kerralla Termejä viime kerralta Marginalisointi Marginaalijakauma

exp p(y θ) = 1 2πσ θ)2 2σ 2(y y N(θ, σ 2 ) Luento 3 Normaalijakauma (Gaussian) Normaalijakauma tunnetulla varianssilla

Luento 2. Yksiparametrisia malleja. Binomi-malli. Posteriorijakauman esittämisestä. Informatiivisista priorijakaumista. Konjugaattipriori.

Viime kerralla. Luento 6. Normaalijakauma-approksimaatio - moodi. - havaittu informaatio

θ 1 θ 2 θ n y i1 y i2 y in Luento 6 Hierarkkinen malli Johdatus hierarkkisiin malleihin - joskus myös termillä multilevel model

Posteriorijakauman normaalijakauma-approksimaatio. Usein posteriorijakauma lähestyy normaalijakaumaa kun n

Pikajohdatus bayesilaiseen tilastoanalyysiin ja monimuuttuja-analyysiin

Bayesilainen päätöksenteko / Bayesian decision theory

Mitä on bayesilainen päättely?

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

Binomi Jacob Bernoulli ( ), Bayes ( ) Normaali de Moivre ( ), Laplace ( ), Gauss ( )

Tilastollinen aineisto Luottamusväli

Sovellettu todennäköisyyslaskenta B

Estimointi. Vilkkumaa / Kuusinen 1

1. Tilastollinen malli??

805306A Johdatus monimuuttujamenetelmiin, 5 op

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

5.7 Uskottavuusfunktioon perustuvia testejä II

2. Uskottavuus ja informaatio

Tentin materiaali. Sivia: luvut 1,2, , ,5. MacKay: luku 30. Gelman, 1995: Inference and monitoring convergence

HY, MTO / Matemaattisten tieteiden kandiohjelma Tilastollinen päättely II, kevät 2018 Harjoitus 8B Ratkaisuehdotuksia.

Väliestimointi (jatkoa) Heliövaara 1

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Jatkuvia jakaumia

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

Harjoitus 7: NCSS - Tilastollinen analyysi

Luento 11. Muutama hyödyllinen Monte Carlo-menetelmä. Muutama hyödyllinen Monte Carlo-menetelmä. Mitä muuta hyödyllistä Gelman et al kirjasta löytyy

3.6 Su-estimaattorien asymptotiikka

Sovellettu todennäköisyyslaskenta B

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

tilastotieteen kertaus

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Todennäköisyyden ominaisuuksia

Log-tiheydet - yli- ja alivuotojen välttämiseksi laskenta usein suoritettava log-tiheyksillä

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:

Yksisuuntainen varianssianalyysi (jatkoa) Heliövaara 1

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Markov-ketju Monte Carlo - konvergenssidiagnostiikka (convergence diagnostics) - odotettu hyöty tai kustannus (expected utility or cost)

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1

Sovellettu todennäköisyyslaskenta B

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Uskottavuuden ominaisuuksia

Tämän luvun sisältö. Luku 5. Estimointiteorian perusteita. Perusjakaumat 1-ulotteisina (2) Perusjakaumat 1-ulotteisina

Sovellettu todennäköisyyslaskenta B

Kun datasta halutaan muodostaa malleja, ne ovat yleensä tilastollisia (esim. regressio, luokittelu, ryhmittely...) F(x 0 ) = P(x x 0 ) (1)

806109P TILASTOTIETEEN PERUSMENETELMÄT I Hanna Heikkinen Esimerkkejä estimoinnista ja merkitsevyystestauksesta, syksy (1 α) = 99 1 α = 0.

Tilastollinen päättely II, kevät 2017 Harjoitus 1A

4.2.2 Uskottavuusfunktio f Y (y 0 X = x)

Luku 5. Estimointiteorian perusteita

p(y θ, M) p(θ M)dθ p(θ y, M) = p(y M) Luento 10 Marginaaliuskottavuus Bayes-tekijä Mallin odotettu hyöty DIC (Deviance Information Criterion)

Gaussiset prosessit derivaattahavainnoilla regressio-ongelmassa (valmiin työn esittely)

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

S Bayesilaisen mallintamisen perusteet

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Yksisuuntainen varianssianalyysi (jatkoa) Kuusinen/Heliövaara 1

Tilastollisen analyysin perusteet Luento 10: Johdatus varianssianalyysiin

Sovellettu todennäköisyyslaskenta B

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2005) 1

Generointi yksinkertaisista diskreeteistä jakaumista

Sovellettu todennäköisyyslaskenta B

P (A)P (B A). P (B) P (A B) = P (A = 0)P (B = 1 A = 0) P (B = 1) P (A = 1)P (B = 1 A = 1) P (B = 1)

Sovellettu todennäköisyyslaskenta B

Bayesiläinen tilastollinen vaihtelu

Maximum likelihood-estimointi Alkeet

Luku 10. Bayesläiset estimaattorit Bayesläiset piste-estimaatit. Lasse Leskelä Aalto-yliopisto 18. lokakuuta 2017

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Odotusarvoparien vertailu. Vilkkumaa / Kuusinen 1

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,

HY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät Ratkaisuehdotuksia

Jos oletetaan, että sairaaloissa on eroja, kaikki potilaat eivät ole vaihtokelpoisia keskenään

Tilastollisen analyysin perusteet Luento 2: Tilastolliset testit

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

Tilastotieteen aihehakemisto

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä

Bayesläiset tilastolliset mallit

Johdatus varianssianalyysiin. Vilkkumaa / Kuusinen 1

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

Tilastollinen päättely, 10 op, 4 ov

Sovellettu todennäköisyyslaskenta B

Bayes-mallinnus siltana teorian ja empiirisen evidenssin välillä

Bayesilaisen mallintamisen perusteet kurssin sisältö

edellyttää valintaa takaisinpanolla Aritmeettinen keskiarvo Jos, ½ Ò muodostavat satunnaisotoksen :n jakaumasta niin Otosvarianssi Ë ¾

Testejä suhdeasteikollisille muuttujille

Ryhmäfaktorianalyysi neurotiedesovelluksissa (Valmiin työn esittely) Sami Remes Ohjaaja: TkT Arto Klami Valvoja: Prof.

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

pitkittäisaineistoissa

Tilastolliset menetelmät. Osa 3: Tilastolliset testit. Tilastollinen testaus KE (2014) 1

Satunnaismuuttujien muunnokset ja niiden jakaumat

Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Bayesilaisen mallintamisen perusteet

Kaksisuuntainen varianssianalyysi. Heliövaara 1

VALTIOTIETEELLINEN TIEDEKUNTA TILASTOTIETEEN VALINTAKOE Ratkaisut ja arvostelu < X 170

Laskennallinen data-analyysi II

Transkriptio:

Viime kerralla Normaalijakauma tunnetulla varianssilla Normaalijakauma tunnetulla keskiarvolla Poisson-mallli Exponentiaalinen malli Slide 1 Cauchy-jakauma Ei-informatiivisista priorijakaumista Bayesilaisen mallintamisen perusteet Malli - pyrkii ennustamaan ilmiön käyttäytymistä - usein yksinkertaistaa todellisuutta - voidaan käyttää ennustamaan tulevaisuutta - voidaan käyttä lisämään tieteellistä ymmärrystä ilmiöstä Slide Yksinkertaistaa koska - ilmiöstä saadut havainnot rajoitettuja - joidenkin havaittavien suureiden vaikutus voi olla paljon suurempi kuin toisten - yksinkertainenkin malli voi tuottaa hyödyllisiä ennusteita

Esimerkki Pudotetaan palloa eri korkeuksilta ja mitataan putoamisaika sekunttikellolla käsivaralla - Newtonin mekaniikka - ilmanvastus, ilmanpaine, pallon muoto, pallon pintarakenne - ilmavirtaukset Slide 3 - suhteellisuusteoria Ottaen huomioon mittaukset, kuinka tarkka malli kannattaa tehdä? On olemassa hyvin paljon tilanteita, joissa yksinkertaiset mallit hyödyllisiä ja käytännön kannalta yhtä tarkkoja kuin monimutkaisemmat! Luento Marginalisointi Marginaalijakauma nuisance parameters - "kiusaparametri" (huono termi parametreille, jotka voivat olla erittäin tärkeitä ja hyödyllisiä) Slide Normaalijakauma - ei-informatiivinen priori - konjugaattipriori - semi-konjugaattipriori Multinomijakauma - binomijakauman yleistys Moniulotteinen normaalijakauma

Marginalisointi - marginaalijakauma Yhteisjakauma p(θ 1, θ y) p(y θ 1, θ )p(θ 1, θ ) Marginalisointi p(θ 1 y) = p(θ 1, θ y)dθ Slide 5 p(θ 1 y) on marginaalijakauma Marginalisointi - marginaalijakauma Tavoitteena saada marginaaliposteriorijakauma kiinnostavasta tuntemattomasta suureesta - jokin mallin parametreista - joku muu ei havaittu suure kuten havainto tulevaisuudessa Periaate Slide - muodostetaan kaikkien tuntemattomien yhteisposteriorijakauma p(θ 1, θ y) p(y θ 1, θ )p(θ 1, θ ) - integroidaan tämä jakauma kaikkien niiden tuntemattomien yli, joiden arvot eivät suoraan kiinnosta meitä p(θ 1 y) = p(θ 1, θ y)dθ

Esimerkki marginalisoinnista - ennustava jakauma Yhteisjakauma p(ỹ, θ y) p(ỹ θ)p(θ y) Slide 7 Marginalisointi p(ỹ y) = p(ỹ y) on ennustava jakauma p(ỹ θ)p(θ y)dθ Esimerkki marginalisoinnista - ennustava jakauma Ennustava jakauma simuloinnilla Koska tässä tapauksessa p(ỹ y) = p(ỹ θ)p(θ y)dθ Slide 8 voidaan ensin poimia näytteitä θ i jakaumasta p(θ y) ja sitten näytteitä ỹ i jakaumasta p(ỹ θ), nyt ỹ i ovat jakaumasta p(ỹ y) Usein yhteisjakauma faktoroidaan ja integraali p(θ 1 y) = voidaan helposti approksimoida simuloinnilla p(θ 1 θ, y)p(θ y)dθ

Esimerkki marginalisoinnista - normaalijakauma Normaalijakaumamalli y µ, σ N(µ, σ ) µ = θ 1 ja σ = θ Usein µ kiinnostavampi Jos molemmat parametrit kiinnostavia, marginaalijakaumilla voidaan havainnollistaa yhteisjakaumaa Slide 9 Matlab-demo (esim_1.m) y = [93, 11, 1, 135, 1, 150, 118, 90, 1, 11] Normaalijakauma - viime kerralla Normaalijakaumamalli tunnetulla varianssilla σ ja θ:n priorilla N(µ 0, τ0 ), jos prioriprecision 1/τ0 pieni verrattuna data precisioniin n/σ, niin posteriorijakauma on melkein sama kuin jos τ 0 p(θ y) N(θ ȳ, σ /n) =, eli p(θ) 1 Slide Normaalijakaumamalli tunnetulla keskiarvolla ja scaled inverse-χ priori σ :lle, jos priorin vapauasteet ν 0 pieni verrattuna datan vapausasteisiin n, niin posteriorijakauma on melkein sama kuin jos ν 0 = 0, eli p(σ ) 1/σ missä v = 1 n ni=1 (y i θ) p(σ y) Inv χ (σ n, v)

Normaalijakauma - ei-informatiivinen priori Edellisen kalvon mukainen perustelu tai Jeffreysin priori-menetelmän (luento 3) mukaisesti normaalijakaumalla ei-informatiivinen priori p(µ, σ ) 1/σ Slide 11 Normaalijakauma - ei-informatiivinen priori Slide 1 Yhteisposteriorijakauma ( ) p(µ, σ y) σ n exp 1 n σ (y i µ) i=1 ( [ n ]) = σ n exp 1 σ (y i ȳ) + n(ȳ µ) i=1 ( = σ n exp 1 [ σ (n 1)s + n(ȳ µ) ]) missä s = 1 n 1 n (y i ȳ) i=1 ȳ ja s (ja n) ovat sufficient statistics

Normaalijakauma - ei-informatiivinen priori Faktoroidaan p(µ, σ y) = p(µ σ, y)p(σ y) Ehdollinen posteriorijakauma p(µ σ, y) µ σ, y N(ȳ, σ /n) sama kuin normaalijakauma tunnetulla varianssilla Slide 13 Marginaaliposteriorijakauma p(σ y) p(σ y) σ n exp ( = σ n exp ( 1 [ σ (n 1)s + n(ȳ µ) ]) dµ ) 1 (n 1)s σ (σ ) (n+1)/ exp ( σ y Inv χ (n 1, s ) (n 1)s σ ) πσ /n Normaalijakauma - ei-informatiivinen priori Slide 1 Jos µ on kiinnostava, niin marginaaliposteriori p(µ y) on kiinnostava Muuttujanvaihdos z = p(µ y) = 0 p(µ, σ y)dσ A σ, missä A = (n 1)s + n(µ ȳ) Tunnistetaan, että tulos on normalisoimaton gamma-integraali p(µ y) A n/ z (n )/ exp( z)dz 0 [(n 1)s + n(µ ȳ) ] n/ ] n(µ ȳ) [1 + (n 1)s µ y t n 1 (ȳ, s /n)

Normaalijakauma - posterioriprediktiivinen jakauma p(ỹ y) = p(ỹ µ, σ, y)p(µ, σ y)dµdσ tästä on helppo vetää näytteitä, vetämällä ensin näytteitä ( µ, σ ) posteriorijakaumasta ja sitten näytteitä ỹ jakaumasta N( µ, σ ) Slide 15 Posterioriorediktiivinen jakauma voidaan myös laskea tarkasti; lasketaan ensin tunnetulla varianssilla p(ỹ σ, y) = p(ỹ µ, σ, y)p(µ σ, y)dµ = N(ỹ ȳ, (1 + 1 n )σ ) tämä on skaalaa lukuunottamatta sama kuin p(µ σ, y), joten edellisen kalvon perusteella ỹ y t n 1 (ȳ, (1 + 1 n )s ) Normaalijakauma - esimerkki Simon Newcombin koe vuonna 188 mittasi valon nopeutta Matlab-demo (esim_.m) Posterioripäätelmät voivat olla ainoastaan yhtä hyviä kuin käytetty malli ja kokeet jotka datan tuottivat Slide 1

Normaalijakauma - konjugaattipriori Konjugaattipriorin oltava tulomuotoa p(σ )p(µ σ ) Kätevä parametrisointi on µ σ N(µ 0, σ /κ 0 ) σ Inv χ (ν 0, σ0 ) Slide 17 joka voidaan merkitä myös p(µ, σ ) = N Inv χ (µ 0, σ 0 /κ 0; ν 0, σ 0 ) Tässä muodossa µ ja σ riippuvia a priori - esim: jos σ on iso, niin µ:n priorijakaumakin on leveä Normaalijakauma - konjugaattipriori Yhteisposteriorijakauma (tehtävä 3.9) p(µ, σ y) = N Inv χ (µ n, σ n /κ n; ν n, σ n ) Slide 18 missä µ n = κ 0 κ 0 + n µ 0 + n κ 0 + n ȳ κ n = κ 0 + n ν n = ν 0 + n ν n σ n = ν 0σ 0 + (n 1)s + κ 0n κ 0 + n (ȳ µ 0)

Normaalijakauma - konjugaattipriori Ehdollinen jakauma p(µ σ, y) µ σ, y N(µ n, σ /κ n ) = N ( κ0 µ σ 0 + n ȳ σ κ 0 + n, σ σ 1 κ 0 σ + n σ ) Slide 19 Marginaalijakauma p(σ y) σ y Inv χ (ν n, σ n ) Marginaalijakauma p(µ y) µ y t νn (µ µ n, σ n /κ n) Normaalijakauma - semikonjugaattipriori Usein käytetty semikonjugaattipriori µ σ N(µ 0, τ0 ) σ Inv χ (ν 0, σ0 ) missä µ ja σ a priori riippumattomia Slide 0 Ehdollinen jakauma p(µ σ, y) µ σ, y N(µ n, τ n ) missä µ n = 1 µ τ0 0 + n ȳ σ 1 τ 0 + n ja τn = 1 1 σ τ 0 + n σ

Normaalijakauma - semikonjugaattipriori Marginaalijakauma p(σ y) n p(σ y) τ n N(µ n, µ 0, τ0 )Inv χ (σ ν 0, σ0 ) N(y i µ n, σ ) i=1 Ei suljettua muotoa, mutta voidaan laskea numeerisesti Slide 1 Myöhemmin opitaan kuinka Markov-ketju Monte Carlolla voidaan helposti poimia näytteitä yhteisposteriorijakaumasta tässä semikonjugaattiprioritapauksessa Multinomijakauma Multinomijakauma on binomijakauman yleistys kun mahdollisia lopputuloksia useampi kuin kaksi Sopii yksinkertaiseksi malliksi esimerkiksi vaaligalluppeihin Jos y on vektori jossa eri lopputulosten havaitut lukumäärät, niin Slide p(y θ) k j=1 θ y j j, missä k j=1 θ j = 1 ja k j=1 y j = n

Multinomijakauma Konjugaattipriori on Beta-priorin moniulotteinen yleistys Dirichlet-jakauma missä k j=1 θ j = 1 p(θ α) k j=1 θ α j 1 j, Slide 3 Posteriorijakauma on Dirichlet(α + y) Priori vastaa k j=1 α j havaintoa, joista α j havaintoa lopputulosten luokasta j Uniformi priori jos α j = 1 kaikille j Esimerkki harjoituksissa Moniulotteinen normaalijakauma Havainnot moniulotteisia ja yhteisjakauman oletetaan olevan normaalijakautunut Likelihood y µ, N(µ, ) Slide missä µ on d:n pituinen vektori ja on d d kokoinen symmetrinen ja positiividefiniitti varianssimatriisi ( ) p(y µ, ) n/ exp 1 n (y i µ) T 1 (y i µ) i=1 ( = n/ exp 1 ) tr( 1 S 0 ) missä S 0 = n (y i µ)(y i µ) T i=1

Moniulotteinen normaalijakauma - konjugaattipriori Konjugaattipriori Marginaalijakauma p(µ y) Inv Wishart ν0 ( 1 0 ) µ N(µ 0, /κ 0 ) Slide 5 µ y t νn d+1(µ n, n /(κ n (ν n d + 1))) Moniulotteinen normaalijakauma - ei-informatiivinen priori Moniulotteinen Jeffreysin priori p(µ, ) (d+1)/ Marginaalijakauma p(µ y) µ y t n d ( µ, S/(n(n d))) Slide

Moniulotteinen normaalijakauma - ei-konjugaattiset priorit* Oikeissa ongelmissa Jeffreysin priori ja Inv-Wishart-priori toimivat usein hyvin huonosti Useita ei-konjugaattisia vaihtoehtoja Slide 7 Kirjan esimerkki: myrkyllisyyskoe Dose, x i Number of Number of (log g/ml) animals, n i deaths, y i Slide 8-0.8 5 0-0.30 5 1-0.05 5 3 0.73 5 5 Logistinen regressio logit(θ i ) = α + βx i Likelihood p(y i α, β, n i, x i ) [logit 1 (α + βx i )] y i [1 logit 1 (α + βx i )] n i y i Posteriori n p(α, β y, n, x) p(α, β) p(y i α, β, n i, x i ) i=1

Loppuhuomioita Harvoille malleille sujettu muotoinen posteriorijakauma, mutta ei haittaa koska voimme käyttää - normaalijakauma-approksimaatiota (luku ) - hierarkisia malleja (luku 5) - simulaatioita (luku 11) Slide 9 - variaatiolaskentaa* Yhteenveto yksinkertaisten mallien käsittelystä Kirjoita likelihood, jätä θ:sta riippumattomat termit pois Valitse priori Kirjoita posteriori Tee karkea arvio θ:lle Slide 30 Poimi näytteitä posteriorijakaumasta Poimi näytteitä prediktiivestä jakaumasta

Impedanssi Tomografia (EIT) -käänteisongelma Päättellään johtavuusjakauma impedanssimittauksista Ongelman tiedetään olevan vaikeasti kääntyvä 1 Slide 31 0.5 0 0.5 1 1 0.5 0 0.5 1 Simuloitu potentiaalikenttä putkessa Relative change in U 0 50 0 5 Electrode 15 Injection Potentiaalierot vierekkäisissä elektrodeissa 8 Käänteisongelman approksimaatio Bayesilaisella MLP-verkolla 0. 0.1 0 0.1 0.9 0 8 0. 0.1 0-0.00 5.59 0. 0.1 0.1 0 0 8-0.95-3.1 Slide 3 0.1 0.1 0 0.1 0.1 0 0. 0 8 0 8 0 8 0.80 1.55-0.13-5.9-3.18-1.8 Relative potentials 00 00 00 0 15 5 8 Injection Electrode 0.1 0.1 0 0. 0.1 0.1 0 0 8 0 8-0.9 0.17.7 -.18 0. 0 0. 0 8 EIT-mittaus PCA-projektio Bayesilainen PCA-hajotelma Rekonstruktio 18 0 MLP 0 1 1 0-30-0