Luento 2. Yksiparametrisia malleja. Binomi-malli. Posteriorijakauman esittämisestä. Informatiivisista priorijakaumista. Konjugaattipriori.

Samankaltaiset tiedostot
Binomi Jacob Bernoulli ( ), Bayes ( ) Normaali de Moivre ( ), Laplace ( ), Gauss ( )

exp Luento 3 Normaalijakauma (Gaussian) Normaalijakauma tunnetulla varianssilla Normaalijakauma tunnetulla keskiarvolla Poisson-mallli

S Bayesilaisen mallintamisen perusteet

- voidaan käyttä lisämään tieteellistä ymmärrystä ilmiöstä. - joidenkin havaittavien suureiden vaikutus voi olla paljon suurempi kuin toisten

exp p(y θ) = 1 2πσ θ)2 2σ 2(y y N(θ, σ 2 ) Luento 3 Normaalijakauma (Gaussian) Normaalijakauma tunnetulla varianssilla

Viime kerralla. Luento 6. Normaalijakauma-approksimaatio - moodi. - havaittu informaatio

p(θ 1 y) on marginaalijakauma p(θ 1 θ 2, y) on ehdollinen posteriorijakauma Viime kerralla Termejä viime kerralta Marginalisointi Marginaalijakauma

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

Tentin materiaali. Sivia: luvut 1,2, , ,5. MacKay: luku 30. Gelman, 1995: Inference and monitoring convergence

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

θ 1 θ 2 θ n y i1 y i2 y in Luento 6 Hierarkkinen malli Johdatus hierarkkisiin malleihin - joskus myös termillä multilevel model

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Posteriorijakauman normaalijakauma-approksimaatio. Usein posteriorijakauma lähestyy normaalijakaumaa kun n

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Bayesilainen päätöksenteko / Bayesian decision theory

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Tilastollinen aineisto Luottamusväli

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

S Bayesilaisen mallintamisen perusteet

Luku 10. Bayesläiset estimaattorit Bayesläiset piste-estimaatit. Lasse Leskelä Aalto-yliopisto 18. lokakuuta 2017

Pikajohdatus bayesilaiseen tilastoanalyysiin ja monimuuttuja-analyysiin

Luento 11. Muutama hyödyllinen Monte Carlo-menetelmä. Muutama hyödyllinen Monte Carlo-menetelmä. Mitä muuta hyödyllistä Gelman et al kirjasta löytyy

Tilastollisen analyysin perusteet Luento 1: Lokaatio ja hajonta

Väliestimointi (jatkoa) Heliövaara 1

Bayes-mallinnus siltana teorian ja empiirisen evidenssin välillä

Bayesilaisen mallintamisen perusteet

Bayesilaisen mallintamisen perusteet kurssin sisältö

Estimointi. Vilkkumaa / Kuusinen 1

p(y θ, M) p(θ M)dθ p(θ y, M) = p(y M) Luento 10 Marginaaliuskottavuus Bayes-tekijä Mallin odotettu hyöty DIC (Deviance Information Criterion)

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Jatkuvia jakaumia

Otosavaruus ja todennäköisyys Otosavaruus Ë on joukko, jonka alkiot ovat kokeen tulokset Tapahtuma on otosavaruuden osajoukko

POPULAATIO. Oikeastaan arvot, joista ollaan kiinnostuneita (mitatut numeeriset suureet, luokittelut).

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

TILASTOLLINEN OPPIMINEN

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Markov-ketju Monte Carlo - konvergenssidiagnostiikka (convergence diagnostics) - odotettu hyöty tai kustannus (expected utility or cost)

Bayesiläinen tilastollinen vaihtelu

Tutkimustiedonhallinnan peruskurssi

tilastotieteen kertaus

Sovellettu todennäköisyyslaskenta B

Tilastollinen päättely II, kevät 2017 Harjoitus 1A

Sovellettu todennäköisyyslaskenta B

1. Tilastollinen malli??

Sovellettu todennäköisyyslaskenta B

Diskreetin satunnaismuuttujan odotusarvo, keskihajonta ja varianssi

Tilastollinen päättely, 10 op, 4 ov

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Parametrin estimointi ja bootstrap-otanta

Tilastollisen analyysin perusteet Luento 1: Lokaatio ja hajonta

Juuri 10 Tehtävien ratkaisut Kustannusosakeyhtiö Otava päivitetty

Todennäköisyyden ominaisuuksia

Gripenberg. MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta

TEKNILLINEN KORKEAKOULU ERIKOISTYÖ. koulutusohjelma MUUTOSPISTEIDEN TUNNISTAMINEN BAYESILAISELLA ANALYYSILLA

Bayesläiset tilastolliset mallit

Harjoitus 7: NCSS - Tilastollinen analyysi

Todennäköisyysjakaumia

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

Tilastotieteen aihehakemisto

Maximum likelihood-estimointi Alkeet

Osa 2: Otokset, otosjakaumat ja estimointi

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

Log-tiheydet - yli- ja alivuotojen välttämiseksi laskenta usein suoritettava log-tiheyksillä

5. laskuharjoituskierros, vko 8, ratkaisut

Teema 8: Parametrien estimointi ja luottamusvälit

3.6 Su-estimaattorien asymptotiikka

Demonstraatiot Luento 7 D7/1 D7/2 D7/3

riippumattomia ja noudattavat samaa jakaumaa.

Diskreetit todennäköisyysjakaumat. Kertymäfunktio Odotusarvo Binomijakauma Poisson-jakauma

Johdatus todennäköisyyslaskentaan Jatkuvia jakaumia. TKK (c) Ilkka Mellin (2005) 1

2. Uskottavuus ja informaatio

Mitä on bayesilainen päättely?

4. Todennäköisyyslaskennan kertausta

9. laskuharjoituskierros, vko 12-13, ratkaisut

Jos oletetaan, että sairaaloissa on eroja, kaikki potilaat eivät ole vaihtokelpoisia keskenään

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1

ORMS2020 Päätöksenteko epävarmuuden vallitessa Syksy 2010 Harjoitus 4

Sovellettu todennäköisyyslaskenta B

Estimointi populaation tuntemattoman parametrin arviointia otossuureen avulla Otossuure satunnaisotoksen avulla määritelty funktio

Harjoitus 2: Matlab - Statistical Toolbox

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

Lisätehtäviä ratkaisuineen luentomonisteen lukuun 6 liittyen., jos otoskeskiarvo on suurempi kuin 13,96. Mikä on testissä käytetty α:n arvo?

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:

Jatkuvat satunnaismuuttujat

Kun datasta halutaan muodostaa malleja, ne ovat yleensä tilastollisia (esim. regressio, luokittelu, ryhmittely...) F(x 0 ) = P(x x 0 ) (1)

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Bayesin pelit. Kalle Siukola. MS-E2142 Optimointiopin seminaari: Peliteoria ja tekoäly

MTTTP5, luento Otossuureita ja niiden jakaumia (jatkuu)

pisteet Frekvenssi frekvenssi Yhteensä

ABHELSINKI UNIVERSITY OF TECHNOLOGY

(b) Onko hyvä idea laske pinta-alan odotusarvo lähetmällä oletuksesta, että keppi katkeaa katkaisukohdan odotusarvon kohdalla?

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

BECS Bayesilainen mallintaminen Lyhyt englanti-suomi sanasto

3.7 Todennäköisyysjakaumia

805306A Johdatus monimuuttujamenetelmiin, 5 op

Transkriptio:

Luento 2 Binomi-malli Posteriorijakauman esittämisestä Informatiivisista priorijakaumista Konjugaattipriori Slide 1 Yksiparametrisia malleja Binomi Jacob Bernoulli (1654-1705), Bayes (1702-1761) Normaali Gauss (1777-1855) Poisson Poisson (1781-1840) Exponential Laplace (1749-1827) Slide 2

Binomijakauma Data y 1,...,y n, joista jokainen on 0 tai 1 Luonnollinen malli kun tehdään keskenään vaihtokelpoisia (exchangeable) toistokokeita tai poimintoja suuresta populaatiosta, joissa jokaisen kokeen tulos voi olla yksi kahdesta vaihtoehdosta (usein success ja failure ) Esimerkkejä Slide 3 - Bernoullin koe, missä laatikosta poimitaan kahden värisiä palloja - kolikonheitto - tyttö- ja poikavauvojen suhde Binomijakauma Vaihtokelpoisuuden vuoksi data voidaan esittää kertomalla onnistumisten määrä y ja kokeiden kokonaismäärä n Olettamalla binomi-malli ja onnistumistodennäköisyyttä kuvaava parametri θ, voidaan toimia aivan kuin kokeiden tulokset olisivat riippumattomia (independent) ja identtisesti jakautuneita ehdolla malli M ja parametri θ Slide 4 p(y θ,n, M) = Bin(y n,θ) = ( ) n θ y (1 θ) n y y missä n oletetaan fiksatuksi ja osaksi koesuunnittelua (eli ei parametri)

θ :n posteriori Bayesin kaavan mukaan p(θ y, n, M) = p(y θ,n, M)p(θ n, M) p(y n, M) Yksinkertaistuksen vuoksi aloitetaan helpolla priorilla Slide 5 p(θ n, M) = p(θ M) = 1, kun 0 θ 1 Jolloin p(θ n, M) θ y (1 θ) n y Ja kaikkihan heti tunnistavat tästä, että θ y, n Beta(y + 1, n y + 1) Jakaumista Jos p(θ)dθ =, p(θ) on improper Jos p(θ)dθ = Z = 1, p(θ) on normalisoimaton Jos p(θ)dθ = 1, p(θ) on proper ja normalisoitu Slide 6

Matlab demonstraatio: Beta-jakauma n=5, y=3 n=20, y=12 n=100, y=60 n=1000, y=600 Slide 7 Esimerkki: tyttövauvojen suhteellinen osuus Pariisissa syntyi 241945 tyttöä ja 251527 poikaa vuosina 1745 1770 Laplace ei vielä osannut Beta-integraalia, joten kehitti normaalijakauma-approksimaation Slide 8 Laplace laski 241945 ˆθ = σ = 241945+251527 0.4903 0.4903(1 0.4903) 241945+251527 0.0007 p(θ 0.5 y, n, M) 1.15 10 42 Laplace kirjoitti olevansa morally certain, että θ<0.5

Ennustaminen Laplace laski (Laplace s law of succession) Slide 9 p(ỹ = 1 y, n, M) = = 1 0 1 0 = y + 1 n + 2 p(ỹ = 1 θ, y, n, M)p(θ y, n, M)dθ θp(θ y, n, M)dθ Ääritapaukset p(ỹ = 1 y = 0, n, M) = 1 n + 2 p(ỹ = 1 y = n, n, M) = n + 1 n + 2 Vrt. maximum likelihood Posteriorijakaumien esittäminen Posteriorijakauma sisältää kaiken sen hetkisen informaation parametrista θ Ideaalitapauksesa voisi raportoida koko posteriorijakauman Usein käytettyjä yhteenvetoesityksiä paikalle (location) - keskiarvo (mean) Slide 10 - mediaani - moodi(t) Usein käytettyjä yhteenvetoesityksiä variaatiolle (variation) - hajonta (standard deviation) - kvantiilit

Posteriorijakaumien esittäminen Keskiarvo on parametrin posterioriodotusarvo optimaalinen valinta neliösummavirheen perusteella Mediaanin molemilla puolilla yhtä paljon todennäköisyysmassaa optimaalinen valinta absoluuttivirheen perusteella Slide 11 Moodi on yksittäinen todennäköisin arvo Hajonta kuvaa normaalijakauman leveyden, joten kuvaa hyvin myös lähellä normaalijakaumaa olevia jakaumia Posteriorijakaumien esittäminen Kun posteriorijakaumalla on suljettu muoto voidaan keskiarvo, mediaani ja hajonta usein saada myös suljetussa muodossa esim. Beta(y + 1, n y + 1):n keskiarvo on y+1 n+2 Jos suljettua muotoa ei ole, voidaan käyttää normaalijakauma-approksimaatiota tai numeerista integrointia (esim. Monte Carlo) Slide 12

Posteriori-intervallit Luottovälit (credible interval) (vrt. frekventistit: luottamusväli (confidence interval) Highest posterior density (HPD) interval Slide 13 Suljetunmuodon jakaumille usein helppo laskea kumulatiivisista jakaumista (CDF), ja muille sitten numeerisesti Todennäköisyydet Todennäköisyydet, p-arvot p(θ A y, M) Slide 14

Päätösanalyysi Tästä myöhemmin... Slide 15 Ongelmallisia Moniulotteiset jakaumat Multimodaaliset jakaumat Slide 16

Priorijakaumista Populaatioon perustuvat - eli populaation perustuva posteriorijakauma priorina Tietämyksen tilaan perustuvat - helppoa jos tietämyksen epävarmuus pieni (informatiiviset) - vaikeaa jos tietämyksemme on epävarmaa (ei-informatiiviset) Slide 17 - esitettävä myös epävarmuus Priorijakaumista Priorijakauman pitäisi kattaa kaikki edes jotenkin mahdolliset parametrin arvot - jos dataa riittävästi likelihood voi dominoida posteriorijakaumassa ja priorin muodolla ei niin paljon väliä - jos dataa vähän voi priorijakauman muoto vaikuttaa paljon Slide 18

Perustelu aiemmin käyttämällemme priorille Uniformi priori θ:lle, jolloin prioriprediktiivinen jakauma p(y n) = 1 n + 1, y = 0,...,n Slide 19 Bayesin perustelu ilmeisesti perustui tähän - mukava perustelu, koska se voidaan esittää pelkästään havaittavien suureiden y ja n avulla Laplacen perustelu ilmeisesti suoraan θ:lle indifference periaatteen mukaisesti Konjugaattipriorit Virallinen määritelmä jos p( y) P kaikille p(y ) F ja p( ) P tämä kuitenkin liian väljä määritelmä jos valitaan, että P on kaikkien jakaumien joukko Slide 20 Kiinnostavampia ovat luonnolliset konjugaattipriorit, jolloin priori ja posteriori samasta funktioperheestä (samat parametrit) Laskennallisesti mukavia Voidaan tulkita prioridatana

Beta-priori Binomi-jakaumalle Priori Beta(θ α, β) θ α 1 (1 θ) β 1 Slide 21 Posteriori p(θ y, n, M) θ y (1 θ) n y θ α 1 (1 θ) β 1 = θ y+α 1 (1 θ) n y+β 1 = Beta(θ α + y,β+ n y) Voidaan tulkita, että (α 1) ja (β 1) priorinäytteitä Uniformipriori kun (α 1) = 0 ja (β 1) = 0 Beta-priori Binomi-jakaumalle Posteriori p(θ y, n, M) = Beta(θ α + y,β+ n y) Odotusarvo ja hajonta Slide 22 E[θ] = α + y α + β + n E[θ](1 E[θ]) Var[θ] = α + β + n + 1

Konjugaattiprioreista Konjugaattipriorit mukavia kuten myös standardimallitkin - tulkinnan helppous - jakaumat suljettua muotoa - laskennallinen mukavuus - tärkeitä rakennuspalikoita monimutkaisemmissakin malleissa Slide 23 - mixturepriorit ja -mallit laajentavat mahdollisuuksia Ei-konjugaattiset käsitteellisesti yhtä helppoja - laskenta vaikeampaa, mutta ei mahdotonta - ei tarvetta tehdä kompromissia tietämyksen esittämisessä Esimerkki priorin vaikutuksesta Eteisistukkatapauksissa 437 tyttövauvaa ja 543 poikavauvaa - Poikkeaako tyttövauvan todennäköisyys yleisestä (0.485)? Slide 24 Uniformipriorilla posteriori on Beta(438, 544) - keskiarvo 0.446 ja hajonta 0.016-95% posterioriväli [0.415, 0.477] - p(θ < 0.485) = 0.99 Matlab-demo