S Bayesilaisen mallintamisen perusteet

Koko: px
Aloita esitys sivulta:

Download "S Bayesilaisen mallintamisen perusteet"

Transkriptio

1 S Bayesilaisen mallintamisen perusteet Laajuus: 5 op, L Opettajat: TkT Aki Vehtari, DI Simo Särkkä Slide 1 Sisältö: Bayesilainen todennäköisyysteoria ja bayesilainen päättely. Bayesilaiset mallit ja mallien analysointi. Laskennalliset menetelmät, Markov-ketju Monte Carlo. Suorittaminen: Tentti ja harjoitustyö Kirjallisuus: Gelman, Carlin, Stern & Rubin: Bayesian Data Analysis, Second Edition. Aikataulu: Luennot maanantaisin klo sali E111 Mikroharjoitukset torstaisin klo , mikroluokka Maari-B (Alkaen 15.9.). URL: Bayesilaisen mallintamisen perusteet kurssin sisältö Johdanto Yksiparametrisia malleja Moniparametrisia malleja Slide 2 Päättely suurten otosten tapauksessa ja bayesilaisen päättelyn frekvenssiominaisuudet Hierarkiset mallit Laskennallisia menetelmiä, Markov-ketju Monte Carlo Päätösanalyysi Mallien tarkistus, vertailu ja parannus Yhteenveto ja katsaus lisäaiheisiin

2 Suorittaminen Harjoitusraportti ja tentti Arvosana = 0.49 * harjoitusraportti * tentti Harjoitusraportti palautetaan osasta (14 tehtävää) viikottaisista mikroluokkaharjoitustehtävistä Slide 3 Tenttiin voi saada 2 lisäpistettä palauttamalla 3 laskutehtävää Mikroluokkaharjoitukset Läpikäytävät tehtävät listattu kurssin www-sivulla Alkupäässä joitakin laskutehtäviä, loput simulaatioita Assistentti auttaa tehtävien tekemisessä Slide 4 * merkityistä (14 kpl) palautetaan raportti - parityöskentely erittäin suositeltavaa + merkityt itseopiskeluun, osa muistuttaa tenttitehtäviä ++ merkityistä voi saada 3x2/3 lisäpistettä tenttiin

3 Harjoitusraportti */** merkityistä palautetaan raportti pistettä per tulokset pistettä per pohdinta - **-merkitystä tuplapisteet - maksimipisteet 15*6=90 Slide =1, 54-62=2, 63-71=3, 72-80=4, 81-90=5 Luento 1 Joitakin sovellusalueita Bayesilainen-termin historiasta Todennäköisyys epävarmuuden mittana Epävarmuuksien yhdistäminen todennäköisyyslaskennalla Slide 7 Bayesin kaava Bayesilainen malli Integroinnin merkityksestä

4 Joitakin Bayes-menetelmien sovellusalueita Slide 8 Arkeologia Astronomia Biotieteet Ekonomia Epidemiologia Fysiikka Genetiikka Kognitiotiede Kuvankäsittely Lakitiede Luotettavuusanalyysi Lääketiede Metereologia Prosessimallinnus Päätösanalyysi Signaalinkäsittely Sosiaalitieteet Tiedon louhinta Mikä tahansa todelliseen maailmaan liittyvä sovellusalue, jossa havaintojen perusteella halutaan päätellä jotakin Joitakin LCE:n projekteja, joissa käytetty Bayes-menetelmiä Betonin laadun mallintaminen ja ennustaminen Ihmisen aivotoiminnan kuvantaminen MEG:llä Aivokäyttöliittymä Teollisuusputken sisällön kuvantaminen impedanssitomografialla Slide 9 Kaupan alueellisen kulutuskysynnän mallintaminen Puiden tilavuuden arviointi kuvasta Viemäriputkien kunnonvalvonta Robotin näköjärjestelmä Spatiaalinen epidemiologia Terveydenhuollon prosessit

5 Bayesilaisen mallintamisen perusteet Bayesilaiseen todennäköisyysteoriaan perustuva - epävarmuus esitetään todennäköisyyksillä - todennäköisyyksien päivittäminen uuden tiedon avulla - Laskutoimitukseksi pelkistettyä tervettä järkeä, Laplace 1819 Thomas Bayes (170? 1761) Slide 10 - englantilainen antikonformisti, presbyteeri reviisori, harrastelijamatemaatikko - Richard Price julkaisi Bayesin artikkelin ehdollisista todennäköisyyksistä Bayesin kuoleman jälkeen käsitteli käänteisen todennäköisyyden ongelmaa: X Bin(n, θ), niin mikä on p(a < θ < b X = x)? Moderni bayesilainen teoria perusteellisine todistuksineen kehittyi 1900-luvulla Bayesilainen-termi käyttöön 1900-luvun puolivälissä Aiemmin oli vain "probability theory" - todennäköisyyden käsite ei ollut vielä tiukasti määritelty vaikkakin vastasi nykyistä bayesilaista tulkintaa luvun lopulla ja lisääntyivät vaatimukset todennäköisyyskäsitteen tiukalle määrittelylle (matemaattinen ja tieteenfilosofinen ongelma) Slide luvun alkupuoliskolla yleistyi frekventistinen näkökulma - hyväksyy todennäköisyyksien määrittelyn vain frekvenssien kautta - ei hyväksy käänteistä todennäköisyyttä tai priorin käyttöä - yleistyi näennäisen objektiivisuutensa ja keittokirjamaisten kirjojen ansiosta Frekventistiläinen R. A. Fisher käytti 1950 ensimmäistä kertaa termiä bayesilainen korostaessaan eroa aiempaan todennäköisyysteoriaan - termi yleistyi nopeasti, koska vaihtoehtoiset kuvaukset ovat pidempiä - bayesilaiset ottivat tämän jälkeen käyttöön termin frekventistiläinen

6 Bayesilaisten menetelmien suosio kasvaa kovaa vauhtia Todennäköisyyksille modernin Bayes-teorian mukainen aksiomaattinen perusta 1900-luvulla - filosofinen kiista frekventistien kanssa jatkui Laskentatehon kasvaessa bayesilaisen lähestymistavan vahvuus kompleksisten ongelmien mallintamisessa johtanut suosion valtavaan kasvuun Slide 12 - suurin osa käyttäjistä pragmaattisia, eli käyttävät koska menetelmät toimivat Huom. bayesilainen teoria ei sulje pois frekvenssejä ja frekvenssiominaisuudet tärkeitä (tästä lisää myöhemmin) Bayesilaisen mallintamisen perusteet Epävarmuus kuvataan todennäköisyyksillä Epävarmuudet yhdistetään todennäköisyyslaskennan säännöillä Slide 13

7 Todennäköisyys epävarmuuden mittana E tapahtuma, H taustatieto (joskus hypoteesi) p(e H) E:n todennäköisyys ehdolla H Mittaa epävarmuutta tiedon H valossa: - p(e H) = 1 jos olet varma, että E tapahtuu - p(e H) = 0 jos olet varma, että E ei tapahdu Slide 14 - p(e H) = 0.4: E:hen liittyy epävarmuutta (mutta ei välttämättä satunnaisuutta) - jos E:n tapahtumisen varmuus on suurempi kuin F:n, niin p(e H) > p(f H) Kahdella tarkastelijalla voi olla eri käsitys epävarmuudesta ( eri H ) Todennäköisyys muuttuu, kun informaatio muuttuu Bayes-teoria perustuu subjektiivisiin todennäköisyyksiin Subjektiivisuus vs. objektiivisuus Subjektiivisuus - bayesilaisessa teoriassa todennäköisyydet ovat välttämättä subjektiivisia siinä mielessä, että ne kuvaavat tietämyksen tilaa - kenen tietämyksen tila? - kenen tahansa joka saa saman informaation ja päättelee vaatimusten mukaan Slide 15 Objektiivisuus - inter-subjektiivisuus

8 Aleatorinen vs. episteeminen epävarmuus Epävarmuus voidaan jakaa Aleatoriseen (satunnaiseen) epävarmuuteen, joka johtuu satunnaisuudesta - satunnainen epävarmuus on unknowable, eli siihen liittyen emme voi saada havaintoja, jotka auttaisivat sen epävarmuuden pienentämisessä Slide 16 Episteemiseen (tietämykselliseen) epävarmuuteen, joka johtuu tiedon puutteesta - episteeminen epävarmuus on unknown to me ja siihen liittyen voimme saada havaintoja jotka auttavat sen epävarmuuden pienentämisessä Miksi todennäköisyys on järkevä tapa määrittää epävarmuutta Analogiat - fysikaalinen satunnaisuus - yleinen kielenkäyttö Vedonlyöntiargumentti - johdonmukaisesti valitut todennäköisyydet eivät anna etua Slide 17 Aksiomatiiviset ja normatiiviset perustelut - seuraa rationaalisen päättelyn tai päätöksenteon vaatimuksista Pragmaattisuus - jos se toimii käytännössä, on sen oltava järkevää

9 Aksiomaattiset perustelut todennäköisyydelle* Todennäköisyyksien käyttö epävarmuuden esittämiseen ja todennäköisyyskalkyyli voidaan perustella aksiomaattisesti - useita variaatioita, joissa samat perusideat, mutta hieman esitystavassa eroa Slide 18 - kaksi peruslinjaa todennäköisyys ja hyöty erikseen (esim. Cox, DeGroot,...) todennäköisyys ja hyöty erottamattomia (esim. de Finetti, Savage, Bernardo & Smith,...) Eräs aksiomaattinen formulointi (DeGroot O Haganin mukaan)* Merkitään A B tarkoittamaan A ei ole todennäköisempi kuin B Tyhjä joukko on varmasti epätosi, universaali joukko on varmasti tosi (A1) Kaikille A, B, joko A B tai A B, tai molemmat. Slide 19 (A2) Jos A 1,A 2,B 1,B 2, siten että A 1 A 2 = B 1 B 2 =, A 1 B 1 ja A 2 B 2, niin A 1 A 2 B 1 B 2. Lisäksi jos, joko A 1 < B 1 tai A 2 < B 2 niin A 1 A 2 < B 1 B 2. (A3) Kaikille A, A. Lisäksi < (A4) Jos A 1 A 2... on aleneva joukko tapahtumia raja-arvolla i=1 A i, ja B on kiinteä tapahtuma siten, että B A i kaikille i = 1, 2,..., niin B i=1 A i. (A5) On olemassa satunnaismuuttuja U joka saa arvoja väliltä [0, 1], siten että jos A 1 ja A 2 ovat tapahtumat, että U saa arvon l 1 ja l 2 pituisilta osaväleiltä välillä [0, 1], niin A 1 A 2 jos ja vain jos l 1 l 2.

10 Aksiomaattinen formulointi* (P1) P(A) 0 and P( ) = 1. (P2) Jos A B =, niin P(A B) = P(A) + P(B) (summasääntö). (P3) Jos A1, A 2,... on ääretön tapahtumien sarja, siten että A i A j = 0 kaikille i = j, niin P( i=1 A i ) = i=1 P(A i ) (summasääntö äärettömille sarjoille). Slide 20 (P4) P(A B) = P(A B)/P(B) (Bayesin kaava) Operaationaaliset formuloinnit (esim. Bernardo & Smith)* Edellä esitetyssä formuloinnissa lähtökohtana, että hyväksytty abstrakti käsite "todennäköisempi kuin" Vaihtoehtoisesti tapahtumien vertailemisen lähtökohtana preferenssit tekojen (action) seuraamuksille (consequences) Slide 21 - eli esim. kahden tapahtuman kohdalla vertaillaan kumman tapahtuman seurauksia preferoidaan - operaationallinen, koska kytkeytyy realisiin tekoihin ja niiden seurauksiin - todennäköisyydet kytkeytyvät seurausten hyötyihin (utilities)

11 Mistä saadaan p(e H)? Suoraan - symmetria tai vaihtokelpoisuus - frekvenssit Slide 22 Mallin avulla - kiinnitetään rakenteellisia asioita joita tiedetään ja epävarmoja asioita varten käytetään parametreja - päivitetään epävarmoja uudella informaatiolla - uutta informaatioita kutsutaan usein dataksi Bayesilaisen mallintamisen perusteet Malli - pyrkii ennustamaan ilmiön käyttäytymistä - usein yksinkertaistaa todellisuutta - voidaan käyttää ennustamaan tulevaisuutta - voidaan käyttä lisämään tieteellistä ymmärrystä ilmiöstä Slide 23 Yksinkertaistaa koska - ilmiöstä saadut havainnot rajoitettuja - joidenkin havaittavien suureiden vaikutus voi olla paljon suurempi kuin toisten - yksinkertainenkin malli voi tuottaa hyödyllisiä ennusteita

12 Esimerkki Pudotetaan palloa eri korkeuksilta ja mitataan putoamisaika sekunttikellolla käsivaralla - Newtonin mekaniikka - ilmanvastus, ilmanpaine, pallon muoto, pallon pintarakenne - ilmavirtaukset Slide 24 - suhteellisuusteoria Ottaen huomioon mittaukset, kuinka tarkka malli kannattaa tehdä? On olemassa hyvin paljon tilanteita, joissa yksinkertaiset mallit hyödyllisiä ja käytännön kannalta yhtä tarkkoja kuin monimutkaisemmat! "Kaikki mallit ovat vääriä, mutta jotkut niistä ovat hyödyllisiä", George P. Box Malli Mallin parametrien θ ja datan y yhteistodennäköisyys annettuna malli M p(θ, y M) Usein kiinnostuksen kohteena päivittää prioritietämys p(θ M) posterioritietämyksesi p(θ y, M) Slide 25 Bayesin kaava p(θ y, M) = p(θ, y M) p(y M) = p(y θ, M)p(θ M) p(y M)

13 Bayesin kaava p(θ M) = priori (prior) p(θ y, M) = p(y θ, M)p(θ M) p(y M) p(y θ, M) = uskottavuus (likelihood) Slide 26 p(y M) = p(y θ, M)p(θ M)dθ = normalisointi, evidenssi (evidence) p(θ y, M) = posteriori (posterior) Bayesilaisen mallin osat Uskottavuustermi p(y θ, M) - matemaattinen kuvaus havaintomallille / datan generoivalle prosessille - jos ilmiö θ, M millä todennäköisyydellä havaittaisiin / generoituisi y tietyllä arvolla Slide 27 Priori p(θ M) - matemaattinen kuvaus mitä tiedetään θ:sta - uskottavuus ja priori erottamattomat - voi olla kompleksinen, sisältäen paljon rakenteellista informaatioita ilmiöstä esim. hierarkinen priori p(θ λ, M) p(λ M) jos ilmiö λ, M millä todennäköisyydellä havaittaisiin / generoituisi θ tietyllä arvolla huomaa yhtäläisyys uskottavuustermiin!

14 Mistä saadaan M, p(θ M), ja p(y θ, M)? Erittäin hyvä kysymys! Sama ongelma myös ei-bayesilaisissa lähestymistavoissa! Slide 28 Esimerkki: Hemofilia Perinnöllinen tauti, X-kromosomiin kytkeytyvä, väistyvä Naisen veli sairastaa hemofiliaa, äiti ja isä terveitä Nainen on kantaja (θ = 1) tai ei (θ = 0) p(θ = 1 M) = p(θ = 0 M) = 1 2 Slide 29 Naisella on 2 tervettä poikaa p(y 1 = 0, y 2 = 0 θ = 1, M) = (0.5)(0.5) = 0.25 p(y 1 = 0, y 2 = 0 θ = 0, M) = (1)(1) = 1 Posteriori p(y θ = 1)p(θ = 1) p(θ = 1 y, M) = p(y θ = 1)p(θ = 1) + p(y θ = 0)p(θ = 0) (0.25)(0.5) p(θ = 1 y, M) = (0.25)(0.5) + (1.0)(0.5) = = 0.2

15 Ennustaminen Esim, y = (y 1,..., y n ) ovat mittauksia jostakin asiasta ỹ on uusi ei vielä tehty mittaus samasta asiasta Slide 30 ỹ:n ennuste p(ỹ y, M) = = p(ỹ θ, y, M)p(θ y, M)dθ p(ỹ θ, M)p(θ y, M)dθ Esimerkki: Hemofilia Kolmas poika? p(y 3 = 0 y 1, y 2, M) Ennuste p(y 3 = 0 y 1, y 2, M) = p(y 3 = 0 θ, M)p(θ y 1, y 2, M)dθ Slide 31 p(y 3 = 0 y 1, y 2, M) = p(y 3 = 0 θ = 1, M)p(θ = 1 y 1, y 2, M) + p(y 3 = 0 θ = 0, M)p(θ = 0 y 1, y 2, M) p(y 3 = 0 y 1, y 2, M) = (0.5)(0.2) + (1)(0.8) = 0.9

16 Esimerkki: Hemofilia Kolmas poika syntyy ja on terve - uutta havaintoa voidaan käyttää päivittämään äidin tilan todennäköisyys Ketjusääntö - edellinen posteriori on nyt uusi priori Slide 32 p(θ = 1 y 1, y 2, y 3 ) = p(y 3 θ = 1, M)p(θ = 1 y 1, y 2, M) θ=0,1 p(y 3 θ, M)p(θ y 1, y 2, M) (0.5)(0.2) = (0.5)(0.2) + (1)(0.8) = Integrointi Bayes-menetelmissä Marginalisointi p(y θ 1, M) = p(y θ 1, θ 2, M)p(θ 2 M)dθ 2 Slide 33 Normalisointitermi p(y M) = p(y θ, M) p(θ M)dθ Ennustaminen p(ỹ y, M) = p(ỹ θ, M)p(θ y, M)dθ

17 Integrointi Bayes-menetelmissä Integroinnin korvaaminen optimoinilla: posteriorin maksimi (MAP) - toimii helpoissa tapauksissa Analyyttinen integrointi - toimii yksinkertaisilla malleilla Slide 34 Analyytiset approksimaatiot - toimii yksinkertaisilla malleilla tai vaatii paljon vaivaa Numeerinen integrointi - tarvitaan laskentatehoa Numeerinen Integrointi Slide 35 Monte Carlo (MC) - integraali approksimoidaan posteriorijakaumsta vedettyjen näytteiden (A (t) ) avulla E(A) 1 N N t=1 A (t) - vaikea saada riippumattomia näytteitä tehokkaasti Markov Chain Monte Carlo (MCMC) - käytetään apuna Markov-ketjuja - riippuvia näytteitä (vaikeuttaa tarkkusarvioita) - yleistyi 1990-luvulla huomattavasti

18 Bayes-menetelmien suosion kasvu 1990-luvulle asti käytettiin analyyttisiä menetelmiä mallit välttämättä yksinkertaisempia Konetehon jatkuva kasvu ja numeeristen integrointimentelmien kehitys suosio jyrkkään kasvuun 1990-luvulla Slide 36 mahdollisuus käyttää monipuolisempia paremmin todellisuutta kuvaavia malleja käyttöön lukuisilla vaikeilla sovellusalueilla Bayesilaisen mallintamisen vaiheet Oletusten perusteella muodostetaan malli - uskottavuustermi - rakenteellinen priori Täydennetään taustaoletuksilla - priori parametreille Slide 37 Lasketaan Bayesin kaavaa ja marginalisointia hyväksi käyttäen jakaumat halutuille tuntemattomille - esim. ennuste tulevalle havainnolle

19 Esimerkki: Saturnuksen massa Malli ja havainnot - θ = Saturnuksen massa (tuntematon) - D = observatorioiden mittaamaat häiriöt Jupiterin ja Saturnuksen radoissa (havainnot) - M = Newtonilainen mekaniikka (mallioletukset) Slide 38 - p(d θ, M) = jos Saturnuksen massa olisi θ, niin kuinka todennäköistä olisi havaita mittaukset D (uskottavuustermi) - p(θ M) = järkevä rajoitus massalle; ei niin pieni että Saturnus menettäisi renkaansa, ei niin suuri että koko aurinkokunta järkkyisi (priori) Laplace laski ja totesi...veikkaus 11000:1, että tämän tuloksen virhe ei ole 1% arvostaan - nykyestimaatista Laplacen tulos poikkesi 0.63% Huomatkaa, että Laplace laski jakauman Saturnuksen massan epävarmuudelle, jolloin pystyi esittämään myös arvion estimaatin tarkkudesta

20 Luento 2 Binomi-malli Posteriorijakauman esittämisestä Informatiivisista priorijakaumista Konjugaattipriori Slide 1 Yksiparametrisia malleja Binomi Jacob Bernoulli ( ), Bayes ( ) Normaali de Moivre ( ), Laplace ( ), Gauss ( ) Poisson Poisson ( ) Exponential, Double exponential Laplace ( ) Slide 2

21 Binomijakauma Data y 1,..., y n, joista jokainen on 0 tai 1 Luonnollinen malli kun tehdään keskenään vaihtokelpoisia (exchangeable) toistokokeita tai poimintoja suuresta populaatiosta, joissa jokaisen kokeen tulos voi olla yksi kahdesta vaihtoehdosta (usein success ja failure ) Esimerkkejä Slide 3 - Bernoullin koe, missä laatikosta poimitaan kahden värisiä palloja - kolikonheitto - tyttö- ja poikavauvojen suhde Binomijakauma Vaihtokelpoisuuden vuoksi data voidaan esittää kertomalla onnistumisten määrä y ja kokeiden kokonaismäärä n Olettamalla binomi-malli ja onnistumistodennäköisyyttä kuvaava parametri θ, voidaan toimia aivan kuin kokeiden tulokset olisivat riippumattomia (independent) ja identtisesti jakautuneita ehdolla malli M ja parametri θ Slide 4 p(y θ, n, M) = Bin(y n, θ) = ( ) n θ y (1 θ) n y y missä n oletetaan tunnetuksi ja osaksi koesuunnittelua (eli ei parametri)

22 θ:n posteriori Bayesin kaavan mukaan p(θ y, n, M) = p(y θ, n, M)p(θ n, M) p(y n, M) Yksinkertaistuksen vuoksi aloitetaan helpolla priorilla Slide 5 Jolloin p(θ n, M) = p(θ M) = 1, kun 0 θ 1 p(θ y, n, M) θ y (1 θ) n y Lasketaan normalisointitermi p(θ y, n, M) = Ja kaikkihan heti tunnistavat tästä, että Ɣ(n + 2) Ɣ(y + 1)Ɣ(n y + 1) θ y (1 θ) n y θ y, n Beta(y + 1, n y + 1) Jakaumista Jos π(θ)dθ =, π(θ) on ei-aito (improper) Jos q(θ)dθ = Z = 1, q(θ) on normalisoimaton Jos p(θ)dθ = 1, p(θ) on aito (proper) ja normalisoitu Slide 6

23 Matlab demonstraatio: Beta-jakauma disttool - n=2, y=1 - n=5, y=3 - n=20, y=12 - n=100, y=60 Slide 7 - n=1000, y=600 Esimerkki: tyttövauvojen suhteellinen osuus Pariisissa syntyi tyttöä ja poikaa vuosina Laplace kehitti normaalijakauma-approksimaation Laplace laski ˆθ = Slide 8 σ = ( ) p(θ 0.5 y, n, M) Laplace kirjoitti olevansa morally certain, että θ < 0.5

24 Ennustaminen Laplace laski (Laplace s law of succession) Slide 9 p(ỹ = 1 y, n, M) = = = y + 1 n + 2 p(ỹ = 1 θ, y, n, M)p(θ y, n, M)dθ θp(θ y, n, M)dθ Ääritapaukset p(ỹ = 1 y = 0, n, M) = 1 n + 2 p(ỹ = 1 y = n, n, M) = n + 1 n + 2 Vrt. maximum likelihood Posteriorijakaumien esittäminen Posteriorijakauma sisältää kaiken sen hetkisen informaation parametrista θ Ideaalitapauksessa voisi raportoida koko posteriorijakauman Usein käytettyjä yhteenvetoesityksiä paikalle (location) - keskiarvo (mean) Slide 10 - mediaani - moodi(t) Usein käytettyjä yhteenvetoesityksiä variaatiolle (variation) - hajonta (standard deviation) - kvantiilit

25 Posteriorijakaumien esittäminen Keskiarvo on parametrin posterioriodotusarvo optimaalinen valinta neliösummavirheen perusteella Mediaanin molemilla puolilla yhtä paljon todennäköisyysmassaa optimaalinen valinta absoluuttivirheen perusteella Slide 11 Moodi on yksittäinen todennäköisin arvo Hajonta kuvaa normaalijakauman leveyden, joten kuvaa hyvin myös lähellä normaalijakaumaa olevia jakaumia Posteriorijakaumien esittäminen Kun posteriorijakaumalla on suljettu muoto voidaan keskiarvo, mediaani ja hajonta usein saada myös suljetussa muodossa esim. Beta(y + 1, n y + 1):n keskiarvo on y+1 n+2 Jos suljettua muotoa ei ole, voidaan käyttää normaalijakauma-approksimaatiota tai numeerista integrointia (esim. Monte Carlo) Slide 12

26 Posterioriväli / Luottoväli Posterioriväliä kutsutaan usein myös luottoväliksi (credible interval) (vrt. frekventistit: luottamusväli (confidence interval)) - Central posterior interval - Highest posterior density (HPD) interval - Lowest posterior loss (LPL) interval* Slide 13 - Näistä kaksi ensimmäistä voidaan yksiulotteisille laskea kumulatiivisten jakaumien (CDF) avulla Keskiposterioriväli Central posterior interval - välin ylä- ja alapuolella yhtäpaljon posteriorimassaa - inavariantti yksi-yhteen estimoitavan muunnoksille - helppo laskea - huono jos posteriorin huippu parametriavaruuden laidassa Slide 14 - huono jos multimodaalinen - ei yleisty useampaan ulottuvuuten

27 Suurimman posterioriodennäköisyyden väli Highest posterior density (HPD) interval - välin ulkopuolella kaikkialla pienempi tiheys kuin välin sisällä - ei inavariantti yksi-yhteen estimoitavan muunnoksille - melkein yhtä helppo laskea kuin keskiväli - hyvä myös jos posteriorin huippu parametriavaruuden laidassa Slide 15 - yleistyy useampaan ulottuvuuten Pienimmän posterioritappion väli* Lowest posterior loss (LPL) interval - välin ulkopuolella kaikkialla suurempi tappio kuin välin sisällä - inavariantti yksi-yhteen estimoitavan muunnoksille - laskentaan mukaan päätösanalyysi - hyvä myös jos posteriorin huippu parametriavaruuden laidassa Slide 16 - yleistyy useampaan ulottuvuuten

28 Todennäköisyydet Todennäköisyydet, bayesilaiset p-arvot (eri kuin frekventistinen p-arvo) p(θ A y, M) - esim. Laplace halusi laskea Slide 17 p(θ 0.5) = = p(θ y, n, M)dθ ! !251528! θ y (1 θ) n y dθ mutta sen sijaan approksioimi posteriorin normaaliajakaumalla ja approksimoi tuloksen sen avulla Päätösanalyysi Posteriorijakauman esittäminen yhteenvetolukujen avulla voidaan tulkita päätöksenä Optimaalinen päätös voidaan laskea päätösanalyysin avulla Tästä myöhemmin... Slide 18

29 Ongelmallisia Moniulotteiset jakaumat Multimodaaliset jakaumat Slide 19 Priorijakaumista Populaatioon perustuvat - eli populaation perustuva posteriorijakauma priorina Tietämyksen tilaan perustuvat - helppoa jos tietämyksen epävarmuus pieni (informatiiviset) - vaikeaa jos tietämyksemme on epävarmaa (ei-informatiiviset) Slide 20 - esitettävä myös epävarmuus

30 Priorijakaumista Priorijakauman pitäisi kattaa kaikki edes jotenkin mahdolliset parametrin arvot - jos priori on 0, myös posteriori on 0 - jos dataa riittävästi likelihood voi dominoida posteriorijakaumassa ja priorin muodolla ei niin paljon väliä - jos dataa vähän voi priorijakauman muoto vaikuttaa paljon Slide 21 Perustelu aiemmin käyttämällemme priorille Uniformi priori θ:lle, jolloin prioriprediktiivinen jakauma p(y n) = 1 n + 1, y = 0,..., n Slide 22 Bayesin perustelu ilmeisesti perustui tähän - mukava perustelu, koska se voidaan esittää pelkästään havaittavien suureiden y ja n avulla Laplacen perustelu ilmeisesti suoraan θ:lle indifference periaatteen mukaisesti

31 Konjugaattipriorit Virallinen määritelmä jos p( y) P kaikille p(y ) F ja p( ) P tämä kuitenkin liian väljä määritelmä jos valitaan, että P on kaikkien jakaumien joukko Slide 23 Kiinnostavampia ovat luonnolliset konjugaattipriorit, jolloin priori ja posteriori samasta funktioperheestä (samat parametrit) Laskennallisesti mukavia Voidaan tulkita prioridatana Beta-priori Binomi-jakaumalle Priori Beta(θ α, β) θ α 1 (1 θ) β 1 Slide 24 Posteriori p(θ y, n, M) θ y (1 θ) n y θ α 1 (1 θ) β 1 = θ y+α 1 (1 θ) n y+β 1 = Beta(θ α + y, β + n y) Voidaan tulkita, että (α 1) ja (β 1) priorinäytteitä Uniformipriori kun (α 1) = 0 ja (β 1) = 0

32 Beta-priori Binomi-jakaumalle Posteriori p(θ y, n, M) = Beta(θ α + y, β + n y) Odotusarvo ja hajonta Slide 25 E[θ] = α + y α + β + n E[θ](1 E[θ]) Var[θ] = α + β + n + 1 Konjugaattiprioreista Konjugaattipriorit mukavia kuten myös standardimallitkin - tulkinnan helppous - jakaumat suljettua muotoa - laskennallinen mukavuus - tärkeitä rakennuspalikoita monimutkaisemmissakin malleissa Slide 26 - mixturepriorit ja -mallit laajentavat mahdollisuuksia Ei-konjugaattiset käsitteellisesti yhtä helppoja - laskenta vaikeampaa, mutta ei mahdotonta - ei tarvetta tehdä kompromissia tietämyksen esittämisessä

33 Esimerkki priorin vaikutuksesta Eteisistukkatapauksissa 437 tyttövauvaa ja 543 poikavauvaa - poikkeaako tyttövauvan todennäköisyys yleisestä (0.485)? Slide 27 Uniformipriorilla posteriori on Beta(438, 544) - keskiarvo ja hajonta % posterioriväli [0.415, 0.477] - p(θ < 0.485) = 0.99 Matlab-demot: esim2_1.m, esim2_2.m Esimerkki Monte Carlo -laskennasta Eteisistukkatapauksissa 437 tyttövauvaa ja 543 poikavauvaa - entä jos haluamme laskea posteriorijakauman tyttöjen ja poikien suhteelle φ = (1 θ)/θ - p(φ y, n, M) =? Slide 28 Voidaan poimia helposti näytteitä tästä jakaumasta - poimitaan ensin näytteitä θ (t) posteriorijakaumasta p(θ y, n, M) - lasketaan φ (t) = (1 θ (t) )/θ (t) - φ (t) ovat näytteitä jakaumasta p(φ y, n, M) - histogrammi, kvantiilit ja intervallit helppo laskea näytteistä - Matlab-demo: esim2_3.m

34 Esimerkki ei-konjugaattisen priorin käytöstä Eteisistukkatapauksissa 437 tyttövauvaa ja 543 poikavauvaa - konjugaattipriorilla posteriori helppo laskea Ei-konjugaattinen priori - posterioria ei voi laskea analyyttisesti - Monte Carlolla approksimointi silti helppoa Slide 29 - yksiulotteiselle esim. hilapoiminta Matlab-demo: esim2_4.m

35 Luento 3 Normaalijakauma tunnetulla varianssilla Normaalijakauma tunnetulla keskiarvolla Poisson-malli Exponentiaalinen malli Slide 1 Cauchy-jakauma Ei-informatiivisista priorijakaumista *-merkatut kalvot extra-materiaalia (ei kysytä tentissä) Normaalijakauma (Gaussian) Usein käytetty ja hyödyllinen osa monimutkaisempiakin malleja Havainto y voi saada reaaliarvoja Slide 2 Normaalijakauman parametrit keskiarvo θ ja varianssi σ 2 (oletetaan ensin σ 2 tunnetuksi) p(y θ) = 1 2πσ exp y N(θ, σ 2 ) ( 1 ) (y θ)2 2σ

36 Normaalijakauman perusteluita* Keskeinen raja-arvolause (Central limit theorem) Vaihtokelpoisuus ja pallosymmetrisyys Laskennallinen helppous Slide 3 Keskeisestä raja-arvolauseesta* De Moivre, Laplace, Gauss, Chebysev, Liapounov, Markov, et al. Tietyt ehdot täyttävistä jakaumista tulevien satunnaismuuttujien summa (keskiarvo) lähestyy normaalijakautunutta kun n Esim. jos eri kohinalähteitä, niin oletetaan, että summa lähellä normaalijakaumaa Slide 4 Ongelmia - ei päde kaikille, esim. Cauchy-jakauma - voi tarvita paljon näytteitä ennenkuin pätee, esim. Binomi-jakauma, kun θ melkein 0 tai 1 - ei päde jos jonkun muuttujan jakauma dominoi

37 Keskeisen raja-arvolauseen seuraus Sopiva jos oletetaan, että epävarmuus syntyy useiden tuntemattomien vaihtokelpoisten tai riippumattomien tekijöiden summana - olettaen, että jakaumien skaalat suunnillen samat Käytetään myös positiivisen datan logaritmille, jolloin oletetaan, että epävarmuus syntyy useiden tuntemattomien vaihtokelpoisten tai riippumattomien tekijöiden Slide 5 tulona Vaihtokelpoisuus ja pallosymmetrisyys* Satunnaisia reaalilukuja x 1,..., x n Oletetaan vaihtokelpoisuus ja pallosymmetria, eli identtinen uskomus kaikille tuloksille x 1,..., x n joilla sama arvo luvulle x x2 n - voidaan toimia aivan kuin havainnot olisivat ehdollisesti riippumattomia normaalijakautuneita varianssilla σ 2 Slide 6 Oletetaan vaihtokelpoisuus ja keskitetty pallosymmetria - voidaan toimia aivan kuin havainnot olisivat ehdollisesti riippumattomia normaalijakautuneita keskiarvolla θ ja varianssilla σ 2 Ongelma - milloin oletus pallosymmetriasta aiheellinen?

38 Laskennallinen helppous* Negatiivinen log-likelihood mukavaa muotoa p(y θ) = 1 2πσ exp ( log p(y θ) = α(y θ) 2 + C 1 ) (y θ)2 2σ 2 Slide 7 Neg-log-likelihoodin minimointi sama kuin pienimmän neliösumman menetelmä (Gauss) Lineaariregressiossa selvitään analyytisella matriisilaskennalla Ennen tehokkaita tietokoneita laskennallinen helppous oli erittäin tärkeää Ongelma - malli voi olla väärä Normaalijakauma Puutteista huolimatta monessa mukana, koska - usein riittävä sellaisenaan - käytetään osana hierarkisia malleja - käytetään osana t-jakauman skaalasekaesitystä t-jakauma hyvä robustimpi vaihtoehto normaalijakaumalle Slide 8

39 Normaalijakauma - konjugaattipriori θ:lle Oletetaan, että σ tunnettu ( Likelihood p(y θ) exp 1 ) (y θ)2 2σ 2 Slide 9 Priori Posteriori p(θ) exp p(θ y) exp ( ( ) 1 2τ0 2 (θ µ 0 ) [ ]) (y θ) 2 σ 2 + (θ µ 0) 2 τ0 2 Normaalijakauma - konjugaattipriori θ:lle Slide 10 Posteriori (ks. tehtävä 2.14a) ( [ ]) p(θ y) exp 1 (y θ) 2 2 σ 2 + (θ µ 0) 2 τ0 2 ( ) exp 1 2τ1 2 (θ µ 1 ) 2 θ y N(µ 1, τ 2 1 ), missä µ 1 = 1 µ τ y σ 2 1 τ σ 2 ja 1 τ 2 1 = 1 τ σ 2 1/varianssi = tarkkuus (precision) Posterioritarkkuus on prioritarkkuus plus datan tarkkuus Posteriorikeskiarvo on tarkkuuksilla painotettu keskiarvo priorikeskiarvosta ja datan keskiarvosta

40 Normaalijakauma - esimerkki Populaatio ÄO: θ N(100, 15 2 ) ja mittaus: y θ N(θ, 10 2 ) arvio henkilön ÄO:lle annettuna mittaus y Slide 11 E(θ y) = τ 0 2 τ0 2 + σ 2 y + σ 2 τ0 2 + σ 2 µ 0 ( ) 1/2 1 Std(θ y) = + 1 σ 2 τ 2 0 τ 0 = 15, σ = 10 : E(θ y) 0.7y + 30 ja sd(θ y) 8 vrt. maximum likelihood vastaus E(θ y) = y ja sd(θ y) = 10 esim3_1.m Normaalijakauma Posterioriprediktiivinen jakauma p(ỹ y) = p(ỹ y) p(ỹ θ)p(θ y)dθ ( exp 1 (ỹ θ)2 2σ 2 ) ( ) exp 1 2τ1 2 (θ µ 1 ) 2 dθ Slide 12 ỹ y N(µ 1, σ 2 + τ 2 1 ) Ennusteen varianssi on mallin varianssin σ 2 ja parametrin posteriorivarianssin τ 2 1 summa

41 Normaalijakauma Posterioriprediktiivinen jakauma ỹ y N(µ 1, σ 2 + τ 2 1 ) saadaan esim. näin E(ỹ θ) = θ ja Var(ỹ θ) = σ 2 Slide 13 ja E(ỹ y) = E(E(ỹ θ, y) y) = E(θ y) = µ 1 ja Var(ỹ y) = E(Var(ỹ θ, y) y) + Var(E(ỹ θ, y) y) = E(σ 2 y) + Var(θ y) = σ 2 + τ 2 1 Normaalijakauma - esimerkki Populaatio ÄÖ: θ N(100, 15 2 ) ja mittaus: y θ N(θ, 10 2 ) arvio saman henkilön toisen testin tulokselle ỹ annettuna ensimmäisen testin tulos y E(ỹ y) = µ 1 0.7y + 30 Std(ỹ y) = (σ 2 + τ1 2 )1/2 13 Slide 14 esim3_1.m

42 Normaalijakauma - useita havaintoja Useita havaintoja y = (y 1,..., y n ) ja oletetan, että voidaan toimia aivan kuin olisivat riippumattomia ja identtisesti jakatuneita Slide 15 p(θ y) p(θ)p(y θ) n = p(θ) p(y i θ) i=1 = N(θ µ n, τ 2 n ) missä µ n = missä ȳ = 1 n 1 µ τ n ȳ σ 2 1 τ0 2 i y i + n σ 2 ja 1 τ 2 n = 1 τ n σ 2 Tyhjentävä tunnusluku (sufficient statistic) t(y) on tyhjentävä tunnusluku, jos θ:n likelihoodin arvo riippuu datasta y vain t(y):n kautta Slide 16 Esimerkkejä - Binomi-malli: t(y 1,..., y n ) = ( i y i, n) - Normaalijakauma tunnetulla varianssilla: t(y 1,..., y n ) = ( 1 n i y i, n) = (ȳ, n)

43 Normaalijakauma - useita havaintoja Useita havaintoja y = (y 1,..., y n ) p(θ y) = N(θ µ n, τ 2 n ) Slide 17 missä µ n = 1 µ τ n ȳ σ 2 1 τ n σ 2 ja 1 τ 2 n = 1 τ 2 0 Jos τ 2 0 = σ 2, vastaa priori yhtä priorinäytettä arvolla µ 0 + n σ 2 Jos τ 0 kun n kiinteä tai jos n kun τ 0 kiinteä p(θ y) N(θ ȳ, σ 2 /n) Normaalijakauma - tunnettu keskiarvo Likelihood 1 havainto ( p(y σ 2 ) σ 1 exp 1 ) (y θ)2 2σ 2 Slide 18 Likelihood monta havaintoa ( ) p(y σ 2 ) σ n exp 1 n 2σ 2 (y i θ) 2 i=1 ( = (σ 2 ) n/2 exp n ) 2σ 2 v missä v = 1 n n (y i θ) 2 i=1

44 Normaalijakauma - tunnettu keskiarvo Likelihood monta havaintoa p(y σ 2 ) (σ 2 ) n/2 exp ( n 2σ 2 v ) Slide 19 missä Konjugaattipriori on inverse-gamma v = 1 n n (y i θ) 2 i=1 p(σ 2 ) (σ 2 ) (α+1) exp ( βσ ) 2 Normaalijakauma - tunnettu keskiarvo Konjugaattipriori on inverse-gamma p(σ 2 ) (σ 2 ) (α+1) exp ( βσ ) 2 Käytetään intuitiivisempaa parametrisointia Inv-gamma(α = ν 2, β = ν 2 s2 ) Slide 20 p(σ 2 ) = (ν/2)ν/2 Ɣ(ν/2) sν (σ 2 ) ( ν/2+1) exp( νs 2 /(2σ 2 )) σ 2 Inv-χ 2 (ν, s 2 )

45 Normaalijakauma - tunnettu keskiarvo Mukava parametrisointi konjugaattipriorille on σ 2 Inv-χ 2 (ν 0, σ 2 0 ) Slide 21 jolloin posteriori on ( σ 2 y Inv-χ 2 ν 0 + n, ν 0σ0 2 + nv ) ν 0 + n Priorin voidaan ajatella tarjoavan vastaavan informaation kuin ν 0 havaintoa varianssilla σ 2 0 Normaalijakauma - tunnettu keskiarvo - esimerkki Jalkapallodata kirjasta, mallina N(0, σ 2 ) ν 0 = 0 vastaa p(σ 2 ) σ 2 (ei-aito) Posteriori on kuitenkin aito, σ 2 d Inv-χ 2 (n, v), n = 672 ja v = Slide

46 Poisson-jakauma Malli tapahtumien lukumäärälle kun vaihtokelpoisia tapahtumia ajassa - ajallisesti riippumattomia tapahtumia, joka ajanhetkellä yhtä suuri todennäköisyys tapahtua Esim. käytetään epidemilogiassa arvioimaan tautien esiintymistodennäköisyyksiä Likelihood yhdelle havainnolle, missä θ on keskimääräinen tapahtumataajuus Slide 23 p(y θ) = θ y e θ, y = 0, 1, 2,... y! Likelihood usealle havainnolle p(y θ) θ t(y) e nθ, missä t(y) = n i=1 y i Poisson-jakauma Likelihood usealle havainnolle p(y θ) θ t(y) e nθ, missä t(y) = Konjugaattipriori on gamma-jakauma n i=1 y i Slide 24 Posteriori on p(θ) e βθ θ α 1 θ y Gamma(α + nȳ, β + n) Priorin voidaan ajatella olevan lukumäärien summa (α 1), β priorihavainnosta Prediktiivinen jakauma on negative binomial ỹ y Neg-bin(α + nȳ, β + n) Neg-bin(y α, β) = Poisson(y θ) Gamma(θ α, β)dθ

47 Poisson-jakauma - esimerkki Espoossa syntyi vuoden 2002 alkupuoliskolla y=1784 lasta Espoossa syntyi vuoden 2003 alkupuoliskolla 1944 lasta Onko tämä poikkeuksellisen paljon? Väljällä priorilla prediktiivinen jakauma vuoden 2002 perusteella suunnilleen Neg-bin(1784, 1) Slide p(ỹ > 1944 y = 1784) 1% esim3_2.m Exponentiaalinen jakauma Malli tapahtumien odotusajalle kun vaihtokelpoisia tapahtumia ajassa - ajallisesti riippumattomia tapahtumia, joka ajanhetkellä yhtä suuri todennäköisyys tapahtua Esimerkiksi elinaikadata Likelihood Slide 26 p(y θ) = θ exp( yθ), y > 0 Konjugaattipriori on gamma-jakauma Posteriori Gamma(θ α, β) Gamma(θ α + n, β + nȳ)

48 Konjugaattiprioreista ja tyhjentävistä tunnusluvuista Yleisesti, vain exponentiaaliperheen jakaumilla on luonnollinen konjugaattipriori Tiettyjä epäsäännöllisiä tapauksia lukuunottamatta vain exponentiaaliperheen jakaumilla on tyhjentävä tunnusluku Jakauma kuuluu exponentiaaliperheseen jos se on muotoa Slide 27 p(y i θ) = f (y i )g(θ)e φ(θ)t u(y i ) Tähän mennessä käsitellyt jakaumat kuuluvat exponentiaaliperheseen Tyhjentävistä tunnusluvuista Tasajakauma on esimerkki epäsännöllisestä jakaumasta, joka ei kuulu exponetiaaliperhseen, mutta jolla on silti tyhjentävä tunnusluku t(y) = (min(y 1,..., y n ), max(y 1,..., y n )) Slide 28

49 Cauchy-jakauma Likelihood p(y i θ) = 1/(1 + (y i θ) 2 ) Varianssi ääretön, eli hyvin pitkähäntäinen t-jakauman ääritapaus kun ν = 1 Slide 29 Esimerkki: Merellä olevan majakan pyörivä vilkkuva valo havaitaan suoralla rannalla eri kohdissa. Missä kohtaa kohtaa rantaa majakka on? Järkevämpiä esimerkkejä fysiikasta Cauchy-jakaumaa (tai puoli-cauchy-jakaumaa) käytetään robustina priorina Priorijakaumista Jos π(θ)dθ =, π(θ) on ei-aito Jos q(θ)dθ = Z = 1, q(θ) on normalisoimaton Jos p(θ)dθ = 1, p(θ) on aito ja normalisoitu Slide 30 Ei-aito priori voi tuottaa aidon posteriorin, mutta ei välttämättä!

50 Esimerkkejä ei-informatiivista priorijakaumista Normaalijakaumamalli tunnetulla varianssilla σ 2 ja θ:n priorilla N(µ 0, τ0 2 ), jos prioritarkkuus 1/τ0 2 pieni verrattuna datan tarkkuuteen n/σ 2, niin posteriorijakauma on melkein sama kuin jos τ 2 0 p(θ y) N(θ ȳ, σ 2 /n) =, eli p(θ) 1 Slide 31 Normaalijakaumamalli tunnetulla keskiarvolla ja Inv-χ 2 priori σ 2 :lle, jos priorin vapauasteet ν 0 pieni verrattuna datan vapausasteisiin n, niin posteriorijakauma on melkein sama kuin jos ν 0 = 0, eli p(σ 2 ) 1/σ 2 p(σ 2 y) Inv-χ 2 (σ 2 n, v) Ei-informatiivisia prioreja Indifference Invarianssi-argumentti Jeffreysin priori Referenssipriorit Slide 32 Muut ei-informatiiviset priorit Hierarkiset priorit

51 Principle of insufficient reason / indifference Laplace: If we can enumerate a set of basic mutually exclusive possibilities, and have no reason to believe that any one of these is more likely to be true than another, then we should assign the same probability to all - voidaan määritellä parametrille suoraan (Laplace) tai havaintojen kautta (Bayes) Vaihtokelpoisuus Slide 33 Rajoitettu tapauksiin, joissa suljettu numeroituva maailma ja toisensa poissulkevat tapaukset - esim. kombinatoriset ongelmat Invarianssiargumentti (indifference jatkuville parametreille)* Esimerkki: paikkaparametrit Annettuna informaatio I, todennäköisyys, että X on äärettömän pienellä välillä on p(x = x I )d X = lim p(x X < x + δ I ) δx 0 Jos kerrotaan, että origon määrittämisessä oli tehty virhe siten, että aiemmin Slide 34 ilmoitettu paikka x olikin oikeasti x + x 0, pitäisikö tämän vaikuttaa prioriin joka on valittu X:lle. Jos vastaus on ei, niin p(x I )d X = p(x + x 0 I )d(x + x 0 ) koska x 0 on vakio, d(x + x 0 ) = d X p(x I )d X = p(x + x 0 I )d X p(x I ) = vakio

52 Invarianssiargumentti (indifference jatkuville parametreille)* Esimerkki: Skaalaparametrit Jos kerrotaan, että mittayksikkö on ilmoitettu väärin siten, että ångstromien sijaan olisi pitänyt olla nanometrejä, pitäisikö tämän vaikuttaa skaalaparametrin L prioriin. Jos vastaus on ei, niin Slide 35 p(l I )d L = p(β L I )d(β L), koska d(β L) = βd L p(l I )d L = p(β L I )βd L p(l I ) 1/L Kutsutaan myös Jeffreysin prioriksi missä β on positiivinen vakio Huomaa, että tulos on yhtäläinen priorin p(log(l) I ) = constant kanssa, mikä saadaan helposti muuttujanvaihdoksella Jeffreysin priori (indifferencen yleistys) ( ) Fisherin informaatiomatriisi on I (θ), missä I (θ) i j = E 2 l θ i θ j Valitaan priori siten, että p(θ) det(i (θ)) 1/2 Slide 36 Tämä priori on invariantti muuttujanvaihdoksille Ongelmallinen usean muuttujan malleille Usean muuttujien malleissa, paikka-, skaala- ja mixingparametrit käsitellään erikseen Esim: y Bin(n, θ) : p(θ) θ 1/2 (1 θ) 1/2 y N(µ, σ 2 ) : p(µ, σ 2 ) 1/σ 2

53 Referenssipriori (Bernardo ja Berger-Bernardo)* (Referenssipriori tarkoittaa joskus myös yleisesti mitä tahansa ei-informatiivista prioria) Yleistää Jeffreysin priorin - sama yksinkertaisissa tapauksissa Informaatioteoreettinen määrittely - priori riippuu myös siitä mikä suure mielenkiinnon kohteena Slide 37 Toimii myös usean muuttujan mallille - priori riippuu myös siitä missä järjestyksessä ja miten ryhmiteltynä parametrit huomioidaan Muita ei-informatiivisia prioreja* Maximum-Entropy - jakauma jonka entropia mahdollisimman suuri annettuna priorirajoitukset Coverage matching - tutkitaan muodostuvan posteriorin frekvenssiominaisuuksia Slide 38 Zellner s Maximal Data Information prior - myös informaatioteoreettinen määrittely Ja vielä muutama muukin harvinaisempi

54 Ei-informatiivisten priorien ongelmia Valmiit menetelmät eivät poista miettimisen tarvetta Väljät priorit ovat usein herkkiä parametrisoinille Slide 39 Hierarkisista prioreista (lisää luvussa 5) Jos et tiedä sopivaa arvoa jonkun priorijakauman parametreille, tee siitä parametrista tuntematon ja aseta ylemmän tason priori Näin fiksatut, tai arvatut, valinnat voidaan siirtää hierarkisen mallin ylemmille tasoille Slide 40 Hierarkisissa malleissa data sisältää vähemmän informaatiota korkeamman tason hyperparametreista, jolloin priori ja posteriori näille hyperparametreille on samankaltainen Siten nämä mallit ovat vähemmän herkkiä ylemmällä tasolla tehdyille valinnoille, josta seuraa, että ylemmän tason priorit ovat yleisesti vähemmän informatiivisia

55 Luento 4 Marginalisointi Marginaalijakauma nuisance parameters - "kiusaparametri" (huono termi parametreille, jotka voivat olla erittäin tärkeitä ja hyödyllisiä) Slide 1 Normaalijakauma - ei-informatiivinen priori - konjugaattipriori - semi-konjugaattipriori Multinomijakauma - binomijakauman yleistys Moniulotteinen normaalijakauma Marginalisointi - marginaalijakauma Yhteisjakauma (joint distribution) p(θ 1, θ 2 y) p(y θ 1, θ 2 )p(θ 1, θ 2 ) Slide 2 Marginalisointi p(θ 1 y) = p(θ 1 y) on marginaalijakauma p(θ 1, θ 2 y)dθ 2

56 Marginalisointi - marginaalijakauma Tavoitteena saada marginaaliposteriorijakauma kiinnostavasta tuntemattomasta suureesta - jokin mallin parametreista - joku muu ei havaittu suure kuten havainto tulevaisuudessa Periaate Slide 3 - muodostetaan kaikkien tuntemattomien yhteisposteriorijakauma p(θ 1, θ 2 y) p(y θ 1, θ 2 )p(θ 1, θ 2 ) - integroidaan tämä jakauma kaikkien niiden tuntemattomien yli, joiden arvot eivät suoraan kiinnosta meitä p(θ 1 y) = p(θ 1, θ 2 y)dθ 2 Esimerkki marginalisoinnista - ennustava jakauma Yhteisjakauma p(ỹ, θ y) = p(ỹ θ, y)p(θ y) = p(ỹ θ)p(θ y) (usein) Slide 4 Marginalisointi p(ỹ y) = p(ỹ θ)p(θ y)dθ p(ỹ y) on ennustava jakauma

57 Esimerkki marginalisoinnista - ennustava jakauma Ennustava jakauma simuloinnilla Koska tässä tapauksessa p(ỹ y) = p(ỹ θ)p(θ y)dθ Slide 5 voidaan ensin poimia näytteitä θ t jakaumasta p(θ y) ja sitten näytteitä ỹ t jakaumasta p(ỹ θ t ), nyt ỹ t ovat jakaumasta p(ỹ y) Usein yhteisjakauma faktoroidaan ja integraali p(θ 1 y) = voidaan helposti approksimoida simuloinnilla p(θ 1 θ 2, y)p(θ 2 y)dθ 2 Monte Carlo -integroinnista Posteriorijakaumasta vedetyt näytteet kuvavat itse jakaumaa Näytteiden avulla voidaan tehdä esim. - histogrammi-esitys jakaumasta - laskea odotusarvoja - laskea p-arvoja Slide 6 Esim. ennustavan jakauman odotusarvo E[ỹ] 1 N N ỹ t t=1

58 Esimerkki marginalisoinnista - normaalijakauma Normaalijakaumamalli y µ, σ 2 N(µ, σ 2 ) µ = θ 1 ja σ 2 = θ 2 Usein µ kiinnostavampi Jos molemmat parametrit kiinnostavia, marginaalijakaumilla voidaan havainnollistaa yhteisjakaumaa Slide 7 Matlab-demo (esim4_1.m) y = [93, 112, 122, 135, 122, 150, 118, 90, 124, 114] Normaalijakauma - viime kerralla Normaalijakaumamalli tunnetulla varianssilla σ 2 ja θ:n priorilla N(µ 0, τ0 2 ), jos prioritarkkuus 1/τ0 2 pieni verrattuna datan tarkkuuteen n/σ 2, niin posteriorijakauma on melkein sama kuin jos τ 2 0 p(θ y) N(θ ȳ, σ 2 /n) =, eli p(θ) 1 Slide 8 Normaalijakaumamalli tunnetulla keskiarvolla ja Inv-χ 2 priori σ 2 :lle, jos priorin vapauasteet ν 0 pieni verrattuna datan vapausasteisiin n, niin posteriorijakauma on melkein sama kuin jos ν 0 = 0, eli p(σ 2 ) 1/σ 2 missä v = 1 n ni=1 (y i θ) 2 p(σ 2 y) Inv-χ 2 (σ 2 n, v)

59 Normaalijakauma - ei-informatiivinen priori Edellisen kalvon mukainen perustelu tai Jeffreysin priori-menetelmän (luento 3) mukaisesti normaalijakaumalla ei-informatiivinen priori p(µ, σ 2 ) 1/σ 2 Slide 9 Normaalijakauma - ei-informatiivinen priori Slide 10 Yhteisposteriorijakauma ( ) p(µ, σ 2 y) σ n 2 exp 1 n 2σ 2 (y i µ) 2 i=1 ( [ n ]) = σ n 2 exp 1 2σ 2 (y i ȳ) 2 + n(ȳ µ) 2 i=1 ( = σ n 2 exp 1 [ 2σ 2 (n 1)s 2 + n(ȳ µ) 2]) missä s 2 = 1 n 1 n (y i ȳ) 2 i=1 ȳ ja s 2 (ja n) ovat tyhjentävät tunnusluvut

60 Normaalijakauma - ei-informatiivinen priori Faktoroidaan p(µ, σ 2 y) = p(µ σ 2, y)p(σ 2 y) Ehdollinen posteriorijakauma p(µ σ 2, y) µ σ 2, y N(ȳ, σ 2 /n) sama kuin normaalijakauma tunnetulla varianssilla Slide 11 Normaalijakauma - ei-informatiivinen priori Faktoroidaan p(µ, σ 2 y) = p(µ σ 2, y)p(σ 2 y) Slide 12 Marginaaliposteriorijakauma p(σ 2 y) p(σ 2 y) σ n 2 exp ( σ n 2 exp ( σ n 2 exp ( 1 [ 2σ 2 (n 1)s 2 + n(ȳ µ) 2]) dµ ) 1 (n 1)s2 2σ 2 1 (n 1)s2 2σ 2 (σ 2 ) (n+1)/2 exp ( σ 2 y Inv-χ 2 (n 1, s 2 ) (n 1)s2 2σ 2 ( exp n 2σ 2 (ȳ µ)2) dµ ) 2πσ 2 /n )

61 Normaalijakauma - ei-informatiivinen priori Vertaa - keskiarvo tunnettu Slide 13 - keskiarvo tuntematon missä σ 2 y Inv-χ 2 (n, v) v = 1 n (y i θ) 2 n i=1 σ 2 y Inv-χ 2 (n 1, s 2 ) missä s 2 = 1 n (y i θ) 2 n 1 i=1 Normaalijakauma - ei-informatiivinen priori Faktoroidaan yhteisjakauma p(µ, σ 2 y) = p(µ σ 2, y)p(σ 2 y) Slide 14 Yhteisjakaumasta on helppo poimia näytteitä poimimalla ensin näytteitä σ 2 t jakaumasta p(σ 2 y) ja sitten näytteitä µ t jakaumasta p(µ σ 2 t ), nyt ( µ t, σ 2 t ) ovat jakaumasta p(µ, σ 2 y) esim4_2.m

62 Normaalijakauma - ei-informatiivinen priori Slide 15 Jos µ on kiinnostava, niin marginaaliposteriori p(µ y) on kiinnostava Muuttujanvaihdos z = p(µ y) = 0 p(µ, σ 2 y)dσ 2 A 2σ 2, missä A = (n 1)s2 + n(µ ȳ) 2 Tunnistetaan, että tulos on normalisoimaton gamma-integraali p(µ y) A n/2 z (n 2)/2 exp( z)dz 0 [(n 1)s 2 + n(µ ȳ) 2 ] n/2 ] n(µ ȳ)2 [1 + (n 1)s 2 µ y t n 1 (ȳ, s 2 /n) Normaalijakauma - ei-informatiivinen priori Marginaaliposterioria p(µ y) voidaan havainnollistaa faktoroinnin avulla p(µ y) = 0 p(µ σ 2, y)p(σ 2 y)dσ 2 poimimalla näytteitä σ t 2 jakaumasta p(σ 2 y) saadaan ehdolliset jakaumat p(µ σ t 2, y) joiden odotusarvo approksimoi integrointia σ 2 :n yli Slide 16 µ:n marginaaliposteriorijakauma on normaalijakaumien sekoitus (mixture of normal distributions) sekoitettuna varianssin marginaaliposteriorin yli esim4_3.m

63 Normaalijakauma - posterioriprediktiivinen jakauma p(ỹ y) = p(ỹ µ, σ 2, y)p(µ, σ 2 y)dµdσ 2 tästä on helppo vetää näytteitä, vetämällä ensin näytteitä ( µ t, σ 2 t ) posteriorijakaumasta ja sitten näytteitä ỹ t jakaumasta N( µ t, σ 2 t ) Slide 17 Normaalijakaumalle posterioriprediktiivinen jakauma voidaan myös laskea tarkasti; lasketaan ensin tunnetulla varianssilla (luento 3) p(ỹ σ 2, y) = p(ỹ µ, σ 2, y)p(µ σ 2, y)dµ = N(ỹ ȳ, (1 + 1 n )σ 2 ) tämä on skaalaa lukuunottamatta sama kuin p(µ σ 2, y), joten aiemman kalvon perusteella esim4_4.m ỹ y t n 1 (ȳ, (1 + 1 n )s2 ) Normaalijakauma - esimerkki Simon Newcombin koe vuonna 1882 mittasi valon nopeutta Matlab-demo (esim4_5.m) Posterioripäätelmät voivat olla ainoastaan yhtä hyviä kuin käytetty malli ja kokeet jotka datan tuottivat Slide 18

64 Normaalijakauma - konjugaattipriori Konjugaattipriorin oltava tulomuotoa p(σ 2 )p(µ σ 2 ) Kätevä parametrisointi on µ σ 2 N(µ 0, σ 2 /κ 0 ) σ 2 Inv-χ 2 (ν 0, σ0 2 ) Slide 19 joka voidaan merkitä myös p(µ, σ 2 ) = N-Inv-χ 2 (µ 0, σ 2 0 /κ 0; ν 0, σ 2 0 ) Tässä muodossa µ ja σ 2 riippuvia a priori - esim: jos σ 2 on iso, niin µ:n priorijakaumakin on leveä Normaalijakauma - konjugaattipriori Yhteisposteriorijakauma (tehtävä 3.9) p(µ, σ 2 y) = N-Inv-χ 2 (µ n, σ 2 n /κ n; ν n, σ 2 n ) Slide 20 missä µ n = κ 0 κ 0 + n µ 0 + n κ 0 + n ȳ κ n = κ 0 + n ν n = ν 0 + n ν n σ 2 n = ν 0σ (n 1)s2 + κ 0n κ 0 + n (ȳ µ 0) 2

65 Normaalijakauma - konjugaattipriori Ehdollinen jakauma p(µ σ 2, y) µ σ 2, y N(µ n, σ 2 /κ n ) = N ( κ0 µ σ n ȳ σ 2 κ 0 + n, σ 2 σ 2 1 κ 0 σ 2 + n σ 2 ) Slide 21 Marginaalijakauma p(σ 2 y) σ 2 y Inv-χ 2 (ν n, σ 2 n ) Marginaalijakauma p(µ y) µ y t νn (µ µ n, σ 2 n /κ n) Normaalijakauma - semikonjugaattipriori Usein käytetty semikonjugaattipriori (konjugaatti kummallekin parametrille erikseen, mutta ei yhdessä) µ σ 2 N(µ 0, τ0 2 ) σ 2 Inv-χ 2 (ν 0, σ0 2 ) Slide 22 missä µ ja σ 2 a priori riippumattomia Ehdollinen jakauma p(µ σ 2, y) µ σ 2, y N(µ n, τ 2 n ) missä µ n = 1 µ τ n ȳ σ 2 1 τ n ja τn 2 = 1 1 σ 2 τ n σ 2

66 Normaalijakauma - semikonjugaattipriori Marginaalijakauma p(σ 2 y) n p(σ 2 y) τ n N(µ n, µ 0, τ0 2 ) Inv-χ 2 (σ 2 ν 0, σ0 2 ) N(y i µ n, σ 2 ) i=1 Slide 23 Ei helppoa konjugaattista muotoa, mutta siitä voidaan poimia näytteitä helposti numeerisesti esim. hila-menetelmällä Myöhemmin opitaan kuinka Markov-ketju Monte Carlolla voidaan helposti poimia näytteitä yhteisposteriorijakaumasta tässä semikonjugaattiprioritapauksessa Moniulotteinen normaalijakauma Havainnot moniulotteisia ja yhteisjakauman oletetaan olevan normaalijakautunut Likelihood y µ, N(µ, ) Slide 24 missä µ on d:n pituinen vektori ja on d d kokoinen symmetrinen ja positiividefiniitti kovarianssimatriisi ( ) p(y µ, ) n/2 exp 1 n (y i µ) T 1 (y i µ) 2 i=1 ( = n/2 exp 1 ) 2 tr( 1 S 0 ) missä S 0 = n (y i µ)(y i µ) T i=1

67 Moniulotteinen normaalijakauma - tunnettu Posteriori µ y, N(µ n, n ) µ n = ( n 1 ) 1 ( 1 0 µ 0 + n 1 ȳ) 1 n = n 1 Posteriorimarginaali parametrien osajoukolle µ (1) Slide 25 µ (1) y N(µ (1) n, (11) n ) Posterioriehdollinen parametrien osajoukolle µ (1) µ (1) µ (2), y N(µ (1) n + β 1 2 (µ (2) µ (2) n ), 1 2 ) ( ) 1 missä β 1 2 = (12) n (22) n 1 2 n = (11) n (12) n ( (22) n ) 1 (21) n Moniulotteinen normaalijakauma - konjugaattipriori Konjugaattipriori Marginaalijakauma p(µ y) Inv-Wishart ν0 ( 1 0 ) µ N(µ 0, /κ 0 ) Slide 26 µ y t νn d+1(µ n, n /(κ n (ν n d + 1)))

68 Moniulotteinen normaalijakauma - ei-informatiivinen priori Moniulotteinen Jeffreysin priori p(µ, ) (d+1)/2 Marginaalijakauma p(µ y) µ y t n d ( µ, S/(n(n d))) Slide 27 Moniulotteinen normaalijakauma - ei-konjugaattiset priorit* Oikeissa ongelmissa Jeffreysin priori ja Inv-Wishart-priori toimivat usein hyvin huonosti - kovarianssimatriisissa yhteensä (d + 1)d/2 parametria - jos d suuri, tarvitaan paljon dataa Useita ei-konjugaattisia vaihtoehtoja Slide 28 - voidaan paremmin esittää erikseen priori-informaatio variansseista ja korrelaatioista

69 Multinomijakauma Multinomijakauma on binomijakauman yleistys kun mahdollisia lopputuloksia useampi kuin kaksi Sopii yksinkertaiseksi malliksi esimerkiksi vaaligalluppeihin Jos y on vektori jossa eri lopputulosten havaitut lukumäärät, niin Slide 29 p(y θ) k j=1 θ y j j, missä k j=1 θ j = 1 ja k j=1 y j = n Multinomijakauma Konjugaattipriori on Beta-priorin moniulotteinen yleistys Dirichlet-jakauma missä k j=1 θ j = 1 p(θ α) k j=1 θ α j 1 j, Slide 30 Posteriorijakauma on Dirichlet(α + y) Priori vastaa k j=1 α j havaintoa, joista α j havaintoa lopputulosten luokasta j Uniformi priori jos α j = 1 kaikille j

70 Kirjan esimerkki: myrkyllisyyskoe Esimerkki mallista jolle ei suljettua muotoa olevaa posteriorijakaumaa - mallintamisen periaattet silti samat - laskut helppo tehdä numeerisesti Yleistetty lineaarimalli - esimerkki regressiosta Slide 31 Kirjan esimerkki: myrkyllisyyskoe Dose, x i Number of Number of (log g/ml) animals, n i deaths, y i Slide 32 y i θ i Bin(n i, θ i ) Logistinen regressio logit(θ i ) = α + βx i Likelihood p(y i α, β, n i, x i ) [logit 1 (α + βx i )] y i [1 logit 1 (α + βx i )] n i y i Posteriori esim4_6.m n p(α, β y, n, x) p(α, β) p(y i α, β, n i, x i ) i=1

71 Loppuhuomioita Harvoille malleille suljettumuotoinen posteriorijakauma, mutta ei haittaa koska voimme käyttää - normaalijakauma-approksimaatiota (luku 4) - hierarkisia malleja (luku 5) - simulaatioita (luku 11) Slide 33 - variaatiolaskentaa* Yhteenveto yksinkertaisten mallien käsittelystä Kirjoita likelihood, jätä θ:sta riippumattomat termit pois Valitse priori Kirjoita posteriori Tee karkea arvio θ:lle Slide 34 Poimi näytteitä posteriorijakaumasta Poimi näytteitä ennustavasta jakaumasta

72 Termejä viime kerralta Yhteisjakauma p(θ 1, θ 2 y) p(y θ 1, θ 2 )p(θ 1, θ 2 ) Marginalisointi p(θ 1 y) = p(θ 1, θ 2 y)dθ 2 Slide 1 p(θ 1 y) on marginaalijakauma Posteriorijakauman faktorointi p(θ 1, θ 2 y) = p(θ 1 θ 2, y)p(θ 2 y) p(θ 1 θ 2, y) on ehdollinen posteriorijakauma Luento 5 Päättely suurten otosten tapauksessa, n - normaalijakauma-approksimaatio - suurten otosten teoria - asymptoottinen normaalius ja konsistenttisuus - vastaesimerkkejä Slide 2 Bayesilaisen päättelyn frekvenssiarviointi

73 Posteriorijakauman normaalijakauma-approksimaatio Jos posteriorijakauma unimodaalinen ja lähes symmetrinen, - voidaan posteriorijakauma p(θ y) approksimoida normaalijakaumalla ( ) 1 p(θ y) = exp 1 2πσθ 2σθ 2 (θ ˆθ) 2 Slide 3 - eli log-posteriori log p(θ y) voidaan approksimoida neliöllisellä funktiolla log p(θ y) = α(θ ˆθ) 2 + C Taylorin sarjakehitelmä Yksiulotteinen Taylorin sarjakehitelmä pisteen x = a ympäristössä f (x) = f (a) + f (a)(x a) + f (a) 2! (x a) 2 + f (3) (a) (x a) ! Slide 4 Yleistyy vastaavasti moniulotteiselle funktiolle f (x 1,..., x n ) = [ n ] j 1 (x k a x ) j! x f (x k=1 k j=0 1,..., x n ) x 1 =a 1,...,x n =a n

74 Posteriorijakauman normaalijakauma-approksimaatio Slide 5 Log-posteriorin Taylorin sarjakehitelmä posteriorimoodin ˆθ ympärillä log p(θ y) = log p( ˆθ y) + 1 [ d 2 (θ ˆθ) T 2 ] log p(θ y) (θ ˆθ) +... dθ 2 missä lineaaritermi on nolla, koska log p(θ y):n derivaatta on moodissa nolla ja korkeammat termit ovat pieniä verrattuna neliöllisen termiin kun θ lähellä ˆθ:aa ja n on iso Moniulotteinen normaalijakauma 1/2 exp θ= ˆθ ( ) 1 2 (θ ˆθ T ) 1 (θ ˆθ) Koska ensimmäinen termi vakio ja toinen termi suhteessa normaalijakauman logaritmiin missä I (θ) on havaittu informaatio p(θ y) N( ˆθ, [I ( ˆθ)] 1 ) I (θ) = d2 log p(θ y) dθ 2 Posteriorijakauman normaalijakauma-approksimaatio I (θ) on havaittu informaatio I (θ) = d2 log p(θ y) dθ 2 Slide 6 - I ( ˆθ) on log-posteriorin toiset derivaatat moodissa eli kuvaa log-posteriorin kaarevuden moodissa - jos moodi on parametriavaruuden sisällä I ( ˆθ) positiivinen - jos θ on vektori, I (θ) on matriisi

Luento 2. Yksiparametrisia malleja. Binomi-malli. Posteriorijakauman esittämisestä. Informatiivisista priorijakaumista. Konjugaattipriori.

Luento 2. Yksiparametrisia malleja. Binomi-malli. Posteriorijakauman esittämisestä. Informatiivisista priorijakaumista. Konjugaattipriori. Luento 2 Binomi-malli Posteriorijakauman esittämisestä Informatiivisista priorijakaumista Konjugaattipriori Slide 1 Yksiparametrisia malleja Binomi Jacob Bernoulli (1654-1705), Bayes (1702-1761) Normaali

Lisätiedot

- voidaan käyttä lisämään tieteellistä ymmärrystä ilmiöstä. - joidenkin havaittavien suureiden vaikutus voi olla paljon suurempi kuin toisten

- voidaan käyttä lisämään tieteellistä ymmärrystä ilmiöstä. - joidenkin havaittavien suureiden vaikutus voi olla paljon suurempi kuin toisten Viime kerralla Normaalijakauma tunnetulla varianssilla Normaalijakauma tunnetulla keskiarvolla Poisson-mallli Exponentiaalinen malli Slide 1 Cauchy-jakauma Ei-informatiivisista priorijakaumista Bayesilaisen

Lisätiedot

exp Luento 3 Normaalijakauma (Gaussian) Normaalijakauma tunnetulla varianssilla Normaalijakauma tunnetulla keskiarvolla Poisson-mallli

exp Luento 3 Normaalijakauma (Gaussian) Normaalijakauma tunnetulla varianssilla Normaalijakauma tunnetulla keskiarvolla Poisson-mallli Luento 3 Normaalijakauma tunnetulla varianssilla Normaalijakauma tunnetulla keskiarvolla Poisson-mallli Exponentiaalinen malli Slide Cauchy-jakauma Ei-informatiivisista priorijakaumista *-merkatut kalvot

Lisätiedot

exp p(y θ) = 1 2πσ θ)2 2σ 2(y y N(θ, σ 2 ) Luento 3 Normaalijakauma (Gaussian) Normaalijakauma tunnetulla varianssilla

exp p(y θ) = 1 2πσ θ)2 2σ 2(y y N(θ, σ 2 ) Luento 3 Normaalijakauma (Gaussian) Normaalijakauma tunnetulla varianssilla Luento 3 Normaalijakauma tunnetulla varianssilla Normaalijakauma tunnetulla keskiarvolla Poisson-malli Exponentiaalinen malli Slide 1 Cauchy-jakauma Lisää konjugaattiprioreista Ei-informatiivisista priorijakaumista

Lisätiedot

S-114.600 Bayesilaisen mallintamisen perusteet

S-114.600 Bayesilaisen mallintamisen perusteet S-114.600 Bayesilaisen mallintamisen perusteet Laajuus: 2 ov Opettajat: TkT Aki Vehtari, DI Toni Tamminen Slide 1 Sisältö: Bayesilainen todennäköisyysteoria ja bayesilainen päättely. Bayesilaiset mallit

Lisätiedot

Binomi Jacob Bernoulli ( ), Bayes ( ) Normaali de Moivre ( ), Laplace ( ), Gauss ( )

Binomi Jacob Bernoulli ( ), Bayes ( ) Normaali de Moivre ( ), Laplace ( ), Gauss ( ) Luento 2 Binomi-malli Posteriorijakauman esittämisestä Informatiivisista priorijakaumista Konjugaattipriori Slide 1 Yksiparametrisia malleja Binomi Jacob Bernoulli (1654-1705), Bayes (1702-1761) Normaali

Lisätiedot

Bayesilaisen mallintamisen perusteet kurssin sisältö

Bayesilaisen mallintamisen perusteet kurssin sisältö S-114.2601 Bayesilaisen mallintamisen perusteet Laajuus: 5 op, L Opettajat: Dos. TkT Aki Vehtari, DI Jarno Vanhatalo Slide 1 Sisältö: Bayesilainen todennäköisyysteoria ja bayesilainen päättely. Bayesilaiset

Lisätiedot

p(θ 1 y) on marginaalijakauma p(θ 1 θ 2, y) on ehdollinen posteriorijakauma Viime kerralla Termejä viime kerralta Marginalisointi Marginaalijakauma

p(θ 1 y) on marginaalijakauma p(θ 1 θ 2, y) on ehdollinen posteriorijakauma Viime kerralla Termejä viime kerralta Marginalisointi Marginaalijakauma Viime kerralla Marginalisointi Marginaalijakauma Posteriorijakauman faktorointi Ehdollinen posteriorijakauma Slide 1 Posteriorijakaumasta simulointi Normaalijakauma - tuntematon keskiarvo ja varianssi

Lisätiedot

Posteriorijakauman normaalijakauma-approksimaatio. Usein posteriorijakauma lähestyy normaalijakaumaa kun n

Posteriorijakauman normaalijakauma-approksimaatio. Usein posteriorijakauma lähestyy normaalijakaumaa kun n Luento 5 Päättely suurten otosten tapauksessa, n - normaalijakauma-approksimaatio - suurten otosten teoria - asymptoottinen normaalius ja konsistenttisuus - vastaesimerkkejä Slide 1 Bayesilaisen päättelyn

Lisätiedot

Viime kerralla. Luento 6. Normaalijakauma-approksimaatio - moodi. - havaittu informaatio

Viime kerralla. Luento 6. Normaalijakauma-approksimaatio - moodi. - havaittu informaatio Viime kerralla Normaalijakauma-approksimaatio - moodi - havaittu informaatio Suurten otosten teoria - asymptoottinen normaalius ja konsistenttisuus Slide 1 - vastaesimerkkejä Bayesilaisen päättelyn frekvenssiarviointi

Lisätiedot

Pikajohdatus bayesilaiseen tilastoanalyysiin ja monimuuttuja-analyysiin

Pikajohdatus bayesilaiseen tilastoanalyysiin ja monimuuttuja-analyysiin ja monimuuttuja-analyysiin Loppuseminaari: Terveydenhuollon uudet analyysimenetelmät (TERANA) Aki Vehtari AB HELSINKI UNIVERSITY OF TECHNOLOGY Department of Biomedical Engineering and Computational Science

Lisätiedot

θ 1 θ 2 θ n y i1 y i2 y in Luento 6 Hierarkkinen malli Johdatus hierarkkisiin malleihin - joskus myös termillä multilevel model

θ 1 θ 2 θ n y i1 y i2 y in Luento 6 Hierarkkinen malli Johdatus hierarkkisiin malleihin - joskus myös termillä multilevel model Luento 6 Johdatus hierarkkisiin malleihin - joskus myös termillä multilevel model Vaihtokelpoisuus (exchangeability) Slide 1 Hierarkkinen malli Esimerkki: sydäntautien hoidon tehokkuus - sairaalassa j

Lisätiedot

Tentin materiaali. Sivia: luvut 1,2, , ,5. MacKay: luku 30. Gelman, 1995: Inference and monitoring convergence

Tentin materiaali. Sivia: luvut 1,2, , ,5. MacKay: luku 30. Gelman, 1995: Inference and monitoring convergence Tentin materiaali Sivia: luvut 1,2,3.1-3.3,4.1-4.2,5 MacKay: luku 30 Gelman, 1995: Inference and monitoring convergence Gelman & Meng, 1995: Model checking and model improvement Kalvot Harjoitustyöt Tentin

Lisätiedot

Bayesilainen päätöksenteko / Bayesian decision theory

Bayesilainen päätöksenteko / Bayesian decision theory Bayesilainen päätöksenteko / Bayesian decision theory Todennäköisyysteoria voidaan perustella ilman päätösteoriaa, mutta vasta päätösteorian avulla siitä on oikeasti hyötyä Todennäköisyyteoriassa tavoitteena

Lisätiedot

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu 1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo

Lisätiedot

Mitä on bayesilainen päättely?

Mitä on bayesilainen päättely? Metodifestivaali 29.5.2009 Aki Vehtari AB TEKNILLINEN KORKEAKOULU Lääketieteellisen tekniikan ja laskennallisen tieteen laitos Esityksen sisältö Miksi? Epävarmuuden esittäminen Tietämyksen päivittäminen

Lisätiedot

Tilastollinen aineisto Luottamusväli

Tilastollinen aineisto Luottamusväli Tilastollinen aineisto Luottamusväli Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Tilastollinen aineisto p.1/20 Johdanto Kokeellisessa tutkimuksessa tutkittavien suureiden

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4B Bayesläinen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy

Lisätiedot

3.6 Su-estimaattorien asymptotiikka

3.6 Su-estimaattorien asymptotiikka 3.6 Su-estimaattorien asymptotiikka su-estimaattorit ovat usein olleet puutteellisia : ne ovat usein harhaisia ja eikä ne välttämättä ole täystehokkaita asymptoottisilta ominaisuuksiltaan ne ovat yleensä

Lisätiedot

Väliestimointi (jatkoa) Heliövaara 1

Väliestimointi (jatkoa) Heliövaara 1 Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).

Lisätiedot

1. Tilastollinen malli??

1. Tilastollinen malli?? 1. Tilastollinen malli?? https://fi.wikipedia.org/wiki/tilastollinen_malli https://en.wikipedia.org/wiki/statistical_model http://projecteuclid.org/euclid.aos/1035844977 Tilastollinen malli?? Numeerinen

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5A Bayeslainen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Lukuvuosi

Lisätiedot

2. Uskottavuus ja informaatio

2. Uskottavuus ja informaatio 2. Uskottavuus ja informaatio Aluksi käsittelemme uskottavuus- ja log-uskottavuusfunktioita Seuraavaksi esittelemme suurimman uskottavuuden estimointimenetelmän Ensi viikolla perehdymme aiheeseen lisääkö

Lisätiedot

Bayesilaisen mallintamisen perusteet

Bayesilaisen mallintamisen perusteet Bayesilaisen mallintamisen perusteet Johdanto Yksiparametrisia malleja Moniparametrisia malleja Slide 1 Päättely suurten otosten tapauksessa ja bayesilaisen päättelyn frekvenssiominaisuudet Hierarkiset

Lisätiedot

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: 4. Tyhjentyvyys Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: Voidaanko päätelmät perustaa johonkin tunnuslukuun t = t(y) koko aineiston y sijasta? Mitä

Lisätiedot

Todennäköisyyden ominaisuuksia

Todennäköisyyden ominaisuuksia Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset

Lisätiedot

Estimointi. Vilkkumaa / Kuusinen 1

Estimointi. Vilkkumaa / Kuusinen 1 Estimointi Vilkkumaa / Kuusinen 1 Motivointi Tilastollisessa tutkimuksessa oletetaan jonkin jakauman generoineen tutkimuksen kohteena olevaa ilmiötä koskevat havainnot Tämän mallina käytettävän todennäköisyysjakauman

Lisätiedot

Tutkimustiedonhallinnan peruskurssi

Tutkimustiedonhallinnan peruskurssi Tutkimustiedonhallinnan peruskurssi Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo hannu.toivonen, marko.salmenkivi, inkeri.verkamo@cs.helsinki.fi Helsingin yliopisto Hannu Toivonen, Marko Salmenkivi,

Lisätiedot

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Tilastollinen testaus. Vilkkumaa / Kuusinen 1 Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää

Lisätiedot

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5A Bayeslainen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy

Lisätiedot

Luento 11. Muutama hyödyllinen Monte Carlo-menetelmä. Muutama hyödyllinen Monte Carlo-menetelmä. Mitä muuta hyödyllistä Gelman et al kirjasta löytyy

Luento 11. Muutama hyödyllinen Monte Carlo-menetelmä. Muutama hyödyllinen Monte Carlo-menetelmä. Mitä muuta hyödyllistä Gelman et al kirjasta löytyy Luento 11 Muutama hyödyllinen Monte Carlo-menetelmä Mitä muuta hyödyllistä Gelman et al kirjasta löytyy Kertaus koko kurssiin - tenttiinlukuohjeet Slide 1 Muutama hyödyllinen Monte Carlo-menetelmä Hylkäyspoiminta

Lisätiedot

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

Tilastotieteen kertaus. Kuusinen/Heliövaara 1 Tilastotieteen kertaus Kuusinen/Heliövaara 1 Mitä tilastotiede on? Tilastotiede kehittää ja soveltaa menetelmiä, joiden avulla reaalimaailman ilmiöistä voidaan tehdä johtopäätöksiä tilanteissa, joissa

Lisätiedot

Luku 10. Bayesläiset estimaattorit Bayesläiset piste-estimaatit. Lasse Leskelä Aalto-yliopisto 18. lokakuuta 2017

Luku 10. Bayesläiset estimaattorit Bayesläiset piste-estimaatit. Lasse Leskelä Aalto-yliopisto 18. lokakuuta 2017 Luku 1 Bayesläiset estimaattorit Lasse Leskelä Aalto-yliopisto 18. lokakuuta 217 1.1 Bayesläiset piste-estimaatit Tarkastellaan datalähdettä, joka tuottaa tiheysfunktion f(x θ) mukaan jakautuneita riippumattomia

Lisätiedot

5.7 Uskottavuusfunktioon perustuvia testejä II

5.7 Uskottavuusfunktioon perustuvia testejä II 5.7 Uskottavuusfunktioon perustuvia testejä II Tässä pykälässä pohditaan edellä tarkasteltujen kolmen testisuureen yleistystä malleihin, joiden parametri on useampiulotteinen, ja testausasetelmiin, joissa

Lisätiedot

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1 Todennäköisyyslaskun kertaus Vilkkumaa / Kuusinen 1 Satunnaismuuttujat ja todennäköisyysjakaumat Vilkkumaa / Kuusinen 2 Motivointi Kokeellisessa tutkimuksessa tutkittaviin ilmiöihin liittyvien havaintojen

Lisätiedot

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1 Tilastotieteen kertaus Vilkkumaa / Kuusinen 1 Motivointi Reaalimaailman ilmiöihin liittyy tyypillisesti satunnaisuutta ja epävarmuutta Ilmiöihin liittyvien havaintojen ajatellaan usein olevan peräisin

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Jatkuvia jakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Jatkuvia jakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Jatkuvia jakaumia TKK (c) Ilkka Mellin (2006) 1 Jatkuvia jakaumia >> Jatkuva tasainen jakauma Eksponenttijakauma Normaalijakauma Keskeinen

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Tilastollisen analyysin perusteet Luento 1: Lokaatio ja hajonta

Tilastollisen analyysin perusteet Luento 1: Lokaatio ja hajonta Tilastollisen analyysin perusteet Luento 1: ja hajonta Sisältö Havaittujen arvojen jakauma Havaittujen arvojen jakaumaa voidaan kuvailla ja esitellä tiivistämällä havaintoarvot sopivaan muotoon. Jakauman

Lisätiedot

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (5) 1 Momenttiemäfunktio ja karakteristinen funktio Momenttiemäfunktio Diskreettien jakaumien momenttiemäfunktioita

Lisätiedot

Maximum likelihood-estimointi Alkeet

Maximum likelihood-estimointi Alkeet Maximum likelihood-estimointi Alkeet Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Maximum likelihood-estimointi p.1/20 Maximum Likelihood-estimointi satunnaismuuttujan X

Lisätiedot

30A02000 Tilastotieteen perusteet

30A02000 Tilastotieteen perusteet 30A02000 Tilastotieteen perusteet Kertaus 1. välikokeeseen Lauri Viitasaari Tieto- ja palvelujohtamisen laitos Kauppatieteiden korkeakoulu Aalto-yliopisto Syksy 2019 Periodi I-II Sisältö Välikokeesta Joukko-oppi

Lisätiedot

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi

Lisätiedot

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1 T-61.281 Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti 10.2.2004, 8:30-10:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:

Lisätiedot

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on HY, MTO / Matemaattisten tieteiden kandiohjelma Tilastollinen päättely II, kevät 018 Harjoitus B Ratkaisuehdotuksia Tehtäväsarja I 1 (Monisteen tehtävä 14) Olkoon f Y (y; θ) tilastollinen malli, jonka

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio Ilkka Mellin Todennäköisyyslaskenta Osa : Satunnaismuuttujat ja todennäköisyysjakaumat Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (7) 1 Momenttiemäfunktio ja karakteristinen funktio

Lisätiedot

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Frekventistiset vs. bayeslaiset menetelmät Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Harjoitus 7: NCSS - Tilastollinen analyysi

Harjoitus 7: NCSS - Tilastollinen analyysi Harjoitus 7: NCSS - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tilastollinen testaus Testaukseen

Lisätiedot

Bayes-mallinnus siltana teorian ja empiirisen evidenssin välillä

Bayes-mallinnus siltana teorian ja empiirisen evidenssin välillä Bayes-mallinnus siltana teorian ja empiirisen evidenssin välillä Antti Penttinen Jyväskylän yliopisto Matematiikan ja tilastotieteen laitos Metodifestivaalit Jyväskylän yliopisto 21.5.2013 Suunnitelma

Lisätiedot

tilastotieteen kertaus

tilastotieteen kertaus tilastotieteen kertaus Keskiviikon 24.1. harjoitukset pidetään poikkeuksellisesti klo 14-16 luokassa Y228. Heliövaara 1 Mitä tilastotiede on? Tilastotiede kehittää ja soveltaa menetelmiä, joiden avulla

Lisätiedot

Osa 2: Otokset, otosjakaumat ja estimointi

Osa 2: Otokset, otosjakaumat ja estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

11 Raja-arvolauseita ja approksimaatioita

11 Raja-arvolauseita ja approksimaatioita 11 Raja-arvolauseita ja approksimaatioita Tässä luvussa esitellään sellaisia kuuluisia todennäköisyysteorian raja-arvolauseita, joita sovelletaan usein tilastollisessa päättelyssä. Näiden raja-arvolauseiden

Lisätiedot

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI 1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia

Lisätiedot

Moniulotteisia todennäköisyysjakaumia

Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista

Lisätiedot

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille TKK (c) Ilkka Mellin (004) 1 Testit suhdeasteikollisille muuttujille Testit normaalijakauman parametreille Yhden otoksen t-testi Kahden

Lisätiedot

Tilastollinen päättely II, kevät 2017 Harjoitus 1A

Tilastollinen päättely II, kevät 2017 Harjoitus 1A Tilastollinen päättely II, kevät 207 Harjoitus A Heikki Korpela 23. tammikuuta 207 Tehtävä. Kertausta todennäköisyyslaskennasta. Ilmoita satunnaismuuttujan Y jakauman nimi ja pistetodennäköisyys- tai tiheysfunktio

Lisätiedot

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI 1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia

Lisätiedot

Tilastollinen päättely II, kevät 2017 Harjoitus 2A

Tilastollinen päättely II, kevät 2017 Harjoitus 2A Tilastollinen päättely II, kevät 07 Harjoitus A Heikki Korpela 3. tammikuuta 07 Tehtävä. (Monisteen tehtävä.3 Olkoot Y,..., Y n Exp(λ. Kirjoita vastaava tilastollisen mallin lauseke (ytf. Muodosta sitten

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 18. lokakuuta 2007 Antti Rasila () TodB 18. lokakuuta 2007 1 / 19 1 Tilastollinen aineisto 2 Tilastollinen malli Yksinkertainen satunnaisotos 3 Otostunnusluvut

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 7

Inversio-ongelmien laskennallinen peruskurssi Luento 7 Inversio-ongelmien laskennallinen peruskurssi Luento 7 Kevät 2012 1 Tilastolliset inversio-ongelmat Tilastollinen ionversio perustuu seuraaviin periaatteisiin: 1. Kaikki mallissa olevat muuttujat mallinnetaan

Lisätiedot

Markov-ketju Monte Carlo - konvergenssidiagnostiikka (convergence diagnostics) - odotettu hyöty tai kustannus (expected utility or cost)

Markov-ketju Monte Carlo - konvergenssidiagnostiikka (convergence diagnostics) - odotettu hyöty tai kustannus (expected utility or cost) Viime kerralla Markov-ketju Monte Carlo - konvergenssidiagnostiikka (convergence diagnostics) - kuinka monta riippuvaa simulaationäytettä tarvitaan - joitakin perus-mcmc-menetelmien parannuksia Slide 1

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Parametrin estimointi ja bootstrap-otanta

Parametrin estimointi ja bootstrap-otanta Parametrin estimointi ja bootstrap-otanta Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo Tutkimustiedonhallinnan peruskurssi Parametrin estimointi ja bootstrap-otanta 1/27 Kevät 2003 Käytännön asioista

Lisätiedot

Log-tiheydet - yli- ja alivuotojen välttämiseksi laskenta usein suoritettava log-tiheyksillä

Log-tiheydet - yli- ja alivuotojen välttämiseksi laskenta usein suoritettava log-tiheyksillä Luento 7 Yleistä laskennasta mm. (luvut 10 ja 12) - karkea estimointi - posteriorimoodit - kuinka monta simulaationäytettä tarvitaan Monte Carlo (luku 11) Slide 1 - suora simulointi - hiladiskretointi

Lisätiedot

T Luonnollisten kielten tilastollinen käsittely

T Luonnollisten kielten tilastollinen käsittely T-61.281 Luonnollisten kielten tilastollinen käsittely Vastaukset 3, ti 11.2.2003, 16:15-18:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:

Lisätiedot

p(y θ, M) p(θ M)dθ p(θ y, M) = p(y M) Luento 10 Marginaaliuskottavuus Bayes-tekijä Mallin odotettu hyöty DIC (Deviance Information Criterion)

p(y θ, M) p(θ M)dθ p(θ y, M) = p(y M) Luento 10 Marginaaliuskottavuus Bayes-tekijä Mallin odotettu hyöty DIC (Deviance Information Criterion) Luento 10 Bayes-tekijä Mallin odotettu hyöty DIC (Deviance Information Criterion) Mallin valinta Slide 1 Marginaaliuskottavuus Bayesin kaava missä p(θ y, M) = p(y M) = p(y θ, M)p(θ M) p(y M) p(y θ, M)

Lisätiedot

Otosavaruus ja todennäköisyys Otosavaruus Ë on joukko, jonka alkiot ovat kokeen tulokset Tapahtuma on otosavaruuden osajoukko

Otosavaruus ja todennäköisyys Otosavaruus Ë on joukko, jonka alkiot ovat kokeen tulokset Tapahtuma on otosavaruuden osajoukko ÌÓÒÒĐĐÓ ÝÝ ÔÖÙ ØØ Naiiveja määritelmiä Suhteellinen frekvenssi kun ilmiö toistuu Jos tehdas on valmistanut 1000000 kpl erästä tuotetta, joista 5013 ovat viallisia, niin todennäköisyys, että tuote on viallinen

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 15 1 Tilastollisia testejä Z-testi Normaalijakauman odotusarvon testaus, keskihajonta tunnetaan

Lisätiedot

Johdatus todennäköisyyslaskentaan Jatkuvia jakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Jatkuvia jakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Jatkuvia jakaumia TKK (c) Ilkka Mellin (2005) 1 Jatkuvia jakaumia Jatkuva tasainen jakauma Eksponenttijakauma Normaalijakauma Keskeinen raja-arvolause TKK (c) Ilkka Mellin

Lisätiedot

Jatkuvat satunnaismuuttujat

Jatkuvat satunnaismuuttujat Jatkuvat satunnaismuuttujat Satunnaismuuttuja on jatkuva jos se voi ainakin periaatteessa saada kaikkia mahdollisia reaalilukuarvoja ainakin tietyltä väliltä. Täytyy ymmärtää, että tällä ei ole mitään

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5A Tilastollisen merkitsevyyden testaus (+ jatkuvan parametrin Bayes-päättely) Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Tilastotieteen aihehakemisto

Tilastotieteen aihehakemisto Tilastotieteen aihehakemisto hakusana ARIMA ARMA autokorrelaatio autokovarianssi autoregressiivinen malli Bayes-verkot, alkeet TILS350 Bayes-tilastotiede 2 Bayes-verkot, kausaalitulkinta bootstrap, alkeet

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin

Lisätiedot

6. laskuharjoitusten vastaukset (viikot 10 11)

6. laskuharjoitusten vastaukset (viikot 10 11) 6. laskuharjoitusten vastaukset (viikot 10 11) 1. a) Sivun 102 hypergeometrisen jakauman määritelmästä saadaan µ µ 13 39 13! 13 12 11 10 9 µ 0! 8! 1! 2 2! 2 1 0 49 48! 47!! 14440 120 31187200 120 1287

Lisätiedot

Gaussiset prosessit derivaattahavainnoilla regressio-ongelmassa (valmiin työn esittely)

Gaussiset prosessit derivaattahavainnoilla regressio-ongelmassa (valmiin työn esittely) Gaussiset prosessit derivaattahavainnoilla regressio-ongelmassa (valmiin työn esittely) Ohjaaja: TkT Aki Vehtari Valvoja: Prof. Harri Ehtamo Kandidaattiseminaari 21 1.11.21 Esityksen rakenne Tausta Derivaattahavaintojen

Lisätiedot

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 017 Harjoitus 5 Ratkaisuehdotuksia Tehtäväsarja I 1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X

Lisätiedot

P (A)P (B A). P (B) P (A B) = P (A = 0)P (B = 1 A = 0) P (B = 1) P (A = 1)P (B = 1 A = 1) P (B = 1)

P (A)P (B A). P (B) P (A B) = P (A = 0)P (B = 1 A = 0) P (B = 1) P (A = 1)P (B = 1 A = 1) P (B = 1) Harjoitustehtäviä (erä 1) 1 1. Käytetään yksinkertaisesti Bayesin kaavaa: P (A B) = P (A)P (B A). P (B) Tapauksessa B = 1 saadaan P (A = 0 B = 1) = P (A = 1 B = 1) = P (A = 0)P (B = 1 A = 0) P (A = 1)P

Lisätiedot

pitkittäisaineistoissa

pitkittäisaineistoissa Puuttuvan tiedon ongelma p. 1/18 Puuttuvan tiedon ongelma pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto mtl.uta.fi/tilasto/sekamallit/puupitkit.pdf

Lisätiedot

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL Mallin arviointi ja valinta Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL Sisältö Otoksen ennustevirheen estimointi AIC - Akaiken informaatiokriteeri mallin valintaan Parametrimäärän

Lisätiedot

Kertausluento. Tilastollinen päättely II - 2. kurssikoe

Kertausluento. Tilastollinen päättely II - 2. kurssikoe Kertausluento Tilastollinen päättely II - 2. kurssikoe Yleistä tietoa TP II -2. kurssikokeesta 2. kurssikoe maanantaina 6.5.2019 klo 12.00-14.30 jossakin Exactumin auditoriossa Kurssikokeeseen ilmoittaudutaan

Lisätiedot

Teema 8: Parametrien estimointi ja luottamusvälit

Teema 8: Parametrien estimointi ja luottamusvälit Teema 8: Parametrien estimointi ja luottamusvälit Todennäköisyyslaskennan perusteet (Teemat 6 ja 7) antavat hyvän pohjan siirtyä kurssin viimeiseen laajempaan kokonaisuuteen, nimittäin tilastolliseen päättelyyn.

Lisätiedot

Harjoitus 2: Matlab - Statistical Toolbox

Harjoitus 2: Matlab - Statistical Toolbox Harjoitus 2: Matlab - Statistical Toolbox Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen tavoitteet Satunnaismuuttujat ja todennäköisyysjakaumat

Lisätiedot

Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden

Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden 1.12.2006 1. Satunnaisjakauman tiheysfunktio on Ü µ Üe Ü, kun Ü ja kun Ü. Määritä parametrin estimaattori momenttimenetelmällä ja suurimman uskottavuuden menetelmällä. Ratkaisu: Jotta kyseessä todella

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 28. syyskuuta 2007 Antti Rasila () TodB 28. syyskuuta 2007 1 / 20 1 Jatkoa diskreeteille jakaumille Negatiivinen binomijakauma Poisson-jakauma Diskreettien

Lisätiedot

MTTTP5, luento Otossuureita ja niiden jakaumia (jatkuu)

MTTTP5, luento Otossuureita ja niiden jakaumia (jatkuu) 21.11.2017/1 MTTTP5, luento 21.11.2017 Otossuureita ja niiden jakaumia (jatkuu) 4) Olkoot X 1, X 2,..., X n satunnaisotos (, ):sta ja Y 1, Y 2,..., Y m satunnaisotos (, ):sta sekä otokset riippumattomia.

Lisätiedot

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 3A Satunnaismuuttujien summa ja keskihajonta Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Tilastollinen päättely, 10 op, 4 ov

Tilastollinen päättely, 10 op, 4 ov Tilastollinen päättely, 0 op, 4 ov Arto Luoma Matematiikan, tilastotieteen ja filosofian laitos Tilastotiede 3304 TAMPEREEN YLIOPISTO Syksy 2006 Kirjallisuutta Garthwaite, Jolliffe, Jones Statistical Inference,

Lisätiedot

2. Uskottavuus ja informaatio

2. Uskottavuus ja informaatio 2. Uskottavuus ja informaatio Viimeksi käsittelimme uskottavuusfunktioita, log-uskottavuusfunktioita ja su-estimaatteja Seuraavaksi tarkastelemme parametrin muunnoksia ja kuinka su-estimaatit käyttäytyvät

Lisätiedot

Matemaattinen tilastotiede. Erkki Liski Matematiikan, Tilastotieteen ja Filosofian Laitos Tampereen Yliopisto

Matemaattinen tilastotiede. Erkki Liski Matematiikan, Tilastotieteen ja Filosofian Laitos Tampereen Yliopisto Matemaattinen tilastotiede Erkki Liski Matematiikan, Tilastotieteen ja Filosofian Laitos Tampereen Yliopisto Alkusanat Tämä moniste perustuu vuosina 2002-2004 pitämiini matemaattisen tilastotieteen luentoihin

Lisätiedot

Tilastollisia peruskäsitteitä ja Monte Carlo

Tilastollisia peruskäsitteitä ja Monte Carlo Tilastollisia peruskäsitteitä ja Monte Carlo Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo Tutkimustiedonhallinnan peruskurssi Tilastollisia peruskäsitteitä ja Monte Carlo 1/13 Kevät 2003 Tilastollisia

Lisätiedot

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2005) 1

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2005) 1 Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille TKK (c) Ilkka Mellin (005) 1 Testit suhdeasteikollisille muuttujille Testit normaalijakauman parametreille Yhden otoksen t-testi Kahden

Lisätiedot

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B Tilastollinen päättömyys, kevät 7 Harjoitus 6B Heikki Korpela 8. helmikuuta 7 Tehtävä. Monisteen teht. 6... Olkoot Y,..., Y 5 Nµ, σ, ja merkitään S 5 i Y i Y /4. Näytä, että S/σ on saranasuure eli sen

Lisätiedot

Johdatus tn-laskentaan perjantai 17.2.2012

Johdatus tn-laskentaan perjantai 17.2.2012 Johdatus tn-laskentaan perjantai 17.2.2012 Kahden diskreetin muuttujan yhteisjakauma On olemassa myös monen muuttujan yhteisjakauma, ja jatkuvien muuttujien yhteisjakauma (jota ei käsitellä tällä kurssilla;

Lisätiedot

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2006) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 18 1 Kertausta: momenttimenetelmä ja suurimman uskottavuuden menetelmä 2 Tilastollinen

Lisätiedot