P (A)P (B A). P (B) P (A B) = P (A = 0)P (B = 1 A = 0) P (B = 1) P (A = 1)P (B = 1 A = 1) P (B = 1)

Samankaltaiset tiedostot
Satunnaislukujen generointi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Generoivat funktiot, Poisson- ja eksponenttijakaumat

v 8 v 9 v 5 C v 3 v 4

1 + b t (i, j). Olkoon b t (i, j) todennäköisyys, että B t (i, j) = 1. Siis operaation access(j) odotusarvoinen kustannus ajanhetkellä t olisi.

4.1. Olkoon X mielivaltainen positiivinen satunnaismuuttuja, jonka odotusarvo on

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Mat Sovellettu todennäköisyyslasku A

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat. TKK (c) Ilkka Mellin (2004) 1

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Kertymäfunktio. TKK (c) Ilkka Mellin (2007) 1

Satunnaismuuttujien muunnokset ja niiden jakaumat

Tilastollisia peruskäsitteitä ja Monte Carlo

Luku 8. Aluekyselyt. 8.1 Summataulukko

The Metropolis-Hastings Algorithm

Luku 10. Bayesläiset estimaattorit Bayesläiset piste-estimaatit. Lasse Leskelä Aalto-yliopisto 18. lokakuuta 2017

Koska ovat negatiiviset. Keskihajontoja ei pystytä laskemaan mutta pätee ¾.

Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden

- kuinka monta riippuvaa simulaationäytettä tarvitaan. - hyödyllisiä perus-mcmc-menetelmien parannuksia

T Luonnollisten kielten tilastollinen käsittely

Johdatus todennäköisyyslaskentaan Kertymäfunktio. TKK (c) Ilkka Mellin (2005) 1

MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ

Differentiaali- ja integraalilaskenta 2 Laskuharjoitus 4 / vko 40

Johdatus tn-laskentaan perjantai

Markov-ketjut pitkällä aikavälillä

Esimerkki: Tietoliikennekytkin

= 2±i2 7. x 2 = 0, 1 x 2 = 0, 1+x 2 = 0.

Sovellettu todennäköisyyslaskenta B

c) A = pariton, B = ainakin 4. Nyt = silmäluku on5 Koska esim. P( P(A) P(B) =, eivät tapahtumat A ja B ole riippumattomia.

Sovellettu todennäköisyyslaskenta B

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio

Matematiikan tukikurssi, kurssikerta 3

1 Määrittelyjä ja aputuloksia

9. laskuharjoituskierros, vko 12-13, ratkaisut

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1

Derivaatan sovellukset (ääriarvotehtävät ym.)

MS-A0003/A0005 Matriisilaskenta Malliratkaisut 5 / vko 48

Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

x 7 3 4x x 7 4x 3 ( 7 4)x 3 : ( 7 4), 7 4 1,35 < ln x + 1 = ln ln u 2 3u 4 = 0 (u 4)(u + 1) = 0 ei ratkaisua

Todennäköisyysjakaumia

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.

Martingaalit ja informaatioprosessit

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen

Markov-ketjut pitkällä aikavälillä

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1).

Mikäli funktio on koko ajan kasvava/vähenevä jollain välillä, on se tällä välillä monotoninen.

Integrointi ja sovellukset

JOHDATUS TEKOÄLYYN LUENTO 4.

Todennäköisyyden ominaisuuksia

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Tilastotieteen aihehakemisto

χ = Mat Sovellettu todennäköisyyslasku 11. harjoitukset/ratkaisut

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

Luottamusvälit. Normaalijakauma johnkin kohtaan

a) Sievennä lauseke 1+x , kun x 0jax 1. b) Aseta luvut 2, 5 suuruusjärjestykseen ja perustele vastauksesi. 3 3 ja

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,

Matriisit ovat matlabin perustietotyyppejä. Yksinkertaisimmillaan voimme esitellä ja tallentaa 1x1 vektorin seuraavasti: >> a = 9.81 a = 9.

Kurssikoe on maanantaina Muista ilmoittautua kokeeseen viimeistään 10 päivää ennen koetta! Ilmoittautumisohjeet löytyvät kurssin kotisivuilla.

6. laskuharjoitusten vastaukset (viikot 10 11)

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Estimointi. Vilkkumaa / Kuusinen 1

Tutkimustiedonhallinnan peruskurssi

0 kun x < 0, 1/3 kun 0 x < 1/4, 7/11 kun 1/4 x < 6/7, 1 kun x 1, 1 kun x 6/7,

Matematiikan tukikurssi

2 Osittaisderivaattojen sovelluksia

Todennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset

Kuva 1: Funktion f tasa-arvokäyriä. Ratkaisu. Suurin kasvunopeus on gradientin suuntaan. 6x 0,2

Log-tiheydet - yli- ja alivuotojen välttämiseksi laskenta usein suoritettava log-tiheyksillä

Diofantoksen yhtälön ratkaisut

Tutkimustiedonhallinnan peruskurssi

2 Pistejoukko koordinaatistossa

MS-A0107 Differentiaali- ja integraalilaskenta 1 (CHEM)

Matriisilaskenta Laskuharjoitus 5 - Ratkaisut / vko 41

Algoritmit 1. Luento 2 Ke Timo Männikkö

4 TOISEN ASTEEN YHTÄLÖ

mlnonlinequ, Epälineaariset yhtälöt

MS-A0004/A0006 Matriisilaskenta

Harjoitus 2: Matlab - Statistical Toolbox

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

Sovellettu todennäköisyyslaskenta B

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1

Todennäköisyyslaskenta IIa, syyslokakuu 2019 / Hytönen 2. laskuharjoitus, ratkaisuehdotukset

(1.1) Ae j = a k,j e k.

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Mat Sovellettu todennäköisyyslasku A. Moniulotteiset jakaumat. Avainsanat:

x = π 3 + nπ, x + 1 f (x) = 2x (x + 1) x2 1 (x + 1) 2 = 2x2 + 2x x 2 = x2 + 2x f ( 3) = ( 3)2 + 2 ( 3) ( 3) = = 21 tosi

Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle /

Aloitamme yksinkertaisella leluesimerkillä. Tarkastelemme yhtä osaketta S. Oletamme että tänään, hetkellä t = 0, osakkeen hinta on S 0 = 100=C.

2. Jatkoa HT 4.5:teen ja edelliseen tehtavään: Määrää X:n kertymäfunktio F (x) ja laske sen avulla todennäköisyydet

Matriisit. Määritelmä 1 Reaaliluvuista a ij, missä i = 1,..., k ja j = 1,..., n, muodostettua kaaviota a 11 a 12 a 1n a 21 a 22 a 2n A =

14 Jatkuva jakauma. Käsitellään kuitenkin ennen täsmällisiä määritelmiä johdatteleva

T Rinnakkaiset ja hajautetut digitaaliset järjestelmät Stokastinen analyysi

Transkriptio:

Harjoitustehtäviä (erä 1) 1 1. Käytetään yksinkertaisesti Bayesin kaavaa: P (A B) = P (A)P (B A). P (B) Tapauksessa B = 1 saadaan P (A = 0 B = 1) = P (A = 1 B = 1) = P (A = 0)P (B = 1 A = 0) P (A = 1)P (B = 1 A = 1) 0,3 0,6 = 0,7 0,2 =. ja Koska näiden todennäköisyyksien summa on välttämättä 1, voidaan ratkaista jakaja : (0,18 + 0,14)/ = 1 = = 0,32. Siis P (A = 0 B = 1) = 0,18/0,32 0,56 ja P (A = 1 B = 1) = 0,14/0,32 0,44. Tapauksessa B = 0 saadaan vastaavalla tavalla laskien P (A = 0 B = 0) 0,18 ja P (A = 1 B = 0) 0,82. 2. Jos satunnaismuuttujan X arvo tunnetaan, muuttujat A, B, C ja D ovat toisistaan pareittain riippumattomia. Jos X on tuntematon, verkkorakenteesta ei seuraa mitään riippumattomuuksia. (Bayes-verkon paikalliset jakaumat voivat toki olla sellaiset, että muitakin riippumattomuuksia on voimassa.) 3. A B C D E Ensinnäkin P (A E = 0) = P (A). Intuitiivisesti sanottuna tieto muuttujan E arvosta ei pääse kulkemaan verkon kohdan B C D läpi, kun C:n arvo on tuntematon. Tämän perustelun voi esittää täsmällisesti d-separaation avulla, mutta

Harjoitustehtäviä (erä 1) 2 tulos seuraa melko helposti myös yhteisjakauman hajotelmasta: P (A, E = 0) = P (A)P (D)P (B A)P (C B, D)P (E = 0 D) B,C,D P (D)P (E = 0 D) B P (D)P (E = 0 D) P (B A) B }{{} =1 P (D, E = 0) = P (A)P (E = 0), P (B A) P (C B, D) C }{{} =1 joten P (A E = 0) = P (A, E = 0)/P (E = 0) = P (A). Jakauma P (C E = 0) sen sijaan ei ole sama kuin priorijakauma, koska rakenteen C D E läpi tieto voi kulkea (kun D:n arvo on tuntematon). Lasketaan ensin Bayesin kaavalla jakauma P (D E = 0): P (D = 0 E = 0) P (D = 0)P (E = 0 D = 0) = 0,3 0,1 = 0,03, P (D = 1 E = 0) P (D = 1)P (E = 0 D = 1) = 0,7 0,4 = 0,28, P (D = 0 E = 0) + P (D = 1 E = 0) = 1 = P (D = 0 E = 0) = 3/31 0,097, P (D = 1 E = 0) = 28/31 0,903. Jotta pystytään laskemaan C:n jakauma, tarvitaan myös tieto B:stä. Tämä on helppo laskea: P (B E = 0) = A P (A E = 0)P (B A, E = 0) = A P (A)P (B A) = P (A = 0)P (B A = 0) + P (A = 1)P (B A = 1), siis P (B = 0 E = 0) = 0,1 0,1 + 0,9 0,2 = 0,19 ja P (B = 1 E = 0) = 0,1 0,9 + 0,9 0,8 = 0,81. Nämä tulokset yhdistämällä saadaan jakauma P (B, D E = 0): b d P (B = b, D = d E = 0) 0 0 0,19 3/31 0,0184 0 1 0,19 28/31 0,1726 1 0 0,81 3/31 0,0784 1 1 0,81 28/31 0,7316 Koska Bayes-verkon Markov-ominaisuuksien perusteella P (C B, D, E) = P (C B, D), joten nyt voidaan laskea P (C E = 0) = B,D P (C B, D, E = 0) =

Harjoitustehtäviä (erä 1) 3 B,D P (C B, D)P (B E = 0)P (D E = 0): P (C = 0 E = 0) = 0,19(3/31 0,1 + 28/31 0,2) + 0,81(3/31 0,2 + 28/31 0,5) 0,42 P (C = 1 E = 0) = 0,19(3/31 0,9 + 28/31 0,8) + 0,81(3/31 0,8 + 28/31 0,5) 0,58 4. Koska jokaisella solmulla on enintään yksi vanhempi, moralisointi tapahtuu yksinkertaisesti jättämällä kaarien suunnat pois. Moralisoidussa verkossa ei ole yhtään silmukkaa, joten kolmiointiakaan ei tarvitse tehdä. Saatu verkko on sinällään puu, joten periaatteessa liittymäpuuesitystä ei tarvittaisi, mutta tehdään se nyt opiskelutarkoituksessa. Saadun verkon jokaisessa klikissä on kaksi solmua, ja klikkejä on yhdeksän: neljä muotoa { T i, T i+1 } (i = 1,..., 4) ja viisi muotoa { T i, M i } (i = 1,..., 5). Kun klikit yhdistetään puuksi, on huomattava, että klikit { T i, T i+1 }, { T i+1, M i+1 } ja { T i+1, T i+2 } sisältävät yhteisen alkion T i+1 (i = 1,..., 3). Seuraavassa kuvassa suorakulmiot merkitsevät klikkejä ja ympyrät niiden leikkauksia. (Tämä ei ole ainoa mahdollinen puu.) T 1, M 1 T 1 T 1, T 2 T 2 T 2, M 2 T 2 T 2, T 3 T 3 T 3, M 3 T 5, M 5 T 5 T 4, T 5 T 4 T 4, M 4 T 4 T 3, T 4 T 3 Kysymys potentiaalifunktioista oli hieman huonosti muotoiltu. Alustuksen ja propagoinnin jälkeen potentiaalifunktiot ovat joka tapauksessa marginaalijakaumia. Kun mitään evidenssiä ei ole nähty, symmetriasyistä P (T i = 1) = P (M i = 1) = 0,5 kaikilla i, mistä on helppo laskea potentiaalit: t t P (T i = t, T i+1 = t ) 0 0 0,4 0 1 0,1 1 0 0,1 1 1 0,4 t m P (T i = t 1, M i = m) 0 0 0,45 0 1 0,05 1 0 0,05 1 1 0,45 5. Algoritmista on vihjeenä annetussa lähteessä mainio kuvaus. Liitteinä ovat algoritmin tässä erikoistapauksessa toteuttavat Matlab- ja Python-skriptit, joista edellinen käyttää Bayes Network Toolboxia. Python-skriptistä saa kommenttimerkkejä poistamalla myös välitulosteita.

Harjoitustehtäviä (erä 1) 4 Lopputulos on seuraava. P (T 1 = 0) 0.9667, P (T 1 = 1) 0.0333 P (T 2 = 0) 0.9778, P (T 2 = 1) 0.0222 P (T 3 = 0) 0.9000, P (T 3 = 1) 0.1000 P (T 4 = 0) 0.1225, P (T 4 = 1) 0.8775 P (T 5 = 0) 0.0614, P (T 5 = 1) 0.9386 (Vertaa myös kätkettyjen Markov-mallien "forward-backward"-algoritmiin.) 6. Koska d 2 dx f(x) = d 1 2 dx 2 x 1/2 = 1 4 x 3/2 < 0 kaikilla x > 0, funktio f on konkaavi. Konjugaattifunktio on f (λ) = min x { λx x }. Minimin löytämiseksi lasketaan derivaatta d dx (λx x) = λ 1 2 x 1/2. Derivaatta on nolla vain, kun x = (2λ) 2. Pienemmillä x derivaatta on negatiivinen ja suuremmilla positiivinen, joten kyseessä on todella minimi. Siis joten on saatu esitys f (λ) = λ 1 4λ 2 1 2λ = 1 4λ, f(x) = min λ { λx + 1 4λ }. 10 9 8 7 6 5 4 3 2 1 0 0 1 2 3 4 5 6 7 8 9 10

Harjoitustehtäviä (erä 1) 5 7. Tuotetaan satunnaislukuja jakaumasta P (A, B C = c). Bayesin kaava antaa P (A, B C = c) = P (C = c A, B)P (A, B), P (C = c) ja verkkorakenteesta saadaan P (C = c A, B) = P (C = c B) ja P (A, B) = P (A)P (B A). Lukua P (C = c) = P (A, B, C = c) ei ehkä osata laskea, mutta A,B ei se mitään: funktion P (A, B) = P (A)P (B A)P (C = c B) arvoja osataan laskea millä tahansa A:n ja B:n arvoilla. MCMC-menetelmillä saadaan siis otos jakaumasta P (A, B C = c). Haluttu jakauma oli P (B C = c) = P (A, B C = c), ja otoksen marginalisointihan on helppoa: A otetaan otoksista B:n arvot ja unohdetaan A:n arvot. 8. (a) Tapauksessa 2 on hyvin suuri osa ehdotetuista arvoista hylätään, joten ketjua pitäisi simuloida pitkään luotettavan otoksen saamiseksi. Toisin sanottuna autokorrelaatio on kovin suuri. Jakaumalla on selvästi (ainakin) kaksi moodia, mutta niiden suhteellisesta osuudesta on vaikea sanoa mitään Markov-ketju on hyppinyt niiden välillä pari kertaa, mutta näin lyhyessä simulaatiossa on sattuman varassa, kuinka luotettavan kuvan simulaatio antaa moodien suhteellisista osuuksista. Tapauksessa 3 on myös suuri autokorrelaatio, tässä tapauksessa satunnaiskävelyn eikä hylkäysten takia. Alkupisteen valinta näkyy ketjussa hyvin pitkälle. Ensimmäisenkään simulaation konvergenssista ei voi sanoa mitään varmaa. Tämä on MCMC-menetelmien yleinen ongelma. (b) Kolmannessa simulaatiossa on selvästi pienin ehdotusjakauman leveys ketjun ottamat askeleet ovat hyvin pieniä. Leveys on suurin ehkä hieman yllättävästi toisessa simulaatiossa. Otetut askeleet ovat jokseenkin yhtä pitkiä kuin ensimmäisessä, mutta koska simulaatioiden ainoa ero on ehdotusjakauman leveydessä, suuren hylättyjen askelten osuuden on jollain tapaa liityttävä tähän. Ehdotus hyväksymistodennäköisyys riippuu sen todennäköisyydestä kuulua simuloitavaan jakaumaan, ja liian leveä ehdotusjakauma tuottaa paljon epätodennäköisiä ja siis hylättäviä ehdotuksia. Näiden tarkastelujen valossa ensimmäisen ajon tulos näyttää parhaalta. [Todellinen jakauma, johon simulaatio perustui, koostui kahdesta normaalijakaumasta: N(2, 0; 1,0) priorilla 0,8 ja N(6, 0; 0,4) priorilla 0,2.]