4.3.6 Eräitä diskreettejä Markov-kenttiä

Koko: px
Aloita esitys sivulta:

Download "4.3.6 Eräitä diskreettejä Markov-kenttiä"

Transkriptio

1 Gauss l1 Cauchy Kuva 4.20: L2-priorin tnft, Cauchy-priorin tntf kun α = α = 2. 2π π 2π ja L1-priorin tntf kun Eräitä diskreettejä Markov-kenttiä Esimerkki 53. (1D-Gaussiset sileyspriorit) Olkoon X sellainen satunaisvektori, joka esittää tuntemattoman funktion g arvoja pisteissä t i [0, 1], i = 1,.., n, 0 = t 0 < t 1 < < t n < 1 ovat tasavälisiä pisteitä ja g(t) = 0 kun t 0. Asetetaan sv: X prioritntf f pr (x) = ce α(x2 1 + n i=2 (x i x i 1 ) 2 ). Reunaa vastaava komponentti X 0 = g(0) = 0. Jos parametri α on suuri, niin X:n otoksen vierekkäisten komponenttien arvot ovat todennäköisesti melko lähellä toisiaan (funktion g sileys. "Random walk-malli. Vastaavasti, voimme tarkastella korkeanpia differenssejä. Esimerkiksi 2. differenssit: f pr (x) = ce 1 2a 4 (x 2 1 +( 2x 2 x 1 ) 2 + n i=3 (x i 2x i 1 +x i 2 ) 2 ). Esimerkki 54. (2D-Gaussiset sileyspriorit Olkoon f : [0, 1] 2 R sellainen jatkuva funktio, jolle f = 0 joukon [0, 1] 2 ulkopuolella. Olkoon X sv, joka kuvaa funktion f 121

2 arvoja pisteissä {t i [0, 1] [0, 1] : i = 1,.., n 2 } = {( k n, j ) } : k, j = 1,..., n. n Asetetaan missä f pr (x) = ce α j V j(x), V j = 4x j i N j x i 2 ja pisteen x j ja indeksit N j sisältävät ne indeksit i, jotka antavat pisteen t j vasemman-, oikean-, ylä- ja alapuolisen pisteen t i (mikäli nämä pisteet löytyvät). Parametrin α valinta perustuu siihen, kuinka varmasti uskomme tuntematoman vierekkäisten komponenttien toisten differenssien summan saavan suurehkoja arvoja. Tämä liittyy käsitykseemme tuntemattomasta funktiosta g otetun (diskreetin) Laplaceoperaattorin g käytöksestä. Esimerkki 55. (Totaalivariaatiopriori) Satunnaisvektori X mallintaa N N-pikselin kuvaa siten, että kuvaa vastaava matriisi on järjestetty n = N 2 -ulotteiseksi vektoriksi X = (X 1,..., X n ) sarakkeittain (tai riveittäin). Satunnaisvektorilla X on totaalivariaatiopriori, jos f pr (x) = ce n j=1 V j(x) missä V j (x) = α i N j l ij x i x j ja indeksin j naapurusto N j sisältää ne indeksit, joita vastaavilla pikseleillä on yhteinen sivu pikselin j kanssa. Luku l ij on yhteisen sivun pituus. Totaalivariaatio n 1 j=1 2 i N j l ij x i x j on pieni, jos pikselin i väriarvo x i ja sen naapuripikselien väriarvot x j, j N i eivät eroa paljon toisistaan tai eroavat paljon vain sellaisten pikselijoukkojen välillä, joiden reunan pituus on lyhyt. Vastaavasti tntf antaa suuren painon tällaisille vektoreille. Yleisemmin indeksien i naapurustot N i {1,..., n} muodostavat sellaisen joukkoperheen, jolle pätee 1. i / N i (piste ei ole itsensä naapuri) 2. i N j jos ja vain jos j N i (refleksiivisyys: jos piste i on pisteen j naapuri, niin piste j on pisteen i naapuri). Määritelmä 34. Satunnaisvektori X on diskreetti Markovin kenttä naapurustojen N i, i = 1,.., n suhteen jos f Xi (x (X 1, X 2,.., X i 1, X i+1, X i+2,..., X n ) = (x 1, x 2,.., x i 1, x i+1, x i+2,..., x n )) 122 = f Xi (x X k = x k k N i )

3 Diskreetin Markovin kentän komponentti X i riippuu ainoastaan naapurikomponenteista X k, k N i. Edelliset esimerkerkit ovat diskreettejä Markov-kenttieä seuraavan lauseen nojalla. Lause 22 (Hammersley-Clifford). Satunnaisvektori X : Ω kenttä naapurustojen N i, i = 1,.., n suhteen jos ja vain jos sen tntf diskreetti Markovin f X (x) = ce n i=1 V i(x) missä funktio V i : R riippuu vain komponentista x i ja sen naapurikomponenteistä x k, k N i. 4.4 Posteriorijakauman tutkiminen Moniulotteista posterioritodennäköisyystiheysfunktiota f post (x; y 0 ) = f Y (y 0 X = x)f pr (x) fy (y 0 X = x)f pr (x)dx voi olla hankala tulkita tai visulialisoida. Miten posteriorijakaumasta saadaan helposti tulkittavaa tietoa tuntemattomasta? Otetaan käyttöön tilastotieteen osa-alue, jota kutsutaan päätösteoriaksi Päätösteoriaa Päätösteoria (eng. decision theory) vastaa esimerkiksi kysymykseen: mikä datan y 0 = F (x 0 ) + ε 0 funktio h : R m on sellainen, että vektori h(y 0 ) muistuttaa (tietyssä mielessä) parhaiten tuntematonta x 0 joka on tuottanut datan y 0 = F (x 0 ) + ε 0? Tarvitsemme funktion, jotta mikä tahansa datavektorin y 0 arvo voidaan käsitellä. Tilastotieteessä funktiota h kutsutaan tuntemattoman estimaattoriksi ja arvoa h(y 0 ) estimaatiksi. Estimaattoreita merkitään usein hattufunktioilla, esim y x(y). Kuva 4.21: Estimaattori h ja estimaatti h(y 0 ). Määritellään missä mielessä parasta tuntemattoman edustajaa etsitään. 123

4 1. Valitaan ensin ns. tappiofunktio 8 (eng. loss function) L : [0, ) jonka arvo L(x, h(y)) mittaa annetun estimaatin h(y) hyvyyttä, kun tuntematon on x. (Kun luku L(x, h(y)) on "pieni", vektori h(y) "muistuttaa"vektoria x. Kun L(x, h(y)) on "suuri", estimaatti h(y) on "pielessä"). 2. Kun L on valittu siten, että x L(x, z)f post (x) on integroituva jokaisella z, niin funktion z L(x, z)f post (x)dx = E post [L(X, z)] arvot ovat odotettuja tappioita, kun kaikkia mahdollisia tuntemattoman arvoja x verrataan vektoriin z. (Kuinka paljon ollaan keskimäärin "pielessä", kun tuntemattomanta arvioidaan z:lla). 3. Muodostetaan funktio h kuvapiste kerrallaan. Kun y R m on kiinnitetty, niin vastaavaksi kuvapisteeksi h(y) asetetaan odotetun tappion (=keskimääräisen tappion) minimikohta h(y) := argmin L(x, z)f post (x; y)dx. z eli min L(x, z)f post (x; y)dx = min L(x, z)f post (x; y)dx. z z Minimikohta riippuu vektorista y, sillä posterioritntf muuttuu, kun y:n arvo muuttuu. Datan ollessa y etsimme arvon h(y), jolla odotettu tappio posteriorijakauman suhteen on pienin mahdollinen, kun "pieleen menemisen"mittarina käytetään funktiota L. Estimaatti h(y), jota merkitään usein x on tuntemattoman edustaja, johon on tiivistytty posteriorin sisältämää tietoa tuntemattomasta. Estimaattien x lisäksi voimme määrätä posteriorijakaumasta komponenttien x i, i = 1,..., n, Bayes-luottamusvälit valitsemalla luvun a yhtälöstä missä esim. α = P post ( X i x i a) = 1 α Lukua ( ) r h = L(x, h(y))f post (x; y)dx f Y (y)dy R m kutsutaan Bayes-riskiksi. Fubinin lauseen nojalla ( ) r(h) = c L(x, h(y))f Y (y X = x)dy f pr (x)dx, R m missä c on normitustekijä. Riskin tulkinta: kun todellinen tuntematon on x ja sitä vastaava häiriöinen data y (esim. M x + ε), niin estimaatteihin h(y) liittyvä odotettu tappio tntf:n f Y (y X=x) ja f pr (x) suhteen on Bayes-riski r(h). 8 Esim. L(x, z) = x z

5 CM-estimaatti eli posterioriodotusarvo Valitaan L(x, z) = x zvert 2 kaikilla x, z. Merkitään m post (y) posterioriodotusarvoa m post (y) = xf post (x)dx ja C post (y) posteriorikovarianssimatriisia (C post (y)) ij = (x i (m post (y)) i )(x j (m post (y)) j )f post (x)dx. Silloin L(x, h(y))f post (x; y)dx = = = = x h(y) 2 f post (x; y)dx x m post (y) + m post (y) h(y) 2 f post (x; y)dx R n n ( x m post (y) (x m post (y)) i (m post (y) h(y)) i i=1 + m post (y) h(y) 2 )f post (x; y)dx x m post (y) 2 f post (x; y)dx n +2 (m post (y) h(y)) i (x m post (y)) i f post (x; y)dx i=1 = + m post h(y) R 2 f post (x; y)dx n x m post (y) 2 f post (x; y)dx + m post h(y) 2 Minimi saavutetaan, kun m post (y) h(y)) 2 = 0 eli kun h(y) = m post (y), jolloin lisäksi n L(x, h(y))f post (x; y)dx = (C post (y)) ii. Toisin sanoen tappiofunktion posterioriodotusarvo on posteriorikovarianssimatriisin diagonaalielementtien summa ( = posteriorikovarianssimatriisin ns. jälki, eng. trace). Posterioriodotusarvoa merkitään usein x CM = xf post (x)dx (eng. CM=ccnditional mean). Aiemmin olemme laskeneet, mikä on Gaussisen lineaarisen inversio-ongelman posterioriodotusarvo. Monimutkaisempien jakaumien tapauksessa posterioriodotusarvolle ei useinkaan löydy vastaavaa eksplisiittistä lauseketta. Tällöin turvaudutaan numeerisiin menetelmiin, kuten erilaisiin Monte Carlo-menetelmiin, jotka peerustuvat otosten generointiin posteriorijakaumasta. 125 i=1

6 MAP-estimaatti Olkoon δ > 0 ja tappiofunktio L δ (x, z) = 1 B(z,δ) C(x) kun x, z. Olkoon jatkuva posterioritntf x f post (x; y) yksihuippuinen 9 annetulla datalla y. MAP-estimaatti määritellään estimaattien raja-arvona lim h δ(y) = lim argmin 1 B(z,δ) C(x)f post (x; y)dx δ 0+ δ 0+ z R n = lim argmin f post (x; y)dx = x MAP, δ 0+ z jonka ekvivalentti lauseke on \ B(z,δ) x MAP (y) = argmax f post (x; y). x Maksimi a posteriori-estimaatti x MAP (y) (eng. maximum a posteriori estimate) voi olla hyödyllinen tilanteissa, joissa posterioriodotusarvojen laskeminen on raskasta. Se saadaan myös kaavalla x MAP (y) = argmax f Y (y X = x)f pr (x) x MAP-estimaattia laskettaessa normitustekijää ei tarvitse määrätä! Laskenta suoritetaan korkeaulotteisissa tapauksissa useimmiten numeerisen optimoinnin algoritmeilla. MAP-estimaattia käytetään usein myös silloin, kun posteriorijakauma ei ole yksihuippuinen, jolloin estimaatti voi saada useampia arvoja. MAP-estimaattia käytetään myös tasaisten priorijakaumien yhteydessä. Esimerkki 56. Häiriö ε N(0, δi), delta = 1/100 ja tuntematon X ovat riippumattomia. Tuntemattomalle asetetaan Gaussinen sileyspriori X N(0, C), missä tuntemattoman kovarianssimatriisic on muotoa x T C 1 x = n k=1 (x k x k 1 ) 2, x 0 = 0 ja (x 1,..., x n ). Annettu havainto y 0 on näyte sv:sta Y = MX + ε, missä M = M on konvoluutio-muotoa M ij = exp( 1 2 t i s j ), missä s j = j, j = 1,..., 2001 ja t i = i, i = 1,..., Sanomme, että todennäköisyystiheysfunktiota yksihuippuiseksi (eng. unimodal), jos sen globaali maksimiarvo saavutetaan vain yhdessä pisteessä. (Huom! kirjallisuudessa termillä "unimodal"esiintyy useampia määritelmiä, jotka eivät ole keskenään ekvivalentteja.). 126

7 Kuva 4.22: Vasemmalla Gaussinen 1. asteen sileyspriori exp( α Bx 2 ). Oikealla vastaava L1-priori exp( α Bx 1 ). (B ij = δ ij δ i(j 1) ). Huonosti asetetut ja häiriöherkät lineaariset ongelmat Olkoon y 0 = F (x 0 ) + ε 0 annettu data, joka on näyte satunnaisvektorista Y = F (X) + ε, missä X : Ω ja ε : Ω R m ovat tilastollisesti riippumattomia satunnaisvektoreita ja F : R m on jatkuva lineaarinen huonosti asetettu kuvaus jolla on pieniä nollasta eroavia singulaariarvoja tai häiriöherkkä hyvin asetettu kuvaus. Tarkastellaan Gaussista häiriömallia ε N(0, δi), δ > 0. Olkoon f pr sellainen, että jollakin c > 0 pätee f pr (x) c 1 kaikilla x. Tällöin cf pr (x) 1. Tuntemattoman maksimi a posteriori-estimaatti on ˆx MAP (y 0 ) = argmax f Y (y 0 X = x)f pr (x) x = argmax f ε (y 0 F (x))f pr (x) x = argmax x Funktio [0, ) t exp( t) on vähenevä, joten kun g : [0, ). Erityisesti ˆx MAP (y 0 ) = argmax x e 1 2δ y 0 F (x) 2 +ln cf pr(x). sup exp( g(x)) = exp( inf g(x)) x x e 1 2δ y 0 F x 2 +ln cf pr(x). = argmin 2δ y 0 F x 2 ln cf pr (x). x 1 Kun häiriön jakauma on N(0, δi), niin MAP-estimointi on ekvivalentti sakotetun pienimmän neliösumman menetelmän (eng. penalized least squares method) kanssa; minimoitava funktionaali ei ole y 0 F x 2, vaan siihen on summattu termi ln cf pr (x), joka on suuri silloin kun vektorilla x on ei-toivottuja ominaisuuksia. 127

8 Funktio x y 0 F x 2 saa pienimmän arvonsa pisteissä ˆx = Qx 0 + x + ε 0, missä Q : on ortogonaalinen projektio kuva-avaruudelle R(F T ), x Ker(F ) ja ε 0 on häiriötermin ε 0 vaikutus likimääräisratkaisuun. Sama ilmiö näkyy myös CM-estimaatissa ˆx CM (y 0 ) = xf post (x; y 0 )dx = c y0 = c y0 xe 1 e 1 2δ y 0 F (x) 2 +ln cf pr(x) dx 2δ y 0 F (x) 2 f pr (x)dx jossa lasketaan posterioriodotusarvo yli kaikkien mahdollisten tuntemattomien. Niillä vektoreilla x, joilla 1 2δ y 0 F (x) 2 ln cf pr (x) on pieni, on suurehko paino odotusarvossa. Niillä vektoreilla x, joilla 1 2δ y 0 F (x) 2 ln cf pr (x) on suuri, on pienehkö paino odotusarvossa. Esimerkki 57 (Tasainen priorijakauma). Olkoon f pr (x) = 1 Q r 1 Q r (x), missä Q r on suljettu origokeskinen kuutio, jonka sivun pituus on r. Silloin f post (x) = c y0 e 1 2δ y 0 F (x) 2 1 Qr (x) ja ja ˆx MAP (y 0 ; r) = argmin x Q r y 0 F (x) 2 lim x MAP (y 0 ; r) = argmin y 0 F (x) 2. r x MAP-estimaatti, kun priorina on tasainen jakauma origokeskisessä kuutiossa Q r, lähestyy pienimmän neliösumman likimääräisratkaisua, kun kuution sivun pituus kasvaa rajatta. Tasainen jakauma ei yleensä poista häiriöherkkyyttä. Esimerkki 58. Olkoon F : R m. Olkoon f pr (x) = ce 1 2 xt C 1x. Silloin ˆx CM (y 0 ) = (F F T + δc 1 ) 1 F T (y 0 ), joka on olemassa vaikka F ei olisi kääntyvä. Lisäksi estimaatti ˆx CM ei ole niin häiriöaltis kuin pienimmän neliösumman likimääräisratkaisu. Merkitään posteriorikovarianssimatriisia C post = (F F T + δc 1 )

9 Voimme määrätä komponenteille (ˆx CM ) i Bayes-luottamusvälin [(ˆx CM ) i 1.96 (C post ) ii, (ˆx CM ) i (C post ) ii ] jolle ) P post ( X i (ˆx CM ) i 1.96 (C post ) ii

10 4.5 Yhteenveto Todennäköisyyslaskennasta Satunnaisvektorin X ehdollinen tntf ehdolla Y = y (jolla reunatntf f Y (y) > 0) on f X (x Y = y) = f (X,Y )(x, y). f Y (y) Jatkuville tntf:lle pätee Bayesin kaava f X (x Y = y)f Y (y) = f (X,Y ) (x, y) = f Y (y X = x)f X (x) (epäjatkuvassa tapauksessa modulo versio) Tilastollinen inversio-ongelma Tuntematonta ja dataa mallinnetaan satunnaisvektoreilla X ja Y. Datan ja tuntemattoman jakaumat edustavat niistä saatavilla olevaa kvantitatiivista ja kvalitatiivista tietoa sekä tälllaisen tiedon puutetta. Annettu data y 0 on näyte satunnaisvektorista Y eli y 0 = Y (ω 0 ) jollakin alkeistapahtumalla ω 0 Ω. Tilastollisen inversio-ongelman ratkaisu on satunnaisvektorin X ehdollinen tntf kun Y = y 0 (jolle f Y (y 0 ) > 0) on annettu Posterioritntf Posterioritntf:n määrämiseksi tarvitaan uskottavuusfunktio x f Y (y 0 X = x) ja prioritntf x f pr (x). Posteriorijakaumasta voidaan määrätä tuntematton estimaatteja ja niiden luottamusvälejä. Tyypillisiä priorijakaumia ovat Gaussiset priorit (erityisesti sileyspriorit), L1-priori, Cauchy-priori ja totaalivariaatiopriori (2D-kuville). Osattava Priori- ja posterioritodennäköisyystiheysfunktioiden määritelmät. Määrätä posterioritntf (normitustekijää vaille) kun häiriötä mallintava satunnaisvektori ja tuntematonta mallintava satunnaisvektori ovat riippumattomia ja tarvittavat tntf:t ovat jatkuvia. Kirjoittaa Gaussisessa tapauksessa posterioriodotusarvon ja posteriorikovarianssimatriisin lausekkeet. Kertoa Tikhonovin regularisaation ja lineaarisen Gaussisen inversio-ongelman yhteys. CM-estimaatin määritelmä posterioriodotusarvona 130

11 MAP-estimaatin määritelmä posterioritntf:n maksimikohtana Ymmärrettävä: että tapahtuman todennäköisyydestä käytetään subjektiivista Bayeslaista tulkintaa: tapahtuman todennäköisyys on se varmuusaste, jolla uskomme tapahtuman toteutuvan. että epävarmuutta tuntemattoman tai parameterien arvoista voidaan kuvailla todennäköisyystiheysfunktioiden avulla että prioritntf voi kompensoida ongelman häiriöherkkyyttä. että posterioritntf tuottaa enemmän tietoa kuin pelkän estimaatin (kuten Bayesluottamusvälit). Tiedettävä että häiriötä mallintava satunnaisvektori ja tuntematontta mallintava satunnaisvektori voivat joskus olla toisistaan riippuvia. että malleihin voidaan sisällyttää epävarmuustekijöitä satunnaismuuttujien avulla mitä positiivisuusrajoite tarkoittaa Priorijakaumia: Gaussiset sileyspriorit, Cauchy-priori, L1-priori, totaalivariaatiopriori. 131

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx. Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin

Lisätiedot

4.2.2 Uskottavuusfunktio f Y (y 0 X = x)

4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Kuva 4.6: Elektroniikassa esiintyvän lämpökohinan periaate. Lämpökohinaa ε mallinnetaan additiivisella häiriöllä y = Mx + ε. 4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Tarkastellaan tilastollista inversio-ongelmaa,

Lisätiedot

Likimääräisratkaisut ja regularisaatio

Likimääräisratkaisut ja regularisaatio Luku 3 Likimääräisratkaisut ja regularisaatio Käytännön inversio-ongelmissa annettu data y ei aina ole tarkkaa, vaan sisältää häiriöitä. Tuntemattomasta x on annettu häiriöinen data y F (x + }{{}}{{} ε.

Lisätiedot

3.2.2 Tikhonovin regularisaatio

3.2.2 Tikhonovin regularisaatio 3 Tikhonovin regularisaatio Olkoon x 0 R n tuntematon, M R m n teoriamatriisi ja y Mx + ε R m (316 annettu data Häiriöherkässä ongelmassa pienimmän neliösumman miniminormiratkaisu x M + y Q N (M x + M

Lisätiedot

4.0.2 Kuinka hyvä ennuste on?

4.0.2 Kuinka hyvä ennuste on? Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Inversio-ongelmien laskennallinen peruskurssi Luento 2 Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +

Lisätiedot

Likimääräisratkaisut ja regularisaatio

Likimääräisratkaisut ja regularisaatio 48 Luku 4 Likimääräisratkaisut ja regularisaatio Ryhdytään tarkastelemaan klassisia approksimatiivisia ratkaisumenetelmiä huonosti asetetuille tai häiriöherkille äärellisulotteisille lineaarisille ongelmille

Lisätiedot

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio. Määritelmä 4.3. Estimaattoria X(Y ) nimitetään lineaariseksi projektioksi, jos X on lineaarinen kuvaus ja E[(X X(Y )) Y] 0 }{{} virhetermi Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi

Lisätiedot

Tilastolliset inversio-ongelmat

Tilastolliset inversio-ongelmat Luku 4 Tilastolliset inversio-ongelmat Tilastollisen inversio-ongelman ratkaisu ei niinkään vastaa kysymykseen "mikä tuntematon vektori x 0 on"vaan pikemminkin kysymykseen "mitä tiedämme tuntemattomasta

Lisätiedot

9. Tila-avaruusmallit

9. Tila-avaruusmallit 9. Tila-avaruusmallit Aikasarjan stokastinen malli ja aikasarjasta tehdyt havainnot voidaan esittää joustavassa ja monipuolisessa muodossa ns. tila-avaruusmallina. Useat aikasarjat edustavat dynaamisia

Lisätiedot

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu 1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 4

Inversio-ongelmien laskennallinen peruskurssi Luento 4 Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa

Lisätiedot

Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).

Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0). Esimerkki 9 Esimerkissä 6 miniminormiratkaisu on (ˆx, ˆx (, 0 Seuraavaksi näytetään, että miniminormiratkaisuun siirtyminen poistaa likimääräisongelman epäyksikäsitteisyyden (mutta lisääntyvän ratkaisun

Lisätiedot

Määritelmä 17. Olkoon Ω joukko ja Σ sen jokin σ-algebra. Kuvaus P : Σ [0, 1] on todennäköisyysmitta (eng. probability measure), jos

Määritelmä 17. Olkoon Ω joukko ja Σ sen jokin σ-algebra. Kuvaus P : Σ [0, 1] on todennäköisyysmitta (eng. probability measure), jos 0.02 0.04 0.06 0.08 f 0 5 0 5 0 Temperature Kuva 5.2: Tntf:n f kuvaaja: Lämpötilat välillä [5, 0] näyttävät epätodennäköisiltä. Lämpötila -2 näyttäisi todennäköisimmältä, mutta jakauma on leveä. Tämä heijastaa

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

MS-C1350 Osittaisdifferentiaaliyhtälöt Harjoitukset 5, syksy Mallivastaukset

MS-C1350 Osittaisdifferentiaaliyhtälöt Harjoitukset 5, syksy Mallivastaukset MS-C350 Osittaisdifferentiaaliyhtälöt Haroitukset 5, syksy 207. Oletetaan, että a > 0 a funktio u on yhtälön u a u = 0 ratkaisu. a Osoita, että funktio vx, t = u x, t toteuttaa yhtälön a v = 0. b Osoita,

Lisätiedot

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4B Bayesläinen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 7

Inversio-ongelmien laskennallinen peruskurssi Luento 7 Inversio-ongelmien laskennallinen peruskurssi Luento 7 Kevät 2012 1 Tilastolliset inversio-ongelmat Tilastollinen ionversio perustuu seuraaviin periaatteisiin: 1. Kaikki mallissa olevat muuttujat mallinnetaan

Lisätiedot

0 3 y4 dy = 3 y. 15x 2 ydx = 15. f Y (y) = 5y 4 1{0 y 1}.

0 3 y4 dy = 3 y. 15x 2 ydx = 15. f Y (y) = 5y 4 1{0 y 1}. HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 18 Harjoitus Ratkaisuehdotuksia Tehtäväsar I 1. Satunnaismuuttujilla X Y on tkuva yhteiskauma yhteistiheysfunktiolla f

Lisätiedot

4.3 Moniulotteinen Riemannin integraali

4.3 Moniulotteinen Riemannin integraali 4.3 Moniulotteinen Riemannin integraali Tässä luvussa opitaan miten integroidaan usean muuttujan reaaliarvoista tai vektoriarvoista funktiota, millaisten joukkojen yli jatkuvaa funktiota voi integroida,

Lisätiedot

Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3

Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3 Aiheet: Satunnaisvektorit ja moniulotteiset jakaumat Tilastollinen riippuvuus ja lineaarinen korrelaatio Satunnaisvektorit ja moniulotteiset

Lisätiedot

Mallipohjainen klusterointi

Mallipohjainen klusterointi Mallipohjainen klusterointi Marko Salmenkivi Johdatus koneoppimiseen, syksy 2008 Luentorunko perjantaille 5.12.2008 Johdattelua mallipohjaiseen klusterointiin, erityisesti gaussisiin sekoitemalleihin Uskottavuusfunktio

Lisätiedot

Todennäköisyyden ominaisuuksia

Todennäköisyyden ominaisuuksia Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset

Lisätiedot

y = 3x2 y 2 + sin(2x). x = ex y + e y2 y = ex y + 2xye y2

y = 3x2 y 2 + sin(2x). x = ex y + e y2 y = ex y + 2xye y2 Matematiikan ja tilastotieteen osasto/hy Differentiaaliyhtälöt I Laskuharjoitus 2 mallit Kevät 219 Tehtävä 1. Laske osittaisderivaatat f x = f/x ja f y = f/, kun f = f(x, y) on funktio a) x 2 y 3 + y sin(2x),

Lisätiedot

1. Olkoon f :, Ratkaisu. Funktion f kuvaaja välillä [ 1, 3]. (b) Olkoonε>0. Valitaanδ=ε. Kun x 1 <δ, niin. = x+3 2 = x+1, 1< x<1+δ

1. Olkoon f :, Ratkaisu. Funktion f kuvaaja välillä [ 1, 3]. (b) Olkoonε>0. Valitaanδ=ε. Kun x 1 <δ, niin. = x+3 2 = x+1, 1< x<1+δ Matematiikan tilastotieteen laitos Differentiaalilaskenta, syksy 2015 Lisätehtävät 1 Ratkaisut 1. Olkoon f :, x+1, x 1, f (x)= x+3, x>1 Piirrä funktion kuvaa välillä [ 1, 3]. (a) Tutki ra-arvon (ε, δ)-määritelmän

Lisätiedot

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45 MS-A3/A5 Matriisilaskenta Laskuharjoitus 2 / vko 45 Tehtävä (L): Hahmottele kompleksitasoon ne pisteet, jotka toteuttavat a) z 2i = 2, b) z 2i < 2, c) /z

Lisätiedot

Täydellisyysaksiooman kertaus

Täydellisyysaksiooman kertaus Täydellisyysaksiooman kertaus Luku M R on joukon A R yläraja, jos a M kaikille a A. Luku M R on joukon A R alaraja, jos a M kaikille a A. A on ylhäältä (vast. alhaalta) rajoitettu, jos sillä on jokin yläraja

Lisätiedot

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1 Todennäköisyyslaskun kertaus Vilkkumaa / Kuusinen 1 Satunnaismuuttujat ja todennäköisyysjakaumat Vilkkumaa / Kuusinen 2 Motivointi Kokeellisessa tutkimuksessa tutkittaviin ilmiöihin liittyvien havaintojen

Lisätiedot

Johdatus todennäköisyyslaskentaan Kertymäfunktio. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Kertymäfunktio. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Kertymäfunktio TKK (c) Ilkka Mellin (2005) 1 Kertymäfunktio Kertymäfunktio: Määritelmä Diskreettien jakaumien kertymäfunktiot Jatkuvien jakaumien kertymäfunktiot TKK (c)

Lisätiedot

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: 4. Tyhjentyvyys Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: Voidaanko päätelmät perustaa johonkin tunnuslukuun t = t(y) koko aineiston y sijasta? Mitä

Lisätiedot

2. Uskottavuus ja informaatio

2. Uskottavuus ja informaatio 2. Uskottavuus ja informaatio Aluksi käsittelemme uskottavuus- ja log-uskottavuusfunktioita Seuraavaksi esittelemme suurimman uskottavuuden estimointimenetelmän Ensi viikolla perehdymme aiheeseen lisääkö

Lisätiedot

Normaalijakaumasta johdettuja jakaumia

Normaalijakaumasta johdettuja jakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Normaalijakaumasta johdettuja jakaumia TKK (c) Ilkka Mellin (2007) 1 Normaalijakaumasta johdettuja jakaumia >> Johdanto χ 2 -jakauma F-jakauma

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33 Numeeriset menetelmät TIEA381 Luento 6 Kirsi Valjus Jyväskylän yliopisto Luento 6 () Numeeriset menetelmät 4.4.2013 1 / 33 Luennon 6 sisältö Interpolointi ja approksimointi Polynomi-interpolaatio: Vandermonden

Lisätiedot

SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5

SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 21. syyskuuta 2007 Antti Rasila () TodB 21. syyskuuta 2007 1 / 19 1 Satunnaismuuttujien riippumattomuus 2 Jakauman tunnusluvut Odotusarvo Odotusarvon ominaisuuksia

Lisätiedot

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2 HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 208 Harjoitus 4 Ratkaisuehdotuksia Tehtäväsarja I. Satunnaismuuttuja U Exp(2) ja V = U/(3 + U). Laske f V käyttämällä muuttujanvaihtotekniikkaa.

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5A Bayeslainen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Lukuvuosi

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Frekventistiset vs. bayeslaiset menetelmät Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8. HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin

Lisätiedot

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH 8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH Osa aikasarjoista kehittyy hyvin erityyppisesti erilaisissa tilanteissa. Esimerkiksi pörssikurssien epävakaus keskittyy usein lyhyisiin

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin

Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin TAMPEREEN YLIOPISTO Pro gradu -tutkielma Emmihenna Jääskeläinen Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin Matematiikan ja tilastotieteen laitos Matematiikka Toukokuu 2012 Tampereen

Lisätiedot

Osa 2: Otokset, otosjakaumat ja estimointi

Osa 2: Otokset, otosjakaumat ja estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia

Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia KE (2014) 1 Hypergeometrinen jakauma Hypergeometrinen jakauma

Lisätiedot

ARMA(p, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma.

ARMA(p, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma. missä µ = c φ ja C j,k = Γj k) = σ 2 φj k φ 2. ARMAp, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma. Käytännösssä optimointi tehdään numeerisesti

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 4. lokakuuta 2007 Antti Rasila () TodB 4. lokakuuta 2007 1 / 17 1 Moniulotteiset todennäköisyysjakaumat Johdanto Kaksiulotteiset satunnaismuuttujat Kaksiulotteisen

Lisätiedot

Moniulotteisia todennäköisyysjakaumia

Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Numeerinen analyysi Harjoitus 1 / Kevät 2017

Numeerinen analyysi Harjoitus 1 / Kevät 2017 Numeerinen analyysi Harjoitus 1 / Kevät 2017 Palautus viimeistään perjantaina 3.3. Tehtävä 1: Oheinen MATLAB-funktio toteuttaa eksponenttifunktion evaluoinnin. 1 function y = seriesexp ( x ) 2 oldsum =

Lisätiedot

Gripenberg. MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta

Gripenberg. MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta MS-A00 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta 7.. Gripenberg Kirjoita jokaiseen koepaperiin nimesi, opiskelijanumerosi ym. tiedot ja minkä kokeen suoritat! Laskin,

Lisätiedot

Satunnaismuuttujien muunnokset ja niiden jakaumat

Satunnaismuuttujien muunnokset ja niiden jakaumat Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Satunnaismuuttujien muunnokset ja niiden jakaumat TKK (c) Ilkka Mellin (2007) 1 Satunnaismuuttujien muunnokset ja

Lisätiedot

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka

Lisätiedot

IV. TASAINEN SUPPENEMINEN. f(x) = lim. jokaista ε > 0 ja x A kohti n ε,x N s.e. n n

IV. TASAINEN SUPPENEMINEN. f(x) = lim. jokaista ε > 0 ja x A kohti n ε,x N s.e. n n IV. TASAINEN SUPPENEMINEN IV.. Funktiojonon tasainen suppeneminen Olkoon A R joukko ja f n : A R funktio, n =, 2, 3,..., jolloin jokaisella x A muodostuu lukujono f x, f 2 x,.... Jos tämä jono suppenee

Lisätiedot

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1, Todennäköisyyslaskenta, 2. kurssikoe 7.2.22 Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu.. Satunnaismuuttujien X ja Y yhteistiheysfunktio on

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt ja pienimmän neliösumman menetelmä Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi QR ja PNS PNS-ongelma

Lisätiedot

1. Tilastollinen malli??

1. Tilastollinen malli?? 1. Tilastollinen malli?? https://fi.wikipedia.org/wiki/tilastollinen_malli https://en.wikipedia.org/wiki/statistical_model http://projecteuclid.org/euclid.aos/1035844977 Tilastollinen malli?? Numeerinen

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5A Bayeslainen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy

Lisätiedot

Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia TKK (c) Ilkka Mellin (2005) 1 Normaalijakaumasta johdettuja jakaumia Johdanto χ 2 -jakauma F-jakauma t-jakauma TKK (c) Ilkka Mellin

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Kevät 2011 1 Iteratiivisista menetelmistä Tähän mennessä on tarkasteltu niin sanottuja suoria menetelmiä, joissa (likimääräinen) ratkaisu saadaan

Lisätiedot

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1 TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että

Lisätiedot

Injektio (1/3) Funktio f on injektio, joss. f (x 1 ) = f (x 2 ) x 1 = x 2 x 1, x 2 D(f )

Injektio (1/3) Funktio f on injektio, joss. f (x 1 ) = f (x 2 ) x 1 = x 2 x 1, x 2 D(f ) Injektio (1/3) Määritelmä Funktio f on injektio, joss f (x 1 ) = f (x 2 ) x 1 = x 2 x 1, x 2 D(f ) Seurauksia: Jatkuva injektio on siis aina joko aidosti kasvava tai aidosti vähenevä Injektiolla on enintään

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo

Lisätiedot

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2006) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3

Lisätiedot

Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle

Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle Olkoon X sisätuloavaruus ja Y X äärellisulotteinen aliavaruus. Tällöin on olemassa lineaarisesti riippumattomat vektorit y 1, y 2,..., yn, jotka

Lisätiedot

Luento 9: Yhtälörajoitukset optimoinnissa

Luento 9: Yhtälörajoitukset optimoinnissa Luento 9: Yhtälörajoitukset optimoinnissa Lagrangen kerroin Oletetaan aluksi, että f, g : R R. Merkitään (x 1, x ) := (x, y) ja johdetaan Lagrangen kerroin λ tehtävälle min f(x, y) s.t. g(x, y) = 0 Olkoon

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

Funktion raja-arvo ja jatkuvuus Reaali- ja kompleksifunktiot

Funktion raja-arvo ja jatkuvuus Reaali- ja kompleksifunktiot 3. Funktion raja-arvo ja jatkuvuus 3.1. Reaali- ja kompleksifunktiot 43. Olkoon f monotoninen ja rajoitettu välillä ]a,b[. Todista, että raja-arvot lim + f (x) ja lim x b f (x) ovat olemassa. Todista myös,

Lisätiedot

The Metropolis-Hastings Algorithm

The Metropolis-Hastings Algorithm The Metropolis-Hastings Algorithm Chapters 6.1 6.3 from Monte Carlo Statistical Methods by Christian P. Robert and George Casella 08.03.2004 Harri Lähdesmäki The Metropolis-Hastings Algorithm p. 1/21 Taustaa

Lisätiedot

min x x2 2 x 1 + x 2 1 = 0 (1) 2x1 1, h = f = 4x 2 2x1 + v = 0 4x 2 + v = 0 min x x3 2 x1 = ± v/3 = ±a x 2 = ± v/3 = ±a, a > 0 0 6x 2

min x x2 2 x 1 + x 2 1 = 0 (1) 2x1 1, h = f = 4x 2 2x1 + v = 0 4x 2 + v = 0 min x x3 2 x1 = ± v/3 = ±a x 2 = ± v/3 = ±a, a > 0 0 6x 2 TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-39 Optimointioppi Kimmo Berg 6 harjoitus - ratkaisut min x + x x + x = () x f = 4x, h = x 4x + v = { { x + v = 4x + v = x = v/ x = v/4 () v/ v/4

Lisätiedot

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1 Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt QR-hajotelma ja pienimmän neliösumman menetelmä Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto PNS-ongelma PNS-ongelma

Lisätiedot

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 017 Harjoitus 5 Ratkaisuehdotuksia Tehtäväsarja I 1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X

Lisätiedot

Ratkaisuehdotukset LH 8 / vko 47

Ratkaisuehdotukset LH 8 / vko 47 Ratkaisuehdotukset LH 8 / vko 47 Tehtävä 1: Olkoot A R n n matriisi, jonka singulaariarvohajotelma on A [ ] [ ] Σ U 1 U r 0 [V1 ] T 2 V 0 0 2 Jossa Σ r on kääntyvä matriisi, [ U 1 U 2 ] ja [ V1 V 2 ] ovat

Lisätiedot

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Kertymäfunktio. TKK (c) Ilkka Mellin (2007) 1

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Kertymäfunktio. TKK (c) Ilkka Mellin (2007) 1 Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Kertymäfunktio TKK (c) Ilkka Mellin (2007) 1 Kertymäfunktio >> Kertymäfunktio: Määritelmä Diskreettien jakaumien

Lisätiedot

2. Teoriaharjoitukset

2. Teoriaharjoitukset 2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio Ilkka Mellin Todennäköisyyslaskenta Osa : Satunnaismuuttujat ja todennäköisyysjakaumat Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (7) 1 Momenttiemäfunktio ja karakteristinen funktio

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 2A Satunnaismuuttujan odotusarvo Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016,

Lisätiedot

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista 6 Epäyhtälöitä Epäyhtälöt ovat yksi matemaatikon voimakkaimmista työvälineistä. Yhtälö a = b kertoo sen, että kaksi ehkä näennäisesti erilaista asiaa ovat samoja. Epäyhtälö a b saattaa antaa keinon analysoida

Lisätiedot

Osakesalkun optimointi

Osakesalkun optimointi Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit 3 3.1 Optimointiongelmat........................ 4 4 Epäsileän

Lisätiedot

Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat. TKK (c) Ilkka Mellin (2004) 1

Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat. TKK (c) Ilkka Mellin (2004) 1 Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat TKK (c) Ilkka Mellin (2004) 1 Satunnaismuuttujien muunnokset ja niiden jakaumat Satunnaismuuttujien muunnosten jakaumat

Lisätiedot

Derivaatan sovellukset (ääriarvotehtävät ym.)

Derivaatan sovellukset (ääriarvotehtävät ym.) Derivaatan sovellukset (ääriarvotehtävät ym.) Tehtävät: 1. Tutki derivaatan avulla funktion f kulkua. a) f(x) = x 4x b) f(x) = x + 6x + 11 c) f(x) = x4 4 x3 + 4 d) f(x) = x 3 6x + 1x + 3. Määritä rationaalifunktion

Lisätiedot

f (28) L(28) = f (27) + f (27)(28 27) = = (28 27) 2 = 1 2 f (x) = x 2

f (28) L(28) = f (27) + f (27)(28 27) = = (28 27) 2 = 1 2 f (x) = x 2 BMA581 - Differentiaalilaskenta ja sovellukset Harjoitus 4, Syksy 15 1. (a) Olisiko virhe likimain.5, ja arvio antaa siis liian suuren arvon. (b) Esim (1,1.5) tai (,.5). Funktion toinen derivaatta saa

Lisätiedot

r > y x z x = z y + y x z y + y x = r y x + y x = r

r > y x z x = z y + y x z y + y x = r y x + y x = r HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 018 Harjoitus Ratkaisuehdotukset Tehtävä 1. Osoita, että avoin kuula on avoin joukko ja suljettu kuula on suljettu joukko. Ratkaisu.

Lisätiedot

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 Tehtävä 8 on tällä kertaa pakollinen. Aloittakaapa siitä. 1. Kun tässä tehtävässä sanotaan sopii mahdollisimman hyvin, sillä tarkoitetaan

Lisätiedot

MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi

MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi Antti Rasila Aalto-yliopisto Syksy 2015 Antti Rasila (Aalto-yliopisto) MS-A0202 Syksy 2015 1

Lisätiedot

Tilastotieteen aihehakemisto

Tilastotieteen aihehakemisto Tilastotieteen aihehakemisto hakusana ARIMA ARMA autokorrelaatio autokovarianssi autoregressiivinen malli Bayes-verkot, alkeet TILS350 Bayes-tilastotiede 2 Bayes-verkot, kausaalitulkinta bootstrap, alkeet

Lisätiedot

Estimointi. Vilkkumaa / Kuusinen 1

Estimointi. Vilkkumaa / Kuusinen 1 Estimointi Vilkkumaa / Kuusinen 1 Motivointi Tilastollisessa tutkimuksessa oletetaan jonkin jakauman generoineen tutkimuksen kohteena olevaa ilmiötä koskevat havainnot Tämän mallina käytettävän todennäköisyysjakauman

Lisätiedot

MS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 8: Divergenssi ja roottori. Gaussin divergenssilause.

MS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 8: Divergenssi ja roottori. Gaussin divergenssilause. MS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 8: Divergenssi ja roottori. Gaussin divergenssilause. Antti Rasila Aalto-yliopisto Syksy 2015 Antti Rasila (Aalto-yliopisto) MS-A0305 Syksy 2015

Lisätiedot

Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus

Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus 1 / 51 Lineaarikombinaatio Johdattelua seuraavaan asiaan (ei tarkkoja määritelmiä): Millaisen kuvan muodostaa joukko {λv λ R, v R 3 }? Millaisen

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat

Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat TKK (c) Ilkka Mellin (2006) 1 Moniulotteiset satunnaismuuttujat ja

Lisätiedot

Esimerkki: Tietoliikennekytkin

Esimerkki: Tietoliikennekytkin Esimerkki: Tietoliikennekytkin Tämä Mathematica - notebook sisältää luennolla 2A (2..26) käsitellyn esimerkin laskut. Esimerkin kuvailu Tarkastellaan yksinkertaista mallia tietoliikennekytkimelle. Kytkimeen

Lisätiedot

1. TILASTOLLINEN HAHMONTUNNISTUS

1. TILASTOLLINEN HAHMONTUNNISTUS 1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,

Lisätiedot

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI 1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia

Lisätiedot

1 Rajoittamaton optimointi

1 Rajoittamaton optimointi Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y

Lisätiedot