4.3.6 Eräitä diskreettejä Markov-kenttiä
|
|
- Anja Hakala
- 6 vuotta sitten
- Katselukertoja:
Transkriptio
1 Gauss l1 Cauchy Kuva 4.20: L2-priorin tnft, Cauchy-priorin tntf kun α = α = 2. 2π π 2π ja L1-priorin tntf kun Eräitä diskreettejä Markov-kenttiä Esimerkki 53. (1D-Gaussiset sileyspriorit) Olkoon X sellainen satunaisvektori, joka esittää tuntemattoman funktion g arvoja pisteissä t i [0, 1], i = 1,.., n, 0 = t 0 < t 1 < < t n < 1 ovat tasavälisiä pisteitä ja g(t) = 0 kun t 0. Asetetaan sv: X prioritntf f pr (x) = ce α(x2 1 + n i=2 (x i x i 1 ) 2 ). Reunaa vastaava komponentti X 0 = g(0) = 0. Jos parametri α on suuri, niin X:n otoksen vierekkäisten komponenttien arvot ovat todennäköisesti melko lähellä toisiaan (funktion g sileys. "Random walk-malli. Vastaavasti, voimme tarkastella korkeanpia differenssejä. Esimerkiksi 2. differenssit: f pr (x) = ce 1 2a 4 (x 2 1 +( 2x 2 x 1 ) 2 + n i=3 (x i 2x i 1 +x i 2 ) 2 ). Esimerkki 54. (2D-Gaussiset sileyspriorit Olkoon f : [0, 1] 2 R sellainen jatkuva funktio, jolle f = 0 joukon [0, 1] 2 ulkopuolella. Olkoon X sv, joka kuvaa funktion f 121
2 arvoja pisteissä {t i [0, 1] [0, 1] : i = 1,.., n 2 } = {( k n, j ) } : k, j = 1,..., n. n Asetetaan missä f pr (x) = ce α j V j(x), V j = 4x j i N j x i 2 ja pisteen x j ja indeksit N j sisältävät ne indeksit i, jotka antavat pisteen t j vasemman-, oikean-, ylä- ja alapuolisen pisteen t i (mikäli nämä pisteet löytyvät). Parametrin α valinta perustuu siihen, kuinka varmasti uskomme tuntematoman vierekkäisten komponenttien toisten differenssien summan saavan suurehkoja arvoja. Tämä liittyy käsitykseemme tuntemattomasta funktiosta g otetun (diskreetin) Laplaceoperaattorin g käytöksestä. Esimerkki 55. (Totaalivariaatiopriori) Satunnaisvektori X mallintaa N N-pikselin kuvaa siten, että kuvaa vastaava matriisi on järjestetty n = N 2 -ulotteiseksi vektoriksi X = (X 1,..., X n ) sarakkeittain (tai riveittäin). Satunnaisvektorilla X on totaalivariaatiopriori, jos f pr (x) = ce n j=1 V j(x) missä V j (x) = α i N j l ij x i x j ja indeksin j naapurusto N j sisältää ne indeksit, joita vastaavilla pikseleillä on yhteinen sivu pikselin j kanssa. Luku l ij on yhteisen sivun pituus. Totaalivariaatio n 1 j=1 2 i N j l ij x i x j on pieni, jos pikselin i väriarvo x i ja sen naapuripikselien väriarvot x j, j N i eivät eroa paljon toisistaan tai eroavat paljon vain sellaisten pikselijoukkojen välillä, joiden reunan pituus on lyhyt. Vastaavasti tntf antaa suuren painon tällaisille vektoreille. Yleisemmin indeksien i naapurustot N i {1,..., n} muodostavat sellaisen joukkoperheen, jolle pätee 1. i / N i (piste ei ole itsensä naapuri) 2. i N j jos ja vain jos j N i (refleksiivisyys: jos piste i on pisteen j naapuri, niin piste j on pisteen i naapuri). Määritelmä 34. Satunnaisvektori X on diskreetti Markovin kenttä naapurustojen N i, i = 1,.., n suhteen jos f Xi (x (X 1, X 2,.., X i 1, X i+1, X i+2,..., X n ) = (x 1, x 2,.., x i 1, x i+1, x i+2,..., x n )) 122 = f Xi (x X k = x k k N i )
3 Diskreetin Markovin kentän komponentti X i riippuu ainoastaan naapurikomponenteista X k, k N i. Edelliset esimerkerkit ovat diskreettejä Markov-kenttieä seuraavan lauseen nojalla. Lause 22 (Hammersley-Clifford). Satunnaisvektori X : Ω kenttä naapurustojen N i, i = 1,.., n suhteen jos ja vain jos sen tntf diskreetti Markovin f X (x) = ce n i=1 V i(x) missä funktio V i : R riippuu vain komponentista x i ja sen naapurikomponenteistä x k, k N i. 4.4 Posteriorijakauman tutkiminen Moniulotteista posterioritodennäköisyystiheysfunktiota f post (x; y 0 ) = f Y (y 0 X = x)f pr (x) fy (y 0 X = x)f pr (x)dx voi olla hankala tulkita tai visulialisoida. Miten posteriorijakaumasta saadaan helposti tulkittavaa tietoa tuntemattomasta? Otetaan käyttöön tilastotieteen osa-alue, jota kutsutaan päätösteoriaksi Päätösteoriaa Päätösteoria (eng. decision theory) vastaa esimerkiksi kysymykseen: mikä datan y 0 = F (x 0 ) + ε 0 funktio h : R m on sellainen, että vektori h(y 0 ) muistuttaa (tietyssä mielessä) parhaiten tuntematonta x 0 joka on tuottanut datan y 0 = F (x 0 ) + ε 0? Tarvitsemme funktion, jotta mikä tahansa datavektorin y 0 arvo voidaan käsitellä. Tilastotieteessä funktiota h kutsutaan tuntemattoman estimaattoriksi ja arvoa h(y 0 ) estimaatiksi. Estimaattoreita merkitään usein hattufunktioilla, esim y x(y). Kuva 4.21: Estimaattori h ja estimaatti h(y 0 ). Määritellään missä mielessä parasta tuntemattoman edustajaa etsitään. 123
4 1. Valitaan ensin ns. tappiofunktio 8 (eng. loss function) L : [0, ) jonka arvo L(x, h(y)) mittaa annetun estimaatin h(y) hyvyyttä, kun tuntematon on x. (Kun luku L(x, h(y)) on "pieni", vektori h(y) "muistuttaa"vektoria x. Kun L(x, h(y)) on "suuri", estimaatti h(y) on "pielessä"). 2. Kun L on valittu siten, että x L(x, z)f post (x) on integroituva jokaisella z, niin funktion z L(x, z)f post (x)dx = E post [L(X, z)] arvot ovat odotettuja tappioita, kun kaikkia mahdollisia tuntemattoman arvoja x verrataan vektoriin z. (Kuinka paljon ollaan keskimäärin "pielessä", kun tuntemattomanta arvioidaan z:lla). 3. Muodostetaan funktio h kuvapiste kerrallaan. Kun y R m on kiinnitetty, niin vastaavaksi kuvapisteeksi h(y) asetetaan odotetun tappion (=keskimääräisen tappion) minimikohta h(y) := argmin L(x, z)f post (x; y)dx. z eli min L(x, z)f post (x; y)dx = min L(x, z)f post (x; y)dx. z z Minimikohta riippuu vektorista y, sillä posterioritntf muuttuu, kun y:n arvo muuttuu. Datan ollessa y etsimme arvon h(y), jolla odotettu tappio posteriorijakauman suhteen on pienin mahdollinen, kun "pieleen menemisen"mittarina käytetään funktiota L. Estimaatti h(y), jota merkitään usein x on tuntemattoman edustaja, johon on tiivistytty posteriorin sisältämää tietoa tuntemattomasta. Estimaattien x lisäksi voimme määrätä posteriorijakaumasta komponenttien x i, i = 1,..., n, Bayes-luottamusvälit valitsemalla luvun a yhtälöstä missä esim. α = P post ( X i x i a) = 1 α Lukua ( ) r h = L(x, h(y))f post (x; y)dx f Y (y)dy R m kutsutaan Bayes-riskiksi. Fubinin lauseen nojalla ( ) r(h) = c L(x, h(y))f Y (y X = x)dy f pr (x)dx, R m missä c on normitustekijä. Riskin tulkinta: kun todellinen tuntematon on x ja sitä vastaava häiriöinen data y (esim. M x + ε), niin estimaatteihin h(y) liittyvä odotettu tappio tntf:n f Y (y X=x) ja f pr (x) suhteen on Bayes-riski r(h). 8 Esim. L(x, z) = x z
5 CM-estimaatti eli posterioriodotusarvo Valitaan L(x, z) = x zvert 2 kaikilla x, z. Merkitään m post (y) posterioriodotusarvoa m post (y) = xf post (x)dx ja C post (y) posteriorikovarianssimatriisia (C post (y)) ij = (x i (m post (y)) i )(x j (m post (y)) j )f post (x)dx. Silloin L(x, h(y))f post (x; y)dx = = = = x h(y) 2 f post (x; y)dx x m post (y) + m post (y) h(y) 2 f post (x; y)dx R n n ( x m post (y) (x m post (y)) i (m post (y) h(y)) i i=1 + m post (y) h(y) 2 )f post (x; y)dx x m post (y) 2 f post (x; y)dx n +2 (m post (y) h(y)) i (x m post (y)) i f post (x; y)dx i=1 = + m post h(y) R 2 f post (x; y)dx n x m post (y) 2 f post (x; y)dx + m post h(y) 2 Minimi saavutetaan, kun m post (y) h(y)) 2 = 0 eli kun h(y) = m post (y), jolloin lisäksi n L(x, h(y))f post (x; y)dx = (C post (y)) ii. Toisin sanoen tappiofunktion posterioriodotusarvo on posteriorikovarianssimatriisin diagonaalielementtien summa ( = posteriorikovarianssimatriisin ns. jälki, eng. trace). Posterioriodotusarvoa merkitään usein x CM = xf post (x)dx (eng. CM=ccnditional mean). Aiemmin olemme laskeneet, mikä on Gaussisen lineaarisen inversio-ongelman posterioriodotusarvo. Monimutkaisempien jakaumien tapauksessa posterioriodotusarvolle ei useinkaan löydy vastaavaa eksplisiittistä lauseketta. Tällöin turvaudutaan numeerisiin menetelmiin, kuten erilaisiin Monte Carlo-menetelmiin, jotka peerustuvat otosten generointiin posteriorijakaumasta. 125 i=1
6 MAP-estimaatti Olkoon δ > 0 ja tappiofunktio L δ (x, z) = 1 B(z,δ) C(x) kun x, z. Olkoon jatkuva posterioritntf x f post (x; y) yksihuippuinen 9 annetulla datalla y. MAP-estimaatti määritellään estimaattien raja-arvona lim h δ(y) = lim argmin 1 B(z,δ) C(x)f post (x; y)dx δ 0+ δ 0+ z R n = lim argmin f post (x; y)dx = x MAP, δ 0+ z jonka ekvivalentti lauseke on \ B(z,δ) x MAP (y) = argmax f post (x; y). x Maksimi a posteriori-estimaatti x MAP (y) (eng. maximum a posteriori estimate) voi olla hyödyllinen tilanteissa, joissa posterioriodotusarvojen laskeminen on raskasta. Se saadaan myös kaavalla x MAP (y) = argmax f Y (y X = x)f pr (x) x MAP-estimaattia laskettaessa normitustekijää ei tarvitse määrätä! Laskenta suoritetaan korkeaulotteisissa tapauksissa useimmiten numeerisen optimoinnin algoritmeilla. MAP-estimaattia käytetään usein myös silloin, kun posteriorijakauma ei ole yksihuippuinen, jolloin estimaatti voi saada useampia arvoja. MAP-estimaattia käytetään myös tasaisten priorijakaumien yhteydessä. Esimerkki 56. Häiriö ε N(0, δi), delta = 1/100 ja tuntematon X ovat riippumattomia. Tuntemattomalle asetetaan Gaussinen sileyspriori X N(0, C), missä tuntemattoman kovarianssimatriisic on muotoa x T C 1 x = n k=1 (x k x k 1 ) 2, x 0 = 0 ja (x 1,..., x n ). Annettu havainto y 0 on näyte sv:sta Y = MX + ε, missä M = M on konvoluutio-muotoa M ij = exp( 1 2 t i s j ), missä s j = j, j = 1,..., 2001 ja t i = i, i = 1,..., Sanomme, että todennäköisyystiheysfunktiota yksihuippuiseksi (eng. unimodal), jos sen globaali maksimiarvo saavutetaan vain yhdessä pisteessä. (Huom! kirjallisuudessa termillä "unimodal"esiintyy useampia määritelmiä, jotka eivät ole keskenään ekvivalentteja.). 126
7 Kuva 4.22: Vasemmalla Gaussinen 1. asteen sileyspriori exp( α Bx 2 ). Oikealla vastaava L1-priori exp( α Bx 1 ). (B ij = δ ij δ i(j 1) ). Huonosti asetetut ja häiriöherkät lineaariset ongelmat Olkoon y 0 = F (x 0 ) + ε 0 annettu data, joka on näyte satunnaisvektorista Y = F (X) + ε, missä X : Ω ja ε : Ω R m ovat tilastollisesti riippumattomia satunnaisvektoreita ja F : R m on jatkuva lineaarinen huonosti asetettu kuvaus jolla on pieniä nollasta eroavia singulaariarvoja tai häiriöherkkä hyvin asetettu kuvaus. Tarkastellaan Gaussista häiriömallia ε N(0, δi), δ > 0. Olkoon f pr sellainen, että jollakin c > 0 pätee f pr (x) c 1 kaikilla x. Tällöin cf pr (x) 1. Tuntemattoman maksimi a posteriori-estimaatti on ˆx MAP (y 0 ) = argmax f Y (y 0 X = x)f pr (x) x = argmax f ε (y 0 F (x))f pr (x) x = argmax x Funktio [0, ) t exp( t) on vähenevä, joten kun g : [0, ). Erityisesti ˆx MAP (y 0 ) = argmax x e 1 2δ y 0 F (x) 2 +ln cf pr(x). sup exp( g(x)) = exp( inf g(x)) x x e 1 2δ y 0 F x 2 +ln cf pr(x). = argmin 2δ y 0 F x 2 ln cf pr (x). x 1 Kun häiriön jakauma on N(0, δi), niin MAP-estimointi on ekvivalentti sakotetun pienimmän neliösumman menetelmän (eng. penalized least squares method) kanssa; minimoitava funktionaali ei ole y 0 F x 2, vaan siihen on summattu termi ln cf pr (x), joka on suuri silloin kun vektorilla x on ei-toivottuja ominaisuuksia. 127
8 Funktio x y 0 F x 2 saa pienimmän arvonsa pisteissä ˆx = Qx 0 + x + ε 0, missä Q : on ortogonaalinen projektio kuva-avaruudelle R(F T ), x Ker(F ) ja ε 0 on häiriötermin ε 0 vaikutus likimääräisratkaisuun. Sama ilmiö näkyy myös CM-estimaatissa ˆx CM (y 0 ) = xf post (x; y 0 )dx = c y0 = c y0 xe 1 e 1 2δ y 0 F (x) 2 +ln cf pr(x) dx 2δ y 0 F (x) 2 f pr (x)dx jossa lasketaan posterioriodotusarvo yli kaikkien mahdollisten tuntemattomien. Niillä vektoreilla x, joilla 1 2δ y 0 F (x) 2 ln cf pr (x) on pieni, on suurehko paino odotusarvossa. Niillä vektoreilla x, joilla 1 2δ y 0 F (x) 2 ln cf pr (x) on suuri, on pienehkö paino odotusarvossa. Esimerkki 57 (Tasainen priorijakauma). Olkoon f pr (x) = 1 Q r 1 Q r (x), missä Q r on suljettu origokeskinen kuutio, jonka sivun pituus on r. Silloin f post (x) = c y0 e 1 2δ y 0 F (x) 2 1 Qr (x) ja ja ˆx MAP (y 0 ; r) = argmin x Q r y 0 F (x) 2 lim x MAP (y 0 ; r) = argmin y 0 F (x) 2. r x MAP-estimaatti, kun priorina on tasainen jakauma origokeskisessä kuutiossa Q r, lähestyy pienimmän neliösumman likimääräisratkaisua, kun kuution sivun pituus kasvaa rajatta. Tasainen jakauma ei yleensä poista häiriöherkkyyttä. Esimerkki 58. Olkoon F : R m. Olkoon f pr (x) = ce 1 2 xt C 1x. Silloin ˆx CM (y 0 ) = (F F T + δc 1 ) 1 F T (y 0 ), joka on olemassa vaikka F ei olisi kääntyvä. Lisäksi estimaatti ˆx CM ei ole niin häiriöaltis kuin pienimmän neliösumman likimääräisratkaisu. Merkitään posteriorikovarianssimatriisia C post = (F F T + δc 1 )
9 Voimme määrätä komponenteille (ˆx CM ) i Bayes-luottamusvälin [(ˆx CM ) i 1.96 (C post ) ii, (ˆx CM ) i (C post ) ii ] jolle ) P post ( X i (ˆx CM ) i 1.96 (C post ) ii
10 4.5 Yhteenveto Todennäköisyyslaskennasta Satunnaisvektorin X ehdollinen tntf ehdolla Y = y (jolla reunatntf f Y (y) > 0) on f X (x Y = y) = f (X,Y )(x, y). f Y (y) Jatkuville tntf:lle pätee Bayesin kaava f X (x Y = y)f Y (y) = f (X,Y ) (x, y) = f Y (y X = x)f X (x) (epäjatkuvassa tapauksessa modulo versio) Tilastollinen inversio-ongelma Tuntematonta ja dataa mallinnetaan satunnaisvektoreilla X ja Y. Datan ja tuntemattoman jakaumat edustavat niistä saatavilla olevaa kvantitatiivista ja kvalitatiivista tietoa sekä tälllaisen tiedon puutetta. Annettu data y 0 on näyte satunnaisvektorista Y eli y 0 = Y (ω 0 ) jollakin alkeistapahtumalla ω 0 Ω. Tilastollisen inversio-ongelman ratkaisu on satunnaisvektorin X ehdollinen tntf kun Y = y 0 (jolle f Y (y 0 ) > 0) on annettu Posterioritntf Posterioritntf:n määrämiseksi tarvitaan uskottavuusfunktio x f Y (y 0 X = x) ja prioritntf x f pr (x). Posteriorijakaumasta voidaan määrätä tuntematton estimaatteja ja niiden luottamusvälejä. Tyypillisiä priorijakaumia ovat Gaussiset priorit (erityisesti sileyspriorit), L1-priori, Cauchy-priori ja totaalivariaatiopriori (2D-kuville). Osattava Priori- ja posterioritodennäköisyystiheysfunktioiden määritelmät. Määrätä posterioritntf (normitustekijää vaille) kun häiriötä mallintava satunnaisvektori ja tuntematonta mallintava satunnaisvektori ovat riippumattomia ja tarvittavat tntf:t ovat jatkuvia. Kirjoittaa Gaussisessa tapauksessa posterioriodotusarvon ja posteriorikovarianssimatriisin lausekkeet. Kertoa Tikhonovin regularisaation ja lineaarisen Gaussisen inversio-ongelman yhteys. CM-estimaatin määritelmä posterioriodotusarvona 130
11 MAP-estimaatin määritelmä posterioritntf:n maksimikohtana Ymmärrettävä: että tapahtuman todennäköisyydestä käytetään subjektiivista Bayeslaista tulkintaa: tapahtuman todennäköisyys on se varmuusaste, jolla uskomme tapahtuman toteutuvan. että epävarmuutta tuntemattoman tai parameterien arvoista voidaan kuvailla todennäköisyystiheysfunktioiden avulla että prioritntf voi kompensoida ongelman häiriöherkkyyttä. että posterioritntf tuottaa enemmän tietoa kuin pelkän estimaatin (kuten Bayesluottamusvälit). Tiedettävä että häiriötä mallintava satunnaisvektori ja tuntematontta mallintava satunnaisvektori voivat joskus olla toisistaan riippuvia. että malleihin voidaan sisällyttää epävarmuustekijöitä satunnaismuuttujien avulla mitä positiivisuusrajoite tarkoittaa Priorijakaumia: Gaussiset sileyspriorit, Cauchy-priori, L1-priori, totaalivariaatiopriori. 131
P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.
Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin
Lisätiedot4.2.2 Uskottavuusfunktio f Y (y 0 X = x)
Kuva 4.6: Elektroniikassa esiintyvän lämpökohinan periaate. Lämpökohinaa ε mallinnetaan additiivisella häiriöllä y = Mx + ε. 4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Tarkastellaan tilastollista inversio-ongelmaa,
LisätiedotLikimääräisratkaisut ja regularisaatio
Luku 3 Likimääräisratkaisut ja regularisaatio Käytännön inversio-ongelmissa annettu data y ei aina ole tarkkaa, vaan sisältää häiriöitä. Tuntemattomasta x on annettu häiriöinen data y F (x + }{{}}{{} ε.
Lisätiedot3.2.2 Tikhonovin regularisaatio
3 Tikhonovin regularisaatio Olkoon x 0 R n tuntematon, M R m n teoriamatriisi ja y Mx + ε R m (316 annettu data Häiriöherkässä ongelmassa pienimmän neliösumman miniminormiratkaisu x M + y Q N (M x + M
Lisätiedot4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 2
Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +
LisätiedotLikimääräisratkaisut ja regularisaatio
48 Luku 4 Likimääräisratkaisut ja regularisaatio Ryhdytään tarkastelemaan klassisia approksimatiivisia ratkaisumenetelmiä huonosti asetetuille tai häiriöherkille äärellisulotteisille lineaarisille ongelmille
LisätiedotLause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.
Määritelmä 4.3. Estimaattoria X(Y ) nimitetään lineaariseksi projektioksi, jos X on lineaarinen kuvaus ja E[(X X(Y )) Y] 0 }{{} virhetermi Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi
LisätiedotTilastolliset inversio-ongelmat
Luku 4 Tilastolliset inversio-ongelmat Tilastollisen inversio-ongelman ratkaisu ei niinkään vastaa kysymykseen "mikä tuntematon vektori x 0 on"vaan pikemminkin kysymykseen "mitä tiedämme tuntemattomasta
Lisätiedot9. Tila-avaruusmallit
9. Tila-avaruusmallit Aikasarjan stokastinen malli ja aikasarjasta tehdyt havainnot voidaan esittää joustavassa ja monipuolisessa muodossa ns. tila-avaruusmallina. Useat aikasarjat edustavat dynaamisia
LisätiedotP(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu
1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 4
Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa
LisätiedotEsimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).
Esimerkki 9 Esimerkissä 6 miniminormiratkaisu on (ˆx, ˆx (, 0 Seuraavaksi näytetään, että miniminormiratkaisuun siirtyminen poistaa likimääräisongelman epäyksikäsitteisyyden (mutta lisääntyvän ratkaisun
LisätiedotMääritelmä 17. Olkoon Ω joukko ja Σ sen jokin σ-algebra. Kuvaus P : Σ [0, 1] on todennäköisyysmitta (eng. probability measure), jos
0.02 0.04 0.06 0.08 f 0 5 0 5 0 Temperature Kuva 5.2: Tntf:n f kuvaaja: Lämpötilat välillä [5, 0] näyttävät epätodennäköisiltä. Lämpötila -2 näyttäisi todennäköisimmältä, mutta jakauma on leveä. Tämä heijastaa
LisätiedotMS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
LisätiedotMS-C1350 Osittaisdifferentiaaliyhtälöt Harjoitukset 5, syksy Mallivastaukset
MS-C350 Osittaisdifferentiaaliyhtälöt Haroitukset 5, syksy 207. Oletetaan, että a > 0 a funktio u on yhtälön u a u = 0 ratkaisu. a Osoita, että funktio vx, t = u x, t toteuttaa yhtälön a v = 0. b Osoita,
LisätiedotMS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi
LisätiedotMS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4B Bayesläinen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 7
Inversio-ongelmien laskennallinen peruskurssi Luento 7 Kevät 2012 1 Tilastolliset inversio-ongelmat Tilastollinen ionversio perustuu seuraaviin periaatteisiin: 1. Kaikki mallissa olevat muuttujat mallinnetaan
Lisätiedot0 3 y4 dy = 3 y. 15x 2 ydx = 15. f Y (y) = 5y 4 1{0 y 1}.
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 18 Harjoitus Ratkaisuehdotuksia Tehtäväsar I 1. Satunnaismuuttujilla X Y on tkuva yhteiskauma yhteistiheysfunktiolla f
Lisätiedot4.3 Moniulotteinen Riemannin integraali
4.3 Moniulotteinen Riemannin integraali Tässä luvussa opitaan miten integroidaan usean muuttujan reaaliarvoista tai vektoriarvoista funktiota, millaisten joukkojen yli jatkuvaa funktiota voi integroida,
LisätiedotTodennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3
Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3 Aiheet: Satunnaisvektorit ja moniulotteiset jakaumat Tilastollinen riippuvuus ja lineaarinen korrelaatio Satunnaisvektorit ja moniulotteiset
LisätiedotMallipohjainen klusterointi
Mallipohjainen klusterointi Marko Salmenkivi Johdatus koneoppimiseen, syksy 2008 Luentorunko perjantaille 5.12.2008 Johdattelua mallipohjaiseen klusterointiin, erityisesti gaussisiin sekoitemalleihin Uskottavuusfunktio
LisätiedotTodennäköisyyden ominaisuuksia
Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset
Lisätiedoty = 3x2 y 2 + sin(2x). x = ex y + e y2 y = ex y + 2xye y2
Matematiikan ja tilastotieteen osasto/hy Differentiaaliyhtälöt I Laskuharjoitus 2 mallit Kevät 219 Tehtävä 1. Laske osittaisderivaatat f x = f/x ja f y = f/, kun f = f(x, y) on funktio a) x 2 y 3 + y sin(2x),
Lisätiedot1. Olkoon f :, Ratkaisu. Funktion f kuvaaja välillä [ 1, 3]. (b) Olkoonε>0. Valitaanδ=ε. Kun x 1 <δ, niin. = x+3 2 = x+1, 1< x<1+δ
Matematiikan tilastotieteen laitos Differentiaalilaskenta, syksy 2015 Lisätehtävät 1 Ratkaisut 1. Olkoon f :, x+1, x 1, f (x)= x+3, x>1 Piirrä funktion kuvaa välillä [ 1, 3]. (a) Tutki ra-arvon (ε, δ)-määritelmän
LisätiedotMS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45
MS-A3/A5 Matriisilaskenta Laskuharjoitus 2 / vko 45 Tehtävä (L): Hahmottele kompleksitasoon ne pisteet, jotka toteuttavat a) z 2i = 2, b) z 2i < 2, c) /z
LisätiedotTäydellisyysaksiooman kertaus
Täydellisyysaksiooman kertaus Luku M R on joukon A R yläraja, jos a M kaikille a A. Luku M R on joukon A R alaraja, jos a M kaikille a A. A on ylhäältä (vast. alhaalta) rajoitettu, jos sillä on jokin yläraja
LisätiedotTodennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1
Todennäköisyyslaskun kertaus Vilkkumaa / Kuusinen 1 Satunnaismuuttujat ja todennäköisyysjakaumat Vilkkumaa / Kuusinen 2 Motivointi Kokeellisessa tutkimuksessa tutkittaviin ilmiöihin liittyvien havaintojen
LisätiedotJohdatus todennäköisyyslaskentaan Kertymäfunktio. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Kertymäfunktio TKK (c) Ilkka Mellin (2005) 1 Kertymäfunktio Kertymäfunktio: Määritelmä Diskreettien jakaumien kertymäfunktiot Jatkuvien jakaumien kertymäfunktiot TKK (c)
LisätiedotTässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:
4. Tyhjentyvyys Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: Voidaanko päätelmät perustaa johonkin tunnuslukuun t = t(y) koko aineiston y sijasta? Mitä
Lisätiedot2. Uskottavuus ja informaatio
2. Uskottavuus ja informaatio Aluksi käsittelemme uskottavuus- ja log-uskottavuusfunktioita Seuraavaksi esittelemme suurimman uskottavuuden estimointimenetelmän Ensi viikolla perehdymme aiheeseen lisääkö
LisätiedotNormaalijakaumasta johdettuja jakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Normaalijakaumasta johdettuja jakaumia TKK (c) Ilkka Mellin (2007) 1 Normaalijakaumasta johdettuja jakaumia >> Johdanto χ 2 -jakauma F-jakauma
LisätiedotNumeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 6 Kirsi Valjus Jyväskylän yliopisto Luento 6 () Numeeriset menetelmät 4.4.2013 1 / 33 Luennon 6 sisältö Interpolointi ja approksimointi Polynomi-interpolaatio: Vandermonden
LisätiedotSGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 21. syyskuuta 2007 Antti Rasila () TodB 21. syyskuuta 2007 1 / 19 1 Satunnaismuuttujien riippumattomuus 2 Jakauman tunnusluvut Odotusarvo Odotusarvon ominaisuuksia
Lisätiedot2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 208 Harjoitus 4 Ratkaisuehdotuksia Tehtäväsarja I. Satunnaismuuttuja U Exp(2) ja V = U/(3 + U). Laske f V käyttämällä muuttujanvaihtotekniikkaa.
LisätiedotMS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5A Bayeslainen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Lukuvuosi
LisätiedotIlkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
LisätiedotMS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Frekventistiset vs. bayeslaiset menetelmät Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
LisätiedotTehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..
LisätiedotMS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin
Lisätiedot8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH
8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH Osa aikasarjoista kehittyy hyvin erityyppisesti erilaisissa tilanteissa. Esimerkiksi pörssikurssien epävakaus keskittyy usein lyhyisiin
LisätiedotLuento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään
LisätiedotParametrien estimointi sovellettuna Pandora-instrumentin mittauksiin
TAMPEREEN YLIOPISTO Pro gradu -tutkielma Emmihenna Jääskeläinen Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin Matematiikan ja tilastotieteen laitos Matematiikka Toukokuu 2012 Tampereen
LisätiedotOsa 2: Otokset, otosjakaumat ja estimointi
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin
LisätiedotLisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia
Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia KE (2014) 1 Hypergeometrinen jakauma Hypergeometrinen jakauma
LisätiedotARMA(p, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma.
missä µ = c φ ja C j,k = Γj k) = σ 2 φj k φ 2. ARMAp, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma. Käytännösssä optimointi tehdään numeerisesti
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 4. lokakuuta 2007 Antti Rasila () TodB 4. lokakuuta 2007 1 / 17 1 Moniulotteiset todennäköisyysjakaumat Johdanto Kaksiulotteiset satunnaismuuttujat Kaksiulotteisen
LisätiedotMoniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
LisätiedotNumeerinen analyysi Harjoitus 1 / Kevät 2017
Numeerinen analyysi Harjoitus 1 / Kevät 2017 Palautus viimeistään perjantaina 3.3. Tehtävä 1: Oheinen MATLAB-funktio toteuttaa eksponenttifunktion evaluoinnin. 1 function y = seriesexp ( x ) 2 oldsum =
LisätiedotGripenberg. MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta
MS-A00 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta 7.. Gripenberg Kirjoita jokaiseen koepaperiin nimesi, opiskelijanumerosi ym. tiedot ja minkä kokeen suoritat! Laskin,
LisätiedotSatunnaismuuttujien muunnokset ja niiden jakaumat
Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Satunnaismuuttujien muunnokset ja niiden jakaumat TKK (c) Ilkka Mellin (2007) 1 Satunnaismuuttujien muunnokset ja
LisätiedotJohdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka
LisätiedotIV. TASAINEN SUPPENEMINEN. f(x) = lim. jokaista ε > 0 ja x A kohti n ε,x N s.e. n n
IV. TASAINEN SUPPENEMINEN IV.. Funktiojonon tasainen suppeneminen Olkoon A R joukko ja f n : A R funktio, n =, 2, 3,..., jolloin jokaisella x A muodostuu lukujono f x, f 2 x,.... Jos tämä jono suppenee
LisätiedotSallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,
Todennäköisyyslaskenta, 2. kurssikoe 7.2.22 Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu.. Satunnaismuuttujien X ja Y yhteistiheysfunktio on
LisätiedotMS-C1340 Lineaarialgebra ja differentiaaliyhtälöt
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt ja pienimmän neliösumman menetelmä Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi QR ja PNS PNS-ongelma
Lisätiedot1. Tilastollinen malli??
1. Tilastollinen malli?? https://fi.wikipedia.org/wiki/tilastollinen_malli https://en.wikipedia.org/wiki/statistical_model http://projecteuclid.org/euclid.aos/1035844977 Tilastollinen malli?? Numeerinen
LisätiedotMS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
LisätiedotMS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5A Bayeslainen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy
LisätiedotJohdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia TKK (c) Ilkka Mellin (2005) 1 Normaalijakaumasta johdettuja jakaumia Johdanto χ 2 -jakauma F-jakauma t-jakauma TKK (c) Ilkka Mellin
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 7 8
Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Kevät 2011 1 Iteratiivisista menetelmistä Tähän mennessä on tarkasteltu niin sanottuja suoria menetelmiä, joissa (likimääräinen) ratkaisu saadaan
Lisätiedot. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että
LisätiedotInjektio (1/3) Funktio f on injektio, joss. f (x 1 ) = f (x 2 ) x 1 = x 2 x 1, x 2 D(f )
Injektio (1/3) Määritelmä Funktio f on injektio, joss f (x 1 ) = f (x 2 ) x 1 = x 2 x 1, x 2 D(f ) Seurauksia: Jatkuva injektio on siis aina joko aidosti kasvava tai aidosti vähenevä Injektiolla on enintään
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo
LisätiedotIlkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2006) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3
LisätiedotOrtogonaaliprojektio äärellisulotteiselle aliavaruudelle
Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle Olkoon X sisätuloavaruus ja Y X äärellisulotteinen aliavaruus. Tällöin on olemassa lineaarisesti riippumattomat vektorit y 1, y 2,..., yn, jotka
LisätiedotLuento 9: Yhtälörajoitukset optimoinnissa
Luento 9: Yhtälörajoitukset optimoinnissa Lagrangen kerroin Oletetaan aluksi, että f, g : R R. Merkitään (x 1, x ) := (x, y) ja johdetaan Lagrangen kerroin λ tehtävälle min f(x, y) s.t. g(x, y) = 0 Olkoon
LisätiedotLuento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään
LisätiedotFunktion raja-arvo ja jatkuvuus Reaali- ja kompleksifunktiot
3. Funktion raja-arvo ja jatkuvuus 3.1. Reaali- ja kompleksifunktiot 43. Olkoon f monotoninen ja rajoitettu välillä ]a,b[. Todista, että raja-arvot lim + f (x) ja lim x b f (x) ovat olemassa. Todista myös,
LisätiedotThe Metropolis-Hastings Algorithm
The Metropolis-Hastings Algorithm Chapters 6.1 6.3 from Monte Carlo Statistical Methods by Christian P. Robert and George Casella 08.03.2004 Harri Lähdesmäki The Metropolis-Hastings Algorithm p. 1/21 Taustaa
Lisätiedotmin x x2 2 x 1 + x 2 1 = 0 (1) 2x1 1, h = f = 4x 2 2x1 + v = 0 4x 2 + v = 0 min x x3 2 x1 = ± v/3 = ±a x 2 = ± v/3 = ±a, a > 0 0 6x 2
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-39 Optimointioppi Kimmo Berg 6 harjoitus - ratkaisut min x + x x + x = () x f = 4x, h = x 4x + v = { { x + v = 4x + v = x = v/ x = v/4 () v/ v/4
LisätiedotJohdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1
Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:
LisätiedotMS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt QR-hajotelma ja pienimmän neliösumman menetelmä Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto PNS-ongelma PNS-ongelma
Lisätiedot1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 017 Harjoitus 5 Ratkaisuehdotuksia Tehtäväsarja I 1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X
LisätiedotRatkaisuehdotukset LH 8 / vko 47
Ratkaisuehdotukset LH 8 / vko 47 Tehtävä 1: Olkoot A R n n matriisi, jonka singulaariarvohajotelma on A [ ] [ ] Σ U 1 U r 0 [V1 ] T 2 V 0 0 2 Jossa Σ r on kääntyvä matriisi, [ U 1 U 2 ] ja [ V1 V 2 ] ovat
LisätiedotMS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
LisätiedotIlkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Kertymäfunktio. TKK (c) Ilkka Mellin (2007) 1
Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Kertymäfunktio TKK (c) Ilkka Mellin (2007) 1 Kertymäfunktio >> Kertymäfunktio: Määritelmä Diskreettien jakaumien
Lisätiedot2. Teoriaharjoitukset
2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien
LisätiedotIlkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio
Ilkka Mellin Todennäköisyyslaskenta Osa : Satunnaismuuttujat ja todennäköisyysjakaumat Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (7) 1 Momenttiemäfunktio ja karakteristinen funktio
LisätiedotMS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 2A Satunnaismuuttujan odotusarvo Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016,
LisätiedotEpäyhtälöt ovat yksi matemaatikon voimakkaimmista
6 Epäyhtälöitä Epäyhtälöt ovat yksi matemaatikon voimakkaimmista työvälineistä. Yhtälö a = b kertoo sen, että kaksi ehkä näennäisesti erilaista asiaa ovat samoja. Epäyhtälö a b saattaa antaa keinon analysoida
LisätiedotOsakesalkun optimointi
Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit 3 3.1 Optimointiongelmat........................ 4 4 Epäsileän
LisätiedotJohdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat. TKK (c) Ilkka Mellin (2004) 1
Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat TKK (c) Ilkka Mellin (2004) 1 Satunnaismuuttujien muunnokset ja niiden jakaumat Satunnaismuuttujien muunnosten jakaumat
LisätiedotDerivaatan sovellukset (ääriarvotehtävät ym.)
Derivaatan sovellukset (ääriarvotehtävät ym.) Tehtävät: 1. Tutki derivaatan avulla funktion f kulkua. a) f(x) = x 4x b) f(x) = x + 6x + 11 c) f(x) = x4 4 x3 + 4 d) f(x) = x 3 6x + 1x + 3. Määritä rationaalifunktion
Lisätiedotf (28) L(28) = f (27) + f (27)(28 27) = = (28 27) 2 = 1 2 f (x) = x 2
BMA581 - Differentiaalilaskenta ja sovellukset Harjoitus 4, Syksy 15 1. (a) Olisiko virhe likimain.5, ja arvio antaa siis liian suuren arvon. (b) Esim (1,1.5) tai (,.5). Funktion toinen derivaatta saa
Lisätiedotr > y x z x = z y + y x z y + y x = r y x + y x = r
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 018 Harjoitus Ratkaisuehdotukset Tehtävä 1. Osoita, että avoin kuula on avoin joukko ja suljettu kuula on suljettu joukko. Ratkaisu.
LisätiedotBM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 Tehtävä 8 on tällä kertaa pakollinen. Aloittakaapa siitä. 1. Kun tässä tehtävässä sanotaan sopii mahdollisimman hyvin, sillä tarkoitetaan
LisätiedotMS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi
MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi Antti Rasila Aalto-yliopisto Syksy 2015 Antti Rasila (Aalto-yliopisto) MS-A0202 Syksy 2015 1
LisätiedotTilastotieteen aihehakemisto
Tilastotieteen aihehakemisto hakusana ARIMA ARMA autokorrelaatio autokovarianssi autoregressiivinen malli Bayes-verkot, alkeet TILS350 Bayes-tilastotiede 2 Bayes-verkot, kausaalitulkinta bootstrap, alkeet
LisätiedotEstimointi. Vilkkumaa / Kuusinen 1
Estimointi Vilkkumaa / Kuusinen 1 Motivointi Tilastollisessa tutkimuksessa oletetaan jonkin jakauman generoineen tutkimuksen kohteena olevaa ilmiötä koskevat havainnot Tämän mallina käytettävän todennäköisyysjakauman
LisätiedotMS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 8: Divergenssi ja roottori. Gaussin divergenssilause.
MS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 8: Divergenssi ja roottori. Gaussin divergenssilause. Antti Rasila Aalto-yliopisto Syksy 2015 Antti Rasila (Aalto-yliopisto) MS-A0305 Syksy 2015
LisätiedotLineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus
Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus 1 / 51 Lineaarikombinaatio Johdattelua seuraavaan asiaan (ei tarkkoja määritelmiä): Millaisen kuvan muodostaa joukko {λv λ R, v R 3 }? Millaisen
LisätiedotIlkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat
Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat TKK (c) Ilkka Mellin (2006) 1 Moniulotteiset satunnaismuuttujat ja
LisätiedotEsimerkki: Tietoliikennekytkin
Esimerkki: Tietoliikennekytkin Tämä Mathematica - notebook sisältää luennolla 2A (2..26) käsitellyn esimerkin laskut. Esimerkin kuvailu Tarkastellaan yksinkertaista mallia tietoliikennekytkimelle. Kytkimeen
Lisätiedot1. TILASTOLLINEN HAHMONTUNNISTUS
1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,
Lisätiedot1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia
Lisätiedot1 Rajoittamaton optimointi
Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y
Lisätiedot