Gaussiset prosessit derivaattahavainnoilla regressio-ongelmassa (valmiin työn esittely)

Samankaltaiset tiedostot
Cubature Integration Methods in Non-Linear Kalman Filtering and Smoothing (valmiin työn esittely)

Pikajohdatus bayesilaiseen tilastoanalyysiin ja monimuuttuja-analyysiin

805306A Johdatus monimuuttujamenetelmiin, 5 op

Periodiset kovarianssifunktiot gaussisissa prosesseissa

9. Tila-avaruusmallit

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,

Maximum likelihood-estimointi Alkeet

Mallipohjainen klusterointi

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

Kopulafunktiot. Joonas Ollila 12. lokakuuta 2011

Osakkeiden tuottojakaumia koskevien markkinaja asiantuntijanäkemysten yhdistely copulafunktioilla

k S P[ X µ kσ] 1 k 2.

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

Osa 2: Otokset, otosjakaumat ja estimointi

Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3

4.2.2 Uskottavuusfunktio f Y (y 0 X = x)

Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle /

8.1 Ehdolliset jakaumat

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

805306A Johdatus monimuuttujamenetelmiin, 5 op

Estimointi. Vilkkumaa / Kuusinen 1

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

Moniulotteisia todennäköisyysjakaumia

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

Kun datasta halutaan muodostaa malleja, ne ovat yleensä tilastollisia (esim. regressio, luokittelu, ryhmittely...) F(x 0 ) = P(x x 0 ) (1)

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Nämä ovat siis minimivaatimukset, enemmänkin saa ja suositellaan

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Sovellettu todennäköisyyslaskenta B

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

Tämän luvun sisältö. Luku 5. Estimointiteorian perusteita. Perusjakaumat 1-ulotteisina (2) Perusjakaumat 1-ulotteisina

Luento KERTAUSTA Kaksiulotteinen jakauma Pisteparvi, Toyota Avensis -farmariautoja

Moniulotteiset satunnaismuuttujat ja jakaumat

11 Raja-arvolauseita ja approksimaatioita

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.

Johdatus regressioanalyysiin

Laskennallinen data-analyysi II

Luku 5. Estimointiteorian perusteita

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

- voidaan käyttä lisämään tieteellistä ymmärrystä ilmiöstä. - joidenkin havaittavien suureiden vaikutus voi olla paljon suurempi kuin toisten

Bayesläiset tilastolliset mallit

Johdatus todennäköisyyslaskentaan Moniulotteiset satunnaismuuttujat ja todennäköisyysjakaumat. TKK (c) Ilkka Mellin (2005) 1

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

p(θ 1 y) on marginaalijakauma p(θ 1 θ 2, y) on ehdollinen posteriorijakauma Viime kerralla Termejä viime kerralta Marginalisointi Marginaalijakauma

Vektorianalyysi II (MAT21020), syksy 2018

Harha mallin arvioinnissa

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

Bayes-mallinnus siltana teorian ja empiirisen evidenssin välillä

Luku 10. Bayesläiset estimaattorit Bayesläiset piste-estimaatit. Lasse Leskelä Aalto-yliopisto 18. lokakuuta 2017

,ܾ jaü on annettu niin voidaan hakea funktion

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Laskennallinen data-analyysi II

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

0 kun x < 0, 1/3 kun 0 x < 1/4, 7/11 kun 1/4 x < 6/7, 1 kun x 1, 1 kun x 6/7,

tilastotieteen kertaus

Tilastolliset menetelmät. Osa 1: Johdanto. Johdanto tilastotieteeseen KE (2014) 1

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Tilastollisen päättelyn perusteet

Johdatus tilastotieteeseen Johdatus regressioanalyysiin. TKK (c) Ilkka Mellin (2005) 1

8.1 Ehdolliset jakaumat

Rautaisannos. Simo K. Kivelä

9. laskuharjoituskierros, vko 12-13, ratkaisut

pitkittäisaineistoissa

Posteriorijakauman normaalijakauma-approksimaatio. Usein posteriorijakauma lähestyy normaalijakaumaa kun n

Moniulotteiset satunnaismuuttujat ja todennäköisyysjakaumat. Moniulotteiset satunnaismuuttujat ja todennäköisyysjakaumat

TIINA SOKURI VINO KALMANIN SUODATIN. Kandidaatintyö

pitkittäisaineistoissa

2. Uskottavuus ja informaatio

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

Miten voidaan arvioida virheellisten komponenttien osuutta tuotannossa? Miten voidaan arvioida valmistajan kynttilöiden keskimääräistä palamisaikaa?

Diskreetin satunnaismuuttujan odotusarvo, keskihajonta ja varianssi

4.0.2 Kuinka hyvä ennuste on?

Mitä on bayesilainen päättely?

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH

1. TILASTOLLINEN HAHMONTUNNISTUS

Käytetään satunnaismuuttujaa samoin kuin tilastotieteen puolella:

Yhteistyötä sisältämätön peliteoria jatkuu

Mat Sovellettu todennäköisyyslasku A. Moniulotteiset jakaumat. Avainsanat:

Kojemeteorologia. Sami Haapanala syksy Fysiikan laitos, Ilmakehätieteiden osasto

Kirjallisuuskatsaus sisäpistemenetelmiin ja niiden soveltamiseen eri optimointiluokille (valmiin työn esittely)

Tilastotieteen aihehakemisto

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL

Koska ovat negatiiviset. Keskihajontoja ei pystytä laskemaan mutta pätee ¾.

Tilastomatematiikka Kevät 2008

Seurantalaskimen simulointi- ja suorituskykymallien vertailu (valmiin työn esittely) Joona Karjalainen

Logistinen regressio, separoivat hypertasot

JOHDATUS TEKOÄLYYN LUENTO 4.

S Bayesilaisen mallintamisen perusteet

031021P Tilastomatematiikka (5 op) viikko 7

Harjoitus 2: Matlab - Statistical Toolbox

Luento 2. Yksiparametrisia malleja. Binomi-malli. Posteriorijakauman esittämisestä. Informatiivisista priorijakaumista. Konjugaattipriori.

Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat

Transkriptio:

Gaussiset prosessit derivaattahavainnoilla regressio-ongelmassa (valmiin työn esittely) Ohjaaja: TkT Aki Vehtari Valvoja: Prof. Harri Ehtamo Kandidaattiseminaari 21 1.11.21

Esityksen rakenne Tausta Derivaattahavaintojen huomiointi Tavoitteet Tulokset Johtopäätökset

Taustaa: Mitä ovat gaussiset prosessit Gaussinen prosessi (GP) on stokastinen prosessi, joka määrää todennäköisyysjakauman yli funktioiden. Keskiarvo- ja kovarianssifunktio karakterisoivat gaussisen prosessin täysin. Äärellisellä määrällä satunnaismuuttujia kyseessä on moniulotteinen normaalijakauma GP:n keskiarvo- ja kovarianssifunktioilla. 5 1.6.35.8.6.3 5.15.6.1.8 6.5 2.5 2 1.5 1.5.5 1 1.5 2 2.5 1 1.5.5 1.8 1 2 3 4 5 6 (a) N (, 1) (b) N (µ, Σ) (c) GP(m(X), k(x))

Taustaa: Regressio-ongelma & Bayesilainen näkökulma ratkaisuun Regressio-ongelma: y(x) = f (X) + ɛ,.3.1 f(x) havainnot vaste y.1.3 1 1 2 3 4 5 6 syöte x

Taustaa: Regressio-ongelma & Bayesilainen näkökulma ratkaisuun Regressio-ongelma: Bayesilaisittain: y(x) = f (X) + ɛ, vaste y.3.1 f(x) havainnot p(f y) = p(y f)p(f) p(y).1.3 1 1 2 3 4 5 6 syöte x

Taustaa: Regressio-ongelma & Bayesilainen näkökulma ratkaisuun p(f y) = p(y f)p(f), p(y) Asetetaan prioriksi gaussinen prosessi f GP, jolloin äärellisellä määrällä havaintoja p(f) = N (, K), vaste y.6 prior f 95%.6.8 1 1 2 3 4 5 6 syöte x

Taustaa: Regressio-ongelma & Bayesilainen näkökulma ratkaisuun p(f y) = p(y f)p(f), p(y) Asetetaan prioriksi gaussinen prosessi f GP, jolloin äärellisellä määrällä havaintoja p(f) = N (, K), Priori on tn.jakauma yli funktioiden vaste y.6.6 prior f 95%.8 1 1 2 3 4 5 6 syöte x

Taustaa: Regressio-ongelma & Bayesilainen näkökulma ratkaisuun p(f y) = p(y f)p(f), p(y) Käytetään gaussista uskottavuusfunktiota: p(y f) = N (f, ɛ).3.1 f(x) havainnot vaste y.1.3 1 1 2 3 4 5 6 syöte x

Taustaa: Regressio-ongelma & Bayesilainen näkökulma ratkaisuun p(f y) = p(y f)p(f), p(y) Käytetään gaussista uskottavuusfunktiota: p(y f) = N (f, ɛ) Posteriori laskettavissa analyyttisesti vaste y.3.1.1.3 f(x) havainnot 1 1 2 3 4 5 6 syöte x

Taustaa: Regressio-ongelma & Bayesilainen näkökulma ratkaisuun Posteriorista tulee myös gaussinen prosessi p(f y) = N (m, Σ).6 p(f y) = p(y f)p(f), p(y) m posterior f 95% havainto vaste y.6.8 1 1 2 3 4 5 6 syöte x

Taustaa: Regressio-ongelma & Bayesilainen näkökulma ratkaisuun Posteriorista tulee myös gaussinen prosessi p(f y) = N (m, Σ) Jakauman keskiarvo m ennusteena mallinnetulle kuvaukselle Varianssista Σ ii mallin epävarmuus vaste y.6.6 p(f y) = p(y f)p(f), p(y) m posterior f 95% havainto.8 1 1 2 3 4 5 6 syöte x

Derivaattahavaintojen huomiointi Kuinkas sitten ne derivaattahavainnot otetaan huomioon?.3 f(x) derivaatta havainnot havainnot.1 vaste y.1.3.5 1 1 2 3 4 5 6 syöte x

Derivaattahavaintojen huomiointi Kuinkas sitten ne derivaattahavainnot otetaan huomioon? Matemaattisesti.3.1 f(x) derivaatta havainnot havainnot p(f y) p(f y, y ) vaste y.1.3.5 1 1 2 3 4 5 6 syöte x

Derivaattahavaintojen huomiointi Menettely pääpiirteittäin.3 f(x) derivaatta havainnot havainnot.1 vaste y.1.3.5 1 1 2 3 4 5 6 syöte x

Derivaattahavaintojen huomiointi Menettely pääpiirteittäin 1. Vastehavaintojen jakaumien sijasta tarkastellaan yhteisjakaumia vaste- ja derivaattahavainnoille Derivoitu GP on edelleen GP vaste y.3.1.1 f(x) derivaatta havainnot havainnot.3.5 1 1 2 3 4 5 6 syöte x

Derivaattahavaintojen huomiointi Menettely pääpiirteittäin 1. Vastehavaintojen jakaumien sijasta tarkastellaan yhteisjakaumia vaste- ja derivaattahavainnoille Derivoitu GP on edelleen GP 2. Ehdollistetaan posteriori sekä vasteettä derivaattahavainnoilla vaste y.3.1.1.3 f(x) derivaatta havainnot havainnot.5 1 1 2 3 4 5 6 syöte x

Tavoitteet 1. Tarkistaa teorian toimivuus 2. Tutkia derivaattahavainnoista saatavaa hyötyä 3. Tarkastella kuinka suuri määrä lisävastehavaintoja kompensoi derivaattahavainnot

Tulokset Derivaattahavaintojen vaikutus epävarmuuteen 1. Kvalitatiivinen tarkastelu Verrataan GP-mallia derivaattahavainnoilla ja ilman regressio-ongelmassa 2. Yksiulotteinen koetapaus 3. Kaksiulotteinen koetapaus

Tulokset: Kvalitatiivinen tarkastelu y(x) = sin(x) cos(x) 2 + N (,.15) output y.6 output y.6 prediction.6 95% f(x) observations.8 3 2 1 1 2 3 input x (d) GP prediction 95%.6 f(x) observations derivative obs..8 3 2 1 1 2 3 input x (e) GP-DER

Tulokset: Koetapaukset Koetapaus 1: yksiulotteinen regressio-ongelma y(x) = sin(x) + N (, σ 2 ) x [ 8, 8], σ 2 =.1

Tulokset: Koetapaus 1 Ennusteen neliövirheen keskiarvo 2 1.8 1.6 1.4 1.2 1.8.6 GP Var(GP) GP DER Var(GP DER) Ennusteen neliövirheen keskiarvo 1.1 1.9.8.7.6.5.3 GP 2 GP DER 1 2 3 4 5 6 7 8 9 1 Opetuspisteitä N (f) GP ja GP-DER mallien neliövirheet.1 1 15 2 25 3 35 4 45 5 Opetuspisteitä N (g) GP-2 mallilla kaksinkertainen määrä havaintoja

Tulokset: Koetapaukset Koetapaus 2: kaksiulotteinen regressio-ongelma y(x 1, x 2 ) = sin(x 1 ) cos(x 2 ) 2 + N (, σ 2 ) x 1, x 2 [ 3, 3], σ 2 =.1

Tulokset: Koetapaus 2 GP GP-DER Diskr.väli Havaintoja tas. sat. tas. sat..6 121 1.83 19.84 3.18 4.2.5 169 8.8 14.8 2.21 2.87 256 5.63 8.71 1.48 1.72 5 625 2.53 3.48.62.65 3 729 2.3 2.83.53.59 961 1.77 2.26.38 3

Tulokset: Koetapaus 2 GP GP-DER Diskr.väli Havaintoja tas. sat. tas. sat..6 121 1.83 19.84 3.18 4.2.5 169 8.8 14.8 2.21 2.87 256 5.63 8.71 1.48 1.72 5 625 2.53 3.48.62.65 3 729 2.3 2.83.53.59 961 1.77 2.26.38 3 GP-DER mallilla 3 169 = 57 havaintoa diskr. välillä.5

Tulokset: Koetapaus 2 GP GP-DER Diskr.väli Havaintoja tas. sat. tas. sat..6 121 1.83 19.84 3.18 4.2.5 169 8.8 14.8 2.21 2.87 256 5.63 8.71 1.48 1.72 5 625 2.53 3.48.62.65 3 729 2.3 2.83.53.59 961 1.77 2.26.38 3 GP-DER mallilla 3 169 = 57 havaintoa diskr. välillä.5 GP-DER malli tarkempi, vaikka havaintoja n. 2 kpl vähemmän!

Johtopäätökset Derivaattahavainnot lisäävät merkittävästi GP-mallin tarkkuutta pienentävät GP-mallin epävarmuutta Kaksiulotteisessa koetapauksessa derivaattahavainnot arvokkaampia kuin vastaava määrä lisävastehavaintoja Derivaattahavaintojen merkitys kasvaa ongelman ulottuvuuksien lisääntyessä?

Kiitos Tämä työ on tehty Aalto-yliopiston Lääketieteellisen tekniikan ja laskennallisen tieteen laitoksen Laskennallisten kompleksisten systeemien tutkimuksen huippuyksikössä Bayes-tutkimusryhmässä.