Ryhmäfaktorianalyysi neurotiedesovelluksissa (Valmiin työn esittely) Sami Remes Ohjaaja: TkT Arto Klami Valvoja: Prof.

Samankaltaiset tiedostot
Ryhmäfaktorianalyysi neurotiedesovelluksissa

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

Bayesilainen päätöksenteko / Bayesian decision theory

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

Kirjallisuuskatsaus sisäpistemenetelmiin ja niiden soveltamiseen eri optimointiluokille (valmiin työn esittely)

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

, 3.7, 3.9. S ysteemianalyysin. Laboratorio Aalto-yliopiston teknillinen korkeakoulu

Mallipohjainen klusterointi

Bayes-mallinnus siltana teorian ja empiirisen evidenssin välillä

Monte Carlo -menetelmä optioiden hinnoittelussa (valmiin työn esittely)

Regressioanalyysi. Kuusinen/Heliövaara 1

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Peliteorian soveltaminen hajautettujen järjestelmien protokollasuunnittelussa (valmiin työn esittely)

Bayesiläinen tilastollinen vaihtelu

Mat Tilastollisen analyysin perusteet, kevät 2007

Gaussiset prosessit derivaattahavainnoilla regressio-ongelmassa (valmiin työn esittely)

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Mat Tilastollisen analyysin perusteet, kevät 2007

Kaksintaistelun approksimatiivinen mallintaminen (valmiin työn esittely)

Menetelmä Markowitzin mallin parametrien estimointiin (valmiin työn esittely)

Tilastotieteen aihehakemisto

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Keskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6)

Tentin materiaali. Sivia: luvut 1,2, , ,5. MacKay: luku 30. Gelman, 1995: Inference and monitoring convergence

Luento 2. Yksiparametrisia malleja. Binomi-malli. Posteriorijakauman esittämisestä. Informatiivisista priorijakaumista. Konjugaattipriori.

Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3

- voidaan käyttä lisämään tieteellistä ymmärrystä ilmiöstä. - joidenkin havaittavien suureiden vaikutus voi olla paljon suurempi kuin toisten

Numeeriset menetelmät

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Trimmitysongelman LP-relaksaation ratkaiseminen sarakkeita generoivalla algoritmilla ja brute-force-menetelmällä

Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen

Moniulotteisia todennäköisyysjakaumia

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Yksisuuntainen varianssianalyysi (jatkoa) Heliövaara 1

5.7 Uskottavuusfunktioon perustuvia testejä II

Joonas Haapala Ohjaaja: DI Heikki Puustinen Valvoja: Prof. Kai Virtanen

Luento 8. June 3, 2014

4.0.2 Kuinka hyvä ennuste on?

Implementation of Selected Metaheuristics to the Travelling Salesman Problem (valmiin työn esittely)

4.2.2 Uskottavuusfunktio f Y (y 0 X = x)

Lineaaristen monitavoiteoptimointitehtävien ratkaiseminen Bensonin algoritmilla

Dynaamiset regressiomallit

Yksisuuntainen varianssianalyysi (jatkoa) Kuusinen/Heliövaara 1

Sovellettu todennäköisyyslaskenta B

Seurantalaskimen simulointi- ja suorituskykymallien vertailu (valmiin työn esittely) Joona Karjalainen

Vesivoimaketjun optimointi mehiläisalgoritmilla (Valmiin työn esittely)

Odotusarvoparien vertailu. Vilkkumaa / Kuusinen 1

Kahden virtualisointiohjelmiston suorituskyvyn testaus (valmiin työn esittely)

Cubature Integration Methods in Non-Linear Kalman Filtering and Smoothing (valmiin työn esittely)

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

Simulation model to compare opportunistic maintenance policies

Tilastollinen päättely, 10 op, 4 ov

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Lohkoasetelmat. Vilkkumaa / Kuusinen 1

Numeeriset menetelmät

Esimerkki: Tietoliikennekytkin

Optimaaliset riskinalentamisportfoliot vikapuuanalyysissä (valmiin työn esittely)

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä

Lineaaristen monitavoiteoptimointitehtävien

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Lineaaristen monitavoiteoptimointitehtävien ratkaiseminen Bensonin algoritmilla

1. Tilastollinen malli??

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Nollasummapelit ja bayesilaiset pelit

BOOTSTRAPPING? Jukka Nyblom Jyväskylän yliopisto. Metodifestivaali

Relevanttien sivujen etsintä verkosta: satunnaiskulut verkossa Linkkikeskukset ja auktoriteetit (hubs and authorities) -algoritmi

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

Binomi Jacob Bernoulli ( ), Bayes ( ) Normaali de Moivre ( ), Laplace ( ), Gauss ( )

Posteriorijakauman normaalijakauma-approksimaatio. Usein posteriorijakauma lähestyy normaalijakaumaa kun n

HY, MTO / Matemaattisten tieteiden kandiohjelma Tilastollinen päättely II, kevät 2018 Harjoitus 8B Ratkaisuehdotuksia.

Search space traversal using metaheuristics

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

OPERAATIOANALYYSI ORMS.1020

Tilastollinen aineisto Luottamusväli

Diskriminanttianalyysi I

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,

p(θ 1 y) on marginaalijakauma p(θ 1 θ 2, y) on ehdollinen posteriorijakauma Viime kerralla Termejä viime kerralta Marginalisointi Marginaalijakauma

Yhteistyötä sisältämätön peliteoria jatkuu

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

TILASTOLLINEN OPPIMINEN

DBN Mitä sillä tekee? Dynaamisten Bayes-verkkojen määrittely aikasarja-analyysissä Janne Toivola

Osa 2: Otokset, otosjakaumat ja estimointi

Dynaamiset regressiomallit

Johdatus regressioanalyysiin

Laskennallinen data-analyysi II

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

805306A Johdatus monimuuttujamenetelmiin, 5 op

Vedonlyöntistrategioiden simulointi ja evaluointi

Transkriptio:

Ryhmäfaktorianalyysi neurotiedesovelluksissa (Valmiin työn esittely) Sami Remes 11.06.2012 Ohjaaja: TkT Arto Klami Valvoja: Prof. Harri Ehtamo Työn saa tallentaa ja julkistaa Aalto-yliopiston avoimilla verkkosivuilla. Muilta osin kaikki oikeudet pidätetään.

Ongelman asettelu Halutaan tutkia datajoukkojen tai muuttujien välisiä riippuvuuksia Klassisia menetelmiä mm. kanoninen korrelaatio (CCA) ja faktorianalyysi CCA:ssa etsitään satunnaisvektoreille x ja y lineaariset muunnokset, joiden korrelaatio suurin: max cor ( α T x, β T y ) α,β Vektorit α ja β antavat kiinnostavaa tietoa x:n ja y:n muuttujien riippuvuuksista

Ongelman asettelu (cont.) CCA esimerkiksi aineistolle, jossa datajoukot 1. Oppilaan pituus, älykkyysosamäärä ym. ominaisuuksia 2. sanoja eri aineissa Saattaisi löytää esimerkiksi korkean painon älykkyysosamäärälle ja menestykselle luonnontieteissä CCA rajoittuu vain kahden joukon tarkasteluun eikä sovellu hyvin korkeaulotteisille aineistoille N D, missä N oppilaiden/näytteiden lukumäärä, D eri ominaisuuksien määrä

Bayesilainen lähestymistapa Tavanomaisessa tilastollisessa mallissa parametreilla Θ ei todennäköisyyksiä Bayesilaisessa mallissa parametreille todennäköisyysjakauma Bayesin kaavan avulla p(θ Y ) = p(y Θ)p(Θ) p(y ) uskottavuus priori Jakauma usein vaikea laskea: approksimaatiot

Ryhmäfaktorianalyysi Virtanen, Klami, Khan, Kaski, AISTATS 2012 Malli yleistää faktorianalyysin useille datajoukoille muuttujien sijaan Malli yhdistetylle datalle Y = [Y 1... Y M ] R N D y n = W z n + ε n, n = 1... N Valitsemalla sopiva rakenne W :lle mallinnetaan datajoukkojen väliset riippuvuudet piilomuuttujien avulla ( ) W W = 1 V 1 0 W 2 0 V 2 Jos sarake datajoukon kohdalta lähes nolla, vastaava piilomuuttuja ei selitä vaihtelua datajoukossa

Ryhmäfaktorianalyysi (cont.) Z n α m τ m Y mn n=1...n Wm m=1...m

Ryhmäfaktorianalyysi (cont.) Malli toimii myös korkeaulotteiselle aineistolle, jolle D N Tarvittava määrä komponentteja valitaan automaattisesti, jos maksimimäärä riittävän suuri Erikoistapauksina saadaan (bayesilaiset versiot) Pääkomponenttianalyysi (M = 1) Kanoninen korrelaatioanalyysi (M = 2) Faktorianalyysi (yksiulotteiset datajoukot)

Variaatioapproksimaatio Posteriorin laskemiseksi approksimaatio q olettaa ylimääräisiä riippumattomuuksia muuttujien välillä p(θ Y ) q(θ) = K q(θ j ) j=1 Ryhmäfaktorianalyysille [ M ] [ D ] N q(θ) = q(α m )q(τ m ) q(w d ) q(z n ) m=1 d=1 n=1

Variaatioapproksimaatio (cont.) Minimoidaan Kullback-Leibler -divergenssi approksimaation ja posteriorin välillä Ratkaisuna saadaan jakaumat, joiden parametrit riippuvat toistensa odotusarvoista Yleensä riippuvuudet odotusarvoista liian vaikeita; ei analyyttista ratkaisua yhtälöryhmälle Alustamalla jakaumien parametrit esim. satunnaisesti ja laskemalla parametrit uudestaan, saadaan algoritmi, joka konvergoi lokaaliin optimiin

Vertailua CCA:han Keinotekoinen aineisto 7 piilomuuttujaa; 3 jaettua, 2+2 vain yhdelle datajoukolle Piilomuuttujista rakennetaan 15 ja 20 ulotteiset datajoukot satunnaisella W :lla Vertaillaan ryhmäfaktorianalyysia ja tavallista CCA:ta; tavoitteena näyttää mallin toimivan oikein tässä erikoistapauksessa Molemmat menetelmät löytävät oikeat piilomuuttujat (CCA etsii vain jaetut)

Todelliset piilomuuttujat Estimoidut aktiiviset piilomuuttujat

Yhteiset todelliset piilomuuttujat CCA:n kanoniset muuttujat 2 1 0 1 2 1.0 0.0 0.5 1.0 1.0 0.0 0.5 1.0 0.2 0.0 0.1 0.2 0.2 0.1 0.0 0.1 0.2 0.2 0.0 0.1 0.2

fmri-datan analyysi Dataa kokeesta, jossa koehenkilölle näytettiin kuvia ja tekstiä Voidaan jakaa 25 anatomisesti eroteltuun aivoalueeseen Tavoitteena tutkia alueiden välisiä riippuvuuksia ts. mitkä alueet toimivat yhdessä Malli löytää joitain potentiaalisesti mielenkiintoisia komponentteja

ROI CALC LDLPFC LFEF LIPL LIPS LIT LOPER LPPREC LSGA LSPL LT LTRIA RDLPFC RFEF RIPL RIPS RIT ROPER RPPREC RSGA RSPL RT RTRIA SMA ROI:n aktiivisuudet eri komponenteissa 10 20 30 40 50 Komponentti 0.2 0.15 0.1 0.05

Komponentti 2 Komponentti 8

Yhteenveto Tarkasteltiin uutta, mielenkiintoista mallia useiden datajoukkojen välisten riippuvuuksien tutkimiseen Sopii erityisesti myös tilanteisiin, joissa vähän näytteitä suhteessa datan dimensioon Tehokas toteutus bayesilaisessa viitekehyksessä Kiinnostava sovelluskohde aivosignaalianalyysissa, jossa potentiaalia saada hyviä tuloksia

Lähteitä C. M. Bishop. Pattern recognition and machine learning. Springer, 2006. ISBN 9780387310732. S. Virtanen, A. Klami, and S. Kaski. Bayesian CCA via group sparsity. In L. Getoor and T. Scheffer, editors, Proceedings of the 28th International Conference on Machine Learning (ICML-11), ICML 11, pages 457 464, New York, NY, 2011. ACM. ISBN 978-1-4503-0619-5. Implementation in R available at http://research.ics.tkk.fi/mi/software/gscca/. S. Virtanen, A. Klami, S. A. Khan, and S. Kaski. Bayesian group factor analysis. In N. Lawrence and M. Girolami, editors, Proceedings of the Fifteenth International Conference on Artificial Intelligence and Statistics (AISTATS 2012), JMLR: Workshop and Conference Proceedings, pages 1269 1277, 2012.