Ongelmien ja menetelmien tyypittelyä. Käyttötarkoituksia. Konsistentti ja epäkonsistentti data. Esimerkki: Deterministinen luokittelu



Samankaltaiset tiedostot
Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen

Tiedonlouhinta (kl 2013) Tiedonlouhinta 2013/L1 p. 1

805306A Johdatus monimuuttujamenetelmiin, 5 op

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat

Tiedonlouhinta 2013/L3 p. 1. Data-avaruus. Olk. muuttujat A 1,...,A k, joiden arvoalueet. Dom(A 1 ),...,Dom(A k ). Silloin D = Dom(A 1 )...

Algoritmit 1. Luento 13 Ti Timo Männikkö

Johdatus tekoälyyn. Luento : Koneoppiminen. Patrik Hoyer. [ Kysykää ja kommentoikaa luennon aikana! ]

JOHDATUS TEKOÄLYYN TEEMU ROOS

Luku 7. Verkkoalgoritmit. 7.1 Määritelmiä

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)

Johdatus tekoälyn taustalla olevaan matematiikkaan

JOHDATUS TEKOÄLYYN TEEMU ROOS

Klusterointiongelma. Luento 6: Klusterointi. Usein suotavia ominaisuuksia. Usein suotavia ominaisuuksia

Tämän luvun sisältö. Luku 6. Hahmontunnistuksen perusteita. Luokittelu (2) Luokittelu

JOHDATUS TEKOÄLYYN TEEMU ROOS

805306A Johdatus monimuuttujamenetelmiin, 5 op

f(x, y) = x 2 y 2 f(0, t) = t 2 < 0 < t 2 = f(t, 0) kaikilla t 0.

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

BM20A0900, Matematiikka KoTiB3

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1

Luku 14 - Koneoppiminen ja luokittelu

Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia.

4. Tukivektorikoneet

Johdatus tn-laskentaan perjantai

Diskriminanttianalyysi I

Oppijan saama palaute määrää oppimisen tyypin

Tiedonlouhinta (kl 2013) Kurssin kuvaus. Esitiedot. Kurssin arvostelu

Logistinen regressio, separoivat hypertasot

Tekstuurintunnistuksen lyhyt oppimäärä. Ts. pari tapaa erottaa tiiliseinä pensaasta.

Probabilistiset mallit (osa 1) Matemaattisen mallinnuksen kurssi Kevät 2002, luento 10, osa 1 Jorma Merikoski Tampereen yliopisto

Matriisit ja vektorit Matriisin käsite Matriisialgebra. Olkoon A = , B = Laske A + B, , 1 3 3

Riippuvuussäännöt. Luento 4. Riippuvuuden vahvuus: Tavallisimmat mitat. Muuttuja- vs. arvoperustainen tulkinta

Avainsanojen poimiminen Eeva Ahonen

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun

1. LINEAARISET LUOKITTIMET (jatkoa)

Numeeriset menetelmät

Luku 6. Dynaaminen ohjelmointi. 6.1 Funktion muisti

Harha mallin arvioinnissa

Topologia Syksy 2010 Harjoitus 9

Uskomusverkot: Lääketieteelliset sovellukset

Viikko 1: Johdantoa Matti Kääriäinen

TILASTOLLINEN OPPIMINEN

= true C = true) θ i2. = true C = false) Näiden arvot löydetään kuten edellä Kun verkko on opetettu, niin havainto [x 1

DBN Mitä sillä tekee? Dynaamisten Bayes-verkkojen määrittely aikasarja-analyysissä Janne Toivola

Yleisesti, kun mahdollisilla vastauksilla v i on todennäköisyydet P(v i ), niin H(P(v 1 ),, P(v n )) = i=1,,n - P(v i ) log 2 P(v i )

Introduction to Machine Learning

Luokittelumenetelmät (6)

Tekoäly ja koneoppiminen metsävaratiedon apuna

Yleistä asiaa 1. Työkalujen demosessio ma 6.5. klo Yleistä 2. Harjoitustyöt. Luento 8: Mallien arviointi ja vertailu sekä menetelmien valinta

Kasvilajien tunnistaminen tukivektorikoneen avulla

Testejä suhdeasteikollisille muuttujille

1. TILASTOLLINEN HAHMONTUNNISTUS

I Data ja sen esiprosessointi

Laskennallinen data-analyysi II

811312A Tietorakenteet ja algoritmit V Verkkojen algoritmeja Osa 2 : Kruskalin ja Dijkstran algoritmit

Tekoäly ja alustatalous. Miten voit hyödyntää niitä omassa liiketoiminnassasi

Kognitiivinen mallintaminen. Nelli Salminen

Algoritmit 1. Luento 13 Ma Timo Männikkö

Algoritmit 2. Luento 2 To Timo Männikkö

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö

Dynaamiset regressiomallit

2 Osittaisderivaattojen sovelluksia

Relevanttien sivujen etsintä verkosta: satunnaiskulut verkossa Linkkikeskukset ja auktoriteetit (hubs and authorities) -algoritmi

Esimerkkejä vaativuusluokista

Jos d-kohdan vasemmalla puolella perusjoukkona on X, niin oikealla puolella

Tilastotiede ottaa aivoon

FUNKTIONAALIANALYYSIN PERUSKURSSI Johdanto

Puumenetelmät. Topi Sikanen. S ysteemianalyysin. Laboratorio Aalto-yliopiston teknillinen korkeakoulu

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Laskennallinen data-analyysi II

Seuraavassa taulukossa on annettu mittojen määritelmät ja sijoitettu luvut. = 40% = 67% 6 = 0.06% = 99.92% 6+2 = 0.

Yleisesti, kun mahdollisilla vastauksilla v i. on todennäköisyydet P(v i. ),, P(v n. )) = i=1,,n. -P(v i

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

Duaalisuus kokonaislukuoptimoinnissa. Mat , Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki

JOHDATUS TEKOÄLYYN LUENTO 4.

Johdatus tekoälyyn (T. Roos) Kurssikoe

Graafit ja verkot. Joukko solmuja ja joukko järjestämättömiä solmupareja. eli haaroja. Joukko solmuja ja joukko järjestettyjä solmupareja eli kaaria

Datatähti 2019 loppu

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33

Numeeriset menetelmät

58131 Tietorakenteet ja algoritmit (kevät 2016) Ensimmäinen välikoe, malliratkaisut

Bayesilainen päätöksenteko / Bayesian decision theory

TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010

Hahmon etsiminen syotteesta (johdatteleva esimerkki)

Laskennallinen data-analyysi II

Kanta ja Kannan-vaihto

3. Kongruenssit. 3.1 Jakojäännös ja kongruenssi

Algoritmit 2. Luento 6 Ke Timo Männikkö

Kurssikoe on maanantaina Muista ilmoittautua kokeeseen viimeistään 10 päivää ennen koetta! Ilmoittautumisohjeet löytyvät kurssin kotisivuilla.

finnish BOI 2015, päivä 1. Muistiraja: 256 MB

vkp 4*(1+0)/(32-3)-1= vkp 2*(1+0)/(32-3)=

Lisää segmenttipuusta

Luku 3. Listankäsittelyä. 3.1 Listat

A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä.

Pythagoraan polku

Algoritmit 1. Luento 8 Ke Timo Männikkö

IV. TASAINEN SUPPENEMINEN. f(x) = lim. jokaista ε > 0 ja x A kohti n ε,x N s.e. n n

Äärellisten mallien teoria

Osa IX. Z muunnos. Johdanto Diskreetit funktiot

Transkriptio:

Luento 5: Luokittelu Määritelmä Käyttötarkoitukset Ongelmien ja luokittelijoiden tyypittely auttaa valitsemaan oikean menetelmän Tärkeimmät menetelmät Päätöspuut ja luokittelusäännöt Bayes-luokittelijat Lähimmän naapurin menetelmät (Nearest neighbour classifiers) Neuroverkkoluokittelijat Tukivektorikoneet (support vector machines, SVM) Tiedonlouhinta 2013/L5 p. 1 Luokitteluongelma Annettu joukko selittäviä muuttujia R={A 1,..., A k } ja luokkamuuttuja C, jonka arvot ovat mahdolliset luokat Dom(C)={c 1,...,c L }. Muodosta malli M joka määrittää jokaiselle datapisteelle x i Dsen luokan c i. D=Dom(A 1 )... Dom(A k ) Perustapauksessa malli on siis kuvaus M :S Dom(C) Olettaa että luokan määräytyminen determinististä! (voi olla epärealistista) Malli voi kertoa vain luokkajakauman P(C= c j x i ) Tiedonlouhinta 2013/L5 p. 2 Luokittelun hyvyys Luokittelun hyvyys Luokittelun tulos Oikeasti C C Σ C TP=true positive FP=false positive TPFP f r(luokittelu= C oik= C) f r(luokittelu= C oik= C) f r(luokittelu= C) C FN=false negative TN=true negative FNTN f r(luokittelu= C oik= C) f r(luokittelu= C oik= C) f r(luokittelu= C) Σ TPFN FPTN f r(oik= C) f r(oik= C) n error= FP FN n accuracy= T PT N n precision = sensitivity = T P T P FP T P T P FN = P(oik= C luokittelu= C) = P(luokittelu= C oik= C) Kaikki lasketaan testidatasta! (tai ristiinvalidoinnilla) Muista ylisovittuminen ja Occamin partaveitsi! Tiedonlouhinta 2013/L5 p. 3 Tiedonlouhinta 2013/L5 p. 4

Käyttötarkoituksia Ongelmien ja menetelmien tyypittelyä 1. Luokittelu itsetarkoituksena esim. Mikä sairaus potilaalla on? Mitä lajia ötökkä on? Tulenko minä saamaan keuhkosyövän? 2. Hahmon tunnistus muun päättelyn avuksi (piirteitä korkeamman tason mallille) Mitä Mansikki tekee? Mitä ope sanoi? Mitä kirjainta kuva esittää? 3. Datan kuvaus ja ymmärtäminen Mitkä tekijät altistavat vatsahaavalle? Mitkä suojelevat siltä? Mitkä geenit vaikuttavat keuhkosyövän syntyyn? Ovatko luokat toisistaan erottuvia? (annetuilla muuttujilla) konsistentti ja epäkonsistentti data Millaisia luokkien väliset rajat ovat? lineaariset ja epälineaariset luokkarajat Haluammeko vastaukseksi 1-käsitteisen luokan vai luokkien todennäköisyysjakauman? erottelevat ja probabilistiset luokittelijat Tarvitsemmeko eksplisiittistä mallia vai riittääkö vain luokittelun tulos? laiska vai ahkera (eager) menetelmä? Tiedonlouhinta 2013/L5 p. 5 Tiedonlouhinta 2013/L5 p. 6 Konsistentti ja epäkonsistentti data Esimerkki: Deterministinen luokittelu Data on epäkonsistenttia, jos siitä löytyy vähintään kaksi alkiota, joilla on samat selittävien muuttujien A i arvot mutta eri luokat. Bakteereja veressä? ei Ei sepsistä eikä bakteremiaa Vaikka annettu data olisikin konsistenttia, voimmeko silti olettaa, että kaikki tuleva datakin on konsistenttia? Ts. määräytyykö luokka deterministisesti selittävien muuttujien arvoista? Konsistentissa datassa mahdollista opetusvirhe=0 Epäkonsistentissa aina luokitteluvirhettä Konsistenssi tyypillistä ihmisten luomille luokitteluille Mutta oikeassa elämässä harvinaista! Tiedonlouhinta 2013/L5 p. 7 on Onko vähintään 2 seuraavista? * korkea leposyke * kuumetta tai alilämpöä * liian vähän tai paljon valkosoluja tai paljon epäkypsiä neutrofiileja * liian alhainen CO2:n osapaine veressä ei on Vain bakteremia Sepsis Tiedonlouhinta 2013/L5 p. 8

Esimerkkejä epädeterministisistä luokitteluongelmista Annettuna potilaan oireet ja testitulokset, mikä sairaus hänellä on? Annettuna opiskelijan harjoituspisteet ja esitietokyselyn vastaukset, läpäiseekö hän kurssin? Annettuna henkilön perimä (geenit), saako hän ateroskleroosin (diabeteksen, Alzheimerin taudin, tms.)? Annettuna Mansikin syömistiedot, käyttäytyminen ja kantoaika, poikiiko Mansikki 12h kuluessa? Erottelevat ja probabilistiset luokittelijat 1. Erotteleva (discriminative) luokittelija: määrittää kuvauksen D Dom(C) pakottaa kaikki alkiot johonkin luokkaan 2. Probabilistinen luokittelija: määrittää kuvauksen D [0, 1] L, missä M(x i )=[P(C= c 1 x i ),..., P(C= c L x i )] (eli luokkien todennäköisyysjakauma) todennäköisyysjakauma sisältää enemmän informaatiota apua tulosten tulkinnassa haluttaessa voi valita todennäköisimmän luokan oikeaksi luokaksi Tiedonlouhinta 2013/L5 p. 9 Tiedonlouhinta 2013/L5 p. 10 Probabilistinen luokittelu älykkäissä järjestelmissä Järjestelmän pitäisi valita kussakin tilanteessa (tilanneluokassa T= t i ) optimaalinen toiminto A=a j Tunnetaan tilanneluokkien todennäköisyysjakauma P(T= t i x) (x=senhetkiset muuttujien arvot) Määritetty toimintojen oikeellisuuksien ehdolliset todennäköisyysjakaumat P(A=a j T= t i ) (tn että a j oikea toiminto tilanteessa t i ) Toiminnon oikeellisuuden todennäköisyys, annettuna x: P(A=a j x)= L i=1 P(T= t i x) P(A=a j T= t i ) Esim. Pitäisikö kutsua eläinlääkäri (A=a 1 ) vai antaako soodaa (A=a 2 ), jos Mansikki on passiivinen, syönyt pikkuisen, mutta ei märehtinyt? (x) Tiedonlouhinta 2013/L5 p. 11 Luokkarajan lineaarisuus/epälineaarisuus Voiko luokat erottaa toisistaan suoralla tai hypertasolla? (erottelufunktio lineaarinen f (X)=β 1 X 1...β k X k α) Linearly separable: Linearly inseparable: y y * * * * * * * * * x x Tiedonlouhinta 2013/L5 p. 12

Lineaarinen luokittelija Epälineaarinen luokittelija olettaa että luokkaraja (class/decision boundary) lineaarinen yksinkertainen, joten kestävämpi ylisovittumista vastaan pieni poikkeama lineaarisuuden oletuksesta ei haittaa (mallin robustius kompensoi heikkoa ilmaisuvoimaa (representational power)) kannattaa suosia! mutta huono jos luokkarajat oikeasti monimutkaisia! epälineaarinen luokkaraja aste-eroja ilmaisuvoimassa: miten monimutkaisia luokkarajoja pystyy esittämään? Ongelma: mitä ilmaisuvoimaisempi menetelmä, sitä monimutkaisempia malleja, sitä suurempi ylisovittumisen vaara ja sitä enemmän dataa tarvitaan monimutkaisuutta kannattaa rajoittaa Tiedonlouhinta 2013/L5 p. 13 Tiedonlouhinta 2013/L5 p. 14 Laiska ja ahkera luokittelija 1. Ahkera luokittelija (eager learner): Muodostaa opetusdatasta eksplisiittisen mallin (luokittelijan), jolla luokittelee tulevat alkiot (yleensä) vain yksi globaali malli hitaampi oppia, nopea luokittelemaan 2. Laiska luokittelija (lazy learner): Kerää vain opetusdatan talteen ja suorittaa luokittelun vertaamalla opetusdataan instance-based learning (case-based learning sama monimutkaisemmille objekteille) esittää implisiittisesti monia lokaaleja malleja ei oppimista, mutta hitaampi luokittelemaan Tärkeimmät menetelmät 1. Päätöspuut ja luokittelusäännöt 2. Bayes-luokittelijat 3. Lähimpien naapurien menetelmät (Nearest neighbour classifiers) 4. Neuroverkkoluokittelijat 5. Tukivektorikoneet (support vector machines, SVM) Tiedonlouhinta 2013/L5 p. 15 Tiedonlouhinta 2013/L5 p. 16

1. Päätöspuut Esitys luokittelusääntöinä Luokittelijan voi esittää puuna, jonka sisäsolmut esittävät muuttujia koskevia ehtoja ja lehtisolmut luokkia. <8cm <20g vartalon pituus paino >8cm >20g peltohiiri Luetellaan päätöspuun kaikki juuri lehti-polut: Jos paino 20g, niin peltohiiri. Jos paino <20g ja vartalonpituus 8cm, niin peltohiiri. Jos paino <20g ja vartalonpituus < 8cm ja hännänpituus >7cm, niin koivuhiiri. Jos paino <20g ja vartalonpituus < 8cm ja hännänpituus 7cm, niin peltohiiri. >7cm koivuhiiri hännän pituus <7cm peltohiiri peltohiiri Näihin voi lisätä ehdolliset todennäköisyydet, mutta tuloksena saatava malli usein epävakaa Toisaalta datasta voi etsiä parhaat luokittelusäännöt ja rakentaa niistä luokittelijan (hyviksi kehuttuja) Tiedonlouhinta 2013/L5 p. 17 Tiedonlouhinta 2013/L5 p. 18 Päätöspuun luokkarajat ovat paloittain Etuja muuttuja-akselien suuntaisia voi olla sekaisin kategorisia ja (diskretoimattomia) numeerisia muuttujia havainnollinen malli, joka auttaa ymmärtämään dataa oppimisalgoritmi valitsee samalla muuttujat etukäteen valitut ja/tai hyvin diskretoidut muuttujat parantavat silti! ilmaisuvoimainen (voi esittää monimutkaisia luokkarajoja) varsin robusti (sietää pientä kohinaa ja puuttuvia arvoja) nopea luokittelu (kun malli valmis) sopii noviiseille (ei hankalia parametreja asetettavana) Tiedonlouhinta 2013/L5 p. 19 Lähde: Geurts et al: Supervised learning with decision tree-based methods in computational and systems biology. Mol. BioSyst., 2009,5, 1593-1605. Tiedonlouhinta 2013/L5 p. 20

Haittoja/rajoituksia 2. Bayes-verkkoluokittelija Globaalisti optimaalinen oppiminen mahdotonta (NP-kova ongelma) heuristiset algoritmit vanha id3: ahne puun muodostus (valitsee aina parhaan muuttujan ja sen arvoille testin) huono! parempi versio c4.5 (Wekassa J48): karsii puuta lopuksi vielä uudempi c5.0: nopeampi, pienemmät puut muita algoritmeja voi tuottaa suboptimaalisen luokittelijan! melko herkkä ylisovittumaan, varsinkin jos dataa vähän deterministinen luokkaoletus jotkut luokkarajat hankalia esittää turhan monimutkainen puu Tiedonlouhinta 2013/L5 p. 21 P(S K) P(S ~K) Suku puoli Keuhko syöpä Tupakoi P(K) P(~K)=1 P(K) Yskää P(T S,K) P(T S~K) P(T ~SK) P(T ~S~K) P(Y K) P(Y ~K) Tiedonlouhinta 2013/L5 p. 22 Bayes-verkon idea esittää datan riippuvuusrakenteen ja implisiittisesti kokonaistodennäköisyysjakauman Jos kaksi muuttujajoukkoa X ja Y ehdollisesti riippumattomia annettuna kolmas Z, niin verkossa kaikki X:n ja Y:n solmut jonkin Z-solmun erottamia Juurisolmuille A i annetaan prioritodennäköisyydet P(A i = a i ) (kaikilla A i :n arvoilla a i ) tähän voi integroida asiantuntijatietämystä (domain knowledge) muille solmuille B i ehdolliset todennäköisyydet P(B i = b i X=x) (X=solmun vanhemmat ja x=niiden arvokombinaatio) Todennäköisyyksien päivitys Idea: Solmujen todennäköisyyksiä päivitetään Bayesin säännöllä, kun saadaan uutta tietoa (kiinnitetään muuttuja-arvoja): P(A=a i X=x)= P(X=x)P(A=a i X=x) P(A=a i ) hyödyntää aina kaiken saatavilla olevan tiedon! mutta voi olla raskasta (NP-kovaa) myös mallin (verkon rakenne todennäköisyydet) oppiminen NP-kovaa Tiedonlouhinta 2013/L5 p. 23 Tiedonlouhinta 2013/L5 p. 24

Bayes-verkkoluokittelija Naiivi-Bayes-luokittelija Puurakenteinen päättely kevyempää! Juuressa luokkamuuttuja, muut muuttujat sen alla Luokkajakaumaa päivitetään Bayesin säännöllä, kun muiden muuttujien arvoja kiinnitetään ( sallii puuttuvat arvot!) Yksinkertainen Naiivi-Bayes-luokittelija suosituin Vain 2-tasoinen eikä lehtien välillä kaaria X1 X2... C Xk Naiivi-Bayes-oletus: X i :t toisistaan ehdollisesti riippumattomia, annettuna C eli P(X 1,..., X k C)=Π k i=1 P(X i C) Usein epärealistinen mutta voi silti toimia hyvin! Tiedonlouhinta 2013/L5 p. 25 Tiedonlouhinta 2013/L5 p. 26 Naiivi-Bayesin edut robusti kohinalle hyvin resistentti ylisovittumiselle voi oppia pienestäkin datamäärästä ei tarvitse oppia rakennetta helppo oppia voi hyödyntää kaiken informaation, mutta sallii puuttuvat arvot sekadatallekin menetelmiä (yleensä diskretoivat numeeriset muuttujat) sopii hyvin noviiseille Naiivi-Bayesin edut Naivi-Bayes-oletus usein epärealistinen! jos vahvoja X i :den välisiä riippuvuuksia, luokittelu kärsii pieni esitysvoima jos kategorisia muuttujia, vain lineaariset luokkarajat Tiedonlouhinta 2013/L5 p. 27 Tiedonlouhinta 2013/L5 p. 28

Yleisen Bayes-luokittelijan edut ja haitat 3. K:n lähimmmän naapurin menetelmä (K-Nearest neighbour classifier) hyvin informatiivinen! voi esittää epädeterminismiä voi olla sekaisin kategorisia ja numeerisia muuttujia hyvin ilmaisuvoimainen rakenteen oppiminen vaikeaa! suboptimaaliset menetelmät vaatii paljon dataa herkempi ylisovitumiselle Idea: Luokitellaan piste x siihen luokkaan, mihin suurin osa sen K:sta lähimmästä naapuripisteestä kuuluu. Tarvitaan etäisyys- tai samankaltaisuusmitta d d(x 1, x 2 ) kertoo pisteiden x 1 ja x 2 etäisyyden tai samankaltaisuuden asteen numeeriselle datalle esim. euklidinen etäisyys d(x 1, x 2 )= (a 11 a 21 ) 2...(a 1k a 2k ) 2 merkkijonoille esim. minimum edit distance binaaridatalle esim. Hamming-etäisyys kategorinen ja sekadata hankalimpia! Tiedonlouhinta 2013/L5 p. 29 Tiedonlouhinta 2013/L5 p. 30 K:n lähimmän naapurin menetelmä K:n naapurin edut ja haitat lisäksi määritettävä naapuruston koko K jos liian pieni, tulee epävakaa luokittelija jos liian suuri, voi naapuruston yleisin luokka poiketa oikeasta pienidimensioiselle datalle 5 10 hyvä ei suositella suuridimensioiselle (> 20 muuttujaa) datalle, varsinkin jos harvaa eräs (hyvä) variaatio: huomioidaan kaikki naapurit, mutta painotetaan naapurin luokkaa sen etäisyydellä ei oppimista voi olla sekaisin numeerisia ja kategorisia muuttujia (kunhan keksii d:n) varsin robusti kohinalle ja puuttuville arvoille hyvin ilmaisuvoimainen luokkarajat voivat olla monimutkaisia luokittelija paranee käytössä (kun kertyy lisää dataa) hyvän d:n määritys kriittistä ei sovi suuridimensioiselle datalle luokittelu voi olla hidasta (jos paljon dataa) Tiedonlouhinta 2013/L5 p. 31 Tiedonlouhinta 2013/L5 p. 32

4. Neuroverkkoluokittelijat Verkon topologian valinta Tyypillisesti monitasoinen perseptroni (multilayer perceptron, MLP) perseptronissa ei piilotasoja Syötetaso X X X 3 X 4 1 2 Piilotaso Tulostaso C Tiedonlouhinta 2013/L5 p. 33 0 piilotasoa perseptroni voi esittää vain lineaarisia luokkarajoja (mutta yksinkertaisuus voi kompensoida ilmaisuvoiman puutetta) 1 piilotaso eli 3-tasoinen verkko: pystyy esittämään mitä tahansa luokkarajoja (epälineaarisia funktioita) Ei siis kannata turhaan käyttää useampia tasoja! (vain jos tarpeen) hyvin erottuville luokille riittää pienempi määrä piilosolmuja Peukalosääntö (solmujen lkm:n valintaan): painoja tulisi olla noin n 10 (n=opetusjoukon koko) Tiedonlouhinta 2013/L5 p. 34 Muut parametrit Muut parametrit aktivaatiofunktio (yl. sigmoid-funktio) painojen alkuarvot (Suositus: satunnaiset pienet posit. arvot) painojen päivityssääntö (kannattaa lisätä momentum-termi) oppimisalgoritmi useimmiten back-propagation (perustuu gradienttihakuun) hienommat algoritmit voivat säätää verkon topologiaa ja valita piirteitä minimoitava virhefunktio yleensä S S E ylisovittumiseen auttaa lisätermi, joka rankaisee suurista painoista lopetuskriteeri (testijoukko tai ristiinvalidointi hyvä ratkaisu) Säätö vaatii asiantuntemusta! Erittäin vahva työkalu oikeissa käsissä, mutta ylisovittumisen vaara hyvin suuri. Neuroverkko työkaluna on yhtä hyvä kuin käyttäjänsä Tiedonlouhinta 2013/L5 p. 35 Tiedonlouhinta 2013/L5 p. 36

Neuroverkon edut ja haitat erittäin ilmaisuvoimainen robusti kohinalle (kunhan ei ylisovitu) voi arvioida myös luokkien todennäköisyyksiä erittäin herkkä ylisovittumaan vaatii paljon dataa vain numeeriselle datalle (ehkä ordinaaliselle) mallia vaikea tulkita ja tarkistaa oppimisalgoritmit suboptimaalisia, mutta silti hitaita vaatii asiantuntemusta (paljon parametrivalintoja) 5. Tukivektorikoneet (support vector machines, SVM) Perusidea: Kuvataan data suurempaan ulottuvuuteen, jolloin luokkaraja muuttuu lineaariseksi. Sitten etsitään levein hypertaso (lineaarinen luokkarajavyöhyke), joka erottaa luokat. tukivektorit=vaikeimmin luokiteltavia pisteitä määrittävät luokkarajan yleensä sallitaan joitain luokitteluvirheitä ( pehmeä rajavyöhyke, soft margin ) kuvaus suurempaan dimensioon tehdään implisiittisesti, ydinfunktioilla (kernel functions) Tiedonlouhinta 2013/L5 p. 37 Tiedonlouhinta 2013/L5 p. 38 Valittavat parametrit kernel-funktio ja sen parametrit tässä voi hyödyntää esitietämystä muuten radial basis funktio hyvä oletusarvo (jos epälineaarinen luokkaraja) pehmeän marginaalin parametri (=regularisointiparametri, regularization parameter) oppimisalgoritmi globaalisti optimaalisia! Mutta ei muuttujien valintaa. Tiedonlouhinta 2013/L5 p. 39 SVM:n edut ja haitat erittäin ilmaisuvoimainen resistantti ylisovittumiselle toimii vaikka muuttujia olisi enemmän kuin datarivejä! globaalisti optimaalinen malli (mutta perusmenetelmä ei valitse muuttujia) vain numeeriselle (ehkä ordinaaliselle) datalle (perusmenetelmä vain 2:n luokalle (on laajennoksia)) mallia vaikea tulkita parametrien valinta voi olla vaikeaa (automaattisissa menetelmissä suuri ylisovittumisen vaara) ulkopuoliset (outliers) saattavat olla ongelma? Tiedonlouhinta 2013/L5 p. 40

Esimerkki 1: Bayes-luokittelija keuhkosyöpätyypin tunnistukseen geenien perusteella Bayes-luokittelija keuhosyöpätyypin tunnistukseen Keuhkosyövän yleisimpien tyyppien, AC:n (adenocarcinoma) ja SCC:n (squamous cell carcinoma), vaikea mutta tärkeä ongelma Bayes-luokittelijalla onnistuttiin löytämään 25 geeniä, jotka ennustavat syöpätyypin 95% tarkkuudella opetusjoukon ulkopuolisella datalla Bayes-verkolla voi hyvin esittää myös geenien väliset säätelysuhteet (hyvä kuvaava malli) Lähde: Chang and Ramoni: Transcriptional network classifiers. BMC Bioinformatics 2009, 10(Suppl 9):S1. Tiedonlouhinta 2013/L5 p. 41 Tiedonlouhinta 2013/L5 p. 42 Esimerkki 2: Leukemiatyypin ennustaminen SVM:illä Datana 2308 geenin tiedot kahta leukemiatyyppiä, AML:aa (acute myeloid leukemia) ja ALL:aa (acute lymphoblastic leukemia), sairastavilta (vain 3834 riviä dataa) Vertailtiin tavallista SVM:ää ja kolmea muuttujien valintaa suorittavaa SVM:ää Paras malli (DrSVM) valitsi 78 geeniä ja testivirhe oli 0 Lähde: Zhu and Zou: Variable selection for the linear support vector machine. Computational Intelligence (SCI) 35, 35-59 (2007). Tiedonlouhinta 2013/L5 p. 43