Luku 14 - Koneoppiminen ja luokittelu

Koko: px
Aloita esitys sivulta:

Download "Luku 14 - Koneoppiminen ja luokittelu"

Transkriptio

1 Luku 14 - Koneoppiminen ja luokittelu Matti Eskelinen Tässä luvussa opimme perusasiat koneoppimisesta ja mallien kouluttamisesta. Opimme mitä tarkoittavat ylioppiminen ja alioppiminen ja miten analysoidaan asioita nimeltä bias ja variance. Käytännöllisiä asioita tällä kerralla: Opimme perusasioita ja käsitteitä koneoppimisesta, tutustumme luokittelumenetelmiin ja tyypilliseen luokitteluprosessiin, tutkimme virheitä koulutus- ja validointijoukossa, valitsemme parhaat parametrit kokeilujen perusteella. Mitä koneoppiminen on Koneoppimisen tavoitteena on rakentaa ohjelmistojärjestelmiä, jotka kykenevät oppimaan asioita datasta. Arthur Samuelin vanha määritelmä vuodelta 1959 mainitsee koneoppimisen tavoitteeksi sen, että tietokoneet voisivat oppia tekemään asioita ilman yksityiskohtaista vaiheittaista ohjeistusta ja ohjelmointia. Tom Mitchell muotoili täsmällisemmän määritelmän vuonna 1998: sen mukaan tietokoneohjelman voidaan sanoa oppivan kokemuksesta E liittyen johonkin tehtävään T suhteessa mittariin P, jos se suoriutuu mittarilla P mitaten paremmin tehtävässä T kokemuksen E jälkeen. Tämä määritelmä luonnollisesti pitää sisällään oletuksen, että ohjelman toiminta voi muuttua kokemuksien seurauksena. Koneoppiminen perustuu tyypillisesti siihen, että havaintodatasta etsitään jokin säännönmukaisuus ja kuvataan se mallina. Tällaisen mallin tarkoituksena on useimmiten joko lajitella asioita luokkiin (luokittelu, engl. classification), ennustaa jonkin ilmiön tulevaa kehitystä (regressio, engl. regression), tai havaita poikkeavuuksia datassa (engl. anomaly detection). Opittujen mallien keskeinen ominaisuus on yleistävyys (engl. generalizability), eli se kuinka hyvin malli ennustaa uusien näytteiden käyttäytymistä (eli sellaisten näytteiden, joita ei ole käytetty mallin kouluttamisessa). Hyvin yleistävä malli kuvaa kohteiden olennaisia ominaisuuksia ja toimii siten hyvin myös aivan uusienkin näytteiden kanssa. 1

2 Koneoppimisen malleja voidaan rakentaa useilla eri tavoilla, käyttäen erilaisia matemaattisia abstraktioita. Tyypillisesti mallit rakennetaan siten, että niihin jää muokattavia parametreja, joiden avulla mallin toimintaa voidaan säätää. Mallin parametrien valitsemista siten, että malli toimii odotetulla tavalla, kutsutaan mallin kouluttamiseksi (engl. training). Tätä varten havaintodata jaetaan tyypillisesti kolmeen osaan: koulutusdataan, validointidataan ja testidataan. Ensimmäistä käytetään mallin parametrien säätämiseen, toisella varmistetaan että parametrivalinta on järkevä, ja kolmannella varmistetaan opityn mallin yleistävyys. Näihin vaiheisiin palaamme vielä myöhemmin. Malleja voidaan kouluttaa useilla eri tavoilla, joiden tärkein ero liittyy siihen, millä tavalla mallien suoriutumisesta annetaan palautetta. Niin sanottu valvottu tai ohjattu oppiminen (engl. supervised learning) tarkoittaa sitä, että oikeat vastaukset ovat tiedossa ja oppimisprosessin ohjaamisessa käytetään etäisyysmittauksia mallin tuottaman vastauksen ja oikean vastauksen välillä. Sen sijaan vahvistusoppiminen (engl. reinforcement learning) perustuu palautteeseen, joka on positiivista tai negatiivista, mutta absoluuttinen etäisyys oikeaan vastaukseen ei ole tiedossa. Lopulta valvomaton tai ohjaamaton oppiminen (engl. unsupervised learning) tarkoittaa sitä, että oikeat vastaukset eivät ole tiedossa, joten oppimisen täytyy perustua rakenteiden ja riippuvuuksien löytämiseen datasta esimerkiksi rypästelyn avulla. Ali- ja ylioppiminen Mallien kouluttamisessa esiintyy kaksi keskeistä ongelmaa, jotka ovat osittain toisilleen vastakkaisia: bias ja variance. Suomeksi nämä voisi kääntää esimerkiksi sanoilla harha ja erimielisyys. Puhutaan myös alioppimisesta ja ylioppimisesta. Alioppiminen eli bias tarkoittaa sitä, että malli ei kuvaa riittävän hyvin koulutusdatassa olevaa vaihtelua, joten se ei myöskään pysty ennustamaan uusien näytteiden käyttäytymistä. Usein bias on systemaattinen poikkeama odotetusta tuloksesta, joka johtuu liian yksinkertaisesta mallista. Alioppimisen syynä voi olla malli jossa on liian vähän parametreja, tai mallin pohjana olevat piirteet kuvaavat tutkittavaa ilmiötä huonosti. Alioppimisen tunnistaa siitä, että virhe on suhteellisen suuri sekä koulutusdatalla että validointidatalla. Alioppimista ei voida korjata lisäämällä datan määrää, vaan on parannettava mallia tai sen perustana olevia piirteitä. Ylioppiminen eli variance puolestaan tarkoittaa sitä, että malli kuvaa liian tarkasti koulutusdatassa olevaa vaihtelua, joten se ei yleisty riittävän hyvin ennustaakseen uusien näytteiden käyttäytymistä. Usein variance näkyy satunnaisena poikkeamana odotetusta tuloksesta, johon yleinen syy on liian monimutkainen malli. Ylioppimisen syitä voivat olla liian vähäinen tai muuten puutteellinen koulutusdata, joka ei kata tutkittavan ilmiön kaikkea vaihtelua, malli jolla on liikaa vapausasteita, liian monia piirteitä tai muuten huonosti tutkittavaa ilmiötä kuvaavat piirteet. Ylioppimisen tunnistaa siitä, että virhe on hyvin pieni koulu- 2

3 tusdatalla mutta suuri validointidatalla. Datan määrän lisääminen voi auttaa, mutta on myös syytä kokeilla mallin yksinkertaistamista. Usein on tyydyttävä jonkinlaiseen kompromissiin ali- ja ylioppimisen välillä. Ylioppimista voidaan hallita myös käyttäen regularisointia. Tyypillinen tapa on estää mallin parametrien suuret vaihtelut lisäämällä mallin kustannusfunktioon termi, joka saa suuria arvoja kun parametrien arvot ovat suuria. Yleisemmin regularisointi tarkoittaa ongelman muuttamista helpommin käsiteltävään muotoon esimerkiksi tekemällä ennakko-oletuksia tutkittavan funktion sileydestä tai käyttämällä aiempaa tietoa tutkittavasta ilmiöstä. Luokitteluprosessi Eräs tyypillisimmistä konenäkötehtävistä on rakentaa luokittelija, joka saa syötteenä kuvan ja palauttaa yhden tai useampia tunnisteita, jotka kertovat mihin luokkiin kuuluvia kohteita kuvasta löytyy. Tehtävän ratkaisu etenee yleensä seuraavien vaiheiden mukaan: 1) Näytekuvien eli datajoukon hankinta, 2) sopivan esikäsittelyn valitseminen kuville vaihteluiden vähentämiseksi, 3) piirteiden valinta ja datajoukon kuvaaminen piirreavaruuteen, 4) piirrevektorien esikäsittely ja skaalaaminen, 5) datajoukon jakaminen koulutus-, validointi- ja testijoukoiksi, 6) luokittelumenetelmän valinta ja luokittimen kouluttaminen validointia käyttäen ja oppimistulosta analysoiden, 7) testaaminen testijoukolla. Näiden vaiheiden välillä on usein tarpeen siirtyä edestakaisin kun havaitaan puutteita aiempien vaiheiden tuloksissa. Näytekuvia saattaa olla liian vähän tai ne ovat sopimattomia tarkoitukseen. Ensimmäisenä kokeillut piirteet eivät ehkä toimikaan ihanteellisella tavalla. Valittu luokittelumenetelmä ei välttämättä tuotakaan toivottua tulosta. Nyrkkisääntönä voitaneen sanoa, että dataa ei yleensä voi olla liikaa, mutta datan rakennetta on syytä pyrkiä ymmärtämään. Datan ymmärtämistä vaikeuttaa se, että usein data on hyvin korkeaulotteista ja sitä ei pystytä piirtämään ihmisen ymmärtämään muotoon. Erilaiset osaprojektiot, muuttujien välisen korrelaation analysointi, jakaumien tutkiminen ja esimerkiksi pääkomponenttianalyysi tai satunnaisprojektio voivat olla avuksi. Seuraavissa esimerkeissä analysoimme dataa, joka on muodostettu kolmen erilaisen kuvion invarianteista momenteista. Kuviot ovat ellipsejä, nelikulmioita ja kolmioita. Kuviot voivat olla missä tahansa asennossa, joten ristikorrelaatio ei auta tunnistamaan kohteita: kaikkien datajoukkojen keskiarvo on sumea pyöreä möykky. Datan jakaumista nähdään, että datajoukot ovat jossakin määrin päällekkäisiä, mutta ensimmäinen ja kolmas piirre näyttäisivät tuovan eroja luokkien välille. 3

4 Kuva 1: Datan histogrammi Kuva 2: Data projektio kahdelle tärkeimmälle pääkomponentille 4

5 Datan osaprojektiot ja satunnaisprojektiot puolestaan viittaisivat siihen, että kutakin kohdetta edustavat pisteet sijoittuvat tiiviisiin ryppäisiin jotka ovat enimmäkseen erillisiä keskenään. Kohteet siis pitäisi pystyä erottelemaan toisistaan tässä piirreavaruudessa. Kuva 3: Datan osaprojektiot eri akselipareille knn - luokittelija Helpoin tapa luokitella kohteita on tutkia havaintopisteiden lähimpiä naapureita piirreavaruudessa, joten sitä voi kokeilla ensimmäisenä. Prosessi knn-luokittelijan luomiseksi on yksinkertaisuudessaan seuraava: 1) hankitaan datajoukko ja piirteytetään se, 2) jaetaan datajoukko koulutus-, validointi- ja testijoukkoihin, 5

6 Kuva 4: Data satunnaisprojektio 6

7 3) tallennetaan koulutusjoukon piirrevektorit kd-puuhun, 4) testataan luokittelutulosta eri k:n arvoilla validointijoukon alkioille, 5) valitaan paras k ja varmistetaan sen hyvyys kokeilemalla vielä testijoukolla. Tämän luokittelijan heikkous on se, että jokainen luokittelu vaatii lähimpien pisteiden etsintää koulutusjoukossa. Käyttämällä kd-puita tämä saadaan tehtyä tehokkaasti, ja on myös olemassa menetelmiä joilla kd-puusta voidaan karsia pois ryppäiden keskellä olevia alkioita hakujen nopeuttamiseksi. Käyttämällä knn-luokittelijaa eri muotoisille kappaleillemme saadaan vahvistettua aiemmin tehty havainto siitä, että datapisteet vaikuttavat jakautuvan melko tiiviisiin, erillisiin ryppäisiin: lähes kaikki lähimmät naapurit kuuluvat oikeaan luokkaan. Esimerkiksi 5 vaikuttaa hyvältä k:n arvolta. Tämä tulos antaa ymmärtää, että myös muiden luokittelumenetelmien pitäisi pystyä tuottamaan hyvä tulos. MLP - luokittelija Neuroverkot ovat suosittu menetelmä kaikenlaisissa koneoppimisen tehtävissä. Syynä tähän on se, että tietynlaisten neuroverkkojen on voitu osoittaa pystyvän estimoimaan mitä tahansa funktiota. Jos tehtävä voidaan määritellä kuvauksena piirrevektoreilta joillekin toisille vektoreille tai skalaareille ja käytössä on riittävästi dataa ja laskentakapasiteettia, voidaan löytää neuroverkko joka toteuttaa tämän kuvauksen. Kouluttamisen jälkeen neuroverkkoa on helppo ja nopea käyttää: se muodostaa käytännössä painotettuja summia piirrevektoreista ja mahdollisesti syöttää ne jonkin funktion läpi. Neuroverkkoja käyttäen voidaan toteuttaa luokittelija koodaamalla odotetut luokittelutulokset vektoreina, esimerkiksi jos luokkia on kolme, voidaan tehdä kolmen alkion mittaisia vektoreita joissa aina yksi alkio on ykkönen ja muut nollia. Voidaan ajatella, että tämä kuvaa todennäköisyyttä sille, mihin luokkaan tutkittava piirrevektori kuuluu. Samat rajoitukset tietysti pätevät kuin muillakin koneoppimisen menetelmillä: jos eri luokat ovat pahasti päällekkäin piirreavaruudessa, ei ole mahdollista saada kovin hyvää luokittelutulosta. Neuroverkot rakentuvat solmuista, jotka organisoidaan kerroksiksi. Ensimmäinen kerros on syötekerros; siinä on yhtä monta solmua kuin piirrevektoreissa on piirteitä, eli kukin syötekerroksen solmu vastaanottaa yhden piirrearvon. Viimeinen kerros on tuloskerros, ja siinä on yhtä monta solmua kuin tulosvektoreissa on alkioita. Meidän kolmen luokan luokittelijan toteuttavassa verkossamme olisi siis kolme solmua tuloskerroksessa. Jokainen verkon solmu kytkeytyy kaarella jokaiseen seuraavan kerroksen solmuun. Kaarilla on painokertoimet, ja solmun arvo voidaan laskea kertomalla edellisen kerroksen solmujen arvot yhdistävän kaaren painokertoimella ja laskemalla tulokset yhteen. Lisäksi summaan lisätään bias-termi. Lopputulos syötetään aktivaatiofunktioksi kutsutun funktion läpi. Tämä on funktio, joka pakottaa solmun 7

8 Kuva 5: Yksinkertainen neuroverkko 8

9 arvot tietylle välille, usein joko välille [ 1, 1] tai [0, 1], ja yhdessä bias-termin kanssa aktivaatiofunktio määrää kapean syötearvojen alueen, jolla solmun tuottama vaste kasvaa nopeasti. Tällä mekanismilla matkitaan oikeiden neuronien toimintaa: tyypillisesti neuroni tarvitsee tietyn määrän ärsykkeitä ennen kuin se laukeaa, ja yleensä ärsykekynnyksen ylittyessä neuroni alkaa nopeasti tuottaa voimakkaita vasteita. Aktivaatiofunktio mahdollistaa myös epälineaarisen käytöksen; ilman sitä solmut laskisivat vain painotettuja summia syötearvoistaan, ja tuloksena olisi lineaarisia funktioita. Neuroverkkoja koulutetaan syöttämällä verkon läpi piirrevektoreita, joille tunnetaan oikea lopputulos; verkon pitäisi oppia matkimaan syöteaineistoa ja ennakoimaan uusien syötteiden tuottamia vasteita. Verkolle on määritelty kustannusfunktio, joka koostuu lopputuloksessa olevasta virheestä sekä regularisointitermistä, joka kasvattaa virhettä sitä enemmän mitä suurempia painokertoimia verkossa on. Tämän tarkoituksena on pitää suurin osa verkon painokertoimista lähellä nollaa ja ehkäistä ylioppimista. Käyttäen sopivaa optimointimenetelmää voidaan etsiä verkon solmuille sellaiset painokertoimet, että kustannus minimoituu. Usein tähän käytetään gradienttimenetelmiä, mutta myös esimerkiksi geneettisillä algoritmeilla on saatu hyviä tuloksia. Neuroverkkojen kustannusfunktion gradientti on monimutkainen ja sen lähtöjoukko on hyvin korkeaulotteinen avaruus. Lokaaleja minimejä on paljon, ja usein haku päätyy hyvin hitaasti laskeutuvan kuilun pohjalle. Optimointitehtävälle määritelläänkin yleensä maksimimäärä kierroksia sekä jokin pieni ɛ joka määrää kuinka paljon virheen tulee pienentyä jokaisella optimointikierroksella. Jos kierrosmäärä täyttyy tai virheen muutos on häviävän pieni, voidaan lopettaa. Verkon kouluttaminen aloitetaan alustamalla verkon painokertoimet satunnaisesti esimerkiksi välille [ 1, 1]. Nollia ei pidä käyttää painokertoimien alkuarvauksina. Lokaalien minimien vuoksi on syytä suorittaa optimointi useita kertoja eri alkuarvauksilla ja valita lopputuloksista paras. Verkon painokertoimien lisäksi täytyy optimoida välikerroksen solmujen määrä sekä käytetty regularisointitermi; nämä vaikuttavat siihen, kuinka monimutkaisia funktioita verkko tuottaa, ja huonosti valitut arvot johtavat helposti yli- tai alioppimiseen. Tämä optimointi tehdään tyypillisesti kouluttamalla verkkoa useilla eri arvoilla ja valitsemalla se vaihtoehto, joka tuottaa pienimmän virheen validointijoukolla. Näitä itse luokittelijaa kuvaavia parametreja kutsutaan usein hyperparametreiksi erotukseksi tuloksena olevan mallin parametreista, jotka neuroverkkojen tapauksessa ovat verkon painokertoimia. Edellä kuvatut momenttipiirteet osoittautuvat odotettua haastavammiksi neuroverkolle: ilmeisesti datajoukot ovat sen verran lähellä toisiaan ja muodostavat sen verran epälineaarisia monistoja, että aivan yksinkertainen verkko ei kykene luokittelemaan näytteitä oikein. Tarvitaan vähintään viisi välikerroksen solmua oikean tuloksen saamiseksi, ja tulos paranee tasaisesti seitsemääntoista solmuun asti. Lisäksi regularisointitermin on oltava hyvin pieni, mikä viittaa siihen, että lähes kaikkien verkon painokertoimien tulee olla nollia. 9

10 SVM - luokittelija Tukivektorikoneet (engl. Support Vector Machine, SVM) ovat viime aikoina saaneet paljon suosiota luokittelumenetelmänä. Niillä voidaan muodostaa tietyssä mielessä optimaalinen erotteleva hypertaso luokkien välille siten, että luokkien väliin jäävä marginaali on mahdollisimman suuri. Nimitys tukivektorikone tulee siitä, että tämä hypertaso määritellään suhteessa lähimpänä oleviin koulutusjoukon datapisteisiin; nämä pisteet ovat ikään kuin tason tukivektoreita. Tukivektorikone periaatteessa erottelee kaksi luokkaa toisistaan lineaarisen tason avulla. Ne voidaan laajentaa useammalle luokalle kouluttamalla jokaista luokkaa kohti oma luokittelija, joka erottelee kyseisen luokan pisteet muiden luokkien pisteistä. Samoin tukivektorikoneet voidaan yleistää sellaisiin tilanteisiin, joissa luokkien välinen päätöspinta ei ole lineaarinen käyttämällä niin sanottua kernel-temppua: piirreavaruus projisoidaan korkeampiulotteiseen avaruuteen käyttämällä kernel-funktiota. Tässä korkeampiulotteisessa avaruudessa toivon mukaan löydetään lineaarinen hypertaso, joka erottaa luokat toisistaan. Bayes - luokittelija* Aiemmin tässä luvussa tutkimme eri piirteiden jakaumia eri luokkia edustavilla havainnoilla, ja huomasimme eroavaisuuksia joiden perusteella havaintoja voisi yrittää luokitella. Aiemmin oppimamme Bayesin kaava tarjoaa työkalut tällaisen luokittelijan rakentamiseen. Pohditaan hetken aikaa aiemmin esitettyjä histogrammeja, jotka ovat siis diskreettejä todennäköisyysjakaumia jos lokeroiden summa normalisoidaan ykköseksi. Muistellaan myös Bayesin kaavaa. Mitä jakaumia nämä histogrammit edustavat? Kussakin histogrammissa on yhden piirteen x i arvojen jakauma yhdessä luokassa w j. Kukin histogrammi siis edustaa jakaumaa P (X i W = w j ). Olemme tutkimassa posteriorijakaumaa P (W X), joten histogrammit edustavat uskottavuustermiä P (X W ) Bayesin kaavassa. Palautetaan mieleen posterioritodennäköisyyden maksimointi Bayesin kaavan mukaan. Haluamme löytää maailman tilan w, joka tässä siis vastaa tehdyn havainnon sijoittumista johonkin kolmesta luokasta, jolle posterioritodennäköisyys x:stä tehtyyn havaintoon pohjautuen on maksimaalinen: w = arg maxp (X W )P (W ). W Tässä kaavassa siis prioritodennäköisyys P (W ) tarkoittaa todennäköisyyttä sille, että satunnaisesti valittu näyte kuuluu tiettyyn luokkaan. Meidän tapauksessamme kaikista kohteista on yhtä monta näytettä, joten priori on kaikille luokille sama. Näin ei välttämättä aina ole asian laita, joten on mietittävä tapauskohtaisesti tai laskettava koulutusaineistosta mitkä eri luokkien suhteelliset esiintymistiheydet ovat. 10

11 Yksinkertainen Bayes-luokittelijamme toimii siis seuraavasti. 1) Kerätään koulutusaineistosta histogrammit muuttujittain siten, että eri luokkien histogrammit ovat vertailukelpoisia - käytännössä siten, että tietyn muuttujan kaikissa histogrammeissa on sama arvoväli ja sama määrä lokeroita. Normalisoidaan histogrammit todennäköisyysjakaumiksi. Nämä ovat kunkin luokan uskottavuusfunktioita. 2) Kullekin uudelle näytteelle ja kullekin piirremuuttujalle etsitään oikea histogrammin lokero. Kerätään talteen kutakin luokkaa edustavan histogrammin kyseisessä lokerossa oleva lukuarvo. Tämä on kyseisen luokan uskottavuus kyseisen muuttujan perusteella; tämä ei ole sama kuin todennäköisyys, sillä yhteisjakaumaa ei ole normalisoitu. 3) Kootaan uskottavuusarvot kaikkien muuttujien histogrammeista ja kerrotaan keskenään yhden luokan uskottavuusarvot. Näin saadaan kaikkien muuttujien yhdistetty uskottavuusarvo jokaiselle luokalle. 4) Jos prioritodennäköisyys ei ole kaikille luokille sama, kerrotaan saatu uskottavuus vielä prioritodennäköisyydellä. Se luokka, jonka uskottavuus on tässä vaiheessa suurin, on paras arvaus luokittelutulokseksi maksimaalisen a posteriori -todennäköisyyden mielessä. 5) Jos halutaan todennäköisyys kyseiselle muuttujien arvojen ja luokittelun yhdistelmälle, pitäisi vielä jakaa P (X):llä. Käytännössä tämä tehtäisiin muodostamalla yhdistetty histogrammi kaikille luokille, normalisoimalla, ja jakamalla kukin muuttujan uskottavuusarvo yhdistetyn histogrammin kyseisen lokeron kohdalla olevalla todennäköisyysarvolla. Harvoin tätä kuitenkaan tarvitaan. Tämä on matemaattisesti perusteltu tapa valita paras vaihtoehto kerätyn datan perusteella. On kuitenkin huomioitava muutama asia. Uskottavuus riippuu histogrammien muodostamiseen käytetystä datasta, valitusta histogrammien lokerojaosta, ja tehdystä priorioletuksesta. Prioritodennäköisyys tulee valita sen mukaan, miten usein eri luokat oikeasti esiintyvät; joskus koulutusdataan on valikoitu yhtä monta edustajaa jokaisesta luokasta vaikka toiset luokat esiintyisivätkin useammin kuin toiset. Oleellisin huomio tästä yksinkertaisesta Bayes-luokittelijasta liittyy yllä olevan kuvauksen kohtaan 3: se, että uskottavuusarvot kerrotaan keskenään pitää sisällään sen oletuksen, että eri muuttujat ovat keskenään tilastollisesti riippumattomia. Tällaista luokittelijaa kutsutaan Naiiviksi Bayes-luokittelijaksi ja se saattaa toisinaan antaa täysin vääriä tuloksia. Usein muuttujien välillä on keskinäisiä riippuvuuksia, mikä käytännössä tarkoittaa sitä, että niiden välinen ehdollinen todennäköisyys ei ole sama kuin muuttujien todennäköisyyksien tulo. Muuttujien välisten riippuvuuksien mallintamiseen voidaan käyttää Bayesin verkkoja. Nämä ovat suunnattuja graafeja, joissa muuttujia edustavien solmujen välille piirretty kaari kuvaa kyseisten muuttujien välillä olevaa tilastollista riippuvuutta. Tällaisten muuttujien uskottavuuksien yhdistäminen tulee tehdä ehdollisen todennäköisyysjakauman perusteella. Bayesin verkko voidaan muodostaa joko käsin aiemman tiedon tai uskomuksen perusteella, mutta on olemassa 11

12 menetelmiä verkkojen päättelemiseksi havaintodatasta. Tässä yhteydessä emme kuitenkaan syvenny sen enempää Bayesin verkkoihin. Jakaumia voi olla hankalaa käyttää histogrammimuodossa; erityisesti jos tarvitaan useiden muuttujien ehdollisia jakaumia, jolloin on koottava datasta moniulotteisia histogrammeja. Nämä vievät paljon muistitilaa. Usein tilanne on vieläpä sellainen, että käytössä ei ole riittävästi dataa jotta histogrammi saataisiin muodostettua luotettavasti. Onkin tyypillistä mallintaa jakaumat esimerkiksi Gaussisena jakaumana tai Gaussisina sekoitemalleina (engl. Gaussian Mixture Models, GMM). Sliding windows* (laajennetaan myöhemmin) Boosting* (laajennetaan myöhemmin) Luokittelutulosten arviointi Jaotellaan aluksi luokittelutulokset neljään eri luokkaan. Oikeat positiiviset (engl. true positive) eli tp 1 ovat niitä näytteitä jotka on luokiteltu luokkaan 1 ja jotka oikeasti kuuluvat tähän luokkaan. Oikeat negatiiviset (engl. true negative) eli tn 1 ovat niitä näytteitä jotka on luokiteltu johonkin muuhun luokkaan kuin 1 ja jotka oikeasti eivät kuulu tähän luokkaan. Väärät positiiviset (engl. false positive) eli fp 1 ovat niitä näytteitä jotka on luokiteltu luokkaan 1 mutta jotka eivät oikeasti kuulu tähän luokkaan. Lopuksi väärät negatiiviset (engl. false negative) eli fn 1 ovat näytteitä jotka on luokiteltu johonkin muuhun luokkaan kuin 1 mutta jotka oikeasti kuuluisivat tähän luokkaan. Tarkkuus ja herkkyys Näiden luokkien perusteella saadaan määriteltyä monia erilaisia mittareita luokittelutuloksen hyvyydelle. Yksinkertaisimmat näistä ovat tarkkuus (engl. precision) ja herkkyys (engl. recall tai sensitivity). precision = p = tp tp + fp Tarkkuus tarkoittaa siis sitä, kuinka suuri osuus positiivisista luokittelutuloksista on oikeasti positiivisia. 12

13 tp recall = r = tp + fn Herkkyys puolestaan tarkoittaa sitä, kuinka moni positiivisista näytteistä tunnistettiin positiiviseksi. specificity = tn tn + fp Kolmas perusmittari on specificity, joka voitaisiin kääntää johdonmukaisuudeksi. Se mittaa siis sitä, kuinka moni negatiivisista näytteistä tunnistettiin negatiivisiksi. accuracy = tp + tn tp + tn + fp + fn Lopulta accuracy eli täsmällisyys tarkoittaa sitä, kuinka suuri osuus kaikista näytteistä luokiteltiin oikein. F1-arvo Niinsanottu F 1 -arvo on suosittu tapa mitata luokitustuloksia. Se voidaan määritellä precision- ja recall-mittarien avulla seuraavasti: F 1 = 2 p r p + r. Tämä mittari saa hyviä arvoja silloin kun sekä p että r ovat lähellä ykköstä, ja huonoja arvoja silloin kun joko p tai r on lähellä nollaa. Se voidaan myös kirjoittaa muotoon tp F 1 = 2 2tp + fp + fn. Matthewsin korrelaatiokerroin Usein data-aineistot ovat sellaisia, että joko positiivisia tai negatiivisia näytteitä on hyvin paljon vähemmän. Esimerkiksi moniluokkaisessa luokituksessa on tyypillistä, että kukin luokka pitää erikseen oppia erottamaan kaikkien muiden luokkien näytteistä, jolloin negatiivisia näytteitä voi olla moninkertainen määrä. Monien mittarien tulos vääristyy tällaisesta epäsuhdasta. Esimerkiksi jos positiivisia näytteitä on vain 5% kaikista näytteistä, luokittelemalla kaikki näytteet negatiivisiksi saadaan luokitin jonka täsmällisyys (accuracy) on 0.95, 13

14 joka äkkiseltään vaikuttaisi aika hyvältä. Tällaisesta luokittelijasta ei kuitenkaan ole mitään käytännön hyötyä. Tällaisiin epäsuhtaisiin tilanteisiin soveltuu Matthewsin korrelaatiokerroin (Matthews Correlation Coefficient) eli MCC. MCC = tp tn fp fn (tp + fp)(tp + fn)(tn + fp)(tn + fn) Ristiinvalidointi Jos dataa ei ole kovin paljon, voi olla vaikeaa jakaa datajoukko riittävän suuriin koulutus-, validointi- ja testijoukkoihin. Tähän ongelmaan voi löytyä apu ristiinvalidoinnista (engl. cross validation). Siinä koulutusjoukko jaetaan k yhtä suureen osaan. Luokittelija koulutetaan useaan kertaan siten, että kukin osa toimii vuorollaan validointijoukkona. Lopulta jokaista datapistettä on käytetty sekä koulutuksessa että validoinnissa, mutta ei kuitenkaan yhtä aikaa molemmissa. Koulutuksen hyvyysarvona voidaan käyttää kaikkien koulutuskertojen keskiarvoa. Tehtäviä 14

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.

Lisätiedot

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat 1 Tukivektoriluokittelija Tukivektorikoneeseen (support vector machine) perustuva luoikittelija on tilastollisen koneoppimisen teoriaan perustuva lineaarinen luokittelija. Perusajatus on sovittaa kahden

Lisätiedot

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista

Lisätiedot

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä

Lisätiedot

Tekoäly ja koneoppiminen metsävaratiedon apuna

Tekoäly ja koneoppiminen metsävaratiedon apuna Tekoäly ja koneoppiminen metsävaratiedon apuna Arbonaut Oy ja LUT University 26. marraskuuta 2018 Metsätieteen päivä 2018 Koneoppimisen kohteena ovat lukujen sijasta jakaumat Esimerkki 1 Koneoppimisessa

Lisätiedot

Diskriminanttianalyysi I

Diskriminanttianalyysi I Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi

Lisätiedot

Johdatus tekoälyyn. Luento 6.10.2011: Koneoppiminen. Patrik Hoyer. [ Kysykää ja kommentoikaa luennon aikana! ]

Johdatus tekoälyyn. Luento 6.10.2011: Koneoppiminen. Patrik Hoyer. [ Kysykää ja kommentoikaa luennon aikana! ] Johdatus tekoälyyn Luento 6.10.2011: Koneoppiminen Patrik Hoyer [ Kysykää ja kommentoikaa luennon aikana! ] Koneoppiminen? Määritelmä: kone = tietokone, tietokoneohjelma oppiminen = ongelmanratkaisukyvyn

Lisätiedot

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos K:n lähimmän naapurin menetelmä (K-Nearest neighbours) Tarkastellaan aluksi pientä (n = 9) kurjenmiekka-aineistoa, joka on seuraava:

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4B Bayesläinen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Lineaariset luokittelumallit: regressio ja erotteluanalyysi

Lineaariset luokittelumallit: regressio ja erotteluanalyysi Lineaariset luokittelumallit: regressio ja erotteluanalyysi Aira Hast Johdanto Tarkastellaan menetelmiä, joissa luokittelu tehdään lineaaristen menetelmien avulla. Avaruus jaetaan päätösrajojen avulla

Lisätiedot

Laskennallinen data-analyysi II

Laskennallinen data-analyysi II Laskennallinen data-analyysi II Ella Bingham, ella.bingham@cs.helsinki.fi Kevät 2008 Muuttujien valinta Kalvot perustuvat Saara Hyvösen kalvoihin 2007 Laskennallinen data-analyysi II, kevät 2008, Helsingin

Lisätiedot

pitkittäisaineistoissa

pitkittäisaineistoissa Puuttuvan tiedon käsittelystä p. 1/18 Puuttuvan tiedon käsittelystä pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto Puuttuvan tiedon

Lisätiedot

Mallipohjainen klusterointi

Mallipohjainen klusterointi Mallipohjainen klusterointi Marko Salmenkivi Johdatus koneoppimiseen, syksy 2008 Luentorunko perjantaille 5.12.2008 Johdattelua mallipohjaiseen klusterointiin, erityisesti gaussisiin sekoitemalleihin Uskottavuusfunktio

Lisätiedot

Avainsanojen poimiminen Eeva Ahonen

Avainsanojen poimiminen Eeva Ahonen Avainsanojen poimiminen 5.10.2004 Eeva Ahonen Sisältö Avainsanat Menetelmät C4.5 päätöspuut GenEx algoritmi Bayes malli Testit Tulokset Avainsanat Tiivistä tietoa dokumentin sisällöstä ihmislukijalle hakukoneelle

Lisätiedot

Demo 1: Simplex-menetelmä

Demo 1: Simplex-menetelmä MS-C2105 Optimoinnin perusteet Malliratkaisut 3 Ehtamo Demo 1: Simplex-menetelmä Muodosta lineaarisen tehtävän standardimuoto ja ratkaise tehtävä taulukkomuotoisella Simplex-algoritmilla. max 5x 1 + 4x

Lisätiedot

Viikko 1: Johdantoa Matti Kääriäinen matti.kaariainen@cs.helsinki.fi

Viikko 1: Johdantoa Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Viikko 1: Johdantoa Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 29-31.10.2008. 1 Tällä viikolla 1. Käytännön järjestelyistä 2. Kurssin sisällöstä ja aikataulusta 3. Johdantoa Mitä koneoppiminen

Lisätiedot

pitkittäisaineistoissa

pitkittäisaineistoissa Puuttuvan tiedon ongelma p. 1/18 Puuttuvan tiedon ongelma pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto mtl.uta.fi/tilasto/sekamallit/puupitkit.pdf

Lisätiedot

Kognitiivinen mallintaminen. Nelli Salminen

Kognitiivinen mallintaminen. Nelli Salminen Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen

Lisätiedot

Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia.

Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia. 1 Luokittelijan suorituskyvyn optimointi Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia. A. Piirteen valinnan menetelmiä

Lisätiedot

Logistinen regressio, separoivat hypertasot

Logistinen regressio, separoivat hypertasot Logistinen regressio, separoivat hypertasot Topi Sikanen Logistinen regressio Aineisto jakautunut K luokkaan K=2 tärkeä erikoistapaus Halutaan mallintaa luokkien vedonlyöntikertoimia (odds) havaintojen

Lisätiedot

Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi

Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 5.-7.11.2008. 1 Tällä viikolla Sisältösuunnitelma: Ennustamisstrategioista Koneoppimismenetelmiä: k-nn (luokittelu

Lisätiedot

Tekstuurintunnistuksen lyhyt oppimäärä. Ts. pari tapaa erottaa tiiliseinä pensaasta.

Tekstuurintunnistuksen lyhyt oppimäärä. Ts. pari tapaa erottaa tiiliseinä pensaasta. Tekstuurintunnistuksen lyhyt oppimäärä Ts. pari tapaa erottaa tiiliseinä pensaasta. Mitä on tekstuuri? Vaikea määritellä, mutta: Pintakuvio Ornamentti tuntu kuviointi Miksi tämän pitäisi kiinnostaa? (Maantienmerkkausrobotti)

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 2. luento 10.11.2017 Keinotekoiset neuroverkot Neuroverkko koostuu syöte- ja ulostulokerroksesta

Lisätiedot

ImageRecognition toteutus

ImageRecognition toteutus ImageRecognition toteutus Simo Korkolainen 27 kesäkuuta 2016 Projektin tarkoituksena on tehdä ohjelma, joka opettaa neuroverkon tunnistamaan kuvia backpropagation-algoritmin avulla Neuroverkon opetuksessa

Lisätiedot

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö Tällä kerralla ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 19.2. Nelli Salminen nelli.salminen@helsinki.fi D433 vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko

Lisätiedot

1. TILASTOLLINEN HAHMONTUNNISTUS

1. TILASTOLLINEN HAHMONTUNNISTUS 1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,

Lisätiedot

Tee-se-itse -tekoäly

Tee-se-itse -tekoäly Tee-se-itse -tekoäly Avainsanat: koneoppiminen, tekoäly, neuroverkko Luokkataso: 6.-9. luokka, lukio, yliopisto Välineet: kynä, muistilappuja tai kertakäyttömukeja, herneitä tms. pieniä esineitä Kuvaus:

Lisätiedot

Seuraavassa taulukossa on annettu mittojen määritelmät ja sijoitettu luvut. = 40% = 67% 6 = 0.06% = 99.92% 6+2 = 0.

Seuraavassa taulukossa on annettu mittojen määritelmät ja sijoitettu luvut. = 40% = 67% 6 = 0.06% = 99.92% 6+2 = 0. T-6.28 Luonnollisen kielen tilastollinen käsittely Vastaukset, ti 7.2.200, 8:30-0:00 Tiedon haku, Versio.0. Muutetaan tehtävässä annettu taulukko sellaiseen muotoon, joka paremmin sopii ensimmäisten mittojen

Lisätiedot

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1 T-61.281 Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti 10.2.2004, 8:30-10:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:

Lisätiedot

Tilastotiede ottaa aivoon

Tilastotiede ottaa aivoon Tilastotiede ottaa aivoon kuinka aivoja voidaan mallintaa todennäköisyyslaskennalla, ja mitä yllättävää hyötyä siitä voi olla Aapo Hyvärinen Laskennallisen data-analyysin professori Matematiikan ja tilastotieteen

Lisätiedot

Tietorakenteet, laskuharjoitus 7, ratkaisuja

Tietorakenteet, laskuharjoitus 7, ratkaisuja Tietorakenteet, laskuharjoitus, ratkaisuja. Seuraava kuvasarja näyttää B + -puun muutokset lisäysten jälkeen. Avaimet ja 5 mahtuvat lehtisolmuihin, joten niiden lisäys ei muuta puun rakennetta. Avain 9

Lisätiedot

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx. Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin

Lisätiedot

T Luonnollisten kielten tilastollinen käsittely

T Luonnollisten kielten tilastollinen käsittely T-61.281 Luonnollisten kielten tilastollinen käsittely Vastaukset 3, ti 11.2.2003, 16:15-18:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:

Lisätiedot

Tilastotiede ottaa aivoon

Tilastotiede ottaa aivoon Tilastotiede ottaa aivoon kuinka aivoja voidaan mallintaa todennäköisyyslaskennalla, ja mitä yllättävää hyötyä siitä voi olla Aapo Hyvärinen Laskennallisen data-analyysin professori Matematiikan ja tilastotieteen

Lisätiedot

Puumenetelmät. Topi Sikanen. S ysteemianalyysin. Laboratorio Aalto-yliopiston teknillinen korkeakoulu

Puumenetelmät. Topi Sikanen. S ysteemianalyysin. Laboratorio Aalto-yliopiston teknillinen korkeakoulu Puumenetelmät Topi Sikanen Puumenetelmät Periaate: Hajota ja hallitse Jaetaan havaintoavaruus alueisiin. Sovitetaan kuhunkin alueeseen yksinkertainen malli (esim. vakio) Tarkastellaan kolmea mallia Luokittelu-

Lisätiedot

1. Tilastollinen malli??

1. Tilastollinen malli?? 1. Tilastollinen malli?? https://fi.wikipedia.org/wiki/tilastollinen_malli https://en.wikipedia.org/wiki/statistical_model http://projecteuclid.org/euclid.aos/1035844977 Tilastollinen malli?? Numeerinen

Lisätiedot

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Nelli Salminen nelli.salminen@helsinki.fi D433 Neuraalimallinnuksen osuus neljä luentokertaa, muutokset alla olevaan suunnitelmaan todennäköisiä

Lisätiedot

Identifiointiprosessi

Identifiointiprosessi Alustavia kokeita Identifiointiprosessi Koesuunnittelu, identifiointikoe Mittaustulosten / datan esikäsittely Ei-parametriset menetelmät: - Transientti-, korrelaatio-, taajuus-, Fourier- ja spektraalianalyysi

Lisätiedot

Datatähti 2019 loppu

Datatähti 2019 loppu Datatähti 2019 loppu task type time limit memory limit A Summa standard 1.00 s 512 MB B Bittijono standard 1.00 s 512 MB C Auringonlasku standard 1.00 s 512 MB D Binääripuu standard 1.00 s 512 MB E Funktio

Lisätiedot

TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010

TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010 TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta Yliassistentti Jussi Hakanen jussi.hakanen@jyu.fi syksy 2010 Evoluutiopohjainen monitavoiteoptimointi MCDM ja EMO Monitavoiteoptimointi kuuluu

Lisätiedot

Esimerkki: Tietoliikennekytkin

Esimerkki: Tietoliikennekytkin Esimerkki: Tietoliikennekytkin Tämä Mathematica - notebook sisältää luennolla 2A (2..26) käsitellyn esimerkin laskut. Esimerkin kuvailu Tarkastellaan yksinkertaista mallia tietoliikennekytkimelle. Kytkimeen

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016

Lisätiedot

1 Rajoittamaton optimointi

1 Rajoittamaton optimointi Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y

Lisätiedot

jens 1 matti Etäisyydet 1: 1.1 2: 1.4 3: 1.8 4: 2.0 5: 3.0 6: 3.6 7: 4.0 zetor

jens 1 matti Etäisyydet 1: 1.1 2: 1.4 3: 1.8 4: 2.0 5: 3.0 6: 3.6 7: 4.0 zetor T-1.81 Luonnollisten kielten tilastollinen käsittely Vastaukset 11, ti 8.4., 1:1-18: Klusterointi, Konekääntäminen. Versio 1. 1. Kuvaan 1 on piirretty klusteroinnit käyttäen annettuja algoritmeja. Sanojen

Lisätiedot

9. Tila-avaruusmallit

9. Tila-avaruusmallit 9. Tila-avaruusmallit Aikasarjan stokastinen malli ja aikasarjasta tehdyt havainnot voidaan esittää joustavassa ja monipuolisessa muodossa ns. tila-avaruusmallina. Useat aikasarjat edustavat dynaamisia

Lisätiedot

Laskut käyvät hermoille

Laskut käyvät hermoille Laskut käyvät hermoille - Miten ja miksi aivoissa lasketaan todennäköisyyksiä Aapo Hyvärinen Matematiikan ja tilastotieteen laitos & Tietojenkäsittelytieteen laitos Helsingin Yliopisto Tieteen päivät 13.1.2011

Lisätiedot

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016 Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3. luento 17.11.2017 Neuroverkon opettaminen (ohjattu oppiminen) Neuroverkkoa opetetaan syöte-tavoite-pareilla

Lisätiedot

Luokittelumenetelmät (6)

Luokittelumenetelmät (6) Luokittelumenetelmät (6) Luokittelu /päätöspuut ja satunnaismetsämenetelmä ovat erittäin suosittuja, sillä ovat helposti ymmärrettävissä ja luokittelupuut myös visualisoitavissa, toimivat luokka ja numeerisella

Lisätiedot

58131 Tietorakenteet ja algoritmit (kevät 2014) Uusinta- ja erilliskoe, , vastauksia

58131 Tietorakenteet ja algoritmit (kevät 2014) Uusinta- ja erilliskoe, , vastauksia 58131 Tietorakenteet ja algoritmit (kevät 2014) Uusinta- ja erilliskoe, 10..2014, vastauksia 1. [9 pistettä] (a) Todistetaan 2n 2 + n + 5 = O(n 2 ): Kun n 1 on 2n 2 + n + 5 2n 2 + n 2 +5n 2 = 8n 2. Eli

Lisätiedot

Mat Sovellettu todennäköisyyslasku A. Moniulotteiset jakaumat. Avainsanat:

Mat Sovellettu todennäköisyyslasku A. Moniulotteiset jakaumat. Avainsanat: Mat-.9 Sovellettu todennäköisyyslasku A Mat-.9 Sovellettu todennäköisyyslasku A / Ratkaisut Aiheet: Avainsanat: Moniulotteiset jakaumat Diskreetti jakauma, Ehdollinen jakauma, Ehdollinen odotusarvo, Jatkuva

Lisätiedot

Harha mallin arvioinnissa

Harha mallin arvioinnissa Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin

Lisätiedot

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme? TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen TKK (c) Ilkka Mellin (2004) 2 Mitä opimme? 1/4 Tilastollisen tutkimuksen tavoitteena on tehdä johtopäätöksiä prosesseista, jotka generoivat reaalimaailman

Lisätiedot

Kojemeteorologia. Sami Haapanala syksy 2013. Fysiikan laitos, Ilmakehätieteiden osasto

Kojemeteorologia. Sami Haapanala syksy 2013. Fysiikan laitos, Ilmakehätieteiden osasto Kojemeteorologia Sami Haapanala syksy 2013 Fysiikan laitos, Ilmakehätieteiden osasto Mittalaitteiden staattiset ominaisuudet Mittalaitteita kuvaavat tunnusluvut voidaan jakaa kahteen luokkaan Staattisiin

Lisätiedot

Vastepintamenetelmä. Kuusinen/Heliövaara 1

Vastepintamenetelmä. Kuusinen/Heliövaara 1 Vastepintamenetelmä Kuusinen/Heliövaara 1 Vastepintamenetelmä Vastepintamenetelmässä pyritään vasteen riippuvuutta siihen vaikuttavista tekijöistä approksimoimaan tekijöiden polynomimuotoisella funktiolla,

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5

SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja

Lisätiedot

Bayesilainen päätöksenteko / Bayesian decision theory

Bayesilainen päätöksenteko / Bayesian decision theory Bayesilainen päätöksenteko / Bayesian decision theory Todennäköisyysteoria voidaan perustella ilman päätösteoriaa, mutta vasta päätösteorian avulla siitä on oikeasti hyötyä Todennäköisyyteoriassa tavoitteena

Lisätiedot

1. LINEAARISET LUOKITTIMET (jatkoa)

1. LINEAARISET LUOKITTIMET (jatkoa) 1. LINEAARISET LUOKITTIMET (jatkoa) 1.1 Tukivektorikone ( A Tutorial on Support Vector Machines for Pattern Recognition, http://www.kernel-machines.org/papers/burges98.ps.gz) Tukivektorikoneen ( Support

Lisätiedot

Luku 7. Verkkoalgoritmit. 7.1 Määritelmiä

Luku 7. Verkkoalgoritmit. 7.1 Määritelmiä Luku 7 Verkkoalgoritmit Verkot soveltuvat monenlaisten ohjelmointiongelmien mallintamiseen. Tyypillinen esimerkki verkosta on tieverkosto, jonka rakenne muistuttaa luonnostaan verkkoa. Joskus taas verkko

Lisätiedot

Etsintä verkosta (Searching from the Web) T Datasta tietoon Heikki Mannila, Jouni Seppänen

Etsintä verkosta (Searching from the Web) T Datasta tietoon Heikki Mannila, Jouni Seppänen Etsintä verkosta (Searching from the Web) T-61.2010 Datasta tietoon Heikki Mannila, Jouni Seppänen 12.12.2007 Webin lyhyt historia http://info.cern.ch/proposal.html http://browser.arachne.cz/screen/

Lisätiedot

TILASTOLLINEN OPPIMINEN

TILASTOLLINEN OPPIMINEN 301 TILASTOLLINEN OPPIMINEN Salmiakki- ja hedelmämakeisia on pakattu samanlaisiin käärepapereihin suurissa säkeissä, joissa on seuraavat sekoitussuhteet h 1 : 100% salmiakkia h 2 : 75% salmiakkia + 25%

Lisätiedot

4. Tukivektorikoneet

4. Tukivektorikoneet 4. Tukivektorikoneet Tukivektorikoneen (Support Vector Machine, SVM) keskeiset piirteet: Tehdään lineaarista luokittelua (tai regressiota) korkeaulotteisessa piirreavaruudessa. Laskentaa tehostetaan käyttämällä

Lisätiedot

Introduction to Machine Learning

Introduction to Machine Learning Introduction to Machine Learning Aki Koivu 27.10.2016 HUMAN HEALT H ENVIRONMENTAL HEALT H 2016 PerkinElmer Miten tietokone oppii ennustamaan tai tekemään päätöksiä? Historia tiivistettynä Machine Learning

Lisätiedot

Osakesalkun optimointi

Osakesalkun optimointi Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit 3 3.1 Optimointiongelmat........................ 4 4 Epäsileän

Lisätiedot

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on 13 Pistetulo Avaruuksissa R 2 ja R 3 on totuttu puhumaan vektorien pituuksista ja vektoreiden välisistä kulmista. Kuten tavallista, näiden käsitteiden yleistäminen korkeampiulotteisiin avaruuksiin ei onnistu

Lisätiedot

1. (a) Seuraava algoritmi tutkii, onko jokin luku taulukossa monta kertaa:

1. (a) Seuraava algoritmi tutkii, onko jokin luku taulukossa monta kertaa: Tietorakenteet, laskuharjoitus 10, ratkaisuja 1. (a) Seuraava algoritmi tutkii, onko jokin luku taulukossa monta kertaa: SamaLuku(T ) 2 for i = 1 to T.length 1 3 if T [i] == T [i + 1] 4 return True 5 return

Lisätiedot

P (A)P (B A). P (B) P (A B) = P (A = 0)P (B = 1 A = 0) P (B = 1) P (A = 1)P (B = 1 A = 1) P (B = 1)

P (A)P (B A). P (B) P (A B) = P (A = 0)P (B = 1 A = 0) P (B = 1) P (A = 1)P (B = 1 A = 1) P (B = 1) Harjoitustehtäviä (erä 1) 1 1. Käytetään yksinkertaisesti Bayesin kaavaa: P (A B) = P (A)P (B A). P (B) Tapauksessa B = 1 saadaan P (A = 0 B = 1) = P (A = 1 B = 1) = P (A = 0)P (B = 1 A = 0) P (A = 1)P

Lisätiedot

A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä.

A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Esimerkki otteluvoiton todennäköisyys A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Yksittäisessä pelissä A voittaa todennäköisyydellä p ja B todennäköisyydellä q =

Lisätiedot

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI 1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia

Lisätiedot

4.0.2 Kuinka hyvä ennuste on?

4.0.2 Kuinka hyvä ennuste on? Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki

Lisätiedot

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1 Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:

Lisätiedot

Tiedon louhinnan teoria (ja käytäntö) OUGF kevätseminaari 2004 Hannu Toivonen

Tiedon louhinnan teoria (ja käytäntö) OUGF kevätseminaari 2004 Hannu Toivonen Tiedon louhinnan teoria (ja käytäntö) OUGF kevätseminaari 2004 Hannu Toivonen hannu.toivonen@cs.helsinki.fi 1 2 A 1 4 8 2 2 1 2 6 2 A 2 4 3 7 3 2 8 4 2 A 4 5 2 4 5 5 2 6 4 A 7 2 3 7 5 4 5 2 2 A 5 2 4 6

Lisätiedot

5.6.3 Matematiikan lyhyt oppimäärä

5.6.3 Matematiikan lyhyt oppimäärä 5.6.3 Matematiikan lyhyt oppimäärä Matematiikan lyhyen oppimäärän opetuksen tehtävänä on tarjota valmiuksia hankkia, käsitellä ja ymmärtää matemaattista tietoa ja käyttää matematiikkaa elämän eri tilanteissa

Lisätiedot

Algoritmi I kuvioiden ja niille johtavien ajourien erottelu. Metsätehon tuloskalvosarja 7a/2018 LIITE 1 Timo Melkas Kirsi Riekki Metsäteho Oy

Algoritmi I kuvioiden ja niille johtavien ajourien erottelu. Metsätehon tuloskalvosarja 7a/2018 LIITE 1 Timo Melkas Kirsi Riekki Metsäteho Oy Algoritmi I kuvioiden ja niille johtavien ajourien erottelu Metsätehon tuloskalvosarja 7a/2018 LIITE 1 Timo Melkas Kirsi Riekki Metsäteho Oy Algoritmi I kuvioiden ja niille johtavien ajourien erottelu

Lisätiedot

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI 1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia

Lisätiedot

1. NEUROVERKKOMENETELMÄT

1. NEUROVERKKOMENETELMÄT 1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia

Lisätiedot

Moniulotteisia todennäköisyysjakaumia

Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Verkon värittämistä hajautetuilla algoritmeilla

Verkon värittämistä hajautetuilla algoritmeilla Verkon värittämistä hajautetuilla algoritmeilla 5 12 30 19 72 34 Jukka Suomela 15 77 18 4 9. tammikuuta 2012 19 2 68 Verkko 2 Verkko solmu 3 Verkko solmu kaari 4 Hajautettu järjestelmä solmu (tietokone)

Lisätiedot

Ilmastonmuutoksen vaikutus Suomen sisävesiin

Ilmastonmuutoksen vaikutus Suomen sisävesiin Mat-2.142 Optimointiopin seminaari, syksy 1999 9.11.1999 Referaatti, esitelmä 12 Matti Vesanen, 44467j Lähde: Kuikka, S. & Varis, O. 1997. Uncertainties of climatic change impacts in Finnish watersheds:

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1 Todennäköisyyslaskun kertaus Vilkkumaa / Kuusinen 1 Satunnaismuuttujat ja todennäköisyysjakaumat Vilkkumaa / Kuusinen 2 Motivointi Kokeellisessa tutkimuksessa tutkittaviin ilmiöihin liittyvien havaintojen

Lisätiedot

FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa. Luentokuulustelujen esimerkkivastauksia. Pertti Palo. 30.

FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa. Luentokuulustelujen esimerkkivastauksia. Pertti Palo. 30. FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa Luentokuulustelujen esimerkkivastauksia Pertti Palo 30. marraskuuta 2012 Saatteeksi Näiden vastausten ei ole tarkoitus olla malleja vaan esimerkkejä.

Lisätiedot

4. Funktion arvioimisesta eli approksimoimisesta

4. Funktion arvioimisesta eli approksimoimisesta 4. Funktion arvioimisesta eli approksimoimisesta Vaikka nykyaikaiset laskimet osaavatkin melkein kaiken muun välttämättömän paitsi kahvinkeiton, niin joskus, milloin mistäkin syystä, löytää itsensä tilanteessa,

Lisätiedot

GeoGebra tutkivan oppimisen välineenä: havainto-hypoteesi-testaus

GeoGebra tutkivan oppimisen välineenä: havainto-hypoteesi-testaus GeoGebra tutkivan oppimisen välineenä: havainto-hypoteesi-testaus Mitä jäi mieleen viime viikosta? Mitä mieltä olet tehtävistä, joissa GeoGebralla työskentely yhdistetään paperilla jaettaviin ohjeisiin

Lisätiedot

Oppimistavoitematriisi

Oppimistavoitematriisi Oppimistavoitematriisi Lineaarialgebra ja matriisilaskenta I Arvosanaan 1 2 riittävät Arvosanaan 5 riittävät Yhtälöryhmät (YR) Osaan ratkaista ensimmäisen asteen yhtälöitä ja yhtälöpareja Osaan muokata

Lisätiedot

Oppimistavoitematriisi

Oppimistavoitematriisi Oppimistavoitematriisi Lineaarialgebra ja matriisilaskenta I Esitiedot Arvosanaan 1 2 riittävät Arvosanaan 3 4 riittävät Arvosanaan 5 riittävät Yhtälöryhmät (YR) Osaan ratkaista ensimmäisen asteen yhtälöitä

Lisätiedot

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Regressioanalyysi. Vilkkumaa / Kuusinen 1 Regressioanalyysi Vilkkumaa / Kuusinen 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Halutaan selittää selitettävän muuttujan havaittujen arvojen vaihtelua selittävien muuttujien havaittujen

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2

Lisätiedot

Aineistoista. Laadulliset menetelmät: miksi tarpeen? Haastattelut, fokusryhmät, havainnointi, historiantutkimus, miksei videointikin

Aineistoista. Laadulliset menetelmät: miksi tarpeen? Haastattelut, fokusryhmät, havainnointi, historiantutkimus, miksei videointikin Aineistoista 11.2.09 IK Laadulliset menetelmät: miksi tarpeen? Haastattelut, fokusryhmät, havainnointi, historiantutkimus, miksei videointikin Muotoilussa kehittyneet menetelmät, lähinnä luotaimet Havainnointi:

Lisätiedot

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1 Tilastotieteen kertaus Vilkkumaa / Kuusinen 1 Motivointi Reaalimaailman ilmiöihin liittyy tyypillisesti satunnaisuutta ja epävarmuutta Ilmiöihin liittyvien havaintojen ajatellaan usein olevan peräisin

Lisätiedot

Harjoitus 6 ( )

Harjoitus 6 ( ) Harjoitus 6 (30.4.2014) Tehtävä 1 Määritelmän (ks. luentomoniste s. 109) mukaan yleisen, muotoa min f(x) s.t. g(x) 0 h(x) = 0 x X (1) olevan optimointitehtävän Lagrangen duaali on max θ(u,v) s.t. u 0,

Lisätiedot

Sanaluokkajäsennystä rinnakkaisilla transduktoreilla

Sanaluokkajäsennystä rinnakkaisilla transduktoreilla Sanaluokkajäsennystä rinnakkaisilla transduktoreilla Nykykielten laitos FIN-CLARIN-seminaarissa 4. marraskuuta 2010 Sanaluokkajäsennys Mr. Gelbert also has fun with language. NNP NNP RB VBZ NN IN NN. Sanaluokkajäsennin

Lisätiedot

Tänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.)

Tänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.) Tänään ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 26.2. Nelli Salminen nelli.salminen@helsinki.fi D433 autoassosiaatio, attraktorin käsite esimerkkitapaus: kolme eri tapaa mallintaa kategorista

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =

Lisätiedot

Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn

Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekniikkaan ITKA352) Informaatioteknologian tiedekunta Jyväskylän yliopisto 23.3.2018 Tekoälyn historiaa 6 1 Introduction Kuva Fig. lähteestä 1.3

Lisätiedot