Klusteroinnin kyvyillä on rajansa
|
|
- Sami Elstelä
- 6 vuotta sitten
- Katselukertoja:
Transkriptio
1 Klusteroinnin kyvyillä on rajansa Dataa on monesti hyvin paljon, se on säännöllisesti korkeadimensioista ja vaikeasti hahmotettavalla tavalla rakenteista, jolloin klusterointi antaa helposti liki arvaukseen verrattavissa olevia tuloksia luokkien rakentaminen ja luokittelijoiden opettaminen on epäluotettavaa tarvitaan keinoja, joilla rakenteet pystytään paljastamaan ihmiselle helpommin ymmärrettävällä tavalla pudotetaan ongelman dimensioita ihmisen paremmin ymmärtämälle tasolle Dimensionaalisuuden vähentäminen (1) Monissa tapauksissa koneoppimiseen halutaan syöttää hyvin monidimensioista dataa esim. MNIST tietokannan numeronäytteet ovat 28x28 pikseliä, jolloin niitä raakakuvina käytettäessä vastaa 784 piirrettä pitkä vektori kuvien tapauksessa dimensionaalisuutta voidaan jonkin verran pienentää käyttämällä korkeamman tason piirteitä (esim. HoG) Korkeiden dimensionaalisuuksien kanssa voi tulla ongelmia 1. tallennustilan ja laskennan määrä kasvaa 2. piirreavaruuden visualisointi on hankalaa 3. datanäytteiden tiheyden piirreavaruudessa harvetessa, kun piirteiden määrä kasvaa, mm. knn luokittelija kärsii etäisyysmittojen heikentyvästä diskriminaatiosta dimensionaalisuuden kirous (curse of dimensionality) 1.0 virheettömyys (accuracy) 0.0 piirteiden määrä vasemmalla tyypillinen knn luokittelijan virheettömyyskehitys kun opetusnäytteiden määrä on vakio, mutta piirteiden määrä kasvaa aluksi piirteiden lisäys parantaa luokkarajojen mallinnusta sitten data avaruus harvenee ja etäisyysmitan diskriminaatiokyky heikkenee
2 Dimensionaalisuuden vähentäminen (2) Dimensionaalisuutta voidaan pienentää kahdella tavalla 1. tunnistamalla tai hakemalla ja valitsemalla käytettäväksi parhaiten luokkia erottelevat piirteet soveltuvuus rajautuu ohjattuun oppimiseen ongelmana vaikeus algoritmisesti määrittää pieni määrä luokat erottelevia esitystapoja/piirteitä esim. kuvamuotoisesta tiedosta 2. käytetään sopivaa muunnosalgoritmia pakkaamaan korkeadimensioinen data vähempidimensioiseksi: luokkatietoa ei välttämättä ole! soveltuu sekä ohjattuun että ohjaamattomaan oppimiseen muunnos voi olla lineaarinen tai epälineaarinen oikealla ns. swiss roll monisto ja sen 2D LLE projektio (Locally Linear Embedding (LLE, Tenenbaum et al 2000) Vapaaehtoista varsin helppotajuista luettavaa: Dimensionaalisuuden vähentäminen (3) Dimensionaalisuuden pudottamiseen liittyy monisto käsite (manifold): moniston dimensio on niiden riippumattomien parametrien määrä, jotka tarvitaan määrittämään piste 1 dimensioisessa tilanteessa monistot ovat suoria ja käyriä, kuten ympyröitä ellipseja, hyperbelejä, siis mitä vain käppyröitä (huom: myös avaruuskäyrät parametrimuotoa (x,y,z)= [f(t), g(t), h(t)], missä t on se ainokainen riippumaton parametri ja funktiot f,g, ja h jatkuvia, ovat 1 dimensioisia!) 2 dimensioiset monistot ovat pintoja, kuten tasot, sylinterit, ellipsoidit, toroidit (huom. otetetaan vain pinnat, ei siis täytellä ) jo 3 dimensioinen monisto on ihmiselle vaikeammin miellettävä Alla Matlab työkalulla 2 D ja 3 D avaruuteen t SNE menetelmällä kuvattu MNIST data Datanäytteitä vastaavat pisteet on värjätty dimensionaalisuuden pudotuksen jälkeen
3 Dimensionaalisuuden vähentäminen (4) Lukuisissa korkean dimensionaalisuuden omaavissa koneoppimisen kohdeongelmissa puuttuu selvä luokkarakenne edes ihminen ei voi täysin varmasti luokitella näytteitä esim. muutokset virheettömästä materiaalista raakkikappaleiksi tai toiseen luokkaan voivat olla liki jatkuvia (vrt. MNIST) ihmisen kasvojen asennon ja esim. tunnetilojen muutokset ovat jatkuva arvoisia Kuvat alla Kouropteva et al Dimensionaalisuuden vähentäminen lineaarisella menetelmällä (1) Näytedatan muodostamaa monistoa moniulotteisessa piirreavaruudessa voi pyrkiä tarkastelemaan eri suunnista äärimmäisen yksinkertainen esimerkki on alla esitetty kahden piirteen virittämä piirreavararuus, jossa data on pitkänomaisena rakenteena valitaan sellainen tarkastelusuunta, jonka kautta nähdään maksimaalinen koska alkuperäinen avaruus on 2 dimensioinen, emme menetä informaatiota jos valitaan maksimaalisen n tarkastelusuunta ja lisäksi pienemmän n suunta lopulta valitaan nuo suunnat uusiksi piirreavaruuden koordinaattiakseleiksi pienempi suurin pienempi Toteamme, että jos olisimme alunperinkin onnistuneet formuloimaan suurimman n piirteen, niin meille olisi voinut riittää yksi piirre suurin
4 Dimensionaalisuuden vähentäminen lineaarisella menetelmällä (2) Pääkomponenttianalyysi (Principal Components Analysis, Hotelling muunnos, Karhunen Loeve muunnos, monta nimeä, tilastotiede, säätötekniikka, signaalinkäsittely) lineaarinen dimensionaalisuuden vähennysmenetelmä, jota yleensä käytetään ensimmäisenä primitiivireaktiona uuden datan tapauksessa ennen siirtymistä epälineaariseen dimensionaalisuuden vähentämiseen laskee monidimensioisesta datasta sellaiset ortogonaaliset kantavektorit, joista yleensä muutaman avulla näytedata voidaan esittää ilman isoa informaatiohävikkiä merkitykseltään pienet kantavektorit voidaan hylätä luokittelu halpenee piirteiden vähetessä ja virheettömyys voi parantua data avaruuden tihentyessä data voidaan esittää vähemmillä dimensioilla ja nhaluttaessa jopa rekonstruoida takaisin Monissa tapauksissa PCA toimii edellisen slaidin esimerkin tavoin hienosti, silloin kun vähintäänkin data on lineaarisesti korreloivaa... Dimensionaalisuuden vähentäminen lineaarisella menetelmällä (3) Pääkomponenttianalyysi (PCA) on menetelmänä tarkoitettu löytämään kätkössä olevat lineaariset korrelaatiot niinpä rajoitteet tulevat vastaan, kun data ei ole lineaarisesti korreloivaa, esim. alla; monidimensioisemmat tilanteet ovat kimurantimpia pienempi pienempi suurempi suurempi Datassa voi olla lineaarisia korrelaatioita, mutta se voi silti olla ongelma PCA:n tekemälle ortogonaalimuunnokselle esim. korkeaulotteisten ongelmien ns. pupunkorvat (huom: tällainen voi olla lähtökohtana ryvästykselle, mutta etäisyysmittojen hallinta korkeadimensioisessa tilanteessa voi olla haasteellista) Pääkomponenttianalyysi ei itse vaikuta datan skaalaukseen tai normalisointiin, mutta datan skaalaus tai normalisointi voi muuttaa sen antamaa tulosta hyvinkin rajusti
5 Dimensionaalisuuden vähentäminen epälineaarisella menetelmällä (1) Dimensionaalisuuden vähentäminen vähentää luokittelun ja klusteroinnin laskentaa sekä helpottaa ihmisen tekemää datan rakenteen analysointia entä jos keskitytään vain noista tavoitteista viimeiseen, jotta ihminen voisi esim. luokitella dataa helpommin? Mitä silloin haluaisimme dimensionaalisuuden vähentämiseltä? käytännöllisintä olisi, jos lähellä toisiaan korkeadimensioisessa avaruudessa sijaitsevien datanäytteiden etäisyydet (samankaltaisuusmitan perusteella) olisivat samat myös visualisoidussa alemman dimensionaalisuuden kuvauksessa kaukana toisistaan sijaitsevien näytteiden suhteellisilla sijainneilla ei visualisoinnissa ole niin väliä, kunhan eivät osu ihan naapureiksi moninidimensionaalinen skaalaus (multidimensional scaling, MDS) toimii jokseenkin tällä tavalla MDS:n syötedata on datanäyteparien väliset samankaltaisuusmitat samankaltaisuudet lasketaan piirrevektoreiden perusteella skaalauksilla ja normalisoinneille on myös roolinsa Dimensionaalisuuden vähentäminen epälineaarisella menetelmällä (2) Esimerkki samankaltaisuus/eromatriisista (isommat arvot merkitsevät isompia eroja!) todetaan, että samankaltaisuuksien/erojen laskemiseksi kaikilla piirteillä on oltava arvo kaikissa näytepisteissä (huom: kyseessä osa hieman isommasta materiaalista) Tulos saadaan optimoiden (minimoiden) kohdefunktion arvoa, joka on esim. alkuperäisten ja alempidimensioisen kuvauksen erojen erotusten neliöiden summa oikealla ns. Sammon mapping menetelmällä saatu 2 D kuvaus alkuperäiselle 4 D datalle. Menetelmä on ensimmäinen MDS ratkaisu, vuodelta reference/sammon.pdf
6 Dimensionaalisuuden vähentäminen epälineaarisella menetelmällä (3) Monidimensioisen skaalauksen ongelmia ovat samankaltaisuusmatriisin suuri koko: jos N näytettä, niin N*N näyteparille laskettava samankaltaisuudet yhdenkin näytteen lisääminen tai poistaminen voi muuttaa visualisointia erittäin merkittävästi ei sovellu hötkyilevien asiantuntemattomien käyttöön epälineaarisena ei mahdollista rekonstruktiota, on siis vain visualisointiapu MDS Muita epälineaarisia dimensionaalisuuden vähentämistekniikoita Isomap (isometric mapping): rakentaa alempidimensioisen kuvauksen näytenaapurustojen perusteella (MDS mittaa vain parittaisia etäisyyksiä) LLE (locally linear embedding): jokainen datapiste lausutaan lähi naapurustonsa lineaarikombinaationa T SNE (t distributed stochastic neighbor embedding): perustuu naapuruston tiheysfunktioihin ja informaatioteoreettiseen kohdefunktion minimointiin SOM (self organizing maps, Kohonen maps): 2 Dkartan vektorit oppivat SOM syötetyn datanäytteistön tilastolliset ominaisuudet Dimensionaalisuuden vähentäminen epälineaarisella menetelmällä (4) Dimensionaalisuuden vähennysmenetelmät eivät ole taikasauvoja erityisen vaarallista on luottaa yhden suosikkimenetelmän olevan yleistyökalu, joka tepsii jokaiseen haasteeseen datan luonteella on merkityksensä, jonka vuoksi menetelmien luonne on tunnettava Esimerkki alla: vasemmalla SOM (itseorganisoiva kartta) mallintaa todennäköisyystiheyttä, jolloin harvinaisten luokkien näytteille jää harvoja solmuja kartassa oikealla MDS puolestaan pyrkii säilyttämään näytteiden keskinäiset etäisyydet dimensionaalisuuden vähennysmenetelmän valinta riippuu käyttötarkoituksesta oikealla: SOM ei tässä näytä soveltuvan harvinaisten luokkien erotteluun ja kategorisointiin ohjatulle oppimiselle Matti Niskanen s/isbn pdf
7 Vahvistusoppiminen (1) Läheskään kaikissa koneoppimista tarvitsevissa sovelluksissa ei ole tarjolla selkeätä kategoriatietoa, mutta toisaalta vääriä ratkaisuja ja toimintoja eli yrityksiä ja erehdyksiä voidaan sietää, kunhan niistä kyetään oppimaan, minkä vuoksi toimintaympäristön olisi pystyttävä antamaan jokin palautetieto (mitä mieltä olet itseajavien autojen opettamisesta vahvistusoppimisella?) Tällaisiin sovelluksiin sopii vahvistusoppiminen, jossa pyritään löytämään toimintastrategia tai ratkaisu, josta tulee eniten positiivista palautetta ohjatun ja ohjaamattoman oppimisen välimaastossa tavoitteena jatkuva oppiminen Vahvistusoppiminen tarvitsee sovelluksia, joissa sen jatkuvaa palautenälkää pystytään automaattisesti syöttämään ympäristö palaute + tai tilatieto tai havainto Yksi vahvistusoppimiseen liitetty väittämä on sen olevan lähellä biologisten organismien oppimista mitä mieltä olet tästä? toiminto agentti Vahvistusoppiminen (2) Vahvistusoppisen sovelluksia: osakekaupan strategioiden jatkuva parantaminen (huom: ei pelkkä hakuongelma!) logistiikassa mm. jakeluautojen reittien ja varastojen optimointi robotiikkakin, joskin tämä sovellusalue on teollisuudessa toistaiseksi ollut jonkinasteinen pettymys, mutta robotit oppivat kävelemään vahvistusoppimalla henkilökohtaisten www palveluiden optimointi pelien oppiminen, mm. Go, videopelit, esim. ja eräät chatbot toteutukset, joissa pyritään pitämään vastapuolen kiinnostus yllä Vahvistusoppimisen yritys ja erehdyssieto tarkoittaa myös, että se kestää ympäristöstäkin lähtöisin olevia epävarmuuksia, kunhan saa asianmukaisen palautteen Vahvistusoppimisen haasteina ovat tarvittu opetusnäytteiden/ kokemusten määrä: suuri näytemäärätarve esim. robotiikkasovelluksissa voi tarkoittaa ihmisen mielestä tuskallisen hidasta suoriutumisen paranemista usein tarvittu esitystapojen oppiminen, mutta tarvitut syväoppimisratkaisut kamppailevat nekin opetusnäytteistön määrän kanssa peleissä näytemäärätarpeet voidaan tyydyttää simulaatioiden kautta
8 Vahvistusoppiminen (3) Tarkastellaan vahvistusoppimisen etenemistä robottipölynimurista kyhätyn toimistorobotin tekemässä reitinhaussa huoneen ovelle (toimittamaan allekirjoitetut tenttiarvostelut) robotti tekee ensin havainnot lyhyen kantaman (5cm) ultraäänitutkillaan ja päättää sitten toimenpiteen (action), joka on liikkuminen 70cm eteenpäin, oikealle, vasemmalle, tai taaksepäin robotin tila (state) on sen sijainti (alaoikealla jokainen ruutu voi olla tila) negatiivinen palaute (reward) on umpikujan löytyminen, positiivinen on liikkumismahdollisuuden löytyminen (kohta esimerkissä käytämme arvoa 0) robotin pidemmän aikavälin palkkio on pääsy toimiston ovelle, ei pelkät välittömät liikuista saadut palautteet! = todellisuus onkin mutkikkaampi kuin pelkkä positiivinen/negatiivinen palaute! Välittömiä palautteita käytetään oppimaan reitti ovelle robotti oppii jokaisesta osumasta seiniin, pöydän ja tuolinjalkoihin, yms. robotti myös muistaa reitin, mitä pitkin se kulkee vahvistusoppimisen varsinainen tavoite on oppia reitti ovelle: tähän käytetään ns. Q oppimista (Q learning) robotti Vahvistusoppiminen (4) Q oppiminen on vahvistusoppisalgoritmi, joka ei mallinna ympäristöään eli on ns. mallivapaa kohtelee ympäristöä tilakoneena ja on aina jossakin tilassa kukin tila sisältää kaiken tiedon ympäristöstä ja Toiminto&arvo (action&value) funktio määrittää tietyssä tilassa olemisen ja tietyn toimenpiteen siinä valitsemisen arvon Q funktio palauttaa toimenpiteestä odotetun palautteen kun siihen syötetään tilatieto ja ao. toimenpide alussa Q funktio palauttaa kaikille tiloille ja toimenpiteille vakioarvon myöhemmin, kun robotti on hankkinut (ja hankkii) liikkumalla enemmän tietoa, Q funktio antaa paranevia arvioita toimenpidevaihtoehdoille valitussa tilassa käytännössä Q funktio esitetään Q taulukkona, joka sisältää palautteen (Q arvon) jokaisen tilan jokaiselle toimenpiteelle, jota seuraa parhaiden seuraavien toimenpiteiden ketju = Q arvo on palaute pidemmän aikavälin tavoitteen suhteen eli ohjaa valitsemaan toimenpiteen sitä kohti Q oppiminen oppii Q arvot Q funktioon/taulukkoon vahvistusoppimisen havainnot ja toimenpiteet puolestaan tuottavat Q arvoja
9 Vahvistusoppiminen (5) Q oppiminen toimii robottimme tapauksessa karkeasti seuraavaan tyyliin: 1. robotti alustaa/olettaa ensimmäisen Q arvon jokaiselle tila toimenpide parille Q(S,A) = 0 (S=state, A=action) = palautteesta pidemmän aikavälin tavoitteen suhteen ei missään tilassa ole mitään tietoa 2. robotti aloittaa valitsemalla tilassaan S k toimenpiteen A k ja saa ympäristöltä palautteen R k (reward); samalla tila S k vaihtuu tilaksi S k+1 ; jos tämä on tavoitetila, niin algoritmi päättyy 3. robotti päivittää tilan S k toimenpiteeseen A liittyvän Q arvon seuraavasti Q(S k,a k ) = (1 learning_rate)*q(s k,a k ) + learning_rate*(r k + discount_rate*max A Q(S k+1,a)) learning_rate arvottaa uuden information merkitystä vanhaan verrattuna ja on arvo väliltä [0,1] discount_rate, arvo on väliltä [0,1] arvottaa vielä tulevia palautteita alemmaksi kuin kuin jo saadun; tämä voidaan tulkita myös uuden askeleen onnistumistodennäköisyydeksi max A Q(S k+1,a)) puolestaan on arvio parhaasta tulevasta palautteesta pidemmän aikavälin tavoitteen osalta, siis oletetaan seurattavan aina optimaalista reittiä loppuun 4. palataan askeleeseen 2 Algoritmissa Q arvon päivitys siirtää aiempaa informaatiota ja ottaa huomioon robotin kaikki tulevaisuuden liikut kun robotti liikkuu ja käy muissa tiloissa ja yrittää eri toimenpiteitä, se samalla oppii jokaisen tila toimenpide parin optimaaliset Q arvot osaa jokaisessa tilassa valita optimaalisesti varsinaiseen ratkaisuun vievän liikun Vahvistusoppiminen (6) Tarkastellaan robottimme etenemistä tehtävässään, olettaen learning_rate = 0.3, discount rate = 0.8 kun robotti liikesuunnassaan osuu esteeseen sen palkkio on 1, muutoin 0 toimenpiteet ovat eteen, taakse, oikealle, vasemmalle ottaen huomioon kulloisenkin tilan rajoitteet, alkutilassa S 0 voidaan liikkua vain ylös ja oikealle Aloitetaan tilassa S 0 liikkumalla eteenpäin, saadaan palkkioksi R 0 =0 ja päivitetään tämän jälkeen tilan S 0 Q arvo Q(S 0, eteen) = 0.7* Q(S 0, eteen) (R *max A Q(S 1,eteen tai taakse)) = 0.7* *(0+0.8*0) = 0 Huom: eestaas liikkuja ei oteta huomioon, mutta merkitty vaihtoehtoavaruuden vuoksi Liikutaan tilassa S 1 eteenpäin, saadaan palkkio 0 ja päivitetään Q arvo Q(S 1, eteen) = 0.7* Q(S 1, eteen) (R *max A Q(S 2,eteen, taakse tai oikealle)) = 0.7* *(0+0.8*0) = 0 Liikutaan tilassa S 2 oikealle tilaan S 3, saadaan palkkio 1 ja päivitetään Q arvo Q(S 2, oikealle) = 0.7* Q(S 2, oikealle) (R *max A Q(S 3,vasemmalle)) = 0.7* *( 1+0.8*0) = 0.3 Huom: ongelmamme on formuloitu siten, että max A Q() 1 9 saa arvon 0 niin kauan kuin reitti on mahdollinen 6 7 8
10 Vahvistusoppiminen (7) Jatketaan Q.arvojen päivittämistä robotin liikkuessa: Liikutaan tilassa S 3 vasemmalle tilaan S 2, saadaan palkkio 0 ja päivitetään Q arvo Q(S 3, vasemmalle) = 0.7* Q(S 3, vasemmalle) + 0.3* (R *Q(S 3,vasemmalle)) = 0.7* *(0+0.8*0) = 0 Jatkettaessa eteenpäin (hypätään hieman vaiheita yli, Q(S 2, eteen) saa arvon 0) tilasta S 4 siirryttäessä eteenpäin todetaan umpikuja S 5 :ssa, jolloin R 4 = 1 ja päivitys siten Q(S 4, eteen) = 0.7* Q(S 4, eteen) ( 1+0.8*Q(S 5,taakse)) = 0.3 Nyt totemme tilasta S 4 tilaan S 5 siirryttyä Q(S 5, taakse) = 0.7* Q(S 5, taakse) + 0.3* (0+0.8*max A Q(S 4,taakse tai eteen)) = 0 sillä Q(S 4,taakse) =0 ja Q(S 4,eteen)= 0.3 joten valitaan suuremman Q arvon siirtymä taakse Puolestaan kun tilasta S 5 siirrytty tilaan S 4 Q(S 5, taakse) = 0.7* Q(S 5, taakse) + 0.3* (0+0.8*max A Q(S 4,taakse tai eteen)) = 0 sillä Q(S 4,taakse) =0 ja Q(S 4,eteen)= 0.3 joten valitaan suuremman Q arvon siirtymä taakse Jatkamme vielä tilaan S 2 jolloin Q(S 4, taakse) = 0.7* Q(S 4, taakse) (0+0.8*max A Q(S 2,eteen,taakse tai oikealle)) = sillä Q(S 2,taakse) =0, Q(S 2, oikealle)= 0.3 ja päivitys Q(S 2,eteen)= 0.7* Q(S 2, eteen) * (0+0.8*max A Q(S 4,(taakse tai) eteen)) = = 0.7* *( 0+0.8*( 0.3)) = 0.24 eli saatu negatiivinen palaute periytyy peräännyttäessä 1 9 (huom: välittömiä eestaas liikkuja ei oteta huomioon) Vahvistusoppiminen (8) Q oppiminen edellyttää robotin yrittävän käydä läpi mahdolliset tila toimenpideparit tai ainakin mahdollisimman monta sellaisista vasta tämän jälkeen robotilla on tilakoneessaan täydellinen tieto optimaaliseen toimintaan, mutta voi toimia ilman sellaistakin Q arvot edustavat optimia kun valitaan paras toimenpidesekvenssi Esimerkissämme jaksoimme päivittää seuraavat Q arvot: Q(S 0, eteen) = 0 Q(S 1, eteen) = 0 Q(S 5, taakse) = 0 Q(S 2, eteen) = 0.24 Q(S 2, taakse) = 0 Q(S 2, oikealle) = 0.3 Q(S 3, vasemmalle) = 0 Q(S 4, eteen) = 0.3 Q(S 4, taakse) = 0 Tärkeä huomautus: todellisessa sovelluksessa lisäisimme tila toimenpide pareihin myös kyseisissä tiloissa mahdottomat toimenpiteet, nyt algoritmin selitystä lyhentääksemme sivuutimme ne, vaikka ne ovat olennaista tilatietoa Entä jos robottimme muuttaa ympäristöään? Esim. työntää tuoleja paikoiltaan tms? mahdollisten tilojen määrä kasvaa, mutta Q oppimista voi edelleen käyttää esim. pokerin, shakin, blackjackin tapauksissa seuraava tila riippuu edellisestä tilasta ja tehdystä toimenpiteestä
11 Vahvistusoppiminen (9) Q oppiminen toimii hyvin pienissä ongelmissa mahdollista käydä kaikissa tiloissa ja selvittää kaikkien toimenpiteiden seuraukset tila avaruuden kasvaessa vahvistusoppiminen antaa hyviä tuloksia vasta kun merkittävä osa tiloista on opittu (=ihmisikä voi loppua odotellessa) Nopeutuskeinoja: Monte Carlo menetelmään turvautuminen Q arvojen määrityksessä, kun sama toimenpide tilapari on tullut useasti vastaan ei tarvita parametreja learning_rate ja discount_rate sovellettu mm. Go pelissä ihmisen voittavan AlphaGo ohjelmassa: pelasi ensin itseään vastaan oppien pelistrategiat kompakti esitys ratkaisusta data science/alphagozero explained in one diagram 365f5abf67e0 neuroverkkojen käyttö, jolloin syötteet ovat tiloja ja lähdöt toimenpiteitä tai niihin liittyviä Q arvoja syvien neuroverkkojen piilokerrokset vähentävät ulkopuolelle näkyvää kompleksisuutta vapaaehtoista luettavaa: (videopeli kuvataan syvällä konvolutionaalisella neuroverkolla vahvistusoppimisen tarvitsemien Q arvojen määrittämiseksi, Deep Q Learning DQN, mielenkiintoinen video ) Puoliohjattu oppiminen (1) Puoliohjattu oppiminen osuu nimensä mukaisesti ohjatun ja ohjaamattoman oppimisen välimaastoon käyttää oppimiseen sekä luokiteltua että luokittelematonta dataa tavoitteena monesti reaaliaikainen oppiminen, esim. patologisten näytteiden analysoinnissa esim. datan rakennetieto kiskotaan luokittelemattomasta datasta ja lisäksi tarvitaan jokseenkin pieni määrä luokiteltua näytteistöä useita menetelmiä, joilla olettamuksena datan liittyviä tasaisuus, monisto ja ryvästymisolettamia salakavalasti balansoimaton materiaali voi aiheuttaa ongelmia Menetelmiä esim. itseoppiminen (self training) opetetaan luokittelija ensin ohjatusti pienellä määrällä näytteitä käytetään luokittelijaa tuottamaan kategorisoimattomasta aineistosta lisää luokiteltuja näytteitä lisätään opetusmateriaaliin ns. varmimmin luokitellut Puoliohjattu oppiminen on monesti rinnastettu ihmisen oppimiseen esim. lapsi oppii erottamaan kissat ja koirat muutamalla vanhemman osoittamalla näytteellä
12 Puoliohjattu oppiminen(2) Alla esimerkki itseoppimisesta (self training): ihminen antaa muutaman näytteen luokan ja järjestelmä jatkaa siitä lisäten opetusmateriaaliin riskittömimpiä datanäytteet, joiden luokittelu manuaalisesti on ylivoimainen työ ihmisen luokittelemat muutamat opetusnäytteet karkea luokkaraja opetusnäytteiden pohjalta itseoppimisessa uudet opetusnäytteet keskittyvät lähelle ihmisen valitsemia itseoppimisen kautta saatu luokkaraja varoituksen sana: itseoppiminen on herkkä datan epäbalanssille: ihminen ei välttämättä osu kattamaan harvinaisia luokkia tai luokan harvinaisempia edustajia keskittyminen ns. varmimpiin tapauksiin ihmisen luokittelun pohjalta ei välttämättä ohjaa ihan toivotulla tavalla diskriminoiviin luokkarajoihin Aktiivinen oppiminen (1) Aktiivinen oppiminen on puoliohjatun oppimisen erikoistapaus oppimisalgoritmi on vuorovaikutuksessa ihmisen tai muun tietolähteen kanssa ja kysyy luokkia jollakin kriteerillä valituille näytteille oikein toteutettuna etuna luokiteltavien näytteiden paljon ohjattua oppimista pienempi lukumäärä (ns. labeling complexity), mutta huonosti toteutettuna heikosti luokkia diskriminoivan datan osuus ja epäbalanssi opetusnäytteistössä voi kasvaa Kun tavoitteena on virheettömyysaste e, niin parhaimmillaan aktiivinen oppijan tarvitsema näytemateriaalin ohjattu luokituspanos on korkeintaan O(d*log(1/e)), missä d on dimensionaalisuus lineaarisen luokittelijan (esim. naivi Bayes) tarvitsema panostus on vähintään Ω(d/e) esim. jos vaaditaan e=0.9 ja d=784, niin aktiivinen oppija tarvitsee enintään n. 4% lineaarisen luokittelijan vaatimasta luokitellusta näytemäärästä (millä edellytyksin tähän voidaan päästä? Kiinnostuneille kohtalaisen helppotajuista luettavaa: coarse sample complexity bounds for active learning.pdf, riittää lukea toiseen kappaleeseen asti ) tyypillisesti aktiivinen oppiminen vaatii panoksen väliltä [O(d*log(1/e)), Ω(d/e)]
13 Aktiivinen oppiminen (2) Aktiivisen oppimisen kriittinen kohta on ihmiselle (tai muulle tietolähteelle) kategorisoitavaksi valittavien näytteiden poiminta. Menetelmiä ovat mm. epävarmimpien tapausten lisäys (uncertainty sampling): poimitaan ihmiselle luokiteltavaksi näytteet, joiden luokasta sen hetkisen luokittelun kannalta suurin epävarmuus; tämän edustaja on mm. komiteaäänestys (query by committee, QBC): yhdistelmäluokittelija osoittaa ihmiselle näytteet, joiden luokista on eniten eroavia näkemyksiä suurimman muutoksen aiheutus (expected model change): ihminen luokittelee näytteet, jotka muuttavat luokituksia eniten suurin virheettömyyden parannus (expected error reduction) vasemmalla esimerkki syviä konvolutionaalisia neuroverkkoja yhdistelmäluokittelijana käyttävästä teollisesta aktiivisen oppimisen ratkaisusta; laskentatehon hintaeroosio on tehnyt tällaisetkin aiemmin utopistiset ratkaisut mahdollisiksi Aktiivinen oppiminen (3) Aktiivisen oppimisen tehokkuus perustuu käytettyjen opetusnäytteiden keskittymiseen kriittisten luokkarajojen lähelle datanäytteet, joiden luokittelu manuaalisesti on ylivoimainen työ ihmisen luokittelemat muutamat opetusnäytteet karkea luokkaraja opetusnäytteiden pohjalta aktiivisessa oppimisessa opetusnäytteet keskittyvät luokkarajoille aktiivisen oppimisen kautta saatu luokkaraja varoituksen sana: aktiivinen oppiminen ei välttämättä suojaa datan epäbalanssilta
14 Aktiivinen oppiminen (4) Aktiivinen oppiminen lisää opetusmateriaaliin uusia opetusnäytteitä joko yksi kerrallaan tai joukkoina uudet näytteet muuttavat luokittelijan käyttämää mallia alla tilanne, jossa luokkarajan lähellä havaittu näyte luokitellaan ja seurauksena luokkarajat muuttuvat päivitetty kategoriaraja karkea kategoriaraja luokiteltavaksi pyydetty näyte Tilanne ennen uuden näytteen luokitusta Tilanne luokituksen jälkeen Huom: datan esitystapa on säännöllisesti hyvin korkeadimensioinen, joten ylläolevan kaltainen 2 D esitys edellyttää soveltuvan dimensionaalisuuden vähentämismenetelmän käyttöä Aktiivinen oppiminen (5) Aktiiviseen oppimisen virheettömyysodotuksiin liittyy samankaltaisia käytännössä epärealistisia olettamuksia kuin ohjattuun oppimiseen oletetaan ihmisen luokittelevan oikein ja kykenevän aina antamaan luokan, vaikka on erehtyväinen ja monesti jättäisi epävarmoja tapauksia ilman varmaa kategoriaa Joissakin sovelluksissa luokitustarkkuutta voi parantaa visualisoimalla ihmiselle päätöstilanteen luonne; esim. sopivan dimensionaalisuuden vähennysmenetelmän avulla kahden kategorian epävarmimmiksi tulkitut näytteet alla toteamme kummassakin kategoriassa yhden näytteen ilmeisimmin kuuluvan toiseen luokkaan Kategoria A Kategoria B
Klusteroinnin kyvyillä on rajansa
Klusteroinnin kyvyillä on rajansa 183 Dataa on monesti hyvin paljon, se on säännöllisesti korkeadimensioista ja vaikeasti hahmotettavalla tavalla rakenteista, jolloin klusterointi antaa helposti liki arvaukseen
TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)
JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään
805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos K:n lähimmän naapurin menetelmä (K-Nearest neighbours) Tarkastellaan aluksi pientä (n = 9) kurjenmiekka-aineistoa, joka on seuraava:
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
Tekoäly ja koneoppiminen metsävaratiedon apuna
Tekoäly ja koneoppiminen metsävaratiedon apuna Arbonaut Oy ja LUT University 26. marraskuuta 2018 Metsätieteen päivä 2018 Koneoppimisen kohteena ovat lukujen sijasta jakaumat Esimerkki 1 Koneoppimisessa
Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat
1 Tukivektoriluokittelija Tukivektorikoneeseen (support vector machine) perustuva luoikittelija on tilastollisen koneoppimisen teoriaan perustuva lineaarinen luokittelija. Perusajatus on sovittaa kahden
Datanäytteiden piirteiden skaalaus/normalisointi (1)
Datanäytteiden piirteiden skaalaus/normalisointi (1) Datamassat, jotka syötetään samankaltaisuuksia useamman kuin yhden piirteen pohjalta hyödyntäviin koneoppimismenetelmiin, voivat tarvita esikäsittelykseen
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
Diskriminanttianalyysi I
Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi
Johdatus tekoälyyn. Luento 6.10.2011: Koneoppiminen. Patrik Hoyer. [ Kysykää ja kommentoikaa luennon aikana! ]
Johdatus tekoälyyn Luento 6.10.2011: Koneoppiminen Patrik Hoyer [ Kysykää ja kommentoikaa luennon aikana! ] Koneoppiminen? Määritelmä: kone = tietokone, tietokoneohjelma oppiminen = ongelmanratkaisukyvyn
ALGORITMIT & OPPIMINEN
ALGORITMIT & OPPIMINEN Mitä voidaan automatisoida? Mikko Koivisto Avoimet aineistot tulevat Tekijä: Lauri Vanhala yhdistä, kuvita, selitä, ennusta! Tekijä: Logica Mitä voidaan automatisoida? Algoritmi
805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista
T DATASTA TIETOON
TKK / Informaatiotekniikan laboratorio Syyslukukausi, periodi II, 2007 Erkki Oja, professori, ja Heikki Mannila, akatemiaprofessori: T-61.2010 DATASTA TIETOON TKK, Informaatiotekniikan laboratorio 1 JOHDANTO:
Tekoäly ja alustatalous. Miten voit hyödyntää niitä omassa liiketoiminnassasi
Tekoäly ja alustatalous Miten voit hyödyntää niitä omassa liiketoiminnassasi AI & Alustatalous AI Digitaalisuudessa on 1 ja 0, kumpia haluamme olla? Alustatalouden kasvuloikka Digitaalisen alustatalouden
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3. luento 17.11.2017 Neuroverkon opettaminen (ohjattu oppiminen) Neuroverkkoa opetetaan syöte-tavoite-pareilla
Luku 6. Dynaaminen ohjelmointi. 6.1 Funktion muisti
Luku 6 Dynaaminen ohjelmointi Dynaamisessa ohjelmoinnissa on ideana jakaa ongelman ratkaisu pienempiin osaongelmiin, jotka voidaan ratkaista toisistaan riippumattomasti. Jokaisen osaongelman ratkaisu tallennetaan
Tekstuurintunnistuksen lyhyt oppimäärä. Ts. pari tapaa erottaa tiiliseinä pensaasta.
Tekstuurintunnistuksen lyhyt oppimäärä Ts. pari tapaa erottaa tiiliseinä pensaasta. Mitä on tekstuuri? Vaikea määritellä, mutta: Pintakuvio Ornamentti tuntu kuviointi Miksi tämän pitäisi kiinnostaa? (Maantienmerkkausrobotti)
Luokittelumenetelmät (6)
Luokittelumenetelmät (6) Luokittelu /päätöspuut ja satunnaismetsämenetelmä ovat erittäin suosittuja, sillä ovat helposti ymmärrettävissä ja luokittelupuut myös visualisoitavissa, toimivat luokka ja numeerisella
Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
Kanta ja dimensio 1 / 23
1 / 23 Kuten ollaan huomattu, saman aliavaruuden voi virittää eri määrä vektoreita. Seuraavaksi määritellään mahdollisimman pieni vektorijoukko, joka virittää aliavaruuden. Jokainen aliavaruuden alkio
Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia.
1 Luokittelijan suorituskyvyn optimointi Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia. A. Piirteen valinnan menetelmiä
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 2. luento 10.11.2017 Keinotekoiset neuroverkot Neuroverkko koostuu syöte- ja ulostulokerroksesta
TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010
TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta Yliassistentti Jussi Hakanen jussi.hakanen@jyu.fi syksy 2010 Optimaalisuus: objektiavaruus f 2 min Z = f(s) Parhaat arvot alhaalla ja vasemmalla
Viikko 1: Johdantoa Matti Kääriäinen matti.kaariainen@cs.helsinki.fi
Viikko 1: Johdantoa Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 29-31.10.2008. 1 Tällä viikolla 1. Käytännön järjestelyistä 2. Kurssin sisällöstä ja aikataulusta 3. Johdantoa Mitä koneoppiminen
Insinöörimatematiikka D, laskuharjoituksien esimerkkiratkaisut
Insinöörimatematiikka D, 29.3.2016 4. laskuharjoituksien esimerkkiratkaisut 1. Olkoon u (4,0,4,2) ja v ( 1,1,3,5) vektoreita vektoriavaruudessa R 4. Annetun sisätulon (x,y) indusoima normi on x (x,x) ja
Sovellusohjelmointi Matlab-ympäristössä: Vertaisverkon koneiden klusterointi
Sovellusohjelmointi Matlab-ympäristössä: Vertaisverkon koneiden klusterointi 28.4.2013 Annemari Auvinen (annauvi@st.jyu.fi) Anu Niemi (anniemi@st.jyu.fi) 1 Sisällysluettelo 1 JOHDANTO... 2 2 KÄYTETYT MENETELMÄT...
Järvi 1 Valkjärvi. Järvi 2 Sysijärvi
Tilastotiedettä Tilastotieteessä kerätään tietoja yksittäisistä asioista, ominaisuuksista tai tapahtumista. Näin saatua tietoa käsitellään tilastotieteen menetelmin ja saatuja tuloksia voidaan käyttää
Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016
Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin
Lineaariset luokittelumallit: regressio ja erotteluanalyysi
Lineaariset luokittelumallit: regressio ja erotteluanalyysi Aira Hast Johdanto Tarkastellaan menetelmiä, joissa luokittelu tehdään lineaaristen menetelmien avulla. Avaruus jaetaan päätösrajojen avulla
Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö
Tällä kerralla ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 19.2. Nelli Salminen nelli.salminen@helsinki.fi D433 vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko
Parinmuodostuksesta tietojenkäsittelytieteen silmin. Petteri Kaski Tietojenkäsittelytieteen laitos Aalto-yliopisto
Parinmuodostuksesta tietojenkäsittelytieteen silmin Petteri Kaski Tietojenkäsittelytieteen laitos Aalto-yliopisto Suomalainen Tiedeakatemia Nuorten Akatemiaklubi 18.10.2010 Sisältö Mitä tietojenkäsittelytieteessä
FUNKTIONAALIANALYYSIN PERUSKURSSI 1. 0. Johdanto
FUNKTIONAALIANALYYSIN PERUSKURSSI 1. Johdanto Funktionaalianalyysissa tutkitaan muun muassa ääretönulotteisten vektoriavaruuksien, ja erityisesti täydellisten normiavaruuksien eli Banach avaruuksien ominaisuuksia.
Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden
1.12.2006 1. Satunnaisjakauman tiheysfunktio on Ü µ Üe Ü, kun Ü ja kun Ü. Määritä parametrin estimaattori momenttimenetelmällä ja suurimman uskottavuuden menetelmällä. Ratkaisu: Jotta kyseessä todella
1. TILASTOLLINEN HAHMONTUNNISTUS
1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,
Matriisilaskenta, LH4, 2004, ratkaisut 1. Hae seuraavien R 4 :n aliavaruuksien dimensiot, jotka sisältävät vain
Matriisilaskenta LH4 24 ratkaisut 1 Hae seuraavien R 4 :n aliavaruuksien dimensiot jotka sisältävät vain a) Kaikki muotoa (a b c d) olevat vektorit joilla d a + b b) Kaikki muotoa (a b c d) olevat vektorit
Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =
Koneoppiminen ja tekoäly suurten tietomassojen käsittelyssä yleensä ja erityisesti sovellettuina satelliittidatan käyttöön metsien arvioinnissa
Koneoppiminen ja tekoäly suurten tietomassojen käsittelyssä yleensä ja erityisesti sovellettuina satelliittidatan käyttöön metsien arvioinnissa Metsätieteen päivä 26.11.2018 Jorma Laaksonen, vanhempi yliopistonlehtori
Paretoratkaisujen visualisointi
Paretoratkaisujen visualisointi Optimointiopin seminaari - Kevät 2000 / 1 Esityksen sisältö Vaihtoehtoisten kohdevektorien visualisointi Arvopolut Palkkikaaviot Tähtikoordinaatit Hämähäkinverkkokaavio
Kognitiivinen mallintaminen. Nelli Salminen
Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen
Mitä on konvoluutio? Tutustu kuvankäsittelyyn
Mitä on konvoluutio? Tutustu kuvankäsittelyyn Tieteenpäivät 2015, Työohje Sami Varjo Johdanto Digitaalinen signaalienkäsittely on tullut osaksi arkipäiväämme niin, ettemme yleensä edes huomaa sen olemassa
Kognitiivinen mallintaminen Neuraalimallinnus, luento 1
Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Nelli Salminen nelli.salminen@helsinki.fi D433 Neuraalimallinnuksen osuus neljä luentokertaa, muutokset alla olevaan suunnitelmaan todennäköisiä
Luku 2. Datasta tietoon: mitä dataa? mitä tietoa?
1 / 14 Luku 2. Datasta tietoon: mitä dataa? mitä tietoa? T-61.2010 Datasta tietoon, syksy 2011 professori Erkki Oja Tietojenkäsittelytieteen laitos, Aalto-yliopisto 31.10.2011 2 / 14 Tämän luennon sisältö
Luentorunko keskiviikolle Hierarkkinen ryvästäminen
Luentorunko keskiviikolle 3.12.2008 Hierarkkinen ryvästäminen Ryvästyshierarkia & dendrogrammi Hierarkkinen ryvästäminen tuottaa yhden ryvästyksen sijasta sarjan ryvästyksiä Tulos voidaan visualisoida
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN
Ratkaisuehdotukset LH 7 / vko 47
MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [
ICF / VAT toimintakyvyn arviointi. Kumppaniksi ry, Tuomas Leinonen
ICF / VAT toimintakyvyn arviointi ICF ICF on WHO:n tekemä toimintakykyluokitus Se ei ole mittari Se tarjoaa hyvän rakenteen toimintakyvyn kuvaamiseksi Se tarvitsee tuekseen välineen jolla toimintakyvyn
MALLIT VESIJÄRJESTELMIEN TUTKIMUKSESSA
MALLIT VESIJÄRJESTELMIEN TUTKIMUKSESSA Hannu Poutiainen, FT PUHDAS VESI JA YMPÄRISTÖ TUTKIMUSAVAUKSIA MAMKISSA Mikpoli 8.12.2016 Mitä mallit ovat? Malli on arvioitu kuvaus todellisuudesta joka on rakennettu
1 Kertaus. Lineaarinen optimointitehtävä on muotoa:
1 Kertaus Lineaarinen optimointitehtävä on muotoa: min c 1 x 1 + c 2 x 2 + + c n x n kun a 11 x 1 + a 12 x 2 + + a 1n x n b 1 a 21 x 1 + a 22 x 2 + + a 2n x n b 2 (11) a m1 x 1 + a m2 x 2 + + a mn x n
TEHTÄVIEN RATKAISUT. b) 105-kiloisella puolustajalla on yhtä suuri liikemäärä, jos nopeus on kgm 712 p m 105 kg
TEHTÄVIEN RATKAISUT 15-1. a) Hyökkääjän liikemäärä on p = mv = 89 kg 8,0 m/s = 71 kgm/s. b) 105-kiloisella puolustajalla on yhtä suuri liikemäärä, jos nopeus on kgm 71 p v = = s 6,8 m/s. m 105 kg 15-.
Tilastotiede ottaa aivoon
Tilastotiede ottaa aivoon kuinka aivoja voidaan mallintaa todennäköisyyslaskennalla, ja mitä yllättävää hyötyä siitä voi olla Aapo Hyvärinen Laskennallisen data-analyysin professori Matematiikan ja tilastotieteen
3 = Lisäksi z(4, 9) = = 21, joten kysytty lineaarinen approksimaatio on. L(x,y) =
BM20A5810 Differentiaalilaskenta ja sovellukset Harjoitus 6, Syksy 2016 1. (a) Olkoon z = z(x,y) = yx 1/2 + y 1/2. Muodosta z:lle lineaarinen approksimaatio L(x,y) siten että approksimaation ja z:n arvot
k=0 saanto jokaisen kolmannen asteen polynomin. Tukipisteet on talloin valittu
LIS AYKSI A kirjaan Reaalimuuttujan analyysi 1.6. Numeerinen integrointi: Gaussin kaavat Edella kasitellyt numeerisen integroinnin kaavat eli kvadratuurikaavat Riemannin summa, puolisuunnikassaanto ja
Paretoratkaisujen visualisointi. Optimointiopin seminaari / Kevät 2000 Esitelmä 11 Petteri Kekäläinen 45305L
Paretoratkaisujen visualisointi Optimointiopin seminaari / Kevät 2000 Esitelmä 11 Petteri Kekäläinen 45305L 1. Johdanto Monitavoiteoptimointitehtävät ovat usein laajuutensa takia vaikeasti hahmotettavia
jens 1 matti Etäisyydet 1: 1.1 2: 1.4 3: 1.8 4: 2.0 5: 3.0 6: 3.6 7: 4.0 zetor
T-1.81 Luonnollisten kielten tilastollinen käsittely Vastaukset 11, ti 8.4., 1:1-18: Klusterointi, Konekääntäminen. Versio 1. 1. Kuvaan 1 on piirretty klusteroinnit käyttäen annettuja algoritmeja. Sanojen
Menetelmät tietosuojan toteutumisen tukena - käytännön esimerkkejä. Tilastoaineistot tutkijan työvälineenä - mahdollisuudet ja rajat 2.3.
Menetelmät tietosuojan toteutumisen tukena - käytännön esimerkkejä Tilastoaineistot tutkijan työvälineenä - mahdollisuudet ja rajat 2.3.2009 Tietosuoja - lähtökohdat! Periaatteena on estää yksiköiden suora
Referenssipiste- ja referenssisuuntamenetelmät
Referenssipiste- ja referenssisuuntamenetelmät Optimointiopin seminaari - Kevät 2000 / 1 Esitelmän sisältö Menetelmien ideat Menetelmien soveltaminen Menetelmien ominaisuuksia Optimointiopin seminaari
Bayesilainen päätöksenteko / Bayesian decision theory
Bayesilainen päätöksenteko / Bayesian decision theory Todennäköisyysteoria voidaan perustella ilman päätösteoriaa, mutta vasta päätösteorian avulla siitä on oikeasti hyötyä Todennäköisyyteoriassa tavoitteena
Tekoäly tukiäly. Eija Kalliala, Marjatta Ikkala
Tekoäly tukiäly Eija Kalliala, Marjatta Ikkala 29.11.2018 Mitä on tekoäly? Unelma koneesta, joka ajattelee kuin ihminen Hype-sana, jota kuulee joka paikassa Väärinymmärretty sana -> vääriä odotuksia, pelkoja
805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Johdatus monimuuttujamenetelmiin Luennot 30.10.13.12.-18 Tiistaina klo 12-14 (30.10., BF119-1) Keskiviikkoisin klo 10-12 (MA101,
E. Oja ja H. Mannila Datasta Tietoon: Luku 2
2. DATASTA TIETOON: MITÄ DATAA; MITÄ TIETOA? 2.1. Data-analyysin ongelma Tulevien vuosien valtava haaste on digitaalisessa muodossa talletetun datan kasvava määrä Arvioita: Yhdysvaltojen kongressin kirjasto
Poikkeavuuksien havainnointi (palvelinlokeista)
Poikkeavuuksien havainnointi (palvelinlokeista) TIES326 Tietoturva 2.11.2011 Antti Juvonen Sisältö IDS-järjestelmistä Datan kerääminen ja esiprosessointi Analysointi Esimerkki Lokidatan rakenne Esikäsittely,
Harha mallin arvioinnissa
Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö
Nollasummapelit ja bayesilaiset pelit
Nollasummapelit ja bayesilaiset pelit Kristian Ovaska HELSINGIN YLIOPISTO Tietojenkäsittelytieteen laitos Seminaari: Peliteoria Helsinki 18. syyskuuta 2006 Sisältö 1 Johdanto 1 2 Nollasummapelit 1 2.1
Tutkimustiedonhallinnan peruskurssi
Tutkimustiedonhallinnan peruskurssi Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo hannu.toivonen, marko.salmenkivi, inkeri.verkamo@cs.helsinki.fi Helsingin yliopisto Hannu Toivonen, Marko Salmenkivi,
Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn
Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekniikkaan ITKA352) Informaatioteknologian tiedekunta Jyväskylän yliopisto 23.3.2018 Tekoälyn historiaa 6 1 Introduction Kuva Fig. lähteestä 1.3
A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä.
Esimerkki otteluvoiton todennäköisyys A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Yksittäisessä pelissä A voittaa todennäköisyydellä p ja B todennäköisyydellä q =
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
JUHTA ja VAHTI juhlatilaisuus, Tietojärjestelmien tulevaisuudesta tekoälyn kehityksen näkökulmasta. Timo Honkela.
JUHTA ja VAHTI juhlatilaisuus, 2017 Tietojärjestelmien tulevaisuudesta tekoälyn kehityksen näkökulmasta Timo Honkela timo.honkela@helsinki.fi 31. lokakuuta 2017 Ihmisestä ja ihmisyhteisöistä Kuva:/skylgroup.com/communities--socities/
Yleiset lineaarimuunnokset
TAMPEREEN YLIOPISTO Pro gradu -tutkielma Kari Tuominen Yleiset lineaarimuunnokset Matematiikan ja tilastotieteen laitos Matematiikka Toukokuu 29 Tampereen yliopisto Matematiikan ja tilastotieteen laitos
Laskennallinen data-analyysi II
Laskennallinen data-analyysi II Ella Bingham, ella.bingham@cs.helsinki.fi Kevät 2008 Muuttujien valinta Kalvot perustuvat Saara Hyvösen kalvoihin 2007 Laskennallinen data-analyysi II, kevät 2008, Helsingin
Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
Esimerkki: Tietoliikennekytkin
Esimerkki: Tietoliikennekytkin Tämä Mathematica - notebook sisältää luennolla 2A (2..26) käsitellyn esimerkin laskut. Esimerkin kuvailu Tarkastellaan yksinkertaista mallia tietoliikennekytkimelle. Kytkimeen
Tilastotiede ottaa aivoon
Tilastotiede ottaa aivoon kuinka aivoja voidaan mallintaa todennäköisyyslaskennalla, ja mitä yllättävää hyötyä siitä voi olla Aapo Hyvärinen Laskennallisen data-analyysin professori Matematiikan ja tilastotieteen
Puumenetelmät. Topi Sikanen. S ysteemianalyysin. Laboratorio Aalto-yliopiston teknillinen korkeakoulu
Puumenetelmät Topi Sikanen Puumenetelmät Periaate: Hajota ja hallitse Jaetaan havaintoavaruus alueisiin. Sovitetaan kuhunkin alueeseen yksinkertainen malli (esim. vakio) Tarkastellaan kolmea mallia Luokittelu-
Duaalisuus kokonaislukuoptimoinnissa. Mat , Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki
Duaalisuus kokonaislukuoptimoinnissa Mat-2.4191, Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki Sisältö Duaalisuus binäärisissä optimointitehtävissä Lagrangen duaalisuus Lagrangen
811312A Tietorakenteet ja algoritmit 2015-2016. I Johdanto
811312A Tietorakenteet ja algoritmit 2015-2016 I Johdanto Sisältö 1. Algoritmeista ja tietorakenteista 2. Algoritmien analyysistä 811312A TRA, Johdanto 2 I.1. Algoritmeista ja tietorakenteista I.1.1. Algoritmien
Harjoitus 6 ( )
Harjoitus 6 (30.4.2014) Tehtävä 1 Määritelmän (ks. luentomoniste s. 109) mukaan yleisen, muotoa min f(x) s.t. g(x) 0 h(x) = 0 x X (1) olevan optimointitehtävän Lagrangen duaali on max θ(u,v) s.t. u 0,
Bayesin pelit. Kalle Siukola. MS-E2142 Optimointiopin seminaari: Peliteoria ja tekoäly
Bayesin pelit Kalle Siukola MS-E2142 Optimointiopin seminaari: Peliteoria ja tekoäly 12.10.2016 Toistetun pelin esittäminen automaatin avulla Ekstensiivisen muodon puu on tehoton esitystapa, jos peliä
Kieli merkitys ja logiikka. 2: Helpot ja monimutkaiset. Luento 2. Monimutkaiset ongelmat. Monimutkaiset ongelmat
Luento 2. Kieli merkitys ja logiikka 2: Helpot ja monimutkaiset Helpot ja monimutkaiset ongelmat Tehtävä: etsi säkillinen rahaa talosta, jossa on monta huonetta. Ratkaisu: täydellinen haku käy huoneet
Aki Taanila YHDEN SELITTÄJÄN REGRESSIO
Aki Taanila YHDEN SELITTÄJÄN REGRESSIO 26.4.2011 SISÄLLYS JOHDANTO... 1 LINEAARINEN MALLI... 1 Selityskerroin... 3 Excelin funktioita... 4 EKSPONENTIAALINEN MALLI... 4 MALLIN KÄYTTÄMINEN ENNUSTAMISEEN...
P (A)P (B A). P (B) P (A B) = P (A = 0)P (B = 1 A = 0) P (B = 1) P (A = 1)P (B = 1 A = 1) P (B = 1)
Harjoitustehtäviä (erä 1) 1 1. Käytetään yksinkertaisesti Bayesin kaavaa: P (A B) = P (A)P (B A). P (B) Tapauksessa B = 1 saadaan P (A = 0 B = 1) = P (A = 1 B = 1) = P (A = 0)P (B = 1 A = 0) P (A = 1)P
Laskennallinen data-analyysi II
Laskennallinen data-analyysi II Saara Hyvönen, Saara.Hyvonen@cs.helsinki.fi Kevät 2007 Ulottuvuuksien vähentäminen, SVD, PCA Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto visualisointi
1 Rajoittamaton optimointi
Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y
9. Lineaaristen differentiaaliyhtälöiden ratkaisuavaruuksista
29 9 Lineaaristen differentiaaliyhtälöiden ratkaisuavaruuksista Tarkastelemme kertalukua n olevia lineaarisia differentiaaliyhtälöitä y ( x) + a ( x) y ( x) + + a ( x) y( x) + a ( x) y= b( x) ( n) ( n
Talousmatematiikan perusteet: Luento 12. Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla
Talousmatematiikan perusteet: Luento 12 Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla Esimerkki Esim. Yritys tekee kahta elintarviketeollisuuden käyttämää puolivalmistetta,
Avaruuden R n aliavaruus
Avaruuden R n aliavaruus 1 / 41 Aliavaruus Esimerkki 1 Kuva: Suora on suljettu yhteenlaskun ja skalaarilla kertomisen suhteen. 2 / 41 Esimerkki 2 Kuva: Suora ei ole suljettu yhteenlaskun ja skalaarilla
3.1 Lineaarikuvaukset. MS-A0004/A0006 Matriisilaskenta. 3.1 Lineaarikuvaukset. 3.1 Lineaarikuvaukset
31 MS-A0004/A0006 Matriisilaskenta 3 Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2292015 Lineaariset yhtälöt ovat vektoreille luonnollisia yhtälöitä, joita
Aki Taanila LINEAARINEN OPTIMOINTI
Aki Taanila LINEAARINEN OPTIMOINTI 26.4.2011 JOHDANTO Tässä monisteessa esitetään lineaarisen optimoinnin alkeet. Moniste sisältää tarvittavat Excel ohjeet. Viimeisin versio tästä monisteesta ja siihen
Vektoreiden A = (A1, A 2, A 3 ) ja B = (B1, B 2, B 3 ) pistetulo on. Edellisestä seuraa
Viikon aiheet Pistetulo (skalaaritulo Vektorien tulot Pistetulo Ristitulo Skalaari- ja vektorikolmitulo Integraalifunktio, alkeisfunktioiden integrointi, yhdistetyn funktion derivaatan integrointi Vektoreiden
Kanta ja Kannan-vaihto
ja Kannan-vaihto 1 Olkoon L vektoriavaruus. Äärellinen joukko L:n vektoreita V = { v 1, v 2,..., v n } on kanta, jos (1) Jokainen L:n vektori voidaan lausua v-vektoreiden lineaarikombinaationa. (Ts. Span(V
Uolevin reitti. Kuvaus. Syöte (stdin) Tuloste (stdout) Esimerkki 1. Esimerkki 2
Uolevin reitti Kuvaus Uolevi on ruudukon vasemmassa ylänurkassa ja haluaisi päästä oikeaan alanurkkaan. Uolevi voi liikkua joka askeleella ruudun verran vasemmalle, oikealle, ylöspäin tai alaspäin. Lisäksi
2.6 Funktioiden kuvaajat ja tasa-arvojoukot
2.6 Funktioiden kuvaajat ja tasa-arvojoukot Olkoon I R väli. Yhden muuttujan funktion g : I R kuvaaja eli graafi on avaruuden R 2 osajoukko {(x, y) R 2 : x I, y = g(x)}. 1 0 1 2 3 1 0.5 0 0.5 1 Kuva 2.1:
Suorat ja tasot, L6. Suuntajana. Suora xy-tasossa. Suora xyzkoordinaatistossa. Taso xyzkoordinaatistossa. Tason koordinaattimuotoinen yhtälö.
Suorat ja tasot, L6 Suora xyz-koordinaatistossa Taso xyz-koordinaatistossa stä stä 1 Näillä kalvoilla käsittelemme kolmen laisia olioita. Suora xyz-avaruudessa. Taso xyz-avaruudessa. Emme nyt ryhdy pohtimaan,
(p j b (i, j) + p i b (j, i)) (p j b (i, j) + p i (1 b (i, j)) p i. tähän. Palaamme sanakirjaongelmaan vielä tasoitetun analyysin yhteydessä.
Loppu seuraa suoralla laskulla: n n Tave TR = p j (1 + b (i, j)) j=1 = 1 + 1 i
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 Tehtävä 8 on tällä kertaa pakollinen. Aloittakaapa siitä. 1. Kun tässä tehtävässä sanotaan sopii mahdollisimman hyvin, sillä tarkoitetaan