Roni Ahola Esiopetetun konvoluutioneuroverkon käyttö kuvantunnistuksessa. Kandidaatintyö

Koko: px
Aloita esitys sivulta:

Download "Roni Ahola Esiopetetun konvoluutioneuroverkon käyttö kuvantunnistuksessa. Kandidaatintyö"

Transkriptio

1 Roni Ahola Esiopetetun konvoluutioneuroverkon käyttö kuvantunnistuksessa Kandidaatintyö Tarkastaja: Heikki Huttunen

2 I TIIVISTELMÄ Roni Ahola: Esiopetetun konvoluutioneuroverkon käyttö kuvantunnistuksessa Tampereen Teknillinen Yliopisto Kandidaatintyö, 21 sivua Huhtikuu 2017 Pääaine: Signaalinkäsittely tarkastaja: Yliopistonlehtori Heikki Huttunen Avainsanat: Neuroverkko, konvoluutioneuroverkko, esiopetus, hahmontunnistus, luokittelu, konenäkö, syväoppiminen Tässä kandidaatintyössä tutkitaan kuvan luokittelemiseen tarkoitettua syvää konvoluutioneuroverkkoa. Konvoluutioneuroverkot ovat erityisen hyviä piirteidenirrottimia kuville ja niiden esiopetuksen ansioista niitä voidaan hyödyntää hyvinkin vaivattomasti. Työssä verrataan esiopetetun konvoluutioneuroverkon eri syvyyksien kykyä luokitella kuva niiden tarkkuuden mukaan. Tuloksista selviää, että esiopetettu konvoluutioneuroverkko on erinomainen piirteenirroittaja ja sen käyttö kuvien luokittelemiseen on kannattavaa. Tulosten mukaan esiopetetun neuroverkon optimaalisin käyttö ei kuitenkaan välttämättä ole suoraan viimeisen kerroken kautta, vaan jotenkin eri kerroksia yhdistelemällä.

3 II SISÄLLYS 1. Johdanto Teoria Neuroverkon rakenne Tiheä kerros Konvoluutiokerros Aktivointikerros Neuroverkon opetus Neuronien optimointi Verkon yleistys Neuroverkon käyttö kuvanluokitteluun Aineistot Malli Tulokset Johtopäätökset Lähteet LIITE A. Tarkkuudet ja opetusajat

4 III LYHENTEET JA MERKINNÄT CIFAR-10 VGG x y W b φ (engl.: Canadian Institute for Advanced Research) Pienistä RGBkuvista muodostuva kuvan tietokanta Oxfordin yliopiston tutkijaryhmä Visual Geometry Group Sisääntulovektori Ulostuloskalaari Painomatriisi Neuronin tai kernelin bias-arvo Aktivaatiofunktio

5 1 1. JOHDANTO Koneoppiminen on viime vuosina noussut kiinnostuksen kohteeksi etenkin konenäön osalta. Konenäön ajatuksena on saada koneet ymmärtämään kuvista asioita, jotka eivät perinteisesti ole olleet itsestäänselviä muotoja tietokoneelle. Viime vuosien pöhinä on keskittynyt hahmontunnistuksen alueelle, jossa kuvista pyritään tunnistamaan tiettyjä yksityiskohtia tai hahmoja. Kyky tähän on ollut aiemmin heikko, mutta viime vuosien kehitys neuroverkkojen alueella on herättänyt suurta huomiota. Suurimman tämänhetkisen innostuksen aloitti vuoden 2012 Krizhevsky et al. julkaisu AlexNet[4], jonka syvä konvoluutioneuroverkko voitti ILSVRC 2012 (ImageNet Large Scale Visual Recognition Competition) kilpailun osa-alueita selvillä huipputuloksilla. Tehokkaimmasta tunnetusta hahmontunnistajasta eli ihmisestä inspiraatiota haettu syvä konvoluutioneuroverkkomalli onkin erinomainen konenäön alalla [2, s. 364], joten niiden tutkiminen kasvavassa konenäön maailmassa tuntuu tärkeältä. Syviin konvoluutioneuroverkkoihin perustuvat laskennalliset mallit ovat tietokoneellekin oivallisia hyvän muistinkäytön, laskennallisen tehokkuuden sekä kehittyneen rinnakkaistamisen ansiosta. Tässä kandidaatintyössä vertaillaan konvoluutioneuroverkon syvyyttä sen kykyyn luokitella kuva oikeaan luokkaan. Turhan syvä neuroverkko voi löytää kuvista yksityiskohtia tai yhteyksiä, jotka eivät enää auta kuvan luokittelemiseen. Liian pieni verkko taas voi johtaa ongelmaan, jossa etsittäviä yksityiskohtia ei löytynyt tai piirteiden määrä on liian suuri. Oikean syvyyden löytäminen on tarkkuuden ja laskennallisen ajan tasapainon tutkimista, ja sopivan syvyyden selvittäminen ei välttämättä ole ratkaistavissa. Työssä käytetään valmiiksi opetettua syvää konvoluutioneuroverkkoa VGG16 [1], johon liitetään luokittelua varten muutama kerros perinteisiä tiheitä neuronikerroksia. Tämä kokonaisrakenne on kuvan luokitteluun suunniteltu syvä neuroverkko, jonka syvyyttä säädetään konvoluutioneuroverkon kerrosten lukumäärää vaihtelemalla. Verkon syvyyden vaikutusta lopputulokseen tutkitaan sen kyvyllä luokitella kuvia kahdesta eri kuva-aineistosta. VGG16 sekä siitä vielä hieman syvempi versio VGG19 jotka tunnetaan myös nimellä VGG-net ovat Oxfordin yliopiston kuvantunnistukseen liittyvän tutkimusryhmän VGG (Visual Geometry Group) julkaisemia esiopetettuja syviä konvoluutioneuro-

6 1. Johdanto 2 verkkoja [1]. VGG-net on yksi tunnetuimpia konvoluutioneuroverkko julkaisuja viime vuosilta ja se voitti vuoden 2014 ILSVRC-kilpailun lokalisaatio osakilpailun ja tuli toiseksi kuvanluokittelussa. Verkkoja on esiopetettu 1000 eri luokalla 224x224 kokoisisilla RGB-kuvilla ja esiopetetut painot pystytään siirtämään suoraan omaan malliin, joka voi nyt ilman yhtään opetusta irroittaa samat piirteet kuvista kuin VGG-net. Esiopetetun verkon käyttö voi olla laskennallisen ajan säästön ansioista erittäin tavoiteltava asia jos sitä pystytään hyödyntämään. Seuraavassa kappaleessa käydään tarkemmin verkon rakenne läpi osa kerrallaan. Kappaleessa 3 esitellään aineistot, käydään malli tarkemmin läpi ja lopuksi esitellään tulokset. Viimeiseksi kappaleessa 4 pohditaan tuloksia ja mietitään tutkimuksen merkitystä.

7 3 2. TEORIA Luvussa käydään läpi neuroverkon kerrokset sekä neuroverkon opetus. Työssä käytetyssä syvässä konvoluutioneuroverkossa on useita kerroksia ja niiden toiminta käydään läpi. Tämän jälkeen puhutaan siitä, miten kerrosten parametrejä saadaan opetettua eli muokattua haluttuun suuntaan. Lopuksi puhutaan myös yleisistä metodeista joita käytetään verkon rakentamisen sekä opetuksen yhteydessä. 2.1 Neuroverkon rakenne Universaalin approksimaatioteorian mukaan kolmikerroksinen tarpeeksi leveä tiheä neuroverkko voi approksimoida minkä tahansa funktion F : R n R m sisääntulon ja ulostulon välille epälineaarisen aktivaatiofunktion avulla [17]. Neuroverkko onkin rakenne, jonka tehtävänä on arvioida halutut funktiot tarpeellisella tarkkuudella ihmisen neuronien tapaan. Keinotekoisissa neuroverkoissa neuronit liitetään toisiinsa painollisina suunnattuina graafeina, jolloin näitä painoja muuttamalla pystytään muuttamaan verkon toimintaa. Yksinkertainen monikerroksinen neuroverkkomalli MLP (multilayer perceptron) muodostuu monesta kerroksesta perseptroneita. Jokaista perseptroni yksikköä voidaan mallintaa omana rakenteena, joka sisältää kaikkien sisään tulevien perseptroni-yhteyksien painot W, sekä perseptronin bias-arvon b. Jotta verkkoa voidaan pitää universaalina approksimoijana, tulee sen kuitenkin sisältää myös epälineaarisuutta jolloin yhtä yksikköä voidaan kutsua neuroniksi. Epälineaarisuuden ansioista jokaisen neuronin ulostulo on epälineaarinen kuvaus kahden arvon välillä, jolloin jokaisen neuronin sisääntulo kääntyy erilaiseksi ulostuloksi ja verkon kompleksisuus sekä kyky arvioida funktioita kasvaa merkittävästi Tiheä kerros Tiheä on yhteensuuntaan suunnattu graa, jossa jokainen aiemman kerroksen neuroni on yhteydessä jokaiseen seuraavan kerroksen neuroniin. Saman kerroksen neuronit eivät ole yhteydessä toisiinsa eikä aiempiin kerroksiin, jolloin tiheä kerros on

8 2.1. Neuroverkon rakenne 4 eteenpäin syöttävä (feedforward) neuroverkkorakenne. Yhdessä neuroverkon tiheässä kerroksessa on m kappaletta neuroneita, joihin jokaiseen yhdistyy kaikki kerrokseen tulevat arvot. Jos sisään tulevia arvoja on n kappaletta, on helppoa nähdä, että tiheän kerroksen parametrien määrä on n m + m, (2.1) missä viimeinen termi muodostuu neuronien bias-arvoista. Jokainen tiheän kerroksen neuroni vastaakin kuvausta vektorista skaalariksi, joka voidaan kuvata kaavalla y = φ(w x + b), (2.2) missä y on yhden neuronin ulostulo, x sisääntulovektori ja φ on yleensä neuroniin liitetty aktivointikerros. Jos aktivointikerroksen aktivointifunktio on epälineaarinen, neuroverkon kerros saavuttaa halutun epälineaarisuuden ja pystyy jo arvioimaan mitä tahansa funktiota tarpeeksi suurella neuronimäärällä. Tällaisen neuroverkon käyttö on kuitenkin laskennallisesti raskasta, sillä opetettavien parametrien määrä on huomattavan suuri, eikä kaikkien haluttujen funktioiden löytäminen ole välttämättä laskennallisesti mahdollista[2, s. 192], joten neuroverkon suunnittelussa kannattaa tutkia muita mahdollisuuksia. Kuva 2.1 Matemaattinen malli kolme neuronia sisältävästä tiheästä kerroksesta joiden aktivaatiofunktiona on hyperbolinen tangentti. Kerros voisi olla myös syvän neuroverkkorakenteen keskellä, jolloin sisääntulovektori x sisältäisi edellisen kerroksen ulostulojen arvoja.

9 2.1. Neuroverkon rakenne Konvoluutiokerros Ihmisen näköjärjestelmästä motivaatiota saanut konvoluutioneuroverkko pyrkii tuomaan topologista tietoa sisääntulosta esille konvoluutio-operaation avulla. Konvoluutioneuroverkkoja voidaan pitää piirteiden irrottimina, milloin niiden ulostulosta saadaan selville sisääntulossa esiintyviä piirteitä. Konvoluution ja kerneleiden käyttö on ollut kuvanmuokkauksessa ja pienten piirteiden löytämisessä jo vuosikymmeniä tunnettu taito[15, s. 30], mutta vasta viime vuosina sen käyttö neuroverkoissa on yleistynyt. Jokainen konvoluutiokerneli pyrkii oppimaan jonkin ominaisuuden ja aktivoitumaan, kun sisääntulosta löytyy vastaava ominaisuus. Konvoluutiokerroksessa on yleensä 3 vaihetta: jokaisen konvoluutiokernelin lineaariset operaatiot, epälineaarisen aktivointifunktion käyttö sekä alinäytteistys (pooling). Konvoluutiokerneli on 2D tapauksessa m n kokoinen matriisi, jonka arvoja voidaan pitää neuroverkon painoina, eli opetettavina parametreina. Jokaisessa kerroksessa voi olla N kappaletta kerneleitä, jolloin konvoluutiokerroksen parametrien määrä on M (m n) N + b, (2.3) missä M on edellisen kerroksen kernelien määrä ja b on kernelin bias-arvo. Syvissä konvoluutioneuroverkoissa kernelin koon valitseminen on tärkeä hyperparametri. VGG-netissä jokaisen kernelin kooksi on valittu 3 3, jolloin laskettavan pisteen ympäriltä tulee 1 arvo jokaisesta suunnasta. Jokainen kerneli käy 2D tapauksessa jokaisen sisääntulon piirrekartan I arvon (i, j) läpi ja tuottaa ulos arvon g(i, j) = (I K)(i, j) = m I(i + m, j + n)k(m, n), (2.4) n missä K kuvaa m n kokoista kerneliä jolloin yhden pikselin kuvaus lasketaan kuvan 2.2 mukaan. Kaavan 2.4 todellinen nimi on korrelaatio, mutta koska kernelin painot opitaan eikä ne ole vakiot, sitä usein kutsutaan konvoluutioksi [2, s. 384]. Koska konvoluutiokernelin tulee saada arvoja koko ikkunan alueelta, ei sitä voi käyttää kuvan reunoissa missä ikkunan reunat olisivat kuvan ulkopuolella, minkä seurauksena sisääntulo pienenee jokaisen operaation jälkeen. Tästä syystä ennen jokaista konvoluutiota reunoille lisätään yleensä arvoja, jotka yleisesti asetetaan nollaksi (zero padding). Konvoluutiokerroksen tuloksena on siis N syvyinen, sisääntulosta sekä kaavasta 2.4 riippuva uusi joukko kuvia, joiden syvyyksiä kutsutaan piirrekartoiksi (feature map) ja niiden lukumäärää pidetään hyperparametrinä. Syvän konvoluutioneuroverkon viimeisen konvoluutiokerroksen piirrekartat ovat konvoluutiokerrosten ulostulo ja niiden arvot voidaan syöttää luokittelijalle arvoparametreinä.

10 2.1. Neuroverkon rakenne 6 Kuva 2.2 Yhden kernelin painomatriisilla W m,n saadaan muodostettua 1 piirrekartta. Koska samoja parametrejä käytetään koko kuvalle, on konvoluutiokerneli laskennallisen tehokkuuden ansioista hyvä työkalu topologisen 2D-datan ymmärtämiseen. Kerneli-ikkunaa ei voi liu'uttaa reunoille, joten nolla-reunustus vaaditaan jos leveys ja korkeus halutaan säilyttää samana. Alinäytteistys kerroksen tarkoituksena on vähentää herkkyyttä häiriölle sekä yleistää alueita sisääntulossa eli lisätä sisääntulon invarianssia ja kontrolloida parametrien määrää sekä ylioppimista [2, s. 330]. Eräs alinäytteistys operaatio on maxpooling, joka valitsee ikkunan muotoiselta alueelta pelkästään suurimman arvon, ja näin pienentää sisääntulon kokoa, mutta säilyttää alueelliset ominaisuudet. Muita alinäytteistys operaatioita ovat esimerkiksi keskiarvotus sekä L2-normi alinäytteistys, mutta max pooling on nykyisissä verkoissa suurimmassa suosiossa. Joidenkin tutkijoiden mielestä alinäytteistyksestä tulisi pyrkiä eroon sen informaatiohukan takia, ja tulevaisuudessa neuroverkkoarkkitehtuureissa sen tilalla voisi olla esimerkiksi konvoluutio isommalla askelkoolla [11]. Alinäytteistyksen, sopivan konvoluutiokernelin askelkoon (stride) sekä nolla lisäysten oikealla kontrolloinnilla voidaan konvoluutiokerneleiden avulla esittää sisääntulosta kuvioita, joita normaali kokonaan yhdistetty neuroverkko ei välttämättä ikinä oppisi näkemään. Samojen kerneleiden käyttäminen koko kuvalle, parametrien pieni määrä, laskennallinen tehokkuus sekä konvoluutiokerneleiden kyky yleistää antavat hyvän syyn käyttää konvoluutiokerroksia neuroverkoissa, joissa pyritään etsimään vaikeista topologisista rakenteista pieniä tai suuria yhtäläisyyksiä.

11 2.1. Neuroverkon rakenne Aktivointikerros Lineaariset kuvaukset pystyvät kuvaamaan vain lineaarisia funktioita. Neuroverkkojen halutaan kuitenkin usein kuvaavan funktioita, joita ei lineaarisilla kuvauksilla pysty kuvaamaan, joten verkkoon tarvitaan epälineaarisuutta. Biologisissa neuroneissa epälineaarisuudesta vastaavat aktiopotentiaalit, jotka aktivoituvat sisääntulostimuluksen jännityseron ollessa tarpeeksi suuri. Epälineaarisuuden neuroverkon kerrokseen pystyy lisäämään aktivointifunktiolla φ, joista perinteisin neuroverkkojen tapauksissa on ollut hyperbolinen tangentti tanh(x) = ex e x, e x (2.5) + e x joka antaa ulostulolle kuvauksen väliltä [-1, 1]. Toinen hyperbolista tangenttia lähellä oleva aktivointifunktio on sigmoidi φ(x) = 1, (2.6) 1 + e x jonka ulostulo on välillä [0,1]. Sigmoidin ulostulo ei kuitenkaan ole keskitetty nollaan kuten hyperbolisessa tangentissa (kts. 2.3). Ulostulon keskittäminen nollaan on tärkeä ominaisuus syvillä neuroverkoilla, sillä kaikkien kerrosten arvojen keskiarvoja pyritään pitämään nollassa jotta informaation takaisinkulun aikana muutkin kerrokset pysyisivät nollassa, eivätkä kasvaisi positiiviseen tai negatiiviseen suuntaan. Sigmoidin sekä hyperbolisen tangentin suurimpana ongelmana [2, s. 189] voidaan kuitenkin pitää niiden ominaisuutta saturoida (kyllästää) niiden arvot. Hyperbolisen tangentin ja sigmoidin saturoituessa niiden häntäpäiden gradientit ovat lähes nollia, jolloin ne tappavat koko takaisinleviävän gradientin eikä signaalia kulje neuronien lävitse ja opetusta ei tapahdu. Koska nämä aktivointifunktiot ovat saturoituvia kaikkialla paitsi lähellä nollaa, on niistä pyritty pääsemään eroon neuroverkkojen aktivointifunktiona. Sigmoidia voidaan vielä käyttää neuroverkon ulostuloskerroksessa, sillä sen ulostulojen arvot eivät riipu toisistaan, mikä on joskus haluttu ominaisuus ulostulokerroksessa. Jos ulostulon arvot halutaan riippuvaisiksi toisistaan, esimerkiksi todennäköisyyksiä esitettäessä, voidaan käyttää softmax funktiota S(y i ) = ey i, (2.7) eyn n missä n on neuronien lukumäärä, y i on neuronin i todennäköisyys ja y i = 1. Jokaista neuronia voidaan nyt siis käyttää esittämään halutun ulostulon todennäköisyyttä. Luokittimen tapauksessa tällä ratkaisulla saadaan jokaiselle luokalle to-

12 2.1. Neuroverkon rakenne 8 dennäköisyys, milloin todennäköisimmän luokan esittäminen ulostulosta on suoraviivaista. Nykyisissä neuroverkoissa suositeltu[18] ramppifunktiota muistuttava aktivointifunktio φ(x) = max(0, x) (2.8) on nimeltään rektioija, ja sitä käyttäviä neuroneita kutsutaan nimellä ReLU (rectied linear unit). ReLUssa on paljon etuja jatkuva-aikaisiin epälineaarisiin aktivointifunktioihin syvien neuroverkkojen opetuksessa. Arvojen laskeminen on hyvin edullista, sillä ulostulo on suoraan nolla puolissa ulostuloavaruuden arvoista. Vaikka tämä saattaa tuntua epäluonnolliselta, tuo se kuitenkin verkkoon harvoja yhteyksiä (sparse connectivity), joita pidetään yhtenä neuroverkon tärkeimpinä ominaisuuksina [10]. ReLU nopeuttaa verkon opettamista yleisten opetusalgoritmien kanssa jopa kuusinkertaisesti [4], eikä gradienttien saturointia tapahdu, sillä ReLU kuvaa arvoja äärettömyyteen asti jos sille ei aseteta ylärajaa. ReLUn epäderivoituvuus nollassa ei ole yleensä tietokoneille ongelma, mutta sen käyttäytyminen alle nollassa voi johtaa ongelmiin. Suuren gradientin mennessä neuroverkon läpi ReLUn sisääntulojen painot voi päivittyä niin, ettei se aktivoidu enää lähes koskaan. Tätä kutsutaan katoavan gradientin ongelmaksi tai kuolevaksi ReLUksi. Eräs ratkaisu tälle on [5] esittelemä aktivointifunktio ELU (exponential linear unit) x x > 0 φ(x) = (2.9) α(exp(x) 1) x < 0, missä α on positiivinen reaaliluku. ELU saavuttaa suurimman osan ReLUn hyödyistä ja myös vie ReLUn ulostulon keskiarvoa lähemmäs nollaa.

13 2.2. Neuroverkon opetus 9 Kuva 2.3 Hyperbolinen tangentti, sigmoidi, ReLU ja ELU. Hyperbolisen tangentin ja sigmoidin gradientit ovat häntäpäissä lähes 0, mikä on huono ominaisuus gradienttiopetuksessa. Näistä vain hyperbolisen tangentin ulostulo on aidosti keskitetty nollaan, mutta ReLUsta paranneltu ELU pyrkii samaan. Sopivien aktivointikerrosten valitseminen on neuroverkon rakentamisen yhteydessä tärkeä valinta. Muita tunnettuja aktivointifunktioita ovat mm. RBF, Softplus eli pehmeä versio rektioinnista, hard tanh sekä Maxout yksikkö. Parhaan aktivointifunktion löytäminen on aktiivinen tutkimusalue, eikä joka verkolle soveltuvaa yleiskäyttöistä funktiota välttämättä ole edes olemassa. 2.2 Neuroverkon opetus Eteenpäin syöttävien neuroverkkojen opettamista voidaan pitää vaikeiden funktioiden approksimaatioiden optimointina. Neuroverkkojen nopea toiminta perustuu siihen, ettei kaikkea laskentaa tarvitse tehdä, jos approksimaatio on tarpeeksi lähellä todellisuutta. Verkon opettamista voidaankin pitää taiteluna sopivan arvion löytämisessä laskennalliseen aikaan suhteutettuna. Sopivia aktivointifunktioita, optimointifunktioita sekä muita keinoja, jotka muuttavat neuronien parametrejä oikeaan suuntaan, voidaan pitää neuroverkon opetuksesta vastaavina keinoina. Sopivien arkkitehtuuristen valintojen lisäksi voidaan verkon oppimista parantaa vielä valitsemalla sopivat yleistysalgoritmit jotka perustuvat pitkälti opetuksen sopivaan tahdittamiseen Neuronien optimointi Hyvä optimointi on oikeastaan ratkaisu etsintäongelmaan, jolla tarkoitetaan lopullisen määränpään saavuttamista virheen suunnan arvioinnilla. Apuna tähän ongelmaan käytetään virhettä arvioivaa virhefunktiota. Perinteinen valinta virhefunktiolle

14 2.2. Neuroverkon opetus 10 on ollut neliövirheen laskeminen, mutta on kuitenkin osoitettu, että suurimman uskottavuuden (maximum likelihood) menetelmä on osoittautunut syvien neuroverkkojen opetuksessa paremmaksi menetelmäksi useissa tapauksissa [6]. Suurimman uskottavuuden estimointi perustuu siihen, että pyritään maksimoimaan sitä ulostuloa, jonka verkko uskoo eniten olevan oikeassa. Suurimpaan uskottavuuteen sekä softmaxin logistiseen ulostuloon perustuva multinominen logistinen häviöfunktio (multinomial logistic loss) kuvaa ulostulovektorille y häviön N L = y j log (p j ), (2.10) j=1 missä p on logistisen funktion antama arvo ulostuloneuronille j, ja y vastaa oikean luokan todennäköisyyttä. Vaikka virhefunktio kontrolloi verkon oppimista oikeaan suuntaan, ei verkon onnistumista sillä yleensä arvioida. Suurimpaan uskottavuuteen perustuva häviöfunktio virhemetriikkana johtaa myös yleisesti käytetyn optimointimetriikan eli tarkkuuden kasvamiseen, mutta muilla optimointimetriikoilla eri häviöfunktio tuottaa parempia tuloksia. Optimointimetriikka on riippuvainen optivoitavasta ongelmasta ja häviöfunktio on vain matemaattinen johdattelu, jolla kyseinen optimointi ratkaistaan parhaalla mahdollisella tavalla. Häviöfunktion saatua jonkin arvon jollekin joukolle sisään tulleita arvoja, tulee verkon pystyä päivittämään parametrejaan oikeaan suuntaan. Tiedon häviöstä pitää siis pystyä liikkumaan takaisin verkossa, ja tähän käytetään takaisinlevitys- sekä gradientin lasku- algoritmeja. Ensimmäinen vastaa informaation kulusta takaisinpäin, kun taas toinen vastaa painojen oikeasta muokkaamisesta niin, että häviöfunktio pienenee aiemmin lasketulle ulostulolle. Takaisinlevitys käytännössä hoitaa dierentiaalilaskennan ketjusäännön df dx = df dg dg dx, (2.11) kun g = g(x) ja f = f(g(x)). Näin tieto häviöstä saadaan levitettyä verkon loppupäästä alkupäähän asti ketjutettuna. Sisääntulolle x laskettu häviö 2.10 päivitetään nyt kaikille painoille käyttäen gradientin laskua jokaiselle painolle kaavan 2.11 mukaan, jolloin yhden painon w muutos saadaan kaavaksi

15 2.2. Neuroverkon opetus 11 B 1 w t = w t 1 1 α t 1 B b=0 L(x b, w), (2.12) w missä α on oppimisnopeus ja B on opetusjoukon koko. Oppimisnopeus on hyperparametri, jonka valinta on tärkeää. Jos se on liian suuri, saattaa virhe supistumisen sijaan kasvaa väärään suuntaan. Liian pieni oppimisnopeus saattaa jäädä oppimisesteisiin ja oppiminen saattaa pysähtyä ennenaikaisesti [13]. Gradientin lasku voidaan laskea koko opetusjoukolle kerrallaan, mutta monet algoritmit suorittavat laskemisen vain pienelle osajoukolle kerrallaan, jolloin oppiminen nopeutuu huomattavasti. Tunnetuin näistä on SGD (stochastic gradient descent), missä B=1 ja jonka käyttöön suurin osa nykyisistä neuroverkoista perustuu. Oikean oppimisnopeuden käytöllä, sekä muutamalla oletuksella, osajoukkoa käyttävä SGD supistuu lähes aina globaaliin minimiin, ja muussa tapauksessa lähes täysin varmasti lokaaliin minimiin [7]. Osajoukkoa käyttävä SGD on myös laskennallisuuden tehokkuuden kannalta hyvä asia, sillä muistissa ei tarvitse pitää niin montaa arvoa kerrallaan. Joskus gradientin laskun yhteydessä kannattaa käyttää oppimisnopeutta heikentävää tekijää decay, sillä oppiminen on yleensä alussa suurempaa kuin lopussa. Gradientin laskun ongelmana on tietyissä tapauksissa syvien virheiden ylipääseminen lokaalien minimien lähistöllä, jolloin kiihtyvyyteen perustuva momentti voi auttaa oppimista. Nesterovin momentti NAG (Nesterov accelerated gradient) [14] on varsinkin osajoukolla laskettavan gradientin laskun yhteydessä paljon käytetty kiihtyvyyteen perustuva algoritmi. Siinä lasketaan kiihtyvyyden arvo v momenttihyperparametrin γ avulla kaavalla B 1 v t = γv t α t 1 B b=0 L(x b, w γv t 1 ), (2.13) w jolloin painon uudeksi arvoksi kaavan 2.12 sijaan saadaan w t = w t 1 v t. (2.14) Optimoinnin automatisointiin kehitettyjä algoritmeja jotka adaptoivat opetusnopeuden muutosta opetuksen aikana voidaan myös käyttää perinteisen gradientin laskun tilalta. Tunnetuimpia näistä ovat muun muuassa Adagrad, Adadelta, RMSprop ja Adam. Virheen optimoiminen on tärkeä tutkimusalue neuroverkkojen ja koneoppimisen kehityksen kannalta ja oikeiden optimointiratkaisujen löytäminen on ongelmakohtaista.

16 2.2. Neuroverkon opetus Verkon yleistys Neuroverkkoa opettaessa on tärkeää yleistää opetus kaikelle aineistolle, mitä verkkoon tullaan syöttämään. Jos verkkoa opetetaan liikaa opetusainestolla, saattaa verkon painot ylioppia opetusaineiston ja epäonnistua yleistämään testi- sekä käyttövaiheessa. Tällaisissa tilanteissa pyritään joko optimoimaan verkon opettamista paremmaksi, tai parantamaan opetusdatan määrää ja laatua. Alkuperäinen opetusaineisto yleensä jaetaan kolmeen osaan: opetus-, validointi- ja testiaineisto. Opetusaineistolla verkkoa opetetaan, validointiaineistolla etsitään parhaat hyperparametrit verkolle ja kontrolloidaan opetuksen lopettaminen oikeaan ajankohtaan, ja lopuksi testiaineistolla arvioidaan verkon kyky yleistää opitut asiat samankaltaiselle aineistolle jota se ei ole ennen nähnyt. Verkon oppimista voidaan kontrolloida sopivilla hyperparametreillä, jolloin käytetään esimerkiksi ristiin validointia löytämään sopivat arvot kaikenlaisille sisääntuloille. Validointiaineistoa ei ikinä opeteta verkolle, vaan sen tarkkuutta käytetään optimaalisten hyperparametrien löytämiseen, joita sitten käytetään verkon lopulliseen opetukseen. Tämä on kuitenkin usein laskennallisesti hidasta, tai sopivien hyperparametrien löytäminen ei aina riitä verkon yleistämiseen. Tällöin verkossa käytetään usein regularisointia, jonka voi määritellä miksi tahansa keinoksi muokata opetusalgoritmia minkä tavoitteena on vähentää verkon yleistämisvirhettä, mutta ei sen opetusvirhettä [2, s. 117]. Regularisointia voi olla verkon opetuksen vaikeuttaminen, virhefunktion muuttaminen opetuksen aikana, satunnaisen häiriön lisäämistä opetusaineistoon tai mikä tahansa muu opettamista vaikeuttava tekijä. Satunnaisen häiriön lisääminen aineistoon (dataset augmentation) on osoittanut hyvää menestystä kuvantunnistuksessa [4]. Sama kuva pienellä variaatolla saattaa tuoda esiin yhteyksiä, joita alkuperäisessä kuvassa ei ollut, mutta jotka ovat kuitenkin merkityksellisiä kyseiselle kuvaluokalle. Kuvatietokannan kasvattamista voidaan tehdä mm. satunnaisella kuvan pikseliarvojen muutoksilla, kuvan kiertämisellä, kuvan zoomaamisella, kuvan siirtämisellä tai pääkomponenttianalyysiin perustuvalla kuvanmuokkauksella. Motivaatiota eri yleistyskeinojen käytölle tuo myös neuroverkkojen synnynnäinen epädeterministisyys. Painojen alkuarvot, optimointialgoritmin käyttäytyminen sekä mahdollisen keinotekoisen aineiston satunnaisuus saattavat kaikki aiheuttaa verkon oppimaan erilaiseksi jokaisella opetuskerralla. Satunnaisuuden poistamiseksi ja parempien tulosten saamiseksi verkkoja pyritään yleensä keskiarvoittamaan. Monen opetuskerran keskiarvottamista (model averaging) voidaan käyttää parempien tulosten saamiseksi, mutta laskennallisen ajan moninkertaistumisen takia yleensä

17 2.2. Neuroverkon opetus 13 pyritään ensisijaisesti parantamaan opetusalgoritmejä. Viime vuosina suosioon noussut keskiarvoittamiseen perustuva häipymä (Dropout) tekniikka [8] on noussut hyväksi tavaksi yleistää syviä neuroverkkoja. Tässä tekniikassa jokaiseen kerroksen neuroniin kohdistuu yksi parametri p, joka määrittää todennäköisyyden, jolla neuronin aktivointi muuttuu nollaksi. Tätä käytetään vain verkon opetusvaiheessa, jolloin verkko ei voi luottaa samoihin neuroneihin koko opetuksen ajan vaan joutuu yleistämään opetusaineiston koko verkolle. Verkon käyttövaiheessa häipymä katoaa. Joskus syvissä neuroverkoissa arvot eivät pysy keskiarvoisesti nollassa, jolloin niitä kannattaa uudelleenparametrisoida. Syvissä neuroverkoissa laskettaessa takaisinlevitystä gradientit saavat joskus suuria arvoja ja muokkaavat verkon kerroksia siten, että haluttu normaalijakauma katoaa. Tämä voi johtaa suuriin arvoihin verkon kerrosten välillä, joka vaikeuttaa opettamista. Tämän vuoksi verkon arvoja pyritään arvioimaan keskiarvon odotusarvolla ja varianssin odotusarvolla, joita voidaan kontrolloida Batch N ormalization [3] algoritmin avulla, joka korjaa sen läpi kulkevat arvot haluttuun normaalijakaumaan. Häipymää sekä erän normalisointia voidaan ajatella kerroksina, joita syvään neuroverkkoon voidaan lisätä verkon yleistämisen tavoittelemiseksi. Verkon yleistämisessä pyritään saavuttamaan arkkitehtuuri, jolla verkon kapasiteetti, oppimisnopeus sekä kyky yleistää ovat sopivassa tasapainossa. Kuva 2.4 Normalisointikerroksen vaikutus arvojakaumaan. Batch Normalization sisältää oppivia parametrejä, joilla se pyrkii muuttamaan arvot normaalijakautuneiksi nollan ympärille pienellä keskihajonnalla, jotta arvot olisivat helpompia käsitellä. Paras tapa kontrolloida oppimista on kuitenkin jättää se kokonaan tekemättä. Vaikka syvässä konvoluutioneuroverkkomallissa on parametrejä niin konvoluutiokerroksilla kuin tiheillä kerroksilla, ei niitä kaikkia tarvitse opettaa. Esiopetetun konvoluutioneuroverkon käytöllä voidaan jättää konvoluutiokerroksien opettaminen tekemättä, sillä niiden oletetaan jo osaavan haluttu piirteidenirrotus, jos alkuperäinen aineisto on ollut samankaltaista dataa. Jos konvoluutiokerros on neuroverkkomallissa ensimmäisenä, ei takaisinlevityksen tarvitse edetä konvoluutiokerrosten läpi ja tarvittava laskennallinen aika vähenee huomattavasti.

18 14 3. NEUROVERKON KÄYTTÖ KUVANLUOKITTELUUN Kuvanluokittelu on ollut jo postikorttien kirjaintunnistuksesta asti mielenkiintoinen automatisoinnin kohde. Perinteiset koneoppimismenetelmät kuten lähimmän naapurin menetelmä, tukivektorikoneet tai satunnaismetsät pärjäävät joissain luokitteluhaasteissa riittävän hyvin, mutta kuvanluokittelijat haastavissa tehtävissä käyttävät nykyään lähes aina laajoja neuroverkkoja. Luokittelijaan tulee jokin piirrevektori, jonka perusteella se ohjatulla oppimisella opetetaan ymmärtämään ne piirteet, mitkä sille kyseiselle luokalle kuuluvat. Käyttämällä neuroverkkoarkkitehtuuria jossa on viimeisessä kerroksessa n luokan verran neuroneita, pystytään opetetulla syvällä neuroverkolla kaavan 2.7 avulla päättelemään todennäköisyys kuvan kuulumiseen jokaiselle luokalle. 3.1 Aineistot CIFAR-10 [9] on 10 luokkaa sisältävä tietokanta, joka on yksi yleisimmistä koneoppimisen menetelmien testaukseen käytettävistä tietokannoista ja sen huipputulokset ovat ~96% syvillä konvoluutioneuroverkoilla. Kuvat ovat pikseliä RGBmuodossa olevia kuvia, joita on 6000 jokaiselle luokalle. Tietokanta on jaettu testikuvaan ja opetuskuvaan. Tietokannan kuville on valmiiksi merkattu luokat, joten verkon opetus suoritetaan kokonaan ohjattuna oppimisena. Määrittelyn mukaisesti jokainen kuva on valokuva joka sisältää vain yhden luokkaa vastaavan objektin satunnaisesta kulmasta, ja sen tulee olle ihmissilmälle selkeästi erottuva [9]. Kuvan opetuskuvasta 5000 kuvaa valittiin validointia varten ja niitä käytettiin opetuksen lopettamisen ajoittamiseen. Esiprosessointina kuvat laajennettiin muotoon. Ilman tätä laajennusta verkon syvyyden takia konvoluutiokerrokset pienentäisivät kuvan alle 1 1 kokoon, mikä ei ole sallittua. Tämän jälkeen jokaisesta pikselistä vähennettiin koko opetustietokannan värikeskiarvo, jolloin värikeskiarvo on koko tietokannalle nolla. Värikeskiarvon vähentäminen oli tehty myös alkuperäistä VGG-netiä opetettaessa [1], joten esiopetetut konvoluutiokerrokset odottavat saman tyylisiä arvoja.

19 3.1. Aineistot 15 Kuva 3.1 Satunnainen ote CIFAR-10 tietokannasta. Aineisto on tarkkaan valittu, eikä sitä tarvi esivalmistella. Kuva 3.2 Satunnainen ote toisesta aineistosta automaattisen rajauksen jälkeen. Aineiston mukana tulleet rajausehdot olivat suurimmassa osassa tapauksia hyviä, mutta joissain tapauksissa johti virheellisiin kuviin.

20 3.2. Malli 16 Toisena aineistona työssä käytetään kissoista ja koirista muodostuvaa tietokantaa [16], jonka Oxfordin VGG-ryhmä julkaisi vuonna Siihen sisältyy yhteensä 37 eri rotua, joista 12 on kissoja ja 25 koiria. Jokaista rotua kohden on noin 200 vaihtelevan pikselikoon RGB-kuvaa. Kuvien esiprosessointiin kuului niiden muuttaminen kokoon, jotta ne pystyttäisiin syöttämään verkkoon. Tietokannan mukana tuli määrittelyt jokaiselle kuvalle siitä, mikä osa kuvasta on eläintä ja mikä osa on taustaa. Näiden määrittelyjen avulla kuvat pyrittiin rajaamaan siten, että suurin osa kuvasta on eläintä ja taustaa rajattiin pois. Rajauksen jälkeen kuvat muutettiin kokoon. Alkuperäissä 2012 julkaisussa VGG-ryhmä käytti monen mallin yhdistelmää joista osa tulkitsi eläimen päätä, osa kehoa ja osa koko kuvaa. Piirteiden irroitukseen sekä luokitteluun he käyttivät perinteisiä kuvantunnistusmenetelmiä kuten SIFT, HOG, bag-of-words ja tukivektorikoneita. Tulokseksi he saivat parhaillaan kaikkia malleja yhdistämällä 59.21% tarkkuudeksi kaikkien 37 luokan luokittelussa. 3.2 Malli Mallin rakentamiseen käytettiin Keras-kirjastoa. Keras on syviin neuroverkkoihin keskittynyt Python ohjelmointikielellä toteutettu neuroverkkokirjasto. Keras toimii TensorFlow tai Theano kehyksen päällä, joista tähän työhön valittiin Googlen TensorFlow. Keras yhdistää kaikki syvän neuroverkkomallin rakentamiseen tarvittavat osat yhteen kirjastoon, kun taas TensorFlow vastaa laskennallisen osuuden prosesseista ja muistinkäytöstä. Mallien opettamiseen käytettiin Nvidian GPU laskentayksikköä, jonka monen CUDA ytimen ansioista rinnakkaistamisen etuja pystyttiin hyödyntämään nopeamman oppimisen saavuttamiseksi. Lopulliseen luokittelijaan valittiin kuvan 3.3 mukainen malli. Ensin konvoluutioosasta ulostuleva arvotensori muutetaan vektorimuotoon, sillä muut verkon kerrokset odottavat vektorimuodossa olevia arvoja. Tämän jälkeen arvot normalisoitiin Batch Normalization kerroksella. Konvoluution arvoparametreinä voi tulla konvoluutiokerrosten syvyydestä riippuen hyvin vaihtelevia arvoja, joten niiden normalisointi ennen tiheää kerrosta on suositeltavaa, ja osoittautui validointia käytettäessä opetusta huomattavasti parantavaksi keinoksi. Normalisointikerroksen jälkeen tulee luokittelun hoitavat tiheät kerrokset. Ensimmäisen tiheän kerroksen aktivaatiofunktiona toimii ELU. Normaaliin ReLUun verrattuna ELU saavutti parempia tarkkuuksia validointidatalle, joten sen käyttö oli kannattavaa. Tiheään kerrokseen oli yhteydessä myös häipymä (Dropout) kerros. Ilman häipymää malli ylioppi opetusdatan liian nopeasti eikä se kyennyt yleistämään tarkkuutta validointidatalle. Tämän jälkeen tuli luokkien verran neuroneita sisältävä tiheä ulostulokerros, eli 10 CIFARissa,

21 3.2. Malli 17 ja 37 kissat ja koirat tietokannassa. Ulostulokerroksen aktivaatiofunktiona on Softmax, jolloin ulostulo on luokkien verran eri todennäköisyyttä sisältävä vektori, joista jokainen vektorin alkio vastaa eri luokan esiintymistodennäköisyyttä sisääntulolle. Kuva 3.3 Työssä käytetty syvä neuroverkko malli. Ylätason kerrokset muodostavat VGGnetin ja niistä punaiset ovat alinäytteistykseen käytettyjä maxpooling kerroksia. Kaikkia kerroksia ei välttämättä tarvitse, jos tarvittavat piirteet löydetään jo aiemmilta kerroksilta. Neuronien painot molemmissa tiheissä kerroksissa alustettiin käyttäen normaalijakauman arvoja. Tässä nimenomaisessa jakaumassa sisääntulevien arvojen lukumäärä sekä ulosmenevien arvojen lukumäärä määräävät jakauman arvoalueen [12]. Painojen alkuarvojen oikea asetus on tärkeää, sillä huonoilla alkuarvoilla opetus voi hidastua epävakaiden gradienttien takia [14]. Painojen alkuperäinen jakauma myös määrää niiden lopullisen jakauman oppimisen jälkeen, joten nollakeskitetty normaalitai tasajakauma ovat hyviä ratkaisuja. Bias-arvot asetettiin nollaksi. Häipymän arvoksi annettiin suositeltu [8] arvo p = 0.5, eli 50% mahdollisuus jokaisen neuronin ulostulon arvon muuttua nollaksi ja ELUn α parameteri asetettiin suositeltuun [5] arvoon 1. Tiheän kerroksen neuronien määrä oli 250. Häviöfunktioksi valittiin multinominen logistinen häviöfunktio eli ristienropia joka saa pienjoukolle B laskettuna kaavasta 2.10 kasvaneen muodon

22 3.3. Tulokset 18 L = 1 B B N y ij log (p ij ), (3.1) i=1 j=1 missä jokaisen joukon kuvan häviö siis keskiarvotetaan joukon koolla. Opetusdatan keinotekoiseen kasvattamiseen käytettiin Keraksen kuvanmuokkaus generaattoria, joka syöttää verkolle halutun joukon verran kuvia kerrallaan ja lisää näihin joukkoihin satunnaista pikseliarvojen muutosta, rotaatiota, zoomausta, kääntämistä vaakatasossa sekä kuvan siirtoa johonkin suuntaan. CIFAR-10 opetusvaiheessa käytettiin gradientin laskua 2.12 joukkokoolla B = 200. Oppimisnopeudeksi annettiin α = 0.001, momentiksi γ = 0.9 nesterov momentti, eikä oppimisnopeutta muuttavia tekijöitä käytetty. Validoinnin avulla opetus lopetettiin siinä vaiheessa, kun validointidatan tarkkuus ei enää parantunut 15 eepokkiin, missä yksi eepokki vastaa opetusaineiston kokoisen joukon opettamista koko verkolle. Kissojen ja koirien rotuerottelussa gradientin laskun joukkokooksi valittiin B = 16 32, oppimisnopeudeksi α = , momentiksi γ = 0.95 nesterov momentti sekä opetuksen hidastamisen arvoksi µ = Tarkat arvot mallista riippuen liitteessä 1. Oppimisnopeus hidastuu jokaisen joukon jälkeen kaavalla α t = αt µ k, (3.2) missä k on opetettujen joukkojen lukumäärä. Aineisto jaettiin tässä tapauksessa 70% opetukseen, 15% validointiin sekä 15% testaamiseen. Opetus lopetettiin kun validointijoukon tarkkuus ei parantunut 15 eepokkiin. 3.3 Tulokset Aineistojen tarkkuudet eri määrällä konvoluutiokerroksia on esitetty kuvassa 3.4. Tarkemmat arvot sekä opetukseen käytetyt ajat ovat liitteessä 1.

23 3.3. Tulokset 19 Kuva 3.4 Tarkkuudet eri malleilla. Vaaka-akselilla on mallin syvyys, ja y-akselilla on sen tarkkuus testiaineistoilla. CIFAR-10 luokittelussa konvoluutioverkon syvyys oli parhaillaan, kun VGG-netistä vähensi kaksi kerrosta pois. Syötetyn kuvan koolla on mahdollisesti suuri merkitys, sillä alkuperäinen VGG-net oli opetettu suuremmilla kuvilla. Tarkempaa syytä ei tähän lähdettä tämän työn ohessa etsimään. Luokittelu kaksikerroksisella MLPverkolla toimi hyvin, mutta sen neuronien lukumäärä saattoi olla liian pieni kerroksille, missä ulostulevien arvojen lukumäärä oli huomattavan suuri, mikä teki luokittelusta vaikeampaa. CIFAR-10 luokittelussa VGG-netin painoja opetettiin koko opetuksen ajan, mikä hidasti oppimista, mutta paransi selvästi tulosta verrattuna opetuskertoihin, jossa konvoluutiokerrosten painoja ei opetettu. Tämä voi olla seurausta siitä, että VGG-net on opetettu isompi resoluutioisilla kuvilla, jolloin niiden piirteet ovat selvempiä kuin CIFAR-10 kuvien. Kissojen ja koirien aineistossa paras tulos tuli suoraan viimeiseltä kerrokselta. Koska kuvat olivat hyvin samankaltaisia alkuperäisen VGG-net aineiston kanssa, ei tämä ole suuri yllätys. Tämän aineiston opettamisen aikana konvoluutiokerrosten parametrejä ei opetettu, jolloin opetus oli helpompaa ja nopeampaa. Paremman tarkkuuden olisi saanut opettamalla parametrejä, mutta verrattuna vuoden % tarkkuuteen tämä kuitenkin oli jo selvä parannus. Parempaa tulosta olisi kannattanut ensisijaisesti lähteä hakemaan parantamalla esiprosessointia ja etenkin kuvien rajausta, sillä pienellä kuvamäärällä jokaisen kuvan laatu on tärkeä. Softmax ulostulojen summaaminen eri mallien väleillä osoittautui lopullista tark-

24 3.3. Tulokset 20 kuutta parantavaksi tekijäksi ja parhaan tuloksen tarkkuus parantui CIFAR-10 tapauksessa noin 1 prosenttiyksikköä kun taas kissojen ja koirien aineistossa noin 3 prosenttiyksikköä. Liitteessä 1 on esitetty lopulliset tarkkuudet molemmille aineistoille, sekä muutama eri summauksen tuloksena tullut tarkkuus. Tämä parantunut tulos voi kertoa siitä, että aiempien kerrosten piirteet ovat joissain tilanteissa parempia luokittelemaan oikean luokan, kuin yksittäisen kerroksen ulostulo. Eri konvoluutiokerrosten ulostulojen piirre-erot ovatkin mielenkiintoinen tutkimuksen aihe, johon ei tällä kertaa tarpeeksi ehditty syventymään.

25 21 4. JOHTOPÄÄTÖKSET Työn motivaationa oli tutkia syitä käyttää esiopetettuja konvoluutioneuroverkkoja mahdollisesti vähentämällä niistä joitain kerroksia. Kissojen ja koirien aineistossa esiopetettu konvoluutioneuroverkko toimi hyvin, mutta kerrosten vähentäminen ei suoraan nostanut tarkkuutta. Muista kerroksista otettujen ulostulojen avulla tehty mallien keskiarvottaminen kuitenkin nosti tarkkuutta, joten mahdollisesti muiden kerrosten piirtenirroitus pystyisi esittämään ominaisuuksia, mitä viimeisen kerroksen piirteet eivät esitä. Lopullinen tarkkuus neljän kerroksen yhdistämisen jälkeen 88.63% oli kuitenkin hyvä tulos yksinkertaiselle luokittelijalle ja hieman heikolle aineistolle, joka kertoo syvien konvoluutioneuroverkkojen erinomaisesta luokittelukyvystä. Vaikka CIFAR-10 tapauksessa jouduttiinkin konvoluutiokerrosten painoja opettamaan luokittimen opetuksen aikana, oli esiopetus selvästi hyödyntävä tekijä. Ilman esiopetusta koko konvoluutioneuroverkon noin 15 miljoonaa painoa olisi pitänyt opettaa pelkällä CIFAR-10 aineistolla, eikä lopulliseen kerrosten yhdistämisen kautta saatuun 95.11% tarkkuuteen olisi välttämättä ikinä päästy. Luokittimen laajentamisella tai tarkemmalla piirtenirrotimen yhdistelyllä olisi tulosta varmasti saatu vielä kuitenkin paremmaksi. Syvät konvoluutioneuroverkot ovat selvästi erinomaisia piirteenirrottimia vaikeillekin aineistoille ja niiden avulla kuvien luokittelu on hyvin aiheellista. Niiden opettaminen on raskasta, joten esiopetettujen neuroverkkojen käyttö tulee olemaan potentiaalisesti tulevaisuudessa suuressa suosiossa. Valmiiden kirjastojen ansiosta niiden mahdollinen lisäopetus on kuitenkin helppoa nykyisillä laskentayksiköillä, joita voi myös pilvipalvelujen kautta hyödyntää. Pohdittavaksi työstä jää, pystyykö muiden kerrosten parempia piirteitä käyttämään lopullisen tarkkuuden parantamiseen ilman suurta laskennallista kuormaa.

26 22 LÄHTEET [1] Simonyan, Karen and Zisserman, Andrew Very Deep Convolutional Networks for Large-Scale Image Recognition. arxiv preprint arxiv: , [2] Goodfellow, Ian and Bengio, Yoshua and Courville, Aaron Deep Learning. MIT Press, vierailtu [3] Sergey Ioe and Christian Szegedy Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift. arxiv preprint arxiv: , [4] Krizhevsky, Alex, Ilya Sutskever, and Georey E. Hinton Imagenet classication with deep convolutional neural networks. Advances in neural information processing systems s [5] Djork-Arné Clevert, Thomas Unterthiner, Sepp Hochreiter: Fast and Accurate Deep Network Learning by Exponential Linear Units(ELUs). arxiv preprint arxiv: , [6] Nuno Vasconcelos and Andrew Lippman A Unifying View of Image Similarity. Pattern Recognition, Proceedings. 15th International Conference on. IEEE, s [7] Bottou, Léon: Online Algorithms and Stochastic Approximations. Online Learning 5, [8] Srivastava, Nitish and Hinton, Georey E and Krizhevsky, Alex and Sutskever, Ilya and Salakhutdinov, Ruslan Dropout: A Simple Way to Prevent Neural Networks from Overtting. Journal of Machine Learning Research, 2014, vol.15 s [9] Alex Krizhevsky Learning Multiple Layers of Features from Tiny Images. Technical report, University of Toronto 2009, ch. 3. [10] Xavier Glorot, Antoine Bordes, Yoshua Bengio Deep Sparse Rectier Neural Networks. AISTATS'11, vol. 15 s [11] Springenberg, Jost Tobias and Dosovitskiy, Alexey and Brox, Thomas and Riedmiller, Martin Striving for Simplicity: The All Convolutional Net. arxiv preprint arxiv: , 2014.

27 23 [12] Glorot, Xavier and Bengio, Yoshua Understanding the diculty of training deep feedforward neural networks. AISTATS'10, vol.9, s [13] Bengio, Yoshua Practical recommendations for gradient-based training of deep architectures. Neural networks: Tricks of the trade, 2012, s [14] Sutskever, Ilya and Martens, James and Dahl, George and Hinton, Georey On the Importance of Initialization and Momentum in Deep Learning. International conference on machine learning, 2013, s [15] Ballard, Dana and Brown, Craig Computer Vision. 1982, s.30. [16] Parkhi, Omkar M and Vedaldi, Andrea and Zisserman, Andrew and Jawahar, CV Cats and Dogs, Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference, s vgg/publications/2012/parkhi12a/parkhi12a.pdf [17] Funahashi, Ken-Ichi On the approximate realization of continuous mappings by neural networks Neural Networks vol. 2, 1989, s [18] Dmytro Mishkin and Nikolay Sergievskiy and Jiri Matas Systematic evaluation of CNN advances on the ImageNet arxiv preprint arxiv: , 2016.

28 24 LIITE A. TARKKUUDET JA OPETUSAJAT Taulukko 1 Eri mallien lopulliset tarkkuudet ja aika. VGG-net ulostulo CIFAR-10 Eepokkeja s/eepokki Huomioitavaa block5_pool block5_conv block5_conv block5_conv block4_pool block4_conv block4_conv block4_conv block3_pool block3_conv block3_conv block3_conv block2_pool block2_conv block2_conv block1_pool block1_conv block1_conv ylintä kerrosta ylintä kerrosta kaikki listatut kerrokset Cats and Dogs block5_pool α=0.001, B=32 block5_conv α=0.001, B=32 block5_conv α=0.001, B=32 block5_conv α=0.001, B=32 block4_pool α=0.001, B=32 block4_conv α= , B=16 block4_conv α= , B=16 block4_conv α= , B=16 block3_pool α= , B=16 block3_conv α= , B=16 block3_conv α= , B=16 block3_conv α= , B=16 block2_pool α= , B=16 4 ylintä kerrosta ylintä kerrosta kaikki listatut kerrokset

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 2. luento 10.11.2017 Keinotekoiset neuroverkot Neuroverkko koostuu syöte- ja ulostulokerroksesta

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 4. luento 24.11.2017 Neuroverkon opettaminen - gradienttimenetelmä Neuroverkkoa opetetaan syöte-tavoite-pareilla

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3. luento 17.11.2017 Neuroverkon opettaminen (ohjattu oppiminen) Neuroverkkoa opetetaan syöte-tavoite-pareilla

Lisätiedot

ImageRecognition toteutus

ImageRecognition toteutus ImageRecognition toteutus Simo Korkolainen 27 kesäkuuta 2016 Projektin tarkoituksena on tehdä ohjelma, joka opettaa neuroverkon tunnistamaan kuvia backpropagation-algoritmin avulla Neuroverkon opetuksessa

Lisätiedot

Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn

Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekniikkaan ITKA352) Informaatioteknologian tiedekunta Jyväskylän yliopisto 23.3.2018 Tekoälyn historiaa 6 1 Introduction Kuva Fig. lähteestä 1.3

Lisätiedot

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Nelli Salminen nelli.salminen@helsinki.fi D433 Neuraalimallinnuksen osuus neljä luentokertaa, muutokset alla olevaan suunnitelmaan todennäköisiä

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.

Lisätiedot

Kognitiivinen mallintaminen. Nelli Salminen

Kognitiivinen mallintaminen. Nelli Salminen Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö Tällä kerralla ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 19.2. Nelli Salminen nelli.salminen@helsinki.fi D433 vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

Johannes Lehmusvaara Konvoluutioneuroverkot kirjain- ja numeromerkkien tunnistuksessa. Kandidaatintyö

Johannes Lehmusvaara Konvoluutioneuroverkot kirjain- ja numeromerkkien tunnistuksessa. Kandidaatintyö Johannes Lehmusvaara Konvoluutioneuroverkot kirjain- ja numeromerkkien tunnistuksessa Kandidaatintyö Tarkastaja: lehtori Heikki Huttunen Jätetty tarkastettavaksi 9.5.2014 I TIIVISTELMÄ TAMPEREEN TEKNILLINEN

Lisätiedot

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat 1 Tukivektoriluokittelija Tukivektorikoneeseen (support vector machine) perustuva luoikittelija on tilastollisen koneoppimisen teoriaan perustuva lineaarinen luokittelija. Perusajatus on sovittaa kahden

Lisätiedot

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016 Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.

Lisätiedot

1. NEUROVERKKOMENETELMÄT

1. NEUROVERKKOMENETELMÄT 1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia

Lisätiedot

Harha mallin arvioinnissa

Harha mallin arvioinnissa Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille

Lisätiedot

JAANA KORPELA KÄSINKIRJOITETTUJEN NUMEROIDEN TUNNISTUS NEU- ROVERKKOJEN AVULLA. Kandidaatintyö

JAANA KORPELA KÄSINKIRJOITETTUJEN NUMEROIDEN TUNNISTUS NEU- ROVERKKOJEN AVULLA. Kandidaatintyö JAANA KORPELA KÄSINKIRJOITETTUJEN NUMEROIDEN TUNNISTUS NEU- ROVERKKOJEN AVULLA Kandidaatintyö Tarkastaja: Simo Ali-Löytty Tarkastaja: Henri Hansen Palautettu 19.5.2016 i TIIVISTELMÄ JAANA KORPELA: Käsinkirjoitettujen

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo

Lisätiedot

Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi

Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 5.-7.11.2008. 1 Tällä viikolla Sisältösuunnitelma: Ennustamisstrategioista Koneoppimismenetelmiä: k-nn (luokittelu

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS AI-TUTKIJAN URANÄKYMIÄ AJATUSTENLUKUA COMPUTER VISION SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA MUUTTUJIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA

Lisätiedot

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä

Lisätiedot

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä

Lisätiedot

Tee-se-itse -tekoäly

Tee-se-itse -tekoäly Tee-se-itse -tekoäly Avainsanat: koneoppiminen, tekoäly, neuroverkko Luokkataso: 6.-9. luokka, lukio, yliopisto Välineet: kynä, muistilappuja tai kertakäyttömukeja, herneitä tms. pieniä esineitä Kuvaus:

Lisätiedot

Harjoitus 7: NCSS - Tilastollinen analyysi

Harjoitus 7: NCSS - Tilastollinen analyysi Harjoitus 7: NCSS - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tilastollinen testaus Testaukseen

Lisätiedot

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1 T-61.281 Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti 10.2.2004, 8:30-10:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:

Lisätiedot

1. NEUROVERKKOMENETELMÄT

1. NEUROVERKKOMENETELMÄT 1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN

Lisätiedot

Satunnaisalgoritmit. Topi Paavilainen. Laskennan teorian opintopiiri HELSINGIN YLIOPISTO Tietojenkäsittelytieteen laitos

Satunnaisalgoritmit. Topi Paavilainen. Laskennan teorian opintopiiri HELSINGIN YLIOPISTO Tietojenkäsittelytieteen laitos Satunnaisalgoritmit Topi Paavilainen Laskennan teorian opintopiiri HELSINGIN YLIOPISTO Tietojenkäsittelytieteen laitos Helsinki, 23. helmikuuta 2014 1 Johdanto Satunnaisalgoritmit ovat algoritmeja, joiden

Lisätiedot

Osa 2: Otokset, otosjakaumat ja estimointi

Osa 2: Otokset, otosjakaumat ja estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN

Lisätiedot

Osakesalkun optimointi

Osakesalkun optimointi Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit 3 3.1 Optimointiongelmat........................ 4 4 Epäsileän

Lisätiedot

Tilastollinen aineisto Luottamusväli

Tilastollinen aineisto Luottamusväli Tilastollinen aineisto Luottamusväli Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Tilastollinen aineisto p.1/20 Johdanto Kokeellisessa tutkimuksessa tutkittavien suureiden

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3.11.2017 Mitä tekoäly on? Wikipedia: Tekoäly on tietokone tai tietokoneohjelma, joka kykenee älykkäiksi

Lisätiedot

Tekoäly ja alustatalous. Miten voit hyödyntää niitä omassa liiketoiminnassasi

Tekoäly ja alustatalous. Miten voit hyödyntää niitä omassa liiketoiminnassasi Tekoäly ja alustatalous Miten voit hyödyntää niitä omassa liiketoiminnassasi AI & Alustatalous AI Digitaalisuudessa on 1 ja 0, kumpia haluamme olla? Alustatalouden kasvuloikka Digitaalisen alustatalouden

Lisätiedot

T Luonnollisten kielten tilastollinen käsittely

T Luonnollisten kielten tilastollinen käsittely T-61.281 Luonnollisten kielten tilastollinen käsittely Vastaukset 3, ti 11.2.2003, 16:15-18:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:

Lisätiedot

Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia.

Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia. 1 Luokittelijan suorituskyvyn optimointi Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia. A. Piirteen valinnan menetelmiä

Lisätiedot

pitkittäisaineistoissa

pitkittäisaineistoissa Puuttuvan tiedon käsittelystä p. 1/18 Puuttuvan tiedon käsittelystä pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto Puuttuvan tiedon

Lisätiedot

Department of Mathematics, Hypermedia Laboratory Tampere University of Technology. Roolit Verkostoissa: HITS. Idea.

Department of Mathematics, Hypermedia Laboratory Tampere University of Technology. Roolit Verkostoissa: HITS. Idea. Roolit Tommi Perälä Department of Mathematics, Hypermedia Laboratory Tampere University of Technology 25.3.2011 J. Kleinberg kehitti -algoritmin (Hypertext Induced Topic Search) hakukoneen osaksi. n taustalla

Lisätiedot

Jatkuvat satunnaismuuttujat

Jatkuvat satunnaismuuttujat Jatkuvat satunnaismuuttujat Satunnaismuuttuja on jatkuva jos se voi ainakin periaatteessa saada kaikkia mahdollisia reaalilukuarvoja ainakin tietyltä väliltä. Täytyy ymmärtää, että tällä ei ole mitään

Lisätiedot

HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2017 Harjoitus 1 Ratkaisuehdotuksia

HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2017 Harjoitus 1 Ratkaisuehdotuksia HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 07 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Osa tämän viikon tehtävistä ovat varsin haastavia, joten ei todellakaan

Lisätiedot

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta

Lisätiedot

TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010

TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010 TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta Yliassistentti Jussi Hakanen jussi.hakanen@jyu.fi syksy 2010 Optimaalisuus: objektiavaruus f 2 min Z = f(s) Parhaat arvot alhaalla ja vasemmalla

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila

Lisätiedot

Optimaalisuusehdot. Yleinen minimointitehtävä (NLP): min f(x) kun g i (x) 0 h j (x) = 0

Optimaalisuusehdot. Yleinen minimointitehtävä (NLP): min f(x) kun g i (x) 0 h j (x) = 0 Optimaalisuusehdot Yleinen minimointitehtävä (NLP): min f(x) kun g i (x) 0 h j (x) = 0 i = 1,..., m j = 1,..., l missä f : R n R, g i : R n R kaikilla i = 1,..., m, ja h j : R n R kaikilla j = 1,..., l

Lisätiedot

Kimppu-suodatus-menetelmä

Kimppu-suodatus-menetelmä Kimppu-suodatus-menetelmä 2. toukokuuta 2016 Kimppu-suodatus-menetelmä on kehitetty epäsileiden optimointitehtävien ratkaisemista varten. Menetelmässä approksimoidaan epäsileitä funktioita aligradienttikimpulla.

Lisätiedot

Tekoäly ja koneoppiminen metsävaratiedon apuna

Tekoäly ja koneoppiminen metsävaratiedon apuna Tekoäly ja koneoppiminen metsävaratiedon apuna Arbonaut Oy ja LUT University 26. marraskuuta 2018 Metsätieteen päivä 2018 Koneoppimisen kohteena ovat lukujen sijasta jakaumat Esimerkki 1 Koneoppimisessa

Lisätiedot

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2006) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1 Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:

Lisätiedot

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1 Tilastotieteen kertaus Vilkkumaa / Kuusinen 1 Motivointi Reaalimaailman ilmiöihin liittyy tyypillisesti satunnaisuutta ja epävarmuutta Ilmiöihin liittyvien havaintojen ajatellaan usein olevan peräisin

Lisätiedot

Avainsanojen poimiminen Eeva Ahonen

Avainsanojen poimiminen Eeva Ahonen Avainsanojen poimiminen 5.10.2004 Eeva Ahonen Sisältö Avainsanat Menetelmät C4.5 päätöspuut GenEx algoritmi Bayes malli Testit Tulokset Avainsanat Tiivistä tietoa dokumentin sisällöstä ihmislukijalle hakukoneelle

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 10 1 Funktion monotonisuus Derivoituva funktio f on aidosti kasvava, jos sen derivaatta on positiivinen eli jos f (x) > 0. Funktio on aidosti vähenevä jos sen derivaatta

Lisätiedot

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 Tehtävä 8 on tällä kertaa pakollinen. Aloittakaapa siitä. 1. Kun tässä tehtävässä sanotaan sopii mahdollisimman hyvin, sillä tarkoitetaan

Lisätiedot

Diskriminanttianalyysi I

Diskriminanttianalyysi I Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi

Lisätiedot

Lauri Sintonen KEINOTEKOISTEN NEUROVERKKOJEN HYÖDYNTÄMINEN AUTOMAATTISESSA LINTUJEN TUNNISTAMISESSA ÄÄNEN PERUSTEELLA

Lauri Sintonen KEINOTEKOISTEN NEUROVERKKOJEN HYÖDYNTÄMINEN AUTOMAATTISESSA LINTUJEN TUNNISTAMISESSA ÄÄNEN PERUSTEELLA Lauri Sintonen KEINOTEKOISTEN NEUROVERKKOJEN HYÖDYNTÄMINEN AUTOMAATTISESSA LINTUJEN TUNNISTAMISESSA ÄÄNEN PERUSTEELLA JYVÄSKYLÄN YLIOPISTO INFORMAATIOTEKNOLOGIAN TIEDEKUNTA 2018 TIIVISTELMÄ Sintonen, Lauri

Lisätiedot

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Frekventistiset vs. bayeslaiset menetelmät Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Parametrin estimointi ja bootstrap-otanta

Parametrin estimointi ja bootstrap-otanta Parametrin estimointi ja bootstrap-otanta Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo Tutkimustiedonhallinnan peruskurssi Parametrin estimointi ja bootstrap-otanta 1/27 Kevät 2003 Käytännön asioista

Lisätiedot

Ongelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida?

Ongelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida? Ongelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida? 2 Tieto on koodattu aikaisempaa yleisemmin digitaaliseen muotoon,

Lisätiedot

2 Osittaisderivaattojen sovelluksia

2 Osittaisderivaattojen sovelluksia 2 Osittaisderivaattojen sovelluksia 2.1 Ääriarvot Yhden muuttujan funktiolla f(x) on lokaali maksimiarvo (lokaali minimiarvo) pisteessä a, jos f(x) f(a) (f(x) f(a)) kaikilla x:n arvoilla riittävän lähellä

Lisätiedot

1 Komparatiivinen statiikka ja implisiittifunktiolause

1 Komparatiivinen statiikka ja implisiittifunktiolause Taloustieteen matemaattiset menetelmät 27 materiaali 4 Komparatiivinen statiikka ja implisiittifunktiolause. Johdanto Jo opiskeltu antaa nyt valmiu tutkia taloudellisia malleja Kiinnostava malli voi olla

Lisätiedot

Näihin harjoitustehtäviin liittyvä teoria löytyy Adamsista: Ad6, Ad5, 4: 12.8, ; Ad3: 13.8,

Näihin harjoitustehtäviin liittyvä teoria löytyy Adamsista: Ad6, Ad5, 4: 12.8, ; Ad3: 13.8, TKK, Matematiikan laitos Gripenberg/Harhanen Mat-1.432 Matematiikan peruskurssi K2 Harjoitus 4, (A=alku-, L=loppuviikko, T= taulutehtävä, P= palautettava tehtävä, W= verkkotehtävä ) 12 16.2.2007, viikko

Lisätiedot

Mat Sovellettu todennäköisyyslasku A

Mat Sovellettu todennäköisyyslasku A TKK / Systeemianalyysin laboratorio Nordlund Mat-.090 Sovellettu todennäköisyyslasku A Harjoitus 7 (vko 44/003) (Aihe: odotusarvon ja varianssin ominaisuuksia, satunnaismuuttujien lineaarikombinaatioita,

Lisätiedot

pitkittäisaineistoissa

pitkittäisaineistoissa Puuttuvan tiedon ongelma p. 1/18 Puuttuvan tiedon ongelma pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto mtl.uta.fi/tilasto/sekamallit/puupitkit.pdf

Lisätiedot

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Tilastollinen testaus. Vilkkumaa / Kuusinen 1 Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää

Lisätiedot

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme? TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen TKK (c) Ilkka Mellin (2004) 2 Mitä opimme? 1/4 Tilastollisen tutkimuksen tavoitteena on tehdä johtopäätöksiä prosesseista, jotka generoivat reaalimaailman

Lisätiedot

Backpropagation-algoritmi

Backpropagation-algoritmi Backpropagation-algoritmi Hyvin yleisesti käytetty Backpropagation (BP) -algoritmi on verkon halutun ja todellisen vasteen eroa kuvastavan kustannusfunktion minimointiin perustuva menetelmä. Siinä MLP-verkon

Lisätiedot

3.6 Su-estimaattorien asymptotiikka

3.6 Su-estimaattorien asymptotiikka 3.6 Su-estimaattorien asymptotiikka su-estimaattorit ovat usein olleet puutteellisia : ne ovat usein harhaisia ja eikä ne välttämättä ole täystehokkaita asymptoottisilta ominaisuuksiltaan ne ovat yleensä

Lisätiedot

Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio:

Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio: Inversio-ongelmista Craig, Brown: Inverse problems in astronomy, Adam Hilger 1986. Havaitaan oppositiossa olevaa asteroidia. Pyörimisestä huolimatta sen kirkkaus ei muutu. Projisoitu pinta-ala pysyy ilmeisesti

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma

Lisätiedot

FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa. 6. luento. Pertti Palo

FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa. 6. luento. Pertti Palo FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa 6. luento Pertti Palo 1.11.2012 Käytännön asioita Harjoitustöiden palautus sittenkin sähköpostilla. PalautusDL:n jälkeen tiistaina netistä löytyy

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 5. luento.2.27 Lineaarialgebraa - Miksi? Neuroverkon parametreihin liittyvät kaavat annetaan monesti

Lisätiedot

¼ ¼ joten tulokset ovat muuttuneet ja nimenomaan huontontuneet eivätkä tulleet paremmiksi.

¼ ¼ joten tulokset ovat muuttuneet ja nimenomaan huontontuneet eivätkä tulleet paremmiksi. 10.11.2006 1. Pituushyppääjä on edellisenä vuonna hypännyt keskimäärin tuloksen. Valmentaja poimii tämän vuoden harjoitusten yhteydessä tehdyistä muistiinpanoista satunnaisesti kymmenen harjoitushypyn

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35 Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen

Lisätiedot

30A02000 Tilastotieteen perusteet

30A02000 Tilastotieteen perusteet 30A02000 Tilastotieteen perusteet Kertaus 1. välikokeeseen Lauri Viitasaari Tieto- ja palvelujohtamisen laitos Kauppatieteiden korkeakoulu Aalto-yliopisto Syksy 2019 Periodi I-II Sisältö Välikokeesta Joukko-oppi

Lisätiedot

Kokonaislukuoptimointi hissiryhmän ohjauksessa

Kokonaislukuoptimointi hissiryhmän ohjauksessa Kokonaislukuoptimointi hissiryhmän ohjauksessa Systeemianalyysin laboratorio Teknillinen Korkeakoulu, TKK 3 Maaliskuuta 2008 Sisällys 1 Johdanto Taustaa Ongelman kuvaus 2 PACE-graafi Graafin muodostaminen

Lisätiedot

Takaisinkytkeytyvät neuroverkot. 1 Johdanto. Toni Helenius. Tiivistelmä

Takaisinkytkeytyvät neuroverkot. 1 Johdanto. Toni Helenius. Tiivistelmä Takaisinkytkeytyvät neuroverkot Toni Helenius Tiivistelmä Takaisinkytkeytyvät neuroverkot ovat tarkoitettu sekvenssimuotoisen tiedon mallintamiseen, jossa tieto on toisistaan riippuvaista. Tällaista tietoa

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 2 To 8.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 2 To 8.9.2011 p. 1/33 p. 1/33 Lukujen tallennus Kiintoluvut (integer) tarkka esitys aritmeettiset operaatiot

Lisätiedot

Väliestimointi (jatkoa) Heliövaara 1

Väliestimointi (jatkoa) Heliövaara 1 Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).

Lisätiedot

2D piirrelaskennan alkeet, osa I

2D piirrelaskennan alkeet, osa I 2D piirrelaskennan alkeet, osa I Ville Tirronen aleator@jyu.fi University of Jyväskylä 18. syyskuuta 2008 Näkökulma Aiheet Tarkastellaan yksinkertaisia 2D kuvankäsittelyoperaattoreita Näkökulmana on tunnistava

Lisätiedot

Kombinatorinen optimointi

Kombinatorinen optimointi Kombinatorinen optimointi Sallittujen pisteiden lukumäärä on äärellinen Periaatteessa ratkaisu löydetään käymällä läpi kaikki pisteet Käytännössä lukumäärä on niin suuri, että tämä on mahdotonta Usein

Lisätiedot

T DATASTA TIETOON

T DATASTA TIETOON TKK / Informaatiotekniikan laboratorio Syyslukukausi, periodi II, 2007 Erkki Oja, professori, ja Heikki Mannila, akatemiaprofessori: T-61.2010 DATASTA TIETOON TKK, Informaatiotekniikan laboratorio 1 JOHDANTO:

Lisätiedot

Luku 8. Aluekyselyt. 8.1 Summataulukko

Luku 8. Aluekyselyt. 8.1 Summataulukko Luku 8 Aluekyselyt Aluekysely on tiettyä taulukon väliä koskeva kysely. Tyypillisiä aluekyselyitä ovat, mikä on taulukon välin lukujen summa tai pienin luku välillä. Esimerkiksi seuraavassa taulukossa

Lisätiedot

Kuinka paljon dataa on tarpeeksi?

Kuinka paljon dataa on tarpeeksi? Kuinka paljon dataa on tarpeeksi? Tiekartta hallitun datalammen rakennukseen Mikko Toivonen Manager, Systems Engineering Dell Technologies Finland Tekoälyn (koneoppimisen) kolme pilaria Tekoälyalgoritmit

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33 Numeeriset menetelmät TIEA381 Luento 6 Kirsi Valjus Jyväskylän yliopisto Luento 6 () Numeeriset menetelmät 4.4.2013 1 / 33 Luennon 6 sisältö Interpolointi ja approksimointi Polynomi-interpolaatio: Vandermonden

Lisätiedot

805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016)

805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016) 805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016) Tavoitteet (teoria): Hallita autokovarianssifunktion ominaisuuksien tarkastelu. Osata laskea autokovarianssifunktion spektriiheysfunktio. Tavoitteet

Lisätiedot

ELEKTRONIIKAN JA TIETOLIIKENNETEKNIIKAN TUTKINTO-OHJELMA

ELEKTRONIIKAN JA TIETOLIIKENNETEKNIIKAN TUTKINTO-OHJELMA KANDIDAATINTYÖ Neuroverkkojen FPGA-toteutus Ville Paananen Ohjaaja: Jukka Lahti ELEKTRONIIKAN JA TIETOLIIKENNETEKNIIKAN TUTKINTO-OHJELMA 2018 2 Paananen V. 1 (2018) Neuroverkkojen FPGA-toteutus. Oulun

Lisätiedot

Esimerkkejä vaativuusluokista

Esimerkkejä vaativuusluokista Esimerkkejä vaativuusluokista Seuraaville kalvoille on poimittu joitain esimerkkejä havainnollistamaan algoritmien aikavaativuusluokkia. Esimerkit on valittu melko mielivaltaisesti laitoksella tehtävään

Lisätiedot

Tekoäly muuttaa arvoketjuja

Tekoäly muuttaa arvoketjuja Tekoäly muuttaa arvoketjuja Näin kartoitat tekoälyn mahdollisuuksia projektissasi Harri Puolitaival Harri Puolitaival Diplomi-insinööri ja yrittäjä Terveysteknologia-alan start-up: Likelle - lämpötilaherkkien

Lisätiedot

Lisätehtäviä ratkaisuineen luentomonisteen lukuun 6 liittyen., jos otoskeskiarvo on suurempi kuin 13,96. Mikä on testissä käytetty α:n arvo?

Lisätehtäviä ratkaisuineen luentomonisteen lukuun 6 liittyen., jos otoskeskiarvo on suurempi kuin 13,96. Mikä on testissä käytetty α:n arvo? MTTTP5, kevät 2016 15.2.2016/RL Lisätehtäviä ratkaisuineen luentomonisteen lukuun 6 liittyen 1. Valitaan 25 alkion satunnaisotos jakaumasta N(µ, 25). Olkoon H 0 : µ = 12. Hylätään H 0, jos otoskeskiarvo

Lisätiedot

Algoritmit 2. Luento 13 Ti Timo Männikkö

Algoritmit 2. Luento 13 Ti Timo Männikkö Algoritmit 2 Luento 13 Ti 30.4.2019 Timo Männikkö Luento 13 Simuloitu jäähdytys Merkkijonon sovitus Horspoolin algoritmi Ositus ja rekursio Rekursion toteutus Algoritmit 2 Kevät 2019 Luento 13 Ti 30.4.2019

Lisätiedot

Etsintä verkosta (Searching from the Web) T Datasta tietoon Heikki Mannila, Jouni Seppänen

Etsintä verkosta (Searching from the Web) T Datasta tietoon Heikki Mannila, Jouni Seppänen Etsintä verkosta (Searching from the Web) T-61.2010 Datasta tietoon Heikki Mannila, Jouni Seppänen 12.12.2007 Webin lyhyt historia http://info.cern.ch/proposal.html http://browser.arachne.cz/screen/

Lisätiedot

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi

Lisätiedot