EETU KUUSISTO PÄÄN ASENNON TUNNISTUS KUVASTA. Kandidaatintyö

Koko: px
Aloita esitys sivulta:

Download "EETU KUUSISTO PÄÄN ASENNON TUNNISTUS KUVASTA. Kandidaatintyö"

Transkriptio

1 EETU KUUSISTO PÄÄN ASENNON TUNNISTUS KUVASTA Kandidaatintyö Tarkastaja: Yliopistonlehtori Heikki Huttunen Jätetty tarkastettavaksi

2 i TIIVISTELMÄ EETU KUUSISTO: Pään asennon tunnistus kuvasta Tampereen teknillinen yliopisto Kandidaatintyö, 22 sivua Toukokuu 2015 Signaalinkäsittelyn ja tietoliikennetekniikan koulutusohjelma Pääaine: Signaalinkäsittely ja multimedia Tarkastaja: Yliopistonlehtori Heikki Huttunen Avainsanat: Histogram of Oriented Gradients, neuroverkko, random forest, tukivektorikone Ihmisen ja koneen välinen vuorovaikutus on tulevaisuudessa yhä tärkeämpää, kun älykkäät ympäristöt ja järjestelmät lisääntyvät. Yksi kanssakäymisen osa on sanaton viestintä ja eleiden tunnistaminen. Tässä työssä tutkittiin pään asennon tunnistusta kuvasta HOG-piirteiden perusteella. Pään asennon tunnistuksessa käytettiin apuna kolmea eri luokitinta, joista jokaisesta opetettiin kaksi eri versiota, toinen tunnistamaan pään vaakasuuntaisen kulman ja toinen tunnistamaan pystysuuntaisen kulman. Käytetyt luokittimet olivat neuroverkko, random forest sekä tukivektorikone. Tulokset osoittavat, että pään asento pystytään tunnistamaan kuvista melko luotettavasti HOG-piirteiden perusteella. Parhaat tulokset pään asentoa tunnistettaessa saavutettiin tukivektorikonetta käyttämällä. Saavutetut tulokset olivat yhteneviä muualla saavutettujen tuloksien kanssa.

3 ii ABSTRACT EETU KUUSISTO: Head pose estimation from image Tampere University of Technology Bachelor s Degree Programme in Signal Processing, 22 pages May 2015 Bachelor s Degree Programme in Signal Processing Major: Signal Processing Examiner: Lecturer Heikki Huttunen Keywords: Histograms of Oriented Gradients, Artificial Neural Network, Random Forest, Support Vector Machine Human-Computer interaction will be more and more important in future, as smart environments and systems become more popular and common. One part of this interaction is nonverbal communication and gestures. In this paper, head pose is estimated from images using Histogram of Oriented Gradients features. Head pose estimation was performed with three different classifier, of which two different versions were trained. One version for vertical head angles and another version for horizontal angles. Used classifiers were artificial neural network, random forest and support vector machine. Results showed that head pose can be estimated rather reliably from images with HOG features. The best head pose estimation results were achieved with support vector machine. The results obtained were convergent with the results achieved elsewhere.

4 iii ALKUSANAT Tämä työ on Tampereen teknillisen yliopiston signaalinkäsittelyn laitoksen kandidaatintyöseminaarin opinnäytetyö, joka on kirjoitettu keväällä Kiitokset ohjaajalleni Heikki Huttuselle arvokkaista kommenteista sekä hyvästä ohjauksesta. Kiitokset perheelleni ja suvulleni kannustuksesta, rohkaisemisesta ja ymmärtämisestä. Kiitokset kotikylän väelle vapaa-ajan aktiviteeteista. Kiitokset myös kaikille muille tähän työhön osallistuneille ja aikaisemmille opettajilleni. Tampereella, Eetu Kuusisto

5 iv SISÄLLYSLUETTELO 1. JOHDANTO KUVA-ANALYYSI JA LUOKITTELU Piirteiden laskeminen Neuroverkot Random forest Tukivektorikone Luokittelutarkkuuden arviointi AINEISTO JA TOTEUTUS TULOKSET Piirteiden vaikutus luokittelutulokseen Luokittimen vaikutus luokittelutulokseen YHTEENVETO LÄHTEET... 22

6 v LYHENTEET JA MERKINNÄT HCI HOG ICPR MAE SVM TUT UoCTTI Ihmisen ja koneenvälinen vuorovaikutus. engl. Human-Computer Interaction Reunahistogrammeihin perustuva piirre. engl. Histogram of Oriented Gradients Kansainvälinen hahmontunnistus konferenssi. engl.international Conference on Pattern Recognition Absoluuttinen keskivirhe. engl. Mean Absolute Error Tukivektorikone eli luokittelija, joka perustuu luokkien erottamiseen rajapinnan avulla. engl. Support Vector Machine Tampereen teknillinen yliopisto. engl. Tampere University of Technology Histogram of Oriented Gradients muunnelma

7 1 1. JOHDANTO Pään asennon tunnistaminen on ihmisille luonnollinen ja tärkeä kyky, joka vaikuttaa muun muassa ihmisten väliseen sosiaaliseen kanssakäymiseen. Siksi on luontevaa, että pään asentoa on viime aikoina pyritty lisääntyvissä määrin hyödyntämään ihmisen ja koneen välisessä vuorovaikutuksessa, tuomaan mukaan luonnollisemman kommunikointitavan. Jo nykyisin on kehitetty monia pään asentoa hyödyntäviä sovelluksia, kuten Oculus Rift sekä älykkäät ympäristöt, jotka seuraavat käyttäjän pään tilaa ja reagoivat siihen tarjoten käyttäjälle erilaisia aputoimintoja. Lisäksi autoihin on kehitetty kuljettajan tilaa seuraavia järjestelmiä [1], jotka varoittavat kuljettajaa huomion herpaantumisesta, sekä autoja joiden ajovalot suuntautuvat kuljettajan päänasennon ja katseen mukaan [2]. Ihmisille pään asennon tunnistaminen on helppoa, mutta koneille pään asennon tunnistaminen on huomattavasti hankalampaa. Pään asennon tunnistus muodostaa tärkeän tutkimusalueen konenäössä. Yleisesti pään asento pyritään selvittämään tulkitsemalla pään suuntaa ja sijaintia, mikä on haastavaa erilaisten muuttuvien tekijöiden vuoksi. Esimerkiksi silmälasit ja kampaus voivat vaikeuttaa pään asennon tunnistusta. Myös fyysiset olosuhteet luovat oman haasteensa asennon tunnistukseen, sillä olosuhteiden vaihtelu tuo mukanaan kuviin erilaisia muuttujia. Konenäön alalla on viime aikoina keskitytty erityisesti nopean ja tarkan pään asennon tunnistusmenetelmän kehittämiseen. Tässä työssä tutkitaan pään asennon tunnistamista kuvasta Histogram of Oriented Gradients -piirteiden (HOG) perusteella käyttäen arvioinnissa tukivektorikonetta, neuroverkkoa sekä random forest -luokitinta. Erityisesti työssä perehdytään HOG-piirteiden, sekä eri luokittimien parametrien valintaan sekä näiden vaikutukseen asennon arvion tarkkuudessa. Työssä kuvataan piirteiden muodostamisen ja luokituksen toimintaperiaatteet sekä näiden menetelmien taustalla olevat teoriat. HOG-piirteiden irrotus on alun perin Navneet Dalalin ja Bill Triggsin kehittämä menetelmä ihmisten tunnistamiseen kuvista [3]. Menetelmää on myöhemmin sovellettu onnistuneesti myös moniin muihin konenäköön liittyviin ongelmiin. Pään asennon tunnistamisessa HOG-piirteitä on sovellettu onnistuneesti useiden eri ryhmien toimesta ja muun muassa Tampereen teknillisellä yliopistolla järjestetty maailmanlaajuinen TUT Head Pose Estimation Challenge keräsi runsaasti osallistujia [4].

8 Työn alussa esitellään lyhyesti HOG-menetelmän, sekä tukivektorikoneen, neuroverkon ja random forest -luokittimien teoriaa. Tämän jälkeen siirrytään toteutuksen ja käytetyn aineiston kuvaamiseen. Luvussa 4 tarkastellaan ja vertaillaan eri parametreilla ja menetelmillä saatuja tuloksia. Lopussa esitetään johtopäätökset ja lyhyt yhteenveto työstä. 2

9 3 2. KUVA-ANALYYSI JA LUOKITTELU Tässä luvussa käsitellään pään asennon tunnistuksessa käytettyä piirteiden erottelumenetelmän, piirteiden luokittelumenetelmien sekä tulosten arviointimenetelmien teoriat omissa alaluvuissaan. Ensimmäisenä tarkastellaan piirteiden laskemista, tämän jälkeen perehdytään piirteiden pohjalta tapahtuvan luokittelun toimintaperiaatteisiin eri menetelmillä. Lopuksi tarkastellaan vielä luokittelun arviointimenetelmiä. 2.1 Piirteiden laskeminen Tässä työssä pään asennon tunnistaminen perustuu Histograms of Oriented Gradientspiirteisiin. Käytetty menetelmä perustuu normalisoitujen reunahistogrammien muodostamiseen kuvan gradienttien suunnista. Periaatteena on laskea kuvasta tarkasteltavan kohteen muoto. Kuvan 1 lohkokaaviossa on esitettynä HOG-piirteiden laskemisen eri vaiheet UoCTTI muunnelman mukaisesti [5]. Kuvassa 2 on esitetty millaiset HOGpiirteet saadaan laskettua esimerkkikuvasta. Värin ja gamman normalisointi Gradienttien laskenta Tekstuurienergian laskenta Paikallinen normalisointi lohkoittain Piirrevektorien laskenta Piirrevektorien normalisointi Kuva 1. Piirteiden muodostuksen vaiheet. Piirteiden laskemisessa käsiteltävä kuva ensin normalisoidaan värin ja gamman suhteen, minkä jälkeen kuva jaetaan pienempiin osiin, niin sanottuihin soluihin. Jokaiselle kuvapisteelle solussa lasketaan paikallinen yksiulotteinen histogrammi gradienttien suunnista ja reunan suunnista. Valaistuksen suhteen paremman invarianssin saamiseksi saadut arvot tavallisesti vielä normalisoidaan kontrastin suhteen. Tämä tapahtuu laskemalla paikallisten histogrammien energia useamman ympäröivän solun alueelta ja normalisoimalla kohdesolun arvot saadulla tuloksella [3]. Jokaisen solun histogrammi tallennetaan vektoriin, jolloin HOG-piirrevektori on valmis.

10 4 Kuva 2. Esimerkkikuva ja HOG-piirteet. Tässä työssä käytettiin alkuperäisen HOG menetelmän UoCTTI muunnelmaa. Muunnelma toimii pääpiirteissään kuteen alkuperäinenkin menetelmä, mutta gradienttien lisäksi solun ympäristöstä lasketaan myös tekstuurienergia [5]. 2.2 Neuroverkot Kun kuvasta on laskettu HOG-piirrevektori, sitä käytetään luokittimien opetusdatana. Tässä työssä keskitytään kolmeen erilaiseen luokittimeen: neuroverkkoon, random forest -luokittelijaan ja tukivektorikoneeseen. Neuroverkot kattavat käsitteenä monia erilaisia oppimismalleja ja metodeja, mutta tässä työssä on keskitytty käyttämään pääasiassa yksinkertaista yhden piilotason (engl. single hidden layer) neuroverkkoa. Tämän lisäksi tutkitaan myös kahden piilotason neuroverkkoa. Perusperiaatteeltaan neuroverkot ovat epälineaarisia tilastollisia malleja, joita kuvataan yleensä kaksitasoisella regressio- tai luokittelumallilla, kuten kuvassa 3 on esitetty [6].

11 5 Kuva 3. Neuroverkon malli. Kuten nimestä voi päätellä, neuroverkkotutkimuksen pohjana on ihmisaivojen malli, jotka pyrittiin toteuttamaan keinotekoisesti tietokoneilla. Kuten biologinen hermosto, myös luokittelussa käytettävät neuroverkot koostuvat neuroneista. Neuronit toimivat verkossa pieninä itsenäisinä laskentayksikköinä, jotka koostuvat synapseista, summaajasta ja aktivaatiofunktiosta, kuten kuvassa 4 on havainnollistettu. Kuva 4. Neuroni. Summaaja laskee yhteen kaikki neuronin sisääntuloihin eli synapseihin saapuvat herätteet, joilla voi olla erilaisia kytkentäkohtaisia painokertoimia. Sisääntulojen summaan lisätään tavallisesti vielä vakiotermi (engl. bias), minkä jälkeen saatu tulos syötetään aktivaatiofunktioon, joka laskee neuronin ulostulosignaalin. Aktivaatiofunktiona voi olla esimerkiksi logistinen funktio σ(v) = 1/(1 + e v ), missä v on funktion saama heräte. Logistisen funktion vaste on esitetty kuvassa 5.

12 6 Matemaattisesti neuronin malli voidaan kuvata seuraavasti: Z m = σ(b m + α m T X m ), m = 1,, M (2.1.) missä Z m on neuronin ulostulo, σ on aktivaatiofunktio, b 0m on vakiotermi, α m T on synapsin painokerroin, X m on edellisen kerroksen neuronin ulostulovektori tai neuroverkon syötevektori, m on neuronin indeksi ja M on neuronien lukumäärä [6] Kuva 5. Logistisen funktion vaste. Oppimismenetelmä neuroverkoissa on takaisinlevitysmenetelmä (engl. backpropagation). Takaisinlevitysmenetelmä algoritmi opettaa neuroverkon opetusjoukon piirteiden ja tunnettujen luokkien pohjalta. Opetus tapahtuu antamalla neuroverkolle opetusjoukon piirteitä ja laskemalla aloituskertoimilla ulostulo. Saatua ulostuloa verrataan haluttuun ulostuloon ja näiden pohjalta lasketaan virhe. Virheen pohjalta neuroverkon kertoimia muutetaan ja ulostulo lasketaan uudelleen. Virheen minimoinnissa etsitään niin sanottu loss function gradientin minimi kohtaa laskeutumalla satunnaisesta kohdasta lähtien alaspäin gradientissa. Kuvassa 6 on havainnollistettu kaksiulotteisella mallilla miten laskeutumisen satunnainen aloituskohta vaikuttaa tulokseen. Myös laskeutumisessa käytetty laskeutumisväli vaikuttaa lopputulokseen, esimerkiksi aivan pohjalle voi olla mahdotonta päästä, mikäli hyppy on liian suuri. Gradientilla laskeutumista jatketaan kunnes neuroverkon ulostulon ja tavoitellun ulostulon välinen virhe ei enää pienene.

13 7 2.3 Random forest Kuva 6. Havainnollistus gradientin minimin etsimisestä. Random forest on viimeaikoina suosiota saavuttanut koneoppimismenetelmä, joka esiteltiin ensimmäisen kerran vuonna 2001 Leo Breimanin artikkelissa Random Forests [7]. Menetelmän perustuu päätöspuihin, joista muodostetaan nimenmukaisesti metsä, eli opetusaineistosta luodaan useita erilaisia päätöspuita. Päätökset random forest muodostaa antamalla luokiteltavan datan jokaiselle päätöspuulle ja äänestämällä puiden kesken suosituinta luokkaa. Päätöspuu on yleinen koneoppimismenetelmä, jossa tavoitteena on luoda puumainen malli, joka ennustaa annetun aineiston luokan. Puussa jokaisessa solmu kohdassa tehdään vertailu jonkin annetun piirteen perusteella. Vertailun perusteella tehdään päätös mihin suuntaan puussa edetään opitun säännön mukaisesti. Puussa edetään päätöksien mukaan kunnes päästään puun loppuun. Esimerkiksi kuvassa 7 on kuvattu yksinkertainen päätöspuu, jossa päätellään vallitseva vuodenaika maassa olevan lumen ja lämpötilan pohjalta. Ensimmäisenä tarkastellaan onko maassa lunta, jos maassa on lunta puu antaa vastaukseksi talvi. Mikäli massa ei ole lunta, siirrytään puussa eteenpäin seuraavaan solmukohtaan, jossa tarkastellaan lämpötilaa. Mikäli lämpötila on yli 10 astetta, tulee vastaukseksi kesä ja jos lämpötila on alle 10 astetta tulee vastaukseksi kevät. Kuva 7. Yksinkertainen päätöspuu.

14 8 Päätöspuiden yhdistämisellä (engl. boosting) metsäksi pyritään estämään ylioppimista, sillä yksittäiset päätöspuut oppivat annetun opetusmateriaalin herkästi liian hyvin [5]. Periaatteena on luoda paljon heikkoja luokittimia, jotka sitten muunnetaan yhdeksi vahvemmaksi luokittimeksi ja näin vähentää ylioppimista ja varianssia. Päätöspuiden määrän lisäksi random forest -luokittimissä ylioppimista estetään myös valikoimalla opetusaineistosta satunnaisia näytteitä. Satunnaisotoksen valinta tehdään käytännössä niin, että jokainen otos valitaan koko aineistosta (engl. sampling with replacement), jolloin osa päätöspuista saa samojakin näytteitä. Lisäksi valituista näytteistä valitaan satunnaisesti luokitteluun vaikuttavat piirteet, mikä mahdollistaa useampia erilaisia päätöspuita. Random forest -luokittimen opettamiseen voidaan käyttää monia erilaisia algoritmeja kuten ID3, CART, CHAID sekä ID3:sta kehitetty C4.5. Pääpiirteissä random forest -algoritmi on pseudokoodina seuraava: 1. Valitaan satunnaisotos opetusaineistosta yksittäisen puun rakentamista varten. 2. Satunnainen päätöspuu rakennetaan solmu solmulta valitsemalla satunnaisesti M:stä piirteestä n piirrettä ja muodostamalla paras mahdollinen jako. 3. Luotu puu kasvatetaan täyteen mittaansa. 4. Toistetaan vaiheet kunnes on kasvatettu N puuta. 5. Kun puita on kasvatettu N kappaletta, luokitellaan annettu aineisto siihen luokkaan joka on saanut eniten ääniä. 2.4 Tukivektorikone Tukivektorikone eli SVM (engl. support vector machine) on lineaarinen luokitinmalli, joka perustuu kahden näytejoukon erottamiseen sovittamalla päätöstaso näiden väliin [8]. Tukivektorikoneen toiminta idea esitettiin jo 60-luvulla, mutta suurempaan suosioon se nousi vasta 90-luvulla, kun Bernhard Boser, Isabelle Guyon ja Vladimir Vapnik keksivät hyödyntää kerneltemppua (engl. kernel trick) joukkojen erottamisessa. Kerneltempussa näytejoukkoa käsitellään kernelfunktiolla, jonka avulla näytejoukko kyetään luokittelemaan paremmin lineaarisesti. Kernelfunktioita on useita erilaisia ja esimerkiksi tässä työssä käytettiin lineaarista kernelfunktiota k(x, y) = x T y + c. Kuvassa 8 on esitetty miten kernelfunktiota voidaan hyödyntää yksinkertaisessa yksiulotteisessa tapauksessa joukkojen erottamiseen. Kuvan tapauksessa pisteille voidaan antaa lukuarvot -1, 0 ja 1, joita ei voida yhdellä lineaarisella tasolla erottaa. Kernelfunktion avulla pisteet voidaan kuitenkin kuvata projisoituina pisteisiin -1,1; 0,0 ja 1,1. Näin projisoidut pisteet voidaan erottaa lineaarisella päätöstasolla.

15 9 Kuva 8. Kernelfunktion käyttö joukkojen erottamisessa. Käytännössä kerneltemppu tekee erottelun implisiittisesti eli todellisuudessa sisääntuloja ei projisoida, vaan erottelu tapahtuu korvaamalla sisätulon kernelillä. Näin erilaisten näytejoukkojen luokkarajat saadaan epälineaarisiksi ja itse erottelu voidaan toteuttaa lineaarisesti päätöstasoilla. Hyödyntämällä kernelfunktiota joukkojen erottelussa, saadaan luotua yhteys lineaarisen ja epälineaarisen menetelmän välille. Päätöstasoon perustuvasta erottelusta johtuen tukivektorikoneella useamman luokan erotteluun on kaksi erilaista mallia. Ensimmäinen malli perustuu yhden luokan vertaamiseen kaikkia muita luokkia vastaan (engl. one-versus-all). Tällöin näytteen sopivuutta kuhunkin jokaiseen testataan erikseen. Testaus suoritetaan siten, että valittua luokkaa verrataan kaikkien muiden luokkien muodostamaa suurempaa luokkaa vastaa ja saaduista tuloksista valitaan parhaan varmuuden saanut tulos. Tällöin on tärkeää, että tukivektorikone on säädetty oikein, jotta eri luokkien saamat tulokset ovat vertailukelpoisia keskenään, eikä muutama yksittäinen luokka pääse dominoimaan valintaa. Toinen mahdollinen luokittelumalli on verrata yhtä luokkaa kerrallaan kaikkiin muihin luokkiin (engl. one-versus-one). Tällöin luokittelun tulos määräytyy sen mukaan mikä luokka saa eniten voittoja näissä vertailuissa. Ongelmana tässä menetelmässä on sen laskennallinen vaativuus, sillä jokaisen luokan vertaaminen jokaiseen muuhun luokkaan voi etenkin suurilla luokkamäärillä vaatia paljon laskentatehoa. Kuva 9. Päätöstason etsiminen.

16 10 Pelkkä satunnaisen päätöstason valitseminen ei kuitenkaan riitä, vaan tukivektorikone pyrkii löytämään mahdollisimman suuren marginaalin päätöstason ja luokkien välille. Kuvassa 9 on esitetty miten kahden pistejoukon välille hahmotellaan toimiva päätöspinta. Ruskea taso T1 ei kelpaa päätöstasoksi, koska se ei kykene erottelemaan pistejoukkoja. Vihreä taso T2 sen sijaan kykenee erottelemaan pistejoukot, mutta marginaali pisteiden ja tason välillä jää varsin pieneksi. Violetti T3 taso sen sijaan kykenee luokittelemaan kaikki pisteet oikein ja huomattavasti suuremmalla marginaalilla. T3 päätöstason ympärille on vaalean sinisillä katkoviivoilla hahmoteltu päätöstason tukivektorit, joiden etäisyyttä 2 w (kuvassa 9 vaaleansininen viiva) pyritään minimoimaan. Tämä voidaan matemaattisesti esittää optimointi ongelmana, jonka tukivektorikone yrittää ratkaista. Yksinkertaistetusti yhtälö on seuraava: min w,ξ 1 2 w 2 + c ξ (2.2) missä w on luokittimen päätöstaso, c on cost parametri ja ξ on väärinluokittuvan näytteen etäisyys päätöspintaan [8]. Cost parametri vaikuttaa tukivektorikoneen optimointiin säätäen kuinka paljon väärin luokittuvilla näytteillä on merkitystä luokittimeen. Tukivektorikoneen opetusalgoritmi on verrattain monimutkainen, mutta siihen voi tutustua esimerkiksi viitteessä [8]. 2.5 Luokittelutarkkuuden arviointi Luokittelutarkkuuden arviointi on yleisesti melko haastavaa, sillä opetusjoukosta laskettuna virhe on usein liian optimistinen. Näin ollen on käytettävä muita menetelmiä virheen arviointiin. Lisäksi pään asennon tunnistuksessa haasteena on asennon tarkkuus ja sen suhteellisuus eri ihmisille. Esimerkiksi, kun pään asennon pitäisi olla suoraan vasempaan saattaa osa ihmisistä kääntää päätään vasempaan vähemmän, kuin on tarkoitus. Tällöin myös silmien asento ratkaisee ja koehenkilön näkökulmasta pään asento saattaa olla oikea, vaikka ulkopuolisen tarkkailijan mielestä asento olisikin epätäydellinen. Yksi mahdollisuus estää opetusaineistoa vaikuttamasta luokittelun arviointiin on aineiston jakaminen opetus- ja testausaineistoon. Vieläkin paremman arvion luokittelun tarkkuudesta voi saada jakamalla opetusaineisto usealla eri tavalla. Tässä työssä luokittelun tulosten arvioinnissa hyödynnetään yleisesti käytössä olevaa ristiinvalidointia (engl. cross-validation), joka on muodostunut standardimenetelmäksi. Ristiinvalidoinnissa satunnainen osa opetusaineistosta jätetään pois käytettäväksi testauksessa, jotta luokittelussa voidaan käyttää dataa, joka ei ole vaikuttanut luokittelijan opetuksessa.

17 11 Luokitteluun käytettävä data jaetaan K määrään yhtä suuria lohkoja kuten kuvassa 10, minkä jälkeen jokaista lohkoa käytetään vuorollaan luokittimen arviointiin, samalla kun muita osia käytetään luokittimen opettamiseen Opetus Opetus Testaus Opetus Opetus Kuva 10. Ristiinvalidoinnin datajako K:n arvolla 5. Datan jakamista K osaan kutsutaan K-kertaiseksi ristiinvalidoinniksi (engl. K-fold cross-validation). Ristiinvalidointi antaa arvion luokitteluvirheestä ξ, joka on määritelty kaavalla seuraavasti: ξ = 1 K L(y K i=1 i, f K(i) (x i )) (2.3) missä f tarkoittaa mallia, joka on opetettu ilman osaa i {1,2,, K}. K:n arvoksi valitaan tavallisesti joko 5 tai 10. [4] Pääpiirteissä ristiinvalidointi algoritmi on pseudokoodina seuraava: 1. Jaetaan aineisto satunnaisesti k:hon yhtä suureen osaan. 2. Valitaan yksi osista testaukseen. 3. Opetetaan luokittelija opetukseen varatulla aineistolla. 4. Testataan luokittelijaa testaukseen varatulla aineistolla ja tallennetaan saadut tulokset. 5. Toistetaan vaiheet k kertaa, siten että jokainen aineiston osa toimii vuorollaan testi aineistona. 6. Lasketaan saaduista tuloksista keskiarvo.

18 12 3. AINEISTO JA TOTEUTUS Työssä käytettiin Pointing'04 ICPR (International Conference on Pattern Recognition) Workshopissa käytettyä Head Pose Image Databasea 1, joka koostuu viidestätoista kuvaryhmästä. Jokainen kuvaryhmä sisältää kaksi 93 kuvan sarjaa koehenkilöstä katsomassa eri suuntiin, eli yhteensä kuvia on Kuvajoukon koehenkilöiden etninen alkuperä ja sukupuoli vaihtelevat, minkä lisäksi osa heistä käyttää silmälaseja. Esikäsittelynä jokaisesta kuvasta on poistettu ylimääräinen tausta, jolloin kasvot ovat kuvan keskiössä. Kuva 11. Esimerkkikuva aineistosta. Kuvissa pään asento on jaettu vaaka- ja pystykomponentteihin, jotka vaihtelevat -90 ja 90 asteen välillä taulukon 1 mukaisesti. Negatiivinen pystysuuntainen kulma kuvaa alaspäin katsomista ja vaakasuuntainen negatiivinen kulma puolestaan kuvaa vasemmalle katsovaa koehenkilöä. Esimerkiksi kuvan 11 koehenkilön kohdalla pystysuuntaisen akselin kulma on -15 ja vaakasuuntainen kulma -45. Taulukko 1. Pään asennon kulmat. Pään asennon kulmat Pystysuuntainen akseli -90, -60, -30, -15, 0, 15, 30, 60, 90 Vaakasuuntainen akseli -90, -75, -60, -45, -30, -15, 0, 15, 30, 45, 60, 75, 90 Kuvaustilanteessa koehenkilöitä pyydettiin istumaan tuolille kameran eteen ja säätämään tuoli siten, että kamera näkyy suoraan edessä kuvan 12 mukaisesti. Tämän jälkeen heitä pyydettiin katsomaan huoneen seinille asetettuihin merkkeihin liikuttamatta silmiä. Merkit olivat asetettu siten, että koehenkilöt katsoivat vaakasuunnassa kolmeentoista ja pystysuunnassa yhdeksään kulmaan taulukon 1 mukaisesti. 1 Saatavissa:

19 13 Kuva 12. Kuvausjärjestely ylhäältäpäin kuvattuna. Työ toteutettiin MATLAB ohjelmiston versiolla R2014a, hyödyntäen pääasiassa ohjelman valmiina tarjoamia kirjastoja. Poikkeuksena HOG-piirteiden laskennassa käytettiin avoimen lähdekoodin VLFeat kirjaston 2 HOG-piirteiden laskemiseen tarkoitettua vl_hog funktiota. Lisäksi tukivektorikoneen kohdalla hyödynnettiin laajasti käytettyä avoimen lähdekoodin LIBSVM koneoppimiskirjastoa 3. Työssä jokainen opetusaineiston kuva ladattiin ohjelman muistiin samalla, kun aineiston kuvien tiedostonimistä kerättiin tiedot kuvien koehenkilöiden pään asennosta. Tämän jälkeen jokaisesta kuvasta laskettiin VLFeatin funktiolla HOG-piirrevektori. Saadulla piirrevektorilla suoritettiin päänasennon tunnistus neuroverkolla, random forestilla sekä tukivektorikoneella. Koska tavoitteena oli saada piirteistä kaksi kulmaa, jokaisesta luokittimesta opetettiin kaksi eri versiota, toinen vakkasuuntaisiin ja toinen pystysuuntaisiin kulmiin. Molemmat opetetut luokittimet saivat samat parametrit ja aineiston. Saatuja tuloksia arvioitiin 5-kertaisella ristiinvalidoinnilla MAE arvon perusteella. Luokittimia vertailtaessa kaikkia mahdollisia parametreja ja niiden yhdistelmiä ei testattu, vaan jokaisesta luokittimesta valittiin tutkittavaksi parametri, jonka vaikutusta asennon tunnistukseen tutkittiin. Poikkeuksena neuroverkkojen kohdalla testattiin piiloneuronien lisäämisen lisäksi myös miten piiloneuronitasojen lisääminen vaikuttaa luokitteluun. Testatut parametrit olivat seuraavat: Neuroverkko o Piiloneuroneiden lukumäärä o Tasojen lukumäärä Random forest o Päätöspuiden lukumäärä SVM o Cost parametri 2 Saatavissa: 3 Saatavissa:

20 14 4. TULOKSET Tuloksissa on keskitytty pääasiassa vertailemaan HOG-piirteiden vaikutusta sekä luokittimia, eikä niinkään säätämään yksittäisiä parametreja tai luokittimia huippuunsa. Tuloksissa ilmenevät vaihtelut johtuvat pääsääntöisesti eri luokittimien opetuksessa olevasta satunnaisuudesta, minkä lisäksi myös ristiinvalidoinissa on mukana jonkin verran satunnaisuutta. Vertailukohtana tuloksissa toimii TUT Head Pose Estimation Challenge -kilpailun parhaiden ryhmien tulokset. 4.1 Piirteiden vaikutus luokittelutulokseen HOG-piirteiden osalta tutkittiin solun koon, sekä gradienttien mahdollisten suuntien määrän vaikutusta luokittelutulokseen. Kuvassa 13 on havainnollistettu testattujen parametrien vaikutusta piirrevektoreihin. Lisäksi parametrien vaikutusta HOG-piirteiden laskenta-aikaan mitattiin. Saadut ajat on esitetty kuvassa 14. Kuva 13. Parametrienvaikutus HOG-piirteisiin. a) esimerkkikuva. b) solun koko 9, gradienttisuuntien määrä 9. c) 30, 9. d) 20, 4. e) 20, 21. f) 12, 21.

21 MAE Suoritusaika (s) HOG solun koko Gradienttien suuntien määrä Kuva 14. HOG-parametrien vaikutus suoritusaikaan. Merkittävin suoritusaikaan vaikuttava tekijä HOG-piirteiden laskennassa on solun koko. Kun solujen koko pienenee, myös laskennan määrä lisääntyy, mikä näkyy suoraan laskenta-ajan kasvamisessa. Gradienttien suuntien määrän kohdalla puolestaan vaikutus suoritusaikaan on päinvastainen. Mitä enemmän suuntia on käytössä, sitä pidempään laskenta kestää Neuroverkko Random forest SVM HOG solun koko Kuva 15. HOG-solun koon vaikutus luokittelu tulokseen. Testeissä solujen koon havaittiin vaikuttavan merkittävästi luokittelun tulokseen, kuten kuvassa 15 on esitetty. Solujen koon kasvattaminen tarkoittaa käytännössä vähemmän piirteitä kuvista, sekä nopeampaa piirteiden laskenta-aikaa. Liian pienet solut voivat

22 MAE 16 toisaalta aiheuttaa liiallista vaihtelua piirteisiin, kun taas liian suuret solut voivat kadottaa tarpeellista tietoa. Neuroverkon ja random forest -luokittimien kohdalla tuloksista voidaan havaita, että optimaalinen solun koko on noin 30. Liian pieni tai suuri solu aiheuttavat suurempaa virhettä, ja erityisesti neuroverkko kärsii suuremmista soluista. Tukivektorikoneen kohdalla puolestaan HOG-solun koko vaikuttaa hieman eri tavalla. Tukivektorikone pystyy hyödyntämään pienempiä soluja huomattavasti paremmin kuin neuroverkko tai random forest. Kuitenkin solujen kokoa kasvatettaessa yli kolmenkymmenen, alkaa tukivektorikoneen luokittelu tulos heikentyä, kun taas neuroverkko ja random forest saavuttivat parhaimpia tuloksiaan Neuroverkko Random forest SVM Gradienttien suuntien määrä Kuva 16. Gradienttien mahdollisten suuntien määrän vaikutus luokittelutulokseen. Gradientti kulmien vaikutus luokittelu tulokseen ei ole yhtä suuri kuin solun koolla, mutta joitakin vaikutuksia on kuitenkin havaittavissa. Saadut tulokset on esitetty kuvassa 16. Kun mahdollisia gradienttikulmia on käytössä enemmän, saavat luokittimet myös enemmän tietoa kustakin solusta. Neuroverkon ja random forest luokittimen kohdalla on havaittavissa lievää tulosten heikentymistä suuntien kasvaessa, kun taas tukivektori koneen kohdalla tulokset pysyvät melko tasaisina alun suurien arvojen jälkeen. 4.2 Luokittimen vaikutus luokittelutulokseen Ennen testausta hypoteesina oli, että kaikki luokittimet pääsisivät kutakuinkin samalle tasolle. Testattaessa kuitenkin osoittautui, että tukivektorikone kykeni parhaiten luokittelemaan annetun aineiston. Neuroverkko puolestaan osoittautui hieman random forest - luokitinta paremmaksi, joskin tulokset vaihtelivat parametrien mukaan.

23 17 Vertailukohtana toimivassa TUT Head Pose Estimation Challenge -kilpailun tuloksissa parhaat ryhmät saavuttivat omilla menetelmillään noin 4,38-4,77 MAE virheen [4]. Kuitenkin erona tässä työssä saavutettuihin tuloksiin kilpailun ryhmät eivät saaneet itse suorittaa HOG-piirteiden irrotusta kuvista, vaan saivat käyttöönsä valmiiksi annetut arvot. Lisäksi kilpailun tuloksiin vaikutti huomattavasti myös datan jakautuminen opetus- ja testausdataan, joten kilpailuryhmien tulokset ovat enemmän viitteellisiä. Taulukko 2. Luokittimien MAE virheet. Sarakkeen paras tulos lihavoitu. Luokitin Vaakasuuntainen virhe Pystysuuntainen virhe Virhekeskiarvo SVM 4,93±0,43 2,64±0,48 3,87±1,28 Neuroverkko (20 piiloneuronia kahdella tasolla) Random forest (100 päätöspuuta) 5,37±0,49 4,02±0,47 4,69±0,84 6,97±0,37 5,56±0,63 6,27±0,89 TOP-6-median 5,04 3,35 4,20 Taulukossa 2 on yhteenvetona luokittelusta saatuja tuloksia. Vertailuna TUT Head Pose Estimation Challenge kilpailun tuloksiin toimii TOP-6-median rivi, jossa on kerätty kilpailun kuuden parhaan joukkueen mediaani tulos. Kuten taulukosta 2 nähdään, tässä työssä saadut tulokset ovat melko lähellä kilpailun parhaiden tiimien tuloksia ja tukivektorikoneen tapauksessa jopa parempia. Erityisesti pystysuuntaisen kulman kohdalla tukivektorikone saavuttaa todella hyviä tuloksia verrattuna kilpailussa saavutettuihin tuloksiin. Vaakasuuntaisen kulman osalta tukivektorikone saavuttaa myös hyviä tuloksia verrattuna kilpailussa olleisiin tuloksiin, häviten ainoastaan neuroverkkoon perustuneelle luokittelijalle, joka saavutti MAE-virheen 4,78 [4].

24 MAE MAE Pystysuunta Vaakasuunta Keskiarvo Random forest puiden määrä Kuva 17. Puiden määrän vaikutus random forest -luokittimen tuloksiin. Random forest luokitimen kohdalla tutkittiin päätöspuiden määrän vaikutusta luokittelutulokseen. Kuten kuvasta 17 näkyy, puiden määrällä on selkeästi merkitystä saatuihin luokittelutuloksiin. Lisäämällä päätöspuiden määrää luokittelu tarkkuus paranee jonkin verran, joskin samalla myös suoritusaika kasvaa Pystysuunta Vaakasuunta Keskiarvo SVM cost Kuva 18. SVM cost parametrin vaikutus luokittelutulokseen.

25 MAE 19 Tukivektorikoneen kohdalla tarkastelussa oli cost parametri, joka vaikuttaa tukivektorikoneen optimointiin säätäen kuinka paljon väärin luokittuvilla näytteillä on merkitystä luokitteluun kuten luvussa 2.4 on esitetty. Tässä työssä parametrin vaikutusta tutkittiin hieman tavallista suppeammin, tutkien parametria vain arvoilla väliltä kymmenyksen välein, kun tavallisesti cost parametria kasvatetaan kymmenen potensseina. Saadut tulokset ovat esitettynä kuvassa 18. Kuitenkin jo näistä tuloksista on nähtävissä, että minimivirhe saavutetaan kun parametrin arvoksi valitaan hieman yli yksi. Myöskään tulosten hajontaan cost parametrin valinnalla ei vaikuta olevan juurikaan vaikutusta Pystysuunta Vaakasuunta Keskiarvo Piiloneuronien lukumäärä Kuva 19. Piiloneuronien määrän vaikutus neuroverkon luokittelutulokseen. Neuroverkon osalta tutkittiin piiloneuronien määrän vaikutusta luokittelutulokseen. Saaduista tuloksista havaitaan piiloneuronien määrän vaikuttavan hieman yllättävästi luokittelutulokseen, heikentäen tulosta, kun piiloneuronien määrää kasvatetaan. Saadut tulokset ovat esitetty kuvassa 19. Tuloksen heikentyminen johtuu pääasiassa vaakasuuntaisista kulmista, joiden kohdalla neuronimäärän kasvattaminen heikentää tulosta. Pystysuuntaisilla kulmilla luokittelun tulos ei juuri heikkene piiloneuronien kasvaessa, vaan jopa paranee paikoittain. Lisättäessä toinen piiloneuronitaso neuroverkon luokittelu tarkkuus paranee jonkin verran, kuten kuvassa 20 on esitetty. Muutoin tulokset vastaavat melko paljon yhdellä tasolla saatuja tuloksia.

26 MAE Pystysuunta Vaakasuunta Keskiarvo Piiloneuronien lukumäärä kahdella tasolla Kuva 20. Kahden tason piiloneuronien määrän vaikutus luokittelutulokseen. Kuten saaduista tuloksista on nähtävissä, vaakasuuntaisen kulman luokittelu on vaikeampaa, kuin pystysuuntaisenkulman. Tämä johtuu pääasiassa vaakakulmien suuremmasta mahdollisesta määrästä, jolloin luokittimilla on enemmän mahdollisuuksia erehtyä. Taulukko 3. Luokitimien suuntaa-antavia suoritusaikoja. Sarakkeen paras tulos lihavoitu. Luokitin Opetus 2232 kuvaa (s) Luokittelu 558 kuvaa (s) Neuroverkko (20 piiloneuronia) 4 12 Random forest (100 päätöspuuta) 46 2 SVM (cost = 1) 5 2 Opetuksen suoritusaikoja vertailtaessa neuroverkko oli nopein, joskin myös tukivektorikone suoriutui opetuksesta nopeasti. Hitain menetelmä oli random forest, jonka opetus kesti selkeästi pidempään kuin kahden muun luokittimen. Luokitteluajoissa sen sijaan neuroverkko oli selkeästi hitain. Random forest ja tukivektorikone puolestaan olivat lähes yhtä nopeita luokittelussa. Kaikkien luokittimien kohdalla parametrien valinta vaikuttaa jonkin verran suoritusaikaan. Parametrien lisäksi myös laitteisto, jolla opetus ja luokittelu suoritetaan vaikuttaa suoritusnopeuteen. Suuntaa-antavia suoritusaikoja on kirjattu taulukkoon 3.

27 21 5. YHTEENVETO Tässä työssä tavoitteena oli tutkia HOG-piirteiden vaikutusta pään asennon luokitteluun. Lisäksi selvitettiin eri luokittimien ja niiden parametrien vaikutusta asennon tunnistukseen. HOG-piirteillä havaittiin myös olevan merkittäviä vaikutuksia luokittelu tulokseen. Tukivektorikoneen kohdalla pieni solunkoko tuotti parhaat tulokset, kun taas neuroverkko ja random forest -luokittimet vaativat selvästi suurempia soluja saavuttaakseen hyviä tuloksia. Gradienttien suuntien määrällä puolestaan ei ollut yhtä suurta vaikutusta tuloksiin. Kulmien suhteen suurin merkitys oli sillä, että niitä oli riittävästi, eli noin 5, jolloin luokittelijat saivat riittävästi aineistoa. Kun kulmia oli käytössä riittävästi tulokset eivät tukivektorikoneen kohdalla enää merkittävästi muuttuneet. Neuroverkko ja random forest luokittimien tulokset kärsivät hieman, mikäli kulmia oli käytössä runsaasti. Ennen testausta hypoteesina oli, että kaikki luokittimet pääsisivät kutakuinkin samalle tasolle. Testattaessa kuitenkin osoittautui, että tukivektorikone kykeni parhaiten luokittelemaan annetun aineiston. Neuroverkko puolestaan osoittautui hieman random forest - luokitinta paremmaksi, joskin tulokset vaihtelivat parametrien mukaan. Saadut tulokset olivat hyviä verrattuna muualla saavutettuihin tuloksiin ja tukivektorikone saavutti jopa parempia tuloksia. Tuloksissa vaakasuuntaisten kulmien havaittiin olevan huomattavasti vaikeampia luokitella, mikä osaltaan johtui useammasta mahdollisesta kulmasta suhteessa pystysuuntaisiin kulmiin. Rajallisen ajan sekä laskentatehon vuoksi kaikkia mahdollisia parametreja tai parametriyhdistelmiä ei kyetty käymään läpi, minkä vuoksi tuloksia on luultavasti jonkin verran mahdollista parantaa. Esimerkiksi neuroverkoilla yhdistelemällä erikokoisia piiloneuronitasoja voisi olla mahdollista luoda malli, joka luokittelisi pään asennon vieläkin paremmin. Laskentatehon kasvaessa voi lisätä päätöspuiden määrää random forest luokittelijassa, jolloin tulokset todennäköisesti paranevat. Toisaalta myös tukivektorikonetta on mahdollista säätää vieläkin paremmaksi ja esimerkiksi erilaisilla kernelfunktioilla voi saavuttaa vielä parempia tuloksia. Lisäksi erilaisia opetusdataan kohdistuvia augmentointi menetelmiä hyödyntämällä lienee mahdollista parantaa nyt saatuja tuloksia, vaikka tässä työssä ei augmentointi menetelmiä käytettykään. Esimerkiksi peilaamalla, vääntelemällä tai rajaamalla opetusaineiston kuvia, saadaan lisättyä luokittimien opetukseen käytettävän datan määrä.

28 22 LÄHTEET [1] S. Borhade, M. Shah, P. Jadhav, D. Rajurkar, A. Bhor, Advanced driver assistance system, Sensing Technology (ICST), Sixth International Conference on, pp [2] S. Hucknall, Guiding Light: Eye-Tracking Technology from Opel/Vauxhall, [WWW]. [viitattu ] Saatavissa julkisesti: /vauxhall/03-19-eye-tracking-technology.html [3] N. Dalal, B. Triggs, Histograms of oriented gradients for human detection, Computer Vision and Pattern Recognition, CVPR IEEE Computer Society Conference on vol. 1, pp [4] H. Huttunen, K. Chen, A. Thakur, A. Krohn-Grimberghe, O. Gencoglu, X. Ni, M. Al-Musawi, L. Xu, H. Jacob van Veen, Computer Vision for Head Pose Estimation: Review of a Competition, [5] P.F. Felzenszwalb, R.B. Girshick, D. McAllester, D. Ramanan, Object Detection with Discriminatively Trained Part-Based Models, Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2010, Vol. 32, No. 9, pp [6] T. Hastie, R. Tibshirani, J. Friedman, The Elements of Statistical Learning, Second Edition ed. Springer New York, [7] L. Breiman, Random Forests, Machine Learning, 2001, Vol. 45, No. 1, pp [8] C. Chang, C. Lin, LIBSVM: A Library for Support Vector Machines, 2013.

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat 1 Tukivektoriluokittelija Tukivektorikoneeseen (support vector machine) perustuva luoikittelija on tilastollisen koneoppimisen teoriaan perustuva lineaarinen luokittelija. Perusajatus on sovittaa kahden

Lisätiedot

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään

Lisätiedot

Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia.

Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia. 1 Luokittelijan suorituskyvyn optimointi Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia. A. Piirteen valinnan menetelmiä

Lisätiedot

Puumenetelmät. Topi Sikanen. S ysteemianalyysin. Laboratorio Aalto-yliopiston teknillinen korkeakoulu

Puumenetelmät. Topi Sikanen. S ysteemianalyysin. Laboratorio Aalto-yliopiston teknillinen korkeakoulu Puumenetelmät Topi Sikanen Puumenetelmät Periaate: Hajota ja hallitse Jaetaan havaintoavaruus alueisiin. Sovitetaan kuhunkin alueeseen yksinkertainen malli (esim. vakio) Tarkastellaan kolmea mallia Luokittelu-

Lisätiedot

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.

Lisätiedot

Tekstuurintunnistuksen lyhyt oppimäärä. Ts. pari tapaa erottaa tiiliseinä pensaasta.

Tekstuurintunnistuksen lyhyt oppimäärä. Ts. pari tapaa erottaa tiiliseinä pensaasta. Tekstuurintunnistuksen lyhyt oppimäärä Ts. pari tapaa erottaa tiiliseinä pensaasta. Mitä on tekstuuri? Vaikea määritellä, mutta: Pintakuvio Ornamentti tuntu kuviointi Miksi tämän pitäisi kiinnostaa? (Maantienmerkkausrobotti)

Lisätiedot

Harha mallin arvioinnissa

Harha mallin arvioinnissa Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö

Lisätiedot

monitavoitteisissa päätöspuissa (Valmiin työn esittely) Mio Parmi Ohjaaja: Prof. Kai Virtanen Valvoja: Prof.

monitavoitteisissa päätöspuissa (Valmiin työn esittely) Mio Parmi Ohjaaja: Prof. Kai Virtanen Valvoja: Prof. Epätäydellisen preferenssiinformaation hyödyntäminen monitavoitteisissa päätöspuissa (Valmiin työn esittely) Mio Parmi 15.1.2018 Ohjaaja: Prof. Kai Virtanen Valvoja: Prof. Kai Virtanen Tausta Päätöspuu

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN

Lisätiedot

S09 04 Kohteiden tunnistaminen 3D datasta

S09 04 Kohteiden tunnistaminen 3D datasta AS 0.3200 Automaatio ja systeemitekniikan projektityöt S09 04 Kohteiden tunnistaminen 3D datasta Loppuraportti 22.5.2009 Akseli Korhonen 1. Projektin esittely Projektin tavoitteena oli algoritmin kehittäminen

Lisätiedot

ImageRecognition toteutus

ImageRecognition toteutus ImageRecognition toteutus Simo Korkolainen 27 kesäkuuta 2016 Projektin tarkoituksena on tehdä ohjelma, joka opettaa neuroverkon tunnistamaan kuvia backpropagation-algoritmin avulla Neuroverkon opetuksessa

Lisätiedot

S-114.3812 Laskennallinen Neurotiede

S-114.3812 Laskennallinen Neurotiede S-114.381 Laskennallinen Neurotiede Projektityö 30.1.007 Heikki Hyyti 60451P Tehtävä 1: Virityskäyrästön laskeminen Luokitellaan neuroni ensin sen mukaan, miten se vastaa sinimuotoisiin syötteisiin. Syöte

Lisätiedot

NIKO VUORINEN POLKUPYÖRIEN ETSIMINEN VALOKUVISTA KÄYTTÄEN LATENT SVM -MENETELMÄÄ. Kandidaatintyö

NIKO VUORINEN POLKUPYÖRIEN ETSIMINEN VALOKUVISTA KÄYTTÄEN LATENT SVM -MENETELMÄÄ. Kandidaatintyö NIKO VUORINEN POLKUPYÖRIEN ETSIMINEN VALOKUVISTA KÄYTTÄEN LATENT SVM -MENETELMÄÄ Kandidaatintyö Tarkastaja: Heikki Huttunen 12.12.2014 I TIIVISTELMÄ TAMPEREEN TEKNILLINEN YLIOPISTO Signaalinkäsittelyn

Lisätiedot

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Nelli Salminen nelli.salminen@helsinki.fi D433 Neuraalimallinnuksen osuus neljä luentokertaa, muutokset alla olevaan suunnitelmaan todennäköisiä

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN

Lisätiedot

Laskennallinen data-analyysi II

Laskennallinen data-analyysi II Laskennallinen data-analyysi II Ella Bingham, ella.bingham@cs.helsinki.fi Kevät 2008 Muuttujien valinta Kalvot perustuvat Saara Hyvösen kalvoihin 2007 Laskennallinen data-analyysi II, kevät 2008, Helsingin

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

Diskriminanttianalyysi I

Diskriminanttianalyysi I Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi

Lisätiedot

Kognitiivinen mallintaminen. Nelli Salminen

Kognitiivinen mallintaminen. Nelli Salminen Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen

Lisätiedot

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö Tällä kerralla ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 19.2. Nelli Salminen nelli.salminen@helsinki.fi D433 vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS TERMINATOR SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA KOORDINAATTIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA (R,G,B). ÄÄNI VASTAAVASTI MUUTTUJAN

Lisätiedot

Luku 8. Aluekyselyt. 8.1 Summataulukko

Luku 8. Aluekyselyt. 8.1 Summataulukko Luku 8 Aluekyselyt Aluekysely on tiettyä taulukon väliä koskeva kysely. Tyypillisiä aluekyselyitä ovat, mikä on taulukon välin lukujen summa tai pienin luku välillä. Esimerkiksi seuraavassa taulukossa

Lisätiedot

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä

Lisätiedot

Avainsanojen poimiminen Eeva Ahonen

Avainsanojen poimiminen Eeva Ahonen Avainsanojen poimiminen 5.10.2004 Eeva Ahonen Sisältö Avainsanat Menetelmät C4.5 päätöspuut GenEx algoritmi Bayes malli Testit Tulokset Avainsanat Tiivistä tietoa dokumentin sisällöstä ihmislukijalle hakukoneelle

Lisätiedot

SGN Signaalinkäsittelyn perusteet Välikoe Heikki Huttunen

SGN Signaalinkäsittelyn perusteet Välikoe Heikki Huttunen SGN- Signaalinkäsittelyn perusteet Välikoe.5.4 Heikki Huttunen Tentissä ja välikokeessa saa käyttää vain tiedekunnan laskinta. Tenttikysymyksiä ei tarvitse palauttaa. Sivuilla -3 on. Sivuilla 4-5 on. Sivulla

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3. luento 17.11.2017 Neuroverkon opettaminen (ohjattu oppiminen) Neuroverkkoa opetetaan syöte-tavoite-pareilla

Lisätiedot

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä

Lisätiedot

Tee-se-itse -tekoäly

Tee-se-itse -tekoäly Tee-se-itse -tekoäly Avainsanat: koneoppiminen, tekoäly, neuroverkko Luokkataso: 6.-9. luokka, lukio, yliopisto Välineet: kynä, muistilappuja tai kertakäyttömukeja, herneitä tms. pieniä esineitä Kuvaus:

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

SGN-1251 Signaalinkäsittelyn sovellukset Välikoe Heikki Huttunen

SGN-1251 Signaalinkäsittelyn sovellukset Välikoe Heikki Huttunen SGN-5 Signaalinkäsittelyn sovellukset Välikoe.. Heikki Huttunen Tentissä ja välikokeessa saa käyttää vain tiedekunnan laskinta. Tenttikysymyksiä ei tarvitse palauttaa. Sivuilla - on. Sivuilla 4-6 on. Vastaa

Lisätiedot

MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ

MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ 24.9.2019 HYVÄN VASTAUKSEN PIIRTEITÄ Alustavat hyvän vastauksen piirteet on suuntaa-antava kuvaus kokeen tehtäviin odotetuista vastauksista ja tarkoitettu ensisijaisesti

Lisätiedot

Tekoäly ja koneoppiminen metsävaratiedon apuna

Tekoäly ja koneoppiminen metsävaratiedon apuna Tekoäly ja koneoppiminen metsävaratiedon apuna Arbonaut Oy ja LUT University 26. marraskuuta 2018 Metsätieteen päivä 2018 Koneoppimisen kohteena ovat lukujen sijasta jakaumat Esimerkki 1 Koneoppimisessa

Lisätiedot

Harjoitus 7: NCSS - Tilastollinen analyysi

Harjoitus 7: NCSS - Tilastollinen analyysi Harjoitus 7: NCSS - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tilastollinen testaus Testaukseen

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin

Lisätiedot

Aki Taanila YHDEN SELITTÄJÄN REGRESSIO

Aki Taanila YHDEN SELITTÄJÄN REGRESSIO Aki Taanila YHDEN SELITTÄJÄN REGRESSIO 26.4.2011 SISÄLLYS JOHDANTO... 1 LINEAARINEN MALLI... 1 Selityskerroin... 3 Excelin funktioita... 4 EKSPONENTIAALINEN MALLI... 4 MALLIN KÄYTTÄMINEN ENNUSTAMISEEN...

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 2. luento 10.11.2017 Keinotekoiset neuroverkot Neuroverkko koostuu syöte- ja ulostulokerroksesta

Lisätiedot

SSL syysseminaari 29.10.2013 Juha Hyssälä

SSL syysseminaari 29.10.2013 Juha Hyssälä SSL syysseminaari 29.10.2013 Juha Hyssälä Lääketieteellisessä tutkimuksessa on perinteisesti käytetty elinaika-analyysissä Coxin suhteellisen vaaran mallia ja/tai tämän johdannaisia. Kyseinen malli kuitenkin

Lisätiedot

Polaarisatelliittidataan perustuva lumentunnistusalgoritmi (valmiin työn esittely)

Polaarisatelliittidataan perustuva lumentunnistusalgoritmi (valmiin työn esittely) Polaarisatelliittidataan perustuva lumentunnistusalgoritmi (valmiin työn esittely) 24.01.2011 Ohjaaja: Niilo Siljamo, Ilmatieteen Laitos Valvoja: Harri Ehtamo Esityksen sisältö Termejä Tausta Menetelmät

Lisätiedot

Algoritmit 1. Luento 3 Ti Timo Männikkö

Algoritmit 1. Luento 3 Ti Timo Männikkö Algoritmit 1 Luento 3 Ti 17.1.2017 Timo Männikkö Luento 3 Algoritmin analysointi Rekursio Lomituslajittelu Aikavaativuus Tietorakenteet Pino Algoritmit 1 Kevät 2017 Luento 3 Ti 17.1.2017 2/27 Algoritmien

Lisätiedot

1. LINEAARISET LUOKITTIMET (jatkoa)

1. LINEAARISET LUOKITTIMET (jatkoa) 1. LINEAARISET LUOKITTIMET (jatkoa) 1.1 Tukivektorikone ( A Tutorial on Support Vector Machines for Pattern Recognition, http://www.kernel-machines.org/papers/burges98.ps.gz) Tukivektorikoneen ( Support

Lisätiedot

Logistinen regressio, separoivat hypertasot

Logistinen regressio, separoivat hypertasot Logistinen regressio, separoivat hypertasot Topi Sikanen Logistinen regressio Aineisto jakautunut K luokkaan K=2 tärkeä erikoistapaus Halutaan mallintaa luokkien vedonlyöntikertoimia (odds) havaintojen

Lisätiedot

1, kun m = 0 ja n = 0, 0, muulloin.

1, kun m = 0 ja n = 0, 0, muulloin. Luku 1 Digitaalinen kuvankäsittely Tässä kappaleessa luodaan lyhyt katsaus digitaaliseen kuvankäsittelyyn ja joihinkin sen sovelluksiin. Yksinkertaisimmillaan kuvankäsittelyä voidaan pitää perusmenetelmien

Lisätiedot

Lineaariset luokittelumallit: regressio ja erotteluanalyysi

Lineaariset luokittelumallit: regressio ja erotteluanalyysi Lineaariset luokittelumallit: regressio ja erotteluanalyysi Aira Hast Johdanto Tarkastellaan menetelmiä, joissa luokittelu tehdään lineaaristen menetelmien avulla. Avaruus jaetaan päätösrajojen avulla

Lisätiedot

Tekoäly ja alustatalous. Miten voit hyödyntää niitä omassa liiketoiminnassasi

Tekoäly ja alustatalous. Miten voit hyödyntää niitä omassa liiketoiminnassasi Tekoäly ja alustatalous Miten voit hyödyntää niitä omassa liiketoiminnassasi AI & Alustatalous AI Digitaalisuudessa on 1 ja 0, kumpia haluamme olla? Alustatalouden kasvuloikka Digitaalisen alustatalouden

Lisätiedot

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 3B Tilastolliset datajoukot Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Lukuvuosi 2016

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 4. luento 24.11.2017 Neuroverkon opettaminen - gradienttimenetelmä Neuroverkkoa opetetaan syöte-tavoite-pareilla

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS AI-TUTKIJAN URANÄKYMIÄ AJATUSTENLUKUA COMPUTER VISION SIGNAALINKÄSITTELY KUVA VOIDAAN TULKITA MUUTTUJIEN (X,Y) FUNKTIONA. LÄHDE: S. SEITZ VÄRIKUVA KOOSTUU KOLMESTA KOMPONENTISTA

Lisätiedot

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 3B Tilastolliset datajoukot Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Lukuvuosi 2016

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille

Lisätiedot

Algoritmi I kuvioiden ja niille johtavien ajourien erottelu. Metsätehon tuloskalvosarja 7a/2018 LIITE 1 Timo Melkas Kirsi Riekki Metsäteho Oy

Algoritmi I kuvioiden ja niille johtavien ajourien erottelu. Metsätehon tuloskalvosarja 7a/2018 LIITE 1 Timo Melkas Kirsi Riekki Metsäteho Oy Algoritmi I kuvioiden ja niille johtavien ajourien erottelu Metsätehon tuloskalvosarja 7a/2018 LIITE 1 Timo Melkas Kirsi Riekki Metsäteho Oy Algoritmi I kuvioiden ja niille johtavien ajourien erottelu

Lisätiedot

Satunnaisalgoritmit. Topi Paavilainen. Laskennan teorian opintopiiri HELSINGIN YLIOPISTO Tietojenkäsittelytieteen laitos

Satunnaisalgoritmit. Topi Paavilainen. Laskennan teorian opintopiiri HELSINGIN YLIOPISTO Tietojenkäsittelytieteen laitos Satunnaisalgoritmit Topi Paavilainen Laskennan teorian opintopiiri HELSINGIN YLIOPISTO Tietojenkäsittelytieteen laitos Helsinki, 23. helmikuuta 2014 1 Johdanto Satunnaisalgoritmit ovat algoritmeja, joiden

Lisätiedot

Miehittämättömän lennokin ottamien ilmakuvien käyttö energiakäyttöön soveltuvien biomassojen määrän nopeassa arvioinnissa

Miehittämättömän lennokin ottamien ilmakuvien käyttö energiakäyttöön soveltuvien biomassojen määrän nopeassa arvioinnissa Miehittämättömän lennokin ottamien ilmakuvien käyttö energiakäyttöön soveltuvien biomassojen määrän nopeassa arvioinnissa Anna Lopatina, Itä-Suomen yliopisto, Metsätieteiden osasto, Anna.lopatina@uef.fi

Lisätiedot

Tekoäly muuttaa arvoketjuja

Tekoäly muuttaa arvoketjuja Tekoäly muuttaa arvoketjuja Näin kartoitat tekoälyn mahdollisuuksia projektissasi Harri Puolitaival Harri Puolitaival Diplomi-insinööri ja yrittäjä Terveysteknologia-alan start-up: Likelle - lämpötilaherkkien

Lisätiedot

1. TILASTOLLINEN HAHMONTUNNISTUS

1. TILASTOLLINEN HAHMONTUNNISTUS 1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,

Lisätiedot

Koneoppiminen ja tekoäly suurten tietomassojen käsittelyssä yleensä ja erityisesti sovellettuina satelliittidatan käyttöön metsien arvioinnissa

Koneoppiminen ja tekoäly suurten tietomassojen käsittelyssä yleensä ja erityisesti sovellettuina satelliittidatan käyttöön metsien arvioinnissa Koneoppiminen ja tekoäly suurten tietomassojen käsittelyssä yleensä ja erityisesti sovellettuina satelliittidatan käyttöön metsien arvioinnissa Metsätieteen päivä 26.11.2018 Jorma Laaksonen, vanhempi yliopistonlehtori

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 5. luento.2.27 Lineaarialgebraa - Miksi? Neuroverkon parametreihin liittyvät kaavat annetaan monesti

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 4 Jatkuvuus Jatkuvan funktion määritelmä Tarkastellaan funktiota f x) jossakin tietyssä pisteessä x 0. Tämä funktio on tässä pisteessä joko jatkuva tai epäjatkuva. Jatkuvuuden

Lisätiedot

Demo 1: Simplex-menetelmä

Demo 1: Simplex-menetelmä MS-C2105 Optimoinnin perusteet Malliratkaisut 3 Ehtamo Demo 1: Simplex-menetelmä Muodosta lineaarisen tehtävän standardimuoto ja ratkaise tehtävä taulukkomuotoisella Simplex-algoritmilla. max 5x 1 + 4x

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016

Lisätiedot

Harjoitus 9: Excel - Tilastollinen analyysi

Harjoitus 9: Excel - Tilastollinen analyysi Harjoitus 9: Excel - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen regressioanalyysiin

Lisätiedot

2D piirrelaskennan alkeet, osa I

2D piirrelaskennan alkeet, osa I 2D piirrelaskennan alkeet, osa I Ville Tirronen aleator@jyu.fi University of Jyväskylä 18. syyskuuta 2008 Näkökulma Aiheet Tarkastellaan yksinkertaisia 2D kuvankäsittelyoperaattoreita Näkökulmana on tunnistava

Lisätiedot

Johdatus tekoälyyn. Luento 6.10.2011: Koneoppiminen. Patrik Hoyer. [ Kysykää ja kommentoikaa luennon aikana! ]

Johdatus tekoälyyn. Luento 6.10.2011: Koneoppiminen. Patrik Hoyer. [ Kysykää ja kommentoikaa luennon aikana! ] Johdatus tekoälyyn Luento 6.10.2011: Koneoppiminen Patrik Hoyer [ Kysykää ja kommentoikaa luennon aikana! ] Koneoppiminen? Määritelmä: kone = tietokone, tietokoneohjelma oppiminen = ongelmanratkaisukyvyn

Lisätiedot

Impedanssispektroskopia

Impedanssispektroskopia Impedanssispektroskopia Puun ja biomassan mittaus Puun mittauspäivät, Kajaani, 14.3.2019 Markku Tiitta Tausta Kuopion yliopisto/itä-suomen yliopisto Impedanssispektroskopiaan liittyviä tutkimuksia mm.

Lisätiedot

Kahden virtualisointiohjelmiston suorituskyvyn testaus (valmiin työn esittely)

Kahden virtualisointiohjelmiston suorituskyvyn testaus (valmiin työn esittely) Kahden virtualisointiohjelmiston suorituskyvyn testaus (valmiin työn esittely) Jani Laine 31.10.2017 Ohjaaja: DI Jimmy Kjällman Valvoja: Prof. Kai Virtanen Työn saa tallentaa ja julkistaa Aalto-yliopiston

Lisätiedot

MLP-hermoverkko ja sen soveltaminen kuvien luokitteluun

MLP-hermoverkko ja sen soveltaminen kuvien luokitteluun MLP-hermoverkko ja sen soveltaminen kuvien luokitteluun Konenäkö -kurssin 2008 vierailuluento Tietotekniikan laitos Jyväskylän yliopisto Konenäkö -kurssi, 25.9. ja 30.9.2008 Sisältö 1 Hermoverkon perusidea

Lisätiedot

Algoritmi III Vierekkäisten kuvioiden käsittely. Metsätehon tuloskalvosarja 7a/2018 LIITE 3 Timo Melkas Kirsi Riekki Metsäteho Oy

Algoritmi III Vierekkäisten kuvioiden käsittely. Metsätehon tuloskalvosarja 7a/2018 LIITE 3 Timo Melkas Kirsi Riekki Metsäteho Oy Algoritmi III Vierekkäisten kuvioiden käsittely Metsätehon tuloskalvosarja 7a/2018 LIITE 3 Timo Melkas Kirsi Riekki Metsäteho Oy Algoritmi III vierekkäisten kuvioiden käsittely Lähtötietoina algoritmista

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3.11.2017 Mitä tekoäly on? Wikipedia: Tekoäly on tietokone tai tietokoneohjelma, joka kykenee älykkäiksi

Lisätiedot

Viikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen

Viikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen Viikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum D122, 30-31.1.2008. 1 Tällä viikolla Sisältösuunnitelma: Lineaarinen regressio Pienimmän neliösumman

Lisätiedot

ÄÄNEKKÄÄMMÄN KANTELEEN MALLINTAMINEN ELEMENTTIME- NETELMÄLLÄ

ÄÄNEKKÄÄMMÄN KANTELEEN MALLINTAMINEN ELEMENTTIME- NETELMÄLLÄ ÄÄNEKKÄÄMMÄN KANTELEEN MALLINTAMINEN ELEMENTTIME- NETELMÄLLÄ Henna Tahvanainen 1, Jyrki Pölkki 2, Henri Penttinen 1, Vesa Välimäki 1 1 Signaalinkäsittelyn ja akustiikan laitos Aalto-yliopiston sähkötekniikan

Lisätiedot

Johdantoa. Jokaisen matemaatikon olisi syytä osata edes alkeet jostakin perusohjelmistosta, Java MAPLE. Pascal MathCad

Johdantoa. Jokaisen matemaatikon olisi syytä osata edes alkeet jostakin perusohjelmistosta, Java MAPLE. Pascal MathCad Johdantoa ALGORITMIT MATEMA- TIIKASSA, MAA Vanhan vitsin mukaan matemaatikko tietää, kuinka matemaattinen ongelma ratkaistaan, mutta ei osaa tehdä niin. Vitsi on ajalta, jolloin käytännön laskut eli ongelman

Lisätiedot

pitkittäisaineistoissa

pitkittäisaineistoissa Puuttuvan tiedon ongelma p. 1/18 Puuttuvan tiedon ongelma pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto mtl.uta.fi/tilasto/sekamallit/puupitkit.pdf

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos K:n lähimmän naapurin menetelmä (K-Nearest neighbours) Tarkastellaan aluksi pientä (n = 9) kurjenmiekka-aineistoa, joka on seuraava:

Lisätiedot

1. NEUROVERKKOMENETELMÄT

1. NEUROVERKKOMENETELMÄT 1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia

Lisätiedot

TUTKIMUSAINEISTON ANALYYSI. LTKY012 Timo Törmäkangas

TUTKIMUSAINEISTON ANALYYSI. LTKY012 Timo Törmäkangas TUTKIMUSAINEISTON ANALYYSI LTKY012 Timo Törmäkangas JAKAUMAN MUOTO Vinous, skew (g 1, γ 1 ) Kertoo jakauman symmetrisyydestä Vertailuarvona on nolla, joka vastaa symmetristä jakaumaa (mm. normaalijakauma)

Lisätiedot

Datatähti 2019 loppu

Datatähti 2019 loppu Datatähti 2019 loppu task type time limit memory limit A Summa standard 1.00 s 512 MB B Bittijono standard 1.00 s 512 MB C Auringonlasku standard 1.00 s 512 MB D Binääripuu standard 1.00 s 512 MB E Funktio

Lisätiedot

Trimmitysongelman LP-relaksaation ratkaiseminen sarakkeita generoivalla algoritmilla ja brute-force-menetelmällä

Trimmitysongelman LP-relaksaation ratkaiseminen sarakkeita generoivalla algoritmilla ja brute-force-menetelmällä Trimmitysongelman LP-relaksaation ratkaiseminen sarakkeita generoivalla algoritmilla ja brute-force-menetelmällä Vesa Husgafvel 19.11.2012 Ohjaaja: DI Mirko Ruokokoski Valvoja: Prof. Harri Ehtamo Työn

Lisätiedot

Laskennallinen data-analyysi II

Laskennallinen data-analyysi II Laskennallinen data-analyysi II Saara Hyvönen, Saara.Hyvonen@cs.helsinki.fi Kevät 2007 Muuttujien valinta Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto Korkeiden ulottuvuuksien kirous

Lisätiedot

811312A Tietorakenteet ja algoritmit Kertausta jälkiosasta

811312A Tietorakenteet ja algoritmit Kertausta jälkiosasta 811312A Tietorakenteet ja algoritmit 2018-2019 Kertausta jälkiosasta V Hashtaulukot ja binääriset etsintäpuut Hashtaulukot Perusajatus tunnettava Tiedettävä mikä on tiivistefunktio Törmäysongelman hallinta:

Lisätiedot

Määrittelydokumentti

Määrittelydokumentti Määrittelydokumentti Aineopintojen harjoitustyö: Tietorakenteet ja algoritmit (alkukesä) Sami Korhonen 014021868 sami.korhonen@helsinki. Tietojenkäsittelytieteen laitos Helsingin yliopisto 23. kesäkuuta

Lisätiedot

Liikehavaintojen estimointi langattomissa lähiverkoissa. Diplomityöseminaari Jukka Ahola

Liikehavaintojen estimointi langattomissa lähiverkoissa. Diplomityöseminaari Jukka Ahola Liikehavaintojen estimointi langattomissa lähiverkoissa Diplomityöseminaari Jukka Ahola ESITYKSEN SISÄLTÖ Työn tausta Tavoitteen asettelu Johdanto Liikehavaintojen jakaminen langattomassa mesh-verkossa

Lisätiedot

Algoritmit 2. Luento 13 Ti Timo Männikkö

Algoritmit 2. Luento 13 Ti Timo Männikkö Algoritmit 2 Luento 13 Ti 30.4.2019 Timo Männikkö Luento 13 Simuloitu jäähdytys Merkkijonon sovitus Horspoolin algoritmi Ositus ja rekursio Rekursion toteutus Algoritmit 2 Kevät 2019 Luento 13 Ti 30.4.2019

Lisätiedot

3 9-VUOTIAIDEN LASTEN SUORIUTUMINEN BOSTONIN NIMENTÄTESTISTÄ

3 9-VUOTIAIDEN LASTEN SUORIUTUMINEN BOSTONIN NIMENTÄTESTISTÄ Puhe ja kieli, 27:4, 141 147 (2007) 3 9-VUOTIAIDEN LASTEN SUORIUTUMINEN BOSTONIN NIMENTÄTESTISTÄ Soile Loukusa, Oulun yliopisto, suomen kielen, informaatiotutkimuksen ja logopedian laitos & University

Lisätiedot

Integrointialgoritmit molekyylidynamiikassa

Integrointialgoritmit molekyylidynamiikassa Integrointialgoritmit molekyylidynamiikassa Markus Ovaska 28.11.2008 Esitelmän kulku MD-simulaatiot yleisesti Integrointialgoritmit: mitä integroidaan ja miten? Esimerkkejä eri algoritmeista Hyvän algoritmin

Lisätiedot

Kun yhtälöä ei voi ratkaista tarkasti (esim yhtälölle x-sinx = 1 ei ole tarkkaa ratkaisua), voidaan sille etsiä likiarvo.

Kun yhtälöä ei voi ratkaista tarkasti (esim yhtälölle x-sinx = 1 ei ole tarkkaa ratkaisua), voidaan sille etsiä likiarvo. Kun yhtälöä ei voi ratkaista tarkasti (esim yhtälölle x-sinx = 1 ei ole tarkkaa ratkaisua), voidaan sille etsiä likiarvo. Iterointi on menetelmä, missä jollakin likiarvolla voidaan määrittää jokin toinen,

Lisätiedot

Testaa onko myrkkypitoisuus eri ryhmissä sama. RATK. Lasketaan kaikkien havaintoarvojen summa: k T i = = 486.

Testaa onko myrkkypitoisuus eri ryhmissä sama. RATK. Lasketaan kaikkien havaintoarvojen summa: k T i = = 486. Mat-.103 Koesuunnittelu ja tilastolliset mallit Harjoitus 8, kevät 004 Esimerkkiratkaisut. 1. Myrkyllistä ainetta oli kaadettu jokeen, joka johtaa suurelle kalastusalueelle. Tie- ja vesirakennusinsinöörit

Lisätiedot

13.11. Tulosten arviointi. tulosten arviointi. voimmeko luottaa saamiimme tuloksiin?

13.11. Tulosten arviointi. tulosten arviointi. voimmeko luottaa saamiimme tuloksiin? 13.11. tulosten arviointi Tulosten arviointi voimmeko luottaa saamiimme tuloksiin? onko osa saaduista tuloksista sattumanvaraisia? mitkä OSAT puusta ovat luotettavimpia? 1 KONSENSUSDIAGRAMMI Useita yhtä

Lisätiedot

Hissimatkustajien automaattinen tunnistaminen. Johan Backlund

Hissimatkustajien automaattinen tunnistaminen. Johan Backlund Hissimatkustajien automaattinen tunnistaminen Johan Backlund Johdanto Hissien historia pitkä Ensimmäiset maininnat voidaan jäljittää Rooman valtakuntaan Matkustaja hissien synty 1800-luvun puolessavälissä

Lisätiedot

Mitä on konvoluutio? Tutustu kuvankäsittelyyn

Mitä on konvoluutio? Tutustu kuvankäsittelyyn Mitä on konvoluutio? Tutustu kuvankäsittelyyn Tieteenpäivät 2015, Työohje Sami Varjo Johdanto Digitaalinen signaalienkäsittely on tullut osaksi arkipäiväämme niin, ettemme yleensä edes huomaa sen olemassa

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Johdatus monimuuttujamenetelmiin Luennot 30.10.13.12.-18 Tiistaina klo 12-14 (30.10., BF119-1) Keskiviikkoisin klo 10-12 (MA101,

Lisätiedot

Lineaarinen optimointitehtävä

Lineaarinen optimointitehtävä Lineaarinen optimointitehtävä Minimointitehtävä yhtälörajoittein: min kun n j=1 n j=1 c j x j a ij x j = b i x j 0 j = 1,..., n i = 1,..., m Merkitään: z = alkuperäisen objektifunktion arvo käsiteltävänä

Lisätiedot

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016 Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.

Lisätiedot

Kuvien (tai muun datan) luokittelusta

Kuvien (tai muun datan) luokittelusta Konenäkö -kurssin 2010 materiaalia Tietotekniikan laitos Jyväskylän yliopisto Konenäkö -kurssi, 16.11.2010 Sisältö Automaattinen luokittelu 1 Automaattinen luokittelu Tavoite: esimerkiksi kirjaintunnistus

Lisätiedot

LoCCaM Riistakamerasovellus. Dimag Ky dimag.fi

LoCCaM Riistakamerasovellus. Dimag Ky dimag.fi LoCCaM Riistakamerasovellus Dimag Ky janne.koski @ dimag.fi +358505907788 Sovelluksen toimintaperiaate Toimintaperiaate yksinkertaistettuna on seuraavanlainen Kamera ottaa kuvan tai videon jonka lähettää

Lisätiedot

Luku 14 - Koneoppiminen ja luokittelu

Luku 14 - Koneoppiminen ja luokittelu Luku 14 - Koneoppiminen ja luokittelu Matti Eskelinen 6.5.2018 Tässä luvussa opimme perusasiat koneoppimisesta ja mallien kouluttamisesta. Opimme mitä tarkoittavat ylioppiminen ja alioppiminen ja miten

Lisätiedot

4. Tukivektorikoneet

4. Tukivektorikoneet 4. Tukivektorikoneet Tukivektorikoneen (Support Vector Machine, SVM) keskeiset piirteet: Tehdään lineaarista luokittelua (tai regressiota) korkeaulotteisessa piirreavaruudessa. Laskentaa tehostetaan käyttämällä

Lisätiedot

Aki Taanila AIKASARJAENNUSTAMINEN

Aki Taanila AIKASARJAENNUSTAMINEN Aki Taanila AIKASARJAENNUSTAMINEN 26.4.2011 SISÄLLYS JOHDANTO... 1 1 AIKASARJA ILMAN SYSTEMAATTISTA VAIHTELUA... 2 1.1 Liukuvan keskiarvon menetelmä... 2 1.2 Eksponentiaalinen tasoitus... 3 2 AIKASARJASSA

Lisätiedot