MAIJA MÄKELÄ KERROKSEN TUNNISTUS WLAN-DATAAN PERUSTUEN. Kandidaatintyö
|
|
- Hilja Koskinen
- 7 vuotta sitten
- Katselukertoja:
Transkriptio
1 MAIJA MÄKELÄ KERROKSEN TUNNISTUS WLAN-DATAAN PERUSTUEN Kandidaatintyö Tarkastaja: Simo Ali-Löytty Palautettu
2 I TIIVISTELMÄ TAMPEREEN TEKNILLINEN YLIOPISTO Teknis-luonnontieteellinen koulutusohjelma MAIJA MÄKELÄ: Kerroksen tunnistus WLAN-dataan perustuen Kandidaatintyö, 21 sivua, 0 liitesivua Elokuu 2013 Pääaine: Matematiikka Tarkastajat: Simo Ali-Löytty Avainsanat: kerroksen tunnistus, k:n lähimmän naapurin menetelmä, Bayes-luokitin Tässä työssä tarkastellaan kolmen eri menetelmän toimintaa kerroksen tunnistuksessa WLAN-dataan perustuen. Nämä menetelmät ovat yksinkertainen kerroksen tunnistus, k:n lähimmän naapurin menetelmään perustuva kerroksen tunnistus, sekä Bayesin minimiriskiluokittimeen perustuva kerroksen tunnistus. Työssä esitetään näiden mallien teoreettinen tausta sekä käytännön toteutus. Malleja testataan Tampereen teknillisen yliopiston Tietotalossa kerätyillä opetus- ja testinäytteillä. Sekä laskennallisen tehokkuuden, että tarkkuuden perusteella arvioituna todetaan Bayesin minimiriskiluokittimeen perustuva kerroksen tunnistus parhaaksi tässä työssä esitetyistä vaihtoehdoista. Johtopäätöksissä käsitellään joitain mahdollisuuksia, joita tulevaisuuden työssä voitaisiin ottaa huomioon.
3 II SISÄLLYS 1. Johdanto Teoreettinen tausta kerroksen tunnistuksessa Bayesin päätösteoria Bayesin kaava Bayesin minimiriskiluokitin Bayes-luokittimen virhe Bayesin minimivirheluokitin k:n lähimmän naapurin menetelmä k:n lähimmän naapurin estimaatti k:n lähimmän naapurin algoritmi k:n lähimmän naapurin luokittimen virhe Kerroksen tunnistuksen mallien käytännön toteutus ja testaus Toteutus Yksinkertainen malli k:n lähimmän naapurin malli Bayes-malli Testaus Tehokkuus Tarkkuus Mallien vertailu Johtopäätökset Lähteet
4 III TERMIT JA NIIDEN MÄÄRITELMÄT x F x F n R n ω i p Piirrevektori, opetusnäyte Piirreavaruus x kuuluu joukkoon F Positiivinen kokonaisluku, opetusnäytteiden määrä n-ulotteisten reaalivektoreiden joukko i:s piirrevektorien luokka Luokkatiheysfunktio A, B i Otosavaruuden tapahtumia Ω P (A) P (A B) Otosavaruus Tapahtuman A todennäköisyys Tapahtuman A todennäköisyys ehdolla B >, < Suurempi kuin, pienempi kuin, Pienempi tai yhtäsuuri, suurempi tai yhtäsuuri = Yhtäsuuruus Summa c α i λ R argmin i x i argmax i x i Joukkojen leikkaus Ekvivalenssi Positiivinen kokonaisluku, luokkien määrä i:s toimenpide Tappiofunktio Erisuuruus Ehdollinen riski i, jolle x i on pienin mahdollinen i, jolle x i on suurin mahdollinen
5 IV E(α) E(α(x) x) F Luokittimen α luokitusvirhe Todennäköisyys, jolla α sijoittaa piirrevektorin x väärään luokkaan Integraali yli F:n Miinus Erisuuruus k, k n Positiivinen kokonaisluku, lähimpien naapureiden määrä B n V n p n α Bayes α KNN α Simple D n D i y d(x, y) x ID,ij a x-keskinen pallo Pallon B n tilavuus Luokkatiheysfunktion estimaatti Lähestyy Ääretön Bayesin minimiriskiluokitin k:n lähimmän naapurin luokitin Yksinkertainen luokitin n:n opetusnäytteen joukko i:nen luokan opetusnäytteet Testinäyte x:n ja y:n välinen etäisyys Kerroksen i j:nen opetusnäytteen ID-vektori Positiivinen kokonaisluku, tukiaseman indeksi r ai Tukiaseman a esiintyvyys kerroksen i opetusnäytteissä n i i a Kerroksen i opetusnäytteiden määrä Kerros i, jossa tukiasema a kuuluu voimakkaimmin m ai Tukiaseman a saamien RSS-arvojen keskiarvo kerroksessa i x RSS,ij Kerroksen i j:nen opetusnäytteen RSS-vektori
6 V dim(x) y ID,j y RSS,k x RSS,bin x RSS,bini F x A p i x Vektorin x dimensio Testinäytteen y ID-vektorin j:s alkio Testinäytteen y RSS-vektorin k:s alkio Binäärivektoriksi muutettu RSS-vektori Binäärivektoriksi muutetun RSS-vektorin i:s alkio Kaikkien mahdollisten (diskreettien) tapahtumien joukko Suotuisien tapahtumien joukko i:nen alkion todennäköisyys Osajoukko Tulo x:n itseisarvo % Prosenttia
7 VI LYHENTEET WLAN RSSI RSS ID AOA TOA TDOA SNR Wireless Local Area Network, langaton lähiverkko Received Signal Strength Indicator, vastaanotetun signaalin voimakkuuden indikaattori Received Signal Strength, vastaanotetun signaalin voimakkuus Identier, tunniste Angle Of Arrival, tulokulma Time Of Arrival, saapumisaika Time Dierence Of Arrival, saapumisen aikaero Signal To Noise Ratio, signaalikohinasuhde
8 1 1. JOHDANTO Nykyisin yhä useammat mobiilisovellukset käyttävät hyväkseen tietoa käyttäjän sijainnista. Sovellusten käyttötarkoitukset vaihtelevat navigoinnista opastettuihin museokierroksiin ja kaupan opasteista kohdennettuun mainontaan. [8] Yksi tämän hetken käytetyimmistä järjestelmistä on GPS (Global Positioning System), joka käyttää hyväkseen satelliittisignaalia. GPS ei kuitenkaan yleensä sovi paikannukseen sisätiloissa, sillä rakennukset usein estävät kunnollisen yhteyden. GPS:n sijasta paikannukseen sisätiloissa voidaan käyttää joitain eri vaihtoehtoja, jotka perustuvat jo olemassa olevaan infrastruktuuriin. Useimmiten sisätilapaikannuksessa käytetty tällainen infrastruktuuri on WLAN-tukiasemat (Wireless Local Area Network ), joita monissa julkisissa rakennuksissa on lukuisia. Tukiasemien hyödyntäminen on taloudellista, sillä se ei vaadi erillisen paikannusjärjestelmän rakentamista, toisin kuin jotkut muut mahdolliset menetelmät. Sitä voidaan hyödyntää esimerkiksi kolmiopaikannukseen, paikannukseen signaalin suunnan tai saapumiskulman (Angle Of Arrival, AOA) perusteella, signaalin saapumisajan (Time Of Arrival, TOA) perusteella, tai signaalin saapumisen aikaeron (Time Dierence Of Arrival, TDOA) perusteella. [2, 9] Näillä menetelmillä paikannus sisätiloissa on kuitenkin haastavaa, sillä tukiasemien signaalit heijastuvat rakennuksen pinnoista, esineistä ja ihmisistä heikentäen näiden laskelmien luotettavuutta. Sormenjälkeen perustuva paikannus (location ngerprinting) poikkeaa ylläolevista menetelmistä merkittävästi. Kun nämä menetelmät tähtäävät käyttäjän etäisyyden määrittämiseen jostain kiinteästä pisteestä, sormenjälkimenetelmässä pyritään paikannukseen radiokartan (radio map) perusteella. Radiokartta koostuu useista eri sijaintitiedoista, ja näihin sijainteihin liitetyistä RSSI-arvoista (Received Signal Strength Indicator ). RSSI-arvo kuvaa tietyn tukiaseman lähettämän signaalin voimakkuutta. Toinen vastaava WLAN-tukiasemiin perustuva arvo, joka voisi olla sovellettavissa paikannukseen, on SNR (Signal to Noise Ratio). Kuitenkin RSSI korreloi paremmin sijainnin kanssa kuin SNR. [2] Paikannus tapahtuu vertaamalla mitattua sormenjälkeä (RSS-arvoja) radiokarttaan. Kun rakennus, jossa paikannusta tehdään, on suuri ja siinä on useita kerroksia, voi paikannus olla laskennallisesti hidasta ja epätarkkaa. Näin ollen voi olla hyödyllistä ensin selvittää käyttäjän kerros jollakin riittävällä tarkkuudella. Kun kerros, jossa käyttäjä sijaitsee, on tiedossa, riittää enää laskea käyttäjän sijainti kyseisessä
9 1. Johdanto 2 kerroksessa koko rakennuksen sijaan. Tässä työssä sovelletaan sormenjälkeen perustuvaa paikannusta ja keskitytään käyttäjän kerroksen tunnistukseen. Radiokartan informaatiota voidaan käyttää opetusnäytteinä, ja näistä näytteistä voidaan saada tilastollista tietoa. Paikannuksessa tilastomatematiikan ja erityisesti hahmontunnistuksen menetelmät ovat hyödyllisiä, ja joitain näitä menetelmiä käsitellään tässä työssä. Luvussa 3 käsitellään kolmen mahdollisen eri kerroksentunnistusmenetelmän käytännön toteutusta ja toimintaa ja luvussa 2 tarkastellaan matemaattista teoriaa, joita näissä menetelmissä hyödynnetään. Lopuksi luvussa 3.2 vertaillaan esitettyjä menetelmiä.
10 3 2. TEOREETTINEN TAUSTA KERROKSEN TUNNISTUKSESSA Kerroksen tunnistusta voidaan käsitellä hahmontunnistusongelmana. Tietyssä pisteessä mitattua RSS-vektoria voidaan käsitellä hahmovektorina, joka luokitetaan johonkin luokkaan. Kukin kerros muodostaa oman luokkansa. Radiokartasta saatavien opetusnäytteiden perusteella voidaan approksimoida kullekin luokalle tarvittavaa tilastollista informaatiota, kuten esimerkiksi prioritodennäköisyyksiä ja RSS-arvojen jakaumaa ja tiheyttä. 2.1 Bayesin päätösteoria Bayesin päätösteoriassa on tarkoituksena luokittaa kohde ongelmasta olemassa olevan tilastollisen datan perusteella. Tällaista dataa on esimerkiksi eri luokitustulosten prosentuaalinen osuus kaikista luokituksista tai kunkin luokan ominaisuuksien tiheysfunktiot. Olkoon x F, missä x:ää kutsutaan piirrevektoriksi ja F:ää piirreavaruudeksi. Useimmiten piirreavaruus on n-ulotteinen Euklidinen avaruus R n. [4] Olkoon {ω 1,..., ω c } äärellinen joukko luokkia, joiden lukumäärä on c. Tarkoituksena on sijoittaa mielivaltainen piirrevektori johonkin näistä annetuista luokista. Luokkien prioritodennäköisyydet P (ω 1 ),..., P (ω c ) ja luokkatiheysfunktiot p(x ω 1 ),..., p(x ω c ) oletetaan tunnetuiksi tai ne voi estimoida opetusnäytteistä. [4] Bayesin kaava Bayesin kaava Jos B 1,..., B n on otosavaruuden Ω ositus ja P (B i ) > 0, i = 1,..., n, ja P (A) > 0, niin P (B i A) = P (A B i )P (B i ) n k=1 P (A B k)p (B k ). (2.1) Todistus: Ehdollisen todennäköisyyden määritelmästä (katso esimerkiksi [5], s. 12) saadaan
11 2. Teoreettinen tausta kerroksen tunnistuksessa 4 ja edelleen P (B i A) = P (B i A) P (A) ja P (A B i ) = P (A B i) P (B i ) P (B i A)P (A) = P (B i A) ja P (A B i )P (B i ) = P (A B i ). Koska P (B i A) = P (A B i ), saadaan P (B i A)P (A) = P (A B i )P (B i ) P (B i A) = P (A B i)p (B i ) P (A) = P (A B i )P (B i ) n k=1 P (A B k)p (B k ) Sovellettaessa Bayesin kaavaa (2.1) hahmontunnistuksessa se yleensä kirjoitetaan muotoon missä P (ω i x) = p(x ω i)p (ω i ), (2.2) p(x) p(x) = c p(x ω k )P (ω k ). (2.3) k=1 Tässä p(x ω k ) viittaa jatkuvan jakauman tiheysfunktioon. [3] Mikäli kyse on diskreetistä tapauksesta, tiheysfunktiosta tulee singulaarinen ja Bayesin kaava kirjoitetaan muotoon ([3]) missä P (ω i x) = P (x ω i)p (ω i ), (2.4) P (x) P (x) = c P (x ω k )P (ω k ). (2.5) k= Bayesin minimiriskiluokitin Tappiofunktio Tappiofunktio kuvaa tietyn luokituksen aiheuttamia kuluja, ja sitä käytetään muutettaessa todennäköisyyslaskelma käytännön luokitukseksi. [3] Määritelmä 1 Olkoon {ω 1... ω c } äärellinen joukko luokkia ja {α 1... α a } äärellinen joukko mahdollisia toimenpiteitä. Tappiofunktio λ(α j ω i ) kuvaa tappiota, joka syntyy kun luokituksen jälkeen suoritetaan toimenpide α j silloin, kun luokituksen kohde todellisuudessa kuuluu luokkaan ω i.
12 2. Teoreettinen tausta kerroksen tunnistuksessa 5 Toimenpiteitä ei välttämättä ole yhtä montaa kuin luokkia, eli välttämättä ei ole a = c. Ongelmasta riippuen voi olla mahdollista, että esimerkiksi useammalle luokalle suoritetaan sama toimenpide. Silloin, kun jokainen virheellinen luokitus tuottaa yhtä suuren tappion ja toimenpiteitä on yhtä monta kuin luokkia, voidaan käyttää symmetristä (englanniksi symmetric tai zero-one loss function) tappiofunktiota [3]: { 0, i = j λ(α j ω i ) = i, j = 1,..., c. (2.6) 1, i j Tappiofunktion arvo on siis nolla, kun luokitus on oikea ja yksi, kun luokitus on virheellinen. Ehdollinen riski Määritelmä 2 Ehdollinen riski R(α j x) kuvaa tietyn toimenpiteen α j tappiota, kun havaittu piirrevektori on x. [4] tuottamaa R(α j x) = c λ(α j ω k )P (ω k x) (2.7) k=1 Ehdollinen riski on siis summa tappiofunktion arvoista kullekin luokitukselle painotettuna kunkin luokituksen todennäköisyydellä tapahtua. [3] Bayesin päätössääntö Bayesin päätössääntö Kokonaisriskin minimoimiseksi lasketaan ehdollinen riski R(α j x) (2.7), j = 1,..., a ja valitaan se toimenpide α j jolle R(α j x) on pienin. Saavutettua kokonaisriskin minimiä kutsutaan Bayesin riskiksi ja se on paras saavutettavissa oleva luokituksen tulos. [3] Todistus: Sivuutetaan, katso esimerkiksi [11]. Yleisesti Bayesin minimiriskiluokitin voidaan kirjoittaa funktiomuodossa ([3]) α Bayes (x) = arg min R(α i x), (2.8) ω i,i=1,...,c missä R(α i x) saadaan kaavasta (2.7).
13 2. Teoreettinen tausta kerroksen tunnistuksessa Bayes-luokittimen virhe Luokitusongelman ollessa tilastollinen ei voida olettaa, että mikään luokitin toimisi täydellisesti. Bayes-luokittimen virhe syntyy luokkkatiheysfunktioiden ollessa osittain päällekkäisiä, eikä tätä virhettä näin ollen ole mahdollista poistaa. [3] Luokitusvirhe E(α) kuvaa todennäköisyyttä, jolla päätössääntö α sijoittaa luokituksen kohteen väärään luokkaan. Koska tulos riippuu aina luokitettavasta kohteesta, tarkastellaan virhettä E(α(x) x), joka siis kuvaa todennäköisyyttä, jolla päätössääntö α sijoittaa piirrevektorin x väärään luokkaan. Tämä tulos on onnistuneen luokituksen komplementti: E(α(x) x) = 1 P (α(x) x) (2.9) Yhtälön (2.9) avulla luokittimen α virhe yli kaikkien piirrevektorien x voidaan kirjoittaa E(α) = E(α(x) x)p(x)dx = [1 P (α(x) x)]p(x)dx F F Bayesin säännön perusteella saadaan P (α(x) x) = p(x α(x))p (α(x)). p(x) Luokitusvirhe on siis E(α) = 1 p(x α(x))p (α(x))dx. (2.10) Diskreetissä tapauksessa luokitusvirhe voidaan kirjoittaa muotoon F E(α) = 1 x F P (x α(x))p (α(x)). (2.11) Bayesin minimivirheluokitin Bayesin minimivirheluokitin on Bayesin minimiriskiluokittimen erikoistapaus. [4] Sijoittamalla symmetrinen tappiofunktio ehdollisen riskin kaavaan saadaan R(α j x) = c k=1 λ(α j ω k )P (ω k x) = k j P (ω k x) = 1 P (ω j x). (2.12) Symmetrisen tappiofunktion tapauksessa riski on täsmälleen sama kuin virheen keskimääräinen todennäköisyys (2.10) ja P (ω j x) on todennäköisyys sille, että toi-
14 2. Teoreettinen tausta kerroksen tunnistuksessa 7 menpide α j on oikea. [3] Saadaksemme mahdollisimman pienen virhetodennäköisyyden (2.12) on P (ω j x) oltava mahdollisimman suuri. Näin saadaan Bayesin minimivirheluokitin: Valitaan ω j jos P (ω j x) > P (ω i x) kaikilla i j. (2.13) Funktiomuodossa luokitin voidaan määritellä α Bayes (x) = arg max P (ω i x). (2.14) ω i,i=1,...,c P (ω i x) saadaan Bayesin kaavasta. Koska p(x) (2.3) ei riipu luokasta, voidaan α Bayes (x) kirjoittaa muotoon α Bayes (x) = arg max p(x ω i)p (ω i ). (2.15) ω i,i=1,...,c 2.2 k:n lähimmän naapurin menetelmä k:n lähimmän naapurin menetelmä (englanniksi k-nearest neighbour, edempänä myös KNN) on yksi käytetyimpiä hahmontunnistuksen malleja Bayesin mallin ohella. Toisin kuin Bayes-luokitin, k:n lähimmän naapurin menetelmä on usein käyttökelpoinen tapauksissa, joissa luokkien prioritodennäköisyyksiä tai luokkatiheysfunktioita ei tunneta ennalta. Tällöin on oltava käytettävissä valmiiksi luokiteltuja opetusnäytteitä. Karkeasti menetelmän perusajatuksena on luokittaa piirrevektori x niiden k:n opetusvektorin perusteella, jotka jollakin metriikalla ovat lähimpänä vektoria x kaikista opetusvektoreista. [4] k:n lähimmän naapurin estimaatti Kun opetusnäytteitä on n kappaletta, B n on pienin mahdollinen x-keskinen pallo, joka sisältää k n kappaletta opetusnäytteitä. Merkitään tämän pallon tilavuutta V n :llä. Tällöin k n :n lähimmän naapurin tiheysestimaatti on [3] p n (x) = k n nv n. (2.16) Jotta KNN-tiheysestimaatti lähestyisi todellista tiheysfunktiota x:n ympäristössä, vaaditaan (Todistus, katso [7]), että k n kun n ja k n 0 kun n. n Vastaavasti voidaan estimoida myös posteriortodennäköisyyksiä P (ω i x). Olkoon B n x-keskinen pallo, jonka tilavuus on V n, ja joka sisältää k opetusnäytettä. Näistä
15 2. Teoreettinen tausta kerroksen tunnistuksessa 8 näytteistä k i kuuluu luokkaan ω i. Nyt x:n ja ω i :n yhteistiheyden estimaatti on ([3]) Nyt estimaatti P (ω i x):lle on p n (x, ω i ) = k i nv n. P n (ω i x) = p n(x, ω i ) p n (x) = k i nv n k n nv n = k i k. (2.17) Funktiomuodossa KNN-luokitin voidaan kirjoittaa (kuten Bayes-luokitin) α KNN (x) = arg max P n(ω i x) = arg ω i,i=1,...,c max ω i,i=1,...,c k i k. (2.18) Kuva 2.1: Esimerkki k:n lähimmän naapurin estimaatista Kuvassa 2.1 on havainnollistettu k:n lähimmän naapurin estimaatin laskemista kaksiulotteisessa tapauksessa. Näytteet ovat peräisin tässä työssä käytetystä opetusdatasta. Siniset ristit kuvaavat joitain luokan ω 2 opetusnäytteitä, tässä tapauksessa kerroksen kaksi näytteitä north-east -koordinaatistossa. Punaiset pallot kuvaavat luokan ω 3 opetusnäytteitä, siis kerroksen kolme näytteitä. Luokkien ω 4 ja ω 5 edustajat on merkitty vastaavasti. Musta neliö kuvaa luokitettavaa mitattua RSS-vektoria
16 2. Teoreettinen tausta kerroksen tunnistuksessa 9 x. Kuvaan on piirretty ympyrä B n, jonka sisään jää täsmälleen k = 10 opetusnäytettä. Näistä näytteistä kuuluu luokkaan ω 2 neljä kappaletta, luokkaan ω 3 kolme kappaletta, luokkaan ω 4 yksi kappale ja luokkaan ω 5 kaksi kappaletta. Nyt luokalle ω 2 P n (ω 2 x) = 4, luokalle ω 10 3 P n (ω 3 x) = 3, luokalle ω 10 4 P n (ω 4 x) = 1 ja luokalle 10 ω 5 P n (ω 5 x) = 2. Näin ollen hahmovektori siis luokitetaan luokkaan kaksi k:n lähimmän naapurin algoritmi Olkoon D n = {x 1,..., x n } vektorien joukko, missä vektorit x i on ennalta luokiteltu luokkiin, joita on c kappaletta. Tätä joukkoa kutsutaan opetusnäytteiksi. Luokan i opetusnäytteitä merkitään D i = {x i1,..., x ini }, i = 1,..., c. Piste y luokitetaan opetusnäytteiden perusteella seuraavasti ([4]): Lasketaan etäisyys d(y, x i ) kaikilla i = 1,..., n valitulla metriikalla. Valitaan k opetusnäytettä x i, joilla on pienin etäisyys d(y, x i ) ja lasketaan montako (k i ) kunkin luokan edustajaa löytyy tästä joukosta. Luokitetaan y luokkaan jolle k i on suurin k:n lähimmän naapurin luokittimen virhe Kuten Bayes-luokittimen tapauksessa, myös KNN-luokitin on luonteeltaan tilastollinen. Näin ollen sen virhe on selvästi ainakin Bayes-virheen suuruinen. Kuitenkaan opetusnäytteitä ei koskaan ole käytettävissä ääretöntä määrää, joten tiheysestimaatti (2.16) ei koskaan saavuta todellista luokkatiheysfunktiota. k:n arvolla 1 (lähin naapuri, nearest neighbor) luokittimen virhe on korkeintaan kaksi kertaa Bayes-virheen suuruinen, kun luokkien määrä on c. [4] ( E(α Bayes ) E(α NN ) E(α Bayes ) 2 c ) c 1 E(α Bayes) Kun k 1, voidaan näyttää että luokittimen virhe on korkeintaan (2.19) E(α Bayes ) E(α KNN ) 2E(α Bayes )(1 E(α Bayes )) (2.20) Todistus: Sivuutetaan, katso [6].
17 10 3. KERROKSEN TUNNISTUKSEN MALLIEN KÄYTÄNNÖN TOTEUTUS JA TESTAUS Kaikki tämän työn mallit toteutetaan ja testataan MATLAB-ohjelmistolla. Tässä työssä käytetyt opetusnäytteet ja testinäytteet on mitattu Tampereen teknillisen yliopiston Tietotalossa ja ne on tallennettu MATLAB-yhteensopivassa muodossa. Opetusnäytteitä D n on yhteensä n = 3552 kappaletta, ja ne on jaettu c = 5 luokkaan. Luokille ω 1,..., ω 5 opetusnäytteitä D i (i = 1,..., c) on n 1 = 0, n 2 = 1530, n 3 = 1582, n 4 = 333 ja n 5 = 107 kappaletta. Eri tukiasemia opetusnäytteissä on 232 kappaletta. Opetusnäytteet ja testinäytteet ovat muodoltaan vastaavia kuin esimerkki taulukossa 3.1. Testinäytteitä on käytössä kaksi joukkoa, ensimmäisessä näistä on 76 näytettä ja toisessa 52 näytettä. time : pos_ll : [2x1double] pos_en : [2x1double] floor : 2 id : [1x8double] rss : [ ] %Aikaleima %Mittauspiste latitudelongitude koordinaatistossa %Mittauspiste eastnorth koordinaatistossa %Kerros %Kuultujen WLAN tukiasemien tunnisteet %Tukiasemia vastaavat RSSI arvot Taulukko 3.1: Esimerkki yhdestä opetusnäytteestä MATLABissa Testinäytteet ovat muodoltaan samanlaisia kuin opetusnäytteet. Testinäytteistä sijainti- ja kerrosinformaatiota käytetään ainoastaan käytetyn menetelmän onnistumisen testaamiseen. Käytetystä mallista riippuen opetusdatasta käytetään joko ID-vektoria, tai RSSvektoria ja käytetty vektori mainitaan mallin kuvauksen yhteydessä. 3.1 Toteutus Yksinkertainen malli Yksinkertaisimmillaan käyttäjän kerros voidaan päätellä sormenjäljen voimakkaimmasta signaalista. Paikannuksen tulos saadaan sen tukiaseman perusteella, joka kyseisen signaalin lähettää. Voidaan esimerkiksi selvittää, missä kerroksessa tämä tukiasema sijaitsee, ja palauttaa tämä kerros käyttäjälle. Aina ei kuitenkaan ole saa-
18 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 11 tavilla tietoa siitä, missä kerroksessa kukin tukiasema on. Tällöin kerros, jossa tukiasema kuuluu voimakkaimmin täytyy päätellä opetusnäytteiden perusteella. Tälle päättelylle ei kirjallisuudesta löydy menetelmää, joten edempänä on esitetty kaksi mahdollista päättelytapaa tukiaseman voimakkaimman kuuluvuuden kerrokselle. Kerros, jossa tietty tukiasema kuuluu voimakkaimmin, voidaan määritellä usealla eri tavalla. Tässä työssä tähän määrittelyyn on käytetty kahta eri menetelmää. Toinen on kunkin kerroksen opetusnäytteiden mittauspisteiden, joissa saadaan yhteys kyseiseen tukiasemaan, suhde kerroksen kaikkiin opetusnäytteisiin. Kerros, jolle tämä suhdeluku on suurin, on kerros jossa kyseinen tukiasema kuuluu voimakkaimmin. Toisessa menetelmässä lasketaan kullekin tukiasemalle kerrosta kohden keskiarvo kaikista signaalinvoimakkuuksista. Kerros, jossa tämä keskiarvo on suurin, on kerros jossa kyseinen tukiasema kuuluu voimakkaimmin. Tässä lähestymistavassa tulee huomioida myös tilanne, jossa kerrosta tunnistettaessa voimakkaimmin kuuluu tukiasema, jota ei ole opetusdatassa. Yksinkertaisessa mallissa opetusnäytteet D n = {x 1,..., x n } on luokiteltu valmiiksi c luokkaan, ja luokan i näytteet ovat D i = {x i1,..., x ini }. Mitatttua näytettä tai testinäytettä merkitään y:llä. Suhdelukuun perustuva malli Olkoon r ai luku, joka kuvaa monessako kerroksen i opetusnäytteessä x ID,ij (j = 1,..., n i ) on saatu yhteys tukiasemaan a. r ai saadaan laskemalla summa missä h j = { n i r ai = h j, (3.1) j=1 1, kun a = x ID,ijk, missä k = 1,..., dim(x ID,ij ) 0, muulloin Nyt kerros i a, jossa tukiasema a kuuluu voimakkaimmin, saadaan laskemalla Keskiarvoon perustuva malli r ai i a = arg max (3.2) i,i=1...c n i Olkoon m ai tukiaseman a mitattujen RSS-arvojen keskiarvo kerroksessa i yli kaikkien kerroksen opetusnäytteiden x RSS,ij (j = 1,..., n i ). Jos jossain näytteessä tukiasemaan a ei ole saatu yhteyttä, tämä tukiasema jätetään laskennassa huomiotta. m ai saadaan laskemalla
19 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 12 missä n ai s ai = { m ai = ni j=1 s a i n ai, (3.3) x RSS,ijk, kun a = x ID,ijk, missä k = 1,..., dim(x ID,ij ) 0, muulloin on luku, joka kertoo montako kertaa tukiasema a on kuultu kerroksessa i ja se lasketaan kuten r ai yhtälössä (3.1). Vastaavasti kuten edellä, kerros i a jossa tukiasema a kuuluu voimakkaimmin on i a = arg max i,i=1...c m a i (3.4) Kuva 3.1: Erään tukiaseman suhdeluvut ja keskiarvot kerroksittain, ratkaistu kerros sama molemmilla. Kuvassa 3.1 nähdään eräälle tukiasemalle lasketut suhdeluvut ja keskiarvot kerroksittain, kun ratkaistu kerros molemmilla malleilla on kaksi. Suhdelukuun perustuvan mallin antamat arvot ovat positiivisia, kun taas keskiarvoon perustuvan mallin negatiivisia. Kuvassa 3.2 nähdään toiselle tukiasemalle lasketut arvot, kun ratkaistut kerrokset eroavat toisistaan. Suhdelukuun perustuvalla mallilla ratkaistu kerros on neljä, kun taas keskiarvoon perustuvalla mallilla ratkaistu kerros on kak-
20 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 13 Kuva 3.2: Erään tukiaseman suhdeluvut ja keskiarvot kerroksittain, ratkaistu kerros eri molemmilla. si. Kummassakaan mallissa kerroksia, joissa tukiasemaa ei ole kuultu lainkaan, ei huomioida. Testinäyte y luokitetaan sen tukiaseman mukaan, jonka mitattu RSS-arvo on suurin. Olkoon se testinäyttelle y y ID,max = y ID,j, kun j = arg max y RSS,k (3.5) k,k=1,...,dim(y RSS ) Nyt luokitustulos y:lle on kerros i, kun i = i a. i a ratkaistaan sijoittamalla a = y ID,max joko yhtälöön (3.2) tai yhtälöön (3.4). Funktiomuodossa edellä esitetty yksinkertainen luokitin voidaan vielä kirjoittaa k:n lähimmän naapurin malli α Simple (y) = ω i, i = i yid,max. (3.6) KNN-malli toteutetaan, kuten luvussa 2.2 on esittetty. Opetusnäytteitä joudutaan kuitenkin muokkaamaan tätä mallia varten, sillä näihin on talletettu tieto ainoastaan niistä tukiasemista, joihin on saatu yhteys mittauspisteessä. Jotta RSS-vektorit olisivat vertailukelpoisia keskenään, niiden dimensioiden on oltava samansuuruiset
21 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 14 ja jokainen tukiasema, joka on opetudatassa on huomioitava joka näytteessä. Siispä tukiasemille, joihin ei ole saatu yhteyttä, asetetaan RSS-arvoksi vakio, joka on yhtä pienempi kuin pienin mitattu RSS-arvo (kuten [1]), tässä tapauksessa -96. Samalla jokainen RSS-vektori järjestetään tukiasemittain. Myös testinäytteet käsitellään vastaavasti. Kuva 3.3: Erään tukiaseman eri RSS-arvojen lukumäärät täydennettynä kuulemattomilla tukiasemilla. Kuvassa 3.3 on histogrammi erään opetusnäytteen RSS-arvoista, kun kuulumattomat tukiasemat on ensin lisätty RSS-vektoriin. Kuvasta nähdään selvästi, että vektorissa on arvo -96 moninkertaisena ja muita arvoja on vain vähän. Kuulumattomien tukiasemien tallettaminen opetusnäytteisiin kuluttaa resursseja, mutta niiden huomioiminen on tarpeellista laskennan onnistumiseksi Bayes-malli Bayesin minimiriskiluokitin toteutetaan, kuten luvussa 2.1 on esitetty. Toisin kuin KNN-mallissa, tässä mallissa luokitus tehdään käyttäen alkuperäisestä RSS-vektorista rakennettua binäärivektoria. Opetusnäytteen vektorissa x RSS,bin x RSS,bini on yksi,
22 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 15 kun indeksiä i vastaava tukiasema on kuultu näytteessä, muutoin x RSS,bini on nolla. Kuten KNN-mallissa, myös tässä on huomioitava jokainen tukiasema, joka on opetusdatassa. Kaavan (2.15) luokkatiheysfunktiota approksimoidaan monimuuttujan Bernoullin jakauman (kutsutaan myös Poissonin binomijakaumaksi) tiheysfunktiolla (lisätietoja, katso [10]). Olkoon F x kaikkien mahdollisten tapahtumien joukko, ja A suotuisien tapahtumien joukko siten, että A F x. Tapahtumien i F x todennäköisyydet p i ovat välillä 0 < p i < 1 kaikilla i. Nyt todennäköisyys P (A) on P (A) = A F x ( i A p i )( j A c (1 p j )) (3.7) Todennäköisyydet p j, missä j on tukiaseman indeksi (j = 1,..., k), jokaiselle tukiasemalle kussakin kerroksessa i saadaan laskemalla arvo r ai kuten kaavassa (3.1) ja jakamalla se kerroksen tukiasemien määrällä k i. Siis p k,i = r a i k i Soveltamalla kaavaa (3.7) saadaan luokkatiheysfunktion arvo binäärivektorille y, dim(y) = k, seuraavasti p(y ω i ) = k (p j,i ) y j (1 p j,i ) (1 y j) j=1 (3.8) Tappiofunktiona tässä mallissa ei käytetä symmetristä tappiofunktiota, vaan funktiota joka antaa sitä suuremman tappion, mitä kauempana todellisesta kerroksesta ollaan. Luokituksen onnistuessa tappiofunktion arvo on nolla. Olkoon j luokitustuloksen kerros ja todellinen kerros i. Nyt tappiofunktion arvo on λ(α j ω i ) = j i (3.9) Tappiofunktion arvo on siis nolla luokituksen onnistuessa, yksi, kun oikea tulos on kerros ylempänä tai alempana, kaksi, kun oikea tulos on kaksi kerrosta ylempänä tai alempana ja niin edelleen. Luokitukseen käytetään siis kaavaa (2.8), kun tappiofunktio on (3.9). 3.2 Testaus Mallien testauksessa arvioidaan niiden nopeutta ratkaista annettu luokitusongelma, sekä tarkkuutta jolla ne pystyvät sen tekemään. Kuten mallien toteutus, myös testaus suoritetaan MATLAB-ohjelmistolla. Kuten odottaa saattaa, yksinkertainen
23 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 16 malli on sekä epätarkka, että toiminnaltaan kohtalaisen hidas. KNN-malli, joka on hahmontunnistuksessa yleisesti käytetty menetelmä, on kohtuullisen tarkka. Nykyisellä toteutuksella sekin on kuitenkin melko hidas ja sen tehokkuutta olisi hyvä vielä parantaa. Bayes-malli on laskennallisesti nopea ja yltää lähes samaan luokitustarkkuuteen kuin KNN-malli Tehokkuus Opetusdatan esikäsittely Jokaista mallia varten opetusnäytteitä joudutaan esikäsittelemään. Tämä tehdään siksi, että joka luokitukselle oleellinen informaatio olisi saatavilla mahdollisimman nopeasti. Tämä informaatio ei myöskään riipu luokitettavasta kohteesta, joten sen laskenta joudutaan suorittamaan ainoastaan kerran. Yksinkertaista mallia varten ratkaistaan luvussa kuvatulla tavalla jokainen opetusnäytteiden erillinen tukiasema ja kunkin tukiaseman voimakkaimman kuuluvuuden kerros. KNN-mallin opetusnäytteet täydennetään koskemaan jokaista tukiasemaa kuten luvussa on kuvattu ja järjestetään kerroksittain. Bayes-mallia varten etsitään opetusdatan yksittäiset tukiasemat ja jokaiselle tukiasemalle lasketaan kerroksittain todennäköisyys, jolla se kuullaan jossain kerroksen mittauspisteessä. Kuinka tämä tehdään, on kuvattu luvussa Lisäksi opetusnäytteet järjestetään kerroksittain ja opetusnäytteiden RSS-vektorit muokataan binäärivektoreiksi. Kerroksen tunnistus Edellämainittujen toimenpiteiden jälkeen joka luokituksessa joudutaan KNN- ja Bayes-malleilla täydentämään myös testinäytteen RSS-vektori. Yksittäiselle näytteelle tämä on kohtuullisen nopeaa. Taulukossa 3.2 nähdään MATLABilla mitattu keskimääräinen laskenta-aika yhtä näytettä kohden, kun täydennyksiä tehdään 3552 kappaletta. Funktio Laskenta-aika (µs) completerss 21 RSS2binary 12 Taulukko 3.2: RSS-vektorien täydennyksen laskenta-aika eri funktioille. Yksittäisen luokituksen suoritusajat edellämainituille menetelmille ovat taulukossa 3.3. Myös nämä suoritusajat on laskettu 3552 luokituksen keskiarvona. Niihin sisältyy taulukossa 3.2 ilmoitettu testinäytteen RSS-vektorin täydennys.
24 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 17 Funktio Laskenta-aika (µs) findfloor_simple 0,29 findfloor_knn 190 findfloor_bayesbin 105 Taulukko 3.3: Yksittäisen luokituksen laskenta-aika eri funktioille Tarkkuus Mallien testaukseen käytetään kahta testinäytejoukkoa, joista ensimmäisessä näytteitä on 76 ja toisessa 52 kappaletta. Ensimmäisen joukon näytteet ovat kerroksista kaksi ja kolme, ja toisen joukon näytteet ovat kerroksista kaksi, kolme ja neljä. Vertailun vuoksi selvitetään myös, kuinka hyvin eri mallit luokittavat opetusnäytteiden joukon, jossa on näytteitä 3552 kappaletta. Funktio 1. joukko 2. joukko Opetusnäytteet Suhdeluku, findfloor_simple 56,58 46,15 75,68 Keskiarvo, findfloor_simple 71,05 61,54 73,37 findfloor_knn 85,53 84,62 99,21 findfloor_bayesbin 77,63 90,38 90,65 Taulukko 3.4: Onnistuneiden luokitusten määrä (%) eri menetelmille ja joukoille Todennäköisyydet sille, että kunkin mallin ilmoittama kerros on oikea, kun ilmoitettu kerros on i, ovat taulukossa 3.5. Todennäköisyys on laskettu Bayesin kaavalla (2.1) P (i O) = P (O i)p (i), P (O) missä P (O) on luokittimen onnistumistodennäköisyys (sama kuin taulukossa 3.4), P (O i) on tietyn kerroksen i näytteiden luokittamisen onnistumistodennäköisyys ja P (i) on tietyn kerroksen prioritodennäköisyys, eli osuus opetusnäytteistä. Kerros 1 jätetään huomiotta, sillä tästä kerroksesta ei ole opetusnäytteitä. Funktio 1. kerros 2. kerros 3. kerros 4. kerros 5. kerros Suhdeluku, findfloor_simple - 34,71 50,52 10,97 3,79 Keskiarvo, findfloor_simple - 34,31 50,42 11,36 3,91 findfloor_knn - 43,16 44,41 9,39 3,04 findfloor_bayesbin - 43,85 42,92 10,00 3,23 Taulukko 3.5: Ilmoitetun luokituksen todennäköisyys olla oikea (%) kutakin kerrosta ja mallia kohden.
25 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 18 Kuva 3.4: Eri mallien tunnistamat kerrokset ja todellinen kerros testijoukolla 1. Kuva 3.5: Eri mallien tunnistamat kerrokset ja todellinen kerros testijoukolla 2.
26 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 19 Kuvassa 3.4 nähdään vielä testijoukon 1. luokitustulokset eri malleilla, ja kuvassa 3.5 nähdään samat tulokset testijoukolle 2. Kuvissa joskus esiintyvä arvo 1 tarkoittaa sitä, ettei malli ole pystynyt tunnistamaan kerrosta. Näin voi käydä siinä tapauksessa, ettei yksinkertaisessa mallissa testinäytteen suurimman RSS arvon antavaa tukiasemaa ole opetusdatassa. Ensimmäisen testinäytejoukon kohdalla kuvassa 3.4 nähdään, että eniten virheellisiä tunnistuksia tekee yksinkertainen malli kummallakin eri versiolla. Myöskin Bayes-malli tekee joitain silmiinpistävän virheellisiä tunnistuksia, mikä mahdollisesti johtuu siitä, että jotkin tietyt tukiasemat kuullaan lähes samankaltaisesti kerroksessa kaksi ja kerroksessa kolme. Toisen testinäytejoukon kohdalla kuvassa 3.5 yksinkertaisen mallin molemmilla versioilla kerroksen tunnistus on niinikään vaihtelevaa. Kertaalleen se tunnistaa kerroksen, jota ei ole koko testinäytejoukossa. KNN- ja Bayes-mallit toimivat melko hyvin. Eniten virheellisiä tunnistuksia ne tekevät kuitenkin kohdissa, joissa kerros on vaihtumassa tai juuri vaihtunut. Kerroksesta toiseen siirryttäessä käytetään portaita tai hissejä, ja Tietotalossa hissit sijaitsevat portaiden läheisyydessä. Porraskuilujen läheisyydessä olevien tukiasemien signaalit kulkevat lähes esteettä kerroksesta toiseen, ja tämä aiheuttaa epätarkkuutta kerroksen tunnistuksessa. 3.3 Mallien vertailu Eri mallien laskenta-ajoissa ja tarkkuuksissa on huomattavia eroja. Toiminnaltaan parhaaksi malliksi voitaneenkin todeta malli, joka tekee luokituksen jollakin riittävällä tarkkuudella mahdollisimman nopeasti. KNN-mallin toimintaa voidaan käyttää muiden mallien toiminnan vertailussa, sillä se on hahmontunnistuksessa laajalti käytetty ja hyväksytty menetelmä. Yksinkertainen malli toimii erittäin nopeasti. Kuitenkaan sen tarkkuus ei yllä suurellakaan testijoukolla KNN-mallin tasolle. Sillä, arvioidaanko voimakkaimman kuuluvuuden kerros suhdeluvun vai keskiarvon perusteella, ei näytä olevan suurta merkitystä. Suurella testinäytteiden joukolla suhdelukuun perustuva yksinkertainen malli on hieman parempi. KNN-mallin tarkkuus suurella testinäytteiden joukolla on erittäin hyvä. Laskennallisesti se on kuitenkin hitain tässä työssä esitetyistä malleista, ja sen nopeuttamiseksi tulisi vielä etsiä ratkaisuja. Yksi vaihtoehto voisi olla käsitellä ainoastaan niitä näytteitä, joissa on kuultu täsmälleen samat tukiasemat kuin mitatussa näytteessä. Sen toimintaa voisi myös testata muillakin metriikoilla kuin euklidisella normilla. Bayes-mallin toteutus on tässä työssä laskennalliselta nopeudeltaan ja tarkkudeltaan hyvä. Binäärivektorien käsittely on laskennallisesti nopeaa, ja huomioitavien tukiasemien määrän ollessa suuri sen tarkkuus on melko lähellä KNN-mallia. Kuitenkin luokkatiheysfunktion arvojen laskennassa todennäköisyyksiä p j,i voisi ol-
27 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 20 la mahdollista arvioida tarkemmin kuin tässä työssä on tehty esimerkiksi lisäämällä opetusnäytteiden määrää. Näitä estimaatteja tarkentamalla luokittimen luotettavuus todennäköisesti saataisiin paremmaksi. Sekä KNN-, että Bayes-malleja voisi niinikään parantaa huomioimalla porraskuilujen ja muiden avonaisten paikkojen läheisyyden kerroksen tunnistuksessa, ja näin poistaa epätarkkuutta tunnistuksessa kerroksen vaihtuessa. Yksinkertaisen mallin kerroksen tunnistukseen nämä seikat eivät näytä vaikuttavan.
28 21 4. JOHTOPÄÄTÖKSET Tässä työssä käsiteltiin kolmea mahdollista menetelmää kerroksen tunnistukseen sisätilapaikannuksessa. Näistä menetelmistä yksinkertainen malli perustuu tietyn tukiaseman voimakkaimman kuuluvuuden kerrokseen, ja voimakkaimman kuuluvuuden kerroksen laskemiseen on esitetty kaksi eri mahdollista vaihtoehtoa. KNN-malli perustuu k:n lähimmän naapurin menetelmään, joka on esitetty kappaleessa 2.2 ja Bayes-malli perustuu Bayesin minimiriskiluokittimeen, joka on esitetty kappaleessa 2.1. Näiden kolmen eri menetelmän laskennallista tehokkuutta ja tarkkuutta arvioitiin opetus- ja testinäytteiden perusteella, jotka on kerätty Tampereen teknillisen yliopiston Tietotalossa. Näistä menetelmistä yksinkertainen malli antoi odotetusti heikoimmat tulokset, sillä siinä testinäytteestä otetaan huomioon ainoastaan yksi tukiasema, joka saa suurimman RSS-arvon. KNN-malli oli selkeästi luokitustulokseltaan tarkin, mutta laskennallisesti hitain. Sekä luokitustuloksen, että laskenta-ajan perusteella arvioituna Bayes-malli on paras tässä työssä käsitellyistä menetelmistä. Tulevaisuudessa käytännön sovelluksissa voitaisiin testata todellisen käyttäjäinformaation muodostamien parametrien vaikutusta. Eri kerrosten prioritodennäköisyyksiä voitaisiin arvioida kerroksen todellisten käyttäjämäärien mukaan. Vastaavasti myös käyttäjän todennäköisyys vaihtaa kerroksesta toiseen voitaisiin arvioida ja ottaa huomioon kerroksen tunnistuksessa. Myös epätarkkuuksia tunnistuksessa kerroksen vaihtuessa voitaisiin vähentää huomioimalla käyttäjän sijainti kaksiulotteisessa koordinaatistossa ja kehittämällä malleja tilanteiden, joissa kerros vaihtuu, käsittelyyn. Nykyiselläänkin kuitenkin kehitettävää on vielä laskennan tehokkuuden parantamisessa ja kerrostiheysfunktioiden parametrien estimoinnissa.
29 22 LÄHTEET [1] Honkavirta, Ville Location ngerprinting methods in Wireless Local Area Networks, Master of Science Thesis, Tampere University of Technology. [2] Honkavirta V., Perälä T., Ali-Löytty S. ja Piché R A Comparative Survey of WLAN Location Fingerprinting Methods, Proc. of the 6th Workshop on Positioning, Navigation and Communication 2009 (WPNC'09), pages [3] Duda Richard O., Hart Peter E., Stork David G Pattern Classication, Second Edition, A Wiley-Interscience Publication [4] Tohka Jussi Johdatus hahmontunnistukseen, opintomoniste. Tampereen teknillinen yliopisto, Signaalinkäsittelyn laitos. [5] Perttula Antti, Vattulainen Kimmo, Suurhasko Tia Todennäköisyyslaskenta, opintomoniste kurssille MAT-20510, versio 9/2012, Tampereen teknillinen yliopisto. [6] Cover T. M., Hart P.E Nearest Neighbor Pattern Classication, IEEE Transactions On Information Theory, Vol. IT-13, No. 1, January 1967 [7] Fix E., Hodges J.L. Jr Discriminatory analysis, non-parametric discrimination, USAF School of Aviation Medicine, Randolph Field, Tex., Project , Rept. 4, Contract AF41(128)-31, February 1951 [8] Indoor positioning system, Wikipedia [9] Prasithsangaree P., Krishnamurthy P., Chrysanthis P.K On Indoor Position Location With Wireless LANs, Personal, The 13th IEEE International Symposium on Indoor and Mobile Radio Communications, 2002., pages vol. 2 [10] Wang, Y.H., On The Number Of Successes In Independent Trials Statistica Sinica 3(1993), [11] Wald, Abraham, Contributions to the Theory of Statistical Estimation and Testing Hypotheses The Annals of Mathematical Statistics, Vol. 10, Number 4 (1939),
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja
Lisätiedot1. TILASTOLLINEN HAHMONTUNNISTUS
1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,
LisätiedotSGN-2500: Johdatus hahmontunnistukseen. Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos
SGN-2500: Johdatus hahmontunnistukseen Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos 2006-2008 4. maaliskuuta 2009 ii Esipuhe Tämä moniste on syntynyt vuosina 2003 ja 2004 TTY:llä
Lisätiedot805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos K:n lähimmän naapurin menetelmä (K-Nearest neighbours) Tarkastellaan aluksi pientä (n = 9) kurjenmiekka-aineistoa, joka on seuraava:
LisätiedotMoniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
Lisätiedot1 Bayesin teoreeman käyttö luokittelijana
1 Bayesin teoreeman käyttö luokittelijana Bayesin kaavan mukaan merkityksen kontekstille c ehdollistettu todennäkköisyys voidaan määrittää alla olevan yhtälön perusteella: P ( c) = P (c )P ( ) P (c) (1)
LisätiedotJuuri 10 Tehtävien ratkaisut Kustannusosakeyhtiö Otava päivitetty
Juuri 0 Tehtävien ratkaisut Kustannusosakeyhtiö Otava päivitetty 9..08 Kertaus K. a) Alapaineiden pienin arvo on ja suurin arvo 74, joten vaihteluväli on [, 74]. b) Alapaineiden keskiarvo on 6676870774
LisätiedotIlkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
LisätiedotMAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen
MAT-5 Todennäköisyyslaskenta Tentti.. / Kimmo Vattulainen Vastaa jokainen tehtävä eri paperille. Funktiolaskin sallittu.. a) P A). ja P A B).6. Mitä on P A B), kun A ja B ovat riippumattomia b) Satunnaismuuttujan
LisätiedotT Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1
T-61.281 Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti 10.2.2004, 8:30-10:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:
LisätiedotT Luonnollisten kielten tilastollinen käsittely
T-61.281 Luonnollisten kielten tilastollinen käsittely Vastaukset 3, ti 11.2.2003, 16:15-18:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:
LisätiedotLuento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään
Lisätiedot4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
LisätiedotMoniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?
TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä
LisätiedotKaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat
1 Tukivektoriluokittelija Tukivektorikoneeseen (support vector machine) perustuva luoikittelija on tilastollisen koneoppimisen teoriaan perustuva lineaarinen luokittelija. Perusajatus on sovittaa kahden
LisätiedotDiskreetin matematiikan perusteet Laskuharjoitus 2 / vko 9
Diskreetin matematiikan perusteet Laskuharjoitus 2 / vko 9 Tuntitehtävät 9-10 lasketaan alkuviikon harjoituksissa ja tuntitehtävät 13-14 loppuviikon harjoituksissa. Kotitehtävät 11-12 tarkastetaan loppuviikon
LisätiedotMS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
Lisätiedot1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia
LisätiedotOletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen
Yhden faktorin malli: n kpl sijoituskohteita, joiden tuotot ovat r i, i =, 2,..., n. Olkoon f satunnaismuuttuja ja oletetaan, että tuotot voidaan selittää yhtälön r i = a i + b i f + e i avulla, missä
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 7
Inversio-ongelmien laskennallinen peruskurssi Luento 7 Kevät 2012 1 Tilastolliset inversio-ongelmat Tilastollinen ionversio perustuu seuraaviin periaatteisiin: 1. Kaikki mallissa olevat muuttujat mallinnetaan
Lisätiedot805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista
LisätiedotTEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)
JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.
LisätiedotMAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen
MAT-200 Todennäköisyyslaskenta Tentti 29.04.20 / Kimmo Vattulainen Funktiolaskin sallittu.. a) Pelaajat A ja B heittävät noppaa vuorotellen ja pelin voittaa se, joka saa ensimmäiseksi kuutosen. A aloittaa
LisätiedotViikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi
Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 5.-7.11.2008. 1 Tällä viikolla Sisältösuunnitelma: Ennustamisstrategioista Koneoppimismenetelmiä: k-nn (luokittelu
LisätiedotBayesilainen päätöksenteko / Bayesian decision theory
Bayesilainen päätöksenteko / Bayesian decision theory Todennäköisyysteoria voidaan perustella ilman päätösteoriaa, mutta vasta päätösteorian avulla siitä on oikeasti hyötyä Todennäköisyyteoriassa tavoitteena
Lisätiedot1. Osoita, että joukon X osajoukoille A ja B on voimassa toinen ns. de Morganin laki (A B) = A B.
HY / Avoin yliopisto Johdatus yliopistomatematiikkaan, kesä 2015 Harjoitus 3 Ratkaisuehdotuksia Tehtäväsarja I Seuraavissa tehtävissä harjoitellaan muun muassa kahden joukon osoittamista samaksi sekä joukon
LisätiedotJohdatus todennäköisyyslaskentaan Kokonaistodennäköisyys ja Bayesin kaava. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Kokonaistodennäköisyys ja Bayesin kaava TKK (c) Ilkka Mellin (2005) 1 Kokonaistodennäköisyys ja Bayesin kaava Kokonaistodennäköisyys ja Bayesin kaava: Johdanto Kokonaistodennäköisyyden
LisätiedotLIITE 1 VIRHEEN ARVIOINNISTA
1 LIITE 1 VIRHEEN ARVIOINNISTA Mihin tarvitset virheen arviointia? Mittaustulokset ovat aina todellisten luonnonvakioiden ja tutkimuskohdetta kuvaavien suureiden likiarvoja, vaikka mittauslaite olisi miten
Lisätiedot=p(x) + p(y), joten ehto (N1) on voimassa. Jos lisäksi λ on skalaari, niin
FUNKTIONAALIANALYYSI, RATKAISUT 1 KEVÄT 211, (AP) 1. Ovatko seuraavat reaaliarvoiset funktiot p : R 3 R normeja? Ovatko ne seminormeja? ( x = (x 1, x 2, x 3 ) R 3 ) a) p(x) := x 2 1 + x 2 2 + x 2 3, b)
LisätiedotTehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..
LisätiedotMAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen
MAT-25 Todennäköisyyslaskenta Tentti 12.4.216 / Kimmo Vattulainen Funktiolaskin sallittu. Palauta kaavakokoelma 1. a) Pelaajat A ja B heittävät noppaa vuorotellen ja pelin voittaa se, joka saa ensimmäiseksi
LisätiedotJohdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3
LisätiedotMS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille
LisätiedotKohdeyleisö: toisen vuoden teekkari
Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y
LisätiedotRatkaisu: a) Kahden joukon yhdisteseen poimitaan kaikki alkiot jotka ovat jommassakummassa joukossa (eikä mitään muuta).
Matematiikan laitos Johdatus Diskreettiin Matematiikaan Harjoitus 1 03.11.2010 Ratkaisuehdotuksia Aleksandr Nuija 1. Tarkastellaan joukkoja A = {1,3,4}, B = {2,3,7,9} ja C = {2, 5, 7}. Määritä joukot (a)
Lisätiedot1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia
LisätiedotTilastollinen testaus. Vilkkumaa / Kuusinen 1
Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää
LisätiedotP(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu
1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)
LisätiedotLIITE 1 VIRHEEN ARVIOINNISTA
Oulun yliopisto Fysiikan opetuslaboratorio Fysiikan laboratoriotyöt 1 1 LIITE 1 VIRHEEN RVIOINNIST Mihin tarvitset virheen arviointia? Mittaustuloksiin sisältyy aina virhettä, vaikka mittauslaite olisi
LisätiedotMatematiikan tukikurssi, kurssikerta 3
Matematiikan tukikurssi, kurssikerta 3 1 Epäyhtälöitä Aivan aluksi lienee syytä esittää luvun itseisarvon määritelmä: { x kun x 0 x = x kun x < 0 Siispä esimerkiksi 10 = 10 ja 10 = 10. Seuraavaksi listaus
Lisätiedotk S P[ X µ kσ] 1 k 2.
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 28 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Osa tämän viikon tehtävistä ovat varsin haastavia, joten ei todellakaan
LisätiedotTodennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset
Todennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset 1. Olkoon X satunnaismuuttuja, ja olkoot a R \ {0}, b R ja Y = ax + b. (a) Olkoon X diskreetti ja f sen pistetodennäköisyysfunktio.
LisätiedotOsakesalkun optimointi. Anni Halkola Turun yliopisto 2016
Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.
LisätiedotHarjoitus 7: NCSS - Tilastollinen analyysi
Harjoitus 7: NCSS - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tilastollinen testaus Testaukseen
LisätiedotLIITE 1 VIRHEEN ARVIOINNISTA
1 Mihin tarvitset virheen arviointia? Mittaustuloksiin sisältyy aina virhettä, vaikka mittauslaite olisi miten uudenaikainen tai kallis tahansa ja mittaaja olisi alansa huippututkija Tästä johtuen mittaustuloksista
LisätiedotMääritelmä Olkoon T i L (V i, W i ), 1 i m. Yksikäsitteisen lineaarikuvauksen h L (V 1 V 2 V m, W 1 W 2 W m )
Määritelmä 519 Olkoon T i L V i, W i, 1 i m Yksikäsitteisen lineaarikuvauksen h L V 1 V 2 V m, W 1 W 2 W m h v 1 v 2 v m T 1 v 1 T 2 v 2 T m v m 514 sanotaan olevan kuvausten T 1,, T m indusoima ja sitä
LisätiedotLisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia
Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia KE (2014) 1 Hypergeometrinen jakauma Hypergeometrinen jakauma
LisätiedotHarjoitus 2: Matlab - Statistical Toolbox
Harjoitus 2: Matlab - Statistical Toolbox Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen tavoitteet Satunnaismuuttujat ja todennäköisyysjakaumat
LisätiedotNumeeriset menetelmät
Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma
LisätiedotOdotusarvo. Odotusarvon ominaisuuksia Satunnaismuuttujien ominaisuuksia 61
3.3. Satunnaismuuttujien ominaisuuksia 61 Odotusarvo Määritelmä 3.5 (Odotusarvo) Olkoon X diskreetti satunnaismuuttuja, jonka arvojoukko on S ja todennäköisyysfunktio f X (x). Silloin X:n odotusarvo on
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo
LisätiedotABHELSINKI UNIVERSITY OF TECHNOLOGY
Todennäköisyyslaskennan käsitteitä Satunnaisuus ja deterministisyys Deterministisessä ilmiössä alkutila määrää lopputilan yksikäsitteisesti. Satunnaisilmiö puolestaan arpoo - yhdestä alkutilasta voi päätyä
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 18 1 Kertausta: momenttimenetelmä ja suurimman uskottavuuden menetelmä 2 Tilastollinen
LisätiedotHY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät 2017 Harjoitus 1 Ratkaisuehdotuksia Tehtäväsarja I
HY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät 2017 Harjoitus 1 Ratkaisuehdotuksia Tehtäväsarja I Tehtävä 1 on klassikko. 1. Tässä tehtävässä tapahtumat A ja B eivät välttämättä
LisätiedotMS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4B Bayesläinen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy
LisätiedotOsa 1: Todennäköisyys ja sen laskusäännöt. Kokonaistodennäköisyyden ja Bayesin kaavat
Ilkka Mellin Todennäköisyyslaskenta Osa 1: Todennäköisyys ja sen laskusäännöt Kokonaistodennäköisyyden ja Bayesin kaavat TKK (c) Ilkka Mellin (2007) 1 Kokonaistodennäköisyys ja Bayesin kaava >> Kokonaistodennäköisyys
LisätiedotJatkuvat satunnaismuuttujat
Jatkuvat satunnaismuuttujat Satunnaismuuttuja on jatkuva jos se voi ainakin periaatteessa saada kaikkia mahdollisia reaalilukuarvoja ainakin tietyltä väliltä. Täytyy ymmärtää, että tällä ei ole mitään
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila Kalvoissa käytetään materiaalia P. Palon vuoden 2005 kurssista. 07.09.2007 Antti Rasila () SovTodB 07.09.2007 07.09.2007 1 / 24 1 Todennäköisyyslaskennan
LisätiedotRatkaisuehdotukset LH 7 / vko 47
MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [
LisätiedotTodennäköisyyden ominaisuuksia
Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset
LisätiedotHY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2017 Harjoitus 1 Ratkaisuehdotuksia
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 07 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Osa tämän viikon tehtävistä ovat varsin haastavia, joten ei todellakaan
LisätiedotJohdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia TKK (c) Ilkka Mellin (2005) 1 Normaalijakaumasta johdettuja jakaumia Johdanto χ 2 -jakauma F-jakauma t-jakauma TKK (c) Ilkka Mellin
LisätiedotJohdatus matematiikkaan
Johdatus matematiikkaan Luento 7 Mikko Salo 11.9.2017 Sisältö 1. Funktioista 2. Joukkojen mahtavuus Funktioista Lukiomatematiikassa on käsitelty reaalimuuttujan funktioita (polynomi / trigonometriset /
LisätiedotOtosavaruus ja todennäköisyys Otosavaruus Ë on joukko, jonka alkiot ovat kokeen tulokset Tapahtuma on otosavaruuden osajoukko
ÌÓÒÒĐĐÓ ÝÝ ÔÖÙ ØØ Naiiveja määritelmiä Suhteellinen frekvenssi kun ilmiö toistuu Jos tehdas on valmistanut 1000000 kpl erästä tuotetta, joista 5013 ovat viallisia, niin todennäköisyys, että tuote on viallinen
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 9 1 Implisiittinen derivointi Tarkastellaan nyt yhtälöä F(x, y) = c, jossa x ja y ovat muuttujia ja c on vakio Esimerkki tällaisesta yhtälöstä on x 2 y 5 + 5xy = 14
LisätiedotYhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
LisätiedotMS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 2A Satunnaismuuttujan odotusarvo Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016,
LisätiedotTeema 8: Parametrien estimointi ja luottamusvälit
Teema 8: Parametrien estimointi ja luottamusvälit Todennäköisyyslaskennan perusteet (Teemat 6 ja 7) antavat hyvän pohjan siirtyä kurssin viimeiseen laajempaan kokonaisuuteen, nimittäin tilastolliseen päättelyyn.
LisätiedotValitsemalla sopivat alkiot joudutaan tämän määritelmän kanssa vaikeuksiin, jotka voidaan välttää rakentamalla joukko oppi aksiomaattisesti.
Joukon määritelmä Joukko on alkioidensa kokoelma. Valitsemalla sopivat alkiot joudutaan tämän määritelmän kanssa vaikeuksiin, jotka voidaan välttää rakentamalla joukko oppi aksiomaattisesti. Näin ei tässä
LisätiedotP (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.
Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin
LisätiedotPaikka- ja virhe-estimaatin laskenta-algoritmit Paikannusteknologiat nyt ja tulevaisuudessa
Paikka- ja virhe-estimaatin laskenta-algoritmit 25.8.2011 Paikannusteknologiat nyt ja tulevaisuudessa Simo Ali-Löytty, TTY, matematiikan laitos Mallinnus Pienimmän neliösumman menetelmä Lineaarinen Epälineaarinen
LisätiedotHelsingin, Itä-Suomen, Jyväskylän, Oulun, Tampereen ja Turun yliopisto Matematiikan valintakoe 11.6.2012 klo 10 13 Ratkaisut ja pisteytysohjeet
Helsingin, Itä-Suomen, Jyväskylän, Oulun, Tampereen ja Turun yliopisto Matematiikan valintakoe 11.6.01 klo 10 13 t ja pisteytysohjeet 1. Ratkaise seuraavat yhtälöt ja epäyhtälöt. (a) 3 x 3 3 x 1 4, (b)
LisätiedotTilastotieteen kertaus. Vilkkumaa / Kuusinen 1
Tilastotieteen kertaus Vilkkumaa / Kuusinen 1 Motivointi Reaalimaailman ilmiöihin liittyy tyypillisesti satunnaisuutta ja epävarmuutta Ilmiöihin liittyvien havaintojen ajatellaan usein olevan peräisin
Lisätiedot3 Yleistä estimointiteoriaa. Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin
3 Yleistä estimointiteoriaa Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin 3.1 Johdanto Tähän mennessä olemme tarkastelleet estimointia
LisätiedotTekijä Pitkä matematiikka
K1 Tekijä Pitkä matematiikka 5 7..017 a) 1 1 + 1 = 4 + 1 = 3 = 3 4 4 4 4 4 4 b) 1 1 1 = 4 6 3 = 5 = 5 3 4 1 1 1 1 1 K a) Koska 3 = 9 < 10, niin 3 10 < 0. 3 10 = (3 10 ) = 10 3 b) Koska π 3,14, niin π
LisätiedotTilastollisen analyysin perusteet Luento 1: Lokaatio ja hajonta
Tilastollisen analyysin perusteet Luento 1: ja hajonta Sisältö Havaittujen arvojen jakauma Havaittujen arvojen jakaumaa voidaan kuvailla ja esitellä tiivistämällä havaintoarvot sopivaan muotoon. Jakauman
LisätiedotMS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
LisätiedotJohdatus matemaattiseen päättelyyn
Johdatus matemaattiseen päättelyyn Maarit Järvenpää Oulun yliopisto Matemaattisten tieteiden laitos Syyslukukausi 2015 1 Merkintöjä 2 Todistamisesta 2 3 Joukko-oppia Tässä luvussa tarkastellaan joukko-opin
LisätiedotOrtogonaaliprojektio äärellisulotteiselle aliavaruudelle
Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle Olkoon X sisätuloavaruus ja Y X äärellisulotteinen aliavaruus. Tällöin on olemassa lineaarisesti riippumattomat vektorit y 1, y 2,..., yn, jotka
LisätiedotNumeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28
Numeeriset menetelmät TIEA381 Luento 5 Kirsi Valjus Jyväskylän yliopisto Luento 5 () Numeeriset menetelmät 3.4.2013 1 / 28 Luennon 5 sisältö Luku 4: Ominaisarvotehtävistä Potenssiinkorotusmenetelmä QR-menetelmä
Lisätiedot2 Pistejoukko koordinaatistossa
Pistejoukko koordinaatistossa Ennakkotehtävät 1. a) Esimerkiksi: b) Pisteet sijaitsevat pystysuoralla suoralla, joka leikkaa x-akselin kohdassa x =. c) Yhtälö on x =. d) Sijoitetaan joitain ehdon toteuttavia
LisätiedotLuento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään
LisätiedotHelsingin, Itä-Suomen, Jyväskylän, Oulun, Tampereen ja Turun yliopisto Matematiikan valintakoe klo 10 13
Helsingin, Itä-Suomen, Jyväskylän, Oulun, Tampereen ja Turun yliopisto Matematiikan valintakoe 11.6.2012 klo 10 13 1. Ratkaise seuraavat yhtälöt ja epäyhtälöt. (a) 3 2 x 2 3 2 3 x 1 4, (b) (x + 1)(x 2)
LisätiedotJohdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1
Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:
Lisätiedot4.1. Olkoon X mielivaltainen positiivinen satunnaismuuttuja, jonka odotusarvo on
Mat-2.090 Sovellettu todennäköisyyslasku A / Ratkaisut Aiheet: Avainsanat: Otanta Poisson- Jakaumien tunnusluvut Diskreetit jakaumat Binomijakauma, Diskreetti tasainen jakauma, Geometrinen jakauma, Hypergeometrinen
LisätiedotMatematiikka ja teknologia, kevät 2011
Matematiikka ja teknologia, kevät 2011 Peter Hästö 13. tammikuuta 2011 Matemaattisten tieteiden laitos Tarkoitus Kurssin tarkoituksena on tutustuttaa ja käydä läpi eräisiin teknologisiin sovelluksiin liittyvää
LisätiedotDiplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2018 Insinöörivalinnan matematiikan koe, , Ratkaisut (Sarja A)
Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2018 Insinöörivalinnan matematiikan koe, 2952018, Ratkaisut (Sarja A) 1 Anna kaikissa kohdissa vastaukset tarkkoina arvoina Kohdassa d), anna kulmat
Lisätiedot1 Kertaus. Lineaarinen optimointitehtävä on muotoa:
1 Kertaus Lineaarinen optimointitehtävä on muotoa: min c 1 x 1 + c 2 x 2 + + c n x n kun a 11 x 1 + a 12 x 2 + + a 1n x n b 1 a 21 x 1 + a 22 x 2 + + a 2n x n b 2 (11) a m1 x 1 + a m2 x 2 + + a mn x n
LisätiedotDynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt
Lisätiedot1. Tilastollinen malli??
1. Tilastollinen malli?? https://fi.wikipedia.org/wiki/tilastollinen_malli https://en.wikipedia.org/wiki/statistical_model http://projecteuclid.org/euclid.aos/1035844977 Tilastollinen malli?? Numeerinen
LisätiedotEstimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?
TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen TKK (c) Ilkka Mellin (2004) 2 Mitä opimme? 1/4 Tilastollisen tutkimuksen tavoitteena on tehdä johtopäätöksiä prosesseista, jotka generoivat reaalimaailman
Lisätiedot1. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden heittojen lukumäärä, joilla tuli 1, 2, 3 tai 4.
HY / Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta II, syksy 206 Kurssikoe 28.0.206 Ratkaisuehdotuksia. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden
LisätiedotNumeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 6 Kirsi Valjus Jyväskylän yliopisto Luento 6 () Numeeriset menetelmät 4.4.2013 1 / 33 Luennon 6 sisältö Interpolointi ja approksimointi Polynomi-interpolaatio: Vandermonden
Lisätiedot30A02000 Tilastotieteen perusteet
30A02000 Tilastotieteen perusteet Kertaus 1. välikokeeseen Lauri Viitasaari Tieto- ja palvelujohtamisen laitos Kauppatieteiden korkeakoulu Aalto-yliopisto Syksy 2019 Periodi I-II Sisältö Välikokeesta Joukko-oppi
Lisätiedot= 5! 2 2!3! = = 10. Edelleen tästä joukosta voidaan valita kolme särmää yhteensä = 10! 3 3!7! = = 120
Tehtävä 1 : 1 Merkitään jatkossa kirjaimella H kaikkien solmujoukon V sellaisten verkkojen kokoelmaa, joissa on tasan kolme särmää. a) Jokainen verkko G H toteuttaa väitteen E(G) [V]. Toisaalta jokainen
LisätiedotDiplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2017 Insinöörivalinnan matematiikan koe , Ratkaisut (Sarja A)
Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 017 Insinöörivalinnan matematiikan koe 30..017, Ratkaisut (Sarja A) 1. a) Lukujen 9, 0, 3 ja x keskiarvo on. Määritä x. (1 p.) b) Mitkä reaaliluvut
Lisätiedota) Sievennä lauseke 1+x , kun x 0jax 1. b) Aseta luvut 2, 5 suuruusjärjestykseen ja perustele vastauksesi. 3 3 ja
1 YLIOPPILASTUTKINTO- LAUTAKUNTA 1.10.2018 MATEMATIIKAN KOE PITKÄ OPPIMÄÄRÄ A-osa Ratkaise kaikki tämän osan tehtävät 1 4. Tehtävät arvostellaan pistein 0 6. Kunkin tehtävän ratkaisu kirjoitetaan tehtävän
LisätiedotTehtävät. 1. Ratkaistava epäyhtälöt. a) 2(4 x) < 12, b) 5(x 2 4x + 3) < 0, c) 3 2x 4 > 6. 1/10. Sukunimi (painokirjaimin)
1/10 Tehtävä 1 2 3 4 5 6 7 8 9 10 Yhteensä Pisteet (tarkastaja merkitsee) Kokeessa on kymmenen tehtävää, joista jokainen on erillisellä paperilla. Jokaisen tehtävän maksimipistemäärä on 6 pistettä. Ratkaise
Lisätiedot