MAIJA MÄKELÄ KERROKSEN TUNNISTUS WLAN-DATAAN PERUSTUEN. Kandidaatintyö

Koko: px
Aloita esitys sivulta:

Download "MAIJA MÄKELÄ KERROKSEN TUNNISTUS WLAN-DATAAN PERUSTUEN. Kandidaatintyö"

Transkriptio

1 MAIJA MÄKELÄ KERROKSEN TUNNISTUS WLAN-DATAAN PERUSTUEN Kandidaatintyö Tarkastaja: Simo Ali-Löytty Palautettu

2 I TIIVISTELMÄ TAMPEREEN TEKNILLINEN YLIOPISTO Teknis-luonnontieteellinen koulutusohjelma MAIJA MÄKELÄ: Kerroksen tunnistus WLAN-dataan perustuen Kandidaatintyö, 21 sivua, 0 liitesivua Elokuu 2013 Pääaine: Matematiikka Tarkastajat: Simo Ali-Löytty Avainsanat: kerroksen tunnistus, k:n lähimmän naapurin menetelmä, Bayes-luokitin Tässä työssä tarkastellaan kolmen eri menetelmän toimintaa kerroksen tunnistuksessa WLAN-dataan perustuen. Nämä menetelmät ovat yksinkertainen kerroksen tunnistus, k:n lähimmän naapurin menetelmään perustuva kerroksen tunnistus, sekä Bayesin minimiriskiluokittimeen perustuva kerroksen tunnistus. Työssä esitetään näiden mallien teoreettinen tausta sekä käytännön toteutus. Malleja testataan Tampereen teknillisen yliopiston Tietotalossa kerätyillä opetus- ja testinäytteillä. Sekä laskennallisen tehokkuuden, että tarkkuuden perusteella arvioituna todetaan Bayesin minimiriskiluokittimeen perustuva kerroksen tunnistus parhaaksi tässä työssä esitetyistä vaihtoehdoista. Johtopäätöksissä käsitellään joitain mahdollisuuksia, joita tulevaisuuden työssä voitaisiin ottaa huomioon.

3 II SISÄLLYS 1. Johdanto Teoreettinen tausta kerroksen tunnistuksessa Bayesin päätösteoria Bayesin kaava Bayesin minimiriskiluokitin Bayes-luokittimen virhe Bayesin minimivirheluokitin k:n lähimmän naapurin menetelmä k:n lähimmän naapurin estimaatti k:n lähimmän naapurin algoritmi k:n lähimmän naapurin luokittimen virhe Kerroksen tunnistuksen mallien käytännön toteutus ja testaus Toteutus Yksinkertainen malli k:n lähimmän naapurin malli Bayes-malli Testaus Tehokkuus Tarkkuus Mallien vertailu Johtopäätökset Lähteet

4 III TERMIT JA NIIDEN MÄÄRITELMÄT x F x F n R n ω i p Piirrevektori, opetusnäyte Piirreavaruus x kuuluu joukkoon F Positiivinen kokonaisluku, opetusnäytteiden määrä n-ulotteisten reaalivektoreiden joukko i:s piirrevektorien luokka Luokkatiheysfunktio A, B i Otosavaruuden tapahtumia Ω P (A) P (A B) Otosavaruus Tapahtuman A todennäköisyys Tapahtuman A todennäköisyys ehdolla B >, < Suurempi kuin, pienempi kuin, Pienempi tai yhtäsuuri, suurempi tai yhtäsuuri = Yhtäsuuruus Summa c α i λ R argmin i x i argmax i x i Joukkojen leikkaus Ekvivalenssi Positiivinen kokonaisluku, luokkien määrä i:s toimenpide Tappiofunktio Erisuuruus Ehdollinen riski i, jolle x i on pienin mahdollinen i, jolle x i on suurin mahdollinen

5 IV E(α) E(α(x) x) F Luokittimen α luokitusvirhe Todennäköisyys, jolla α sijoittaa piirrevektorin x väärään luokkaan Integraali yli F:n Miinus Erisuuruus k, k n Positiivinen kokonaisluku, lähimpien naapureiden määrä B n V n p n α Bayes α KNN α Simple D n D i y d(x, y) x ID,ij a x-keskinen pallo Pallon B n tilavuus Luokkatiheysfunktion estimaatti Lähestyy Ääretön Bayesin minimiriskiluokitin k:n lähimmän naapurin luokitin Yksinkertainen luokitin n:n opetusnäytteen joukko i:nen luokan opetusnäytteet Testinäyte x:n ja y:n välinen etäisyys Kerroksen i j:nen opetusnäytteen ID-vektori Positiivinen kokonaisluku, tukiaseman indeksi r ai Tukiaseman a esiintyvyys kerroksen i opetusnäytteissä n i i a Kerroksen i opetusnäytteiden määrä Kerros i, jossa tukiasema a kuuluu voimakkaimmin m ai Tukiaseman a saamien RSS-arvojen keskiarvo kerroksessa i x RSS,ij Kerroksen i j:nen opetusnäytteen RSS-vektori

6 V dim(x) y ID,j y RSS,k x RSS,bin x RSS,bini F x A p i x Vektorin x dimensio Testinäytteen y ID-vektorin j:s alkio Testinäytteen y RSS-vektorin k:s alkio Binäärivektoriksi muutettu RSS-vektori Binäärivektoriksi muutetun RSS-vektorin i:s alkio Kaikkien mahdollisten (diskreettien) tapahtumien joukko Suotuisien tapahtumien joukko i:nen alkion todennäköisyys Osajoukko Tulo x:n itseisarvo % Prosenttia

7 VI LYHENTEET WLAN RSSI RSS ID AOA TOA TDOA SNR Wireless Local Area Network, langaton lähiverkko Received Signal Strength Indicator, vastaanotetun signaalin voimakkuuden indikaattori Received Signal Strength, vastaanotetun signaalin voimakkuus Identier, tunniste Angle Of Arrival, tulokulma Time Of Arrival, saapumisaika Time Dierence Of Arrival, saapumisen aikaero Signal To Noise Ratio, signaalikohinasuhde

8 1 1. JOHDANTO Nykyisin yhä useammat mobiilisovellukset käyttävät hyväkseen tietoa käyttäjän sijainnista. Sovellusten käyttötarkoitukset vaihtelevat navigoinnista opastettuihin museokierroksiin ja kaupan opasteista kohdennettuun mainontaan. [8] Yksi tämän hetken käytetyimmistä järjestelmistä on GPS (Global Positioning System), joka käyttää hyväkseen satelliittisignaalia. GPS ei kuitenkaan yleensä sovi paikannukseen sisätiloissa, sillä rakennukset usein estävät kunnollisen yhteyden. GPS:n sijasta paikannukseen sisätiloissa voidaan käyttää joitain eri vaihtoehtoja, jotka perustuvat jo olemassa olevaan infrastruktuuriin. Useimmiten sisätilapaikannuksessa käytetty tällainen infrastruktuuri on WLAN-tukiasemat (Wireless Local Area Network ), joita monissa julkisissa rakennuksissa on lukuisia. Tukiasemien hyödyntäminen on taloudellista, sillä se ei vaadi erillisen paikannusjärjestelmän rakentamista, toisin kuin jotkut muut mahdolliset menetelmät. Sitä voidaan hyödyntää esimerkiksi kolmiopaikannukseen, paikannukseen signaalin suunnan tai saapumiskulman (Angle Of Arrival, AOA) perusteella, signaalin saapumisajan (Time Of Arrival, TOA) perusteella, tai signaalin saapumisen aikaeron (Time Dierence Of Arrival, TDOA) perusteella. [2, 9] Näillä menetelmillä paikannus sisätiloissa on kuitenkin haastavaa, sillä tukiasemien signaalit heijastuvat rakennuksen pinnoista, esineistä ja ihmisistä heikentäen näiden laskelmien luotettavuutta. Sormenjälkeen perustuva paikannus (location ngerprinting) poikkeaa ylläolevista menetelmistä merkittävästi. Kun nämä menetelmät tähtäävät käyttäjän etäisyyden määrittämiseen jostain kiinteästä pisteestä, sormenjälkimenetelmässä pyritään paikannukseen radiokartan (radio map) perusteella. Radiokartta koostuu useista eri sijaintitiedoista, ja näihin sijainteihin liitetyistä RSSI-arvoista (Received Signal Strength Indicator ). RSSI-arvo kuvaa tietyn tukiaseman lähettämän signaalin voimakkuutta. Toinen vastaava WLAN-tukiasemiin perustuva arvo, joka voisi olla sovellettavissa paikannukseen, on SNR (Signal to Noise Ratio). Kuitenkin RSSI korreloi paremmin sijainnin kanssa kuin SNR. [2] Paikannus tapahtuu vertaamalla mitattua sormenjälkeä (RSS-arvoja) radiokarttaan. Kun rakennus, jossa paikannusta tehdään, on suuri ja siinä on useita kerroksia, voi paikannus olla laskennallisesti hidasta ja epätarkkaa. Näin ollen voi olla hyödyllistä ensin selvittää käyttäjän kerros jollakin riittävällä tarkkuudella. Kun kerros, jossa käyttäjä sijaitsee, on tiedossa, riittää enää laskea käyttäjän sijainti kyseisessä

9 1. Johdanto 2 kerroksessa koko rakennuksen sijaan. Tässä työssä sovelletaan sormenjälkeen perustuvaa paikannusta ja keskitytään käyttäjän kerroksen tunnistukseen. Radiokartan informaatiota voidaan käyttää opetusnäytteinä, ja näistä näytteistä voidaan saada tilastollista tietoa. Paikannuksessa tilastomatematiikan ja erityisesti hahmontunnistuksen menetelmät ovat hyödyllisiä, ja joitain näitä menetelmiä käsitellään tässä työssä. Luvussa 3 käsitellään kolmen mahdollisen eri kerroksentunnistusmenetelmän käytännön toteutusta ja toimintaa ja luvussa 2 tarkastellaan matemaattista teoriaa, joita näissä menetelmissä hyödynnetään. Lopuksi luvussa 3.2 vertaillaan esitettyjä menetelmiä.

10 3 2. TEOREETTINEN TAUSTA KERROKSEN TUNNISTUKSESSA Kerroksen tunnistusta voidaan käsitellä hahmontunnistusongelmana. Tietyssä pisteessä mitattua RSS-vektoria voidaan käsitellä hahmovektorina, joka luokitetaan johonkin luokkaan. Kukin kerros muodostaa oman luokkansa. Radiokartasta saatavien opetusnäytteiden perusteella voidaan approksimoida kullekin luokalle tarvittavaa tilastollista informaatiota, kuten esimerkiksi prioritodennäköisyyksiä ja RSS-arvojen jakaumaa ja tiheyttä. 2.1 Bayesin päätösteoria Bayesin päätösteoriassa on tarkoituksena luokittaa kohde ongelmasta olemassa olevan tilastollisen datan perusteella. Tällaista dataa on esimerkiksi eri luokitustulosten prosentuaalinen osuus kaikista luokituksista tai kunkin luokan ominaisuuksien tiheysfunktiot. Olkoon x F, missä x:ää kutsutaan piirrevektoriksi ja F:ää piirreavaruudeksi. Useimmiten piirreavaruus on n-ulotteinen Euklidinen avaruus R n. [4] Olkoon {ω 1,..., ω c } äärellinen joukko luokkia, joiden lukumäärä on c. Tarkoituksena on sijoittaa mielivaltainen piirrevektori johonkin näistä annetuista luokista. Luokkien prioritodennäköisyydet P (ω 1 ),..., P (ω c ) ja luokkatiheysfunktiot p(x ω 1 ),..., p(x ω c ) oletetaan tunnetuiksi tai ne voi estimoida opetusnäytteistä. [4] Bayesin kaava Bayesin kaava Jos B 1,..., B n on otosavaruuden Ω ositus ja P (B i ) > 0, i = 1,..., n, ja P (A) > 0, niin P (B i A) = P (A B i )P (B i ) n k=1 P (A B k)p (B k ). (2.1) Todistus: Ehdollisen todennäköisyyden määritelmästä (katso esimerkiksi [5], s. 12) saadaan

11 2. Teoreettinen tausta kerroksen tunnistuksessa 4 ja edelleen P (B i A) = P (B i A) P (A) ja P (A B i ) = P (A B i) P (B i ) P (B i A)P (A) = P (B i A) ja P (A B i )P (B i ) = P (A B i ). Koska P (B i A) = P (A B i ), saadaan P (B i A)P (A) = P (A B i )P (B i ) P (B i A) = P (A B i)p (B i ) P (A) = P (A B i )P (B i ) n k=1 P (A B k)p (B k ) Sovellettaessa Bayesin kaavaa (2.1) hahmontunnistuksessa se yleensä kirjoitetaan muotoon missä P (ω i x) = p(x ω i)p (ω i ), (2.2) p(x) p(x) = c p(x ω k )P (ω k ). (2.3) k=1 Tässä p(x ω k ) viittaa jatkuvan jakauman tiheysfunktioon. [3] Mikäli kyse on diskreetistä tapauksesta, tiheysfunktiosta tulee singulaarinen ja Bayesin kaava kirjoitetaan muotoon ([3]) missä P (ω i x) = P (x ω i)p (ω i ), (2.4) P (x) P (x) = c P (x ω k )P (ω k ). (2.5) k= Bayesin minimiriskiluokitin Tappiofunktio Tappiofunktio kuvaa tietyn luokituksen aiheuttamia kuluja, ja sitä käytetään muutettaessa todennäköisyyslaskelma käytännön luokitukseksi. [3] Määritelmä 1 Olkoon {ω 1... ω c } äärellinen joukko luokkia ja {α 1... α a } äärellinen joukko mahdollisia toimenpiteitä. Tappiofunktio λ(α j ω i ) kuvaa tappiota, joka syntyy kun luokituksen jälkeen suoritetaan toimenpide α j silloin, kun luokituksen kohde todellisuudessa kuuluu luokkaan ω i.

12 2. Teoreettinen tausta kerroksen tunnistuksessa 5 Toimenpiteitä ei välttämättä ole yhtä montaa kuin luokkia, eli välttämättä ei ole a = c. Ongelmasta riippuen voi olla mahdollista, että esimerkiksi useammalle luokalle suoritetaan sama toimenpide. Silloin, kun jokainen virheellinen luokitus tuottaa yhtä suuren tappion ja toimenpiteitä on yhtä monta kuin luokkia, voidaan käyttää symmetristä (englanniksi symmetric tai zero-one loss function) tappiofunktiota [3]: { 0, i = j λ(α j ω i ) = i, j = 1,..., c. (2.6) 1, i j Tappiofunktion arvo on siis nolla, kun luokitus on oikea ja yksi, kun luokitus on virheellinen. Ehdollinen riski Määritelmä 2 Ehdollinen riski R(α j x) kuvaa tietyn toimenpiteen α j tappiota, kun havaittu piirrevektori on x. [4] tuottamaa R(α j x) = c λ(α j ω k )P (ω k x) (2.7) k=1 Ehdollinen riski on siis summa tappiofunktion arvoista kullekin luokitukselle painotettuna kunkin luokituksen todennäköisyydellä tapahtua. [3] Bayesin päätössääntö Bayesin päätössääntö Kokonaisriskin minimoimiseksi lasketaan ehdollinen riski R(α j x) (2.7), j = 1,..., a ja valitaan se toimenpide α j jolle R(α j x) on pienin. Saavutettua kokonaisriskin minimiä kutsutaan Bayesin riskiksi ja se on paras saavutettavissa oleva luokituksen tulos. [3] Todistus: Sivuutetaan, katso esimerkiksi [11]. Yleisesti Bayesin minimiriskiluokitin voidaan kirjoittaa funktiomuodossa ([3]) α Bayes (x) = arg min R(α i x), (2.8) ω i,i=1,...,c missä R(α i x) saadaan kaavasta (2.7).

13 2. Teoreettinen tausta kerroksen tunnistuksessa Bayes-luokittimen virhe Luokitusongelman ollessa tilastollinen ei voida olettaa, että mikään luokitin toimisi täydellisesti. Bayes-luokittimen virhe syntyy luokkkatiheysfunktioiden ollessa osittain päällekkäisiä, eikä tätä virhettä näin ollen ole mahdollista poistaa. [3] Luokitusvirhe E(α) kuvaa todennäköisyyttä, jolla päätössääntö α sijoittaa luokituksen kohteen väärään luokkaan. Koska tulos riippuu aina luokitettavasta kohteesta, tarkastellaan virhettä E(α(x) x), joka siis kuvaa todennäköisyyttä, jolla päätössääntö α sijoittaa piirrevektorin x väärään luokkaan. Tämä tulos on onnistuneen luokituksen komplementti: E(α(x) x) = 1 P (α(x) x) (2.9) Yhtälön (2.9) avulla luokittimen α virhe yli kaikkien piirrevektorien x voidaan kirjoittaa E(α) = E(α(x) x)p(x)dx = [1 P (α(x) x)]p(x)dx F F Bayesin säännön perusteella saadaan P (α(x) x) = p(x α(x))p (α(x)). p(x) Luokitusvirhe on siis E(α) = 1 p(x α(x))p (α(x))dx. (2.10) Diskreetissä tapauksessa luokitusvirhe voidaan kirjoittaa muotoon F E(α) = 1 x F P (x α(x))p (α(x)). (2.11) Bayesin minimivirheluokitin Bayesin minimivirheluokitin on Bayesin minimiriskiluokittimen erikoistapaus. [4] Sijoittamalla symmetrinen tappiofunktio ehdollisen riskin kaavaan saadaan R(α j x) = c k=1 λ(α j ω k )P (ω k x) = k j P (ω k x) = 1 P (ω j x). (2.12) Symmetrisen tappiofunktion tapauksessa riski on täsmälleen sama kuin virheen keskimääräinen todennäköisyys (2.10) ja P (ω j x) on todennäköisyys sille, että toi-

14 2. Teoreettinen tausta kerroksen tunnistuksessa 7 menpide α j on oikea. [3] Saadaksemme mahdollisimman pienen virhetodennäköisyyden (2.12) on P (ω j x) oltava mahdollisimman suuri. Näin saadaan Bayesin minimivirheluokitin: Valitaan ω j jos P (ω j x) > P (ω i x) kaikilla i j. (2.13) Funktiomuodossa luokitin voidaan määritellä α Bayes (x) = arg max P (ω i x). (2.14) ω i,i=1,...,c P (ω i x) saadaan Bayesin kaavasta. Koska p(x) (2.3) ei riipu luokasta, voidaan α Bayes (x) kirjoittaa muotoon α Bayes (x) = arg max p(x ω i)p (ω i ). (2.15) ω i,i=1,...,c 2.2 k:n lähimmän naapurin menetelmä k:n lähimmän naapurin menetelmä (englanniksi k-nearest neighbour, edempänä myös KNN) on yksi käytetyimpiä hahmontunnistuksen malleja Bayesin mallin ohella. Toisin kuin Bayes-luokitin, k:n lähimmän naapurin menetelmä on usein käyttökelpoinen tapauksissa, joissa luokkien prioritodennäköisyyksiä tai luokkatiheysfunktioita ei tunneta ennalta. Tällöin on oltava käytettävissä valmiiksi luokiteltuja opetusnäytteitä. Karkeasti menetelmän perusajatuksena on luokittaa piirrevektori x niiden k:n opetusvektorin perusteella, jotka jollakin metriikalla ovat lähimpänä vektoria x kaikista opetusvektoreista. [4] k:n lähimmän naapurin estimaatti Kun opetusnäytteitä on n kappaletta, B n on pienin mahdollinen x-keskinen pallo, joka sisältää k n kappaletta opetusnäytteitä. Merkitään tämän pallon tilavuutta V n :llä. Tällöin k n :n lähimmän naapurin tiheysestimaatti on [3] p n (x) = k n nv n. (2.16) Jotta KNN-tiheysestimaatti lähestyisi todellista tiheysfunktiota x:n ympäristössä, vaaditaan (Todistus, katso [7]), että k n kun n ja k n 0 kun n. n Vastaavasti voidaan estimoida myös posteriortodennäköisyyksiä P (ω i x). Olkoon B n x-keskinen pallo, jonka tilavuus on V n, ja joka sisältää k opetusnäytettä. Näistä

15 2. Teoreettinen tausta kerroksen tunnistuksessa 8 näytteistä k i kuuluu luokkaan ω i. Nyt x:n ja ω i :n yhteistiheyden estimaatti on ([3]) Nyt estimaatti P (ω i x):lle on p n (x, ω i ) = k i nv n. P n (ω i x) = p n(x, ω i ) p n (x) = k i nv n k n nv n = k i k. (2.17) Funktiomuodossa KNN-luokitin voidaan kirjoittaa (kuten Bayes-luokitin) α KNN (x) = arg max P n(ω i x) = arg ω i,i=1,...,c max ω i,i=1,...,c k i k. (2.18) Kuva 2.1: Esimerkki k:n lähimmän naapurin estimaatista Kuvassa 2.1 on havainnollistettu k:n lähimmän naapurin estimaatin laskemista kaksiulotteisessa tapauksessa. Näytteet ovat peräisin tässä työssä käytetystä opetusdatasta. Siniset ristit kuvaavat joitain luokan ω 2 opetusnäytteitä, tässä tapauksessa kerroksen kaksi näytteitä north-east -koordinaatistossa. Punaiset pallot kuvaavat luokan ω 3 opetusnäytteitä, siis kerroksen kolme näytteitä. Luokkien ω 4 ja ω 5 edustajat on merkitty vastaavasti. Musta neliö kuvaa luokitettavaa mitattua RSS-vektoria

16 2. Teoreettinen tausta kerroksen tunnistuksessa 9 x. Kuvaan on piirretty ympyrä B n, jonka sisään jää täsmälleen k = 10 opetusnäytettä. Näistä näytteistä kuuluu luokkaan ω 2 neljä kappaletta, luokkaan ω 3 kolme kappaletta, luokkaan ω 4 yksi kappale ja luokkaan ω 5 kaksi kappaletta. Nyt luokalle ω 2 P n (ω 2 x) = 4, luokalle ω 10 3 P n (ω 3 x) = 3, luokalle ω 10 4 P n (ω 4 x) = 1 ja luokalle 10 ω 5 P n (ω 5 x) = 2. Näin ollen hahmovektori siis luokitetaan luokkaan kaksi k:n lähimmän naapurin algoritmi Olkoon D n = {x 1,..., x n } vektorien joukko, missä vektorit x i on ennalta luokiteltu luokkiin, joita on c kappaletta. Tätä joukkoa kutsutaan opetusnäytteiksi. Luokan i opetusnäytteitä merkitään D i = {x i1,..., x ini }, i = 1,..., c. Piste y luokitetaan opetusnäytteiden perusteella seuraavasti ([4]): Lasketaan etäisyys d(y, x i ) kaikilla i = 1,..., n valitulla metriikalla. Valitaan k opetusnäytettä x i, joilla on pienin etäisyys d(y, x i ) ja lasketaan montako (k i ) kunkin luokan edustajaa löytyy tästä joukosta. Luokitetaan y luokkaan jolle k i on suurin k:n lähimmän naapurin luokittimen virhe Kuten Bayes-luokittimen tapauksessa, myös KNN-luokitin on luonteeltaan tilastollinen. Näin ollen sen virhe on selvästi ainakin Bayes-virheen suuruinen. Kuitenkaan opetusnäytteitä ei koskaan ole käytettävissä ääretöntä määrää, joten tiheysestimaatti (2.16) ei koskaan saavuta todellista luokkatiheysfunktiota. k:n arvolla 1 (lähin naapuri, nearest neighbor) luokittimen virhe on korkeintaan kaksi kertaa Bayes-virheen suuruinen, kun luokkien määrä on c. [4] ( E(α Bayes ) E(α NN ) E(α Bayes ) 2 c ) c 1 E(α Bayes) Kun k 1, voidaan näyttää että luokittimen virhe on korkeintaan (2.19) E(α Bayes ) E(α KNN ) 2E(α Bayes )(1 E(α Bayes )) (2.20) Todistus: Sivuutetaan, katso [6].

17 10 3. KERROKSEN TUNNISTUKSEN MALLIEN KÄYTÄNNÖN TOTEUTUS JA TESTAUS Kaikki tämän työn mallit toteutetaan ja testataan MATLAB-ohjelmistolla. Tässä työssä käytetyt opetusnäytteet ja testinäytteet on mitattu Tampereen teknillisen yliopiston Tietotalossa ja ne on tallennettu MATLAB-yhteensopivassa muodossa. Opetusnäytteitä D n on yhteensä n = 3552 kappaletta, ja ne on jaettu c = 5 luokkaan. Luokille ω 1,..., ω 5 opetusnäytteitä D i (i = 1,..., c) on n 1 = 0, n 2 = 1530, n 3 = 1582, n 4 = 333 ja n 5 = 107 kappaletta. Eri tukiasemia opetusnäytteissä on 232 kappaletta. Opetusnäytteet ja testinäytteet ovat muodoltaan vastaavia kuin esimerkki taulukossa 3.1. Testinäytteitä on käytössä kaksi joukkoa, ensimmäisessä näistä on 76 näytettä ja toisessa 52 näytettä. time : pos_ll : [2x1double] pos_en : [2x1double] floor : 2 id : [1x8double] rss : [ ] %Aikaleima %Mittauspiste latitudelongitude koordinaatistossa %Mittauspiste eastnorth koordinaatistossa %Kerros %Kuultujen WLAN tukiasemien tunnisteet %Tukiasemia vastaavat RSSI arvot Taulukko 3.1: Esimerkki yhdestä opetusnäytteestä MATLABissa Testinäytteet ovat muodoltaan samanlaisia kuin opetusnäytteet. Testinäytteistä sijainti- ja kerrosinformaatiota käytetään ainoastaan käytetyn menetelmän onnistumisen testaamiseen. Käytetystä mallista riippuen opetusdatasta käytetään joko ID-vektoria, tai RSSvektoria ja käytetty vektori mainitaan mallin kuvauksen yhteydessä. 3.1 Toteutus Yksinkertainen malli Yksinkertaisimmillaan käyttäjän kerros voidaan päätellä sormenjäljen voimakkaimmasta signaalista. Paikannuksen tulos saadaan sen tukiaseman perusteella, joka kyseisen signaalin lähettää. Voidaan esimerkiksi selvittää, missä kerroksessa tämä tukiasema sijaitsee, ja palauttaa tämä kerros käyttäjälle. Aina ei kuitenkaan ole saa-

18 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 11 tavilla tietoa siitä, missä kerroksessa kukin tukiasema on. Tällöin kerros, jossa tukiasema kuuluu voimakkaimmin täytyy päätellä opetusnäytteiden perusteella. Tälle päättelylle ei kirjallisuudesta löydy menetelmää, joten edempänä on esitetty kaksi mahdollista päättelytapaa tukiaseman voimakkaimman kuuluvuuden kerrokselle. Kerros, jossa tietty tukiasema kuuluu voimakkaimmin, voidaan määritellä usealla eri tavalla. Tässä työssä tähän määrittelyyn on käytetty kahta eri menetelmää. Toinen on kunkin kerroksen opetusnäytteiden mittauspisteiden, joissa saadaan yhteys kyseiseen tukiasemaan, suhde kerroksen kaikkiin opetusnäytteisiin. Kerros, jolle tämä suhdeluku on suurin, on kerros jossa kyseinen tukiasema kuuluu voimakkaimmin. Toisessa menetelmässä lasketaan kullekin tukiasemalle kerrosta kohden keskiarvo kaikista signaalinvoimakkuuksista. Kerros, jossa tämä keskiarvo on suurin, on kerros jossa kyseinen tukiasema kuuluu voimakkaimmin. Tässä lähestymistavassa tulee huomioida myös tilanne, jossa kerrosta tunnistettaessa voimakkaimmin kuuluu tukiasema, jota ei ole opetusdatassa. Yksinkertaisessa mallissa opetusnäytteet D n = {x 1,..., x n } on luokiteltu valmiiksi c luokkaan, ja luokan i näytteet ovat D i = {x i1,..., x ini }. Mitatttua näytettä tai testinäytettä merkitään y:llä. Suhdelukuun perustuva malli Olkoon r ai luku, joka kuvaa monessako kerroksen i opetusnäytteessä x ID,ij (j = 1,..., n i ) on saatu yhteys tukiasemaan a. r ai saadaan laskemalla summa missä h j = { n i r ai = h j, (3.1) j=1 1, kun a = x ID,ijk, missä k = 1,..., dim(x ID,ij ) 0, muulloin Nyt kerros i a, jossa tukiasema a kuuluu voimakkaimmin, saadaan laskemalla Keskiarvoon perustuva malli r ai i a = arg max (3.2) i,i=1...c n i Olkoon m ai tukiaseman a mitattujen RSS-arvojen keskiarvo kerroksessa i yli kaikkien kerroksen opetusnäytteiden x RSS,ij (j = 1,..., n i ). Jos jossain näytteessä tukiasemaan a ei ole saatu yhteyttä, tämä tukiasema jätetään laskennassa huomiotta. m ai saadaan laskemalla

19 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 12 missä n ai s ai = { m ai = ni j=1 s a i n ai, (3.3) x RSS,ijk, kun a = x ID,ijk, missä k = 1,..., dim(x ID,ij ) 0, muulloin on luku, joka kertoo montako kertaa tukiasema a on kuultu kerroksessa i ja se lasketaan kuten r ai yhtälössä (3.1). Vastaavasti kuten edellä, kerros i a jossa tukiasema a kuuluu voimakkaimmin on i a = arg max i,i=1...c m a i (3.4) Kuva 3.1: Erään tukiaseman suhdeluvut ja keskiarvot kerroksittain, ratkaistu kerros sama molemmilla. Kuvassa 3.1 nähdään eräälle tukiasemalle lasketut suhdeluvut ja keskiarvot kerroksittain, kun ratkaistu kerros molemmilla malleilla on kaksi. Suhdelukuun perustuvan mallin antamat arvot ovat positiivisia, kun taas keskiarvoon perustuvan mallin negatiivisia. Kuvassa 3.2 nähdään toiselle tukiasemalle lasketut arvot, kun ratkaistut kerrokset eroavat toisistaan. Suhdelukuun perustuvalla mallilla ratkaistu kerros on neljä, kun taas keskiarvoon perustuvalla mallilla ratkaistu kerros on kak-

20 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 13 Kuva 3.2: Erään tukiaseman suhdeluvut ja keskiarvot kerroksittain, ratkaistu kerros eri molemmilla. si. Kummassakaan mallissa kerroksia, joissa tukiasemaa ei ole kuultu lainkaan, ei huomioida. Testinäyte y luokitetaan sen tukiaseman mukaan, jonka mitattu RSS-arvo on suurin. Olkoon se testinäyttelle y y ID,max = y ID,j, kun j = arg max y RSS,k (3.5) k,k=1,...,dim(y RSS ) Nyt luokitustulos y:lle on kerros i, kun i = i a. i a ratkaistaan sijoittamalla a = y ID,max joko yhtälöön (3.2) tai yhtälöön (3.4). Funktiomuodossa edellä esitetty yksinkertainen luokitin voidaan vielä kirjoittaa k:n lähimmän naapurin malli α Simple (y) = ω i, i = i yid,max. (3.6) KNN-malli toteutetaan, kuten luvussa 2.2 on esittetty. Opetusnäytteitä joudutaan kuitenkin muokkaamaan tätä mallia varten, sillä näihin on talletettu tieto ainoastaan niistä tukiasemista, joihin on saatu yhteys mittauspisteessä. Jotta RSS-vektorit olisivat vertailukelpoisia keskenään, niiden dimensioiden on oltava samansuuruiset

21 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 14 ja jokainen tukiasema, joka on opetudatassa on huomioitava joka näytteessä. Siispä tukiasemille, joihin ei ole saatu yhteyttä, asetetaan RSS-arvoksi vakio, joka on yhtä pienempi kuin pienin mitattu RSS-arvo (kuten [1]), tässä tapauksessa -96. Samalla jokainen RSS-vektori järjestetään tukiasemittain. Myös testinäytteet käsitellään vastaavasti. Kuva 3.3: Erään tukiaseman eri RSS-arvojen lukumäärät täydennettynä kuulemattomilla tukiasemilla. Kuvassa 3.3 on histogrammi erään opetusnäytteen RSS-arvoista, kun kuulumattomat tukiasemat on ensin lisätty RSS-vektoriin. Kuvasta nähdään selvästi, että vektorissa on arvo -96 moninkertaisena ja muita arvoja on vain vähän. Kuulumattomien tukiasemien tallettaminen opetusnäytteisiin kuluttaa resursseja, mutta niiden huomioiminen on tarpeellista laskennan onnistumiseksi Bayes-malli Bayesin minimiriskiluokitin toteutetaan, kuten luvussa 2.1 on esitetty. Toisin kuin KNN-mallissa, tässä mallissa luokitus tehdään käyttäen alkuperäisestä RSS-vektorista rakennettua binäärivektoria. Opetusnäytteen vektorissa x RSS,bin x RSS,bini on yksi,

22 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 15 kun indeksiä i vastaava tukiasema on kuultu näytteessä, muutoin x RSS,bini on nolla. Kuten KNN-mallissa, myös tässä on huomioitava jokainen tukiasema, joka on opetusdatassa. Kaavan (2.15) luokkatiheysfunktiota approksimoidaan monimuuttujan Bernoullin jakauman (kutsutaan myös Poissonin binomijakaumaksi) tiheysfunktiolla (lisätietoja, katso [10]). Olkoon F x kaikkien mahdollisten tapahtumien joukko, ja A suotuisien tapahtumien joukko siten, että A F x. Tapahtumien i F x todennäköisyydet p i ovat välillä 0 < p i < 1 kaikilla i. Nyt todennäköisyys P (A) on P (A) = A F x ( i A p i )( j A c (1 p j )) (3.7) Todennäköisyydet p j, missä j on tukiaseman indeksi (j = 1,..., k), jokaiselle tukiasemalle kussakin kerroksessa i saadaan laskemalla arvo r ai kuten kaavassa (3.1) ja jakamalla se kerroksen tukiasemien määrällä k i. Siis p k,i = r a i k i Soveltamalla kaavaa (3.7) saadaan luokkatiheysfunktion arvo binäärivektorille y, dim(y) = k, seuraavasti p(y ω i ) = k (p j,i ) y j (1 p j,i ) (1 y j) j=1 (3.8) Tappiofunktiona tässä mallissa ei käytetä symmetristä tappiofunktiota, vaan funktiota joka antaa sitä suuremman tappion, mitä kauempana todellisesta kerroksesta ollaan. Luokituksen onnistuessa tappiofunktion arvo on nolla. Olkoon j luokitustuloksen kerros ja todellinen kerros i. Nyt tappiofunktion arvo on λ(α j ω i ) = j i (3.9) Tappiofunktion arvo on siis nolla luokituksen onnistuessa, yksi, kun oikea tulos on kerros ylempänä tai alempana, kaksi, kun oikea tulos on kaksi kerrosta ylempänä tai alempana ja niin edelleen. Luokitukseen käytetään siis kaavaa (2.8), kun tappiofunktio on (3.9). 3.2 Testaus Mallien testauksessa arvioidaan niiden nopeutta ratkaista annettu luokitusongelma, sekä tarkkuutta jolla ne pystyvät sen tekemään. Kuten mallien toteutus, myös testaus suoritetaan MATLAB-ohjelmistolla. Kuten odottaa saattaa, yksinkertainen

23 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 16 malli on sekä epätarkka, että toiminnaltaan kohtalaisen hidas. KNN-malli, joka on hahmontunnistuksessa yleisesti käytetty menetelmä, on kohtuullisen tarkka. Nykyisellä toteutuksella sekin on kuitenkin melko hidas ja sen tehokkuutta olisi hyvä vielä parantaa. Bayes-malli on laskennallisesti nopea ja yltää lähes samaan luokitustarkkuuteen kuin KNN-malli Tehokkuus Opetusdatan esikäsittely Jokaista mallia varten opetusnäytteitä joudutaan esikäsittelemään. Tämä tehdään siksi, että joka luokitukselle oleellinen informaatio olisi saatavilla mahdollisimman nopeasti. Tämä informaatio ei myöskään riipu luokitettavasta kohteesta, joten sen laskenta joudutaan suorittamaan ainoastaan kerran. Yksinkertaista mallia varten ratkaistaan luvussa kuvatulla tavalla jokainen opetusnäytteiden erillinen tukiasema ja kunkin tukiaseman voimakkaimman kuuluvuuden kerros. KNN-mallin opetusnäytteet täydennetään koskemaan jokaista tukiasemaa kuten luvussa on kuvattu ja järjestetään kerroksittain. Bayes-mallia varten etsitään opetusdatan yksittäiset tukiasemat ja jokaiselle tukiasemalle lasketaan kerroksittain todennäköisyys, jolla se kuullaan jossain kerroksen mittauspisteessä. Kuinka tämä tehdään, on kuvattu luvussa Lisäksi opetusnäytteet järjestetään kerroksittain ja opetusnäytteiden RSS-vektorit muokataan binäärivektoreiksi. Kerroksen tunnistus Edellämainittujen toimenpiteiden jälkeen joka luokituksessa joudutaan KNN- ja Bayes-malleilla täydentämään myös testinäytteen RSS-vektori. Yksittäiselle näytteelle tämä on kohtuullisen nopeaa. Taulukossa 3.2 nähdään MATLABilla mitattu keskimääräinen laskenta-aika yhtä näytettä kohden, kun täydennyksiä tehdään 3552 kappaletta. Funktio Laskenta-aika (µs) completerss 21 RSS2binary 12 Taulukko 3.2: RSS-vektorien täydennyksen laskenta-aika eri funktioille. Yksittäisen luokituksen suoritusajat edellämainituille menetelmille ovat taulukossa 3.3. Myös nämä suoritusajat on laskettu 3552 luokituksen keskiarvona. Niihin sisältyy taulukossa 3.2 ilmoitettu testinäytteen RSS-vektorin täydennys.

24 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 17 Funktio Laskenta-aika (µs) findfloor_simple 0,29 findfloor_knn 190 findfloor_bayesbin 105 Taulukko 3.3: Yksittäisen luokituksen laskenta-aika eri funktioille Tarkkuus Mallien testaukseen käytetään kahta testinäytejoukkoa, joista ensimmäisessä näytteitä on 76 ja toisessa 52 kappaletta. Ensimmäisen joukon näytteet ovat kerroksista kaksi ja kolme, ja toisen joukon näytteet ovat kerroksista kaksi, kolme ja neljä. Vertailun vuoksi selvitetään myös, kuinka hyvin eri mallit luokittavat opetusnäytteiden joukon, jossa on näytteitä 3552 kappaletta. Funktio 1. joukko 2. joukko Opetusnäytteet Suhdeluku, findfloor_simple 56,58 46,15 75,68 Keskiarvo, findfloor_simple 71,05 61,54 73,37 findfloor_knn 85,53 84,62 99,21 findfloor_bayesbin 77,63 90,38 90,65 Taulukko 3.4: Onnistuneiden luokitusten määrä (%) eri menetelmille ja joukoille Todennäköisyydet sille, että kunkin mallin ilmoittama kerros on oikea, kun ilmoitettu kerros on i, ovat taulukossa 3.5. Todennäköisyys on laskettu Bayesin kaavalla (2.1) P (i O) = P (O i)p (i), P (O) missä P (O) on luokittimen onnistumistodennäköisyys (sama kuin taulukossa 3.4), P (O i) on tietyn kerroksen i näytteiden luokittamisen onnistumistodennäköisyys ja P (i) on tietyn kerroksen prioritodennäköisyys, eli osuus opetusnäytteistä. Kerros 1 jätetään huomiotta, sillä tästä kerroksesta ei ole opetusnäytteitä. Funktio 1. kerros 2. kerros 3. kerros 4. kerros 5. kerros Suhdeluku, findfloor_simple - 34,71 50,52 10,97 3,79 Keskiarvo, findfloor_simple - 34,31 50,42 11,36 3,91 findfloor_knn - 43,16 44,41 9,39 3,04 findfloor_bayesbin - 43,85 42,92 10,00 3,23 Taulukko 3.5: Ilmoitetun luokituksen todennäköisyys olla oikea (%) kutakin kerrosta ja mallia kohden.

25 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 18 Kuva 3.4: Eri mallien tunnistamat kerrokset ja todellinen kerros testijoukolla 1. Kuva 3.5: Eri mallien tunnistamat kerrokset ja todellinen kerros testijoukolla 2.

26 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 19 Kuvassa 3.4 nähdään vielä testijoukon 1. luokitustulokset eri malleilla, ja kuvassa 3.5 nähdään samat tulokset testijoukolle 2. Kuvissa joskus esiintyvä arvo 1 tarkoittaa sitä, ettei malli ole pystynyt tunnistamaan kerrosta. Näin voi käydä siinä tapauksessa, ettei yksinkertaisessa mallissa testinäytteen suurimman RSS arvon antavaa tukiasemaa ole opetusdatassa. Ensimmäisen testinäytejoukon kohdalla kuvassa 3.4 nähdään, että eniten virheellisiä tunnistuksia tekee yksinkertainen malli kummallakin eri versiolla. Myöskin Bayes-malli tekee joitain silmiinpistävän virheellisiä tunnistuksia, mikä mahdollisesti johtuu siitä, että jotkin tietyt tukiasemat kuullaan lähes samankaltaisesti kerroksessa kaksi ja kerroksessa kolme. Toisen testinäytejoukon kohdalla kuvassa 3.5 yksinkertaisen mallin molemmilla versioilla kerroksen tunnistus on niinikään vaihtelevaa. Kertaalleen se tunnistaa kerroksen, jota ei ole koko testinäytejoukossa. KNN- ja Bayes-mallit toimivat melko hyvin. Eniten virheellisiä tunnistuksia ne tekevät kuitenkin kohdissa, joissa kerros on vaihtumassa tai juuri vaihtunut. Kerroksesta toiseen siirryttäessä käytetään portaita tai hissejä, ja Tietotalossa hissit sijaitsevat portaiden läheisyydessä. Porraskuilujen läheisyydessä olevien tukiasemien signaalit kulkevat lähes esteettä kerroksesta toiseen, ja tämä aiheuttaa epätarkkuutta kerroksen tunnistuksessa. 3.3 Mallien vertailu Eri mallien laskenta-ajoissa ja tarkkuuksissa on huomattavia eroja. Toiminnaltaan parhaaksi malliksi voitaneenkin todeta malli, joka tekee luokituksen jollakin riittävällä tarkkuudella mahdollisimman nopeasti. KNN-mallin toimintaa voidaan käyttää muiden mallien toiminnan vertailussa, sillä se on hahmontunnistuksessa laajalti käytetty ja hyväksytty menetelmä. Yksinkertainen malli toimii erittäin nopeasti. Kuitenkaan sen tarkkuus ei yllä suurellakaan testijoukolla KNN-mallin tasolle. Sillä, arvioidaanko voimakkaimman kuuluvuuden kerros suhdeluvun vai keskiarvon perusteella, ei näytä olevan suurta merkitystä. Suurella testinäytteiden joukolla suhdelukuun perustuva yksinkertainen malli on hieman parempi. KNN-mallin tarkkuus suurella testinäytteiden joukolla on erittäin hyvä. Laskennallisesti se on kuitenkin hitain tässä työssä esitetyistä malleista, ja sen nopeuttamiseksi tulisi vielä etsiä ratkaisuja. Yksi vaihtoehto voisi olla käsitellä ainoastaan niitä näytteitä, joissa on kuultu täsmälleen samat tukiasemat kuin mitatussa näytteessä. Sen toimintaa voisi myös testata muillakin metriikoilla kuin euklidisella normilla. Bayes-mallin toteutus on tässä työssä laskennalliselta nopeudeltaan ja tarkkudeltaan hyvä. Binäärivektorien käsittely on laskennallisesti nopeaa, ja huomioitavien tukiasemien määrän ollessa suuri sen tarkkuus on melko lähellä KNN-mallia. Kuitenkin luokkatiheysfunktion arvojen laskennassa todennäköisyyksiä p j,i voisi ol-

27 3. Kerroksen tunnistuksen mallien käytännön toteutus ja testaus 20 la mahdollista arvioida tarkemmin kuin tässä työssä on tehty esimerkiksi lisäämällä opetusnäytteiden määrää. Näitä estimaatteja tarkentamalla luokittimen luotettavuus todennäköisesti saataisiin paremmaksi. Sekä KNN-, että Bayes-malleja voisi niinikään parantaa huomioimalla porraskuilujen ja muiden avonaisten paikkojen läheisyyden kerroksen tunnistuksessa, ja näin poistaa epätarkkuutta tunnistuksessa kerroksen vaihtuessa. Yksinkertaisen mallin kerroksen tunnistukseen nämä seikat eivät näytä vaikuttavan.

28 21 4. JOHTOPÄÄTÖKSET Tässä työssä käsiteltiin kolmea mahdollista menetelmää kerroksen tunnistukseen sisätilapaikannuksessa. Näistä menetelmistä yksinkertainen malli perustuu tietyn tukiaseman voimakkaimman kuuluvuuden kerrokseen, ja voimakkaimman kuuluvuuden kerroksen laskemiseen on esitetty kaksi eri mahdollista vaihtoehtoa. KNN-malli perustuu k:n lähimmän naapurin menetelmään, joka on esitetty kappaleessa 2.2 ja Bayes-malli perustuu Bayesin minimiriskiluokittimeen, joka on esitetty kappaleessa 2.1. Näiden kolmen eri menetelmän laskennallista tehokkuutta ja tarkkuutta arvioitiin opetus- ja testinäytteiden perusteella, jotka on kerätty Tampereen teknillisen yliopiston Tietotalossa. Näistä menetelmistä yksinkertainen malli antoi odotetusti heikoimmat tulokset, sillä siinä testinäytteestä otetaan huomioon ainoastaan yksi tukiasema, joka saa suurimman RSS-arvon. KNN-malli oli selkeästi luokitustulokseltaan tarkin, mutta laskennallisesti hitain. Sekä luokitustuloksen, että laskenta-ajan perusteella arvioituna Bayes-malli on paras tässä työssä käsitellyistä menetelmistä. Tulevaisuudessa käytännön sovelluksissa voitaisiin testata todellisen käyttäjäinformaation muodostamien parametrien vaikutusta. Eri kerrosten prioritodennäköisyyksiä voitaisiin arvioida kerroksen todellisten käyttäjämäärien mukaan. Vastaavasti myös käyttäjän todennäköisyys vaihtaa kerroksesta toiseen voitaisiin arvioida ja ottaa huomioon kerroksen tunnistuksessa. Myös epätarkkuuksia tunnistuksessa kerroksen vaihtuessa voitaisiin vähentää huomioimalla käyttäjän sijainti kaksiulotteisessa koordinaatistossa ja kehittämällä malleja tilanteiden, joissa kerros vaihtuu, käsittelyyn. Nykyiselläänkin kuitenkin kehitettävää on vielä laskennan tehokkuuden parantamisessa ja kerrostiheysfunktioiden parametrien estimoinnissa.

29 22 LÄHTEET [1] Honkavirta, Ville Location ngerprinting methods in Wireless Local Area Networks, Master of Science Thesis, Tampere University of Technology. [2] Honkavirta V., Perälä T., Ali-Löytty S. ja Piché R A Comparative Survey of WLAN Location Fingerprinting Methods, Proc. of the 6th Workshop on Positioning, Navigation and Communication 2009 (WPNC'09), pages [3] Duda Richard O., Hart Peter E., Stork David G Pattern Classication, Second Edition, A Wiley-Interscience Publication [4] Tohka Jussi Johdatus hahmontunnistukseen, opintomoniste. Tampereen teknillinen yliopisto, Signaalinkäsittelyn laitos. [5] Perttula Antti, Vattulainen Kimmo, Suurhasko Tia Todennäköisyyslaskenta, opintomoniste kurssille MAT-20510, versio 9/2012, Tampereen teknillinen yliopisto. [6] Cover T. M., Hart P.E Nearest Neighbor Pattern Classication, IEEE Transactions On Information Theory, Vol. IT-13, No. 1, January 1967 [7] Fix E., Hodges J.L. Jr Discriminatory analysis, non-parametric discrimination, USAF School of Aviation Medicine, Randolph Field, Tex., Project , Rept. 4, Contract AF41(128)-31, February 1951 [8] Indoor positioning system, Wikipedia [9] Prasithsangaree P., Krishnamurthy P., Chrysanthis P.K On Indoor Position Location With Wireless LANs, Personal, The 13th IEEE International Symposium on Indoor and Mobile Radio Communications, 2002., pages vol. 2 [10] Wang, Y.H., On The Number Of Successes In Independent Trials Statistica Sinica 3(1993), [11] Wald, Abraham, Contributions to the Theory of Statistical Estimation and Testing Hypotheses The Annals of Mathematical Statistics, Vol. 10, Number 4 (1939),

SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5

SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja

Lisätiedot

1. TILASTOLLINEN HAHMONTUNNISTUS

1. TILASTOLLINEN HAHMONTUNNISTUS 1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,

Lisätiedot

SGN-2500: Johdatus hahmontunnistukseen. Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos

SGN-2500: Johdatus hahmontunnistukseen. Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos SGN-2500: Johdatus hahmontunnistukseen Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos 2006-2008 4. maaliskuuta 2009 ii Esipuhe Tämä moniste on syntynyt vuosina 2003 ja 2004 TTY:llä

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos K:n lähimmän naapurin menetelmä (K-Nearest neighbours) Tarkastellaan aluksi pientä (n = 9) kurjenmiekka-aineistoa, joka on seuraava:

Lisätiedot

Moniulotteisia todennäköisyysjakaumia

Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

1 Bayesin teoreeman käyttö luokittelijana

1 Bayesin teoreeman käyttö luokittelijana 1 Bayesin teoreeman käyttö luokittelijana Bayesin kaavan mukaan merkityksen kontekstille c ehdollistettu todennäkköisyys voidaan määrittää alla olevan yhtälön perusteella: P ( c) = P (c )P ( ) P (c) (1)

Lisätiedot

Juuri 10 Tehtävien ratkaisut Kustannusosakeyhtiö Otava päivitetty

Juuri 10 Tehtävien ratkaisut Kustannusosakeyhtiö Otava päivitetty Juuri 0 Tehtävien ratkaisut Kustannusosakeyhtiö Otava päivitetty 9..08 Kertaus K. a) Alapaineiden pienin arvo on ja suurin arvo 74, joten vaihteluväli on [, 74]. b) Alapaineiden keskiarvo on 6676870774

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen MAT-5 Todennäköisyyslaskenta Tentti.. / Kimmo Vattulainen Vastaa jokainen tehtävä eri paperille. Funktiolaskin sallittu.. a) P A). ja P A B).6. Mitä on P A B), kun A ja B ovat riippumattomia b) Satunnaismuuttujan

Lisätiedot

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1 T-61.281 Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti 10.2.2004, 8:30-10:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:

Lisätiedot

T Luonnollisten kielten tilastollinen käsittely

T Luonnollisten kielten tilastollinen käsittely T-61.281 Luonnollisten kielten tilastollinen käsittely Vastaukset 3, ti 11.2.2003, 16:15-18:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

4.0.2 Kuinka hyvä ennuste on?

4.0.2 Kuinka hyvä ennuste on? Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki

Lisätiedot

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme? TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä

Lisätiedot

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat 1 Tukivektoriluokittelija Tukivektorikoneeseen (support vector machine) perustuva luoikittelija on tilastollisen koneoppimisen teoriaan perustuva lineaarinen luokittelija. Perusajatus on sovittaa kahden

Lisätiedot

Diskreetin matematiikan perusteet Laskuharjoitus 2 / vko 9

Diskreetin matematiikan perusteet Laskuharjoitus 2 / vko 9 Diskreetin matematiikan perusteet Laskuharjoitus 2 / vko 9 Tuntitehtävät 9-10 lasketaan alkuviikon harjoituksissa ja tuntitehtävät 13-14 loppuviikon harjoituksissa. Kotitehtävät 11-12 tarkastetaan loppuviikon

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI 1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia

Lisätiedot

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen Yhden faktorin malli: n kpl sijoituskohteita, joiden tuotot ovat r i, i =, 2,..., n. Olkoon f satunnaismuuttuja ja oletetaan, että tuotot voidaan selittää yhtälön r i = a i + b i f + e i avulla, missä

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 7

Inversio-ongelmien laskennallinen peruskurssi Luento 7 Inversio-ongelmien laskennallinen peruskurssi Luento 7 Kevät 2012 1 Tilastolliset inversio-ongelmat Tilastollinen ionversio perustuu seuraaviin periaatteisiin: 1. Kaikki mallissa olevat muuttujat mallinnetaan

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista

Lisätiedot

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.

Lisätiedot

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen MAT-200 Todennäköisyyslaskenta Tentti 29.04.20 / Kimmo Vattulainen Funktiolaskin sallittu.. a) Pelaajat A ja B heittävät noppaa vuorotellen ja pelin voittaa se, joka saa ensimmäiseksi kuutosen. A aloittaa

Lisätiedot

Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi

Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 5.-7.11.2008. 1 Tällä viikolla Sisältösuunnitelma: Ennustamisstrategioista Koneoppimismenetelmiä: k-nn (luokittelu

Lisätiedot

Bayesilainen päätöksenteko / Bayesian decision theory

Bayesilainen päätöksenteko / Bayesian decision theory Bayesilainen päätöksenteko / Bayesian decision theory Todennäköisyysteoria voidaan perustella ilman päätösteoriaa, mutta vasta päätösteorian avulla siitä on oikeasti hyötyä Todennäköisyyteoriassa tavoitteena

Lisätiedot

1. Osoita, että joukon X osajoukoille A ja B on voimassa toinen ns. de Morganin laki (A B) = A B.

1. Osoita, että joukon X osajoukoille A ja B on voimassa toinen ns. de Morganin laki (A B) = A B. HY / Avoin yliopisto Johdatus yliopistomatematiikkaan, kesä 2015 Harjoitus 3 Ratkaisuehdotuksia Tehtäväsarja I Seuraavissa tehtävissä harjoitellaan muun muassa kahden joukon osoittamista samaksi sekä joukon

Lisätiedot

Johdatus todennäköisyyslaskentaan Kokonaistodennäköisyys ja Bayesin kaava. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Kokonaistodennäköisyys ja Bayesin kaava. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Kokonaistodennäköisyys ja Bayesin kaava TKK (c) Ilkka Mellin (2005) 1 Kokonaistodennäköisyys ja Bayesin kaava Kokonaistodennäköisyys ja Bayesin kaava: Johdanto Kokonaistodennäköisyyden

Lisätiedot

LIITE 1 VIRHEEN ARVIOINNISTA

LIITE 1 VIRHEEN ARVIOINNISTA 1 LIITE 1 VIRHEEN ARVIOINNISTA Mihin tarvitset virheen arviointia? Mittaustulokset ovat aina todellisten luonnonvakioiden ja tutkimuskohdetta kuvaavien suureiden likiarvoja, vaikka mittauslaite olisi miten

Lisätiedot

=p(x) + p(y), joten ehto (N1) on voimassa. Jos lisäksi λ on skalaari, niin

=p(x) + p(y), joten ehto (N1) on voimassa. Jos lisäksi λ on skalaari, niin FUNKTIONAALIANALYYSI, RATKAISUT 1 KEVÄT 211, (AP) 1. Ovatko seuraavat reaaliarvoiset funktiot p : R 3 R normeja? Ovatko ne seminormeja? ( x = (x 1, x 2, x 3 ) R 3 ) a) p(x) := x 2 1 + x 2 2 + x 2 3, b)

Lisätiedot

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8. HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..

Lisätiedot

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen MAT-25 Todennäköisyyslaskenta Tentti 12.4.216 / Kimmo Vattulainen Funktiolaskin sallittu. Palauta kaavakokoelma 1. a) Pelaajat A ja B heittävät noppaa vuorotellen ja pelin voittaa se, joka saa ensimmäiseksi

Lisätiedot

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille

Lisätiedot

Kohdeyleisö: toisen vuoden teekkari

Kohdeyleisö: toisen vuoden teekkari Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y

Lisätiedot

Ratkaisu: a) Kahden joukon yhdisteseen poimitaan kaikki alkiot jotka ovat jommassakummassa joukossa (eikä mitään muuta).

Ratkaisu: a) Kahden joukon yhdisteseen poimitaan kaikki alkiot jotka ovat jommassakummassa joukossa (eikä mitään muuta). Matematiikan laitos Johdatus Diskreettiin Matematiikaan Harjoitus 1 03.11.2010 Ratkaisuehdotuksia Aleksandr Nuija 1. Tarkastellaan joukkoja A = {1,3,4}, B = {2,3,7,9} ja C = {2, 5, 7}. Määritä joukot (a)

Lisätiedot

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI 1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia

Lisätiedot

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Tilastollinen testaus. Vilkkumaa / Kuusinen 1 Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää

Lisätiedot

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu 1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)

Lisätiedot

LIITE 1 VIRHEEN ARVIOINNISTA

LIITE 1 VIRHEEN ARVIOINNISTA Oulun yliopisto Fysiikan opetuslaboratorio Fysiikan laboratoriotyöt 1 1 LIITE 1 VIRHEEN RVIOINNIST Mihin tarvitset virheen arviointia? Mittaustuloksiin sisältyy aina virhettä, vaikka mittauslaite olisi

Lisätiedot

Matematiikan tukikurssi, kurssikerta 3

Matematiikan tukikurssi, kurssikerta 3 Matematiikan tukikurssi, kurssikerta 3 1 Epäyhtälöitä Aivan aluksi lienee syytä esittää luvun itseisarvon määritelmä: { x kun x 0 x = x kun x < 0 Siispä esimerkiksi 10 = 10 ja 10 = 10. Seuraavaksi listaus

Lisätiedot

k S P[ X µ kσ] 1 k 2.

k S P[ X µ kσ] 1 k 2. HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 28 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Osa tämän viikon tehtävistä ovat varsin haastavia, joten ei todellakaan

Lisätiedot

Todennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset

Todennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset Todennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset 1. Olkoon X satunnaismuuttuja, ja olkoot a R \ {0}, b R ja Y = ax + b. (a) Olkoon X diskreetti ja f sen pistetodennäköisyysfunktio.

Lisätiedot

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016 Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.

Lisätiedot

Harjoitus 7: NCSS - Tilastollinen analyysi

Harjoitus 7: NCSS - Tilastollinen analyysi Harjoitus 7: NCSS - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tilastollinen testaus Testaukseen

Lisätiedot

LIITE 1 VIRHEEN ARVIOINNISTA

LIITE 1 VIRHEEN ARVIOINNISTA 1 Mihin tarvitset virheen arviointia? Mittaustuloksiin sisältyy aina virhettä, vaikka mittauslaite olisi miten uudenaikainen tai kallis tahansa ja mittaaja olisi alansa huippututkija Tästä johtuen mittaustuloksista

Lisätiedot

Määritelmä Olkoon T i L (V i, W i ), 1 i m. Yksikäsitteisen lineaarikuvauksen h L (V 1 V 2 V m, W 1 W 2 W m )

Määritelmä Olkoon T i L (V i, W i ), 1 i m. Yksikäsitteisen lineaarikuvauksen h L (V 1 V 2 V m, W 1 W 2 W m ) Määritelmä 519 Olkoon T i L V i, W i, 1 i m Yksikäsitteisen lineaarikuvauksen h L V 1 V 2 V m, W 1 W 2 W m h v 1 v 2 v m T 1 v 1 T 2 v 2 T m v m 514 sanotaan olevan kuvausten T 1,, T m indusoima ja sitä

Lisätiedot

Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia

Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia KE (2014) 1 Hypergeometrinen jakauma Hypergeometrinen jakauma

Lisätiedot

Harjoitus 2: Matlab - Statistical Toolbox

Harjoitus 2: Matlab - Statistical Toolbox Harjoitus 2: Matlab - Statistical Toolbox Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen tavoitteet Satunnaismuuttujat ja todennäköisyysjakaumat

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma

Lisätiedot

Odotusarvo. Odotusarvon ominaisuuksia Satunnaismuuttujien ominaisuuksia 61

Odotusarvo. Odotusarvon ominaisuuksia Satunnaismuuttujien ominaisuuksia 61 3.3. Satunnaismuuttujien ominaisuuksia 61 Odotusarvo Määritelmä 3.5 (Odotusarvo) Olkoon X diskreetti satunnaismuuttuja, jonka arvojoukko on S ja todennäköisyysfunktio f X (x). Silloin X:n odotusarvo on

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo

Lisätiedot

ABHELSINKI UNIVERSITY OF TECHNOLOGY

ABHELSINKI UNIVERSITY OF TECHNOLOGY Todennäköisyyslaskennan käsitteitä Satunnaisuus ja deterministisyys Deterministisessä ilmiössä alkutila määrää lopputilan yksikäsitteisesti. Satunnaisilmiö puolestaan arpoo - yhdestä alkutilasta voi päätyä

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 18 1 Kertausta: momenttimenetelmä ja suurimman uskottavuuden menetelmä 2 Tilastollinen

Lisätiedot

HY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät 2017 Harjoitus 1 Ratkaisuehdotuksia Tehtäväsarja I

HY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät 2017 Harjoitus 1 Ratkaisuehdotuksia Tehtäväsarja I HY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät 2017 Harjoitus 1 Ratkaisuehdotuksia Tehtäväsarja I Tehtävä 1 on klassikko. 1. Tässä tehtävässä tapahtumat A ja B eivät välttämättä

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4B Bayesläinen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy

Lisätiedot

Osa 1: Todennäköisyys ja sen laskusäännöt. Kokonaistodennäköisyyden ja Bayesin kaavat

Osa 1: Todennäköisyys ja sen laskusäännöt. Kokonaistodennäköisyyden ja Bayesin kaavat Ilkka Mellin Todennäköisyyslaskenta Osa 1: Todennäköisyys ja sen laskusäännöt Kokonaistodennäköisyyden ja Bayesin kaavat TKK (c) Ilkka Mellin (2007) 1 Kokonaistodennäköisyys ja Bayesin kaava >> Kokonaistodennäköisyys

Lisätiedot

Jatkuvat satunnaismuuttujat

Jatkuvat satunnaismuuttujat Jatkuvat satunnaismuuttujat Satunnaismuuttuja on jatkuva jos se voi ainakin periaatteessa saada kaikkia mahdollisia reaalilukuarvoja ainakin tietyltä väliltä. Täytyy ymmärtää, että tällä ei ole mitään

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila Kalvoissa käytetään materiaalia P. Palon vuoden 2005 kurssista. 07.09.2007 Antti Rasila () SovTodB 07.09.2007 07.09.2007 1 / 24 1 Todennäköisyyslaskennan

Lisätiedot

Ratkaisuehdotukset LH 7 / vko 47

Ratkaisuehdotukset LH 7 / vko 47 MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [

Lisätiedot

Todennäköisyyden ominaisuuksia

Todennäköisyyden ominaisuuksia Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset

Lisätiedot

HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2017 Harjoitus 1 Ratkaisuehdotuksia

HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2017 Harjoitus 1 Ratkaisuehdotuksia HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 07 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Osa tämän viikon tehtävistä ovat varsin haastavia, joten ei todellakaan

Lisätiedot

Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia TKK (c) Ilkka Mellin (2005) 1 Normaalijakaumasta johdettuja jakaumia Johdanto χ 2 -jakauma F-jakauma t-jakauma TKK (c) Ilkka Mellin

Lisätiedot

Johdatus matematiikkaan

Johdatus matematiikkaan Johdatus matematiikkaan Luento 7 Mikko Salo 11.9.2017 Sisältö 1. Funktioista 2. Joukkojen mahtavuus Funktioista Lukiomatematiikassa on käsitelty reaalimuuttujan funktioita (polynomi / trigonometriset /

Lisätiedot

Otosavaruus ja todennäköisyys Otosavaruus Ë on joukko, jonka alkiot ovat kokeen tulokset Tapahtuma on otosavaruuden osajoukko

Otosavaruus ja todennäköisyys Otosavaruus Ë on joukko, jonka alkiot ovat kokeen tulokset Tapahtuma on otosavaruuden osajoukko ÌÓÒÒĐĐÓ ÝÝ ÔÖÙ ØØ Naiiveja määritelmiä Suhteellinen frekvenssi kun ilmiö toistuu Jos tehdas on valmistanut 1000000 kpl erästä tuotetta, joista 5013 ovat viallisia, niin todennäköisyys, että tuote on viallinen

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 9 1 Implisiittinen derivointi Tarkastellaan nyt yhtälöä F(x, y) = c, jossa x ja y ovat muuttujia ja c on vakio Esimerkki tällaisesta yhtälöstä on x 2 y 5 + 5xy = 14

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 2A Satunnaismuuttujan odotusarvo Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016,

Lisätiedot

Teema 8: Parametrien estimointi ja luottamusvälit

Teema 8: Parametrien estimointi ja luottamusvälit Teema 8: Parametrien estimointi ja luottamusvälit Todennäköisyyslaskennan perusteet (Teemat 6 ja 7) antavat hyvän pohjan siirtyä kurssin viimeiseen laajempaan kokonaisuuteen, nimittäin tilastolliseen päättelyyn.

Lisätiedot

Valitsemalla sopivat alkiot joudutaan tämän määritelmän kanssa vaikeuksiin, jotka voidaan välttää rakentamalla joukko oppi aksiomaattisesti.

Valitsemalla sopivat alkiot joudutaan tämän määritelmän kanssa vaikeuksiin, jotka voidaan välttää rakentamalla joukko oppi aksiomaattisesti. Joukon määritelmä Joukko on alkioidensa kokoelma. Valitsemalla sopivat alkiot joudutaan tämän määritelmän kanssa vaikeuksiin, jotka voidaan välttää rakentamalla joukko oppi aksiomaattisesti. Näin ei tässä

Lisätiedot

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx. Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin

Lisätiedot

Paikka- ja virhe-estimaatin laskenta-algoritmit Paikannusteknologiat nyt ja tulevaisuudessa

Paikka- ja virhe-estimaatin laskenta-algoritmit Paikannusteknologiat nyt ja tulevaisuudessa Paikka- ja virhe-estimaatin laskenta-algoritmit 25.8.2011 Paikannusteknologiat nyt ja tulevaisuudessa Simo Ali-Löytty, TTY, matematiikan laitos Mallinnus Pienimmän neliösumman menetelmä Lineaarinen Epälineaarinen

Lisätiedot

Helsingin, Itä-Suomen, Jyväskylän, Oulun, Tampereen ja Turun yliopisto Matematiikan valintakoe 11.6.2012 klo 10 13 Ratkaisut ja pisteytysohjeet

Helsingin, Itä-Suomen, Jyväskylän, Oulun, Tampereen ja Turun yliopisto Matematiikan valintakoe 11.6.2012 klo 10 13 Ratkaisut ja pisteytysohjeet Helsingin, Itä-Suomen, Jyväskylän, Oulun, Tampereen ja Turun yliopisto Matematiikan valintakoe 11.6.01 klo 10 13 t ja pisteytysohjeet 1. Ratkaise seuraavat yhtälöt ja epäyhtälöt. (a) 3 x 3 3 x 1 4, (b)

Lisätiedot

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1 Tilastotieteen kertaus Vilkkumaa / Kuusinen 1 Motivointi Reaalimaailman ilmiöihin liittyy tyypillisesti satunnaisuutta ja epävarmuutta Ilmiöihin liittyvien havaintojen ajatellaan usein olevan peräisin

Lisätiedot

3 Yleistä estimointiteoriaa. Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin

3 Yleistä estimointiteoriaa. Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin 3 Yleistä estimointiteoriaa Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin 3.1 Johdanto Tähän mennessä olemme tarkastelleet estimointia

Lisätiedot

Tekijä Pitkä matematiikka

Tekijä Pitkä matematiikka K1 Tekijä Pitkä matematiikka 5 7..017 a) 1 1 + 1 = 4 + 1 = 3 = 3 4 4 4 4 4 4 b) 1 1 1 = 4 6 3 = 5 = 5 3 4 1 1 1 1 1 K a) Koska 3 = 9 < 10, niin 3 10 < 0. 3 10 = (3 10 ) = 10 3 b) Koska π 3,14, niin π

Lisätiedot

Tilastollisen analyysin perusteet Luento 1: Lokaatio ja hajonta

Tilastollisen analyysin perusteet Luento 1: Lokaatio ja hajonta Tilastollisen analyysin perusteet Luento 1: ja hajonta Sisältö Havaittujen arvojen jakauma Havaittujen arvojen jakaumaa voidaan kuvailla ja esitellä tiivistämällä havaintoarvot sopivaan muotoon. Jakauman

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Johdatus matemaattiseen päättelyyn

Johdatus matemaattiseen päättelyyn Johdatus matemaattiseen päättelyyn Maarit Järvenpää Oulun yliopisto Matemaattisten tieteiden laitos Syyslukukausi 2015 1 Merkintöjä 2 Todistamisesta 2 3 Joukko-oppia Tässä luvussa tarkastellaan joukko-opin

Lisätiedot

Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle

Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle Olkoon X sisätuloavaruus ja Y X äärellisulotteinen aliavaruus. Tällöin on olemassa lineaarisesti riippumattomat vektorit y 1, y 2,..., yn, jotka

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28 Numeeriset menetelmät TIEA381 Luento 5 Kirsi Valjus Jyväskylän yliopisto Luento 5 () Numeeriset menetelmät 3.4.2013 1 / 28 Luennon 5 sisältö Luku 4: Ominaisarvotehtävistä Potenssiinkorotusmenetelmä QR-menetelmä

Lisätiedot

2 Pistejoukko koordinaatistossa

2 Pistejoukko koordinaatistossa Pistejoukko koordinaatistossa Ennakkotehtävät 1. a) Esimerkiksi: b) Pisteet sijaitsevat pystysuoralla suoralla, joka leikkaa x-akselin kohdassa x =. c) Yhtälö on x =. d) Sijoitetaan joitain ehdon toteuttavia

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

Helsingin, Itä-Suomen, Jyväskylän, Oulun, Tampereen ja Turun yliopisto Matematiikan valintakoe klo 10 13

Helsingin, Itä-Suomen, Jyväskylän, Oulun, Tampereen ja Turun yliopisto Matematiikan valintakoe klo 10 13 Helsingin, Itä-Suomen, Jyväskylän, Oulun, Tampereen ja Turun yliopisto Matematiikan valintakoe 11.6.2012 klo 10 13 1. Ratkaise seuraavat yhtälöt ja epäyhtälöt. (a) 3 2 x 2 3 2 3 x 1 4, (b) (x + 1)(x 2)

Lisätiedot

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1 Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:

Lisätiedot

4.1. Olkoon X mielivaltainen positiivinen satunnaismuuttuja, jonka odotusarvo on

4.1. Olkoon X mielivaltainen positiivinen satunnaismuuttuja, jonka odotusarvo on Mat-2.090 Sovellettu todennäköisyyslasku A / Ratkaisut Aiheet: Avainsanat: Otanta Poisson- Jakaumien tunnusluvut Diskreetit jakaumat Binomijakauma, Diskreetti tasainen jakauma, Geometrinen jakauma, Hypergeometrinen

Lisätiedot

Matematiikka ja teknologia, kevät 2011

Matematiikka ja teknologia, kevät 2011 Matematiikka ja teknologia, kevät 2011 Peter Hästö 13. tammikuuta 2011 Matemaattisten tieteiden laitos Tarkoitus Kurssin tarkoituksena on tutustuttaa ja käydä läpi eräisiin teknologisiin sovelluksiin liittyvää

Lisätiedot

Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2018 Insinöörivalinnan matematiikan koe, , Ratkaisut (Sarja A)

Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2018 Insinöörivalinnan matematiikan koe, , Ratkaisut (Sarja A) Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2018 Insinöörivalinnan matematiikan koe, 2952018, Ratkaisut (Sarja A) 1 Anna kaikissa kohdissa vastaukset tarkkoina arvoina Kohdassa d), anna kulmat

Lisätiedot

1 Kertaus. Lineaarinen optimointitehtävä on muotoa:

1 Kertaus. Lineaarinen optimointitehtävä on muotoa: 1 Kertaus Lineaarinen optimointitehtävä on muotoa: min c 1 x 1 + c 2 x 2 + + c n x n kun a 11 x 1 + a 12 x 2 + + a 1n x n b 1 a 21 x 1 + a 22 x 2 + + a 2n x n b 2 (11) a m1 x 1 + a m2 x 2 + + a mn x n

Lisätiedot

Dynaamiset regressiomallit

Dynaamiset regressiomallit MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt

Lisätiedot

1. Tilastollinen malli??

1. Tilastollinen malli?? 1. Tilastollinen malli?? https://fi.wikipedia.org/wiki/tilastollinen_malli https://en.wikipedia.org/wiki/statistical_model http://projecteuclid.org/euclid.aos/1035844977 Tilastollinen malli?? Numeerinen

Lisätiedot

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme? TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen TKK (c) Ilkka Mellin (2004) 2 Mitä opimme? 1/4 Tilastollisen tutkimuksen tavoitteena on tehdä johtopäätöksiä prosesseista, jotka generoivat reaalimaailman

Lisätiedot

1. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden heittojen lukumäärä, joilla tuli 1, 2, 3 tai 4.

1. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden heittojen lukumäärä, joilla tuli 1, 2, 3 tai 4. HY / Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta II, syksy 206 Kurssikoe 28.0.206 Ratkaisuehdotuksia. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33 Numeeriset menetelmät TIEA381 Luento 6 Kirsi Valjus Jyväskylän yliopisto Luento 6 () Numeeriset menetelmät 4.4.2013 1 / 33 Luennon 6 sisältö Interpolointi ja approksimointi Polynomi-interpolaatio: Vandermonden

Lisätiedot

30A02000 Tilastotieteen perusteet

30A02000 Tilastotieteen perusteet 30A02000 Tilastotieteen perusteet Kertaus 1. välikokeeseen Lauri Viitasaari Tieto- ja palvelujohtamisen laitos Kauppatieteiden korkeakoulu Aalto-yliopisto Syksy 2019 Periodi I-II Sisältö Välikokeesta Joukko-oppi

Lisätiedot

= 5! 2 2!3! = = 10. Edelleen tästä joukosta voidaan valita kolme särmää yhteensä = 10! 3 3!7! = = 120

= 5! 2 2!3! = = 10. Edelleen tästä joukosta voidaan valita kolme särmää yhteensä = 10! 3 3!7! = = 120 Tehtävä 1 : 1 Merkitään jatkossa kirjaimella H kaikkien solmujoukon V sellaisten verkkojen kokoelmaa, joissa on tasan kolme särmää. a) Jokainen verkko G H toteuttaa väitteen E(G) [V]. Toisaalta jokainen

Lisätiedot

Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2017 Insinöörivalinnan matematiikan koe , Ratkaisut (Sarja A)

Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2017 Insinöörivalinnan matematiikan koe , Ratkaisut (Sarja A) Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 017 Insinöörivalinnan matematiikan koe 30..017, Ratkaisut (Sarja A) 1. a) Lukujen 9, 0, 3 ja x keskiarvo on. Määritä x. (1 p.) b) Mitkä reaaliluvut

Lisätiedot

a) Sievennä lauseke 1+x , kun x 0jax 1. b) Aseta luvut 2, 5 suuruusjärjestykseen ja perustele vastauksesi. 3 3 ja

a) Sievennä lauseke 1+x , kun x 0jax 1. b) Aseta luvut 2, 5 suuruusjärjestykseen ja perustele vastauksesi. 3 3 ja 1 YLIOPPILASTUTKINTO- LAUTAKUNTA 1.10.2018 MATEMATIIKAN KOE PITKÄ OPPIMÄÄRÄ A-osa Ratkaise kaikki tämän osan tehtävät 1 4. Tehtävät arvostellaan pistein 0 6. Kunkin tehtävän ratkaisu kirjoitetaan tehtävän

Lisätiedot

Tehtävät. 1. Ratkaistava epäyhtälöt. a) 2(4 x) < 12, b) 5(x 2 4x + 3) < 0, c) 3 2x 4 > 6. 1/10. Sukunimi (painokirjaimin)

Tehtävät. 1. Ratkaistava epäyhtälöt. a) 2(4 x) < 12, b) 5(x 2 4x + 3) < 0, c) 3 2x 4 > 6. 1/10. Sukunimi (painokirjaimin) 1/10 Tehtävä 1 2 3 4 5 6 7 8 9 10 Yhteensä Pisteet (tarkastaja merkitsee) Kokeessa on kymmenen tehtävää, joista jokainen on erillisellä paperilla. Jokaisen tehtävän maksimipistemäärä on 6 pistettä. Ratkaise

Lisätiedot