MAT Paikannuksen matematiikka TKT-2540 Paikannuksen menetelmät

Koko: px
Aloita esitys sivulta:

Download "MAT Paikannuksen matematiikka TKT-2540 Paikannuksen menetelmät"

Transkriptio

1 TA M P E R E E N T E K N I L L I N E N Y L I O P I S TO D i g i t a a l i - j a t i e t o k o n e t e k n i i k k a M a t e m a t i i k k a MAT Paikannuksen matematiikka TKT-2540 Paikannuksen menetelmät Simo Ali-Löytty Jussi Collin Helena Leppäkoski Hanna Sairo Niilo Sirola 2007

2 Esipuhe Paikannustekniikoita ja niihin liittyviä algoritmeja on tutkittu Tampereen teknillisellä yliopistolla usean laitoksen ja tutkimusryhmän voimin jo yli puolen vuosikymmenen ajan. Tämä moniste yhdistää digitaali- ja tietokonetekniikan sekä matematiikan laitosten paikannusryhmien osaamisen. Vaikka moniste muodostaa yhtenäisen kokonaisuuden, kurssi on jaettu kahteen osaan: MAT Paikannuksen matematiikka, joka kattaa monisteen luvut 1 ja 2, sekä TKT-2540 Paikannuksen menetelmät, luvut 3 ja 4. Ajatuksenamme on ollut kerätä yhteen perusteista alkaen tärkeimmät paikannuksessa tarvittavat algoritmit ja matemaattiset työkalut esimerkkien kera. Eri tekniikoiden ja laitteistojen yksityiskohtiin ei mennä, vaan kurssin jälkeen opiskelijan pitäisi pystyä ratkoa sovelluskohtaisia ongelmia tarvitsematta montaakaan kertaa keksiä pyörää uudelleen. Esitietoina oletetaan Insinöörimatematiikan tai Laajan matematiikan kokonaisuus sekä perustiedot todennäköisyyslaskennasta. Lisäksi kurssi TKT-2530 Satellittipaikannuksen perusteet on hyödyllinen muttei suinkaan pakollinen esitieto. Virallista kurssikirjaa ei tämän monisteen lisäksi ole. Kurssi on hyvin tiivis suhteessa asiasisältöön, ja käsittelemiämme asioita sivutaan lukuisissa lähteissä joista olemme pyrkineet viittaamaan lähinnä verkosta tai TTY:n kirjastosta löytyviin teoksiin. Käytännön paikannuslaskuissa tarvittava menetelmäpankki on koottu eri matematiikan ja insinööritieteiden aloilta, joiden välillä on usein koulukunta- ja tulkintaeroja, joten olemme parhaamme mukaan koettaneet käyttää yhtenäisehköjä merkintöjä ja esittää yhteyksiä eri ajattelutapojen välillä. Kurssien kotisivuille ja tut.fi/kurssit/2540/ tulee (toivottavasti erittäin lyhyt) lista monisteesta löytyneistä virheistä. Tähän painokseen on korjattu muutamia kevään 2007 versiosta löytyneitä pieniä virheitä ja epätarkkuuksia, kiitokset prof. Robert Pichélle ja muille virheitä löytäneille. Tampereella , tekijät 2

3 Sisältö 1 Taustaa Ylimäärätty lineaarinen yhtälöryhmä Todennäköisyyslaskenta Koordinaatistot Liikkuvat koordinaatistot Staattinen paikkaratkaisu Mittausyhtälöt Iteratiivinen pienin neliösumma Suljetun muodon ratkaisut Uskottavuuden maksimointi Bayesilainen ratkaisu Virhe- ja herkkyysanalyysi Yhteenveto ja huomioita Suodatus Kalmanin suodatin Epälineaariset Kalmanin suodattimet Bayeslainen suodatin Suodatuksen numeerisia menetelmiä Paikannussovelluksia Inertiapaikannus Kantoaaltomittauksiin perustuva satelliittipaikannus Luotettavuus Hakemisto 85 Kirjallisuutta 88 3

4 Luku 1 Taustaa Matemaattisesti katsottuna paikannuksessa on tarkoitus ratkaista tilan x paras 1 estimaattori yhtälön y = f(x)+ε, (1.1) perusteella. Tässä y sisältää mittaukset ja ε:a kutsutaan virheeksi (tuntematon). Eräs hyvin tärkeä yhtälön (1.1) erikoistapaus saadaan kun funktio f on lineaarinen, tätä erikoistapausta käsitellään kappaleessa 1.1. Usein virhetermi ε ja mahdollisesti myös tila x mallinnetaan satunnaismuuttujiksi, tämän vuoksi käsittelemme todennäköisyyslaskentaa kappaleessa 1.2. Luvun lopussa käsitellään koordinaatistoja 1.3 ja liikkuvia koordinaatistoja 1.4, jotka kuuluvat luonnollisena osana paikannukseen. 1.1 Ylimäärätty lineaarinen yhtälöryhmä Tarkastellaan lineaarista yhtälöryhmää Ax = y, (1.2) missä A R m n ja y R m. Oletetaan, että matriisin A pystyrivit ovat lineaarisesti riippumattomia eli Ax = 0 vain jos x = 0. Jos m > n niin systeemiä kutsutaan ylimäärätyksi, jollainen voi esiintyä esimerkiksi silloin kun mittauksia on enemmän kuin tuntemattomia. Yleisesti ottaen ryhmällä ei ole tarkkaa ratkaisua, jolloin eräs mahdollisuus on etsiä ryhmän nk. pienimmän neliösumman ratkaisu eli ˆx = argmin x y Ax 2. (1.3) 1 Ei ole ollenkaan itsestään selvää mitä tarkoittaa sana paras. Mallinnuksen eräs tarkoitus on myös määrittää kriteeri, jolla vertaillaan paremmuutta. Usein tämä kriteeri on nk. kustannusfunktio, joka on esimerkiksi muotoa y f( ˆx) 2 tai E( x ˆx 2 ). 4

5 Koska (harjoitustehtävä 1.4) niin yhtälön (1.3) ratkaisu on y Ax 2 = A((A T A) 1 A T y x) 2 + y A(A T A) 1 A T y 2, (1.4) ˆx = (A T A) 1 A T y (1.5) Mikäli yhtälöryhmää Ax = y on tarkoitus ratkaista Matlab ohjelmistolla niin kannattaa käyttää takakeno-komentoa A\y. Yleisemmässä muodossa lineaarinen yhtälöryhmä esiintyy muun muassa Matriisilaskenta 1 kurssilla [29]. 1.2 Todennäköisyyslaskenta Tässä luvussa kerrataan lyhyesti todennäköisyyslaskennan perusteita keskittyen normaalijakaumaa ja ehdolliseen todennäköisyyteen. Satunnaismuuttujan määritelmää ei anneta tässä, määritelmä löytyy prujusta [12]. Tässä kappaleessa merkitään satunnaismuuttujaa tummennetulla symbolilla esim. x, joka voi olla joko vektori- tai skalaariarvoinen satunnaismuuttuja. Myöhemmissä kappaleissa tummennetun symbolin merkitys selviää asiayhteydestä. Satunnaismuuttujan x tiheysfunktiota merkitään f x (x) tai p x (x) ja kertymäfunktiota F x (x). Satunnaismuuttujien riippumattomuus on keskeinen käsite: sitä tarvitaan muun muassa suodatuksessa luvussa 3. Määritelmä 1 (Riippumattomuus). Satunnaismuuttujat x 1,...,x k ovat riippumattomia, jos F x1,...,x k (x 1,...,x k ) = Todistuksetta annetaan seuraava lause. k i=1 F xi (x i ), x 1,...,x n R n. Lause 1. Satunnaismuuttujat x 1,...,x k ovat riippumattomia, jos ja vain jos f x1,...,x k (x 1,...,x k ) = k f xi (x i ), x 1,...,x n R n. i=1 Yleiskatsauksen lopuksi määritellään vielä satunnaismuuttujan odotusarvo, joka tulee vastaan lähes aina kun puhutaan satunnaismuuttujista. Määritelmä 2 (Odotusarvo). Oletetaan, että x on jatkuva satunnaismuuttuja ja integraali Z g(u) f x (u)du suppenee. Tällöin satunnaismatriisin g(x) odotusarvo on E(g(x)) = Z 5 g(u) f x (u)du.

6 Odotusarvon lineaarisuudesta seuraa, että Lause 2. Jos A R p n ja b R p ovat vakioita, niin E(Ax+b) = AE(x)+b. Satunnaismuuttujan x odotusarvon µ x = E(x) lisäksi satunnaismuuttujan (x µ x )(x µ x ) T odotusarvo on tärkeä suure. Tätä odotusarvoa kutsutaan satunnaismuuttujan x kovarianssimatriisiksi ja merkitään Σ x = V(x) = E((x µ x )(x µ x ) T ). Satunnaismuuttujan x korrelaatiomatriisi on R x = DΣ x D, (1.6) missä D on lävistäjämatriisi, jonka lävistäjällä on kovarianssimatriisin Σ x lävistäjäalkioiden käänteislukujen neliöjuuret Stokastiset prosessit Stokastinen prosessi on dynaaminen systeemi, jossa on satunnaisuutta mukana. Stokastinen prosessi määritellään seuraavasti (katso esimerkiksi [14]) Määritelmä 3 (Stokastinen prosessi). Olkoon (Ω, F, P) todennäköisyysavaruus ja T parametrijoukko. Stokastinen prosessi on sellainen kuvaus x : Ω T R n, että jokaisella kiinteällä t T, x(,t) on satunnaismuuttuja, jota yleensä merkitään x t tai x(t). Stokastisen prosessin x autokovarianssifunktio määritellään yhtälöllä r x (t,u) = C(x t,x u ) = E((x t µ xt )(x u µ xu ) T ). Stokastisen prosessin x autokorrelaatiofunktio on ρ x (t,u) = D t r x (t,u)d u, (1.7) missä D k on lävistäjämatriisi, jonka lävistäjällä on kovarianssimatriisin Σ xk lävistäjäalkioiden käänteislukujen neliöjuuret. Eräs mallinnuksessa yleisesti käytössä oleva prosessiluokka on valkoinen kohina, joka on stokastinen prosessi x siten että x t ja x u ovat riippumattomia jos t u, tällöin myös autokovarianssifunktio ja autokorrelaatifunktio ovat nollia jos t u. Esimerkki 1 (AR(1)-prosessi). Olkoon diskreettiaikainen stokastinen prosessi z valkoista kohinaa siten että E(z t ) = 0 kaikilla t ja sen autokovarianssifunktio on { σ r z (t,u) = 2, jos t = u, 0, muulloin. 6

7 Stokastinen prosessi x on kertalukua 1 oleva autoregressiivinen prosessi, AR(1)-prosessi [14], jos x t φ 1 x t 1 = z t. Olkoon φ 1 < 1, nyt voidaan osoittaa, että stokastisen prosessin x t odotusarvo on E(x t ) = 0, ja sen autokovarianssifunktio r x (t,u) riippuu ajasta vain erotuksen u t kautta, tässä tapauksessa r x (t,u) = σ 2 φ u t 1 1 φ 2. (1.8) Normaalijakauma Ennen varsinaista normaalijakaumaa muistutetaan mieliin matriisin definiittisyys, jonka avulla voidaan helposti tutkia matriisien ominaisuuksia (harjoitustehtävä 1.5). Matriisin definiittisyys Olkoon A R n n symmetrinen ja x R n. Matriisi A on positiivisesti definiitti jos x T Ax > 0, x 0, (1.9) tällöin merkitään A > 0. Matriisi A on positiivisesti semidefiniitti (A 0) jos x T Ax 0, x. (1.10) Esimerkiksi satunnaismuuttujan kovarianssimatriisi on aina positiivisesti semidefiniitti. Matriisin A negatiivinen definiittisyys ja negatiivinen semidefiniittisyys määritellään vastaavasti. Mikäli matriisi A ei kuulu mihinkän edellä mainittuun luokkaan niin sitä kutsutaan indefiniittiseksi (merkitään A <> 0). Lisäksi merkitään että A > B jos A B > 0 ja vastaavasti A B jos A B 0. Lause 3. Olkoon A R n n symmetrinen. Tällöin A > 0 A : n ominaisarvot positiivisia A > 0 det(a) > 0 A > 0 A 1 > 0 Todistus. Harjoitustehtävä 1.3 Esimerkki 2 (Matriisin definiittisyys). [ ] I 0 I > 0, <> 0 ja I < 0 0 I 7

8 Normaalijakauman tiheysfunktio Olkoon n-dimensioinen satunnaismuuttuja x normaalijakautunut parametrein µ = E(x) ja Σ = V(x), tällöin merkitsemme x N(µ, Σ). Jos Σ on positiividefiniitti niin tällöin satunnaismuuttujan x tiheysfunktio on ( 1 f x (x) = (2π) 2 n exp 1 ) det(σ) 2 (x µ)t Σ 1 (x µ). (1.11) Mikäli Σ ei ole positiividefiniitti niin se on singulaarinen, jolloin puhutaan singulaarisesta normaalijakaumasta. Singulaariseen normaalijakaumaan törmää tälläkin kurssilla. Esimerkiksi luvussa 3 tilamallin virhe w k 1 (3.1) voi hyvin noudattaa singulaarista normaalijakaumaa. Tämä tapahtuu esimerkiksi silloin kun tiedämme, että käyttäjä on paikallaan, jolloin paikan tilamallina on yksinkertaisesti x k = x k 1 + w k 1, missä w k 1 N(0,0). Todistuksetta annetaan seuraavat lauseet. Lause 4. Jos x N(µ,Σ) ja y = Ax+b niin y N(Aµ+b,AΣA T ). Lause 5. Olkoon x N(µ,Σ). Tällöin Ax ja Bx ovat riippumattomia jos ja vain jos AΣB T = 0. Koska kovarianssimatriisi Σ on aina symmetrinen positiivisemidefiniitti reaalimatriisi, niin se voidaan Schurin lauseen mukaan antaa spektraaliesityksenä Σ = QΛQ T, (1.12) missä Q on ortogonaalinen matriisi, jonka pystyriveillä on matriisin Σ ominaisvektorit. Matriisi Λ on diagonaalimatriisi, jonka diagonaalilla on matriisin Σ ominaisarvot laskevassa järjestyksessä. Ominaisarvot eivät ole negatiivisia. Merkitään Σ 1 2 = QΛ 1 2 Q T, missä Λ 1 2 on diagonaalimatriisi, jonka diagonaalilla on matriisin Λ diagonaalialkioiden positiiviset neliöjuuret 2. Jos u N(0,I) niin satunnaismuuttuja x = Σ 1 2 u + µ on normaalijakautunut s.e. x N(µ,Σ) (lause 4). Tämä muunnos on käyttökelpoinen esimerkiksi satunnaismuuttujan x generoimisessa Matlab-ohjelmalla. Esimerkiksi:x = sqrtm(sigma)*randn(n,1)+mu. Esimerkki 3 (Normaalijakauman visualisointi). Kuvassa 1.1 on havainnollistettu satunnaismuuttujan x N(0,Σ), (1.13) missä Σ = [ ] = 1 5 [ ][ ][ ] 2 Yleensä matriisia B kutsutaan matriisin A neliöjuureksi jos A = BB. Joissakin tapauksessa myös matriisia C kutsutaan matriisin A neliöjuureksi jos A = CC T. Kumpikaan yllä olevista matriiseista (B tai C) ei ole yksikäsitteinen. Huomaa, että matriisi Σ 1 2 toteuttaa molemmat määritelmät. 8

9 f x x x x 1 x 1 Kuva 1.1: Kuvassa on havainnollistettu normaalijakauman (1.13) tiheysfunktiota kahdella eri tavalla. tiheysfunktiota alueessa {[ x1 x 2 ] } R 2 x 1 12 ja x Vasemmalla puolella on piirretty tiheysfunktion (1.11) arvoja ja oikealla puolella on piirretty tiheysfunktion tasa-arvokäyrä, jonka sisällä on 68% todennäköisyysmassasta, katso harjoitustehtävä 1.8. Oikean puoleiseen kuvaan on myös piirretty janat jotka ovat ominaisvektoreiden suuntaisia ja joiden pituus on verrannollinen vastaavien ominaisarvojen neliöjuureen Ehdollinen tiheysfunktio Bayeslaisessa todennäköisyyslaskennassa ehdollinen tiheysfunktio on keskeisessä asemassa. Määritelmä 4 (Ehdollinen tiheysfunktio). Satunnaismuuttujan x ehdollinen tiheysfunktio ehdolla y = y määritellään yhtälöllä pisteissä, joissa nimittäjä on positiivinen. f x y (x y) = f x,y(x,y), f y (y) Lauseen 1 mukaan huomaamme, että satunnaismuuttujat x ja y ovat riippumattomat jos ja vain jos f x y (x y) = f x (x). Ehdollinen odotusarvo määritellään vastaavasti. Määritelmä 5 (Ehdollinen odotusarvo). Satunnaismuuttujan x ehdollinen odotusarvo ehdolla y = y määritellään yhtälöllä E(x y = y) = Z x f x y (x y)dx. On hyvä huomata, että ehdollinen odotusarvo E(x y = y) riippuu satunnaismuuttujan y saamasta arvosta y ja on näin ollen itsekin satunnaismuuttuja, joka on määritelty samassa todennäköisyysavaruudessa kuin satunnaismuuttuja y. 9

10 Esimerkki 4 (Ehdollinen tiheysfunktio). Oletetaan että käyttäjän tila x on normaalijakautunut x N(0, 16) ja saadaan mittaus y = 3 2 x+v, missä virhe [ v ] N(0, 16) on riippumaton tilasta (satunnaismuuttujasta x). Tällöin yhteisjakauman tiheysfunktio on satunnaismuuttujien x ja v tiheysfunktioiden tulo. Helppo x v laskenta osoittaa, että [ ] x N(0,16 I), (1.14) v jolloin lauseen 4 mukaan [ x y ] ( [ N 0, ]). (1.15) Harjoitustehtävänä on näyttää, että ( ) 6 64 x y N y,. (1.16) Esimerkiksi jos saadaan havainto y = 12 niin tällöin satunnaismuuttujan x ehdollinen jakauma ehdolla y = 12 on N( , ). Graafisesti ehdollinen tiheysfunktio saadaan normalisoimalla tasolla y = y oleva tiheysfunktio-osa. Vertaa kuvassa 1.1 vasemmalla puolella tasolla y = 12 olevaa funktiota ja saatua normaalijakauman tiheysfunktiota (Kuva 1.2) x 1 Kuva 1.2: Kuvassa on piirretty normaalijakauman N( 5 7 jota voi verrata kuvan 1.1 vasempaan puoleen. 13, ) tiheysfunktio välillä [ 12,12], 1.3 Koordinaatistot Jotta paikannus olisi mielekästä, on paikkaratkaisut annettava etukäteen sovitussa koordinaatistossa. Lineaarinen koordinaatisto muodostetaan origon ja kannan avulla, esimerkiksi (O, u, v, w), missä vektorit u, v ja w ovat lineaarisesti riippumattomia. Nyt mikä tahansa paikka voidaan esittää komponenttiesityksenä r = xu+yv+zw, ja koordinaatit x,y ja z ovat yksikäsitteisesti määrättyjä. Paikannuksessa törmää usein myös käyräviivaisiin koordinaatistoihin, esimerkiksi pallokoordinaatistosta paikka ilmaistaan koordinaateilla (r, θ, ϕ). Tässä r on pisteen etäisyys origosta, 10

11 kulma on θ kolatitudi ja kulma ϕ on atsimuuttikulma. Otetaan kuitenkin esimerkiksi geodeettinen koordinaatisto, jotta ei eksytä aiheesta liian kauas. Ensin generoidaan pyörähdysellipsoidi pyöräyttämällä ellipsiä pikkuakselin ympäri. Tämä ellipsoidi yleensä karakterisoidaan kahdella parametrilla, isoakselin pituus a, ja litistyssuhde f = a b a (b on pikkuakselin pituus). Geodeettiset koordinaatit tässä koordinaatistossa on määritelty kuvan 1.3 mukaisesti, eli φ, geodeettinen leveysaste. Huomaa että kyseessä on ekvaattoritason ja ellipsoidipinnan normaalin välinen kulma. λ, geodeettinen pituusaste. Referenssimeridiaanin ja paikan P meridiaanin välinen kulma. h, geodeettinen korkeus. Etumerkillinen etäisyys ellipsoidista. Matemaattisen määritelmän lisäksi koordinaatisto pitää sitoa johonkin fyysiseen paikkaan. Ongelmana tässä on maapallon dynaamisuus maapallo ei ole jäykkä kappale. Koordinaatiston realisaatio sidotaankin johonkin ajanhetkeen, eli epookkiin. Tyypillisesti origo on maapallon massakeskipiste, positiivinen z-akseli kulkee pohjoisnavan läpi, referenssimeridiaani kulkee Greenwichin observatorion läpi ja isoakselin pituus sekä litistyssuhde saadaan sovittamalla ellipsoidi mahdollisimman hyvin maapallon keskimääräiseen merenpinnankorkeuteen. GPSjärjestelmä käyttää World Geodetic System 84 (WGS-84) koordinaattijärjestelmää [39]. Suomalainen koordinaattijärjestelmän realisaatio (EUREF-FIN) on määritelty Julkisen hallinnon suosituksessa 153 [11]. z P h φ λ y x Kuva 1.3: Geodeettiset koordinaatit. Kuvassa myös vastaavan suorakulmaisen koordinaatison x, y ja z-akselit 11

12 1.3.1 Koordinaatiston vaihto Paikannuslaskuissa joudutaan hyvin usein vaihtamaan koordinaatistoa. Esimerkiksi GPSlaskuissa aloitetaan inertiakoordinaatistosta (satelliittien radat), siirrytään geodeettisiin koordinaatteihin (maapallon mukana pyörivä koordinaatisto) ja lopuksi yleensä käytetään vielä lokaalia koordinaatistoa jotta saadaan paikka tulostettua 2D kartalle. Inertiapaikannuslaskuissa koordinaatistoja joudutaan vaihtamaan ehkä vieläkin useammin; anturit muodostavat oman koordinaatiston, anturimittaukset ovat suhteessa inertiakoordinaatistoon ja gravitaation laskemiseen tarvitaan sijainti geodettisessa koordinaatistossa. Merkitään A-koordinaatit vektorilla m A = [α 1 α 2 α 3 ] T ja B-koordinaatit vektorilla m B = [β 1 β 2 β 3 ] T. Tässä siis α i ovat paikan P koordinaatit koordinaatistossa A ja β i ovat saman paikan koordinaatit koordinaatistossa B. Koordinaatiston vaihdossa etsitään funktiota f B A(m A ) = m B. (1.17) Lineaarisissa koordinaatistoissa tämä funktio on helppo löytää. Oletetaan että koordinaatistoilla on yhteinen origo. Paikkavektori q voidaan kirjoittaa kantavektoreiden ja koordinaattien avulla: q = X A m A q = X B m B, missä X:n sarakkeet ovat kyseisen koordinaatiston kantavektorit. Kantavektoreista muodostettu matriisi on ei-singulaarinen, joten etsitty muunnos saadaan laskemalla m B = X 1 B X Am A. Tulevissa yhtälöissä käytetyt kantavektorit ovat ortonormaaleja, ja silloinhan X 1 = X T. Lisäksi asetetaan A:lle luonnollinen kanta X A = I, eli [e 1,e 2,e 3 ] jolloin muunnos yksinkertaistuu muotoon m B = X T Bm A. Nyt voidaankin määrittää paikannuksessa usein käytetty suuntakosinimatriisi C B A : m B = C B Am A, (1.18) jossa m A on siis vektori ilmaistuna koordinaatiston A koordinaateissa ja m B on sama vektori koordinaatiston B koordinateissa. Harjoitustehtävänä osoitat että cos(u,e 1 ) cos(u,e 2 ) cos(u,e 3 ) C B A = cos(v,e 1 ) cos(v,e 2 ) cos(v,e 3 ), (1.19) cos(w,e 1 ) cos(w,e 2 ) cos(w,e 3 ) missä (u,v,w) on B:n ortonormaali kanta. Koordinaatiston vaihto takaisin A:n on helppoa, koska C A B = (CB A ) 1 = (C B A )T. Ketjusääntöä tarvitaan erityisesti inertiapaikannuslaskuissa: C D A = C D B C B A. (1.20) Yhtälö (1.19) on varsin mukavassa muodossa koordinaatistojen kiertoja ajatellen. 12

13 Esimerkki 5. Oletetaan että koordinaatistot A1 ja A2 ovat aluksi yhtenevät. Kierretään A2 koordinaatistoa z-akselin ympäri kulman θ verran. Koordinaatistoa A1 käyttävä paikantaja huomaa kiinnostavan esineen paikassa a A1 = [1 1 1] T. Mistä koordinaatistoa A2 käyttävä paikantaja löytää tämän esineen? Vastaus: Kierrot on hyvä heti määritellä oikeakätisiksi, eli vektorin v positiivinen kierto akselin w ympäri vie v:n kärkeä suuntaan w v. Huom: Koordinaatiston kierrossa jokainen kantavektori kierretään. Nyt onkin helppo havaita että z-akseli ei muutu. Muut kulmat yhtälöstä (1.19) on myös helppo löytää: C A2 A1 = cos(θ) cos( π 2 θ) cos( π 2 ) cos( π 2 + θ) cos(θ) cos( π 2 ) cos( π 2 ) cos( π 2 ) cos(0) (1.21) Ratkaisu kysymykseen on siis a A2 = C A2 A1 aa1 = [cos(θ)+sin(θ) cos(θ) sin(θ) 1] T. Jotta päästään yleisempiin pyörityksiin on hyvä esitellä muutamia asiaa helpottavia matemaattisia työkaluja. (a ) tarkoittaa ristitulon (3x3) matriisimuotoa: a b = (a )b = 0 a z a y a z 0 a x a y a x 0 b (1.22) Suuntakosinimatriisi ei ole ainoa tapa kuvata koordinaatistojen orientaatioita. Voidaan todistaa (katso esimerkiksi [33] ), että suuntakosinimatriisi on esitettävissä muodossa C A1 A2 sin(p) = I+ (p )+ 1 cos(p) p p 2 (p )(p ), (1.23) missä p on pyörähdysvektori (rotation vector) ja p sen pituus. Kun koordinaatistoa A1 pyöritetään akselin p ympäri kulman p verran, saadaan uusi koordinaatisto A2, ja yhtälö (1.23) kertoo suuntakosinimatriisin ja pyörähdysvektorin välisen yhteyden. Harjoitustehtävänä toteat, että ei ole väliä ilmoitetaanko pyörähdysvektori koordinaatiston A1 vai A2 koordinaateissa. Esimerkin 5 pyörähdysvektori on p = [0 0 θ] T, ja harjoitustehtäväksi jää osoittaa että kun tämä sijoitetaan kaavaan (1.23) saadaan sama matriisin (1.21) transpoosi, kuten pitääkin. 1.4 Liikkuvat koordinaatistot Lineaarisesti toisiinsa nähden liikkuvien koordinaatistojen muunnokset ovat käytännössä nopeuksien yhteenlaskua ja origon siirtoa. Tässä kappaleessa keskitytäänkin mieluummin pyöriviin koordinaatistoihin. Aloitetaan aluksi yksinkertaisesta pyörimisestä, eli pidetään kulmanopeus ja pyörähdysvektorin suunta vakiona. Oletetaan jälleen että koordinaatistot A1 ja A2 ovat aluksi (t = 0) yhtenevät. Tällöin pyörähdysvektori voidaan esittää muodossa p = ωtu, (1.24) 13

14 jossa ω (= ṗ) on kulmavauhti (rad/s), t on aika ja u on yksikkövektori. Yhtälön (1.24) derivaatta ajan suhteen on siis kulmanopeus w = ṗ = ωu. (1.25) Nyt yhtälön (1.23) derivaatta ajan suhteen on Ċ A1 A2 = ωcos(ωt)(u )+ωsin(ωt)(u )(u ) = [I cos(ωt) + sin(ωt)(u )](w ) (1.26) Tässä kohdassa kannattaa huomata että C A1 A2 (w ) antaa saman tuloksen3. Tämä muoto onkin mukavampi, esimerkiksi Coriolis-yhtälö voidaan nyt johtaa helposti: n A = C A B nb dn A dt dn A dt dn A dt dn A dt = dca B nb dt = dca B dt n B + C A B dnb dt = C A B (w )nb + C A B dnb dt = C A B [ dnb dt + w n B ] (1.27) Ketjusäännön avulla päästään eroon alkuhetken rajoituksesta, eli jos aluksi (t = 0) koordinaatistojen välinen yhteys on C A1 A2(0) niin ja matriisi C A1 A2(0) on vakio ajan suhteen eli C A1 A2 = CA1 A2(0) CA2(0) A2 Ċ A1 A2 = CA1 A2(0)ĊA2(0). Tämän jälkeen onkin oltava tarkempi kulmanopeusvektorin kanssa, INS kirjallisuudessa tapaa usein merkinnän w B IB, mikä tarkoittaa B-koordinaatiston kulmanopeutta I-koordinaatiston suhteen (w IB ), ja vektori on ilmaistu B-koordinaatistossa (w B ). Alaindeksiä ei siis kannata sekoittaa suuntakosinimatriisin alaindeksiin. I-koordinaatistolla tarkoitetaan inertiakoordinaatistoa (ei pyöri eikä kiihdy avaruudessa), ja B-koordinaatisto on laitteeseen sidottu koordinaatisto. w B IB on itseasiassa ideaalisen gyrotriadin ulostulo. Näihin koordinaatisoihin törmää usein erityisesti inertiapaikannuksessa: Inertiakoordinaatisto (I), ei-pyörivä, ei-kiihtyvä koordinaatisto. Newtonin liikelait toimivat tässä koordinaatistossa. Jossain tapauksissa (suhteellisuusteoria) pitää vielä olettaa että I-koordinaatisossa ei ole gravitaatiota, mutta tämän kurssin laskuihin I- koordinaatiston approksimaatioksi käy nk. ECI (Earth Centered Inertial) koordinaatisto. ECI:n origo on maan massakeskipiste, ja akselit pitävät suuntansa tähtiin nähden. 3 Asian toteamista helpottaa kaava (a )(a ) = a 2 I+aa T 14

15 Maapalloon sidottu koordinaatisto (E), koordinaattiakselit on sidottu maapalloon, z-akseli on maapallon pyörimisakselin suuntainten, x- ja y-akselit ovat päiväntasaajan tasossa. Kirjallisuudessa käytetään usein lyhennettä ECEF (Earth Centered Earth Fixed). Maapallon pyörimisen vuoksi w E IE [ ] T (rad/s). Paikallinen koordinaatisto (L), akselit määrittävät suunnat ylös-alas, pohjoinen-etelä ja länsi-itä. Usein käytetään ENU (East, North, Up) järjestystä, eli x-akseli osoittaa itään, y-akseli pohjoiseen ja z-akseli osoittaa ylös luotilangan suuntaisesti. Kun origoksi laitetaan käyttäjän paikka, on C E L on paikan funktio ja wl IL = wl IE +wl EL, missä viimeinen termi kuvaa käyttäjän liikettä maapallon suhteen. Laitteeseen sidottu koordinaatisto (B), nk. Body-frame. Inertiamittauksissa keskeinen koordinaatisto. Gyrojen mittaus on w B IB ja kiihtyvyysantureiden ab g B, missä a on kiihtyvyys ECI:ssä ja g on paikallinen gravitaatiokiihtyvyys Koska liikelait toimivat I-koordinaatistossa, ja anturitkin mittaavat liikettä tämän koordinaatiston suhteen, koordinaatistojen B-L-E-I dynamiikka on tärkeä hallita. Aloitetaan yhtälöstä ja nyt tiedetään että ylläolevan transpoosi on C L B = CL I CI B (1.28) Ċ I L = C I L(w L IL ) Ċ L I = (w L IL )C L I. Derivoidaan yhtälö (1.28) ajan suhteen molemmin puolin: Ċ L B = ĊL I CI B + CL I ĊI B Kun vielä muistetaan että Ċ I B = CI B (wb IB ), niin päädytään yhtälöön Ċ L B = C L B(w B IB ) (w L IL )C L B. (1.29) Yhtälön (1.29) numeerinen integrointi on usein aiheena inertiapaikannusta käsittelevissä julkaisuissa, ja matriisin C L B tärkeys tulee myöhemmin selville inertiapaikannusosuudessa. Ylläolevat yhtälöt ovat toki käyttökelpoisia muissakin yhteyksissä. Esimerkki 6. Satelliitti on ympyräradalla, jonka säde on R, ja inklinaatio i. Paikantaja on päiväntasaajalla ja huomaa satelliitin zeniitissä, menossa pohjoiselle pallonpuoliskolle. Mikä on satelliitin nopeus E-koordinaatistossa? Entä kiihtyvyys? Vastaus: Valitaan maakeskinen satelliittiin sidottu koordinaatisto S, jossa satelliitti on paikassa r S = [R 0 0] T. ECI koordinatiston x-akseli osoittakoon satelliittiin päin hetkellä t = 0, ja 15

16 sovitaan että E- ja I-koordinaatistot ovat aluksi yhtenevät. Nyt voidaan havaita että w I IS = ω s [0 sin(i) cos(i)] T, missä ω s = 2π T, T on ratakierrokseen kuluva aika ja C E S = 0 cos(i) sin(i). 0 sin(i) cos(i) Kun merkitään maapallon kulmavauhdiksi ω e, niin w E IE = [0 0 ω e] T. Käytetään yhtälöä (1.29) näihin koordinaatistoihin, eli Ċ E S = C E S (w S IS ) (we IE )C E S ja pienen kaavanpyörittelyn jälkeen saadaan hetkelle t = 0 0 ω s + ω e cos(i) ω e sin(i) Ċ E S = ω s cos(i) ω e 0 0 (1.30) ω s sin(i) 0 0 ja C E S = ω 2 s + 2ω s ω e cos(i) ω 2 e ω 2 s cos(i)+2ω sω e ω 2 e cos(i) ω2 e sin(i) 0 ω 2 s sin(i) 0. (1.31) Huom! nopeus E-koordinaatistossa tarkoittaa nyt: E-koordinaatistossa ilmaistun paikkavektorin muutos ajan suhteen. Se ei ole I-nopeusvektori ilmaistuna E-koordinaateissa (tähän palataan vielä INS-osuudessa). Eli ṙ E pitää käsittää olevan dt d (re ). Satelliitin paikka on S-koordinaatistossa vakio, eli ṙ S = 0 ja r S = 0. Vastaukseksi saadaan siis ja ṙ E = Ċ E S rs = [0 R(ω s cos(i) ω e ) R(ω s sin(i))] T (1.32) r E = C E S r S = [R( ω 2 s + 2ω s ω e cos(i) ω 2 e) 0 0] T. (1.33) Jos kyseessä olisi GPS-satelliitti, sopivia lukuarvoja olisivat esim. i = rad, R = km, ω s = 151x10 6 rad/s, ja ṙ E = [ ] T m/s r E = [ ] T m/s 2 Koordinaatistojen väliset muunnokset yllä esitettiin matriisien avulla. Toinen yleinen tapa on käyttää kvaternionialgebraa, jolloin esimerkiksi matriisia (1.23) vastaa kvaternioni (ks. esimerkiksi [6, 32]) q A1 A2 = [ cos( 1 2 p) sin( 1 2 p)p/p ]. (1.34) 16

17 Harjoitustehtäviä 1.1. Olkoon A R p n ja b R p vakioita ja x satunnaismuuttuja siten että V(x) = Σ. Laske V(Ax+b) 1.2. Ratkaise AR(1)-prosessin autokorrelaatiofunktio Todista lause (a) Olkoon matriisin A R m n pystyrivit lineaarisesti riippumattomia (rank(a) = n). Näytä, että matriisi A T A on kääntyvä. (b) Osoita yhtälö (1.4) oikeaksi Olkoon matriisit A > 0 ja B > 0. Näytä, että matriisi A + B on kääntyvä Hae kaikki matriisit B R 2 2 siten, että BB = I, mitkä saaduista matriiseista ovat symmetrisiä ja positiivisesti definiittejä? 1.7. Tarkastellaan systeemiä y = Hx+ε, missä ε N(0,σ 2 I). Mikä on estimaattorin jakauma? Onko estimaattori harhaton? ˆx = (H T H) 1 H T y 1.8. Anna kuvassa 1.1 oikealla puolella esiintyvän ellipsin yhtälö Todista yhtälö (1.16) lähtien määritelmästä Johda suuntakosinimatriisi (1.19) Olkoon p koordinaatistojen A1 ja A2 välinen pyörähdysvektori. Osoita että p A1 = p A2. Jos C A1 A2 I, niin löytyykö q αp, α R joka toteuttaa qa1 = q A2? Kokeile kaavaa (1.23) vektoreilla p 1 = [ 0 0 θ ] T ja p2 = [ 0 0 θ ] T 17

18 1.13. Paikantaja kävelee 5 km etelään, 5 km itään ja 5 km pohjoiseen, ja päätyy lähtöpaikkaan. Mistä paikantaja lähti? Vihje: Esitä liike suuntakosinimatriisien avulla, ja yritä löytää ne paikat joissa C 1 2 C2 3 C3 4 = I Magneettijuna kulkee Helsingistä Rovaniemelle 300 km/h vauhtia. Kuinka suuri sivuttaisvoima tarvitaan, jotta juna pysyy koko ajan pohjoissuuntaisella radalla? Mikä on maan pyörimisakselin ja junan kulkusuunnan välinen kulma ajan suhteen? Oletetaan pallonmuotoinen maapallo säteellä R, junan massa M ja yksinkertaistetaan Helsingin ja Rovaniemen koordinaatit: Helsinki: 60 o pohjoista leveyttä 25 o 0 00 itäistä pituutta Rovaniemi: 66 o pohjoista leveyttä 25 o 0 00 itäistä pituutta Olkoon matkapuhelimen koordinaatisto (B) seuraavasti määrätty: numeroiden osoittama suunta x-akseli, numeroiden osoittama suunta y-akseli, ja z-suunta x-akselin ja y-akselin ristitulo (näytöstä näytön katselijaan). Käännä puhelinta -90 astetta puhelimen y-akselin ympäri. Seuraavaksi, käännä puhelinta 90 astetta x-akselin ympäri. Lopuksi, käännä puhelinta 90 astetta y-akselin ympäri. Tee sama matemaattisesti, eli kirjoita suuntakosinimatriisit. Miten käy jos kiertojärjestystä muuttaa? Entä jos kierroissa käyttääkin kiertymättömän (esim. työpöytääsi sidotun) koordinaatiston akseleita? Osoita, että Opa: (1.23), (1.26) ja u T (u ) =... Ċ A1 A2 = C A1 A2(w ). 18

19 Luku 2 Staattinen paikkaratkaisu Paikannuksella (positioning, localization) tarkoitetaan vastaanottimen koordinaattien ja mahdollisesti muiden mielenkiintoisten suureiden (nopeus, asento, kellovirhe, jne) estimointia. Paikannustehtävässä voi olla käytössä eri lähteistä tulevia ja monen tyyppisiä mittauksia, jolloin ongelman ratkaisemiseksi muodostetaan ensin mittauksia kuvaava matemaattinen malli, ja sovelletaan siihen sopivaa matemaattista koneistoa. Mikään malli ei kuvaa todellisuutta tarkasti, ja usein vaikka ilmiö tunnettaisiinkin kohtalaisen tarkasti päädytään silti käyttämään jotain yksinkertaisempaa mallia koska se sopii parhaiten siihen matemaattiseen menetelmään jota halutaan (osataan?) käyttää ongelman ratkaisuun. Staattisella paikkaratkaisulla, erotuksena aikasarjaan jota käsitellään luvussa 3, tarkoitetaan yksittäisen paikkaestimaatin laskemista useasta samanaikaisesti tehdystä mittauksesta, riippumatta aimmista tai tulevista mittauksista tai estimaateista. Valitusta mittausmallista riippuen paikannustehtävä voidaan muotoilla epälineaarisen yhtälöryhmän ratkaisemiseksi joko pienimmän neliösumman mielessä (kappale 2.2), tarkasti (kappale 2.3), tai uskottavuudet (kappale 2.4) tai todennäköisyyden suhteen (kappale 2.5). Suurin osa staattiseen paikannukseen tarvittavista menetelmistä tulee estimointiteoriasta, ks. esimerkiksi verkosta saatava Kuopion yliopiston luentomoniste [37]. 2.1 Mittausyhtälöt Kaikkia mittausprosessin yksityiskohtia ei yleensä joko tunneta tarkasti tai niitä ei ole järkevää ottaa mukaan malliin. Usein yksinkertaiset mallit ovat riittävän tarkkoja ilman että laskennasta tulee liian työlästä. Esimerkiksi mittausvirhe koostuu aina useista eri osatekijöistä joilla voi olla monimutkaisia keskinäisiä riippuvuuksia, mutta silti se melkein aina mallinnetaan yhdellä normaalijakautuneella termillä. Mittausmalli voidaan esittää tiheysfunktiolla tai yhtälömuodossa. Aloitetaan yhtälömuodosta, joka on yksinkertaisempi mutta rajoittaa hieman mitä voidaan ottaa mittauksiksi (esim. kaikkien 19

20 mittausten pitää olla numeerisia). Mittausten ajatellaan muodostuvan todellisesta arvosta ja virheestä: mittaus = teoreettinen arvo paikassa x + virhe. Kootaan kaikki mitatut arvot vektoriin y ja kirjoitetaan mittausyhtälöryhmä muotoon y = h(x)+v (2.1) jossa h saa olla mikä tahansa tunnettu vektoriarvoinen vektorifunktio ja v on mittausvirhevektori, jonka todennäköisyysjakauma oletetaan tunnetuksi. 1 Esimerkki 7 (Mittausyhtälöitä). Etäisyysmittaus paikassa s olevaan asemaan voidaan kirjoittaa mittausyhtälönä r = s x +v, jossa r on mitattu etäisyys, x on paikka ja s x ( = h(x) ) on todellinen etäisyys. GPS:n pseudoetäisyysmittaus puolestaan voidaan kirjoittaa muotoon ρ = s x +b+v, jossa b on vastaanottimen kellovirheestä (clock bias) johtuva siirros metreinä. Koska myös kellovirhe b on ratkaistava tuntematon siinä missä paikkakin, liitetään se tilavektoriin siten että tilan kolme ensimmäistä komponenttia, merkitään x 1:3, sisältävät paikan ja viimeinen, x 4, kellovirheen. Jos mittauksia on useaan eri satelliittiin/asemaan, voidaan mittausyhtälöt (2.1) kirjoittaa vektorimuotoon ρ 1. ρ n = v 1 s 1 x 1:3 +x s n x 1:3 +x 4 v n. Kun mittaukset on tehty ja mittausyhtälöt selvillä, haetaan paikka/tilaestimaatti ˆx joka sopii mittauksiin parhaiten. Ratkaisuja ja ratkaisumenetelmiä on erilaisia riippuen siitä mitä tarkoitetaan sanoilla sopii ja parhaiten. Aina ratkaisu ei ole edes yksikäsitteinen, vaan useampi paikkaehdokas voi sopia mittauksiin yhtä hyvin. 2.2 Iteratiivinen pienin neliösumma Kirjoitetaan mittausyhtälöryhmä (2.1) uudelleen residuaalin avulla: p(x) = h(x) y. 1 Tosielämässä mittausvirheiden jakauman arvioiminen siirtotien, lähettimen ja vastaanottimen ominaisuuksien perusteella tai empiirisesti mittausdatasta on kokonaan oma ongelmansa johon tässä ei syvennytä. Oletetaan vain että jostain on saatu etukäteen tietää (eli arvattu) mittausvirheen jakauma tai edes varianssi. 20

21 s 1 s 2 kellovirhe todellinen etäisyys pseudoetäisyys s 3 Kuva 2.1: Paikannus pseudoetäisyyksillä. Kellovirhe näkyy kaikissa pseudoetäisyyksissä saman suuruisena virheenä. Residuaali kuvaa yhteensopimattomuutta mittausten ja oletetun paikan x välillä, ja jos mittaukset ovat virheettömiä se menee nollaan todellisessa paikassa (mutta mahdollisesti myös muissa pisteissä). Pienimmän neliösumman menetelmän ideana on määrittää paikkaestimaatti ˆx joka minimoi lausekkeen p(x) T p(x). Jos mittausvirheitä ei ole, residuaali menee nollaan todellisessa paikassa x: p( x) = 0, jolloin residuaalin normin minimoinnin sijaan voitaisiin sama(t) ratkaisu(t) löytää myös ratkaisemalla mittausyhtälöryhmä suoraan (ks. kappale 2.3). Tavallisesti mittauksissa on aina virhettä, jolloin residuaalilla ei välttämättä ole lainkaan nollakohtia, ja paikkaestimaatti saadaan ratkaisemalla minimointitehtävä: ˆx = argmin x p(x) T p(x). (2.2) Epälineaarinen optimointi on vaativa ongelma eikä sille tunneta yleispätevää ratkaisukeinoa. Jos minimoitava funktio on hyvänlaatuinen ja käytössä on alkuarvaus riittävän läheltä minimiä, voidaan käyttää iteratiivista optimointimenetelmää, joissa ajatuksena on aloittaa alkuarvauksesta x 0 ja laskea siitä lähtien askeleet x 1,x 2, jne, kunnes ratkaisu ei enää muutu. Gauss-Newtonin menetelmässä [13, kappale 4.2.1], [18, s.93], [30, kappale 9.6] (jota paikannusyhteydessä yleensä nimitetään iteratiiviseksi pienimmän neliösumman menetelmäksi) residuaali linearisoidaan pisteen x k ympäristössä käyttämällä ensimmäisen asteen Taylorin kaavaa p(x k + x k ) p(x k )+p (x k ) x k ja koitetaan löytää sellainen askel x k, että linearisoitu residuaali menee nollaan: p(x k+1 ) = p(x k + x k ) p(x k )+p (x k ) x k = 0. Merkitään residuaalin Jacobin matriisia J k = p (x k ) = h (x k ) ja järjestetään yhtälö muotoon J k x k = p(x k ), 21

22 jonka pienimmän neliösumman ratkaisu (1.5) on Iteraatioaskeleeksi saadaan täten x k = (J T k J k) 1 J T k p(x k). x k+1 = x k (J T k J k) 1 J T k p(x k). (2.3) Algoritmin toteutusta varten tarvitaan alkuarvaus x 0, josta lähtien iteraatiota toistetaan kunnes ratkaisu on supennut johonkin pisteeseen ˆx (tai maksimi-iteraatiomäärä tulee täyteen). Voidaan todistaa että iteraatio suppenee jos alkupiste on riittävän lähellä minimiä ja residuaalin toinen derivaatta on riittävän pieni [18]. Pelkkiä satelliittimittauksia käytettäessä maapallon keskipiste toimii paremman tiedon puutteessa alkuarvauksena koska mittausyhtälöt ovat lähes lineaarisia. Algoritmi 1 Gauss-Newtonin menetelmä (Iterative Least Squares) 1. Valitse alkuarvaus x 0 ja lopetustoleranssi δ. Aseta k = Laske J k = h (x k ). 3. Askel: x k+1 = x k + x k, jossa x k = J k \(h(x k ) y) 4. Jos lopetusehto x k < δ ei toteudu, kasvata k:ta ja toista kohdasta 2. Esimerkki 8 (Jacobin matriisin laskenta). Olkoon meillä etäisyysmittaukset kolmeen asemaan paikoissa s 1, s 2 ja s 3. Nyt mittausyhtälöryhmä on y 1 s 1 x y 2 = s 2 x + y 3 s 3 x Newtonin algoritmissa tarvittava Jacobin matriisi on J(x) = x h(x) = s 1 x x s 2 x s 1 x = x x s 2 x s 3 x x s 3 x = (s 1 x) T s 1 x (s 2 x) T s 2 x (s 3 x) T s 3 x eli oletetusta paikasta x kohti asemia osoittavat yksikkövektorit pinottuna matriisiksi. v 1 v 2 v 3. Jos jotkut mittaukset ovat tarkempia kuin toiset, voidaan algoritmia vielä parantaa ottamalla mukaan painomatriisi joka pakottaa hyvälaatuiset mittausyhtälöt toteutumaan tarkemmin 22

23 kuin huonompilaatuiset. Kun painomatriisina käytetään mittauskovarianssimatriisin inverssiä ja ratkaistaan siis tehtävää ˆx = argmin x p(x) T Σ 1 p(x), (2.4) saadaan minimivarianssiestimaatti (todistus esim. [24, luku 6.A.1], tai epäsuorasti maksimiuskottavuuden avulla jäljempänä). Algoritmi 2 Painotettu Gauss-Newtonin menetelmä (Iterative Weighted Least Squares) 1. Valitse alkuarvaus x 0 ja lopetustoleranssi δ. Lisäksi tarvitaan mittauskovarianssimatriisi Σ = cov(v). Aseta k = Laske J k = h (x k ) 3. Askel: x k+1 = x k + x k, jossa x k = (Σ 1 2 J k )\ ( ) Σ 1 2 (h(x k ) y) 4. Jos lopetusehto x k < δ ei toteudu, kasvata k:ta ja toista kohdasta 2. Huomioita: 1. Painotettu pienimmän neliösumman menetelmä antaa varianssimielessä optimaalisia tuloksia kunhan mittauskovarianssi tiedetään, tai toisin päin ajateltuna, jos mittaukset noudattavat niille oletettua jakaumaa. Pienimmän neliösumman kriteeri on herkkä suurille mittausvirheille, roskamittauksille, joten ne tulisi havaita ja poistaa. 2. Jos mittausyhtälö on kovin epälineaarinen, Gauss-Newtonin menetelmä voi käyttäytyä huonosti ja jokin muu vapaa optimointimenetelmä kuten gradienttihaku tai Levenberg- Marquardt voi olla parempi. Jos mittausyhtälöissä on epäjatkuvuuskohtia, joudutaan ne yleensä joko muuttamaan jatkuviksi tai käyttämään jotain Monte Carlo -algoritmia. [30] 3. Mittausmalliin voidaan ottaa yhtälöiden lisäksi myös epäyhtälömuotoisia rajoitteita (esim. soluverkon sektoriraja), mutta silloin tehtävä muuttuu sidotuksi minimointitehtäväksi joka on kertaluokkaa vaikeampi ratkaista. 2.3 Suljetun muodon ratkaisut Suljetun muodon ratkaisu, tai suora ratkaisu, on yleisnimi sekalaiselle joukolle epä-iteratiivisia algoritmeja, joissa ei yleensä tarvita alkuarvausta iteraation aloittamiseen. Etuna on, ettei iteraation lopetusehtoja tarvitse virittää, eikä ole pelkoa väärään ratkaisuun suppenemisesta. Jos ongelmalle on useita ratkaisuja, suljetun muodon ratkaisu antaa ne kaikki. Yleispätevää suljetun muodon ratkaisua ei ole, vaan se pitää johtaa erikseen jokaiselle mittausmallille, esim. [2, 7, 22, 27]. 23

24 Geometrisissa ratkaisuissa ajatellaan, että jokainen mittaus määrittää parametriavaruuteen jonkin pinnan jolla mittausyhtälö toteutuu, esimerkiksi etäisyysmittaus määrää kolmiulotteiseen paikka-avaruuteen pallopinnan, erotusetäisyysmittaus hyperboloidin, jne. Tehtävän ratkaisut ovat kaikki ne pisteet joissa kaikki mittausyhtälöt toteutuvat, eli joissa kaikki mittauspinnat leikkaavat. Toinen lähestymistapa, josta Bancroftn menetelmä alla esimerkkinä, on algebrallinen jossa erilaisilla laskutempuilla koitetaan löytää mittausyhtälöryhmälle erikoisratkaisu. Suljetun muodon ratkaisuilla on käyttöä iteratiivisten menetelmien alkuarvauksina, mutta muuten lähinnä teoreettisessa tutkimuksessa ja ongelman visualisoinnissa, koska niillä on vaikea mallintaa mittausvirheitä. Esimerkki 9 (Bancroftin menetelmä [2]). Jos kaikki mittaukset ovat pseudoetäisyysmittauksia (esimerkiksi jos käytetään pelkästään GPS-mittauksia), voidaan eräs pienimmän neliösumman ratkaisu 2 laskea suljetussa muodossa seuraavasti. Aloitetaan mittausyhtälöryhmästä s 1 x +b = y 1 s n x +b = y n. Kikka 1: Siirretään b:t yhtälöiden oikealle puolelle ja korotetaan yhtälöt puolittain toiseen. Saadaan n yhtälöä muotoa:. s i x 2 = (y i b) 2 s i 2 2s T i x+ x 2 = y 2 i 2y ib+b 2. Huom. puolittain neliöinnistä voi seurata että ratkaisuun tulee useita haaroja jotka pitää lopuksi kaikki tarkastaa. Tällä kertaa näin ei käy koska normin takia puolet ovat aina ei-negatiiviset. Kikka 2: Kerätään neliötermit uuteen muuttujaan λ = x 2 b 2, jolloin saadaan lineaarinen yhtälö jossa on muuttujina x, b ja λ: 2s T i x 2y ib = λ+ s i 2 y 2 i. Kootaan kaikki yhtälöt lineaariseksi systeemiksi ja ratkaistaan se x:n ja b:n suhteen pienimmän neliösumman mielessä: 2s T 1 2y 1 [ ] s 1 2 y 2 1 x. = 2s T b 1. λ+. n 2y n 1 s n 2 y 2 n [ ] 2s T 1 2y 1 2s T 1 2y 1 s 1 2 y 2 1 x = b. 1. λ+.. 2s T n 2y n 1 2s T n 2y n s n 2 y 2 n }{{}}{{} =p =q [ ] x = pλ+q = b [ ] d λ+ f 2 Ratkaisu ei ole sama kuin iteratiivisella menetelmällä saatu, menetelmät minimoivat hieman eri funktioita. [ ] e g 24

25 jossa A = (A T A) 1 A T ja vektorit p ja q voidaan laskea tunnetuista suureista. Alkuperäinen yhtälöryhmä siis toteutuu (pienimmän neliösumman mielessä) jos ja vain jos x = dλ+e b = f λ+g. (2.5) Sijoitetaan nämä takaisin λ:n määritelmään: λ = x 2 b 2 = dλ+e 2 ( f λ+g) 2, kerrotaan neliötermit auki ja sievennetään muotoon ( d 2 f 2 )λ 2 +(2d T e 2 f g 1)λ+ e 2 g 2 = 0 joka on toisen asteen yhtälö λ:n suhteen ja kaikki muut termit ovat tunnettuja. Ratkaistaan juuret ja lasketaan vastaavat x ja b sijoittamalla juuret kaavaan (2.5). Vaikka ratkaisuehdokkaita saadaan kaksi, GPS:n satelliittigeometria on sellainen että toinen ratkaisuista on ulkoavaruudessa ja voidaan rajata pois Uskottavuuden maksimointi Mittausyhtälöä yleisempi esitys mittausmallille on ehdollinen todennäköisyystiheysfunktio p(y x), joka voidaan lukea todennäköisyys että mitataan y jos ollaan paikassa x (ks. kappale 1.2.3). Kun lausekkeessa x pidetään muuttujana ja mittauksia y vakiona, funktiota nimitetään uskottavuusfunktioksi (likelihood) ja tulkitaan sitä niin että mitä suurempia arvoja uskottavuusfunktio saa mittauksilla y ja paikassa x, sitä paremmin kyseinen paikka sopii mittauksiin. Uskottavuusfunktiota merkitään joskus L(x y). Jos mittausmalli on annettu yhtälömuodossa y = h(x) + v, se on helppo kirjoittaa uskottavuusmuotoon sillä v = y h(x) ja v:n jakauma tunnetaan, joten p(y x) = p v (y h(x)), jossa p v on tunnettu virheen jakauma. Uskottavuusfunktion avulla annettun mittausmallin muuttaminen mittausyhtälöiksi sen sijaan onnistuu vain erikoistapauksissa. Uskottavuuden maksimointi (maximum likelihood) on siis menetelmänä yleiskäyttöisempi kuin aiemmin esitetyt. Kun mittausmalli uskottavuusmuodossa tiedetään ja saadaan mittaus, ratkaisu ˆx haetaan siten että sen uskottavuus mittausten valossa on mahdollisimman suuri: ˆx = argmax x p(y x). Tähän voidaan käyttää epälineaarisen optimoinnin keinoja, esimerkiksi Newtonin menetelmää. 3 Ellei sovellus ole esim. kuuraketin paikannus... 25

26 Esimerkki 10. Tutkitaan n mittauksen ryhmää y = h(x)+v jossa virhe v jakautunut normaalijakauman mukaisesti, v N(0,Σ). Moniulotteisen normaalijakauman tiheysfunktio on ( p v (z) = C exp 1 ) 2 zt Σ 1 z (vakio C = (2π) n/2 det(σ) 1/2 ei ole tässä oleellinen). Nyt uskottavuusfunktio on ( p(y x) = p v (y h(x)) = C exp 1 ) 2 (y h(x))t Σ 1 (y h(x)). Koska kovarianssimatriisi Σ on positiividefiniitti, eksponenttifunktion argumentti on aina ei-positiivinen. Täten suurimman uskottavuuden ratkaisu löydetään minimoimalla lauseketta (y h(x)) T Σ 1 (y h(x)), joka on täsmälleen sama kuin painotetun pienimmän neliösumman kohdefunktio painomatriisilla Σ 1. Normaalijakautuneille virheille siis maksimiuskottavuus ja painotettu pienimmän neliösumman menetelmä ovat identtiset, ja tämä johto on yksi perustelu sille miksi painomatriisina käytetään nimenomaan mittauskovarianssimatriisin inverssiä. 2.5 Bayesilainen ratkaisu Edellä käsitellyllä mittausten uskottavuusfunktiolla p(y x) ei sinänsä ole mitään konkreettista tulkintaa, kiinnostavampi suure olisi tilan/paikan todennäköisyys ehdollistettuna saaduilla mittauksilla p(x y). Tämä voidaan laskea Bayesin kaavalla: p(x y) = p(x)p(y x) R p(x)p(y x)dx (2.6) jossa p(y x) on mittausmallin uskottavuusfunktio ja p(x) on mittauksista riippumaton prioritieto joka antaa tiheysfunktion muodossa valistuneen arvauksen x:n mahdollisista arvoista 4. Kun saatu mittaus y sijoitetaan kaavaan, vastauksena saadaan posteriorijakauma eli ehdollinen todennäköisyysjakauma tilalle x. Esimerkki 11. Otetaan yksiulotteinen esimerkki jossa mitataan esineen paikkaa 10 metrin pituisessa putkessa. Olkoon mittausvirheen jakauma N(0,3 2 ). Uskottavuusfunktio on nyt normaalijakauman tiheysfunktio (vakiokerroin ei ole oleellinen) ) (x y)2 p(y x) = C exp ( Jos x:stä ei tiedetä etukäteen yhtään mitään, voidaan prioriksi valita vakiotiheys. 26

27 ja priorina käytetään paremman tiedon puutteessa tasajakaumaa putken sisällä: { 1 p(x) = 10 jos 0 x 10 0 muuten Jos mittaus on vaikka y = 8 metriä, saadaan Bayesin kaavasta (2.6) p(x y) = p(x)p(8 x) R p(x)p(8 x)dx = ( ) exp (x 8)2 18 ) ( (x 8) p(x)c exp R ) p(x)c exp ( (x 8)2 dx ( ) R jos 0 x 10 = 10 0 exp (x 8)2 18 dx 0 muuten ) exp ( (x 8)2 18 jos 0 x 10 =. 0 muuten Prioritietoa käytettiin tässä vain rajoittamaan estimaatti sallitulle alueelle. Jos esineen summittainen paikka putkessa olisi ollut tiedossa, sitä olisi voinut käyttää myös priorina priori posteriori mittaus Saatu posteriorijakauma p(x y) kuvaa nyt parhaan tietomme mukaan esineen sijaintitodennäköisyyttä putken eri kohdissa. Jakaumalle voidaan tavalliseen tapaan laskea odotusarvo µ = R xp(x y)dx 6.76 ja varianssi σ 2 = R (x µ) 2 p(x y)dx Mittaus y = 8 siis siirsi prioriestimaattia x = 5 hieman kohti putken oikeaa päätyä. Jos tämän jälkeen tehtäisiin vielä uusia riippumattomia mittauksia (ja oletetaan ettei paikannettava esine liiku välillä), voidaan tästä ratkaistua posterioria käyttää uutena priorina ja kaikki mittauksista saatu informaatio tulee käytettyä optimaalisesti. Bayesin kaava antaa todennäköisyysjakauman p(x y) joka on informatiivisempi kuin pelkkä tilaestimaatti ˆx jakauma sisältää kaiken tiedon jota tilasta prioritiedon ja mittauksen perusteella on. Jakaumasta voidaan tarpeen mukaan laskea odotusarvo tai suurimman uskottavuuden estimaatti, kovarianssiestimaatti, luottamusvälejä, jne. ja sitä voidaan käyttää prioritietona seuraavan ajanhetken paikkaratkaisulle. Jos käsiteltävät tiheydet ovat vähänkään monimutkaisempia, posterioritiheyttä ei yleensä pysty ratkaisemaan analyyttisesti, vaan turvaudutaan Monte Carlo -integrointiin joka toimii mielivaltaisille funktioille. Tästä enemmän luvussa

28 2.6 Virhe- ja herkkyysanalyysi Itse paikka- tai tilaestimaatin lisäksi meitä kiinnostaa ratkaisun virhearvio. Mittauksissa on aina virheitä, joten paikkaestimaatin laskemisen jälkeen olennainen kysymys on kuinka lähellä todellista paikkaa estimaatin voidaan luvata olevan. Ennen varsinaista virheanalyysia on paikallaan luokitella eri tyyppisiä virheitä ja täsmentää mitä niistä nyt tutkitaan. luontaiset virheet: määräytyvät mittausvirheistä ja mittausgeometriasta mallinnusvirheet: väärät oletukset/arvaukset virheiden jakaumista tai riippuvuuksista, mittausresoluutio tai havaitsemiskynnys, väärät luonnonvakioiden arvot,... numeeriset virheet: johtuvat äärellisestä laskentatarkkuudesta (ja varomattomasta ohjelmoinnista) approksimaatio-, katkaisu- ja näytteistysvirheet: algoritmin tahallista optimointia muut: ympäristötekijät, laitteiston väärinkäyttö, koodausbugit,... Tässä luvussa käsitellään vain luontaisia virheitä, jolloin saadut virherajat ja -arviot tiukasti ottaen pitävät paikkansa vain jos muun tyyppisiä virheitä ei ole, eli kaikki mallit ovat oikein ja laskut tehdään äärettömällä tarkuudella. Käytännössä täten laskettuja virherajoja joudutaan tulkitsemaan varovasti: jos malli olisi oikein, niin... Muihin virhetyyppeihin puututaan robustisuuden ja luotettavuuden kautta luvussa 4. Estimaatin virhettä voidaan karakterisoida eri tavoin: Virhepropagaatio: kun mittausvirheiden (=syötteen) jakauma/kovarianssi tunnetaan, laske ratkaisun (=tulosteen) jakauma/kovarianssi Luotettavuusalueet: laske todennäköisyys että oikea paikka on annetun alueen sisällä, tai laske alue jonka sisällä paikka on esim. 95% todennäköisyydellä Herkkyysanalyysi: paljonko pienet muutokset mittauksissa muuttavat ratkaisua. Jos mittauksille y saadaan estimaatti ˆx, paljonko estimaatti muuttuu jos mittaus onkin ỹ = y + y, jossa muutos y oletetaan suhteellisen pieneksi? Pienimmän neliösumman virheanalyysi Olkoon x todellinen paikka, ȳ virheettömät mittaukset ja mittausvirhe y. Jos pienimmän neliösumman menetelmä suppenee paikkaan ˆx = x+ x, iteraatioaskeleen (2.3) pituus tässä pisteessä on nolla, eli: (J T J) 1 J T (h( x+ x) (ȳ+ y)) = 0. 28

29 Derivaattamatriisi J on toki x:n funktio, mutta jos x oletetaan pieneksi, J on lähes vakio tarkasteltavalla alueella ja mittausyhtälöt voidaan linearisoida h(ˆx) h( x)+j x ja saadaan (J T J) 1 J T (h( x) +J x (ȳ+ y)) = 0 }{{} =ȳ (J T J) 1 J T J x (J T J) 1 J T y = 0 x = (J T J) 1 J T y. Jos mittausvirhe on normaalijakautunut, y N(0,Σ), seuraa Lauseen 4 (s. 8) perusteella että x N ( 0,(J T J) 1 J T ΣJ(J T J) 1). (2.7) Erikoistapauksessa jossa mittausvirheet ovat jakautuneet riippumattomasti ja identtisesti, eli Σ = σ 2 I, paikan virhe sievenee muotoon x N ( 0,σ 2 (J T J) 1). Nyt mittausvirheistä johtuvan estimointivirheen kovarianssi koostuu kauniisti mittausvirheiden varianssin σ 2 ja mittausgeometriasta riippuvan matriisin (J T J) 1 tulosta. GPS-yhteydessä matriisista käytetään nimeä DOP matrix (Dilution of Precision) [24, kappaleet 6.A.1 2], josta voidaan laskea erilaisia DOPlukuja seuraavasti: Global/Geometric Dilution of Precision: GDOP = tr(j T J) 1 Position Dilution of Precision: PDOP = tr[(j T J) 1 ] (1:3,1:3) Horizontal Dilution of Precision: HDOP = tr[(j T J) 1 ] (1:2,1:2) Vertical Dilution of Precision: V DOP = [(J T J) 1 ] (3,3) Time Dilution of Precision: T DOP = [(J T J) 1 ] (4,4) DOP-lukujen hyöty on siinä että satelliittigeometrian hyvyys saadaan tiivistettyä yhteen lukuun, jonka jälkeen paikkavirheen hajontaa voidaan arvioida yksinkertaisesti kertomalla mittausvirheen hajonta DOP-luvulla. Jos mittauksilla on eri hajonnat, virhekaava (2.7) ei sievene DOP-muotoon, ks. tehtävä Painotettakoon vielä että kaavan (2.7) johdossa virhe x oletettiin pieneksi jotta mittausfunktio h(x) pystyttiin linearisoimaan estimaatin ympäristössä. Mitä kaarevampia mittausyhtälöt ovat, sitä huonompi arvio paikan virheelle tällä tavalla saadaan. (ks. tehtävä 2.18) Bayesilainen virheanalyysi Aiemmin mainittiin että Bayesin ratkaisu tuottaa paikan todennäköisyystiheysfunktion, josta voidaan laskea sekä paikkaestimaatti että sen keskineliövirheen arvio Z MSE = (x ˆx)(x ˆx) T p(x y)dx jossa integraali yleensä lasketaan numeerisesti [26]. Jos estimaattina ˆx on odotusarvo E(x y), keskineliövirhe on määritelmän mukaan sama posteriorikovarianssi. 29

30 Esimerkki 12. Todetaan vielä että normaalijakautuneille mittauksille virhekovarianssi on (liki pitäen) sama kuin pienimmän neliösumman menetelmällä virhetarkastelussa saatu. Olkoon mittausvirheiden jakauma v N(0,σ 2 I), ja priori p(x) tasan jakautunut 5. Nyt uskottavuusfunktio on ( p(y x) = C exp (h(x) ) y)t (h(x) y) 2σ 2 joten p(x)p(y x) p(x y) = R = p(x)p(y x)dx p(y x) R p(y x)dx ( ) C exp (h(x) y)t (h(x) y) 2σ = 2 R C exp ( (h(x) y)t (h(x) y) dx ( = C 2 exp (h(x) y)t (h(x) y) 2σ 2 2σ 2 ) Tehdään samanlainen linearisointi tosipaikan ympärillä kuin pienimmän neliösumman analyysissä: h(x) h( x)+j( x x) = ȳ+j x = y y+j x, jolloin saadaan ( p(x y) C 2 exp (J x ) y)t (J x y) 2σ 2, joka, toisin kuin (2.7), riippuu realisoituneesta mittausvirheestä y eikä ainoastaan sen jakaumasta. Havainnollisuuden vuoksi käytetään tässä esimerkissä lievää väkivaltaa ja sijoitetaan y = 0 sillä perusteella että mittausvirheet ovat nollakeskeisiä, jolloin saadaan ( p(x y) C 2 exp 1 x T J T ) J x 2 σ 2 = C 2 exp ( 12 [ xt σ 2 (J T J) 1] ) 1 x ) joka on tiheysfunktio jakaumalle x N(0, σ 2 (J T J) 1 ) eli sama tulos joka saatiin edellisessä kappaleessa pienimmän neliösumman menetelmälle samoin oletuksin. 5 Usein ajatellaan että priorilla on vakiotiheys koko avaruudessa, mikä aiheuttaa ristiriidan koska tiheysfunktion integraalin pitäisi olla 1. Käytännössä tasan jakautunut priori supistuu laskuista pois, ja periaatteessa voidaan ajatella että käytettiin prioria joka on tasan jakautunut riittävän suuressa alueessa jonka ulkopuolelle jää niin vähän todennäköisyysmassaa ettei se vaikuta tuloksiin. Toinen vaihtoehto on olettaa että priori on jakautunut N(0, MI) mukaan ja ottaa raja-arvo kun M. 30

31 2.6.3 Luottamusvälit Luottamusvälillä tarkoittaa yksiulotteisessa tapauksessa väliä jonka sisällä estimaatti on esim. 99% todennäköisyydellä. 6 Luottamusväli on yleensä keskitetty estimaatin ympärille, mutta voi toki olla asetettu myös epäsymmetrisesti. Moniulotteisessa tapauksessa käytetään yleensä estimaattiin keskitettyjä luottamuspalloja tai ellipsoideja, mutta jälleen mikään ei estä käyttämästä minkä muotoista aluetta tahansa, kunhan sen sisälle jää haluttu osa estimaatin jakaumasta. Jos estimaatin jakauma on tiedossa, luottamusväli (tai kääntäen tietyn välin sisään jäävä todennäköisyys) lasketaan integroimalla jakaumaa halutun välin yli: P(a x b y) = Z b a p(x y)dx. Normaalijakauman tapauksessa voidaan käyttää suoraan normaalijakauman kertymäfunktiota ja sen käänteisfunktiota ja saadaan tutut nyrkkisäännöt ±2σ sisällä on 95% todennäköisyydestä, ±3σ sisällä 99.7% jne. Vaikka estimaatin jakaumaa ei tunneta, varianssi voidaan yleensä approksimoida. Normaalijakaumasta johdetut luottamusvälit eivät enää pidä paikkaansa, mutta voidaan soveltaa Chebyshevin epäyhtälöä, joka antaa alarajan sille kuinka paljon todennäköisyysmassaa tietyn välin ulkopuolella voi pahimmillaan olla, kun jakauman varianssi on σ 2 : P( x ˆx λσ) 1 λ2. (2.8) Kaavan perusteella esimerkiksi yli kolmen sigman päässä keskiarvosta voi olla korkeintaan 1/9 todennäköisyydestä, mikä tarkoittaa että oli jakauma mikä tahansa, välillä ˆx ± 3σ on aina vähintään 8/9 = 89% todennäköisyydestä. Vastaava n-ulotteinen kaava on P ( x ˆx λ ) trace(σ) 1 λ 2 jossa Σ on jakauman kovarianssimatriisi. Jos muuttujilla on suuria korrelaatiota tai eri suuruusluokkaa olevat varianssit, vähemmän sievennetty kaava ( P (x ˆx) T Σ 1 (x ˆx) λ ) n 1 λ 2 (2.9) antaa tiukemman rajan. 6 Tämä on Bayesilainen tulkinta jota paikannuslaskuissa käytämme häikäilemättä. Pohjimmiltaan kyse on siitä miten satunnaisuus pitäisi mallintaa matemaattisesti. Frekventistisen tulkinnan mukaan todennäköisyys tarkoittaa sitä, että jos koe toistetaan monta kertaa, niin todennäköisyyden mukainen osuus tapahtumista tapahtuu. Bayesilaisessa tulkinnassa todennäköisyys on pikemminkin subjektiivinen epävarmuuden mitta, joka kertoo paljonko tietoa (tai arvauksia) systeemistä on. Katsantojen ero näkyy mm. luottamusvälin tulkinnassa. Frekventistisessä mielessä 99% luottamusväli tarkoittaa sitä, että että todellinen paikka on jokin kiinteä arvo ja 99% tapauksista luottamusväli saadaan laskettua niin että todellinen paikka osuu sen sisälle. Bayesilainen tulkinta vastaa paremmin intuitiota: todellinen paikka on satunnainen ja osuu 99% todennäköisyydellä laskemamme luottamusvälin sisälle. 31

32 Kaavan (2.9) avulla voidaan myös määrittää luottamusellipsoidin yhtälö, esimerksiksi 95% ellipsoidi saadaan valitsemalla yhtälön oikealle puolelle 1/λ 2 = 0.05 (eli korkeintaan 5% todennäköisyydesta saa olla ellipsoidin ulkopuolella), josta seuraa λ = 1/0.05. Siis ellipsoidi { E 95% = x (x ˆx) T Σ 1 (x ˆx) < n } 0.05 sisältää vähintään 95% todennäköisyysmassasta (vrt. tehtävä 1.8 sivulla 17). 2.7 Yhteenveto ja huomioita Paikannustehtävä voidaan muotoilla joko epälineaarisen yhtälöryhmän ratkaisemiseksi tai maksimiuskottavuuden/bayesilaisen posteriorimaksimin hakemiseksi. Kumpikin tehtävä ratkeaa joko standardeilla optimointimenetelmillä tai numeerisella integroinnilla [26], johon palataan luvussa 3.4. Jos mittausyhtälöt ovat lähes lineaarisia niin että J(x) = h (x) on lähes vakio ratkaisun lähellä (jolloin sitä voidaan merkitä pelkästään J) ja mittausvirheet ovat normaalijakautuneita tai ne voidaan hyvällä omallatunnolla siten mallintaa, pienimmän neliösumman ratkaisu ja Bayesilainen ratkaisu ovat asymptoottisesti identtiset. Suljetun muodon ratkaisut ovat työläämpiä johtaa, ja yleensä herkempiä mittausvirheille. Ne ovat kuitenkin joskus hyödyllisiä alkuarvauksen tai tehtävän kaikkien ratkaisujen etsimiseen. Harjoitustehtäviä 2.1. Tuntemattomana on kaksiulotteinen paikka x = [ x 1 x 2 ] T. Kirjoita mittausmalli, kun mittaus y on (a) kohinainen arvio koordinaatista x 2 (b) kohinainen etäisyys kiinteään asemaan s = [ s 1 (c) kohinainen suuntakulma asemasta s siten että 0-kulma osoittaa pohjoiseen ja kulma kasvaa myötäpäivään s 2 ] T (d) asemiin s 1 ja s 2 mitattujen kohinaisten etäisyyksien erotus 2.2. Ideaalinen INS antaisi mittauksena nopeusvektorin B-koordinaatistossa sekä pyörähdysvektorin p joka määrittelee B-koordinaatiston asennon lokaalin L-koordinaatiston suhteen. Kirjoita mittausyhtälö kun p oletetaan virheettömäksi Esim. WLAN-verkoissa ei useinkaan ole mahdollista tai järkevää muuttaa mitattua signaalitehoa etäisyysmittaukseksi. Sen sijaan voidaan käyttää ns. fingerprint-menetelmää, jossa kalibrointivaiheessa valitaan joukko paikkoja p i, i = 1...n, ja mitataan niissä kaikkien 32

33 kuuluvien signaalien tehot a i R m, ja paikannusvaiheessa verrataan tehtyjä tehomittauksia tietokantaan. Kirjoita mittausmalli, kun oletetaan että mittauskohina on riippumattomasti normaalijakautunutta varianssilla σ 2 ja oletetaan että tietokantaan on saatu määritettyä mittauksen odotusarvot kussakin kalibrointipisteessä tarkasti. (Ratkaisuja on monta eikä mikään ole ihan suoraviivainen.) 2.4. Tuntemattomana on kaksiulotteinen paikka x. Mittausmalli on [ [100 0] y = h(x)+v = T ] x [0 50] T + v, jossa v N(0,10 2 I) x (a) Kirjoita residuaalin p(x) ja sen derivaattamatriisin J = p (x) kaavat. (b) Saadaan mittaus y = [ ] T. Mikä on Newtonin menetelmän ensimmäinen askel jos alkupaikkana on x = [0 0] T Johda painotetun Gauss-Newtonin menetelmän (Algoritmi 2) iteraatioaskel, eli näytä että se minimoi lausekkeen p(x) T Σ 1 p(x) Kehitä suljetun muodon ratkaisu (vrt. esimerkki 9 sivulla 24) yhtälöryhmälle s 1 x = y 1. s n x = y n. Ratkaise tehtävän 2.4 paikannusongelma saamallasi kaavalla Kirjoita seuraavia mittausyhtälöitä vastaavat uskottavuusfunktiot: (a) y = x 2 + v, v Tas[ 1,1] (b) s x 100 (c) s x +v 100, v N(0,1) (d) y = s+ s x 2, s N(0,I) 2.8. Mittausmalli on y = x+v, jossa v N(0,(1/4) 2 ). (a) Mikä on näin saadun mittauksen uskottavuusfunktio? Luonnostele funktion kuvaaja. (b) Mikä on uskottavuusfunktio jos saadaan n riippumatonta mittausta? (c) (Matlab) Tehdään viisi riippumatonta mittausta ja saadaan arvot 1,0, 2, 2 ja 2. Jos lattiafunktio jätettäisiin huomiotta, saataisiin x:n estimaatiksi mittausten keskiarvo 1. Piirrä uskottavuus sopivalla välillä (esim. [ 3, 3]) ja arvioi siitä maksimiuskottavuusestimaatti. 33

34 2.9. Johda Bayesin kaava (2.6) ehdollisen tiheysfunktion määritelmästä (s. 9) Toista esimerkin 11 (sivulla 26) laskut jos mittaus on y = Johda posteriorijakauman kaava, kun sekä priori että uskottavuus ovat yksiulotteisia normaalijakaumia Johda paikkavirheen jakauma painotetulle Gauss-Newtonin menetelmälle (Algoritmi 2) samaan tapaan kuin kappaleessa { 1/2 kun 1 x Olkoon priorijakauma p(x) =. 0 muuten Mikä on jakauman odotusarvo ja varianssi? (y+1)/2 kun x 0 ja 1 y 1 Mittausmalli on p(y x) = (1 y)/2 kun x 0 ja 1 y 1. 0 muuten Laske posteriorijakauma, ja sen perusteella Bayesilainen tilaestimaatti ja sen varianssi Oikessa mittauksissa on usein yksittäisiä isoja virheitä jotka eivät noudata nimellistä virhejakaumaa. Eräs malli tällaisille mittauksille on slippage model, jossa jollain sopivan pienellä todennäköisyydellä mittaus tuleekin isompivarianssisesta virhejakaumasta. Olkoon priorijakauma x N(10,2 2 ). Mitataan y = x+v, jossa mittausvirhe v N(0,1). (a) Mikä on Baysilainen estimaatti ja sen varianssi jos saadaan mittaus y = 9 tai y = 28. (b) Entä jos käytetään robustia mallia jossa v on 95% todennäköisyydellä jakautunut N(0,1) mukaisesti ja 5% todennäköisyydellä N(0,100 2 ) mukaisesti? Tutka mittaa etäisyyttä kohteeseen sekä etäisyyden muutosta. Tutka-antenni on asennettu pyörivän varren päähän niin että sen paikka ajanhetkellä t on s(t) = [cost sint] T. Kirjoita mittausyhtälöryhmä ja sen derivaattamatriisi kun tilavektori on [x 1 x 2 ẋ 1 ẋ 2 ]. (Huom. tarkkana koska derivoidaan ajan suhteen ja koska tilavektorin suhteen.) 34

35 2.16. Tutkitaan Chebyshevin epäyhtälöä (2.8). (a) Jos x on jakautunut kaksipuoleisen eksponenttijakauman mukaan, eli p(x) = 1 2 e x, sen odotusarvo on 0 ja keskihajonta 2. Laske 67% luottamusväli tarkasti ja Chebyshevin epäyhtälöllä. (b) Millä jakaumalla yhtäsuuruus P( x ˆx σ) = 1 totetuu? Tietokonetehtäviä Jatkoa tehtävään 2.4: (a) Ohjelmoi Newtonin [ ] menetelmä (Algoritmi 1 sivulla 22), ja aja se alkuarvauksista x 0 =. Käytä lopetustoleranssia δ = Mihin ratkaisuun päädyttiin ja montako iteraatioaskelta tarvittiin? [ ] 100 (b) Aja algoritmi uudelleen alkuarvauksesta x 0 =. Mihin ratkaisuun päädyttiin ja 100 montako iteraatioaskelta tarvittiin? (c) Piirrä residuaalin normi alueessa x [ 50,150], y [ 50,150] Matlabin surfkomennolla. Arvioi kuinka lähellä oikeaa ratkaisua alkuarvauksen täytyisi olla jotta iteraatio löytää oikean ratkaisun Jatkoa edelliseen tehtävään. Koska kaikilla mittauksilla on sama varianssi σ 2, saadaan paikkavirheen kovarianssi estimoitua muodossa σ 2 (J T J) 1. Olkoon todellinen paikka x true = [0 0] T. Paikkaestimaatin jakaumaa voidaan approksimoida numeerisesti simuloiduilla mittauksilla. Nythän y N([100 50],σ 2 I). (a) Laske paikkaestimaatti tuhat kertaa eri mittausrealisaatiolla, ja laske saatujen estimaattien kovarianssi ja sen virhe laskettuun kovarianssiestimaattiin σ 2 (J T J) 1 kun σ = 1 ja kun σ = 10. (b) Piirrä DOP-arvoja alueessa x [ 50, 150], y [ 50, 150] Matlabin surf-komennolla. Voi olla tarpeen leikata liian suuret arvot pois kuvasta, esim. piirtää min(dop,10). 35

36 Luku 3 Suodatus Suodatuksessa käytetään nykyisten mittausten lisäksi myös kaikkia aikaisempia mittauksia tilaestimaatin laskennassa. Perusedellytys aikaisempien mittauksien käytölle paikannuksessa on tilamalli x k = f k 1 (x k 1 )+w k 1, (3.1) joka kertoo kuinka seuraava tila riippuu edellisestä tilasta. Tila-nimitystä on käytetty paikan sijasta, koska ei haluta rajoittaa tilan muuttujia pelkkään paikkaan. Yhtälössä (3.1) käytetään seuraavia merkintöjä: x k on tila, f k on tilansiirtofunktio ja w k on tilamallin virhe. Alaindeksi k viittaa ajanhetkeen t k. Tässä kappaleessa paikannettavan tila x tulkitaan stokastiseksi prosessiksi. Koska tila on stokastinen prosessi niin tilaestimaatin laskeminen tapahtuu kaksivaiheisesti. Kullakin ajanhetkellä ratkaistaan tilan ehdollinen jakauma ehdolla mittaukset p xk y 1:k (x k y 1:k ). Tässä mittauksilla y 1:k tarkoitetaan kaikkia saatavilla olevia mittauksia, sekä nykyisiä että aikaisempia mittauksia. Mittauksetkin tulkitaan satunnaismuuttujien realisaatioiksi. Mittausyhtälöinä toimivat samat yhtälöt kuin staattisessa tapauksessa (2.1) y k = h k (x k )+v k, (3.2) missä y k on mittaukset, h k on mittausfunktio ja v k mittausvirhe. Ehdollisen jakauman laskemiseen tarvitaan tilamallin ja mittausyhtälöiden lisäksi myös alkutila x 0. Kun tilan ehdollinen jakauma on ratkaistu, voidaan siitä laskea toivottu estimaatti, joka on optimaalinen valitun kriteerin suhteen. Näitä optimaalisia estimaatteja käsitellään kappaleessa 3.3. Samoin voidaan laskea myös muita mielenkiintoisia suureita kuten estimointivirheen kovarianssimatriisi. Jotta estimointi voitaisiin järkevästi suorittaa kohtuullisessa ajassa täytyy tilan ehdollinen jakauma pystyä ratkaisemaan rekursiivisesti sen sijaan, että käytettäisiin koko mittaushistoriaa joka ajanhetkellä. Tämä onnistuu kun tehdään muutamia riippumattomuusoletuksia. Ensimmäinen oletus on, että virheet w k ja v k ovat valkoista kohinaa ja keskenään riippumattomat. 36

37 Yksinkertaisuuden vuoksi oletetaan myös että virheet ovat nollakeskisiä, tarvittaessa muutetaan tilansiirto- ja mittausfunktioita niin, että virheistä tulee nollakeskisiä. Lisäksi oletetaan, että virheet w k ja v k ovat riippumattomia alkutilasta x 0. Näillä oletuksilla tilan ehdollinen jakauma voidaan ratkaista rekursiivisesti. Asiaa käsitellään tarkemmin kappaleissa 3.1 ja 3.3. Tilan ehdollisen jakauman ratkaisemista aikasarjassa, jonka avulla voidaan ratkaista haluttu estimaatti, kutsutaan suodatukseksi (filtering). Suodatuksella on monia etuja verrattuna staattiseen paikkaratkaisuun. Ensinnäkin suodatuksen avulla voidaan käyttää optimaalisesti kaikki mittaukset hyödyksi riippumatta siitä kuinka monta mittausta minäkin ajanhetkenä saadaan. Tämä parantaa paikannuksen tarkkuutta huomattavasti verrattuna staattiseen paikannukseen. Suodatuksen avulla voidaan hyödyntää helposti myös mahdollista muuta informaatiota paikannuksessa kuten esimerkiksi karttatietoa, tukiasemien sektori/maksimikantamatietoa. Suodatus antaa myös mahdollisuuden tehdä paikannuksesta entistä vikasietoisempi erilaisilla virhemalleilla, joilla voidaan ottaa huomioon vaikka epäsuoraa etenemistä tai muulla tavalla aiheutuneita virheellisiä mittauksia. Lisäksi suodatuksen avulla paikkaratkaisu voidaan myös laskea vaikkei kyseisellä ajanhetkellä ole saatu yhtään mittausta, koska tilamallin avulla voidaan ratkaista tulevan tilan jakauma ilman mittauksia. Toisaalta suodatuksella on myös haittapuolia, ensinnäkin useissa tapauksissa ehdollisen jakauman laskeminen ei ole mahdollista analyyttisesti ja vaikka laskenta voidaan tehdä numeerisesti se vie tyypillisesti monta kertaa enemmän laskentaaikaa kuin staattinen paikannus. Lisäksi suodatuksessa oletetaan, että tiedetään alkutila, tilamalli ja virheiden jakaumat joita staattinen paikannus ei välttämättä tarvitse. Useinkaan nämä eivät ole kovin hyvin tiedossa, jolloin malli ei välttämättä vastaakaan todellisuutta niin hyvin kuin staattisessa tapauksessa. Kuten edellä todettiinkin, tilan ehdollista jakaumaa ei voida useinkaan ratkaista analyyttisesti. Kuitenkin jos sekä tilamalli että mittausyhtälöt ovat lineaarisia ja jakaumat (virheiden jakaumat ja alkutila) ovat normaaleja niin tilan ehdollinen jakauma voidaan ratkaista jokaisella ajanhetkellä. Algoritmia joka tämän ratkaisee kutsutaan Kalmanin suodattimeksi, joka on nimetty Rudolf E. Kalmanin mukaan [15]. Kuitenkin tämä on vain yksi näkökulma Kalmanin suodattimeen, sillä vaikka jakaumat eivät olisikaan normaaleja niin Kalmanin suodatin toimii siltikin parhaana lineaarisena harhattomana estimaattorina (BLUE, Best Linear Unbiased Estimator). Kalmanin suodatinta käsitellään kappaleessa 3.1, BLU-estimaattorin näkökulmasta ja harjoitustehtävänä 3.5 on näyttää että se ratkaisee myös tilan ehdollisen jakauman. Kalmanin suodattimesta on myös lukuisia approksimaatioita tapauksille, joissa tilamalli ja/tai mittausyhtälöt eivät ole lineaarisia; näitä epälineaarisia Kalmanin suodattimia käsitellään kappaleessa 3.2. Varsinaista bayeslaista suodatusta, joka ratkaisee yleisen suodatusongelman, käsitellään kappaleessa 3.3. Numeerisia menetelmiä yleisen bayeslaisen ongelman ratkaisemiseksi esitellään kappaleessa

38 3.1 Kalmanin suodatin Kalmanin suodatin ratkaisee suodatusongelman jossa tilamalli ja mittausmalli (mittausyhtälöt) ovat lineaarisia. Tällöin tilamalli on x k = Φ k 1 x k 1 + w k 1, (3.3) missä x k on prosessin tila, Φ k on tilansiirtomatriisi ja w k on tilamallin virhe, joka oletetaan nollakeskiseksi valkoiseksi kohinaksi ja riippumattomaksi mittauksien virheistä sekä alkutilasta. Tilamallin virheen kovarianssimatriisi merkitään matriisilla Q k. Mittausmalli puolestaan on y k = H k x k + v k, (3.4) missä y k on mittaukset, H k on mittausmatriisi ja v k on mittausmallin virhe, joka oletetaan nollakeskiseksi valkoiseksi kohinaksi ja riippumattomaksi tilamallin virheistä sekä alkutilasta. Mittausmallin virheen kovarianssimatriisia merkitään matriisilla R k, joka oletetaan positiividefiniitiksi. Tilamallin ja mittausmallin lisäksi Kalmanin suodatin tarvitsee alkutilan x 0. Merkitään alkutilan odotusarvoa vektorilla ˆx 0 ja kovarianssimatriisia vakiomatriisilla P 0, joka oletetaan positiividefiniitiksi. Hattumerkintä viittaa estimaattoriin, joka on mittausten funktio. Tosin tässä tapauksessa estimaattori on vakiosatunnaismuuttuja, koska ajanhetkellä t 0 ei saada yhtään mittausta. Kovarianssimatriisi P 0 voidaan tulkita myös keskineliövirhematriisiksi (MSE) E ( e 0 e T 0 ), missä e0 = x 0 ˆx 0. Kalmanin suodattimen tarkoituksena on ratkaista paras lineaarinen harhaton estimaattori tilalle x k. Riippumattomuusoletusten vuoksi tämä voidaan tehdä rekursiivisesti, tällöin estimaattori on muotoa ˆx k = [ J k 1 K k ] [ ˆx k 1 y k ], (3.5) missä ˆx k 1 on tilan x k 1 paras lineaarinen harhaton estimaattori ajanhetkellä t k 1, matriisilla P k 1 merkitään vastaavaa keskineliövirhematriisia. Ajanhetken t k mittauksia merkitään satunnaismuuttujalla y k. Seuraavaksi johdetaan sellaiset matriisit J k 1 ja K k, että Kalmanin suodatin olisi paras lineaarinen harhaton estimaattori. Parhaalla tässä tarkoitetaan, että estimaattorin keskineliövirhematriisin jälki tr(e(e k e T k )) = E(eT k e k) olisi mahdollisimman pieni. Tätä estimaattoria kutsutaan pienimmän neliösumman estimaattoriksi (MSE-estimaattori). Koska estimaattorin tulee olla harhaton, saadaan yhtälö E(x k ) = E(ˆx k ) = [ J k 1 K k ] [ E(ˆx k 1 ) E(y k ) Käyttäen hyväksi estimaattorin ˆx k 1 harhattomuutta, tilamallia (3.3) ja mittausmallia (3.4) saadaan ]. Φ k 1 E(x k 1 ) = J k 1 E(x k 1 )+K k H k Φ k 1 E(x k 1 ). 38

39 Tämän yhtälön tulee olla voimassa riippumatta odotusarvosta E(x k 1 ), joten J k 1 = Φ k 1 K k H k Φ k 1. (3.6) Tilan x k parasta lineaarista harhatonta estimaattoria, joka ei käytä hyväkseen nykyisen ajanhetken t k mittauksia kutsutaan priori-estimaattoriksi. Toisin sanoen priori-estimaattori on samaa muotoa kuin kaavan (3.5) estimaattori, kun matriisi K k on asetettu nolla-matriisiksi. Tällöin priori-estimaattori, johon miinus yläindeksinä viittaa, on kaavan (3.6) mukaan Priori-estimaattorin keskineliövirhematriisi näin ollen on P k = E( (x k ˆx k )(x k ˆx k )T) ˆx k = Φ k 1 ˆx k 1. (3.7) (3.3) = E ( (Φ k 1 e k 1 + w k 1 )(Φ k 1 e k 1 + w k 1 ) T) r.ton = Φ k 1 E ( T e k 1 e ) k 1 Φ T k 1 + E( w k 1 w T ) k 1 = Φ k 1 P k 1 Φ T k 1 + Q k 1. Kaavan (3.5) estimaattoria, joka käyttää hyväkseen myös ajanhetken t k mittaukset kutsutaan posteriori-estimaattoriksi. Posteriori-estimaattorin virhe on e k = x k ˆx k = x k (Φ k 1 K k H k Φ k 1 )ˆx k 1 K k y k (3.8) (3.4) = (I K k H k )(x k ˆx k ) K kv k Koska priori-estimaattorin virhe e k = x k ˆx k on oletusten mukaan riippumaton mittausvirheestä v k niin posteriori-estimaattorin keskineliövirhematriisi on P k = E ( e k e T ) k (3.8) = (I K k H k )P k (I K kh k ) T + K k R k K T k har j.3.2 = P k P k HT k (H kp k HT k + R k) 1 H k P k +(K k B P k HT k B 1 )(K k B P k HT k B 1 ) T, missä B = (H k P k HT k + R k) 1 2. Matriisin P k jälki on pienin mahdollinen kun matriisin (3.9) (K k B P k HT k B 1 )(K k B P k HT k B 1 ) T (3.10) jälki on pienin mahdollinen, koska summan muut termit eivät riipu matriisista K k. Matriisin (3.10) jälki on pienin mahdollinen kun K k B P k HT k B 1 = 0, harjoitustehtävä 3.3, ja tämän yhtälön ratkaisu on K k = P k HT k (H kp k HT k + R k) 1. (3.11) Tätä matriisia kutsutaan Kalmanin vahvistukseksi. Kokoamalla tulokset yhteen saadaan Kalmanin suodattimeksi estimaattori ˆx k = ˆx k + K k(y k H k ˆx k ), (3.12) 39

40 missä priori-estimaattori on annettu kaavassa (3.7) ja Kalmanin vahvistus kaavassa (3.11). Tämän estimaattorin keskineliövirhematriisi (3.9) voidaan kirjoittaa muotoon P k = (I K k H k )P k. Algoritmissa 3 on annettu Kalmanin suodatin tiiviissä muodossa. Kaavassa (3.12) olevaa mittauksen y k ja ennustetun mittauksen ŷ k = H k ˆx k erotusta y k H k ˆx k kutsutaan innovaatioksi. Mittauksen ennusteen keskineliövirhematriisi (innovaation kovarianssimatriisi) on H k P k HT k + R k (harj. 3.1). Innovaation hyväksi käyttäminen on lähes ainoa tapa jolla suodattimen toimintaa voidaan tarkkailla ajon aikana. Koska innovaation kovarianssimatriisi tiedetään voidaan tehdä tilastollisia testejä, jotka kertovat onko realisoitunut mittaus todennäköinen vai ei. Monet ns. robustit suodattimet tekevät tälläisiä testejä ja mikäli tuloksena on että mittaus on epätodennäköinen niin sitä ei joko käytetä ollenkaan tai sitten sitä painotetaan eri tavalla kuin normaaleja mittauksia. Myöskin monet ns. adaptiiviset suodattimet hyödyntävät innovaatioita kun ne pyrkivät ajon aikana määräämään/päivittämään suodattimen parametreja esimerkiksi virheiden kovariansseja [3, luku 11]. Algoritmi 3 Kalmanin suodatin Tilamalli: x k = Φ k 1 x k 1 + w k 1, V(w k 1 ) = Q k 1 Mittausmalli: y k = H k x k + v k, V(v k ) = R k Mittaukset: y 1:m = {y 1,y 2,...,y m } Alkutila-estimaatti ja -MSE: ˆx 0 ja P 0 1. Asetetaan k = Priori-estimaatti: ˆx k = Φ k 1 ˆx k 1 Priori-MSE: P k = Φ k 1P k 1 Φ T k 1 + Q k 1 Kalmanin vahvistus: K k = P k HT k (H kp k HT k + R k) 1 Posteriori-estimaatti: ˆx k = ˆx k + K k(y k H k ˆx k ) Posteriori-MSE: P k = (I K k H k )P k 3. Lopetetaan jos k = m, muutoin asetetaan k = k+ 1 ja palataan kohtaan 2. Esimerkki 13 (Kalmanin suodattimesta). Tilamalli, kuten mittausmallikin, on riippuvainen tarkasteltavasta systeemistä. Selvästikin paikallaan olevalle paikannettavalle optimaalinen tilamalli on erilainen kuin väkijoukon seassa poukkoilevalle pyöräilijälle. Tämän vuoksi on kehitelty esimerkiksi interaktiivinen monimallimenetelmä (IMM, interactive multiple model), joka perustuu siihen että suodattimella on useita mittaus/tilamalleja ja suodatin pyrkii ratkaisemaan myös mikä mittaus/tilamalli on oikea [31]. Tätä ongelmaa pyritään ratkaisemaan myös adaptiivisilla suodattimilla kuten aikaisemmin oli puhetta. On hyvä muistaa, että usein joudutaan tyytymään koviinkin yleistyksiin mallien valinnassa, kuitenkin tarkoitus on saada aikaa mahdollisimman hyvin toimivat ja tarpeeksi yksinkertaiset mallit. Tässä kappaleessa esitellään yksi yksinkertainen tilamalli, jota kutsutaan vakionopeusmalliksi. 40

41 Vakionopeusmallissa jota on sovellettu satelliittipaikannukseen tilana usein on kolmiulotteinen paikka, kolmiulotteinen nopeus, kellopoikkeama ja sen derivaatta. Tälläinen malli on esitetty esimerkiksi kirjoissa [4] [25] [17] [8]. Tässä kuitenkin käsitellään vakionopeusmallia ilman kellopoikkeamaa ja sen derivaattaa. Näiden lisääminen käsittelyyn on kuitenkin suoraviivaista. Mallinnetaan tila stokastiseksi differentiaaliyhtälöksi missä F = dx = Fxdt + Gdβ, (3.13) [ 0 I 0 0 ] ja G = Tällöin nopeuden virhe on mallinnettu Brownin liikkeeksi β. Brownin liikkeen β diffuusiomatriisiksi valitaan yksinkertainen diagonaalimatriisi Q c = σ 2 ci, missä σ 2 c kuvaa tilamallin nopeuden virhettä akseleiden suuntaan. Tarkemmin sanottuna σ 2 c kuvaa sitä, kuinka paljon nopeuden virheeseen tulee lisää varianssia yhden sekunnin aikana pohjois-etelä-, itä-länsi- ja korkeussuunnissa. Stokastinen differentiaaliyhtälön (3.13) ratkaisu voidaan diskretoida tilamalliksi (katso esim.[23, s.171] tai [10, s.200]) missä x k = Φ k 1 x k 1 + w k 1, Φ k 1 = e (t k t k 1 )F = [ 0 I [ I ti 0 I Merkintä t = t k t k 1 tarkoittaa aika-askeleen pituutta. Tilamallin virhe w k on valkoista, nollakeskistä, normaalijakautunutta kohinaa, joka oletetaan riippumattomaksi alkuehdosta x 0 ja näin ollen yllä esitetty tilamalli toteuttaa Kalmanin suodattimen oletukset tilamallille. Tilamallin virheen kovarianssimatriisi Q k on Q k = V(w k 1 ) = Z tk ], ]. [ 13 Φ(t k,t)gq c G T Φ(t k,t) T t dt = 3 I t k t2 I 1 2 t 2 I ti ] σ 2 c. Kuvassa 3.1 on esimerkki tilanteesta, jossa on käytetty kaksiulotteista vakionopeusmallia. Esimerkin parametrit ovat seuraavat. x 0 = [ ] [ T 10, P0 = 2 ] I , I [ ] [ I I 13 1 I Φ =, Q = 2 I ] 1, (3.14) 0 I 2 I I H = [ I 0 ] [ ] ja R = Tosireitti on piirretty kuvaan mustalla katkoviivalla. Kalmanin suodattimen käyttämät mittaukset (paikkakoordinaatit) on merkitty kuvaan punaisilla pisteillä, jotka on aikajärjestyksessä yhdistetty toisiinsa ohuella viivalla. Kalmanin suodattimen antama paikkaestimaatti on piirretty kuvaan yhtenäisellä sinisellä viivalla. 41

42 Lähtö 100 m Kuva 3.1: Kuvassa on paikannettavan reitti minuutin ajalta mustalla katkoviivalla. Paikannusjärjestelmä antaa mittausmallin mukaisia paikkamittauksia sekunnin välein, saadut paikkamittaukset ovat merkitty kuvaan punaisilla pisteillä. Sininen yhtenäinen viiva kuvastaa mittauksista suodatettua paikkaestimaattia. 3.2 Epälineaariset Kalmanin suodattimet Kalmanin suodatin on erittäin suosittu lineaarisille systeemeille, koska se on verrattain nopea laskea ja tarvitsee vain vähän oletuksia. Tämän vuoksi Kalmanin suodattimesta on tehty lukuisia laajennuksia myös epälineaarisille systeemeille (3.1), (3.2). Tässä kappaleessa esitellään perusidea johon useimmat Kalmanin suodattimen laajennukset perustuvat. Aluksi esitämme hieman yleistetyn version BLU-estimaattorista. Olkoon E ([ xk y k ]) [ xk = Nyt tilan x k BLU-estimaattori on [3] ȳ k ], ja V ([ xk y k ]) [ Pxxk P = xyk P yxk P yyk ˆx k = x k + P xyk P 1 yy k (y k ȳ k ), E((x k ˆx k )(x k ˆx k ) T ) = P xxk P xyk P 1 yy k P yxk. ]. (3.15) Kalmanin suodattimen epälineaariset laajennukset pyrkivät ratkaisemaan yhtälössä (3.15) olevat tuntemattomat suureet, x k,ȳ k,p xxk,p xyk = P T yx k,p yyk, jollakin approksimaatiolla. Käytämme tälläisistä algoritmeista yleisnimitystä epälineaarinen Kalmanin suodatin, jonka algoritmi on annettu sivulla 43. Seuraavaksi käsittelemme hieman tarkemmin kahta yleisesti käytössä olevaa epälineaarista Kalmanin suodatinta, nk. laajennettua Kalmanin suodatinta (EKF) ja hajutonta Kalmanin suodatinta (UKF) [31]. Epälineaarisia Kalman suodattimia käyttäessä on hyvä muistaa, etteivät ne varsinaisesti edes approksimoi optimaalista ratkaisua, jota käsitellään kappaleessa 3.3. Tämän vuoksi esim. EKF saattaa antaa täysin vääriä tuloksia kuten sivun 51 esimerkissä. Kuitenkin useissa tapauksissa epälineaariset Kalmanin suodattimet toimivat varsin hyvin (kts. harjoitustehtävä 3.10) ja ne vaativat usein selvästi vähemmän laskentaan kuin yleiset Bayeslaisen suodattimen numeeriset approksimaatiot joita käsitellään kappaleessa 3.4. Näiden vuoksi epälineaariset Kalmanin suodattimet ovat suosittuja. 42

43 Algoritmi 4 Epälineaarinen Kalmanin suodatin Tilamalli: x k = f k 1 (x k 1 )+w k 1, V(w k 1 ) = Q k 1 Mittausmalli: y k = h k (x k )+v k, V(v k ) = R k Alkutila-estimaatti, -MSE ja mittaukset: ˆx 0, P 0 ja y 1:m = {y 1,y 2,...,y m } 1. Asetetaan k = Priori-estimaatti: ˆx k = x k Priori-MSE: Posteriori-estimaatti: Posteriori-MSE: P k = P xx k ˆx k = ˆx k + P xy k P 1 yy k (y k ȳ k ) P k = P xxk P xyk P 1 yy k P yxk, 3. Lopetetaan jos k = m, muutoin asetetaan k = k+ 1 ja palataan kohtaan Laajennettu Kalmanin Suodatin Laajennettu Kalmanin suodatin (algoritmi 4) on epälineaarinen Kalmanin suodatin, joka perustuu tilamallin ja mittausmallin 1. asteen Taylorin sarjan approksimaatioon. Tilamallin approksimaatio: x k f k 1 ( ˆx k 1 )+Φ k 1 (x k 1 ˆx k 1 )+w k 1, missä Φ k 1 = f k 1 ( ˆx k 1) ja Mittausmallin approksimaatio: y k h k ( ˆx k )+H k(x k ˆx k )+v k, missä H k = h k ( ˆx k ). Tällöin algoritmin 4 tuntemattomat suureet saadaan helposti laskettua ja ne ovat: [ ] [ ] xk fk 1 ( ˆx = k 1 ) h k ( ˆx k ), ja ȳ k [ Pxxk P xyk P yxk P yyk ] [ P = k P k HT k H k P k H k P k HT k + R k missä P k = Φ k 1P k 1 Φ T k 1 +Q k 1. On mahdollista käyttää myös korkeamman asteen Taylorin sarjaa approksimoitaessa yllä lueteltuja suureita. Tosin korkeampiasteisia sarja-approksimaatioita käytettäessä yleensä joudutaan olettamaan enemmän priori- ja posteriori-jakaumista esimerkiksi normaalisuus, että saadaan kaavassa (3.15) olevat suureet laskettua. Usein myös jo ensimmäisen asteen Taylorin sarjan laskeminen analyyttisesti tuottaa vaikeuksia ja on joissakin tapauksissa mahdotonta. Tämän vuoksi on kehitetty epälineaarisia Kalmanin suodattimia, joissa ei tarvitse laskea tilasiirtofunktion tai mittausfunktion derivaattaa. Seuraavassa kappaleessa käsiteltävä UKF on eräs tälläinen derivaattavapaa suodatin. ], 43

44 3.2.2 Hajuton Kalmanin Suodatin Derivaattavapaa epälineaarinen Kalman suodatin UKF (Unscented Kalman Filter) perustuu numeeriseen integrointimenetelmään jota kutsutaan hajuttomaksi muunnokseksi (UT). UT approksimoi funktion f(x) odotusarvoa nk. σ-pisteiden {χ 0,...,χ N 1 } avulla kun tiedetään satunnaismuuttujan x jakauma. Tämä numeerinen integrointimenetelmä voidaan kirjoittaa muotoon Z E(f(x)) = f(x)p(x)dx N 1 ω i f(χ i ), (3.16) i=0 missä painot ω i ja sigma-pisteet χ i valitaan siten, että approksimaatio on tarkka tietyn asteiselle polynomille f(x) mikäli satunnaismuuttuja x on normaalisti jakautunut. Olkoon n tilan dimensio, satunnaismuuttujan x odotusarvo ˆx ja kovarianssimatriisi P. Tällöin yleisesti käytetty σ-pisteiden valinta sisältää 2n+1 pistettä, jotka ovat Indeksi (i) Paino (ω i ) σ-piste (χ i ) ˆx 0 κ κ+n 1,...,n 1 n+1,...,2n 2(κ+n) ˆx+ κ+n Pe i 1 2(κ+n) ˆx κ+n Pe i n, (3.17) missä P tarkoittaa sellaista matriisia jolle pätee, että P P T = P. Parametri κ > n on vapaasti valittava vakio. Kyseisillä σ-pisteiden ja painojen valinnoilla approksimaatio (3.16) on tarkka mikäli satunnaismuuttuja x on normaalisti jakautunut ja funktio f(x) on kolmannen asteen polynomi. Lisäksi valinta κ = 3 n minimoi neljännen asteen polynomin integraaliapproksimaatiovirhettä ja sen takia se on yleisesti käytössä, katso harjoitustehtävä 3.6. Olkoon nyt {χ 0k 1,...,χ (N 1)k 1 } ajanhetken t k posteriori-jakauman perusteella generoidut σ-pisteet. Tällöin algoritmin 4 tuntemattomat suureet saadaan ratkaistua: x k = P xxk = P xyk = P yyk = N 1 N 1 ω ik 1 f k 1 (χ ik 1 ), ȳ k = ω ik 1 h k (χ ik k 1 ), i k 1 =0 i k 1 =0 N 1 ω ik 1 (f k 1 (χ ik 1 ) x k )(f k 1 (χ ik 1 ) x k ) T + Q k 1, i k 1 =0 N 1 ω ik 1 (χ ik k 1 x k )(h k (χ ik k 1 ) ȳ k ) T ja i k 1 =0 N 1 ω ik 1 (h k (χ ik k 1 ) ȳ k )(h k (χ ik k 1 ) ȳ k ) T + R k, i k 1 =0 missä χ ik k 1 = f k 1 (χ ik 1 ). Toinen tapa on generoida nämä priori-jakauman σ-pisteet priorijakaumasta, jonka odotusarvo on x k ja kovarianssimatriisin on P xxk, jolloin tulokset hieman poikkeavat edellisestä toteutuksesta. 44

45 3.3 Bayeslainen suodatin Tässä kappaleessa käytetään luvun alussa sivulla 36 esitettyjä tilamallia, mittausmallia ja alkutilaa ja niille annettuja oletuksia mm. riippumattomuusoletukset. Bayeslaisen suodatuksen tavoitteena on ratkaista tilan ehdollinen tiheysfunktio ehdolla mittaukset, p xk y 1:k (x k y 1:k ) = p(x k y 1:k ). Lyhennysmerkintää käytetään mikäli asiayhteydestä helposti huomaa mitä merkintä tarkoittaa. Oletetaan, että tiedetään tilan ehdollinen tiheysfunktio edellisellä ajanhetkellä p(x k 1 y 1:k 1 ). Tämän hetken ehdollinen tiheysfunktio ehdolla aikaisemmat mittaukset p(x k y 1:k 1 ) saadaan ratkaistua Chapman-Kolmogorov yhtälön ja riippumattomuuksien avulla Z p(x k y 1:k 1 ) = p(x k x k 1 )p(x k 1 y 1:k 1 )dx k 1. Tätä jakaumaa kutsutaan priori-jakaumaksi. Ehdollinen tiheysfunktio p(x k x k 1 ) saadaan johdettua tilamallista p(x k x k 1 ) (3.1) = p wk 1 (x k f k 1 (x k 1 )). Nyt Bayesin säännön ja virheiden riippumattomuusoletuksien nojalla saadaan ratkaistua kaava tämänhetkiselle ehdolliselle tiheysfunktiolle ehdolla nykyiset ja aikaisemmat mittaukset. p(x k y 1:k ) = p(y k x k )p(x k y 1:k 1 ) R p(yk x k )p(x k y 1:k 1 )dx k. Tätä jakaumaa kutsutaan posteriori-jakaumaksi. Osoittajan ensimmäistä termiä p(y k x k ) = p yk =y k x k (y k x k ) (3.2) = p vk (y k h k (x k )) kutsutaan uskottavuudeksi, huomaa ettei tämä ole todennäköisyystiheysfunktio. Posteriorijakauman tiheysfunktio on verrannollinen priori-jakauman tiheysfunktion ja uskottavuuden tuloon. Nimittäjänä on normalisointivakio p(y k y 1:k 1 ), joka kertoo uuden mittauksen ehdollisen tiheysfunktion arvon ehdolla aikaisemmat mittaukset. Tästä suodatusta voi jatkaa rekursiivisesti. Kuten jo todettiinkin niin lineaaris-gaussisessa tapauksessa Kalmanin suodatin ratkaisee tämän suodatusongelman, kts. harjoitus 3.5. Kuitenkaan yleisessä tapauksessa posteriorijakaumia ei voida analyyttisesti ratkaista. Tämän vuoksi on kehitelty useita numeerisia menetelmiä posteriori-jakauman approksimointiin. Näitä menetelmiä käsitellään tarkemmin kappaleessa 3.4. Optimaalinen estimaattori Bayeslainen suodatin antaa posteriori-jakauman, kuitenkin käytännön sovelluksissa yleensä halutaan tietää optimaalinen tilan estimaattori ja arvio estimointivirheelle. Estimaattorilla tarkoitetaan mielivaltaista funktiota, jonka argumentteina ovat mittaukset ja alkutila. Optimaalinen 45

46 tarkoittaa tässä sitä että kyseinen estimaattori, jonka realisaatioita estimaatit ovat, minimoi jonkin skalaarisen kustannusfunktion L(x k ˆx k ) odotusarvon, lyhyesti kirjoitettuna ˆx k = argminˆxk E(L(x k ˆx k )). Kustannusfunktio voidaan valita monella eri tavoin ja näin saadaan erilaisia optimaalisia estimaattoreita. Yleensä oletetaan, kuten tässäkin kappaleessa, että kustannusfunktio on epänegatiivinen ja origossa se saa arvon nolla. Koska E(L(x k ˆx k )) = E(E(L(x k ˆx k ) y 1:k )), (3.18) niin riittää löytää sellainen estimaattori joka minimoi ehdollisen odotusarvon ˆx k = argminˆxk E(L(x k ˆx k )) = argminˆxk E(L(x k ˆx k ) y 1:k = y 1:k ), (3.19) kaikilla mittausten arvoilla y 1:k. Eräs hyvin yleinen estimaattori on pienimmän neliösumman estimaattori. Tällöin pyritään minimoimaan virheen normin neliön odotusarvoa, jolloin L(x k ˆx k ) = x k ˆx k 2. (3.20) Voidaan osoittaa, että kustannusfunktiota (3.20) vastaava estimaattori on posteriorin odotusarvo ˆx kmse = E(x k y 1:k = y 1:k ), (kts. harjoitus 3.7). Itseasiassa tätä samaa kustannusfunktiota käytettiin myös Kalmanin suodattimen johtamiseen (kappale 3.1). On kuitenkin hyvä muistaa, että Kalmanin suodatin minimoi vain odotusarvoa (3.18) lineaaristen estimaattorien joukossa, kun taas tässä kappaleessa käsiteltävät optimaaliset estimaattorit minimoivat ehdollisen odotusarvon (3.19) kaikkien estimaattoreiden joukosta. Toinen yleinen estimaattori on maximum a posteriori eli MAP-estimaattori, nimen mukaan tällöin estimaattori on ˆx kmap = argmax xk p(x k y 1:k ). MAP-estimaattori minimoi nk. hit or miss-kustannusfunktion L = lim δ 0 L δ, missä { 1, xk ˆx L δ (x k ˆx k ) = k δ 0, x k ˆx k < δ, 3.4 Suodatuksen numeerisia menetelmiä Tässä kappaleessa käsitellään numeerisia menetelmiä suodatusongelman ratkaisemiseksi. Hyvältä numeeriselta menetelmältä vaaditaan, että sillä on parametri N, jota kasvattamalla menetelmän antama ratkaisu lähestyy oikeaa ratkaisua. Toisaalta yleensä myös laskenta-aika kasvaa parametrin kasvaessa. Usein tämä parametri on parien {p i k (x),ωi k } (i = 1,...,N) lukumäärä N, joiden avulla voidaan approksimoida posteriori-jakauman tiheysfunktiota p(x k y 1:k ) N i=1 46 ω i k pi k (x k).

47 Esimerkiksi partikkelisuodattimella (kappale 3.4.2) ja pistemassasuodattimella p i k (x k) = δ(x k x i k ), missä δ on delta-funktio (Diracin deltamitta). Hila-suodattimella p i k (x k) on joukon A i karakteristinen funktio ja gaussisella mixture suodattimella p i k (x k) on normaalijakauman tiheyfunktio. Partikkelisuodattimen ja pistemassasuodattimen suurin eroavaisuus on siinä, että partikkelisuodattimessa partikkelit {x i k } valitaan satunnaisesti kun taas pistemassasuodattimessa ne ovat determinisesti määrätyt. Partikkelisuodatin perustuu Monte Carlo -integrointiin, jota käsitellään seuraavassa kappaleessa Monte Carlo -integrointi Monte Carlo -integrointi perustuu suurten lukujen lakiin. Lause 6 (Vahva suurten lukujen laki). Olkoon z 1,z 2,...,z n riippumattomia, samoin jakautuneita satunnaismuuttujia. Tällöin 1 ( ) n 1 P lim z i = µ = 1 n n i=1 jos ja vain jos jakaumalla on odotusarvo ja E(z) = µ. Kirjoitetaan integraali muotoon Z I = g(z)dz = Z Z g(z) f(z) f(z)dz = h(z) f(z)dz, (3.21) missä f(z) > 0 on satunnaismuuttujan z tiheysfunktio. Tällöin edellisen lauseen mukaan otoskeskiarvo h n = 1 n n i=1 h(z i ) (3.22) suppenee melkein varmasti kohti integraalia I (3.21). Mikäli E(h(z) 2 ) on olemassa niin satunnaismuuttujan h n varianssia voidaan approksimoida V( h n ) = 1 Z [h(z) E(h(z))] 2 f(z)dz 1 n ) 2 = n n h(zi i=1( 2 ) h n σ 2 h n. (3.23) Lisäksi voidaan osoittaa, että osamäärä (vrt. keskeinen raja-arvolause) h n E(h(z)) σ 2 h n lähestyy jakauman mielessä satunnaismuuttujan N(0,1) jakaumaa. 1 Tällöin sanotaan, että otoskeskiarvo suppenee melkein varmasti. Melkein varmasta suppenemisesta seuraa myös suppeneminen todennäköisyyden mielessä, josta edelleen seuraa suppeneminen jakauman mielessä. 47

48 Esimerkki 14 (Monte Carlo-integrointi). Olkoon satunnaismuuttuja z N(0, 1) ja { 34 (1 z g(z) = 2 ), z 1 0, z > 1 Tällöin integraalin R g(z)dz = 1 Monte Carlo -approksimaation eräs realisaatio on noin 1.005, yhtälö (3.22) ja tämän approksimaation varianssin approksimaatio on noin (3.23) kun simuloitujen satunnaismuuttujien määrä n = Näitä arvoja vastaavan normaalijakauman tiheysfunktio on piirretty vasemmalle puolelle kuvaan 3.2. Tiheysfunktion taustalla on piirretty histogrammi tuhannesta Monte Carlo -simulaatiosta. Histogrammi muistuttaa paljon normaalijakaumaa jonka odotusarvo on yksi, aivan teorian mukaan. Kuvassa 3.2 oikealla puolella on tutkittu Monte Carlo -integroinnin virhettä verrattuna satunnaismuuttujien simuloituun määrään n. Pisteiden taustalle on piirretty log-log asteikolla oleva suora, joka kuvastaa teorian mukaista suppenemisnopeutta O(n 1 2) Jakauma N(1.005,3.045e 5) Approksimaatioiden jakauma 10 1 Virheen itseisarvo "Suora" log(err)= 0.5log(n)+log(a) virhe pisteiden lkm (n) Kuva 3.2: Kuva esimerkin simulaation tuloksista, selitykset löytyvät tekstistä Partikkelisuodatin Tässä kappaleessa käsitellään partikkelisuodattimia [31]. Partikkelisuodatin perustuu Monte Carlo-menetelmään ja se approksimoi priori- ja posteriori-jakaumia otoksilla ko. jakaumista nk. partikkelipilvillä. Eräs partikkelisuodatinalgoritmi (algoritmi 5) on annettu sivulla 49. Itse asiassa kyseistä algoritmia voidaan pitää partikkelisuodattimien suodatusperheen algoritmina, koska valitsemalla mallin parametrejä sopivasti saamme erilaisia partikkelisuodattimia. Näitä valintoja käsitellään tässä kappaleessa. Lisäksi on hyvä muistaa ettei tämä ole yleisin formulointi partikkelisuodattimelle vaan on olemassa vielä yleisempiä tai jollakin tavalla eroavia partikkelisuodattimia. 48

49 Sekventiaalinen painotuspoiminta (sequential importance sampling SIS) on yksinkertainen partikkelisuodatin ja se saadaan algoritmista 5 kun uudelleennäytteistys (kohta 5) jätetään pois. Tämä kuitenkin aiheuttaa sen että ajan kuluessa kaikki paino kertyy vain muutamalle partikkelille. Tällöin käytännössä katsoen kaikki muut painot ovat nollia, silloin joudutaan kuluttamaan paljon laskentakapasiteettia ilman että sillä olisi vaikutusta posteriori-jakauman approksimaatioon. Tämän vuoksi SIR-suodattimessa (sampling importance resampling) uudelleennäytteistys tehdään joka askeleella, lisäksi ehdokasjakaumina g(x k x i k 1,y k) käytetään priorijakaumia p(x k x i k 1 ). Tällöin algoritmissa kohdassa 2 oleva painojen kaava sievenee muotoon ω i k = p v k (y k h k (x i k )). Algoritmi 5 Partikkelisuodatin Tilamalli: Mittausmalli: x k = f k 1 (x k 1 )+w k 1, p wk 1 (w) y k = h k (x k )+v k, p vk (v) Alkutila ja mittaukset: p x0 (x) ja y 1:m = {y 1,y 2,...,y m } Partikkelien määrä ja ehdokasjakaumat: N ja g(x k x i k 1,y k) Tässä algoritmissa i = 1,...,N. 1. Simuloidaan näytteet x i 0 jakaumasta p x 0 (x) Asetetaan ω i 0 = 1 N ja k = 1 2. Simuloidaan partikkelit x i k jakaumista g(x k x i k 1,y k) Asetetaan ω i k = ωi k 1 3. Normalisointi: ω i k = ωi k N i=1 ωi k 4. Lasketaan pyydetyt estimaatit, esim: p vk (y k h k (x i k ))p w k 1 (x i k f k 1(x i k 1 )) g(x i k xi k 1,y k) Posteriori-odotusarvo: ˆx k N i=1 ωi k xi k Posteriori-kovarianssimatriisi: P k N ( )( ) i=1 ωi k x i k ˆx k x i T k ˆx k 5. Uudelleennäytteistys tarvittaessa: Simuloidaan partikkelit x i k jakaumasta k i ωi k δ(x k x i k ) Asetetaan ω i k = 1 N 6. Lopetetaan jos k = m, muutoin asetetaan k = k+ 1 ja palataan kohtaan 2. SIS-suodattimessa ei tehdä ollenkaan uudelleennäytteistystä, kun taas SIR-suodattimessa se tehdään joka ajanhetki. Kumpikaan näistä ei yleisesti ottaen ole optimaalinen tapa toimia. Tämän vuoksi on kehitelty tapoja, joilla voi arvioida kannattaako uudelleennäytteistys vai ei. 49

50 Eräs tälläinen tapa on laskea approksimaatio effektiiviselle näytteiden lukumäärälle 1 N eff N i=1 (ωi k )2, ja mikäli tämä on pienempi kuin tietty kynnysarvo niin tehdään uudelleennäytteistys, muuten ei. Effektiivinen näytteiden lukumäärä arvioi kuinka monta näytettä oikeasta posteriori-jakaumasta tuottaisi saman tarkkuuden kuin suodattimen käyttämä partikkeli pilvi. Uudelleennäytteistys voidaan tehdä monella eri tavalla. Algoritmissa 6 on esitetty nk. systemaattinen uudelleennäytteistys. Laskennallisesti raskaampi uudelleennäytteistysalgoritmi (nk. multinomi uudelleennäytteistys) saadaan kun simuloidaan systemaattisessa uudelleennäytteistysalgoritmissa vertailupisteet z i Tas(0,1] joka kerta. Systemaattisessa uudelleennäytteistämisessä jokaisesta välistä ( i 1 N, N] i otetaan yksi näyte. Tämä takaa sen että jos partikkelin paino ω j k N l, missä l on luonnollinen luku, niin uudelleennäytteistetyssä partikkelijoukossa partikkeli x j k esiintyy ainakin l kertaa. Tämä pätee myös nk. ositettu (stratified) uudelleennäytteistyksessä missä simuloidaan yksi vertailupiste jokaiselta väliltä ( i 1 N, N] i ja muuten toimitaan kuten algoritmissa 6. Algoritmi 6 Systemaattinen uudelleennäytteistys Partikkelit ja painot {x i k,ωi k }, missä i = 1,...,N. 1. Simuloi lähtöpiste: z 1 Tas(0, N 1 ] ja asetetaan i = Lasketaan nykyinen vertailupiste z i = z 1 +(i 1) 1 N 3. Asetetaan ω i k = N 1 ja xi k = x j j 1 k, missä j määrätään s.e. l=1 ωl k < z i j l=1 ωl k. 4. Lopetetaan jos i = N, muutoin astetaan i = i+1 ja palataan kohtaan 2 Ehdokasjakaumat g(x k x i k 1,y k) mainittiin edellä SIR-suodattimen kohdalla, joka käyttää priorijakaumia p(x k x i k 1 ) ehdokasjakaumina. Priori-jakaumia käytetään muissakin partikkelisuodattimissa usein ehdokasjakaumina vaikkeivät ne olekaan optimaalinen valinta effektivisen näytteen koon kannalta. Optimaalinen valinta efektiivisen näytteiden määrän kannalta olisi käyttää posteriori-jakaumia p(x k x i k 1,y k) ehdokasjakaumina. Kuitenkaan yleensä näitä ei tunneta 2, jolloin usein päädytään käyttämään joko priori-jakaumia tai posteriori-jakaumien approksimaatioita, jotka voidaan laskea vaikka epälineaarisella Kalmanin suodattimella (kappale 3.2). Esimerkki 15 (PF ja EKF). Kuvassa 3.3 on paikannusesimerkki käyttäen partikkelisuodatinta (PF) ja laajennettua Kalmanin suodatinta (EKF). Systeemin tila on neliulotteinen, kaksi paikkakoordinaattia ja kaksi nopeuskoordinaattia, muutenkin tilamallin parametrit Φ ja Q ovat samoja kuin Kalmanin suodattimen esimerkissä (3.14). Mittauksina puolestaan on sekunnin 2 Koska juuri niitähän ollaan ratkaisemassa. 50

51 välein etäisyysmittaus (katso esimerkki 7 sivu 20) kahdesta tukiasemasta, jotka on myös piirretty kuvaan. Tällöin mittausmalli on [ ] xbs1 x y k = k + v x bs2 x k k, [ ] [ ] missä x bs1 =, x 0 bs2 = ja v 0 k N(0,10 2 I). Alkutilana systeemissä on x 0 N 30 3, Kuvaan on piirretty suodattimien antamat paikkaestimaatit, jotka ovat tässä tapauksessa posteriori-jakaumien odotusarvojen approksimaatioita. Ajanhetkinä {0, 10, 20, 30, 40} on piirretty EKF antamia kovarianssimatriiseja vastaavat ellipsit. Ellipsit on määritelty siten, että jos posteriori-jakaumat olisivat normaaleja EKF:n antamin parametrein niin ellipsi edustaisi posteriori-jakauman tiheysfunktion tasa-arvo käyrää siten että n. 68% todennäköisyydellä tila on ellipsin sisällä. Tosi reitti Partikkeli suodatin Laajennettu Kalmanin suodatin Start 50 m Kuva 3.3: Kuva esimerkin tilanteesta, tarkempi selitys löytyy tekstistä. Kuvassa 3.3 käytetty partikkelisuodatin on miljoonan partikkelin SIR-suodatin (s. 49). Partikkelipilviä on havainnoillistettu ajanhetkillä {0, 10, 20, 30, 40} sadalla partikkelilla, jotka on saatu alkuperäisestä miljoonan partikkelin joukosta hyödyntäen systemaattista uudelleennäytteistystä (algoritmi 6). Koska partikkelien määrä on verraittain suuri niin voidaan ajatella, että partikkelisuodatin edustaa esimerkissä jonkinlaista referenssisuodatinta. 51

52 Kuvasta huomataan, että ajanhetkellä 40 posteriori-jakauma on selvästi kaksihuippuinen jakauma. EKF on lähtenyt seuraamaan toista näistä huipuista, joka on hyvin ominaispiirteistä EKF:lla. Tässä tapauksessa EKF on valinnut väärän huipun ja tällöin sanotaan että EKF on hairahtunut. Tällöin EKF antaa täysin vääriä tuloksia, kuitenkin toisaalta EKF:n antama virheen kovarianssimatriisi osoittaa, että EKF luottaa hyvin paljon kyseiseen estimaattiin ja tämä aiheuttaa sen että EKF ei jatkossakaan kovinkaan helposti löydä oikeata paikkaa vaikka posteriori-jakauma muuttuisi yksihuippuiseksi, esimerkiksi mittauksia tulisi muistakin kuin näistä kahdesta tukiasemasta. Nyrkkisääntönä voidaankin pitää, että EKF:ää kannattaa soveltaa systeemiin, jos posteriori-jakaumat muistuttavat normaalijakaumaa eli ovat yksihuippuisia ja jakauman hännät menevät kovaa vauhtia kohti nollaa, mutta tälläisessä kaksihuippuisessa tapauksessa EKF:n soveltaminen alkaa olemaan aika riskialtista. Tosin tämäkin tilanne muuttuisi täysin mikäli etäisyysmittauksia tulisi vielä kolmannestakin tukiasemasta tai reitti ei kulkisi lähellä tukiasemien kautta kulkevaa suoraa. Harjoitustehtäviä 3.1. Näytä, että mittauksen y k = H k x k + v k ennusteen ŷ k = H k ˆx k H k P k HT k + R k. keskineliövirhematriisi on 3.2. Oletetaan, että matriisi R on symmetrinen positiivisesti definiitti ja matriisi P on symmetrinen positiivisesti semidefiniitti. Osoita, että (I KH)P(I KH) T + KRK T = P AA T +(KB A)(KB A) T, missä B = (HPH T + R) 1 2 ja A = PH T B Olkoon A mielivaltainen reaalimatriisi, näytä että nollamatriisi on yksikäsitteinen ratkaisu tehtävälle argmin A tr(aa T ) Ositetulle matriisille pätee (tarkista) [ ] 1 [ A B = C D (A BD 1 C) 1 A 1 B(D CA 1 B) 1 D 1 C(A BD 1 C) 1 (D CA 1 B) 1 ], mikäli tarvittavat käänteismatriisit ovat olemassa. Toisaalta tiedetään, että symmetrisen matriisin käänteismatriisi on symmetrinen. Näiden tietojen soveltamisessa matriisiin [ P 1 H T ] H R saattaa olla apua seuraavassa tehtävässä. Lisäksi olkoon A ja B ovat symmetrisiä, positiivisesti definiittejä matriiseja. Nyt jos A B, niin B 1 A 1 [12, Korollaari ]. (a) Osoita, että (P 1 + H T R 1 H) 1 = P PH T (HPH T + R) 1 HP, tässä P > 0 ja R > 0. 52

53 (b) Osoita, että lineaaris gaussisessa tapauksessa posteriorin kovarianssimatriisi on kasvava. Siis osoita, että jos 0<P 1 P 2 niin 0<P + 1 P+ 2, missä P+ i =(I K i H)P i ja K i = P i H T (HP i H T + R) (a) Olkoon x k 1 N( ˆx k 1,P k 1 ), w k 1 N(0,Q k 1 ) ja v k N(0,R k ) riippumattomia satunnaismuuttujia. Mikä on satunnaismuuttujan [ ] [ ] x xk Φk 1 I 0 k 1 = w y k H k Φ k 1 H k I k 1 v k jakauma? (b) Olkoon [ x y ] ([ x N ȳ ] [ Σxx Σ, xy Σ yx Σ yy ]), näytä, että x y = y N( x+σ xy Σ 1 yy (y ȳ),σ xx Σ xy Σ 1 yy Σ yx). (c) Sovella (b)-kohdan tulosta (a)-kohdan jakaumaan ja vertaa saatua tulosta kappaleessa 3.1 esitettyyn BLU-estimaattoriin Näytä, että yksiulotteisessa tapauksessa UT käyttäen kaavassa (3.17) annettuja pisteitä approksimaatio (3.16) on tarkka kolmannenasteen polynomille. Tässä luonnollisestikin p(x) on jakauman N(µ,σ 2 ) tiheysfunktio. Millä perusteella valinta κ = 2 on järkevä? (vihje: R x 4 p(x)dx = µ 4 + 6µ 2 σ 2 + 3σ 4 ) 3.7. Osoita, että posteriorin odotusarvo minimoi odotusarvon E( x k ˆx k 2 y 1:k = y 1:k ). Tietokonetehtävät 3.8. Toteuta KF suodatin, tarkempi tehtävänanto löytyy kotisivuilta Laske Monte Carlo integroinnilla lauseke RA 2π x I = exp( 1 2 xt x ) dx RA 2π 1 exp( 1 2 xt x ) dx, missä A = [0, 2] [0, 2]. Lisäksi tutki Monte Carlo simulaatioiden suppenemista kohti tarkkaa arvoa [ ] 1 exp( 2) 1 I =, 2π(Φ(0) Φ( 2)) 1 missä Φ on jakauman N(0, 1) kertymäfunktio. Kyseinen integraali esittää posteriorijakauman odotusarvoa, mikä priorijakauma on N(0, I) ja mittauksena tieto, että tila sijaitsee alueessa A Toteuta ja vertaile erilaisia suodattimia (EKF, UKF, PF,... ), tarkempi tehtävänanto löytyy kotisivuilta. 53

54 Luku 4 Paikannussovelluksia 4.1 Inertiapaikannus Kappaleessa 1 käytiin jo koordinaatistojen vaihtoja läpi, ja periaatteessa inertiapaikannusalgoritmit perustuvatkin näihin operaatioihin. Mutta alku voi olla hieman hankalaa, ja ennen kuin käydään peruskaavat läpi, on ymmärrettävä mitä mitataan. Kiihtyvyysanturitriadin mittaus mainittiin jo, a B g B. Tämä on ehkä se hankalin mittaus, vektori a on nimittäin kiihtyvyys inertiakoordinaatistossa. Mittalaite kuitenkin ilmoittaa tämän vektorin itseensä sidotussa B-koordinaatissa. Ja lisäksi, ongelmana on se, että Newtonin liikelakien käyttö vaatii myös gravitaatiovoimien mittaamisen sepä ei kiihtyvyysantureilta suoraan onnistukaan! Esimerkiksi mantereeseen kiinnitetty kiihtyvyysanturitriadi etelänavalla ei ole kiihtyvässä liikkessä ECI-koordinaatiston suhteen. Mutta kiihtyvyysantureiden ulostulo on silti g. Newtonilaisestihan tässä tilanteessa piirretään gravitaatiovoimavektori alaspäin ja tukivoima ylöspäin. Ja voimat kumoavat toisensa, jolloin kiihtyvyydeksi saadaan 0. Mutta todelliseltä kiihtyvyyanturilta jää se vektori g mittaamatta. Tästä seuraa se, että jos paikanmuutoksia lasketaan ECI:ssä kiihtyvyysanturien avulla, pitää vektori lisätä erikseen mittauksiin. Ja g on paikan funktio. Harjoituksissa katsotaan minkälaisia takaisinkytkentöjä tästä seuraa. Seuraava ongelma on se, että a B on B-koordinaatiston koordinaateissa. Tässä koordinaatistossa olevia kiihtyvyysmittauksia ei ole järkevä integroida, pitää ensin siirtyä I- tai E- koordinaatistoon. Käytännössä tarvitaan C I B, CE B ja CL B, ja koska nämä eivät ole ajan myötä vakioita, tarvitaan gyrotriadin mittaukset. Gyrotriadihan 1 mittasi vektoria w B IB. Käydään seuraavaksi läpi lyhyesti inertia-anturit, tarvittavat perusyhtälöt ja tutkitaan mittausvirheitä. 1 Yksinkertaisin gyro- ja kiihtyvyysanturikokoonpano koostuu kolmesta anturista, joiden mittausakselit ovat kohtisuorassa toisiinsa nähden. 54

55 4.1.1 Kiihtyvyys- ja kulmanopeusanturit Inertia-termi viittaa kappaleen pyrkimykseen jatkaa kulkuansa, jos kappaleeseen ei kohdistu ulkoisia voimia. Kiihtyvyysanturit perustuvatkin tähän periaatteeseen, kuten myös osa gyroista. Kiihtyvyysanturin rakentamiseen tarvitaan massa, jousi, kotelo ja jonkinlainen indikaattori massan paikasta kotelon suhteen (kuva 4.1). 2 Voiman ja kiihtyvyyden suhde on tietysti tunnettu, ja jousen puristus tai venymä kertoo voiman suuruuden. Mittauksen ongelmana on jo mainittu g:n puuttuminen. Kuvassa (4.1) näkyvä jousen puristus voi nimittäin olla joko normaalivoiman ja gravitaation yhteisvaikutus, anturin ollessa paikallaan. Tai sitten syynä on kiihtyvyys inertiakehyksessä (ilman gravitaatiota). Anturi ei tiedä kumpi tilanne on kyseessä. Kuva 4.1: Kiihtyvyysanturin toimintaperiaate. Lähde: [36] Kulmanopeuden mittaamiseen on useita eri vaihtoehtoja. Mekaaniset gyrot perustuvat myös inertiaan, tällä kertaa liikkuvan anturielementin pyrkimyksiin vastustaa kiertoja. Yksi tapa mitata kulmanopeutta on asentaa pyörivä massa (M) laakeroituun koteloon (B), w B BM = [0 0 ω M] T. Ripustetaan massa siten, että pyörivä massa laakereineen pääsee pyörimään suunnassa u B out = [0 ± 1 0] T, mutta ei suunnassa u in = [±1 0 0] T. Tällöin liike w B IB = [ω in 0 0] T aiheuttaa ripustuksen kiertymisen suunnassa w B BM wb IB, mikä onkin u out suuntainen akseli. Kun mitataan kiertymistä tämän akselin suhteen saadaan tieto kulmanopeudesta u in akselin suhteen. Pyörivä massa ei välttämättä ole käytännöllinen jos suunnittelijalle on annettu rajoituksia koon tai virrankulutuksen suhteen. Toinen mekaaninen gyrotyyppi on värähtelevä gyro, jossa liike on edestakaista. Kuva 4.2 esittää äänirautagyron (tuning fork gyro) toimintaperiaatteen. Ylempi haarukka laitetaan resonoimaan sähkövirran avulla. Jos anturi pyörii sisäänmenoakselin ympäri, Coriolis-voima aiheuttaa edestakaisen liikkeen, joka on kohtisuorassa pakotetun resonoinnin suuntaan ja sisäänmenoakselin suuntaan nähden (nuolet alemmassa haarukassa). Tätä liikettä mitataan (yleensä kapasitiivisesti), ja tuloksena on kulmanopeudella moduloitu signaali, josta saadaan kulmanopeus selville. Mikromekaaniset (MEMS) gyrot toimivat tällä periaatteella. 2 Lisänä voi olla vielä takaisinkytkentä, joka pyrkii pitämään massan paikallaan koteloon nähden. 55

56 Kuva 4.2: Esimerkki Coriolis-voimaan perustuvasta gyrosta. Lähde: [36] Pyörimisen mittaamiseen ei välttämättä tarvita liikkuvia osia, sillä mekaanisille pyörimiseen liittyville ilmiöille löytyy sähkömagneettimen vastine, Sagnac-ilmiö. Ilmiön selittämiseen tarvitaan suhteellisuusteoriaa, mutta tämän kurssin puitteissa voidaan oikaista hieman. Lähetetään lasersäde matkaan, ja peilien avulla ohjataan säde takaisin lähtöpaikkaan, kulkusuunta myötäpäivään. Lisätään toinen lasersäde, joka kulkee vastapäivään. Syntyy kaksi seisovaa aaltoa, joiden taajuuseroa mitataan. Kun kotelo pyörii I-koordinaatiston suhteen (laserin reitin määräämän tason normaalin ympäri), tämä taajuusero muuttuu 3. Tällä periatteella toimivaa gyroa kutsutaan rengaslasergyroksi (Ring Laser Gyro, RLG). Optisella mittaustavalla on useita etuja: Gyro on erittäin tarkka. Sisäänmenokaista on rajaton. Ei liikkuvia osia, tärinä ei haittaa ja luotettavuus on mekaanisia gyroja parempi. Lineaarinen kiihtyvyys ei vaikuta mittaukseen. Toisaalta hinta, koko ja virrankulutus estävät käytön henkilökohtaisissa sovelluksissa. Ainakin toistaiseksi. 3 Pyörimissuuntaan kulkeva säde kulkee pidemmän matkan I-koordinaatistosta katsottuna... 56

57 Kuva 4.3: Lasergyro. Lähde: [36] Keskeiset INS yhtälöt Tämän kappaleen kaavojen muoto on melko suoraan viittestä [32]. Paikkavektorin origona käytetään E-koordinaatiston origoa, ja g L lasketaan erikseen paikan funktiona (esim. gravitaatiomalli). B-koordinaatiston ja L-koordinaatiston aikaderivaatta esiteltiin jo aiemmin (1.29): Ċ L B = C B L(w B IB ) (w L IL )C L B. (4.1) Alkuehto C L B saadaan erilliseltä alustusalgoritmilta (Harjoitus 4.8). Kulmanopeustermi wb IB saadaan gyrotriadilta, ja termi w L IL on maan pyörimisen ja maanopeudesta johtuvan lokaalin koordinaatiston pyörimisen summa: w L IL = w L IE + w L EL (4.2) Lokaali koordinaatistohan (L) pitää z-akselin kohtisuorassa pallon (ellipsoidin) pintaan nähden, ja kohteen liikkuessa maan pinnalla tämä koordinaatisto pyörii kulmanopeudella: w L EL = F c (u L ZL v L )+ρ ZL u L ZL (4.3) 3 3 matriisin F c koostumus riippuu siitä, käytetäänkö ellipsoidi- vai pallomallia. Lisäksi termillä ρ ZL säädetään L:n pohjois-akselin liikettä (Harjoitus 4.1). u L ZL on yksikkövektori joka kertoo suunnan ylös L-koordinaatistossa. Eli meidän sopimuksilla u L ZL = [0 0 1]T. Mitatun kiihtyvyysvektorin (merk. a B SF = ab g B ) muunnos L-koordinaatistoon: a L SF = CL Ba B SF (4.4) 57

58 Lopuksi tarvitaan painovoima (g P =gravitaatio plus maapallon pyörimisen vaikutus) g L P = g L (w L IE )(w L IE )R L, (4.5) nopeusvektorin (suhteessa maapalloon, E-kehys) muutos v L = a L SF + gl P (wl EL + 2wL IE ) vl, (4.6) ja horisontaalinen paikan muutosnopeus Ċ E L = C E L(w L EL ) (4.7) sekä korkeuden muutosnopeus ḣ = u L ZL vl. (4.8) Siinä kaikki. Ryhmitellään tärkeimpitä termejä hieman, jotta kokonaiskuva selkiytyy: Tietoa antureilta: a B SF ja wb IB Maapallon ominaisuuksiin liittyvät termit: w IE, g, F c Ja näitä alunperin haluttiin laskea: R E (paikkavektori ECEF:ssä, C E L ja h, korkeus referenssigeoidista ajaa saman asian, Harjoitus 4.2), v L (nopeus maapallon suhteen), C L B INS laitteen asento L-koordinaatistoon nähden Mittausvirheet Aloitetaan gyroista, koska niiden virheet yleensä määräävät koko INS-järjestelmän laadun. Tämä johtuu INS mekanisoinnin luonteesta, ja toisaalta siitä että kulmanopeuden mittaaminen on vaikeampaa kuin kiihtyvyyden. Luvun 2 merkintöjen mukaisesti, olkoon mitattu gyrojen ulostulo y. Mittausvirheiden vuoksi tämä ei käytännössä ole w B IB, vaan esimerkiksi mallin y = Mw B IB + b+n (4.9) mukainen. Tässä matriisi M sisältää skaalaus- ja kohdistusvirheet (scale factor, misalignment). Kohinatermit on jaettu biastyyppiseen (b) ja autokorreloimattomaan kohinaan (n). Huomaa, että virhetermi on nyt v = (M I)w B IB + b+n, eli skaalaus- ja kohdistusvirheet aiheuttavat sen että virhe on mitattavan suureen funktio. Tämä aiheuttaa ongelmia mittavirheiden tilastollisessa analysoinnissa. Peruskokoonpanossa on kolme anturia, joiden mittausakselit ovat kohtisuorassa toisiinsa nähden. Tällöin (3 3) matriisin M diagonaalialkiot ovat vastaavien antureiden skaalausvirheet. 58

59 Kohdistusvirhe johtuu siitä, että todellisuudessa antureita ei saa tarkalleen kohtisuoraan toisiinsa nähden. Tällöin tietyn akselin data näkyy myös toiselle anturille. Huippuluokan INS-laitteissa kohdistusvirhe on asteen tuhannesosan luokkaa, ja skaalauskerroin virheet muutaman miljoonasosan signaalin suurudesta (ppm, parts per million). Huomaa, että antureita ei välttämättä tarvitse sijoittaa kohtisuoraan toisiinsa nähden, kunhan akseleiden väliset kulmat tiedetään. Antureita voi olla enemmän kuin vaadittavat kolme, vikatilanteiden varalta. Tässä tapauksessa kohtisuora asennus ei ole tietenkään edes mahdollista. Virhetermi b on ehkä mielenkiintoisin ja käytännössä myös haastavin. Tällä viitataan virheisiin jotka pysyvät samana tai lähes samana pitkään. Jako b:n ja n:n välillä ei ole mitenkään itsestäänselvä. Ääritilannetta jossa b olisi aina vakio ja n olisi täysin korreloimaton näytteiden välillä ei reaalimaailmasta löydy (tällöin bias termi saataisiin ratkaistua täysin jo tehdaskalibroinnissa). Käytännössä b:n korrelaatioaika on laitteen käynnistyksien välisen ajan luokkaa (tunteja kuukausia), ja n:n korrelaatioaika on selvästi pienempi. Näiden virhetermien erottelu ei enää kuulu tämän kurssin aihealueisiin, mutta asiasta kiinnostuneiden kannattaa tutusta esimerkiksi Allan-varianssiin (Allan Variance). Virhetermin n käsittelystä onkin edellisissä kappaleissa paljon tietoa. Kannattaa huomata, että INS mekanisointi sisältää paljon integrointeja, joten virheen korrelaatiolla ajan suhteen on merkittävä vaikutus paikannustarkkuuteen. Jos lyhyt näyte datasta näyttää kohinaiselta, ei tästä kannata vetää liian jyrkkiä johtopäätöksiä. Vakava virhe on vertailla gyrojen laatua muutaman minuutin näytteistä otetuilla keskihajontaestimaateilla. Malli (4.9) käy sellaisenaan myös kiihtyvyysantureille, kunhan termin w IB korvaa termillä a B SF. Taulukossa (4.1) kerrotaan mitä antureilta vaaditaan, jos INS ratkaisun virheen halutaan pysyvän muutamassa kilometrissä tunnin navigoinnin jälkeen. Vaatimukset ovat kovat, erityisesti gyroille. Lisäksi tulevat vielä dynamiikkavaatimukset, 500 astetta sekunnissa tapahtuva pyörähdys on mitattava. Tämä riippuu tietysti käyttökohteesta. Tämän tason INS-laitteiden hinta liikkuu US dollarin tienoilla, mutta hinnat tulevat toki alas koko ajan. Hinnan lisäksi ongelmia aiheuttaa vientirajoitukset, tarkat INS laitteet kun luokitellaan useissa maissa aseteknologiaksi. MEMS-anturit eivät vielä täytä lähellekään näitä vaatimuksia, mutta ovat helposti saatavilla ja luonnollisesti edullisempia. Ja vaikka INS sellaisenaan ei onnistuisikaan mittausvirheiden vuoksi, inertiamittauksilla saadaan arvokasta lisätietoa paikannusalgoritmeille [5]. Taulukko 4.1: Antureiden tarkkuusvaatimuksia, paikannusvirhe 0,1 tai 1 merimailia per tunti [33] 0.1 nmph 1 nmph Kiihtyvyysanturi, bias 5 µg 40 µg Kiihtyvyysanturi, skaalausvirhe 40 ppm 200 ppm Kiihtyvyysanturi, kohdistusvirhe 1/3600 7/3600 Gyro, bias /h /h Gyro, skaalausvirhe 1 ppm 5 ppm Gyro, kohdistusvirhe 0.7/3600 3/

60 4.2 Kantoaaltomittauksiin perustuva satelliittipaikannus GPS-vastaanottimen perusmittauksina usein pidetään pseudoetäisyysmittausta ja deltapseudoetäisyysmittausta. Näin ei kuitenkaan ole, vaan perusmittaukset ovat (replika)koodivaihe- ja (replika)kantoaallonvaihemittaukset. Replikakoodivaihe voidaan muuttaa lähetysajaksi, josta voidaan sitten pseudoetäisyys laskea. Replikakantoaallonvaihe voidaan muuttaa deltapseudoetäisyydeksi tai ns. integroiduksi Doppleriksi. Kantoaaltomittauksia ei suunniteltu hyötykäyttöön GPS-järjestelmää toteutettaessa, vaan GPS suunniteltiin olettaen, että vain koodimittauksia käytetään. Kantoaaltomittausten käyttäminen GPS-paikannuksessa sai pohjaa tutkimuksista, jossa mitattiin kahden tähtiantennin suhteellista sijaintia. Kantoaaltomittausten avulla voidaan mitata paikan muutosta hyvin tarkasti. Jos jokin referenssipiste (josta etäisyyttä mitataan) on tarkasti tiedossa, siirtyy absoluuttinen tarkkuus myös mitatun paikan tarkkuudeksi (kuva 4.4). Tärkein suhteellisen paikannuksen sovellusalue on maanmittaus eli geodesia. Henkilökohtaisessa paikannuksessa kantoaaltoa on käytetty tasoittamaan koodimittauksia (carrier smoothing). Suhteellista paikannusta ollaan kuitenkin tuomassa myös henkilökohtaiseen paikannukseen [1]. Oikea rata Oikea rata Mitattu rata Oikea alkupaikka Mitattu rata Mittaus Referenssipaikan virhe Referenssi Mittaus Kuva 4.4: Suhteellinen paikannus. Alkupaikan tarkkuus siirtyy koko reitin tarkkuudeksi, jos reittiä pystytään seuraamaan virheettä Doppler-ilmiö Satelliitit liikkuvat suhteessa käyttäjään koko ajan. GPS-satelliitit kiertävät maapallon elliptisillä, lähes ympyränmuotoisilla radoilla noin kaksi kertaa vuorokaudessa. Näin ollen niiden ratanopeus on noin 4 km / s. Satelliittien ja käyttäjän väliseen suhteelliseen nopeuteen vaikuttaa tietysti myös käyttäjän liike. 60

61 Satelliitin ja sen lähettämän signaalin vastaanottajan välinen suhteellinen liike vaikuttaa siihen taajuuteen, millä vastaanottaja signaalin havaitsee.tätä lähettimen ja vastaanottimen välisen suhteellisen liikkeen vaikutusta vastaanotettuun taajuuteen kutsutaan Doppler-ilmiöksi. Vastaavasti eroa lähetetyn signaalitaajuuden ja vastaanotetun signaalitaajuuden välillä kutsutaan Doppler-siirtymäksi. GPS-vastaanottimella voidaan mitata Doppler-siirtymä hyvin tarkasti. Seuraamalla yhtäjaksoisesti Doppler-siirtymää saadaan tietoa satelliitin ja käyttäjän välisestä liikkeestä, ja kun satelliitin nopeus tunnetaan, voidaan käyttäjän nopeus ratkaista. Doppler-ilmiö mallinnetaan seuraavasti: f R = f T (1 v r a c ) (4.10) missä f R on vastaanotettu taajuus, f T on lähetetty taajuus, v R on satelliitin ja vastaanottajan välinen suhteellinen nopeus, a on yksikkövektori vastaanottajan sijainnista satelliittia kohti ja c on valon nopeus. Doppler-siirtymä on siis f D = f R f T. (4.11) Integroimalla Doppler-siirtymä f D mittausjakson (tyypillisesti 1 s) yli saadaan selville kantoaaltomittauksen muutos. Toisin sanoen, f D on kantoaallon muutoksen nopeus ja näin ollen mittausjakson yli integrointi tuottaa kantoaaltomittauksen Doppler-taajuuden ja etäisyysmittauksen muutoksen välinen yhteys Esimerkissä 7 (sivu 20) on esitelty mittausmalli pseudoetäisyysmittaukselle. Samoja merkintöjä käyttäen ilmaisemme nyt pseudoetäisyyden derivaatan eli deltaetäisyyden, olettaen mittausvirheen nollaksi: ρ = d dt ( s x +b) = (v sat v u ) T s x s x + ḃ (4.12) missä v sat on satelliitin nopeusvektori, v u on vastaanottajan nopeusvektori ja ḃ vastaanottimen kellon ajautuminen [s/s] (clock drift). Nyt huomaamme, että a = s x s x ja että v r = v sat v u, ja näin ollen (4.12) saadaan muotoon ρ = v r a+ḃ. (4.13) Kun vastaanottimen kellon ajautumisen vaikutus jätetään huomiotta ja kun palaamme yhtälöihin (4.10) ja (4.11), saadaan tulos f D = f R f T = f T c v r a = f T ρ. (4.14) c 61

62 4.2.3 Doppler-taajuuden ja vaihemittauksen välinen yhteys Kantoaaltomittausta sanotaan myös integroiduksi Doppleriksi. Uusi kantoaaltomittaus saadaan lisäämällä vanhaan mittaukseen Dopplerin integraali mittausepokin yli. Z tn φ n = φ n 1 + f D (τ)dτ (4.15) t n 1 missä φ n on kantoaaltomittaus epokilla n ja f D on Doppler-taajuus ajan funktiona. Asiaa kannattanee ajatella yksinkertaistetun esimerkin avulla. Yleistä hätämerkkiä testataan lähettämällä sinimuotoinen (taajuus muuttuu) äänimerkki kello Oletetaan, että lähettäjällä ja merkin kuulevalla henkilöllä on täydelliseti synkronoidut kellot. Vastaanottaja tietää lähetystaajuuden ja lähetysajan. Vastaanottaja huomaa että äänen taajuus on korkeimmillaan t R sekuntia puolen päivän jälkeen. Mitä vastaanottaja voi päätellä etäisyydestä lähettimeen? Ääniaalto etenee vauhdilla v, eli lähetyshetken taajuus vastaanotetaan s/v sekuntia myöhemmin, missä s on etäisyys. Lähetystaajuus oli moduloitu sinimuotoiseksi, eli f T (t) = Asin(ωt + φ 0 )+ f 0. Vakiotermit A, ω, f 0 ja φ 0 ovat vastaanottajan tiedossa. Vastaanottopuolella pätee f R (t) = f T (t s/v) = Asin(ω(t s/v)+φ 0 )+ f 0, eli vaihe-ero (R-T) on ωs/v. Tästä voidaan ratkaista s, mutta jäljelle jää nk. kokonaislukutuntematon k, etäisyydellä s 1 + 2kπv ω saataisiin samanlainen mittaus. Nämä ovat aallonpituuden monikertoja, 2πv ω = λ, ja vastaanottaja saa koko joukon etäisyysratkaisuja, aallonpituuden monikertoina. Aallonpituus on siis merkittävässä asemassa, kun vaihemittauksia käytetään paikannukseen. GPS L1-taajuuden aallonpituus on 19 cm, josta seuraa huonoja ja hyviä uutisia: Ratkaisuja on todella monta Jos jotenkin löydetään oikea k, ja vaihe saadaan mitattua muutaman asteen tarkkuudella, meillä on millimetri-luokan paikkaratkaisu Valitettavasti vaihe-eroa ei päästä tutkimaan suoraan, esimerkkitilanteessa ei ollut kohinaa sotkemassa vaihemittausta. Kohinan takia GPS vastaanotin joutuukin mittaamaan vaiheen epäsuorasti Doppler-mittausten ja yhtälön (4.15) avulla Kokonaislukutuntemattomien ratkaisemisesta Tässä vaiheessa lienee selvää, että kantoaaltomittaus kuvaa kahden peräkkäisen mittausepokin välillä tapahtunutta liikettä, ja että kantoaaltomittaus pystytään tekemään hyvin tarkasti. Kokonaisten aaltojen lukumäärä on kuitenkin paikannusta aloitettaessa tuntematon (jokaiselle signaalille tämä lukumäärä on siis eri). Eli ikäänkuin aloitetaan sokkotilanteesta, jossa johonkin 62

63 lisätään tarkasti tunnettu aaltomittaus jokaisella mittausepokilla, ja suhteellinen eli relatiivinen paikannus on tarkkaa. Näiden alkutilanteen kokonaisten aaltojen lukumäärän selvittäminen mahdollistaa tarkan absoluuttisen paikannuksen. Kokonaislukutuntemattomien ratkaiseminen (carrier cycle integer ambiguity resolution) on aktiivinen paikannuksen tutkimusalue. Tunnetuimpia menetelmiä ovat Teunissenin kehittämä LAMBDA-metodi [35] ja Hatchin pienimmän neliösumman metodi [9] Differentiaalikorjaukset Yhdistämällä kahden vastaanottimen koodi- ja kantoaaltomittauksia voidaan eliminoida sellaisten virhelähteiden vaikutuksia, jotka ovat yhteisiä molemmille vastaanottimille. Yksittäisdifferenssi on kahden eri vastaanottimen samasta satelliitista vastaanottamien signaalien yli tehtävä erotus, kuten kuva (4.5) esittää. Kaksoisdifferenssi on kahden eri satelliitteihin liittyvän yksittäisdifferenssin erotus, mikä on esitetty kuvassa (4.6). Kun päästään käyttämään kaksoisdifferenssejä koodi- ja kantoaaltomittauksiin, niin suurin osa virheistä saadaan poistettua [17]. Satelliitti Ilmakehä Vastaanotin 1 Vastaanotin 2 Kantaväli (baseline) Kuva 4.5: Yksittäisdifferenssi Satelliitti A Satelliitti B Ilmakehä Vastaanotin 1 Vastaanotin 2 Kuva 4.6: Kaksoisdifferenssi 63

64 4.3 Luotettavuus Käyttäjän kannalta paikannus ei ole luotettava, mikäli järjestelmä- tai laitevirheen takia paikannusta ei pystytä suorittamaan, tai paikannustulos on selvästi väärä, vaikka näennäisesti paikannus onnistuukin. Tässä kappaleessa käsitellään tarkemmin satelliittipaikannuksessa käytettäviä menetelmiä, joilla vastaanotin voi havaita suuret virheet paikkaratkaisussa ja pyrkiä poistamaan virhettä aiheuttavat mittaukset ratkaisusta. Luotettavuus liittyy useisiin paikannuksen suorituskykyä kuvaaviin arviointiperusteisiin, joita käsitellään seuraavaksi. Sen jälkeen kerrataan tilastollisen päättelyn ja hypoteesin testauksen periaatteita sekä neliöllisen testisuureen ominaisuuksia. Näihin perustuvia virheen havaitsemisja poistamismenetelmiä sovellettuna staattiseen paikkaratkaisuun esitellään luotettavuus-osion viimeisissä alikappaleissa Paikannuksen suorituskyvyn mittareita Seuraavassa tarkastellaan paikannuksen suorituskykyä satelliittipaikannuksen kannalta jotkut esitettävistä mittareista soveltuvat muidenkin paikannusmenetelmien arviointiin. Asiaa perusteellisemmin käsittelee mm. [34]. Tarkkuus Paikannuksen tarkkuudella tarkoitetaan sitä, kuinka lähelle paikannettavan kohteen todellista sijaintia mittauksista lasketut paikannustulokset osuvat. Mitä lähemmäs todellista sijaintia paikannustulos osuu, sen tarkempi on tulos. Usein tarkkuutta arvioidaan paikannustulosten keskineliövirheen neliöjuuren (RMSE, root mean square error) eli virheen tehollisarvon avulla. Toinen yleinen tapa kuvata virhettä on esittää virheen tilastollinen jakauma. Tämä voidaan tehdä joko todennäköisyystiheysfunktion tai kertymäfunktion avulla. Eräs yksinkertaistus näistä on CERP (Circular Error Probable), jossa määritellään sellaisen ympyrän säde, jonka sisälle tietty prosentti paikannustuloksista osuu, kun ympyrän keskipisteenä on paikannettavan kohteen todellinen sijainti. Esimerkiksi 95% CERP 56 m tarkoittaa sitä, että vähintään 95% paikannustuloksista osuu enintään 56 metrin päähän todellisesta sijainnista. CERP:iä käytetään horisontaalisen 2-ulotteinen paikkavirheen kuvaamiseen. Vastaavasti 3-ulotteisen paikannusvirheen suuruus voidaan ilmoittaa SERP:in avulla (Spherical Error Probable), missä ympyrän säteen sijaan ilmoitetaan pallon säde 4. Paikannuksen tarkkuus riippuu paitsi mittaussignaalien tarkkuudesta, myös siitä, miten mahdolliset mittausvirheet vaikuttavat paikkaratkaisun virheeseen. Jälkimmäinen riippuu mittausgeometriasta, ja sen hyvyyttä arvioidaan DOP:illa. 4 Joissakin lähteissä CERP ja SERP lyhennetään CEP ja SEP 64

65 Eheys (Integrity) Paikannusjärjestelmän eheydellä tarkoitetaan järjestelmän kykyä varoittaa käyttäjää oikeaaikaisesti silloin, kun järjestelmää ei tulisi käyttää paikannukseen. Eheystiedon avulla on tarkoitus varoittaa tilanteesta, jossa järjestelmä näennäisesti toimii ja tuottaa paikannussignaalia, mutta se on jostain syystä niin viallista, että sen perusteella lasketun paikan virhe on suuri. GPS-satelliitit lähettävät käyttäjälle tietoa eheydestään navigointiviesteissä, mutta se tulee aina viivellä maassa sijaitsevan kontrollisegmentin on ensin täytynyt todeta virhe satelliitin lähettämistä signaaleista, ja sen jälkeen lähettää satelliiteille tieto eheysongelman olemassaolosta edelleen navigointiviestissä käyttäjille lähetettäväksi. Paikannustuloksen käytöstä tämän viiveen aikana voi olla kohtalokkaat seuraukset esim. lentokoneen paikannuksessa. Myös ajoneuvopaikannuksessa tilanne voi olla kriittinen, jos esimerkiksi ambulanssi suunnistaa hälytyskohteeseen GPS-autonavigaattorin avulla, ja satelliitin vikaantumisesta aiheutuvan paikannusvirheen takia ambulanssi harhautuu reitiltään eikä ehdi onnettomuuspaikalle riittävän nopeasti. Sama ongelma aiheutuu, jos hätäkeskukseen ilmoitettu onnettomuuspaikan sijainti määritetään GPS:n avulla jonkin paikkaratkaisuun mukaan tulevan satelliitin ollessa vikaantunut. GPS-järjestelmän tarjoaman eheystiedon viiveen takia on kehitetty menetelmiä, joissa vastaanotin itse tutkii signaalien eheyttä. Näitä menetelmiä kutsutaan nimellä RAIM (Receiver Autonomous Integrity Monitoring). Menetelmät perustuvat paikannussignaalien konsistenssin (consistency; yhtäpitävyys) tarkastuksiin. Menetelmiä voidaan käyttää, mikäli mittauksissa on redundanssia, eli signaaleja on käytössä riittävästi, jotta paikanmääritysongelma on ylimäärätty. Signaalien konsistenttisuuden puute voi aiheutua joko itse signaalissa olevasta virheestä tai mittausmallin virheestä. Alunperin RAIM-menetelmien kehitystä ohjasivat siviili-ilmailun turvallisuusvaatimukset. Tavoitteena on ollut eliminoida paikkaratkaisusta suuret mittaussignaalin virheet, joka syntyvät esimerkiksi satelliitin kellon vikaantumisen seurauksena, ja mittausmallin virheet, joiden syynä on virheellinen tieto satelliitin sijainnista (ephemeris-virhe). RAIM:in avulla on siis pyritty havaitsemaan itse paikannusjärjestelmässä esiintyvä mahdollinen virhe, jonka aiheuttaja on joko kontrolli- tai avaruussegmentti. Tällaiset virheet ovat erittäin harvinaisia, niiden esiintymistiheys on 1 virhe kuukaudessa. Virheiden harvinaisuuden takia lähtökohta on yleensä ollut se, että virheitä on vain yhdessä mittausyhtälössä kerrallaan. Paikannussignaali voi olla virheellinen myös muista kuin kontrolli- tai avaruussegmentin aiheuttamista syistä. Paikannusmittauksiin voi aiheutua signaalin heijastumisesta ja monitieetenemisestä normaalia kohinaa huomattavasti suurempia virheitä. Erittäin herkillä vastaanottimilla (HSGPS, High Sensitivity GPS) voidaan ottaa vastaan voimakkasti vaimentuneita signaaleja, jolloin mittauksen huono signaali/kohina-suhde aiheuttaa kohinan suuren vahvistumisen itse mittauksessa. Myös väärään signaaliin lukkiutuminen on erittäin huonolla signaali/kohinasuhteella mahdollista, jolloin mahdollisesti sinänsä virheetön satelliitin sijainti yhdistetään paikanlaskennassa väärään mittaukseen tällöin lopputulos on mittausyhtälön kannalta samankaltainen kuin suuren ephemeris-virheen tapauksessa. Viimeksi mainitut virheet ovat tyypillisiä henkilökohtaisessa paikannuksessa. Koska niiden 65

66 vaikutus ilmenee samalla tavalla kuin kontrolli- tai avaruussegmentin aiheuttamien virheiden, voidaan niiden havaitsemiseen ja poistamiseen käyttää samoja menetelmiä kuin perinteisessä RAIM:issa. Henkilökohtaisen paikannuksen virheiden käsitelyyn tarkoitetun RAIM-algoritmin suunnitteluun liittyy muutamia lisähaasteita: näiden virheiden esiintymistiheys on huomattavasti suurempi kuin kontrolli- tai avaruussegmentin aiheuttamien virheiden, ja myös useiden eri mittausyhtälöiden samanaikaiset virheet ovat todennäköisempiä. Vastaanottimen itsenäisesti suorittaman eheystarkastuksen lisäksi käytössä on myös GPS:n ulkopuolisia valvonta-asemien verkkoja, jotka tarkkailevat satelliitteja ja lähettävät käyttäjille tietoa GPS:n eheydestä navigointiviestin eheystietojen tapaan nämäkin sisältävät viiveen. Myöskään valvontaverkot eivät pysty havaitsemaan käyttäjän lähiympäristön aiheuttamia ongelmia. Luotettavuus (Reliability) Luotettavuus voidaan määritellä useilla eri tavoilla: Laitteen tai järjestelmän käyttötarkoitukseensa soveltuvuus ajan funktiona Laitteen tai järjestelmän kyky suorittaa vaadittu toiminto määritellyissä olosuhteissa pysyy määritellyn pituisen ajan Todennäköisyys, että toiminnallinen yksikkö suorittaa vaadittua toimintaa määritellyn pituisen ajan määritellyissä olosuhteissa Laite tai järjestelmä täyttää sille suunnitellut suorituskykyvaatimukset Laitteen tai järjestelmän vikasietoisuus Satelliittipaikannuksen luotettavuudella voidaan tarkoittaa kahta asiaa, joko järjestelmän toimintavarmuutta tai tulosten tilastollista luotettavuutta. Ensimmäisessä tapauksessa luotettavuus liittyy laitteiden ja komponenttien käyttövarmuuteen, oikean toiminnan todennäköisyyteen, jolloin tarkastelun työkaluina ovat esimerkiksi komponenttien vikaantumisen todennäköisyystiheydet ajan funktiona. Tilastollinen luotettavuus taas tarkoittaa mittaussarjan konsistenttisuutta. Satelliittipaikannuksessa on käytettävissä samanaikaisesti suoritettuja mittauksia eri lähteistä, joiden keskinäistä konsistenttisuutta voidaan tarkastella, mikäli paikannusongelma on ylimäärätty, eli mittauksia on käytettävissä enemmän kuin paikannukseen välttämättä tarvittaisiin. Tässä monisteessa paikannuksen luotettavuutta tarkastellaan paikannustulosten tilastollisen luotettavuuden näkökulmasta. Geodetiikan mittausverkkojen analysoinnissa luotettavuudella tarkoitetaan estimoinnin kykyä havaita suuret virheet [19], [20]. Näin määritelty paikannuksen luotettavuus on käsitteenä hyvin samantapainen kuin RAIM-algoritmien tutkima eheys. Tällaista luotettavuuden määritelmää voidaan käyttää myös henkilökohtaisen paikannuksen suorituskyvyn analysoinnissa [21]. Paikannusongelman geometria vaikuttaa paitsi paikannuksen tarkkuuteen, myös siihen, kuinka hyvin paikannusongelman luotettavuutta tai eheyttä pystytään konsistenssitesteillä tarkastelemaan. Paikannustuloksen tarkkuuden arvioinnissa käytetty tavanomainen DOP ei kaikissa tilanteissa kuvaa riittävästi ongelman soveltuvuutta konsistenssitarkastuksiin. 66

67 Saatavuus (Availability) Paikannuksen saatavuuteen vaikuttavat useat tekijät. Satelliittipaikannuksen tapauksessa ensimmäinen edellytys paikannuksen saatauudelle on se, että vastaanotin pystyy vastaanottamaan riittävän määrän satelliittisignaaleja. Tämä riippuu paitsi satelliittikonstellaatiosta, myös paikannusympäristöstä signaalit eivät kulje vahvojen betonirakenteiden läpi. Vaikka paikannuksen saatavuus olisi paikannusympäristön korkeimpien rakennusten katoilla hyvä, se ei välttämättä ole sitä katutasossa, rakennusten sisällä, tunneleissa tai maanalaisissa tiloissa. Paikannuksen saatavuutta arvioitaessa voidaan myös paikannuksen laadulle (tarkkuus, luotettavuus) asetettaa vaatimuksia, jolloin saatavuutta kuvaava luku (todennäköisyys tai saatavilla oloajan prosentuaalinen osuus) yleensä pienenee. Voidaan esimerkiksi tarkastella paikannuksen saatavuutta, kun vaatimuksena on, että paikannuksessa käytettävien satelliittien korkeuskulma on vähintään 5 ja niiden muodostamalle geometrialle saa PDOP olla enintään 6. Myös eheys- tai luotettavuustiedon saatavuutta voidaan tarkastella erikseen tällaisen tiedon tuottamiseksi vaaditaan enemmän näkyviä satelliitteja kuin pelkkään paikannukseen, ja geometrialle asetetaan lisävaatimuksia. Mikäli eheys- tai luotettavuustarkastelun perusteella hylätään kokonaan virheelliseksi epäilty paikannustulos, josta virhettä ei voi eristää, tai jolle luotettavuustulos ei geometrian tai satelliittien määrän takia ole saatavissa, niin paikannuksen saatavuus huononee. Mikäli taas em. tarkasteluja ei tehdä, vaan hyväksytään kaikki tulokset, mitkä pystytään laskemaan, niin erityisesti henkilökohtaisessa paikannuksessa paikannuksen keskimääräinen tarkkuus huononee Tilastollinen päättely ja hypoteesien testaus Monet paikannusongelmien eheys- tai luotettavuustarkasteluja varten kehitetyt menetelmät perustuvat tilastolliseen päättelyyn ja hypoteesien testaukseen. Tässä luvussa esitettyjä menetelmiä esitellään viitteissä [21], [16], [20], [38], [19], ja [28]. Tilastollisessa päättelyssä on tarkoituksena selvittää, onko joku asia kerättyjen havaintojen valossa niin vai näin. Tyypillinen kysymys on esimerkiksi, tuottaako teollisuusprosessi todella eri laatuista tuotetta kuin aiemmin, vai voivatko muuttuneet testitulokset olla sattumaa. Mittausjoukkoa tarkasteltaessa ratkaistavana on usein kysymys, onko muista poikkeava mittaus virheellinen vai voiko havaitun suuruinen poikkeama olla sattumaa, ts. onko poikkeama todennäköinen kun huomioidaan kyseisen mittauksen tavanomainen vaihtelu. Päättelyä varten muotoillaan selvitettävä kysymys hypoteesiksi eli oletukseksi asian tilasta. Näitä oletuksia, jotka voivat olla joko tosia tai epätosia, kutsutaan tilastollisiksi hypoteeseiksi. Tavallisesti hypoteesi koskee tarkasteltavaan ilmiöön liittyvän todennäköisyysjakauman yhtä parametriä. Hypoteesin testauksen tarkoituksena ei ole todistaa hypoteesia todeksi tai epätodeksi. Sen sijaan pyritään osoittamaan, että hypoteesi ei ole uskottava, koska se johtaa hyvin pieneen todennäköisyyteen, ts. kerätyt havainnot poikkeavat merkittävästi niistä, mitkä olisivat olleet todennäköisiä hypoteesin ollessa paikkansa pitävä. 67

68 Esimerkki Haluamme selvittää, onko kolikon heitossa käytetty kolikko tasapuolinen, ts. tuleeko heitossa tulokseksi kruuna yhtäsuurella todennäköisyydellä kuin klaava. Tätä tutkiaksemme muodostamme hypoteesin kolikko on tasapuolinen : p = 0.5, missä p on todennäköisyys saada kolikonheitossa tulokseksi kruuna. Tutkitaan kolikon tasapuolisuutta heittämällä kolikkoa kokeeksi 20 kertaa. Heitoista 16 tuottaa tulokseksi kruunan. Tällöin olemme melko valmiita hylkäämään hypoteesin kolikko on tasapuolinen, koska hypoteesin ollessa paikkansapitävä tulos 16 kruunaa ei ole kovin todennäköinen, vaan koetulos poikkeaa merkittävästi hypoteesin avulla ennustettavasta. Kyseenalaistettavaksi hypoteesiksi valitaan se, jonka perusteella mikään ei muutu tai ole muuttunut tai joka edustaa neutraalia tilannetta, joka ei vaadi toimenpiteitä. Tästä syystä sitä usein kutsutaan nollahypoteesiksi H 0. Tuotantoprosessin tilaa tutkittaessa nollahypoteesi olisi tuotteen laadussa ei muutoksia (ei tarvitse ryhtyä etsimään ja korjaamaan prosessista laatumuutoksen aiheuttanutta vikaa), mittausdatan analyysissa mittaukset normaaleja (ei tarvitse ryhtyä miettimään mikä on viallinen ja poistetaanko se näytejoukosta), kolikonheittotapauksessa kolikko on tasapuolinen (ei tarvitse vaihtaa kolikkoa, arvonnat voidaan suorittaa tällä). Hypoteesin testaus voidaan kuvata viisivaiheisena prosessina: 1. Muotoillaan käytännön ongelma hypoteesiksi. Aloitetaan vaihtoehtoisesta hypoteesista H 1. Tämän tulisi kattaa ne tapaukset, jotka halutaan diagnosoida, joissa positiivinen testitulos tarkoittaa sitä, että on syytä ryhtyä toimenpiteisiin. Nollahypoteesi valitaan niin, että se on yksinkertainen ja edustaa status quo -tilannetta, ja yhdessä vaihtoehtoisen hypoteesin kanssa se kattaa kaikki mahdolliset tilanteet. Esimerkkejä: H 1 : Kolikko ei ole tasapuolinen, p 0.5 (vaihdettava kolikko). H 0 : Kolikko on tasapuolinen, p = 0.5. Näissä p on todennäköisyys, että kolikonheitossa tulos on kruuna. H 1 : Muutettu prosessi B parantaa tuotteen laatua alkuperäiseen prosessiin A verrattuna, µ B > µ A. H 0 : Muutettu prosessi B ei paranna tuotteen laatua alkuperäiseen prosessiin A verrattuna, µ B µ A. Näissä µ A ja µ B ovat tuotteen laatua kuvaavan suureen odotusarvoja, missä suurempi arvo kuvaa parempaa laatua. 2. Valitaan testisuure T, joka on funktio havainnoista (mittauksista). Hyvillä testisuureilla on seuraavat ominaisuudet: (a) se käyttäytyy eri tavalla silloin kun H 0 on tosi verrattuna siihen, että H 1 on tosi. (b) sen todennäköisyysjakauma voidaan laskea kun oletetaan, että H 0 on tosi. 3. Valitaan kriittinen alue. Jos testisuureen T :n arvo on kriittisellä alueella, H 0 hylätään H 1 :n hyväksi. Jos T :n arvo ei ole kriittisellä alueella, hypoteesia H 0 ei hylätä. Päätöstä H 0 :n hyväksymisestä ei tehdä H 0 :n hylkäämättä jättämiseen päädytään, mikäli hypoteesia H 1 tukevaa evidenssiä ei ole. 68

69 Tehtävänä on päättää, millaiset testisuureen arvot viittaavaat vahvasti siihen, että H 1 on tosi. Kriittisiä alueita ovat esimerkiksi seuraavat: Oikeanpuoleinen H 1 : T > T kr. Mikäli testisuure on suurempi kuin (oikeanpuoleinen) kriittinen arvo, H 0 hylätään. Vasemmanpuoleinen H 1 : T < T kr. Mikäli testisuure on pienempi kuin (vasemmanpuoleinen) kriittinen arvo, H 0 hylätään. Kaksipuoleinen H 1 : T < T kr1 tai T > T kr2. Mikäli testisuure on joko suurempi kuin oikeanpuoleinen kriittinen arvo tai pienempi kuin vasemmanpuoleinen kriittinen arvo, H 0 hylätään. 4. Päätetään kriittisen alueen koko. Tilastollisessa päättelyssä lähtökohtana on se, että tehty päätös H 0 :n hylkäämisestä tai hylkäämättä jättämisestä voi olla oikea tai väärä. Päättely voi johtaa siihen, että H 0 hylätään, vaikka se todellisuudessa olisi tosi tätä kutsutaan lajin I virheeksi. H 0 voi myös jäädä hylkäämättä, vaikka se todellisuudessa on epätosi ja pitäisi hylätä tätä kutsutaan lajin II virheeksi. Kriittisen alueen määrittelyssä otetaan kantaa siihen, kuin suuri riski väärän päätöksen syntymisestä ollaan valmiita ottamaan. Todennäköisyyttä, että tapahtuu lajin I virhe, kutsutaan testin merkitsevyystasoksi tai riskitasoksi ja merkitään α:lla. Usein käytettyjä merkitsevyystasoja ovat 5%, 1% ja 0.1%. Luottamustamme siihen, että päätös olla hylkäämättä nollahypoteesia on oikea, kuvaa luottamustaso 1 α, joka on oikean päätöksen H 0 :aa ei hylätä kun H 0 on tosi todennäköisyys. Lajin II virheen todennäköisyyttä merkitään β:lla. Testin teho 1 β on todennäköisyys, että todellinen muutos H 0 :n edustamasta status quo -tilanteesta havaitaan testisuureen muutoksesta. Taulukossa 4.2 esitetään hypoteesin testauksessa esiintyvät neljä eri mahdollisuutta päätyä oikeaan tai väärään päätökseen. 5. Tutkitaan missä kohdin kriittistä aluetta laskettu T sijaitsee. Jos T sijaitsee kriittisellä alueella lähellä reunaa, voimme päätellä, että meillä on hieman näytöä (evidenssiä) siitä, että H 0 pitäisi hylätä. Jos taas T on pitkällä kriittisessä alueessa, kaukana reunasta, meillä merkittävä näyttö H 0 :n hylkäämisen perusteeksi. Taulukko 4.2: Nollahypoteesin testaus Päätös H 0 :aa ei hylätä H 0 hylätään Todellisuus H 0 tosi oikea päätös lajin I virhe todennäköisyys 1 α todennäköisyys α = luottamustaso = merkitsevyystaso H 0 epätosi lajin II virhe oikea päätös todennäköisyys β todennäköisyys 1 β = testin teho 69

70 Esimerkki 16 (α, β ja testillä havaittavan eron suuruus, [38]). Havainnollistetaan hypoteesin testausta esimerkillä, jossa ongelman geometria on tyypillistä paikannusongelmaa yksinkertaisempi. Tarkastellaan miespuolisten opiskelijoiden painoa. Nollahypoteesi on, että tietyssä yliopistossa miespuoliset opiskelijat painavat keskimäärin 68 kg. Testataan hypoteeseja H 0 : µ = 68, ja H 1 : µ 68. Vaihtoehtoinen hypoteesi kattaa tapaukset µ < 68 tai µ > 68. Testisuureeksi valitaan näytekeskiarvo. Jos se sattuu lähelle oletettua arvoa 68, meillä on H 0 :aa tukevaa evidenssiä. Mikäli näytekeskiarvo on merkittävästi suurempi tai pienempi kuin 68, aineisto ei ole konsistentti H 0 :n kanssa vaan tukee vaihtoehtoista hypoteesia H 1. Kriittiseksi alueeksi valitaan (hieman mielivaltaisesti) välit x < 67 ja x > 69; hylkäämätömyysalue, jolla H 0 :aa ei hylätä, on 67 x 69. Nämä on havainnollistettu kuvassa 4.7. Kuva 4.7: Kriittinen alue (reunoilla) Lasketaan todennäköisyydet lajin I ja II virheille, kun päättelykriteeri on kuvan 4.7 mukainen. Oletetaan, että populaatiossa painon vaihtelun keskihajonta σ = 3.6. Testisuureena käytettävä näytekeskiarvo X lasketaan satunnaisesti valitusta näytejoukosta, jonka suuruus n = 36. Keskeisen raja-arvoteoreeman perusteella tiedetään, että X:n jakauma lähestyy normaalijakaumaa, jonka keskihajonta σ X = σ/ n = 3.6/6 = 0.6. Todennäköisyystiheys α/2 α/ Testimuuttuja Kuva 4.8: Kriittinen alue testattaessa hypoteesia µ = 68 hypoteesia µ 68 vastaan. 70

MAT Paikannuksen matematiikka TKT-2540 Paikannuksen menetelmät

MAT Paikannuksen matematiikka TKT-2540 Paikannuksen menetelmät TA M P E R E E N T E K N I L L I N E N Y L I O P I S TO M a t e m a t i i k k a T i e t o k o n e t e k n i i k k a MAT-45800 Paikannuksen matematiikka TKT-2540 Paikannuksen menetelmät Simo Ali-Löytty

Lisätiedot

Paikannuksen matematiikka MAT

Paikannuksen matematiikka MAT TA M P E R E U N I V E R S I T Y O F T E C H N O L O G Y M a t h e m a t i c s Paikannuksen matematiikka MAT-45800 4..008. p.1/4 Käytännön järjestelyt Kotisivu: http://math.tut.fi/courses/mat-45800/ Luennot:

Lisätiedot

MAT Paikannuksen matematiikka

MAT Paikannuksen matematiikka a numeerisia menetelmiä, joilla ratkaista käyttäjän paikka käyttäen a saatavilla olevia mittauksia ja informaam. GPS, GSM, 3G, WLAN, kompassi ja kartat. TAMPEREEN TEKNILLINEN YLIOPISTO Matematiikka Suodatin

Lisätiedot

Kohdeyleisö: toisen vuoden teekkari

Kohdeyleisö: toisen vuoden teekkari Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y

Lisätiedot

Moniulotteisia todennäköisyysjakaumia

Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Inversio-ongelmien laskennallinen peruskurssi Luento 2 Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

4.0.2 Kuinka hyvä ennuste on?

4.0.2 Kuinka hyvä ennuste on? Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki

Lisätiedot

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 3 /

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 3 / MS-A3/A5 Matriisilaskenta, II/27 MS-A3/A5 Matriisilaskenta Laskuharjoitus 3 / 3. 7..27 Tehtävä (L): Etsi kaikki yhtälön Ax = b ratkaisut, kun 3 5 4 A = 3 2 4 ja b = 6 8 7 4. Ratkaisu : Koetetaan ratkaista

Lisätiedot

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka

Lisätiedot

Dynaamiset regressiomallit

Dynaamiset regressiomallit MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma

Lisätiedot

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme? TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä

Lisätiedot

Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle /

Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle / MS-A8 Differentiaali- ja integraalilaskenta, V/7 Differentiaali- ja integraalilaskenta Ratkaisut 5. viikolle / 9..5. Integroimismenetelmät Tehtävä : Laske osittaisintegroinnin avulla a) π x sin(x) dx,

Lisätiedot

3.6 Su-estimaattorien asymptotiikka

3.6 Su-estimaattorien asymptotiikka 3.6 Su-estimaattorien asymptotiikka su-estimaattorit ovat usein olleet puutteellisia : ne ovat usein harhaisia ja eikä ne välttämättä ole täystehokkaita asymptoottisilta ominaisuuksiltaan ne ovat yleensä

Lisätiedot

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (5) 1 Momenttiemäfunktio ja karakteristinen funktio Momenttiemäfunktio Diskreettien jakaumien momenttiemäfunktioita

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Kevät 2011 1 Iteratiivisista menetelmistä Tähän mennessä on tarkasteltu niin sanottuja suoria menetelmiä, joissa (likimääräinen) ratkaisu saadaan

Lisätiedot

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 017 Harjoitus 5 Ratkaisuehdotuksia Tehtäväsarja I 1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X

Lisätiedot

Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus

Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus 1 / 51 Lineaarikombinaatio Johdattelua seuraavaan asiaan (ei tarkkoja määritelmiä): Millaisen kuvan muodostaa joukko {λv λ R, v R 3 }? Millaisen

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35 Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila

Lisätiedot

MS-A0003/A Matriisilaskenta Laskuharjoitus 6

MS-A0003/A Matriisilaskenta Laskuharjoitus 6 MS-A3/A - Matriisilaskenta Laskuharjoitus 6 Ratkaisuehdotelmia. Diagonalisointi on hajotelma A SΛS, jossa diagonaalimatriisi Λ sisältää matriisin A ominaisarvot ja matriisin S sarakkeet ovat näitä ominaisarvoja

Lisätiedot

MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Jarmo Malinen Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto Kevät 2016 1 Perustuu

Lisätiedot

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45 MS-A0003/A0005 Matriisilaskenta Laskuharjoitus / vko 5 Tehtävä 1 (L): Hahmottele kompleksitasoon ne pisteet, jotka toteuttavat a) z 3 =, b) z + 3 i < 3, c) 1/z >. Yleisesti: ehto z = R, z C muodostaa kompleksitasoon

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 6 To 22.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 6 To 22.9.2011 p. 1/38 p. 1/38 Ominaisarvotehtävät Monet sovellukset johtavat ominaisarvotehtäviin Yksi

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio Ilkka Mellin Todennäköisyyslaskenta Osa : Satunnaismuuttujat ja todennäköisyysjakaumat Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (7) 1 Momenttiemäfunktio ja karakteristinen funktio

Lisätiedot

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2 HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 208 Harjoitus 4 Ratkaisuehdotuksia Tehtäväsarja I. Satunnaismuuttuja U Exp(2) ja V = U/(3 + U). Laske f V käyttämällä muuttujanvaihtotekniikkaa.

Lisätiedot

MS-A0004/A0006 Matriisilaskenta

MS-A0004/A0006 Matriisilaskenta 4. MS-A4/A6 Matriisilaskenta 4. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto..25 Tarkastellaan neliömatriiseja. Kun matriisilla kerrotaan vektoria, vektorin

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28 Numeeriset menetelmät TIEA381 Luento 5 Kirsi Valjus Jyväskylän yliopisto Luento 5 () Numeeriset menetelmät 3.4.2013 1 / 28 Luennon 5 sisältö Luku 4: Ominaisarvotehtävistä Potenssiinkorotusmenetelmä QR-menetelmä

Lisätiedot

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 Tehtävä 8 on tällä kertaa pakollinen. Aloittakaapa siitä. 1. Kun tässä tehtävässä sanotaan sopii mahdollisimman hyvin, sillä tarkoitetaan

Lisätiedot

Luento 9: Yhtälörajoitukset optimoinnissa

Luento 9: Yhtälörajoitukset optimoinnissa Luento 9: Yhtälörajoitukset optimoinnissa Lagrangen kerroin Oletetaan aluksi, että f, g : R R. Merkitään (x 1, x ) := (x, y) ja johdetaan Lagrangen kerroin λ tehtävälle min f(x, y) s.t. g(x, y) = 0 Olkoon

Lisätiedot

x 4 e 2x dx Γ(r) = x r 1 e x dx (1)

x 4 e 2x dx Γ(r) = x r 1 e x dx (1) HY / Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta IIA, syksy 217 217 Harjoitus 6 Ratkaisuehdotuksia Tehtäväsarja I 1. Laske numeeriset arvot seuraaville integraaleille: x 4 e 2x dx ja 1

Lisätiedot

2. Teoriaharjoitukset

2. Teoriaharjoitukset 2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016

Lisätiedot

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio. Määritelmä 4.3. Estimaattoria X(Y ) nimitetään lineaariseksi projektioksi, jos X on lineaarinen kuvaus ja E[(X X(Y )) Y] 0 }{{} virhetermi Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx. Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin

Lisätiedot

Kanta ja Kannan-vaihto

Kanta ja Kannan-vaihto ja Kannan-vaihto 1 Olkoon L vektoriavaruus. Äärellinen joukko L:n vektoreita V = { v 1, v 2,..., v n } on kanta, jos (1) Jokainen L:n vektori voidaan lausua v-vektoreiden lineaarikombinaationa. (Ts. Span(V

Lisätiedot

Ratkaisuehdotukset LH 7 / vko 47

Ratkaisuehdotukset LH 7 / vko 47 MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [

Lisätiedot

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on 13 Pistetulo Avaruuksissa R 2 ja R 3 on totuttu puhumaan vektorien pituuksista ja vektoreiden välisistä kulmista. Kuten tavallista, näiden käsitteiden yleistäminen korkeampiulotteisiin avaruuksiin ei onnistu

Lisätiedot

Maximum likelihood-estimointi Alkeet

Maximum likelihood-estimointi Alkeet Maximum likelihood-estimointi Alkeet Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Maximum likelihood-estimointi p.1/20 Maximum Likelihood-estimointi satunnaismuuttujan X

Lisätiedot

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta

Lisätiedot

Mat Sovellettu todennäköisyyslasku A

Mat Sovellettu todennäköisyyslasku A TKK / Systeemianalyysin laboratorio Nordlund Mat-.090 Sovellettu todennäköisyyslasku A Harjoitus 7 (vko 44/003) (Aihe: odotusarvon ja varianssin ominaisuuksia, satunnaismuuttujien lineaarikombinaatioita,

Lisätiedot

Likimääräisratkaisut ja regularisaatio

Likimääräisratkaisut ja regularisaatio Luku 3 Likimääräisratkaisut ja regularisaatio Käytännön inversio-ongelmissa annettu data y ei aina ole tarkkaa, vaan sisältää häiriöitä. Tuntemattomasta x on annettu häiriöinen data y F (x + }{{}}{{} ε.

Lisätiedot

Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).

Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0). Esimerkki 9 Esimerkissä 6 miniminormiratkaisu on (ˆx, ˆx (, 0 Seuraavaksi näytetään, että miniminormiratkaisuun siirtyminen poistaa likimääräisongelman epäyksikäsitteisyyden (mutta lisääntyvän ratkaisun

Lisätiedot

Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja

Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja 7 NELIÖMATRIISIN DIAGONALISOINTI. Ortogonaaliset matriisit Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja A - = A T () Muistutus: Kokoa n olevien vektorien

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8. HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..

Lisätiedot

MS-A0003/A0005 Matriisilaskenta Malliratkaisut 4 / vko 47

MS-A0003/A0005 Matriisilaskenta Malliratkaisut 4 / vko 47 MS-A3/A5 Matriisilaskenta Malliratkaisut 4 / vko 47 Tehtävä 1 (L): Oletetaan, että AB = AC, kun B ja C ovat m n-matriiseja. a) Näytä, että jos A on kääntyvä, niin B = C. b) Seuraako yhtälöstä AB = AC yhtälö

Lisätiedot

Osa 2: Otokset, otosjakaumat ja estimointi

Osa 2: Otokset, otosjakaumat ja estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

Ennustaminen ARMA malleilla ja Kalmanin suodin

Ennustaminen ARMA malleilla ja Kalmanin suodin Ennustaminen ARMA malleilla ja Kalmanin suodin MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2017

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Differentiaaliyhtälöt, osa 1 Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 20 R. Kangaslampi Matriisihajotelmista

Lisätiedot

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Ojalammi MS-A0203 Differentiaali- ja integraalilaskenta 2, kevät 2016 Laskuharjoitus 4A (Vastaukset) alkuviikolla

Lisätiedot

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia. HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I. Mitkä seuraavista funktioista F, F, F ja F 4 ovat kertymäfunktioita? Mitkä

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33 Numeeriset menetelmät TIEA381 Luento 12 Kirsi Valjus Jyväskylän yliopisto Luento 12 () Numeeriset menetelmät 25.4.2013 1 / 33 Luennon 2 sisältö Tavallisten differentiaaliyhtälöiden numeriikasta Rungen

Lisätiedot

Todennäköisyyden ominaisuuksia

Todennäköisyyden ominaisuuksia Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. marraskuuta 2007 Antti Rasila () TodB 30. marraskuuta 2007 1 / 19 1 Lineaarinen regressiomalli ja suurimman uskottavuuden menetelmä Minimin löytäminen

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille

Lisätiedot

PRELIMINÄÄRIKOE PITKÄ MATEMATIIKKA 9.2.2011

PRELIMINÄÄRIKOE PITKÄ MATEMATIIKKA 9.2.2011 PRELIMINÄÄRIKOE PITKÄ MATEMATIIKKA 9..0 Kokeessa saa vastata enintään kymmeneen tehtävään.. Sievennä a) 9 x x 6x + 9, b) 5 9 009 a a, c) log 7 + lne 7. Muovailuvahasta tehty säännöllinen tetraedri muovataan

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 21. syyskuuta 2007 Antti Rasila () TodB 21. syyskuuta 2007 1 / 19 1 Satunnaismuuttujien riippumattomuus 2 Jakauman tunnusluvut Odotusarvo Odotusarvon ominaisuuksia

Lisätiedot

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Vesanen MS-A0205/6 Differentiaali- ja integraalilaskenta 2, kevät 2017 Laskuharjoitus 4A (Vastaukset) alkuviikolla

Lisätiedot

DI matematiikan opettajaksi: Täydennyskurssi, kevät 2010 Luentorunkoa ja harjoituksia viikolle 11: ti klo 13:00-15:30

DI matematiikan opettajaksi: Täydennyskurssi, kevät 2010 Luentorunkoa ja harjoituksia viikolle 11: ti klo 13:00-15:30 DI matematiikan opettajaksi: Tädennskurssi, kevät Luentorunkoa ja harjoituksia viikolle : ti 6 klo :-5: Kädään läpi: funktioita f : D f R n R m ja integrointia R n :ssä Oletetaan, että, R n ovat mielivaltaisia

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2

Lisätiedot

4.2.2 Uskottavuusfunktio f Y (y 0 X = x)

4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Kuva 4.6: Elektroniikassa esiintyvän lämpökohinan periaate. Lämpökohinaa ε mallinnetaan additiivisella häiriöllä y = Mx + ε. 4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Tarkastellaan tilastollista inversio-ongelmaa,

Lisätiedot

ax + y + 2z = 0 2x + y + az = b 2. Kuvassa alla on esitetty nesteen virtaus eräässä putkistossa.

ax + y + 2z = 0 2x + y + az = b 2. Kuvassa alla on esitetty nesteen virtaus eräässä putkistossa. BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 7, Syksy 206 Tutkitaan yhtälöryhmää x + y + z 0 2x + y + az b ax + y + 2z 0 (a) Jos a 0 ja b 0 niin mikä on yhtälöryhmän ratkaisu? Tulkitse ratkaisu

Lisätiedot

Insinöörimatematiikka D, laskuharjoituksien esimerkkiratkaisut

Insinöörimatematiikka D, laskuharjoituksien esimerkkiratkaisut Insinöörimatematiikka D, 29.3.2016 4. laskuharjoituksien esimerkkiratkaisut 1. Olkoon u (4,0,4,2) ja v ( 1,1,3,5) vektoreita vektoriavaruudessa R 4. Annetun sisätulon (x,y) indusoima normi on x (x,x) ja

Lisätiedot

1 Rajoittamaton optimointi

1 Rajoittamaton optimointi Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y

Lisätiedot

Luento 5: Suurten lineaaristen yhtälöryhmien ratkaiseminen iteratiivisilla menetelmillä

Luento 5: Suurten lineaaristen yhtälöryhmien ratkaiseminen iteratiivisilla menetelmillä Luento 5: Suurten lineaaristen yhtälöryhmien ratkaiseminen iteratiivisilla menetelmillä Matriisit voivat olla kooltaan niin suuria, että LU-hajotelman laskeminen ei ole järkevä tapa ratkaista lineaarista

Lisätiedot

Matriisilaskenta, LH4, 2004, ratkaisut 1. Hae seuraavien R 4 :n aliavaruuksien dimensiot, jotka sisältävät vain

Matriisilaskenta, LH4, 2004, ratkaisut 1. Hae seuraavien R 4 :n aliavaruuksien dimensiot, jotka sisältävät vain Matriisilaskenta LH4 24 ratkaisut 1 Hae seuraavien R 4 :n aliavaruuksien dimensiot jotka sisältävät vain a) Kaikki muotoa (a b c d) olevat vektorit joilla d a + b b) Kaikki muotoa (a b c d) olevat vektorit

Lisätiedot

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu 1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Ominaisarvo-hajoitelma ja diagonalisointi

Ominaisarvo-hajoitelma ja diagonalisointi Ominaisarvo-hajoitelma ja a 1 Lause 1: Jos reaalisella n n matriisilla A on n eri suurta reaalista ominaisarvoa λ 1,λ 2,...,λ n, λ i λ j, kun i j, niin vastaavat ominaisvektorit x 1, x 2,..., x n muodostavat

Lisätiedot

MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio.

MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. Riikka Korte Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto

Lisätiedot

Derivaatan sovellukset (ääriarvotehtävät ym.)

Derivaatan sovellukset (ääriarvotehtävät ym.) Derivaatan sovellukset (ääriarvotehtävät ym.) Tehtävät: 1. Tutki derivaatan avulla funktion f kulkua. a) f(x) = x 4x b) f(x) = x + 6x + 11 c) f(x) = x4 4 x3 + 4 d) f(x) = x 3 6x + 1x + 3. Määritä rationaalifunktion

Lisätiedot

Paikka- ja virhe-estimaatin laskenta-algoritmit Paikannusteknologiat nyt ja tulevaisuudessa

Paikka- ja virhe-estimaatin laskenta-algoritmit Paikannusteknologiat nyt ja tulevaisuudessa Paikka- ja virhe-estimaatin laskenta-algoritmit 25.8.2011 Paikannusteknologiat nyt ja tulevaisuudessa Simo Ali-Löytty, TTY, matematiikan laitos Mallinnus Pienimmän neliösumman menetelmä Lineaarinen Epälineaarinen

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 4

Inversio-ongelmien laskennallinen peruskurssi Luento 4 Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa

Lisätiedot

17. Differentiaaliyhtälösysteemien laadullista teoriaa.

17. Differentiaaliyhtälösysteemien laadullista teoriaa. 99 17. Differentiaaliyhtälösysteemien laadullista teoriaa. Differentiaaliyhtälön x'(t) = f(x(t),t), x(t) n määrittelemän systeemin sanotaan olevan autonominen, jos oikea puoli ei eksplisiittisesti riipu

Lisätiedot

Jatkuvat satunnaismuuttujat

Jatkuvat satunnaismuuttujat Jatkuvat satunnaismuuttujat Satunnaismuuttuja on jatkuva jos se voi ainakin periaatteessa saada kaikkia mahdollisia reaalilukuarvoja ainakin tietyltä väliltä. Täytyy ymmärtää, että tällä ei ole mitään

Lisätiedot

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1 TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että

Lisätiedot

MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ

MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ 4.9.09 HYVÄN VASTAUKSEN PIIRTEITÄ Alustavat hyvän vastauksen piirteet on suuntaa-antava kuvaus kokeen tehtäviin odotetuista vastauksista ja tarkoitettu ensisijaisesti

Lisätiedot

Tekijä Pitkä matematiikka

Tekijä Pitkä matematiikka K1 Tekijä Pitkä matematiikka 5 7..017 a) 1 1 + 1 = 4 + 1 = 3 = 3 4 4 4 4 4 4 b) 1 1 1 = 4 6 3 = 5 = 5 3 4 1 1 1 1 1 K a) Koska 3 = 9 < 10, niin 3 10 < 0. 3 10 = (3 10 ) = 10 3 b) Koska π 3,14, niin π

Lisätiedot

0 kun x < 0, 1/3 kun 0 x < 1/4, 7/11 kun 1/4 x < 6/7, 1 kun x 1, 1 kun x 6/7,

0 kun x < 0, 1/3 kun 0 x < 1/4, 7/11 kun 1/4 x < 6/7, 1 kun x 1, 1 kun x 6/7, HY / Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta II, syksy 07 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I. Mitkä seuraavista funktioista F, F, F ja F 4 ovat kertymäfunktioita? Mitkä niistä

Lisätiedot

, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1).

, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1). HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 017 Harjoitus 4 Ratkaisuehdotukset 4.1. Osoita, että tasa-arvojoukko S F (0), F : R 3 R, F (x) = 3x 1 x 3 + e x + x e x 3, on säännöllinen

Lisätiedot

MATEMATIIKAN KOE PITKÄ OPPIMÄÄRÄ

MATEMATIIKAN KOE PITKÄ OPPIMÄÄRÄ 1 YLIOPPILASTUTKINTO- LAUTAKUNTA 25.9.2017 MATEMATIIKAN KOE PITKÄ OPPIMÄÄRÄ A-osa Ratkaise kaikki tämän osan tehtävät 1 4. Tehtävät arvostellaan pistein 0 6. Kunkin tehtävän ratkaisu kirjoitetaan tehtävän

Lisätiedot

1. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden heittojen lukumäärä, joilla tuli 1, 2, 3 tai 4.

1. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden heittojen lukumäärä, joilla tuli 1, 2, 3 tai 4. HY / Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta II, syksy 206 Kurssikoe 28.0.206 Ratkaisuehdotuksia. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =

Lisätiedot

6. Differentiaaliyhtälösysteemien laadullista teoriaa.

6. Differentiaaliyhtälösysteemien laadullista teoriaa. 1 MAT-13450 LAAJA MATEMATIIKKA 5 Tampereen teknillinen yliopisto Risto Silvennoinen Kevät 2010 6. Differentiaaliyhtälösysteemien laadullista teoriaa. Olemme keskittyneet tässä kurssissa ensimmäisen kertaluvun

Lisätiedot

9. Tila-avaruusmallit

9. Tila-avaruusmallit 9. Tila-avaruusmallit Aikasarjan stokastinen malli ja aikasarjasta tehdyt havainnot voidaan esittää joustavassa ja monipuolisessa muodossa ns. tila-avaruusmallina. Useat aikasarjat edustavat dynaamisia

Lisätiedot

BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 4, Syksy 2016

BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 4, Syksy 2016 BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 4, Syksy 2016 1. Hahmottele karkeasti funktion f : R R 2 piirtämällä sen arvoja muutamilla eri muuttujan arvoilla kaksiulotteiseen koordinaatistoon

Lisätiedot

Vektoreiden A = (A1, A 2, A 3 ) ja B = (B1, B 2, B 3 ) pistetulo on. Edellisestä seuraa

Vektoreiden A = (A1, A 2, A 3 ) ja B = (B1, B 2, B 3 ) pistetulo on. Edellisestä seuraa Viikon aiheet Pistetulo (skalaaritulo Vektorien tulot Pistetulo Ristitulo Skalaari- ja vektorikolmitulo Integraalifunktio, alkeisfunktioiden integrointi, yhdistetyn funktion derivaatan integrointi Vektoreiden

Lisätiedot

Mapu 1. Laskuharjoitus 3, Tehtävä 1

Mapu 1. Laskuharjoitus 3, Tehtävä 1 Mapu. Laskuharjoitus 3, Tehtävä Lineaarisessa approksimaatiossa funktion arvoa lähtöpisteen x 0 ympäristössä arvioidaan liikkumalla lähtöpisteeseen sovitetun tangentin kulmakertoimen mukaisesti: f(x 0

Lisätiedot

Differentiaali- ja integraalilaskenta 3 Mallit laskuharjoitukseen 3 /

Differentiaali- ja integraalilaskenta 3 Mallit laskuharjoitukseen 3 / MS-A3x Differentiaali- ja integraalilaskenta 3, IV/6 Differentiaali- ja integraalilaskenta 3 Mallit laskuharjoitukseen 3 / 9..-.3. Avaruusintegraalit ja muuttujanvaihdot Tehtävä 3: Laske sopivalla muunnoksella

Lisätiedot

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos: 8 Kanta Tässä luvussa tarkastellaan aliavaruuden virittäjävektoreita, jotka muodostavat lineaarisesti riippumattoman jonon. Merkintöjen helpottamiseksi oletetaan luvussa koko ajan, että W on vektoreiden

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3

Lisätiedot

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH 8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH Osa aikasarjoista kehittyy hyvin erityyppisesti erilaisissa tilanteissa. Esimerkiksi pörssikurssien epävakaus keskittyy usein lyhyisiin

Lisätiedot

Matematiikan tukikurssi, kurssikerta 3

Matematiikan tukikurssi, kurssikerta 3 Matematiikan tukikurssi, kurssikerta 3 1 Epäyhtälöitä Aivan aluksi lienee syytä esittää luvun itseisarvon määritelmä: { x kun x 0 x = x kun x < 0 Siispä esimerkiksi 10 = 10 ja 10 = 10. Seuraavaksi listaus

Lisätiedot

Ominaisarvoon 4 liittyvät ominaisvektorit ovat yhtälön Ax = 4x eli yhtälöryhmän x 1 + 2x 2 + x 3 = 4x 1 3x 2 + x 3 = 4x 2 5x 2 x 3 = 4x 3.

Ominaisarvoon 4 liittyvät ominaisvektorit ovat yhtälön Ax = 4x eli yhtälöryhmän x 1 + 2x 2 + x 3 = 4x 1 3x 2 + x 3 = 4x 2 5x 2 x 3 = 4x 3. Matematiikan ja tilastotieteen laitos Lineaarialgebra ja matriisilaskenta II Ylimääräinen harjoitus 6 Ratkaisut A:n karakteristinen funktio p A on λ p A (λ) det(a λi ) 0 λ ( λ) 0 5 λ λ 5 λ ( λ) (( λ) (

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 9 1 Implisiittinen derivointi Tarkastellaan nyt yhtälöä F(x, y) = c, jossa x ja y ovat muuttujia ja c on vakio Esimerkki tällaisesta yhtälöstä on x 2 y 5 + 5xy = 14

Lisätiedot

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista 6 Epäyhtälöitä Epäyhtälöt ovat yksi matemaatikon voimakkaimmista työvälineistä. Yhtälö a = b kertoo sen, että kaksi ehkä näennäisesti erilaista asiaa ovat samoja. Epäyhtälö a b saattaa antaa keinon analysoida

Lisätiedot

Kompleksiluvut., 15. kesäkuuta /57

Kompleksiluvut., 15. kesäkuuta /57 Kompleksiluvut, 15. kesäkuuta 2017 1/57 Miksi kompleksilukuja? Reaaliluvut lukusuoran pisteet: Tiedetään, että 7 1 0 x 2 = 0 x = 0 1 7 x 2 = 1 x = 1 x = 1 x 2 = 7 x = 7 x = 7 x 2 = 1 ei ratkaisua reaalilukujen

Lisätiedot