MAT Paikannuksen matematiikka TKT-2540 Paikannuksen menetelmät
|
|
- Jaana Kivelä
- 7 vuotta sitten
- Katselukertoja:
Transkriptio
1 TA M P E R E E N T E K N I L L I N E N Y L I O P I S TO M a t e m a t i i k k a T i e t o k o n e t e k n i i k k a MAT Paikannuksen matematiikka TKT-2540 Paikannuksen menetelmät Simo Ali-Löytty Jussi Collin Helena Leppäkoski Hanna Sairo Niilo Sirola 2008
2 Esipuhe Paikannustekniikoita ja niihin liittyviä algoritmeja on tutkittu Tampereen teknillisellä yliopistolla usean laitoksen ja tutkimusryhmän voimin jo yli puolen vuosikymmenen ajan. Tämä moniste yhdistää tietokonetekniikan ja matematiikan laitosten paikannusryhmien osaamisen, ja kattaa kaksi tiiviisti toisiinsa liittyvää kurssia: MAT Paikannuksen matematiikka (luvut 1 ja 2), ja TKT-2540 Paikannuksen menetelmät (luvut 3 5). Ajatuksenamme on ollut kerätä yhteen perusteista alkaen tärkeimmät paikannuksessa tarvittavat algoritmit ja matemaattiset työkalut esimerkkien kera. Eri tekniikoiden ja laitteistojen yksityiskohtiin ei mennä, vaan kurssin jälkeen opiskelijan pitäisi pystyä ratkoa sovelluskohtaisia ongelmia tarvitsematta montaakaan kertaa keksiä pyörää uudelleen. Esitietoina oletetaan Insinöörimatematiikan tai Laajan matematiikan kokonaisuus sekä perustiedot todennäköisyyslaskennasta. Lisäksi kurssi TKT-2530 Satellittipaikannuksen perusteet on hyödyllinen muttei suinkaan pakollinen esitieto. Virallista kurssikirjaa ei tämän monisteen lisäksi ole. Kurssi on hyvin tiivis suhteessa asiasisältöön, ja käsittelemiämme asioita sivutaan lukuisissa lähteissä joista olemme pyrkineet viittaamaan lähinnä verkosta tai TTY:n kirjastosta löytyviin teoksiin. Käytännön paikannuslaskuissa tarvittava menetelmäpankki on koottu eri matematiikan ja insinööritieteiden aloilta, joiden välillä on usein koulukunta- ja tulkintaeroja, joten olemme parhaamme mukaan koettaneet käyttää yhtenäisehköjä merkintöjä ja esittää yhteyksiä eri ajattelutapojen välillä. Kurssien kotisivuille ja tut.fi/kurssit/2540/ tulee (toivottavasti erittäin lyhyt) lista monisteesta löytyneistä virheistä. Tähän vuoden 2008 versioon on kurssipalautteen pohjalta lisätty esimerkkejä ja harjoituksia, ja joitain lukuja järjestelty hieman uudestaan. Kiitokset prof. Robert Pichélle ja muille edellisistä versioista virheitä löytäneille. Tampereella 28. tammikuuta 2008, tekijät 2
3 Sisältö 1 Taustaa Matriisilaskentaa Ylimäärätty lineaarinen yhtälöryhmä Todennäköisyyslaskenta Koordinaatistot Liikkuvat koordinaatistot Staattinen paikkaratkaisu Mittausyhtälöt Virhe- ja herkkyysanalyysi Iteratiivinen pienin neliösumma Suljetun muodon ratkaisut Uskottavuuden maksimointi Bayesilainen ratkaisu Luottamusvälit Suodatus Vakionopeusmalli Kalmanin suodatin Epälineaariset Kalmanin suodattimet Bayeslainen suodatin Suodatuksen numeerisia menetelmiä Paikannustekniikoita Inertiapaikannus Kantoaaltomittauksiin perustuva satelliittipaikannus Luotettavuus Paikannuksen suorituskyvyn mittareita Tilastollinen päättely ja hypoteesien testaus Residuaalit RAIM (Receiver Autonomous Integrity Monitoring) Luotettavuustestaus globaalin ja lokaalin testin avulla Hakemisto 88 Kirjallisuutta 91 3
4 Luku 1 Taustaa SIMO ALI-LÖYTTY Matemaattisesti katsottuna paikannuksessa on tarkoitus ratkaista tilan x R n paras estimaattori yhtälön y = f(x)+ε, (1.1) perusteella. Tässä y sisältää mittaukset ja ε:a kutsutaan virheeksi (tuntematon). Eräs hyvin tärkeä yhtälön (1.1) erikoistapaus saadaan kun funktio f on lineaarinen, tätä erikoistapausta käsitellään kappaleessa 1.2. Usein virhetermi ε ja mahdollisesti myös tila x mallinnetaan satunnaismuuttujiksi, tämän vuoksi käsittelemme todennäköisyyslaskentaa kappaleessa 1.3. Luvun lopussa käsitellään koordinaatistoja 1.4 ja liikkuvia koordinaatistoja 1.5, jotka kuuluvat luonnollisena osana paikannukseen. Ennen varsinaista asiaa muistutamme mieleen hieman matriisilaskentaa kappaleessa Matriisilaskentaa Käsittelemmä tässä kappaleessa paikannuksessa tarvittavaa matriisilaskentaa. Aluksi hieman kertausta ja merkintöjen esittelyä listan muodossa. Olkoon A R m n reaalimatriisi. Tällöin matriisin A nolla-avaruus N (A) = {x R n Ax = 0}. matriisin A pystyriviavaruus R (A) = {y R m y = Ax;x R n }. dim(r (A T )) = dim(r (A)) = rank(a). Ei ole ollenkaan itsestään selvää mitä tarkoittaa sana paras. Mallinnuksen eräs tarkoitus on määrittää kriteeri, jolla vertaillaan paremmuutta. Usein tämä kriteeri on nk. kustannusfunktio, joka on esimerkiksi muotoa y f( ˆx) 2 tai E( x ˆx 2 ). 4
5 dim(n (A)) + rank(a) = n (Dimensiolause). A on symmetrinen jos A T = A. A on ortogonaalinen jos A T A = I, tällöin matriisin A pystyrivejä kutsutaan ortonormaaleiksi. A R n n on idempotentti jos AA = A. A R n n ja Ax = λx, missä x 0. Tällöin λ on matriiisin A ominaisarvo ja x on siihen liittyvä ominaisvektori. Esimerkki 1. Olkoon A idempotentti ja λ matriisin A mielivaltainen ominaisarvo ja x sitä vastaava ominaisvektori. Tällöin λx = Ax = AAx = λ 2 x = λ = 1 tai λ = 0, joten matriisin A kaikki ominaisarvot ovat joko ykkösiä tai nollia. Olkoon A R n n symmetrinen reaalimatriisi A on positiivisesti definiitti jos x T Ax > 0 kaikilla x 0, merkitään A > 0. A on positiivisesti semidefiniitti jos x T Ax 0 kaikilla x, merkitään A 0. A > B jos A B > 0 ja A B jos A B 0. Esimerkki 2. Jos A 0 ja λ matriisin A mielivaltainen ominaisarvo ja x sitä vastaava ominaisvektori. Tällöin λx = Ax = λ x 2 = x T Ax 0 = λ 0, joten matriisin A kaikki ominaisarvot ovat epänegatiivisia. Lause 1 (Schurin lause). Olkoon A R n n symmetrinen. Tällöin on olemassa ortogonaalinen neliömatriisi Q ja diagonaali matriisi Λ siten että A = QΛQ T. (1.2) Koska Q on ortogonaalinen neliömatriisi niin Q T on sen käänteismatriisi. Yhtälöstä (1.2) seuraa, että AQ = QΛ, joten diagonaalimatriisin Λ diagonaalialkiot ovat matriisin A ominaisarvot ja matriisin Q pystyrivit ovat näihin ominaisarvoihin liittyvät normalisoidut ominaisvektorit. Määritelmä 1 (Matriisin A 0 neliöjuuri). Schurin lauseen mukaan symmetrinen positiivisesti semidefiniitti matriisi A R n n voidaan kirjoittaa muotoon A = Q λ 1,...λ n Q T. missä λ i 0 kaikilla i {1,...,n} (Esimerkki 2). Määritellään matriisin A neliöjuureksi A 1 2 = Q λ1,... λ n Q T. Yleensä matriisia B kutsutaan matriisin A neliöjuureksi jos A = BB. Joissakin tapauksessa myös matriisia C kutsutaan matriisin A neliöjuureksi jos A = CC T. Kumpikaan yllä olevista matriiseista (B tai C) ei ole yksikäsitteinen. Huomaa, että matriisi Σ toteuttaa molemmat määritelmät ja on yksikäsitteinen. 5
6 1.2 Ylimäärätty lineaarinen yhtälöryhmä Tarkastellaan lineaarista yhtälöryhmää Ax = y, (1.3) missä A R m n ja y R m. Jos m > n niin systeemiä kutsutaan ylimäärätyksi, jollainen voi esiintyä esimerkiksi silloin kun mittauksia on enemmän kuin tuntemattomia. Yleisesti ottaen ylimäärätyllä ryhmällä ei ole tarkkaa ratkaisua, jolloin eräs mahdollisuus on etsiä ryhmän nk. pienimmän neliösumman ratkaisu eli Oletetaan, että rank(a) = n. Koska (harjoitustehtävä 1.3) niin yhtälön (1.4) ratkaisu on ˆx = argmin x y Ax 2. (1.4) y Ax 2 = A((A T A) 1 A T y x) 2 + y A(A T A) 1 A T y 2, (1.5) ˆx = (A T A) 1 A T y. (1.6) Mikäli yhtälöryhmää Ax = y on tarkoitus ratkaista Matlab ohjelmistolla niin kannattaa käyttää takakeno-komentoa A\y. Yleisemmässä muodossa lineaarinen yhtälöryhmä esiintyy muun muassa Matriisilaskenta 1 kurssilla [29]. Esimerkki 3. Olkoon mittaus y ja alkuarvaus x 0 annettu. Laske estimaatti ˆx, joka minimoi lausekkeen y Hx 2 + x 0 x 2. ˆx = argmin x ( y Hx 2 + x 0 x 2 ) ( [ ] [ ] y H = argmin x x x 0 I 2 ) (1.6) = ( H T H+I ) 1( H T y+x 0 ). Esimerkki 4. Autoilija ajoi suoraa tietä ja sai seuraavat kaksiulotteiset paikkaratkaisut {[ 1 0 ] [ 0, 0 ] [ 0, 1 ] [ 1, 1 ] ja [ 2 2 ] }, [ xi y i ] Ratkaise tien yhtälö y = ax+b siten että virhe 5 i=1 y i (ax i + b) 2 minimoituu. Nyt 5 i=1 y i (ax i + b) 2 = [ a b ] 2 = y Az 2
7 Yhtälön (1.6) mukaan ratkaisu on [ ẑ = (A T A) 1 A T 6 2 y = 2 5 ] 1 [ 5 4 Joten ratkaistu tien yhtälö on y = x ] = 1 [ ][ 5 4 ] = [ ]. 1.3 Todennäköisyyslaskenta Tässä luvussa kerrataan lyhyesti todennäköisyyslaskennan perusteita keskittyen normaalijakaumaa ja ehdolliseen todennäköisyyteen. Satunnaismuuttujan määritelmää ei anneta tässä, määritelmä löytyy prujusta [13]. Tässä kappaleessa merkitään satunnaismuuttujaa tummennetulla symbolilla esim. x, joka voi olla joko vektori- tai skalaariarvoinen satunnaismuuttuja. Myöhemmissä kappaleissa tummennetun symbolin merkitys selviää asiayhteydestä. Satunnaismuuttujan x tiheysfunktiota merkitään f x (x) tai p x (x) ja kertymäfunktiota F x (x). Satunnaismuuttujien riippumattomuus on keskeinen käsite: sitä tarvitaan muun muassa suodatuksessa luvussa 3. Määritelmä 2 (Riippumattomuus). Satunnaismuuttujat x 1,...,x k ovat riippumattomia, jos F x1,...,x k (x 1,...,x k ) = k i=1 F xi (x i ), x 1,...,x n R n. Lause 2. Satunnaismuuttujat x 1,...,x k ovat riippumattomia, jos ja vain jos f x1,...,x k (x 1,...,x k ) = k f xi (x i ), x 1,...,x n R n. i=1 Esimerkki 5. Olkoon kaksiulotteisen satunnaismuuttujan x = [x 1,x 2 ] tiheysfunktio { 1π, kun x f x1,x 2 (x 1,x 2 ) = x , muulloin Ovatko satunnaismuuttujat x 1 ja x 2 riippumattomat? Nyt reunajakaumien tiheysfunktiot ovat f x1 (x 1 ) = f x2 (x 2 ) = Koska esimerkiksi Z Z { f x1,x 2 (x 1,x 2 )dx 2 = { f x1,x 2 (x 1,x 2 )dx 1 = 2 π 1 x 2 1, kun x 1 1 0, muulloin 2 π 1 x 2 2, kun x 2 1 0, muulloin ja. f x1 (0) f x2 (0) = 4 π 2 1 π = f x 1,x 2 (0,0), niin lauseen 2 mukaan satunnaismuuttujat x 1 ja x 2 eivät ole riippumattomat. 7
8 Määritelmä 3 (Odotusarvo). Oletetaan, että x on jatkuva satunnaismuuttuja ja integraali Z g(u) f x (u)du suppenee. Tällöin satunnaismatriisin g(x) odotusarvo on E(g(x)) = Odotusarvon lineaarisuudesta seuraa, että Z Lause 3. Jos A R p n ja b R p ovat vakioita, niin g(u) f x (u)du. E(Ax+b) = AE(x)+b. Satunnaismuuttujan x odotusarvon µ x = E(x) lisäksi satunnaismuuttujan (x µ x )(x µ x ) T odotusarvo on tärkeä suure. Tätä odotusarvoa kutsutaan satunnaismuuttujan x kovarianssimatriisiksi ja merkitään Σ x = V(x) = E((x µ x )(x µ x ) T ). Huomaa, että kovarianssimatriisi Σ x 0. Satunnaismuuttujan x korrelaatiomatriisi on R x = DΣ x D, (1.7) missä D on lävistäjämatriisi, jonka lävistäjällä on kovarianssimatriisin Σ x lävistäjäalkioiden käänteislukujen neliöjuuret. Esimerkki 6. Olkoon x i riippumattomasti samoin jakautuneita jatkuvia satunnaismuuttujia, siten että E(x i ) = µ ja V(x i ) = Σ. Määritellään satunnaismuuttuja x = 1 n n i=1 x i. Nyt E( x) = V( x) = Z ( 1 n Z ( 1 n = 1 n 2 n i=1 n i=1 n i=1 n Z j=1 ) n x i f xk (x k )dx 1 dx n = 1 n k=1 (x i µ) )( 1 n n j=1 n i=1 Z x i f xi (x i )dx i = µ T n (x j µ)) f xk (x k )dx 1 dx n k=1 (x i µ)(x j µ) T n f xk (x k )dx 1 dx n = 1 k=1 n Σ. ja Satunnaismuuttujaa x kutsutaan parametrin µ harhattomaksi estimaattoriksi koska E( x µ) = 0. Lisäksi koska V( x) = 1 nσ 0, kun n, niin tästä seuraa estimaattorin tarkentuvuus eli jokaisella ε > 0 P( x µ > ε) 0, kun n Normaalijakauma Oletetaan, että yksiulotteinen jatkuva normaalijakauma on tunnettu. Määritellään n-ulotteinen normaalijakauma seuraavasti. 8
9 Määritelmä 4 (Normaalijakauma). Olkoon x n-dimensionaalinen satunnaismuuttuja, µ R n ja 0 Σ R n n. Tällöin x noudattaa n-ulotteista normaalijakaumaa parametrein µ ja Σ, jota merkitsemme x N(µ,Σ) tai x N n (µ,σ), jos satunnaismuuttujalla a T x noudattaa yksiulotteista jatkuvaa nomaalijakaumaa tai on vakiosatunnaismuuttuja jokaisella kiinteällä vektorilla a R n. Olkoon x N(µ, Σ) tällöin normaalijakauman parametrit ovat satunnaismuuttujan x odotusarvo µ = E(x) ja kovarianssimaatriisi Σ = V(x). Olkoon x N(µ,Σ), jos Σ > 0 niin tällöin satunnaismuuttujan x tiheysfunktio on ( 1 f x (x) = (2π) 2 n exp 1 ) det(σ) 2 (x µ)t Σ 1 (x µ). (1.8) Mikäli Σ ei ole positiividefiniitti niin se on singulaarinen, jolloin puhutaan singulaarisesta normaalijakaumasta. Singulaariseen normaalijakaumaan törmää tälläkin kurssilla. Esimerkiksi luvussa 3 tilamallin virhe w k 1 (3.1) voi hyvin noudattaa singulaarista normaalijakaumaa. Tämä tapahtuu esimerkiksi silloin kun tiedämme, että käyttäjä on paikallaan, jolloin paikan tilamallina on yksinkertaisesti x k = x k 1 + w k 1, missä w k 1 N(0,0). Esimerkki 7 (Normaalijakauman visualisointi). Kuvassa 1.1 on havainnollistettu satunnaismuuttujan missä Σ = tiheysfunktiota alueessa [ {[ x1 x 2 ] = 1 [ ] x N(0,Σ), (1.9) ][ } R 2 x 1 12 ja x ] 1 5 [ ], f x x x x 1 x 1 Kuva 1.1: Kuvassa on havainnollistettu normaalijakauman (1.9) tiheysfunktiota kahdella eri tavalla. 9
10 Vasemmalla puolella kuvassa 1.1 on piirretty tiheysfunktion (1.8) arvoja ja oikealla puolella on piirretty tiheysfunktion tasa-arvokäyrä, jonka sisällä on 68% todennäköisyysmassasta, katso harjoitustehtävä Oikean puoleiseen kuvaan on myös piirretty janat jotka ovat ominaisvektoreiden suuntaisia ja joiden pituus on verrannollinen vastaavien ominaisarvojen neliöjuureen. Lause 4. Jos x N(µ,Σ) ja y = Ax+b niin y N(Aµ+b,AΣA T ). Esimerkki 8 (Normaalisti jakautuneiden satunnaismuuttujien generointi). Jos u N n (0,I) niin satunnaismuuttuja x = Σ 1 2 u+µ on normaalijakautunut parametrein µ ja Σ (lause 4) ts. x N n (µ,σ). Joten jos osaamme generoida satunnaismuuttujia normaalijakaumasta N n (0,I) niin osaamme generoida satunnaimuuttujia mielivaltaisesta normaalijakaumasta N n (µ,σ). Matlab-ohjelmalla tämä tapahtuu esimerkiksi komennolla: x=sqrtm(sigma)*randn(n,1)+mu Kuvassa 1.2 on piirretty sadan kappaleen otos, osa otoksesta on kuvan ulkopuolella, esimerkissä 7 olleesta normaalijakaumasta (1.9). Näin ollen voit verrata kuvaa 1.2 kuvaan x x 1 Kuva 1.2: 100 näytteen otos normaalijakaumasta (1.9). Lause 5. Olkoon x N(µ,Σ). Tällöin Ax ja Bx ovat riippumattomia jos ja vain jos AΣB T = 0. Esimerkki 9. Olkoon [ ] ([ x x N y ȳ ] [ Σxx Σ, xy Σ yx Σ yy Ovatko satunnaismuuttujat z ja y riippumattomat? ]) ja z = x Σ xy Σ 1 yy y. 10
11 Koska [ I Σxy Σ 1 yy ] [ Σ xx Σ xy Σ yx Σ yy = [ Σ xx Σ xy Σ 1 yy Σ yx niin satunnaismuuttujat z ja y = [ 0 ][ 0 I = [ Σ xx Σ xy Σ 1 yy Σ yx 0 ][ 0 I I ][ x y ] Σ xy Σ xy Σ 1 yy Σ yy ] = 0 ] [ 0 I ] ovat riippumattomat (Lause 5). ] χ 2 -jakauma Määritelmä 5. Satunnaismuuttuja z on χ 2 jakautunut vapausastein n, merkitään z χ 2 (n), mikäli sillä on sama jakauma kuin satunnaismuuttujalla x T x, missä x N n (0,I). Esimerkki 10. Olkoon x N n (µ,σ) ei-singulaarinen satunnaismuuttuja. Nyt Σ 1 2(x µ) N(0,I), jollon (x µ) T Σ 1 (x µ) χ 2 (n). Määritelmä 6. Satunnaismuuttuja z on epäkeskeisesti χ 2 jakautunut vapausastein n ja epäkeskeisyysparametrein λ, merkitään z χ 2 (n,λ), mikäli sillä on sama jakauma kuin satunnaismuuttujalla x T x, missä x N n (µ,i) ja λ = µ T µ χ 2 (2,0) χ 2 (3,0) χ 2 (4,0) χ 2 (2,4) χ 2 (3,4) χ 2 (4,4) Kuva 1.3: χ 2 -jakaumien tiheysfunktioita. Lause 6. Olkoon x N n (µ,σ) ei-singulaarinen satunnaismuuttuja ja matriisi A symmetrinen sekä matriisi AΣ idempotentti. Tällöin x T Ax χ 2( rank(a),µ T Aµ ). 11
12 Todistus. Olkoon B = Σ 1 2 AΣ 1 2. Matriisi B on symmetrinen koska matriisit A ja Σ 1 2 ovat symmetrisiä ja idempotentti koska BB = Σ 1 2 AΣAΣ 1 2 = Σ 1 2 AΣAΣΣ 1 2 idemp. = Σ 1 2 AΣΣ 1 2 = B. Schurin lauseen (Lause 1) ja esimerkin 1 mukaan [ Irank(B) 0 B = Q 0 0 ] Q T, missä Q on ortogonaalinen. Harjoitustehtävä 1.2 on näyttää, että rank(b) = rank(a). Määritellään rank(a)-dimensionaalinen satunnaismuuttuja y = [I rank(a),0]q T Σ 1 2 x. Nyt lauseen 4 mukaan Määritelmän 6 mukaan x T Ax = x T Σ 1 2 Q [ Irank(A) y N([I rank(a),0]q T Σ 1 2 µ,irank(a) ). ] Q T Σ 1 2 x = y T y χ 2 (rank(a),µ T Aµ) Ehdollinen tiheysfunktio Bayeslaisessa todennäköisyyslaskennassa ehdollinen tiheysfunktio on keskeisessä asemassa. Määritelmä 7 (Ehdollinen tiheysfunktio). Satunnaismuuttujan x ehdollinen tiheysfunktio ehdolla y = y määritellään yhtälöllä pisteissä, joissa nimittäjä on positiivinen. f x y (x y) = f x,y(x,y), f y (y) Lauseen 2 mukaan huomaamme, että satunnaismuuttujat x ja y ovat riippumattomat jos ja vain jos f x y (x y) = f x (x). Ehdollinen odotusarvo määritellään vastaavasti. Määritelmä 8 (Ehdollinen odotusarvo). Satunnaismuuttujan x ehdollinen odotusarvo ehdolla y = y määritellään yhtälöllä E(x y = y) = Z x f x y (x y)dx. On hyvä huomata, että ehdollinen odotusarvo E(x y = y) riippuu satunnaismuuttujan y saamasta arvosta y ja on näin ollen itsekin satunnaismuuttuja, joka on määritelty samassa todennäköisyysavaruudessa kuin satunnaismuuttuja y. 12
13 Esimerkki 11 (Ehdollinen tiheysfunktio). Oletetaan että käyttäjän tila x on normaalijakautunut x N(0, 16) ja saadaan mittaus y = 3 2 x+v, missä virhe [ v ] N(0, 16) on riippumaton tilasta (satunnaismuuttujasta x). Tällöin yhteisjakauman tiheysfunktio on satunnaismuuttujien x ja v tiheysfunktioiden tulo. Harjoitus- x v tehtävän (1.13) perusteella [ ] x N(0,16 I), (1.10) v jolloin lauseen 4 mukaan [ x y ] ( [ N 0, ]). (1.11) Harjoitustehtävänä (1.14) on näyttää, että tällöin ( ) 6 64 x y N y,. (1.12) Esimerkiksi jos saadaan havainto y = 12 niin tällöin satunnaismuuttujan x ehdollinen jakauma ehdolla y = 12 on N( , ). Graafisesti ehdollinen tiheysfunktio saadaan normalisoimalla tasolla y = y oleva tiheysfunktio-osa. Vertaa kuvassa 1.1 vasemmalla puolella tasolla y = 12 olevaa funktiota ja saatua normaalijakauman tiheysfunktiota (Kuva 1.4) x 1 Kuva 1.4: Kuvassa on piirretty normaalijakauman N( 5 7 jota voi verrata kuvan 1.1 vasempaan puoleen. 13, ) tiheysfunktio välillä [ 12,12], 13
14 1.4 Koordinaatistot JUSSI COLLIN Jotta paikannus olisi mielekästä, on paikkaratkaisut annettava etukäteen sovitussa koordinaatistossa. Lineaarinen koordinaatisto muodostetaan origon ja kannan avulla, esimerkiksi (O, u, v, w), missä vektorit u, v ja w ovat lineaarisesti riippumattomia. Nyt mikä tahansa paikka voidaan esittää komponenttiesityksenä r = xu + yv + zw, ja koordinaatit x, y ja z ovat yksikäsitteisesti määrättyjä. Paikannuksessa törmää usein myös käyräviivaisiin koordinaatistoihin, esimerkiksi pallokoordinaatistossa paikka ilmaistaan koordinaateilla (r, θ, ϕ). Tässä r on pisteen etäisyys origosta, kulma on θ kolatitudi ja kulma ϕ on atsimuuttikulma. Tarkastellaan kuitenkin lähemmin asiaan liittyvää geodeettista koordinaatistoa. Ensin generoidaan pyörähdysellipsoidi pyöräyttämällä ellipsiä pikkuakselin ympäri. Tämä ellipsoidi yleensä karakterisoidaan kahdella parametrilla, isoakselin pituus a, ja litistyssuhde f = a b a (b on pikkuakselin pituus). Geodeettiset koordinaatit tässä koordinaatistossa on määritelty kuvan 1.5 mukaisesti. x λ z Kuva 1.5: Geodeettiset koordinaatit. Kuvassa myös vastaavan suorakulmaisen koordinaatiston akselit φ P h y φ, geodeettinen leveysaste. Huomaa että kyseessä on ekvaattoritason ja ellipsoidipinnan normaalin välinen kulma. λ, geodeettinen pituusaste. Referenssimeridiaanin ja paikan P meridiaanin välinen kulma. h, geodeettinen korkeus. Etumerkillinen etäisyys ellipsoidista. Matemaattisen määritelmän lisäksi koordinaatisto pitää sitoa maastoon. Ongelmana tässä on maapallon dynaamisuus maapallo ei ole jäykkä kappale. Koordinaatiston realisaatio sidotaankin johonkin ajanhetkeen, eli epookkiin. Tyypillisesti origo on maapallon massakeskipiste, positiivinen z-akseli kulkee pohjoisnavan läpi, referenssimeridiaani kulkee Greenwichin observatorion läpi ja isoakselin pituus sekä litistyssuhde saadaan sovittamalla ellipsoidi mahdollisimman hyvin maapallon keskimääräiseen merenpinnankorkeuteen. GPS-järjestelmä käyttää World Geodetic System 84 (WGS-84) koordinaattijärjestelmää [39]. Suomalainen koordinaattijärjestelmän realisaatio (EUREF-FIN) on määritelty Julkisen hallinnon suosituksessa 153 [12]. 14
15 1.4.1 Koordinaatiston vaihto Paikannuslaskuissa joudutaan hyvin usein vaihtamaan koordinaatistoa. Esimerkiksi GPSlaskuissa aloitetaan inertiakoordinaatistosta (satelliittien radat), siirrytään geodeettisiin koordinaatteihin (maapallon mukana pyörivä koordinaatisto) ja lopuksi yleensä käytetään vielä lokaalia koordinaatistoa jotta saadaan paikka tulostettua 2D kartalle. Inertiapaikannuslaskuissa koordinaatistoja joudutaan vaihtamaan ehkä vieläkin useammin; anturit muodostavat oman koordinaatiston, anturimittaukset ovat suhteessa inertiakoordinaatistoon ja gravitaation laskemiseen tarvitaan sijainti geodettisessa koordinaatistossa. Merkitään A-koordinaatit vektorilla m A = [α 1 α 2 α 3 ] T ja B-koordinaatit vektorilla m B = [β 1 β 2 β 3 ] T. Tässä siis α i ovat paikan P koordinaatit koordinaatistossa A ja β i ovat saman paikan koordinaatit koordinaatistossa B. Koordinaatiston vaihdossa etsitään funktiota f B A(m A ) = m B. (1.13) Lineaarisissa koordinaatistoissa tämä funktio on helppo löytää. Oletetaan että koordinaatistoilla on yhteinen origo. Paikkavektori q voidaan kirjoittaa kantavektoreiden ja koordinaattien avulla: q = X A m A q = X B m B, missä X:n sarakkeet ovat kyseisen koordinaatiston kantavektorit. Kantavektoreista muodostettu matriisi on ei-singulaarinen, joten etsitty muunnos saadaan laskemalla m B = X 1 B X Am A. Tulevissa yhtälöissä käytetyt kantavektorit ovat ortonormaaleja, ja silloinhan X 1 = X T. Lisäksi asetetaan A:lle luonnollinen kanta X A = I, eli [e 1,e 2,e 3 ] jolloin muunnos yksinkertaistuu muotoon m B = X T Bm A. Nyt voidaankin määrittää paikannuksessa usein käytetty suuntakosinimatriisi C B A : m B = C B Am A, (1.14) jossa m A on siis vektori ilmaistuna koordinaatiston A koordinaateissa ja m B on sama vektori koordinaatiston B koordinateissa. Harjoitustehtävänä osoitat että cos(u,e 1 ) cos(u,e 2 ) cos(u,e 3 ) C B A = cos(v,e 1 ) cos(v,e 2 ) cos(v,e 3 ), (1.15) cos(w,e 1 ) cos(w,e 2 ) cos(w,e 3 ) missä (u, v, w) on B:n ortonormaali kanta. Koordinaatiston vaihto takaisin A:n on helppoa, koska C A B = (CB A ) 1 = (C B A )T. Ketjusääntöä tarvitaan erityisesti inertiapaikannuslaskuissa: C D A = C D B C B A. (1.16) Yhtälö (1.15) on varsin mukavassa muodossa koordinaatistojen kiertoja ajatellen. 15
16 Esimerkki 12. Oletetaan että koordinaatistot A1 ja A2 ovat aluksi yhtenevät. Kierretään A2 koordinaatistoa z-akselin ympäri kulman θ verran. Koordinaatistoa A1 käyttävä paikantaja huomaa kiinnostavan esineen paikassa a A1 = [1 1 1] T. Mistä koordinaatistoa A2 käyttävä paikantaja löytää tämän esineen? Vastaus: Kierrot on hyvä heti määritellä oikeakätisiksi, eli vektorin v positiivinen kierto akselin w ympäri vie v:n kärkeä suuntaan w v. Huom: Koordinaatiston kierrossa jokainen kantavektori kierretään. Nyt onkin helppo havaita että z-akseli ei muutu. Muut kulmat yhtälöstä (1.15) on myös helppo löytää: C A2 A1 = cos(θ) cos( π 2 θ) cos( π 2 ) cos( π 2 + θ) cos(θ) cos( π 2 ) cos( π 2 ) cos( π 2 ) cos(0) (1.17) Ratkaisu kysymykseen on siis a A2 = C A2 A1 aa1 = [cos(θ)+sin(θ) cos(θ) sin(θ) 1] T. Jotta päästään yleisempiin pyörityksiin on hyvä esitellä muutamia asiaa helpottavia matemaattisia työkaluja. (a ) tarkoittaa ristitulon (3x3) matriisimuotoa: a b = (a )b = 0 a z a y a z 0 a x a y a x 0 b (1.18) Suuntakosinimatriisi ei ole ainoa tapa kuvata koordinaatistojen orientaatioita. Voidaan todistaa (katso esimerkiksi [33] ), että suuntakosinimatriisi on esitettävissä muodossa C A1 A2 sin(p) = I+ (p )+ 1 cos(p) p p 2 (p )(p ), (1.19) missä p on pyörähdysvektori (rotation vector) ja p sen pituus. Kun koordinaatistoa A1 pyöritetään akselin p ympäri kulman p verran, saadaan uusi koordinaatisto A2, ja yhtälö (1.19) kertoo suuntakosinimatriisin ja pyörähdysvektorin välisen yhteyden. Harjoitustehtävänä toteat, että ei ole väliä ilmoitetaanko pyörähdysvektori koordinaatiston A1 vai A2 koordinaateissa. Esimerkin 12 pyörähdysvektori on p = [0 0 θ] T, ja harjoitustehtäväksi jää osoittaa että kun tämä sijoitetaan kaavaan (1.19) saadaan sama matriisin (1.17) transpoosi, kuten pitääkin. 16
17 1.5 Liikkuvat koordinaatistot Lineaarisesti toisiinsa nähden liikkuvien koordinaatistojen muunnokset ovat käytännössä nopeuksien yhteenlaskua ja origon siirtoa. Tässä kappaleessa keskitytäänkin mieluummin pyöriviin koordinaatistoihin. Aloitetaan aluksi yksinkertaisesta pyörimisestä, eli pidetään kulmanopeus ja pyörähdysvektorin suunta vakiona. Oletetaan jälleen että koordinaatistot A1 ja A2 ovat aluksi (t = 0) yhtenevät. Tällöin pyörähdysvektori voidaan esittää muodossa p = ωtu, (1.20) jossa ω (= ṗ) on kulmavauhti (rad/s), t on aika ja u on yksikkövektori. Yhtälön (1.20) derivaatta ajan suhteen on siis kulmanopeus w = ṗ = ωu. (1.21) Nyt yhtälön (1.19) derivaatta ajan suhteen on Ċ A1 A2 = ωcos(ωt)(u )+ωsin(ωt)(u )(u ) = [I cos(ωt) + sin(ωt)(u )](w ) (1.22) Tässä kohdassa kannattaa huomata että C A1 A2 (w ) antaa saman tuloksen. Tämä muoto onkin mukavampi, esimerkiksi Coriolis-yhtälö voidaan nyt johtaa helposti: n A = C A B nb dn A dt dn A dt dn A dt dn A dt = dca B nb dt = dca B dt n B + C A B dnb dt = C A B (w )nb + C A B dnb dt = C A B [ dnb dt + w n B ] (1.23) Ketjusäännön avulla päästään eroon alkuhetken rajoituksesta, eli jos aluksi (t = 0) koordinaatistojen välinen yhteys on C A1 A2(0) niin ja matriisi C A1 A2(0) on vakio ajan suhteen eli C A1 A2 = CA1 A2(0) CA2(0) A2 Ċ A1 A2 = CA1 A2(0)ĊA2(0). Tämän jälkeen onkin oltava tarkempi kulmanopeusvektorin kanssa, INS kirjallisuudessa tapaa usein merkinnän w B IB, mikä tarkoittaa B-koordinaatiston kulmanopeutta I-koordinaatiston suhteen (w IB ), ja vektori on ilmaistu B-koordinaatistossa (w B ). Alaindeksiä ei siis kannata sekoittaa suuntakosinimatriisin alaindeksiin. I-koordinaatistolla tarkoitetaan inertiakoordinaatistoa (ei pyöri eikä kiihdy avaruudessa), ja B-koordinaatisto on laitteeseen sidottu koordinaatisto. w B IB on itseasiassa ideaalisen gyrotriadin ulostulo. Asian toteamista helpottaa kaava (a )(a ) = a 2 I+aa T 17
18 Inertiapaikannuksessa tarvitaan seuraavia koordinaatistoja: Inertiakoordinaatisto (I), ei-pyörivä, ei-kiihtyvä koordinaatisto. Newtonin liikelait toimivat tässä koordinaatistossa. Jossain tapauksissa (suhteellisuusteoria) pitää vielä olettaa että I-koordinaatisossa ei ole gravitaatiota, mutta tämän kurssin laskuihin I- koordinaatiston approksimaatioksi käy nk. ECI (Earth Centered Inertial) koordinaatisto. ECI:n origo on maan massakeskipiste, ja akselit pitävät suuntansa tähtiin nähden. Maapalloon sidottu koordinaatisto (E), koordinaattiakselit on sidottu maapalloon, z-akseli on maapallon pyörimisakselin suuntainten, x- ja y-akselit ovat päiväntasaajan tasossa. Kirjallisuudessa käytetään usein lyhennettä ECEF (Earth Centered Earth Fixed). Maapallon pyörimisen vuoksi w E IE [ ] T (rad/s). Paikallinen koordinaatisto (L), akselit määrittävät suunnat ylös-alas, pohjoinen-etelä ja länsi-itä. Usein käytetään ENU (East, North, Up) järjestystä, eli x-akseli osoittaa itään, y-akseli pohjoiseen ja z-akseli osoittaa ylös luotilangan suuntaisesti. Kun origoksi laitetaan käyttäjän paikka, on C E L on paikan funktio ja wl IL = wl IE +wl EL, missä viimeinen termi kuvaa käyttäjän liikettä maapallon suhteen. Laitteeseen sidottu koordinaatisto (B), nk. Body-frame. Inertiamittauksissa keskeinen koordinaatisto. Gyrojen mittaus on w B IB ja kiihtyvyysantureiden ab g B, missä a on kiihtyvyys ECI:ssä ja g on paikallinen gravitaatiokiihtyvyys Koska liikelait toimivat I-koordinaatistossa, ja anturitkin mittaavat liikettä tämän koordinaatiston suhteen, koordinaatistojen B-L-E-I dynamiikka on tärkeä hallita. Aloitetaan yhtälöstä ja nyt tiedetään että ylläolevan transpoosi on C L B = C L I C I B (1.24) Ċ I L = C I L(w L IL ) Ċ L I = (w L IL )C L I. Derivoidaan yhtälö (1.24) ajan suhteen molemmin puolin: Ċ L B = Ċ L I C I B + C L I ĊI B Kun vielä muistetaan että Ċ I B = CI B (wb IB ), niin päädytään yhtälöön Ċ L B = C L B(w B IB ) (w L IL )C L B. (1.25) Yhtälön (1.25) numeerinen integrointi on usein aiheena inertiapaikannusta käsittelevissä julkaisuissa, ja matriisin C L B tärkeys tulee myöhemmin selville inertiapaikannusosuudessa. Ylläolevat yhtälöt ovat toki käyttökelpoisia muissakin yhteyksissä. 18
19 Esimerkki 13. Satelliitti on ympyräradalla, jonka säde on R, ja inklinaatio i. Paikantaja on päiväntasaajalla ja huomaa satelliitin zeniitissä, menossa pohjoiselle pallonpuoliskolle. Mikä on satelliitin nopeus E-koordinaatistossa? Entä kiihtyvyys? Vastaus: Valitaan maakeskinen satelliittiin sidottu koordinaatisto S, jossa satelliitti on paikassa r S = [R 0 0] T. ECI koordinatiston x-akseli osoittakoon satelliittiin päin hetkellä t = 0, ja sovitaan että E- ja I-koordinaatistot ovat aluksi yhtenevät. Nyt voidaan havaita että w I IS = ω s[0 sin(i) cos(i)] T, missä ω s = 2π T, T on ratakierrokseen kuluva aika ja C E S = cos(i) sin(i) 0 sin(i) cos(i). Kun merkitään maapallon kulmavauhdiksi ω e, niin w E IE = [0 0 ω e] T. Käytetään yhtälöä (1.25) näihin koordinaatistoihin, eli Ċ E S = C E S (w S IS ) (we IE )C E S ja pienen kaavanpyörittelyn jälkeen saadaan hetkelle t = 0 0 ω s + ω e cos(i) ω e sin(i) Ċ E S = ω s cos(i) ω e 0 0 ω s sin(i) 0 0 (1.26) ja C E S = ω 2 s + 2ω s ω e cos(i) ω 2 e ω 2 s cos(i)+2ω sω e ω 2 e cos(i) ω2 e sin(i) 0 ω 2 s sin(i) 0. (1.27) Huom! nopeus E-koordinaatistossa tarkoittaa nyt: E-koordinaatistossa ilmaistun paikkavektorin muutos ajan suhteen. Se ei ole I-nopeusvektori ilmaistuna E-koordinaateissa (tähän palataan vielä INS-osuudessa). Eli ṙ E pitää käsittää olevan dt d (re ). Satelliitin paikka on S-koordinaatistossa vakio, eli ṙ S = 0 ja r S = 0. Vastaukseksi saadaan siis ṙ E = Ċ E S r S = [0 R(ω s cos(i) ω e ) R(ω s sin(i))] T (1.28) ja r E = C E S r S = [R( ω 2 s + 2ω s ω e cos(i) ω 2 e) 0 0] T. (1.29) Jos kyseessä olisi GPS-satelliitti, sopivia lukuarvoja olisivat esim. i = rad, R = km, ω s = 151x10 6 rad/s, ja ṙ E = [ ] T m/s r E = [ ] T m/s 2 19
20 Koordinaatistojen väliset muunnokset yllä esitettiin matriisien avulla. Toinen yleinen tapa on käyttää kvaternionialgebraa, jolloin esimerkiksi matriisia (1.19) vastaa kvaternioni (ks. esimerkiksi [7, 32]) [ q A1 A2 = cos( 1 2 p) sin( 1 2 p)p/p ]. (1.30) Harjoitustehtäviä 1.1. Olkoon A R n n symmetrinen. Osoita, että A > 0 A : n ominaisarvot positiivisia A > 0 det(a) > 0 A > 0 A 1 > Olkoon matriisi B > 0 ja A samankokoinen symmetrinen matriisi. Osoita, että rank(bab) = rank(a) (a) Olkoon matriisin A R m n pystyrivit lineaarisesti riippumattomia (rank(a) = n). Näytä, että matriisi A T A on kääntyvä. (b) Osoita yhtälö (1.5) oikeaksi Olkoon matriisit A > 0 ja B > 0. Näytä, että matriisi A + B on kääntyvä Olkoon A = [ ] laske A Hae kaikki matriisit B R 2 2 siten, että BB = I, mitkä saaduista matriiseista ovat symmetrisiä ja positiivisesti definiittejä? 1.7. Käyttäjä on tasasivuisen kolmion muotoisen rakennuksen sisäpuolella, jonka seinän pituus on 6l. Käyttäjän mobiililaite pystyy mittaamaan etäisyyden jokaiseen seinään ja nämä etäisyydet ovat l, 2l ja 3l. Mikä käyttäjän pienimmän neliösumman estimaatti? 1.8. Olkoon A R p n ja b R p vakioita ja x satunnaismuuttuja siten että V(x) = Σ. Laske V(Ax+b) 20
21 1.9. Tarkastellaan systeemiä y = Hx+ε, missä ε N(0,σ 2 I). Mikä on estimaattorin ˆx = (H T H) 1 H T y jakauma? Onko estimaattori harhaton (E(x ˆx) = 0)? Anna kuvassa 1.1 oikealla puolella esiintyvän ellipsin yhtälö. (opa. Matlab: chi2inv(0.68,2) 2.279) Olkoon ([ 1 x N 1 Laske todennäköisyys P ( a T x 0 ). ] [ 5 4, 4 5 ]) ja a = [ 1 1 ] Olkoon satunnaismuuttuja x χ 2 (n,λ) jakautunut. Laske E(x) Olkoon x N( x,σ x ) ja y N(ȳ,Σ y ) riippumattomia satunnaismuuttujia, yksinkertaisuuden vuoksi oletetaan että kovarianssimatriisit ovat kääntyviä. Osoita, että [ ] ([ ] [ ]) x x Σx 0 N,. y ȳ 0 Σ y ([ ]) A B opa. Olkoon A ja C neliömatriiseita, tällöin det = det(a)det(c). 0 C Todista yhtälö (1.12) lähtien määritelmästä Johda suuntakosinimatriisi (1.15) Olkoon p koordinaatistojen A1 ja A2 välinen pyörähdysvektori. Osoita että p A1 = p A2. Jos C A1 A2 I, niin löytyykö q αp, α R joka toteuttaa qa1 = q A2? Kokeile kaavaa (1.19) vektoreilla p 1 = [ 0 0 θ ] T ja p2 = [ 0 0 θ ] T Paikantaja kävelee 5 km etelään, 5 km itään ja 5 km pohjoiseen, ja päätyy lähtöpaikkaan. Mistä paikantaja lähti? Vihje: Esitä liike suuntakosinimatriisien avulla, ja yritä löytää ne paikat joissa C 1 2 C2 3 C3 4 = I. 21
22 1.19. Magneettijuna kulkee Helsingistä Rovaniemelle 300 km/h vauhtia. Kuinka suuri sivuttaisvoima tarvitaan, jotta juna pysyy koko ajan pohjoissuuntaisella radalla? Mikä on maan pyörimisakselin ja junan kulkusuunnan välinen kulma ajan suhteen? Oletetaan pallonmuotoinen maapallo säteellä R, junan massa M ja yksinkertaistetaan Helsingin ja Rovaniemen koordinaatit: Helsinki: 60 o pohjoista leveyttä 25 o 0 00 itäistä pituutta Rovaniemi: 66 o pohjoista leveyttä 25 o 0 00 itäistä pituutta Olkoon matkapuhelimen koordinaatisto (B) seuraavasti määrätty: numeroiden osoittama suunta x-akseli, numeroiden osoittama suunta y-akseli, ja z-suunta x-akselin ja y-akselin ristitulo (näytöstä näytön katselijaan). Käännä puhelinta -90 astetta puhelimen y-akselin ympäri. Seuraavaksi, käännä puhelinta 90 astetta x-akselin ympäri. Lopuksi, käännä puhelinta 90 astetta y-akselin ympäri. Tee sama matemaattisesti, eli kirjoita suuntakosinimatriisit. Miten käy jos kiertojärjestystä muuttaa? Entä jos kierroissa käyttääkin kiertymättömän (esim. työpöytääsi sidotun) koordinaatiston akseleita? Osoita, että Opa: (1.19), (1.22) ja u T (u ) =... Ċ A1 A2 = C A1 A2(w ). 22
23 Luku 2 Staattinen paikkaratkaisu NIILO SIROLA Paikannuksella (positioning, localization) tarkoitetaan vastaanottimen koordinaattien ja mahdollisesti muiden mielenkiintoisten suureiden (nopeus, asento, kellovirhe, jne) estimointia. Paikannustehtävässä voi olla käytössä eri lähteistä tulevia ja monen tyyppisiä mittauksia, jolloin ongelman ratkaisemiseksi muodostetaan ensin mittauksia kuvaava matemaattinen malli, ja sovelletaan siihen sopivaa matemaattista koneistoa. Mikään malli ei kuvaa todellisuutta tarkasti, ja usein vaikka ilmiö tunnettaisiinkin kohtalaisen tarkasti päädytään silti käyttämään jotain yksinkertaisempaa mallia koska se sopii parhaiten siihen matemaattiseen menetelmään jota halutaan (osataan?) käyttää ongelman ratkaisuun. Staattisella paikkaratkaisulla, erotuksena aikasarjaan jota käsitellään luvussa 3, tarkoitetaan yksittäisen paikkaestimaatin laskemista useasta samanaikaisesti tehdystä mittauksesta, riippumatta aimmista tai tulevista mittauksista tai estimaateista. Valitusta mittausmallista riippuen paikannustehtävä voidaan muotoilla epälineaarisen yhtälöryhmän ratkaisemiseksi joko pienimmän neliösumman mielessä (kappale 2.3), tarkasti (kappale 2.4), tai uskottavuudet (kappale 2.5) tai todennäköisyyden suhteen (kappale 2.6). Suurin osa staattiseen paikannukseen tarvittavista menetelmistä tulee estimointiteoriasta, ks. esimerkiksi verkosta saatava Kuopion yliopiston luentomoniste [37]. 2.1 Mittausyhtälöt Kaikkia mittausprosessin yksityiskohtia ei yleensä joko tunneta tarkasti tai niitä ei ole järkevää ottaa mukaan malliin. Usein yksinkertaiset mallit ovat riittävän tarkkoja ilman että laskennasta tulee liian työlästä. Esimerkiksi mittausvirhe koostuu aina useista eri osatekijöistä joilla voi olla monimutkaisia keskinäisiä riippuvuuksia, mutta silti se melkein aina mallinnetaan yhdellä normaalijakautuneella termillä. 23
24 Mittausmalli voidaan esittää tiheysfunktiolla tai yhtälömuodossa. Aloitetaan yhtälömuodosta, joka on yksinkertaisempi mutta rajoittaa hieman mitä voidaan ottaa mittauksiksi (esim. kaikkien mittausten pitää olla numeerisia). Mittausten ajatellaan muodostuvan todellisesta arvosta ja virheestä: mittaus = teoreettinen arvo paikassa x + virhe. Kootaan kaikki mitatut arvot vektoriin y ja kirjoitetaan mittausyhtälöryhmä muotoon y = h(x)+v (2.1) jossa h saa olla mikä tahansa tunnettu vektoriarvoinen vektorifunktio ja v on mittausvirhevektori, jonka todennäköisyysjakauma oletetaan tunnetuksi. Esimerkki 14 (Mittausyhtälöitä). Etäisyysmittaus paikassa s olevaan asemaan voidaan kirjoittaa mittausyhtälönä r = s x +v, jossa r on mitattu etäisyys, x on paikka ja s x ( = h(x) ) on todellinen etäisyys. GPS:n pseudoetäisyysmittaus puolestaan voidaan kirjoittaa muotoon ρ = s x +b+v, s 1 jossa b on vastaanottimen kellovirheestä (clock bias) johtuva siirros metreinä. Koska myös kellovirhe b on ratkaistava tuntematon siinä missä paikkakin, liitetään se tilavektoriin siten että tilan kolme ensimmäistä komponenttia, merkitään x 1:3, sisältävät paikan ja viimeinen, x 4, kellovirheen. Jos mittauksia on useaan eri satelliittiin/asemaan, voidaan mittausyhtälöt (2.1) kirjoittaa vektorimuotoon ρ 1. ρ n = todellinen etäisyys s 2 kellovirhe pseudoetäisyys Kuva 2.1: Kellovirhe näkyy saman suuruisena virheenä kaikissa pseudoetäisyyksissä. s 1 x 1:3 +x 4 v s n x 1:3 +x 4 v n. s 3 Kun mittaukset on tehty ja mittausyhtälöt selvillä, haetaan paikka/tilaestimaatti ˆx joka sopii mittauksiin parhaiten. Ratkaisuja ja ratkaisumenetelmiä on erilaisia riippuen siitä mitä tarkoitetaan sanoilla sopii ja parhaiten. Aina ratkaisu ei ole edes yksikäsitteinen, vaan useampi paikkaehdokas voi sopia mittauksiin yhtä hyvin. Tosielämässä mittausvirheiden jakauman arvioiminen siirtotien, lähettimen ja vastaanottimen ominaisuuksien perusteella tai empiirisesti mittausdatasta on kokonaan oma ongelmansa johon tässä ei syvennytä. Oletetaan vain että jostain on saatu etukäteen tietää (eli arvattu) mittausvirheen jakauma tai edes varianssi. 24
25 2.2 Virhe- ja herkkyysanalyysi Itse paikka- tai tilaestimaatin lisäksi meitä kiinnostaa ratkaisun virhearvio. Mittauksissa on aina virheitä, joten paikkaestimaatin laskemisen jälkeen olennainen kysymys on kuinka lähellä todellista paikkaa estimaatin voidaan luvata olevan. Ennen varsinaista virheanalyysia on paikallaan luokitella eri tyyppisiä virheitä ja täsmentää mitä niistä nyt tutkitaan. luontaiset virheet: määräytyvät mittausvirheistä ja mittausgeometriasta mallinnusvirheet: väärät oletukset/arvaukset virheiden jakaumista tai riippuvuuksista, mittausresoluutio tai havaitsemiskynnys, väärät luonnonvakioiden arvot,... numeeriset virheet: johtuvat äärellisestä laskentatarkkuudesta (ja varomattomasta ohjelmoinnista) approksimaatio-, katkaisu- ja näytteistysvirheet: algoritmin tahallista optimointia muut: ympäristötekijät, laitteiston väärinkäyttö, koodausbugit,... Tässä luvussa käsitellään vain luontaisia virheitä, jolloin saadut virherajat ja -arviot tiukasti ottaen pitävät paikkansa vain jos muun tyyppisiä virheitä ei ole, eli kaikki mallit ovat oikein ja laskut tehdään äärettömällä tarkuudella. Käytännössä täten laskettuja virherajoja joudutaan tulkitsemaan varovasti: jos malli olisi oikein, niin... Muihin virhetyyppeihin puututaan robustisuuden ja luotettavuuden kautta luvussa 5. Estimaatin virhettä voidaan karakterisoida eri tavoin: Virhepropagaatio: kun mittausvirheiden (=syötteen) jakauma/kovarianssi tunnetaan, laske ratkaisun (=tulosteen) jakauma/kovarianssi Luotettavuusalueet: laske todennäköisyys että oikea paikka on annetun alueen sisällä, tai laske alue jonka sisällä paikka on esim. 95% todennäköisyydellä Herkkyysanalyysi: paljonko pienet muutokset mittauksissa muuttavat ratkaisua. Jos mittauksille y saadaan estimaatti ˆx, paljonko estimaatti muuttuu jos mittaus onkin ỹ = y + y, jossa muutos y oletetaan suhteellisen pieneksi? 2.3 Iteratiivinen pienin neliösumma Kirjoitetaan mittausyhtälöryhmä (2.1) uudelleen residuaalin avulla: p(x) = h(x) y. Residuaali kuvaa yhteensopimattomuutta mittausten ja oletetun paikan x välillä, ja jos mittaukset ovat virheettömiä se menee nollaan todellisessa paikassa (mutta mahdollisesti myös 25
26 muissa pisteissä). Pienimmän neliösumman menetelmän ideana on määrittää paikkaestimaatti ˆx joka minimoi lausekkeen p(x) T p(x). Jos mittausvirheitä ei ole, residuaali menee nollaan todellisessa paikassa x: p( x) = 0, jolloin residuaalin normin minimoinnin sijaan voitaisiin sama(t) ratkaisu(t) löytää myös ratkaisemalla mittausyhtälöryhmä suoraan (ks. kappale 2.4). Tavallisesti mittauksissa on aina virhettä, jolloin residuaalilla ei välttämättä ole lainkaan nollakohtia, ja paikkaestimaatti saadaan ratkaisemalla minimointitehtävä: ˆx = argmin x p(x) T p(x). (2.2) Epälineaarinen optimointi on vaativa ongelma eikä sille tunneta yleispätevää ratkaisukeinoa. Jos minimoitava funktio on hyvänlaatuinen ja käytössä on alkuarvaus riittävän läheltä minimiä, voidaan käyttää iteratiivista optimointimenetelmää, joissa ajatuksena on aloittaa alkuarvauksesta x 0 ja laskea siitä lähtien askeleet x 1,x 2, jne, kunnes ratkaisu ei enää muutu. Gauss-Newtonin menetelmässä [14, kappale 4.2.1], [18, s.93], [30, kappale 9.6] (jota paikannusyhteydessä yleensä nimitetään iteratiiviseksi pienimmän neliösumman menetelmäksi) residuaali linearisoidaan pisteen x k ympäristössä käyttämällä ensimmäisen asteen Taylorin kaavaa p(x k + x k ) p(x k )+p (x k ) x k ja koitetaan löytää sellainen askel x k, että linearisoitu residuaali menee nollaan: p(x k+1 ) = p(x k + x k ) p(x k )+p (x k ) x k = 0. Merkitään residuaalin Jacobin matriisia J k = p (x k ) = h (x k ) ja järjestetään yhtälö muotoon J k x k = p(x k ), jonka pienimmän neliösumman ratkaisu (1.6) on Iteraatioaskeleeksi saadaan täten x k = (J T k J k) 1 J T k p(x k). x k+1 = x k (J T k J k) 1 J T k p(x k). (2.3) Algoritmin toteutusta varten tarvitaan alkuarvaus x 0, josta lähtien iteraatiota toistetaan kunnes ratkaisu on supennut johonkin pisteeseen ˆx (tai maksimi-iteraatiomäärä tulee täyteen). Voidaan todistaa että iteraatio suppenee jos alkupiste on riittävän lähellä minimiä ja residuaalin toinen derivaatta on riittävän pieni [18]. Esimerkiksi satelliittipaikannuksessa maapallon keskipiste toimii paremman tiedon puutteessa alkuarvauksena koska mittausyhtälöt ovat lähes lineaarisia. Jos jotkut mittaukset ovat tarkempia kuin toiset, voidaan algoritmia vielä parantaa ottamalla mukaan painomatriisi joka pakottaa hyvälaatuiset mittausyhtälöt toteutumaan tarkemmin 26
27 Algoritmi 1 Gauss-Newtonin menetelmä (Iterative Least Squares) 1. Valitse alkuarvaus x 0 ja lopetustoleranssi δ. Aseta k = Laske J k = h (x k ). 3. Askel: x k+1 = x k + x k, jossa x k = J k \(h(x k ) y) 4. Jos lopetusehto x k < δ ei toteudu, kasvata k:ta ja toista kohdasta 2. Algoritmi 2 Painotettu Gauss-Newtonin menetelmä (Iterative Weighted Least Squares) 1. Valitse alkuarvaus x 0 ja lopetustoleranssi δ. Lisäksi tarvitaan mittauskovarianssimatriisi Σ = cov(v). Aseta k = Laske J k = h (x k ) 3. Askel: x k+1 = x k + x k, jossa x k = (Σ 1 2 J k )\ ( ) Σ 1 2 (h(x k ) y) 4. Jos lopetusehto x k < δ ei toteudu, kasvata k:ta ja toista kohdasta 2. kuin huonompilaatuiset. Kun painomatriisina käytetään mittauskovarianssimatriisin inverssiä ja ratkaistaan siis tehtävää ˆx = argmin x p(x) T Σ 1 p(x), (2.4) saadaan minimivarianssiestimaatti (todistus esim. [24, luku 6.A.1], tai epäsuorasti maksimiuskottavuuden avulla jäljempänä). Esimerkki 15 (Jacobin matriisin laskenta). Olkoon meillä etäisyysmittaukset kolmeen asemaan paikoissa s 1, s 2 ja s 3. Nyt mittausyhtälöryhmä on y 1 s 1 x v 1 y 2 = s 2 x + v 2. y 3 s 3 x v 3 Newtonin algoritmissa tarvittava Jacobin matriisi on J(x) = x h(x) = s 1 x x s 2 x s 1 x = x x s 2 x s 3 x x s 3 x = (s 1 x) T s 1 x (s 2 x) T s 2 x (s 3 x) T s 3 x eli oletetusta paikasta x kohti asemia osoittavat yksikkövektorit pinottuna matriisiksi. 27
28 2.3.1 Pienimmän neliösumman virheanalyysi Olkoon x todellinen paikka, ȳ virheettömät mittaukset ja mittausvirhe y. Jos pienimmän neliösumman menetelmä suppenee paikkaan ˆx = x+ x, iteraatioaskeleen (2.3) pituus tässä pisteessä on nolla, eli: (J T J) 1 J T (h( x+ x) (ȳ+ y)) = 0. Derivaattamatriisi J on toki x:n funktio, mutta jos x oletetaan pieneksi, J on lähes vakio tarkasteltavalla alueella ja mittausyhtälöt voidaan linearisoida h(ˆx) h( x)+j x ja saadaan (J T J) 1 J T (h( x) +J x (ȳ+ y)) = 0 }{{} =ȳ (J T J) 1 J T J x (J T J) 1 J T y = 0 x = (J T J) 1 J T y. Jos mittausvirhe on normaalijakautunut, y N(0, Σ), seuraa Lauseen 4 (s. 10) perusteella että x N ( 0,(J T J) 1 J T ΣJ(J T J) 1). (2.5) Erikoistapauksessa jossa mittausvirheet ovat jakautuneet riippumattomasti ja identtisesti, eli Σ = σ 2 I, paikan virhe sievenee muotoon x N ( 0,σ 2 (J T J) 1). Nyt mittausvirheistä johtuvan estimointivirheen kovarianssi koostuu kauniisti mittausvirheiden varianssin σ 2 ja mittausgeometriasta riippuvan matriisin (J T J) 1 tulosta. GPS-yhteydessä matriisista käytetään nimeä DOP matrix (Dilution of Precision) [24, kappaleet 6.A.1 2], josta voidaan laskea erilaisia DOPlukuja seuraavasti: Global/Geometric Dilution of Precision: GDOP = tr(j T J) 1 Position Dilution of Precision: PDOP = tr[(j T J) 1 ] (1:3,1:3) Horizontal Dilution of Precision: HDOP = tr[(j T J) 1 ] (1:2,1:2) Vertical Dilution of Precision: V DOP = [(J T J) 1 ] (3,3) Time Dilution of Precision: T DOP = [(J T J) 1 ] (4,4) DOP-lukujen hyöty on siinä että satelliittigeometrian hyvyys saadaan tiivistettyä yhteen lukuun, jonka jälkeen paikkavirheen hajontaa voidaan arvioida yksinkertaisesti kertomalla mittausvirheen hajonta DOP-luvulla. Jos mittauksilla on eri hajonnat, virhekaava (2.5) ei sievene DOP-muotoon, ks. tehtävä 2.5. Painotettakoon vielä että kaavan (2.5) johdossa virhe x oletettiin pieneksi jotta mittausfunktio h(x) pystyttiin linearisoimaan estimaatin ympäristössä. Mitä kaarevampia mittausyhtälöt ovat, sitä huonompi arvio paikan virheelle tällä tavalla saadaan. (ks. tehtävä 2.17) 28
29 Huomioita: 1. Painotettu pienimmän neliösumman menetelmä antaa varianssimielessä optimaalisia tuloksia kunhan mittauskovarianssi tiedetään, tai toisin päin ajateltuna, jos mittaukset noudattavat niille oletettua jakaumaa. Pienimmän neliösumman kriteeri on herkkä suurille mittausvirheille, roskamittauksille, joten ne tulisi havaita ja poistaa. 2. Jos mittausyhtälö on kovin epälineaarinen, Gauss-Newtonin menetelmä voi käyttäytyä huonosti ja jokin muu vapaa optimointimenetelmä kuten gradienttihaku tai Levenberg- Marquardt voi olla parempi. Jos mittausyhtälöissä on epäjatkuvuuskohtia, joudutaan ne yleensä joko muuttamaan jatkuviksi tai käyttämään jotain Monte Carlo -algoritmia. [30] 3. Mittausmalliin voidaan ottaa yhtälöiden lisäksi myös epäyhtälömuotoisia rajoitteita (esim. soluverkon sektoriraja), mutta silloin tehtävä muuttuu sidotuksi minimointitehtäväksi joka on kertaluokkaa vaikeampi ratkaista. 2.4 Suljetun muodon ratkaisut Suljetun muodon ratkaisu, tai suora ratkaisu, on yleisnimi sekalaiselle joukolle epä-iteratiivisia algoritmeja, joissa ei yleensä tarvita alkuarvausta iteraation aloittamiseen. Etuna on, ettei iteraation lopetusehtoja tarvitse virittää, eikä ole pelkoa väärään ratkaisuun suppenemisesta. Jos ongelmalle on useita ratkaisuja, suljetun muodon ratkaisu antaa ne kaikki. Yleispätevää suljetun muodon ratkaisua ei ole, vaan se pitää johtaa erikseen jokaiselle mittausmallille, esim. [3, 8, 22, 27]. Geometrisissa ratkaisuissa ajatellaan, että jokainen mittaus määrittää parametriavaruuteen jonkin pinnan jolla mittausyhtälö toteutuu, esimerkiksi etäisyysmittaus määrää kolmiulotteiseen paikka-avaruuteen pallopinnan, erotusetäisyysmittaus hyperboloidin, jne. Tehtävän ratkaisut ovat kaikki ne pisteet joissa kaikki mittausyhtälöt toteutuvat, eli joissa kaikki mittauspinnat leikkaavat. Toinen lähestymistapa, josta Bancroftin menetelmä alla esimerkkinä, on algebrallinen jossa erilaisilla laskutempuilla koitetaan löytää mittausyhtälöryhmälle erikoisratkaisu. Suljetun muodon ratkaisuilla on käyttöä iteratiivisten menetelmien alkuarvauksina, mutta muuten lähinnä teoreettisessa tutkimuksessa ja ongelman visualisoinnissa, koska niillä on vaikea mallintaa mittausvirheitä. Esimerkki 16 (Bancroftin menetelmä [3]). Jos kaikki mittaukset ovat pseudoetäisyysmittauksia (esimerkiksi jos käytetään pelkästään GPS-mittauksia), voidaan eräs pienimmän neliösumman ratkaisu laskea suljetussa muodossa seuraavasti. Aloitetaan mittausyhtälöryhmästä s 1 x +b = y 1 s n x +b = y n.. Ratkaisu ei ole sama kuin iteratiivisella menetelmällä saatu, menetelmät minimoivat hieman eri funktioita. 29
30 Kikka 1: Siirretään b:t yhtälöiden oikealle puolelle ja korotetaan yhtälöt puolittain toiseen. Saadaan n yhtälöä muotoa: s i x 2 = (y i b) 2 s i 2 2s T i x+ x 2 = y 2 i 2y ib+b 2. Huom. puolittain neliöinnistä voi seurata että ratkaisuun tulee useita haaroja jotka pitää lopuksi kaikki tarkastaa. Tällä kertaa näin ei käy koska normin takia puolet ovat aina ei-negatiiviset. Kikka 2: Kerätään neliötermit uuteen muuttujaan λ = x 2 b 2, jolloin saadaan lineaarinen yhtälö jossa on muuttujina x, b ja λ: 2s T i x 2y ib = λ+ s i 2 y 2 i. Kootaan kaikki yhtälöt lineaariseksi systeemiksi ja ratkaistaan se x:n ja b:n suhteen pienimmän neliösumman mielessä: 2s T 1 2y 1 [ ] s 1 2 y 2 1 x. = 2s T b 1. λ+. n 2y n 1 s n 2 y 2 n [ ] 2s T 1 2y 1 2s T 1 2y 1 s 1 2 y 2 1 x = b. 1. λ+.. 2s T n 2y n 1 2s T n 2y n s n 2 y 2 n }{{}}{{} =p =q [ ] x = pλ+q = b [ ] d λ+ f jossa A = (A T A) 1 A T ja vektorit p ja q voidaan laskea tunnetuista suureista. Alkuperäinen yhtälöryhmä siis toteutuu (pienimmän neliösumman mielessä) jos ja vain jos [ ] e g x = dλ+e b = f λ+g. (2.6) Sijoitetaan nämä takaisin λ:n määritelmään: λ = x 2 b 2 = dλ+e 2 ( f λ+g) 2, kerrotaan neliötermit auki ja sievennetään muotoon ( d 2 f 2 )λ 2 +(2d T e 2 f g 1)λ+ e 2 g 2 = 0 joka on toisen asteen yhtälö λ:n suhteen ja kaikki muut termit ovat tunnettuja. Ratkaistaan juuret ja lasketaan vastaavat x ja b sijoittamalla juuret kaavaan (2.6). Vaikka ratkaisuehdokkaita saadaan kaksi, GPS:n satelliittigeometria on sellainen että toinen ratkaisuista on ulkoavaruudessa ja voidaan rajata pois. Ellei sovellus ole esim. kuuraketin paikannus... 30
31 Kuva 2.2: Esimerkkejä mittausten uskottavuusfunktioista. 1) etäisyys tukiasemasta, 2) suuntakulma tukiasemaan, 3) etäisyys ja kulma yhdessä (edellisten tulo) 2.5 Uskottavuuden maksimointi Mittausyhtälöä yleisempi esitys mittausmallille on ehdollinen todennäköisyystiheysfunktio p(y x), joka voidaan lukea todennäköisyys että mitataan y jos ollaan paikassa x (ks. kappale 1.3.3). Kun lausekkeessa x pidetään muuttujana ja mittauksia y vakiona, funktiota nimitetään uskottavuusfunktioksi (likelihood) ja tulkitaan sitä niin että mitä suurempia arvoja uskottavuusfunktio saa mittauksilla y ja paikassa x, sitä paremmin kyseinen paikka sopii mittauksiin. Uskottavuusfunktiota merkitään joskus L(x y). Jos mittausmalli on annettu yhtälömuodossa y = h(x) + v, se on helppo kirjoittaa uskottavuusmuotoon sillä v = y h(x) ja v:n jakauma tunnetaan, joten p(y x) = p v (y h(x)), jossa p v on tunnettu virheen jakauma. Uskottavuusfunktion avulla annettun mittausmallin muuttaminen mittausyhtälöiksi sen sijaan onnistuu vain erikoistapauksissa. Uskottavuuden maksimointi (maximum likelihood) on siis menetelmänä yleiskäyttöisempi kuin aiemmin esitetyt. Kun mittausmalli uskottavuusmuodossa tiedetään ja saadaan mittaus, ratkaisu ˆx haetaan siten että sen uskottavuus mittausten valossa on mahdollisimman suuri: ˆx = argmax x p(y x). Tähän voidaan käyttää epälineaarisen optimoinnin keinoja, esimerkiksi Newtonin menetelmää. Jos mittauksia on vähän, uskottavuusfunktiolla ei välttämättä ole yksikäsitteistä maksimia (esimerkiksi kuvan 2.2 vasen tai keskimmäinen tilanne). Esimerkki 17. Tutkitaan n mittauksen ryhmää y = h(x)+v jossa virhe v jakautunut normaalijakauman mukaisesti, v N(0, Σ). Moniulotteisen normaalijakauman tiheysfunktio on p v (z) = C exp ( 1 2 zt Σ 1 z ), vakio C = (2π) n/2 det(σ) 1/2 ei ole tässä oleellinen. Nyt uskottavuusfunktio on p(y x) = p v (y h(x)) = C exp ( 1 ) 2 (y h(x))t Σ 1 (y h(x)). 31
32 Koska kovarianssimatriisi Σ on positiividefiniitti, eksponenttifunktion argumentti on aina ei-positiivinen. Täten suurimman uskottavuuden ratkaisu löydetään minimoimalla lauseketta (y h(x)) T Σ 1 (y h(x)), joka on täsmälleen sama kuin painotetun pienimmän neliösumman kohdefunktio painomatriisilla Σ 1. Normaalijakautuneille virheille siis maksimiuskottavuus ja painotettu pienimmän neliösumman menetelmä ovat identtiset, ja tämä johto on yksi perustelu sille miksi painomatriisina käytetään nimenomaan mittauskovarianssimatriisin inverssiä. 2.6 Bayesilainen ratkaisu Edellä käsitellyllä mittausten uskottavuusfunktiolla p(y x) ei sinänsä ole mitään konkreettista tulkintaa, kiinnostavampi suure olisi tilan/paikan todennäköisyys ehdollistettuna saaduilla mittauksilla p(x y). Tämä voidaan laskea Bayesin kaavalla: p(x y) = p(x)p(y x) R p(x)p(y x)dx (2.7) jossa p(y x) on mittausmallin uskottavuusfunktio ja p(x) on mittauksista riippumaton prioritieto joka antaa tiheysfunktion muodossa valistuneen arvauksen x:n mahdollisista arvoista. Kun saatu mittaus y sijoitetaan kaavaan, vastauksena saadaan posteriorijakauma eli ehdollinen todennäköisyysjakauma tilalle x. Bayesin kaava antaa todennäköisyysjakauman p(x y) joka on informatiivisempi kuin pelkkä tilaestimaatti ˆx jakauma sisältää kaiken tiedon jota tilasta prioritiedon ja mittauksen perusteella on. Jakaumasta voidaan tarpeen mukaan laskea odotusarvo tai suurimman uskottavuuden estimaatti, kovarianssiestimaatti, luottamusvälejä, jne. ja sitä voidaan käyttää prioritietona seuraavan ajanhetken paikkaratkaisulle. Jos käsiteltävät tiheydet ovat vähänkään monimutkaisempia, posterioritiheyttä ei yleensä pysty ratkaisemaan analyyttisesti, vaan turvaudutaan Monte Carlo -integrointiin joka toimii mielivaltaisille funktioille. Tästä enemmän luvussa 3.5. Esimerkki 18. Tutkitaan yksiulotteista tehtävää, jossa mitataan tukoksen paikkaa 10 metrin pituisessa putkessa. Olkoon mittausvirheen jakauma N(0,3 2 ). Uskottavuusfunktio on nyt normaalijakauman tiheysfunktio (vakiokerroin ei ole olennainen) ) (x y)2 p(y x) = C exp ( ja priorina käytetään paremman tiedon puutteessa tasajakaumaa putken sisällä: { 1 p(x) = 10 jos 0 x 10 0 muuten. 32
33 Jos mittaustulokseksi saadaan vaikkapa y = 8 metriä, saadaan Bayesin kaavasta (2.7) ) p(x)c exp ( (x 8) p(x y) = p(x)p(8 x) R p(x)p(8 x)dx = R ) p(x)c exp ( (x 8)2 dx ( ) exp (x 8)2 18 ( ) jos 0 x 10 R = 10 0 exp (x 8)2 18 dx 0 muuten { ) exp ( (x 8)2 18 jos 0 x 10 =. 0 muuten Prioritietoa käytettiin tässä vain rajoittamaan estimaatti sallitulle alueelle. Jos esineen summittainen paikka putkessa olisi ollut tiedossa, sitä olisi voinut käyttää myös priorina. Saatu posteriorijakauma p(x y) kuvaa nyt parhaan tietomme mukaan esineen sijaintitodennäköisyyttä putken eri kohdissa. Jakaumalle voidaan tavalliseen tapaan laskea odotusarvo µ = R xp(x y)dx 6.76 ja varianssi σ 2 = R (x µ) 2 p(x y)dx Mittaus y = 8 siis siirsi prioriestimaattia x = 5 hieman kohti putken oikeaa päätyä priori posteriori mittaus Kuva 2.3: Posteriori on priorin ja mittauksen uskottavuuden normalisoitu tulo. Jos tämän jälkeen tehtäisiin vielä uusia riippumattomia mittauksia (ja oletetaan ettei paikannettava esine liiku välillä), voidaan tästä ratkaistua posterioria käyttää uutena priorina ja kaikki mittauksista saatu informaatio tulee käytettyä optimaalisesti Bayesilainen virheanalyysi Aiemmin mainittiin että Bayesin ratkaisu tuottaa paikan todennäköisyystiheysfunktion, josta voidaan laskea sekä paikkaestimaatti että sen keskineliövirheen arvio Z MSE = (x ˆx)(x ˆx) T p(x y)dx jossa integraali yleensä lasketaan numeerisesti [26]. Jos estimaattina ˆx on odotusarvo E(x y), keskineliövirhe on määritelmän mukaan sama posteriorikovarianssi. 33
34 Esimerkki 19. Todetaan vielä että normaalijakautuneille mittauksille virhekovarianssi on (liki pitäen) sama kuin pienimmän neliösumman menetelmällä virhetarkastelussa saatu. Olkoon mittausvirheiden jakauma v N(0,σ 2 I), ja priori p(x) tasan jakautunut. Nyt uskottavuusfunktio on ( p(y x) = C exp (h(x) ) y)t (h(x) y) 2σ 2 joten p(x)p(y x) p(x y) = R = p(x)p(y x)dx p(y x) R p(y x)dx ( ) C exp (h(x) y)t (h(x) y) 2σ = 2 R C exp ( (h(x) y)t (h(x) y) dx ( = C 2 exp (h(x) y)t (h(x) y) 2σ 2 2σ 2 ) Tehdään samanlainen linearisointi tosipaikan ympärillä kuin pienimmän neliösumman analyysissä: h(x) h( x)+j( x x) = ȳ+j x = y y+j x, jolloin saadaan ( p(x y) C 2 exp (J x ) y)t (J x y) 2σ 2, joka, toisin kuin (2.5), riippuu realisoituneesta mittausvirheestä y eikä ainoastaan sen jakaumasta. Vertailun vuoksi kokeillaan sijoittaa y = 0 sillä perusteella että mittausvirheet ovat nollakeskeisiä, jolloin saadaan ( p(x y) y=0 C 2 exp 1 x T J T ) J x 2 σ 2 = C 2 exp ( 12 [ xt σ 2 (J T J) 1] ) 1 x ) joka on tiheysfunktio jakaumalle x N(0, σ 2 (J T J) 1 ) eli sama tulos joka saatiin edellisessä kappaleessa pienimmän neliösumman menetelmälle samoin oletuksin. Toteutuneesta mittausvirheestä y riippuen Bayesin estimaatin jakauma vaihtelee tämän ympärillä. Usein ajatellaan että priorilla on vakiotiheys koko avaruudessa, mikä aiheuttaa ristiriidan koska tiheysfunktion integraalin pitäisi olla 1. Käytännössä tasan jakautunut priori supistuu laskuista pois, ja periaatteessa voidaan ajatella että käytettiin prioria joka on tasan jakautunut riittävän suuressa alueessa jonka ulkopuolelle jää niin vähän todennäköisyysmassaa ettei se vaikuta tuloksiin. Toinen vaihtoehto on olettaa että priori on jakautunut N(0, MI) mukaan ja ottaa raja-arvo kun M. 34
35 2.7 Luottamusvälit Luottamusvälillä tarkoittaa yksiulotteisessa tapauksessa väliä jonka sisällä estimaatti on esim. 99% todennäköisyydellä. Luottamusväli on yleensä keskitetty estimaatin ympärille, mutta voi toki olla asetettu myös epäsymmetrisesti. Moniulotteisessa tapauksessa käytetään yleensä estimaattiin keskitettyjä luottamuspalloja tai ellipsoideja, mutta jälleen mikään ei estä käyttämästä minkä muotoista aluetta tahansa, kunhan sen sisälle jää haluttu osa estimaatin jakaumasta. Jos estimaatin jakauma on tiedossa, luottamusväli (tai kääntäen tietyn välin sisään jäävä todennäköisyys) lasketaan integroimalla jakaumaa halutun välin yli: P(a x b y) = Z b a p(x y)dx. Normaalijakauman tapauksessa voidaan käyttää suoraan normaalijakauman kertymäfunktiota ja sen käänteisfunktiota ja saadaan tutut nyrkkisäännöt ±2σ sisällä on 95% todennäköisyydestä, ±3σ sisällä 99.7% jne. Vaikka estimaatin jakaumaa ei tunneta, varianssi voidaan yleensä approksimoida. Normaalijakaumasta johdetut luottamusvälit eivät enää pidä paikkaansa, mutta voidaan soveltaa Chebyshevin epäyhtälöä, joka antaa alarajan sille kuinka paljon todennäköisyysmassaa tietyn välin ulkopuolella voi pahimmillaan olla, kun jakauman varianssi on σ 2 : P( x ˆx λσ) 1 λ2. (2.8) Kaavan perusteella esimerkiksi yli kolmen sigman päässä keskiarvosta voi olla korkeintaan 1/9 todennäköisyydestä, mikä tarkoittaa että oli jakauma mikä tahansa, välillä ˆx ± 3σ on aina vähintään 8/9 = 89% todennäköisyydestä. Vastaava n-ulotteinen kaava on P ( x ˆx λ ) trace(σ) 1 λ 2 jossa Σ on jakauman kovarianssimatriisi. Jos muuttujilla on suuria korrelaatiota tai eri suuruusluokkaa olevat varianssit, vähemmän sievennetty kaava ( P (x ˆx) T Σ 1 (x ˆx) λ ) n 1 λ 2 (2.9) antaa tiukemman rajan. Tämä on Bayesilainen tulkinta jota paikannuslaskuissa käytämme häikäilemättä. Pohjimmiltaan kyse on siitä miten satunnaisuus pitäisi mallintaa matemaattisesti. Frekventistisen tulkinnan mukaan todennäköisyys tarkoittaa sitä, että jos koe toistetaan monta kertaa, niin todennäköisyyden mukainen osuus tapahtumista tapahtuu. Bayesilaisessa tulkinnassa todennäköisyys on pikemminkin subjektiivinen epävarmuuden mitta, joka kertoo paljonko tietoa (tai arvauksia) systeemistä on. Katsantojen ero näkyy mm. luottamusvälin tulkinnassa. Frekventistisessä mielessä 99% luottamusväli tarkoittaa sitä, että että todellinen paikka on jokin kiinteä arvo ja 99% tapauksista luottamusväli saadaan laskettua niin että todellinen paikka osuu sen sisälle. Bayesilainen tulkinta vastaa paremmin intuitiota: todellinen paikka on satunnainen ja osuu 99% todennäköisyydellä laskemamme luottamusvälin sisälle. 35
36 Kaavan (2.9) avulla voidaan myös määrittää luottamusellipsoidin yhtälö, esimerksiksi 95% ellipsoidi saadaan valitsemalla yhtälön oikealle puolelle 1/λ 2 = 0.05 (eli korkeintaan 5% todennäköisyydesta saa olla ellipsoidin ulkopuolella), josta seuraa λ = 1/0.05. Siis ellipsoidi { E 95% = x (x ˆx) T Σ 1 (x ˆx) < n } 0.05 sisältää vähintään 95% todennäköisyysmassasta (vrt. tehtävä 1.10 sivulla 21). Yhteenveto ja huomioita Paikannustehtävä voidaan muotoilla joko epälineaarisen yhtälöryhmän ratkaisemiseksi tai maksimiuskottavuuden/bayesilaisen posteriorin hakemiseksi. Kumpikin tehtävä ratkeaa joko standardeilla optimointimenetelmillä tai numeerisella integroinnilla [26], johon palataan luvussa 3.5. Jos mittausyhtälöt ovat lähes lineaarisia niin että J(x) = h (x) on lähes vakio ratkaisun lähellä (jolloin sitä voidaan merkitä pelkästään J) ja mittausvirheet ovat normaalijakautuneita tai ne voidaan hyvällä omallatunnolla siten mallintaa, pienimmän neliösumman ratkaisu ja Bayesilainen ratkaisu ovat asymptoottisesti identtiset. Suljetun muodon ratkaisut ovat työläämpiä johtaa, ja yleensä herkempiä mittausvirheille. Ne ovat kuitenkin joskus hyödyllisiä alkuarvauksen tai tehtävän kaikkien ratkaisujen etsimiseen. Harjoitustehtäviä 2.1. Tuntemattomana on kaksiulotteinen paikka x = [ x 1 x 2 ] T. Kirjoita mittausmalli, kun mittaus y on (a) kohinainen arvio koordinaatista x 2 (b) kohinainen etäisyys kiinteään asemaan s = [ s 1 (c) kohinainen suuntakulma asemasta s siten että 0-kulma osoittaa pohjoiseen ja kulma kasvaa myötäpäivään s 2 ] T (d) asemiin s 1 ja s 2 mitattujen kohinaisten etäisyyksien erotus 2.2. Ideaalinen INS antaisi mittauksena nopeusvektorin B-koordinaatistossa sekä pyörähdysvektorin p joka määrittelee B-koordinaatiston asennon lokaalin L-koordinaatiston suhteen. Kirjoita mittausyhtälö kun p oletetaan virheettömäksi. 36
37 2.3. Tuntemattomana on kaksiulotteinen paikka x. Mittausmalli on [ [100 0] y = h(x)+v = T ] x [0 50] T + v, jossa v N(0,10 2 I) x (a) Kirjoita residuaalin p(x) ja sen derivaattamatriisin J = p (x) kaavat. (b) Saadaan mittaus y = [ ] T. Mikä on Newtonin menetelmän ensimmäinen askel jos alkupaikkana on x = [0 0] T Johda painotetun Gauss-Newtonin menetelmän (Algoritmi 2) iteraatioaskel, eli näytä että se minimoi lausekkeen p(x) T Σ 1 p(x) Johda paikkavirheen jakauma painotetulle Gauss-Newtonin menetelmälle (Algoritmi 2) samaan tapaan kuin kappaleessa kun painomatriisi on W ja mittausten kovarianssimatriisi on Σ Tutka mittaa etäisyyttä kohteeseen sekä etäisyyden muutosta. Tutka-antenni on asennettu pyörivän varren päähän niin että sen paikka ajanhetkellä t on s(t) = [cost sint] T. Kirjoita mittausyhtälöryhmä ja sen derivaattamatriisi hetkellä t kun tilavektori on [r 1 r 2 r 1 r 2 ]T. (Huom. tarkkana koska derivoidaan ajan suhteen ja koska tilavektorin suhteen.) 2.7. Olkoon mittausmalli lineaarinen, y = Hx+v, ja x 0 annettu vektori. Johda estimaattori ˆx joka minimoi lausekkeen y Hx 2 + x 0 x Kehitä suljetun muodon ratkaisu (vrt. esimerkki 16 sivulla 29) yhtälöryhmälle s 1 x = y 1. s n x = y n. Ratkaise tehtävän 2.3 paikannusongelma saamallasi kaavalla Esim. WLAN-verkoissa ei useinkaan ole mahdollista tai järkevää muuttaa mitattua signaalitehoa etäisyysmittaukseksi. Sen sijaan voidaan käyttää ns. fingerprint-menetelmää, jossa kalibrointivaiheessa valitaan joukko paikkoja p i, i = 1...n, ja mitataan niissä kaikkien kuuluvien signaalien tehot a i R m, ja paikannusvaiheessa verrataan tehtyjä tehomittauksia tietokantaan. Kirjoita mittausmalli, kun oletetaan että mittauskohina on riippumattomasti normaalijakautunutta varianssilla σ 2 ja oletetaan että tietokantaan on saatu määritettyä mittauksen odotusarvot kussakin kalibrointipisteessä tarkasti. Mieti millaisella algoritmilla kirjoittamasi mittausmallin pystyisi ratkaisemaan. (Mahdollisia ratkaisuja on monta eikä mikään ole ihan suoraviivainen.) 37
38 2.10. Kirjoita seuraavia mittausyhtälöitä vastaavat uskottavuusfunktiot p(y x). (a) y = x 2 + v, (b) y = h(x)+v, v Tas[ 1,1] v Tas[ 1,1] (c) y = 1 jos s x 100, muuten y = 0 (d) y = 1 jos s x +v 100, v N(0,1), muuten y = 0 (e) y = s x 2, s N(ŝ,I) Huom. Kohdissa (c) ja (d) mittaus y on binäärinen, jolloin sen uskottavuusfunktioksi riittää ilmoittaa p(0 x) ja p(1 x) Mittausmalli on y = x+v, jossa v N(0,(1/2) 2 ). (a) Mikä on näin saadun mittauksen uskottavuusfunktio? Luonnostele uskottavuusfunktion kuvaaja y:n funktiona jollain kiintellä x:llä, ja x:n funktiona jollain kiinteällä y:llä. (b) Mikä on uskottavuusfunktio jos saadaan n riippumatonta mittausta? (c) (Matlab-lisätehtävä) Tehdään viisi riippumatonta mittausta ja saadaan arvot 0, 2, 1,0 ja 1. Jos lattiafunktio jätettäisiin huomiotta, saataisiin x:n estimaatiksi mittausten keskiarvo 0.8. Piirrä uskottavuus sopivalla välillä (esim. [ 2, 1]) ja arvioi siitä maksimiuskottavuusestimaatti Johda Bayesin kaava (2.7) ehdollisen tiheysfunktion määritelmästä (s. 12) Kun sekä priori että uskottavuus ovat yksiulotteisia normaalijakaumia, myös posteriorijakauma on normaalijakauma. Johda sen parametrit. { 1/2 kun 1 x Olkoon priorijakauma p(x) =. 0 muuten Mikä on jakauman odotusarvo ja varianssi? (y+1)/2 kun x 0 ja 1 y 1 Mittausmalli on p(y x) = (1 y)/2 kun x 0 ja 1 y 1. 0 muuten Selvitä itsellesi mitä tämä mittausmalli tarkoittaa, eli miten x:n arvo vaikuttaa mitatun y:n jakaumaan. Laske posteriorijakauma, ja sen perusteella Bayesilainen tilaestimaatti ja sen varianssi Tutkitaan Chebyshevin epäyhtälöä (2.8). (a) Jos x on jakautunut kaksipuoleisen eksponenttijakauman mukaan, eli p(x) = 1 2 e x, sen odotusarvo on 0 ja keskihajonta 2. Laske 67% luottamusväli [ a, a] sekä tarkasti, että Chebyshevin epäyhtälöllä. (b) Millä jakaumalla yhtäsuuruus P( x ˆx σ) = 1 totetuu? 38
39 Tietokonetehtäviä Jatkoa tehtävään 2.3: (a) Ohjelmoi Newtonin [ ] menetelmä (Algoritmi 1 sivulla 27), ja aja se alkuarvauksista x 0 =. Käytä lopetustoleranssia δ = Mihin ratkaisuun päädyttiin ja montako iteraatioaskelta tarvittiin? [ ] 100 (b) Aja algoritmi uudelleen alkuarvauksesta x 0 =. Mihin ratkaisuun päädyttiin ja 100 montako iteraatioaskelta tarvittiin? (c) Piirrä residuaalin normi alueessa x [ 50,150], y [ 50,150] Matlabin surfkomennolla. Arvioi kuinka lähellä oikeaa ratkaisua alkuarvauksen täytyisi olla jotta iteraatio löytää oikean ratkaisun Jatkoa edelliseen tehtävään. Koska kaikilla mittauksilla on sama varianssi σ 2, saadaan paikkavirheen kovarianssi estimoitua muodossa σ 2 (J T J) 1. Olkoon todellinen paikka x true = [0 0] T. Paikkaestimaatin jakaumaa voidaan approksimoida numeerisesti simuloiduilla mittauksilla. Nythän y N([100 50],σ 2 I). (a) Laske paikkaestimaatti tuhat kertaa eri mittausrealisaatiolla, ja laske saatujen estimaattien kovarianssi ja sen virhe laskettuun kovarianssiestimaattiin σ 2 (J T J) 1 kun σ = 1 ja kun σ = 10. (b) Piirrä DOP-arvoja alueessa x [ 50, 150], y [ 50, 150] Matlabin surf-komennolla. Voi olla tarpeen leikata liian suuret arvot pois kuvasta, esim. piirtää min(dop,10). 39
40 Luku 3 Suodatus SIMO ALI-LÖYTTY Suodatuksessa käytetään nykyisten mittausten lisäksi myös kaikkia aikaisempia mittauksia tilaestimaatin laskennassa. Perusedellytys aikaisempien mittauksien käytölle paikannuksessa on tilamalli x k = f k 1 (x k 1 )+w k 1, (3.1) joka kertoo kuinka seuraava tila riippuu edellisestä tilasta. Termiä tila on käytetty paikan sijasta, koska ei haluta rajoittaa tilan muuttujia pelkkään paikkaan. Yhtälössä (3.1) käytetään seuraavia merkintöjä: x k on tila, f k on tilansiirtofunktio ja w k on tilamallin virhe. Alaindeksi k viittaa ajanhetkeen t k. Tässä kappaleessa paikannettavan tila x tulkitaan stokastiseksi prosessiksi. Määritelmä 9 (Stokastinen prosessi). Olkoon (Ω, F, P) todennäköisyysavaruus ja T parametrijoukko. Stokastinen prosessi on sellainen kuvaus x : Ω T R n, että jokaisella kiinteällä t T, x(,t) on satunnaismuuttuja, jota yleensä merkitään x t tai x(t). Koska tila on stokastinen prosessi niin tilaestimaatin laskeminen tapahtuu kaksivaiheisesti. Kullakin ajanhetkellä ratkaistaan tilan ehdollinen jakauma ehdolla mittaukset p xk y 1:k (x k y 1:k ). Tässä mittauksilla y 1:k tarkoitetaan kaikkia saatavilla olevia mittauksia, sekä nykyisiä että aikaisempia mittauksia. Mittauksetkin tulkitaan satunnaismuuttujien realisaatioiksi. Mittausyhtälöinä toimivat samat yhtälöt kuin staattisessa tapauksessa (2.1) y k = h k (x k )+v k, (3.2) missä y k on mittaukset, h k on mittausfunktio ja v k mittausvirhe. Ehdollisen jakauman laskemiseen tarvitaan tilamallin ja mittausyhtälöiden lisäksi myös alkutila x 0. Kun tilan ehdollinen jakauma on ratkaistu, voidaan siitä laskea toivottu estimaatti, joka on optimaalinen valitun 40
41 kriteerin suhteen. Näitä optimaalisia estimaatteja käsitellään kappaleessa 3.4. Samoin voidaan laskea myös muita mielenkiintoisia suureita kuten estimointivirheen kovarianssimatriisi. Jotta estimointi voitaisiin järkevästi suorittaa kohtuullisessa ajassa täytyy tilan ehdollinen jakauma pystyä ratkaisemaan rekursiivisesti sen sijaan, että käytettäisiin koko mittaushistoriaa joka ajanhetkellä. Tämä onnistuu kun tehdään muutamia riippumattomuusoletuksia. Ensimmäinen oletus on, että virheet w k ja v k ovat keskenään riippumattomat ja valkoista kohinaa, joka tarkoittaa, että virheet ovat riippumattomia muiden ajanhetkien virheistä. Yksinkertaisuuden vuoksi oletetaan myös että virheet ovat nollakeskisiä, tarvittaessa muutetaan tilansiirtoja mittausfunktioita niin, että virheistä tulee nollakeskisiä. Lisäksi oletetaan, että virheet w k ja v k ovat riippumattomia alkutilasta x 0. Näillä oletuksilla tilan ehdollinen jakauma voidaan ratkaista rekursiivisesti. Asiaa käsitellään tarkemmin kappaleissa 3.2 ja 3.4. Tilan ehdollisen jakauman ratkaisemista aikasarjassa, jonka avulla voidaan ratkaista haluttu estimaatti, kutsutaan suodatukseksi (filtering). Suodatuksella on monia etuja verrattuna staattiseen paikkaratkaisuun. Ensinnäkin suodatuksen avulla voidaan käyttää optimaalisesti kaikki mittaukset hyödyksi riippumatta siitä kuinka monta mittausta minäkin ajanhetkenä saadaan. Tämä parantaa paikannuksen tarkkuutta huomattavasti verrattuna staattiseen paikannukseen. Suodatuksen avulla voidaan hyödyntää helposti myös mahdollista muuta informaatiota paikannuksessa kuten esimerkiksi karttatietoa, tukiasemien sektori/maksimikantamatietoa. Suodatus antaa myös mahdollisuuden tehdä paikannuksesta entistä vikasietoisempi erilaisilla virhemalleilla, joilla voidaan ottaa huomioon vaikka epäsuoraa etenemistä tai muulla tavalla aiheutuneita virheellisiä mittauksia. Lisäksi suodatuksen avulla paikkaratkaisu voidaan myös laskea vaikkei kyseisellä ajanhetkellä ole saatu yhtään mittausta, koska tilamallin avulla voidaan ratkaista tulevan tilan jakauma ilman mittauksia. Toisaalta suodatuksella on myös haittapuolia, ensinnäkin useissa tapauksissa ehdollisen jakauman laskeminen ei ole mahdollista analyyttisesti ja vaikka laskenta voidaan tehdä numeerisesti se vie tyypillisesti monta kertaa enemmän laskentaaikaa kuin staattinen paikannus. Lisäksi suodatuksessa oletetaan, että tiedetään alkutila, tilamalli ja virheiden jakaumat joita staattinen paikannus ei välttämättä tarvitse. Useinkaan nämä eivät ole kovin hyvin tiedossa, jolloin malli ei välttämättä vastaakaan todellisuutta niin hyvin kuin staattisessa tapauksessa. Kuten edellä todettiinkin, tilan ehdollista jakaumaa ei voida useinkaan ratkaista analyyttisesti. Kuitenkin jos sekä tilamalli että mittausyhtälöt ovat lineaarisia ja jakaumat (virheiden jakaumat ja alkutila) ovat normaaleja niin tilan ehdollinen jakauma voidaan ratkaista jokaisella ajanhetkellä. Algoritmia joka tämän ratkaisee kutsutaan Kalmanin suodattimeksi, joka on nimetty Rudolf E. Kalmanin mukaan [15]. Kuitenkin tämä on vain yksi näkökulma Kalmanin suodattimeen, sillä vaikka jakaumat eivät olisikaan normaaleja niin Kalmanin suodatin toimii siltikin parhaana lineaarisena harhattomana estimaattorina (BLUE, Best Linear Unbiased Estimator). Kalmanin suodatinta käsitellään kappaleessa 3.2, BLU-estimaattorin näkökulmasta ja harjoitustehtävänä 3.5 on näyttää että se ratkaisee myös tilan ehdollisen jakauman. Kalmanin suodattimesta on myös lukuisia approksimaatioita tapauksille, joissa tilamalli ja/tai mittausyhtälöt eivät ole lineaarisia; näitä epälineaarisia Kalmanin suodattimia käsitellään kappaleessa 3.3. Varsinaista bayeslaista suodatusta, joka ratkaisee yleisen suodatusongelman, käsitellään kappaleessa 3.4. Numeerisia menetelmiä yleisen bayeslaisen ongelman ratkaisemiseksi esitellään kappaleessa
42 3.1 Vakionopeusmalli Tilamalli, kuten mittausmallikin, on riippuvainen tarkasteltavasta systeemistä. Selvästikin paikallaan olevalle paikannettavalle optimaalinen tilamalli on erilainen kuin väkijoukon seassa poukkoilevalle pyöräilijälle. Tämän vuoksi on kehitelty esimerkiksi interaktiivinen monimallimenetelmä (IMM, interactive multiple model), joka perustuu siihen että suodattimella on useita mittaus/tilamalleja ja suodatin pyrkii ratkaisemaan myös mikä mittaus/tilamalli on oikea [31]. Tätä ongelmaa pyritään ratkaisemaan myös adaptiivisilla suodattimilla kuten aikaisemmin oli puhetta. On hyvä muistaa, että usein joudutaan tyytymään koviinkin yleistyksiin mallien valinnassa, kuitenkin tarkoitus on saada aikaa mahdollisimman hyvin toimivat ja tarpeeksi yksinkertaiset mallit. Tässä kappaleessa esitellään yksi yksinkertainen tilamalli, jota kutsutaan vakionopeusmalliksi. Vakionopeusmallissa jota on sovellettu satelliittipaikannukseen tilana usein on kolmiulotteinen paikka, kolmiulotteinen nopeus, kellopoikkeama ja sen derivaatta. Tälläinen malli on esitetty esimerkiksi kirjoissa [5] [25] [17] [9]. Tässä kuitenkin käsitellään vakionopeusmallia ilman kellopoikkeamaa ja sen derivaattaa. Näiden lisääminen käsittelyyn on kuitenkin suoraviivaista. Mallinnetaan tila stokastiseksi differentiaaliyhtälöksi dx = Fxdt + Gdβ, (3.3) missä F = [ 0 I 0 0 ] ja G = [ 0 I ], Tällöin nopeuden virhe on mallinnettu Brownin liikkeeksi β. Brownin liikkeen β diffuusiomatriisiksi valitaan yksinkertainen diagonaalimatriisi Q c = σ 2 ci, missä σ 2 c kuvaa tilamallin nopeuden virhettä akseleiden suuntaan. Tarkemmin sanottuna σ 2 c kuvaa sitä, kuinka paljon nopeuden virheeseen tulee lisää varianssia yhden sekunnin aikana pohjois-etelä-, itä-länsi- ja korkeussuunnissa. Stokastinen differentiaaliyhtälön (3.3) ratkaisu voidaan diskretoida tilamalliksi (katso esim.[23, s.171] tai [11, s.200]) x k = Φ k 1 x k 1 + w k 1, missä Φ k 1 = e (t k t k 1 )F = [ I ti 0 I ]. Merkintä t = t k t k 1 tarkoittaa aika-askeleen pituutta. Tilamallin virhe w k on valkoista, nollakeskistä, normaalijakautunutta kohinaa, joka oletetaan riippumattomaksi alkuehdosta x 0. Tilamallin virheen kovarianssimatriisi Q k on Q k = V(w k 1 ) = Z tk t k 1 Φ(t k,t)gq c G T Φ(t k,t) T dt = 42 [ 13 t 3 I 1 2 t 2 I 1 2 t 2 I ti ] σ 2 c.
43 3.2 Kalmanin suodatin Kalmanin suodatin ratkaisee suodatusongelman jossa tilamalli ja mittausmalli (mittausyhtälöt) ovat lineaarisia. Tällöin tilamalli on x k = Φ k 1 x k 1 + w k 1, (3.4) missä x k on prosessin tila, Φ k on tilansiirtomatriisi ja w k on tilamallin virhe, joka oletetaan nollakeskiseksi valkoiseksi kohinaksi ja riippumattomaksi mittauksien virheistä sekä alkutilasta. Tilamallin virheen kovarianssimatriisi merkitään matriisilla Q k. Mittausmalli puolestaan on y k = H k x k + v k, (3.5) missä y k on mittaukset, H k on mittausmatriisi ja v k on mittausmallin virhe, joka oletetaan nollakeskiseksi valkoiseksi kohinaksi ja riippumattomaksi tilamallin virheistä sekä alkutilasta. Mittausmallin virheen kovarianssimatriisia merkitään matriisilla R k, joka oletetaan positiividefiniitiksi. Tilamallin ja mittausmallin lisäksi Kalmanin suodatin tarvitsee alkutilan x 0. Merkitään alkutilan odotusarvoa vektorilla ˆx 0 ja kovarianssimatriisia vakiomatriisilla P 0, joka oletetaan positiividefiniitiksi. Hattumerkintä viittaa estimaattoriin, joka on mittausten funktio. Tosin tässä tapauksessa estimaattori on vakiosatunnaismuuttuja, koska ajanhetkellä t 0 ei saada yhtään mittausta. Kovarianssimatriisi P 0 voidaan tulkita myös keskineliövirhematriisiksi (MSE) E ( e 0 e T 0 ), missä e0 = x 0 ˆx 0. Kalmanin suodattimen tarkoituksena on ratkaista paras lineaarinen harhaton estimaattori tilalle x k. Riippumattomuusoletusten vuoksi tämä voidaan tehdä rekursiivisesti, tällöin estimaattori on muotoa ˆx k = [ J k 1 K k ] [ ˆx k 1 y k ], (3.6) missä ˆx k 1 on tilan x k 1 paras lineaarinen harhaton estimaattori ajanhetkellä t k 1, matriisilla P k 1 merkitään vastaavaa keskineliövirhematriisia. Ajanhetken t k mittauksia merkitään satunnaismuuttujalla y k. Seuraavaksi johdetaan sellaiset matriisit J k 1 ja K k, että Kalmanin suodatin olisi paras lineaarinen harhaton estimaattori. Parhaalla tässä tarkoitetaan, että estimaattorin keskineliövirhematriisin jälki tr(e(e k e T k )) = E(eT k e k) olisi mahdollisimman pieni. Tätä estimaattoria kutsutaan pienimmän neliösumman estimaattoriksi (MSE-estimaattori). Koska estimaattorin tulee olla harhaton, saadaan yhtälö E(x k ) = E(ˆx k ) = [ J k 1 K k ] [ E(ˆx k 1 ) E(y k ) Käyttäen hyväksi estimaattorin ˆx k 1 harhattomuutta, tilamallia (3.4) ja mittausmallia (3.5) saadaan ]. Φ k 1 E(x k 1 ) = J k 1 E(x k 1 )+K k H k Φ k 1 E(x k 1 ). 43
44 Tämän yhtälön tulee olla voimassa riippumatta odotusarvosta E(x k 1 ), joten J k 1 = Φ k 1 K k H k Φ k 1. (3.7) Tilan x k parasta lineaarista harhatonta estimaattoria, joka ei käytä hyväkseen nykyisen ajanhetken t k mittauksia kutsutaan priori-estimaattoriksi. Toisin sanoen priori-estimaattori on samaa muotoa kuin kaavan (3.6) estimaattori, kun matriisi K k on asetettu nolla-matriisiksi. Tällöin priori-estimaattori, johon miinus yläindeksinä viittaa, on kaavan (3.7) mukaan Priori-estimaattorin keskineliövirhematriisi näin ollen on P k = E( (x k ˆx k )(x k ˆx k )T) ˆx k = Φ k 1 ˆx k 1. (3.8) (3.4) = E ( (Φ k 1 e k 1 + w k 1 )(Φ k 1 e k 1 + w k 1 ) T) r.ton = Φ k 1 E ( T e k 1 e ) k 1 Φ T k 1 + E( w k 1 w T ) k 1 = Φ k 1 P k 1 Φ T k 1 + Q k 1. Kaavan (3.6) estimaattoria, joka käyttää hyväkseen myös ajanhetken t k mittaukset kutsutaan posteriori-estimaattoriksi. Posteriori-estimaattorin virhe on e k = x k ˆx k = x k (Φ k 1 K k H k Φ k 1 )ˆx k 1 K k y k (3.9) (3.5) = (I K k H k )(x k ˆx k ) K kv k Koska priori-estimaattorin virhe e k = x k ˆx k on oletusten mukaan riippumaton mittausvirheestä v k niin posteriori-estimaattorin keskineliövirhematriisi on P k = E ( e k e T ) k (3.9) = (I K k H k )P k (I K kh k ) T + K k R k K T k har j.3.2 = P k P k HT k (H kp k HT k + R k) 1 H k P k +(K k B P k HT k B 1 )(K k B P k HT k B 1 ) T, missä B = (H k P k HT k + R k) 1 2. Matriisin P k jälki on pienin mahdollinen kun matriisin (3.10) (K k B P k HT k B 1 )(K k B P k HT k B 1 ) T (3.11) jälki on pienin mahdollinen, koska summan muut termit eivät riipu matriisista K k. Matriisin (3.11) jälki on pienin mahdollinen kun K k B P k HT k B 1 = 0, harjoitustehtävä 3.3, ja tämän yhtälön ratkaisu on K k = P k HT k (H kp k HT k + R k) 1. (3.12) Tätä matriisia kutsutaan Kalmanin vahvistukseksi. Kokoamalla tulokset yhteen saadaan Kalmanin suodattimeksi estimaattori ˆx k = ˆx k + K k(y k H k ˆx k ), (3.13) 44
45 missä priori-estimaattori on annettu kaavassa (3.8) ja Kalmanin vahvistus kaavassa (3.12). Tämän estimaattorin keskineliövirhematriisi (3.10) voidaan kirjoittaa muotoon P k = (I K k H k )P k. Algoritmissa 3 on annettu Kalmanin suodatin tiiviissä muodossa. Kaavassa (3.13) olevaa mittauksen y k ja ennustetun mittauksen ŷ k = H k ˆx k erotusta y k H k ˆx k kutsutaan innovaatioksi. Mittauksen ennusteen keskineliövirhematriisi (innovaation kovarianssimatriisi) on H k P k HT k + R k (harj. 3.1). Innovaation hyväksi käyttäminen on lähes ainoa tapa jolla suodattimen toimintaa voidaan tarkkailla ajon aikana. Koska innovaation kovarianssimatriisi tiedetään voidaan tehdä tilastollisia testejä, jotka kertovat onko realisoitunut mittaus todennäköinen vai ei. Monet ns. robustit suodattimet tekevät tälläisiä testejä ja mikäli tuloksena on että mittaus on epätodennäköinen niin sitä ei joko käytetä ollenkaan tai sitten sitä painotetaan eri tavalla kuin normaaleja mittauksia. Myöskin monet ns. adaptiiviset suodattimet hyödyntävät innovaatioita kun ne pyrkivät ajon aikana määräämään/päivittämään suodattimen parametreja esimerkiksi virheiden kovariansseja [4, luku 11]. Algoritmi 3 Kalmanin suodatin Tilamalli: x k = Φ k 1 x k 1 + w k 1, V(w k 1 ) = Q k 1 Mittausmalli: y k = H k x k + v k, V(v k ) = R k Mittaukset: y 1:m = {y 1,y 2,...,y m } Alkutila-estimaatti ja -MSE: ˆx 0 ja P 0 1. Asetetaan k = Priori-estimaatti: ˆx k = Φ k 1 ˆx k 1 Priori-MSE: P k = Φ k 1P k 1 Φ T k 1 + Q k 1 Kalmanin vahvistus: K k = P k HT k (H kp k HT k + R k) 1 Posteriori-estimaatti: ˆx k = ˆx k + K k(y k H k ˆx k ) Posteriori-MSE: P k = (I K k H k )P k 3. Lopetetaan jos k = m, muutoin asetetaan k = k+ 1 ja palataan kohtaan 2. Esimerkki 20 (Kalmanin suodattimesta). Kuvassa 3.1 on esimerkki tilanteesta, jossa on käytetty kappaleessa 3.1 käsiteltyä kaksiulotteista vakionopeusmallia. Vakionopeusmalli toteuttaa Kalmanin suodattimen tilamallille asettamat oletukset. Esimerkin parametrit ovat seuraavat. x 0 = [ ] [ T 10, P0 = 2 ] I 0, Φ = [ I I 0 I ], Q = H = [ I 0 ] ja R = I [ 13 ] 1 I 2 I, 1 2 I I [ ]. (3.14)
46 Tosireitti on piirretty kuvaan mustalla katkoviivalla. Kalmanin suodattimen käyttämät mittaukset (paikkakoordinaatit) on merkitty kuvaan punaisilla pisteillä, jotka on aikajärjestyksessä yhdistetty toisiinsa ohuella viivalla. Kalmanin suodattimen antama paikkaestimaatti on piirretty kuvaan yhtenäisellä sinisellä viivalla. Lähtö 100 m Kuva 3.1: Kuvassa on paikannettavan reitti minuutin ajalta mustalla katkoviivalla. Paikannusjärjestelmä antaa mittausmallin mukaisia paikkamittauksia sekunnin välein, saadut paikkamittaukset ovat merkitty kuvaan punaisilla pisteillä. Sininen yhtenäinen viiva kuvastaa mittauksista suodatettua paikkaestimaattia. 3.3 Epälineaariset Kalmanin suodattimet Kalmanin suodatin on erittäin suosittu lineaarisille systeemeille, koska se on verrattain nopea laskea ja tarvitsee vain vähän oletuksia. Tämän vuoksi Kalmanin suodattimesta on tehty lukuisia laajennuksia myös epälineaarisille systeemeille (3.1), (3.2). Tässä kappaleessa esitellään perusidea johon useimmat Kalmanin suodattimen laajennukset perustuvat. Aluksi esitämme hieman yleistetyn version BLU-estimaattorista. Olkoon E ([ xk y k ]) [ xk = Nyt tilan x k BLU-estimaattori on [4] ȳ k ], ja V ([ xk y k ]) [ Pxxk P = xyk P yxk P yyk ]. ˆx k = x k + P xyk P 1 yy k (y k ȳ k ), E((x k ˆx k )(x k ˆx k ) T ) = P xxk P xyk P 1 yy k P yxk. (3.15) Kalmanin suodattimen epälineaariset laajennukset pyrkivät ratkaisemaan yhtälössä (3.15) olevat tuntemattomat suureet, x k,ȳ k,p xxk,p xyk = P T yx k,p yyk, jollakin approksimaatiolla. Käytämme tälläisistä algoritmeista yleisnimitystä epälineaarinen Kalmanin suodatin, jonka algoritmi on annettu sivulla 47. Seuraavaksi käsittelemme hieman tarkemmin kahta yleisesti käytössä olevaa epälineaarista Kalmanin suodatinta, nk. laajennettua Kalmanin suodatinta (EKF) ja hajutonta Kalmanin suodatinta (UKF) [31]. 46
47 Epälineaarisia Kalman suodattimia käyttäessä on hyvä muistaa, etteivät ne varsinaisesti edes approksimoi optimaalista ratkaisua, jota käsitellään kappaleessa 3.4. Tämän vuoksi esim. EKF saattaa antaa täysin vääriä tuloksia kuten sivun 55 esimerkissä. Kuitenkin useissa tapauksissa epälineaariset Kalmanin suodattimet toimivat varsin hyvin (kts. harjoitustehtävä 3.10) ja ne vaativat usein selvästi vähemmän laskentaan kuin yleiset Bayeslaisen suodattimen numeeriset approksimaatiot joita käsitellään kappaleessa 3.5. Näiden vuoksi epälineaariset Kalmanin suodattimet ovat suosittuja. Algoritmi 4 Epälineaarinen Kalmanin suodatin Tilamalli: x k = f k 1 (x k 1 )+w k 1, V(w k 1 ) = Q k 1 Mittausmalli: y k = h k (x k )+v k, V(v k ) = R k Alkutila-estimaatti, -MSE ja mittaukset: ˆx 0, P 0 ja y 1:m = {y 1,y 2,...,y m } 1. Asetetaan k = Priori-estimaatti: ˆx k = x k Priori-MSE: P k = P xx k Posteriori-estimaatti: ˆx k = ˆx k + P xy k P 1 yy k (y k ȳ k ) Posteriori-MSE: P k = P xxk P xyk P 1 yy k P yxk, 3. Lopetetaan jos k = m, muutoin asetetaan k = k+ 1 ja palataan kohtaan Laajennettu Kalmanin Suodatin Laajennettu Kalmanin suodatin (algoritmi 4) on epälineaarinen Kalmanin suodatin, joka perustuu tilamallin ja mittausmallin 1. asteen Taylorin sarjan approksimaatioon. Tilamallin approksimaatio: x k f k 1 ( ˆx k 1 )+Φ k 1 (x k 1 ˆx k 1 )+w k 1, missä Φ k 1 = f k 1 ( ˆx k 1) ja Mittausmallin approksimaatio: y k h k ( ˆx k )+H k(x k ˆx k )+v k, missä H k = h k ( ˆx k ). Tällöin algoritmin 4 tuntemattomat suureet saadaan helposti laskettua ja ne ovat: [ ] [ ] xk fk 1 ( ˆx = k 1 ) ȳ k h k ( ˆx k ), ja [ ] [ Pxxk P xyk P = k P ] k HT k P yxk P yyk H k P k H k P k HT k + R, k missä P k = Φ k 1P k 1 Φ T k 1 +Q k 1. On mahdollista käyttää myös korkeamman asteen Taylorin sarjaa approksimoitaessa yllä lueteltuja suureita. Tosin korkeampiasteisia sarja-approksimaatioita käytettäessä yleensä joudutaan olettamaan enemmän priori- ja posteriori-jakaumista 47
48 esimerkiksi normaalisuus, että saadaan kaavassa (3.15) olevat suureet laskettua. Usein myös jo ensimmäisen asteen Taylorin sarjan laskeminen analyyttisesti tuottaa vaikeuksia ja on joissakin tapauksissa mahdotonta. Tämän vuoksi on kehitetty epälineaarisia Kalmanin suodattimia, joissa ei tarvitse laskea tilasiirtofunktion tai mittausfunktion derivaattaa. Seuraavassa kappaleessa käsiteltävä UKF on eräs tälläinen derivaattavapaa suodatin Hajuton Kalmanin Suodatin Derivaattavapaa epälineaarinen Kalman suodatin UKF (Unscented Kalman Filter) perustuu numeeriseen integrointimenetelmään jota kutsutaan hajuttomaksi muunnokseksi (UT). UT approksimoi funktion f(x) odotusarvoa nk. σ-pisteiden {χ 0,...,χ N 1 } avulla kun tiedetään satunnaismuuttujan x jakauma. Tämä numeerinen integrointimenetelmä voidaan kirjoittaa muotoon Z E(f(x)) = f(x)p(x)dx N 1 ω i f(χ i ), (3.16) i=0 missä painot ω i ja sigma-pisteet χ i valitaan siten, että approksimaatio on tarkka tietyn asteiselle polynomille f(x) mikäli satunnaismuuttuja x on normaalisti jakautunut. Olkoon n tilan dimensio, satunnaismuuttujan x odotusarvo ˆx ja kovarianssimatriisi P. Tällöin yleisesti käytetty σ-pisteiden valinta sisältää 2n+1 pistettä, jotka ovat Indeksi (i) Paino (ω i ) σ-piste (χ i ) 0 ˆx κ κ+n 1,...,n 1 2(κ+n) ˆx+ κ+n Pe i 1 n+1,...,2n 2(κ+n) ˆx κ+n Pe i n, (3.17) missä P tarkoittaa sellaista matriisia jolle pätee, että P P T = P. Parametri κ > n on vapaasti valittava vakio. Kyseisillä σ-pisteiden ja painojen valinnoilla approksimaatio (3.16) on tarkka mikäli satunnaismuuttuja x on normaalisti jakautunut ja funktio f(x) on kolmannen asteen polynomi. Lisäksi valinta κ = 3 n minimoi neljännen asteen polynomin integraaliapproksimaatiovirhettä ja sen takia se on yleisesti käytössä, katso harjoitustehtävä 3.6. Olkoon nyt {χ 0k 1,...,χ (N 1)k 1 } ajanhetken t k posteriori-jakauman perusteella generoidut σ-pisteet. Tällöin algoritmin 4 tuntemattomat suureet saadaan ratkaistua: x k = P xxk = P xyk = P yyk = N 1 N 1 ω ik 1 f k 1 (χ ik 1 ), ȳ k = ω ik 1 h k (χ ik k 1 ), i k 1 =0 i k 1 =0 N 1 ω ik 1 (f k 1 (χ ik 1 ) x k )(f k 1 (χ ik 1 ) x k ) T + Q k 1, i k 1 =0 N 1 ω ik 1 (χ ik k 1 x k )(h k (χ ik k 1 ) ȳ k ) T ja i k 1 =0 N 1 ω ik 1 (h k (χ ik k 1 ) ȳ k )(h k (χ ik k 1 ) ȳ k ) T + R k, i k 1 =0 48
49 missä χ ik k 1 = f k 1 (χ ik 1 ). Toinen tapa on generoida nämä priori-jakauman σ-pisteet priorijakaumasta, jonka odotusarvo on x k ja kovarianssimatriisin on P xxk, jolloin tulokset hieman poikkeavat edellisestä toteutuksesta. 3.4 Bayeslainen suodatin Tässä kappaleessa käytetään luvun alussa sivulla 40 esitettyjä tilamallia, mittausmallia ja alkutilaa ja niille annettuja oletuksia mm. riippumattomuusoletukset. Bayeslaisen suodatuksen tavoitteena on ratkaista tilan ehdollinen tiheysfunktio ehdolla mittaukset, p xk y 1:k (x k y 1:k ) = p(x k y 1:k ). Lyhennysmerkintää käytetään mikäli asiayhteydestä helposti huomaa mitä merkintä tarkoittaa. Oletetaan, että tiedetään tilan ehdollinen tiheysfunktio edellisellä ajanhetkellä p(x k 1 y 1:k 1 ). Tämän hetken ehdollinen tiheysfunktio ehdolla aikaisemmat mittaukset p(x k y 1:k 1 ) saadaan ratkaistua Chapman-Kolmogorov yhtälön ja riippumattomuuksien avulla Z p(x k y 1:k 1 ) = p(x k x k 1 )p(x k 1 y 1:k 1 )dx k 1. Tätä jakaumaa kutsutaan priori-jakaumaksi. Ehdollinen tiheysfunktio p(x k x k 1 ) saadaan johdettua tilamallista p(x k x k 1 ) (3.1) = p wk 1 (x k f k 1 (x k 1 )). Nyt Bayesin säännön ja virheiden riippumattomuusoletuksien nojalla saadaan ratkaistua kaava tämänhetkiselle ehdolliselle tiheysfunktiolle ehdolla nykyiset ja aikaisemmat mittaukset. p(x k y 1:k ) = p(y k x k )p(x k y 1:k 1 ) R p(yk x k )p(x k y 1:k 1 )dx k. Tätä jakaumaa kutsutaan posteriori-jakaumaksi. Osoittajan ensimmäistä termiä p(y k x k ) = p yk =y k x k (y k x k ) (3.2) = p vk (y k h k (x k )) kutsutaan uskottavuudeksi, huomaa ettei tämä ole todennäköisyystiheysfunktio. Posteriorijakauman tiheysfunktio on verrannollinen priori-jakauman tiheysfunktion ja uskottavuuden tuloon. Nimittäjänä on normalisointivakio p(y k y 1:k 1 ), joka kertoo uuden mittauksen ehdollisen tiheysfunktion arvon ehdolla aikaisemmat mittaukset. Tästä suodatusta voi jatkaa rekursiivisesti. Kuten jo todettiinkin niin lineaaris-gaussisessa tapauksessa Kalmanin suodatin ratkaisee tämän suodatusongelman, kts. harjoitus 3.5. Kuitenkaan yleisessä tapauksessa posteriorijakaumia ei voida analyyttisesti ratkaista. Tämän vuoksi on kehitelty useita numeerisia menetelmiä posteriori-jakauman approksimointiin. Näitä menetelmiä käsitellään tarkemmin kappaleessa
50 Optimaalinen estimaattori Bayeslainen suodatin antaa posteriori-jakauman, kuitenkin käytännön sovelluksissa yleensä halutaan tietää optimaalinen tilan estimaattori ja arvio estimointivirheelle. Estimaattorilla tarkoitetaan mielivaltaista funktiota, jonka argumentteina ovat mittaukset ja alkutila. Optimaalinen tarkoittaa tässä sitä että kyseinen estimaattori, jonka realisaatioita estimaatit ovat, minimoi jonkin skalaarisen kustannusfunktion L(x k ˆx k ) odotusarvon, lyhyesti kirjoitettuna ˆx k = argminˆxk E(L(x k ˆx k )). Kustannusfunktio voidaan valita monella eri tavoin ja näin saadaan erilaisia optimaalisia estimaattoreita. Yleensä oletetaan, kuten tässäkin kappaleessa, että kustannusfunktio on epänegatiivinen ja origossa se saa arvon nolla. Koska E(L(x k ˆx k )) = E(E(L(x k ˆx k ) y 1:k )), (3.18) niin riittää löytää sellainen estimaattori joka minimoi ehdollisen odotusarvon ˆx k = argminˆxk E(L(x k ˆx k )) = argminˆxk E(L(x k ˆx k ) y 1:k = y 1:k ), (3.19) kaikilla mittausten arvoilla y 1:k. Eräs hyvin yleinen estimaattori on pienimmän neliösumman estimaattori. Tällöin pyritään minimoimaan virheen normin neliön odotusarvoa, jolloin L(x k ˆx k ) = x k ˆx k 2. (3.20) Voidaan osoittaa, että kustannusfunktiota (3.20) vastaava estimaattori on posteriorin odotusarvo ˆx kmse = E(x k y 1:k = y 1:k ), (kts. harjoitus 3.7). Itseasiassa tätä samaa kustannusfunktiota käytettiin myös Kalmanin suodattimen johtamiseen (kappale 3.2). On kuitenkin hyvä muistaa, että Kalmanin suodatin minimoi vain odotusarvoa (3.18) lineaaristen estimaattorien joukossa, kun taas tässä kappaleessa käsiteltävät optimaaliset estimaattorit minimoivat ehdollisen odotusarvon (3.19) kaikkien estimaattoreiden joukosta. Toinen yleinen estimaattori on maximum a posteriori eli MAP-estimaattori, nimen mukaan tällöin estimaattori on ˆx kmap = argmax xk p(x k y 1:k ). MAP-estimaattori minimoi nk. hit or miss-kustannusfunktion L = lim δ 0 L δ, missä { 1, xk ˆx L δ (x k ˆx k ) = k δ 0, x k ˆx k < δ, 3.5 Suodatuksen numeerisia menetelmiä Tässä kappaleessa käsitellään numeerisia menetelmiä suodatusongelman ratkaisemiseksi. Hyvältä numeeriselta menetelmältä vaaditaan, että sillä on parametri N, jota kasvattamalla 50
51 menetelmän antama ratkaisu lähestyy oikeaa ratkaisua. Toisaalta yleensä myös laskenta-aika kasvaa parametrin kasvaessa. Usein tämä parametri on parien {p i k (x),ωi k } (i = 1,...,N) lukumäärä N, joiden avulla voidaan approksimoida posteriori-jakauman tiheysfunktiota p(x k y 1:k ) N i=1 ω i k pi k (x k). Esimerkiksi partikkelisuodattimella (kappale 3.5.2) ja pistemassasuodattimella p i k (x k) = δ(x k x i k ), missä δ on delta-funktio (Diracin deltamitta). Hila-suodattimella p i k (x k) on joukon A i karakteristinen funktio ja gaussisella mixture suodattimella p i k (x k) on normaalijakauman tiheyfunktio. Partikkelisuodattimen ja pistemassasuodattimen suurin eroavaisuus on siinä, että partikkelisuodattimessa partikkelit {x i k } valitaan satunnaisesti kun taas pistemassasuodattimessa ne ovat determinisesti määrätyt. Partikkelisuodatin perustuu Monte Carlo -integrointiin, jota käsitellään seuraavassa kappaleessa Monte Carlo -integrointi Monte Carlo -integrointi perustuu suurten lukujen lakiin. Lause 7 (Vahva suurten lukujen laki). Olkoon z 1,z 2,...,z n riippumattomia, samoin jakautuneita satunnaismuuttujia. Tällöin ( ) n 1 P lim z i = µ = 1 n n i=1 jos ja vain jos jakaumalla on odotusarvo ja E(z) = µ. Kirjoitetaan integraali muotoon Z I = g(z)dz = Z Z g(z) f(z) f(z)dz = h(z) f(z)dz, (3.21) missä f(z) > 0 on satunnaismuuttujan z tiheysfunktio. Tällöin edellisen lauseen mukaan otoskeskiarvo h n = 1 n n i=1 h(z i ) (3.22) suppenee melkein varmasti kohti integraalia I (3.21). Mikäli E(h(z) 2 ) on olemassa niin satunnaismuuttujan h n varianssia voidaan approksimoida V( h n ) = 1 Z [h(z) E(h(z))] 2 f(z)dz 1 n ) 2 = n n h(zi i=1( 2 ) h n σ 2 h n. (3.23) Tällöin sanotaan, että otoskeskiarvo suppenee melkein varmasti. Melkein varmasta suppenemisesta seuraa myös suppeneminen todennäköisyyden mielessä, josta edelleen seuraa suppeneminen jakauman mielessä. 51
52 Lisäksi voidaan osoittaa, että osamäärä (vrt. keskeinen raja-arvolause) h n E(h(z)) σ 2 h n lähestyy jakauman mielessä satunnaismuuttujan N(0,1) jakaumaa. Esimerkki 21 (Monte Carlo-integrointi). Olkoon satunnaismuuttuja z N(0, 1) ja { 34 (1 z g(z) = 2 ), z 1 0, z > 1 Tällöin integraalin R g(z)dz = 1 Monte Carlo -approksimaation eräs realisaatio on noin 1.005, yhtälö (3.22) ja tämän approksimaation varianssin approksimaatio on noin (3.23) kun simuloitujen satunnaismuuttujien määrä n = Näitä arvoja vastaavan normaalijakauman tiheysfunktio on piirretty vasemmalle puolelle kuvaan 3.2. Tiheysfunktion taustalla on piirretty histogrammi tuhannesta Monte Carlo -simulaatiosta. Histogrammi muistuttaa paljon normaalijakaumaa jonka odotusarvo on yksi, aivan teorian mukaan. Kuvassa 3.2 oikealla puolella on tutkittu Monte Carlo -integroinnin virhettä verrattuna satunnaismuuttujien simuloituun määrään n. Pisteiden taustalle on piirretty log-log asteikolla oleva suora, joka kuvastaa teorian mukaista suppenemisnopeutta O(n 1 2) Jakauma N(1.005,3.045e 5) Approksimaatioiden jakauma 10 1 Virheen itseisarvo "Suora" log(err)= 0.5log(n)+log(a) virhe pisteiden lkm (n) Kuva 3.2: Kuva esimerkin simulaation tuloksista, selitykset löytyvät tekstistä Partikkelisuodatin Tässä kappaleessa käsitellään partikkelisuodattimia [31]. Partikkelisuodatin perustuu Monte Carlo-menetelmään ja se approksimoi priori- ja posteriori-jakaumia otoksilla ko. jakaumista nk. 52
53 partikkelipilvillä. Algoritmi 5 kuvaa yleistä partikkelisuodatinta. Itse asiassa kyseistä algoritmia voidaan pitää partikkelisuodattimien suodatusperheen algoritmina, koska valitsemalla mallin parametrejä sopivasti saamme erilaisia partikkelisuodattimia. Näitä valintoja käsitellään tässä kappaleessa. Lisäksi on hyvä muistaa ettei tämä ole yleisin formulointi partikkelisuodattimelle vaan on olemassa vielä yleisempiä tai jollakin tavalla eroavia partikkelisuodattimia. Algoritmi 5 Partikkelisuodatin Tilamalli: x k = f k 1 (x k 1 )+w k 1, p wk 1 (w) Mittausmalli: y k = h k (x k )+v k, p vk (v) Alkutila ja mittaukset: p x0 (x) ja y 1:m = {y 1,y 2,...,y m } Partikkelien määrä ja ehdokasjakaumat: N ja g(x k x i k 1,y k) Tässä algoritmissa i = 1,...,N. 1. Simuloidaan näytteet x i 0 jakaumasta p x 0 (x) Asetetaan ω i 0 = 1 N ja k = 1 2. Simuloidaan partikkelit x i k jakaumista g(x k x i k 1,y k) Asetetaan ω i k = ωi k 1 3. Normalisointi: ω i k = ωi k N i=1 ωi k 4. Lasketaan pyydetyt estimaatit, esim: p vk (y k h k (x i k ))p w k 1 (x i k f k 1(x i k 1 )) g(x i k xi k 1,y k) Posteriori-odotusarvo: ˆx k N i=1 ωi k xi k Posteriori-kovarianssimatriisi: P k N ( )( ) i=1 ωi k x i k ˆx k x i T k ˆx k 5. Uudelleennäytteistys tarvittaessa: Simuloidaan partikkelit x i k jakaumasta k i ωi k δ(x k x i k ) Asetetaan ω i k = 1 N 6. Lopetetaan jos k = m, muutoin asetetaan k = k+ 1 ja palataan kohtaan 2. Sekventiaalinen painotuspoiminta (sequential importance sampling SIS) on yksinkertainen partikkelisuodatin ja se saadaan algoritmista 5 kun uudelleennäytteistys (kohta 5) jätetään pois. Tämä kuitenkin aiheuttaa sen että ajan kuluessa kaikki paino kertyy vain muutamalle partikkelille. Tällöin käytännössä katsoen kaikki muut painot ovat nollia, silloin joudutaan kuluttamaan paljon laskentakapasiteettia ilman että sillä olisi vaikutusta posteriori-jakauman approksimaatioon. Tämän vuoksi SIR-suodattimessa (sampling importance resampling) uudelleennäytteistys tehdään joka askeleella, lisäksi ehdokasjakaumina g(x k x i k 1,y k) käytetään priorijakaumia p(x k x i k 1 ). Tällöin algoritmissa kohdassa 2 oleva painojen kaava sievenee muotoon ω i k = p v k (y k h k (x i k )). 53
54 SIS-suodattimessa ei tehdä ollenkaan uudelleennäytteistystä, kun taas SIR-suodattimessa se tehdään joka ajanhetki. Kumpikaan näistä ei yleisesti ottaen ole optimaalinen tapa toimia. Tämän vuoksi on kehitelty tapoja, joilla voi arvioida kannattaako uudelleennäytteistys vai ei. Eräs tälläinen tapa on laskea approksimaatio effektiiviselle näytteiden lukumäärälle 1 N eff N i=1 (ωi k )2, ja mikäli tämä on pienempi kuin tietty kynnysarvo niin tehdään uudelleennäytteistys, muuten ei. Effektiivinen näytteiden lukumäärä arvioi kuinka monta näytettä oikeasta posteriori-jakaumasta tuottaisi saman tarkkuuden kuin suodattimen käyttämä partikkeli pilvi. Uudelleennäytteistys voidaan tehdä monella eri tavalla. Algoritmissa 6 on esitetty nk. systemaattinen uudelleennäytteistys. Laskennallisesti raskaampi uudelleennäytteistysalgoritmi (nk. multinomi uudelleennäytteistys) saadaan kun simuloidaan systemaattisessa uudelleennäytteistysalgoritmissa vertailupisteet z i Tas(0,1] joka kerta. Systemaattisessa uudelleennäytteistämisessä jokaisesta välistä ( i 1 N, N] i otetaan yksi näyte. Tämä takaa sen että jos partikkelin paino ω j k N l, missä l on luonnollinen luku, niin uudelleennäytteistetyssä partikkelijoukossa partikkeli x j k esiintyy ainakin l kertaa. Tämä pätee myös nk. ositetussa (stratified) uudelleennäytteistyksessä missä simuloidaan yksi vertailupiste jokaiselta väliltä ( i 1 N, N] i ja muuten toimitaan kuten algoritmissa 6. Algoritmi 6 Systemaattinen uudelleennäytteistys Partikkelit ja painot {x i k,ωi k }, missä i = 1,...,N. 1. Simuloi lähtöpiste: z 1 Tas(0, N 1 ] ja asetetaan i = Lasketaan nykyinen vertailupiste z i = z 1 +(i 1) 1 N 3. Asetetaan ω i k = N 1 ja xi k = x j j 1 k, missä j määrätään s.e. l=1 ωl k < z i j l=1 ωl k. 4. Lopetetaan jos i = N, muutoin astetaan i = i+1 ja palataan kohtaan 2 Ehdokasjakaumat g(x k x i k 1,y k) mainittiin edellä SIR-suodattimen kohdalla, joka käyttää priorijakaumia p(x k x i k 1 ) ehdokasjakaumina. Priori-jakaumia käytetään muissakin partikkelisuodattimissa usein ehdokasjakaumina vaikkeivät ne olekaan optimaalinen valinta effektivisen näytteen koon kannalta. Optimaalinen valinta efektiivisen näytteiden määrän kannalta olisi käyttää posteriori-jakaumia p(x k x i k 1,y k) ehdokasjakaumina. Kuitenkaan yleensä näitä ei tunneta, jolloin usein päädytään käyttämään joko priori-jakaumia tai posteriori-jakaumien approksimaatioita, jotka voidaan laskea vaikka epälineaarisella Kalmanin suodattimella (kappale 3.3). Esimerkki 22 (PF ja EKF). Kuvassa 3.3 on paikannusesimerkki käyttäen partikkelisuodatinta (PF) ja laajennettua Kalmanin suodatinta (EKF). Systeemin tila on neliulotteinen, kaksi paikkakoordinaattia ja kaksi nopeuskoordinaattia, muutenkin tilamallin parametrit Φ ja Q ovat Koska juuri niitähän ollaan ratkaisemassa. 54
55 samoja kuin Kalmanin suodattimen esimerkissä (3.14). Mittauksina puolestaan on sekunnin välein etäisyysmittaus (katso esimerkki 14 sivu 24) kahdesta tukiasemasta, jotka on myös piirretty kuvaan. Tällöin mittausmalli on [ ] xbs1 x y k = k + v k, missä x bs1 = [ ] [ 250, x bs2 = 0 x 0 N x bs2 x k ] ja v k N(0,10 2 I). Alkutilana systeemissä on, Kuvaan on piirretty suodattimien antamat paikkaestimaatit, jotka ovat tässä tapauksessa posteriori-jakaumien odotusarvojen approksimaatioita. Ajanhetkinä {0, 10, 20, 30, 40} on piirretty EKF antamia kovarianssimatriiseja vastaavat ellipsit. Ellipsit on määritelty siten, että jos posteriori-jakaumat olisivat normaaleja EKF:n antamin parametrein niin ellipsi edustaisi posteriori-jakauman tiheysfunktion tasa-arvo käyrää siten että n. 68% todennäköisyydellä tila on ellipsin sisällä. Kuvassa 3.3 käytetty partikkelisuodatin on miljoonan partikkelin SIR-suodatin (s. 53). Partikkelipilviä on havainnoillistettu ajanhetkillä {0, 10, 20, 30, 40} sadalla partikkelilla, jotka on saatu alkuperäisestä miljoonan partikkelin joukosta hyödyntäen systemaattista uudelleennäytteistystä (algoritmi 6). Koska partikkelien määrä on verraittain suuri niin voidaan ajatella, että partikkelisuodatin edustaa esimerkissä jonkinlaista referenssisuodatinta. Start 50 m Tosi reitti Partikkeli suodatin Laajennettu Kalmanin suodatin Kuvasta huomataan, että ajanhetkellä 40 posteriori-jakauma on selvästi kaksihuippuinen jakauma. EKF on lähtenyt seuraa- Kuva 3.3: Kuva esimerkin tilanteesta. maan toista näistä huipuista, joka on hyvin ominaispiirteistä EKF:lla. Tässä tapauksessa EKF on valinnut väärän huipun ja tällöin sanotaan että EKF on hairahtunut. Tällöin EKF antaa täysin vääriä tuloksia, kuitenkin toisaalta EKF:n antama virheen kovarianssimatriisi osoittaa, että EKF luottaa hyvin paljon kyseiseen estimaattiin ja tämä aiheuttaa sen että EKF ei jatkossakaan kovinkaan helposti löydä oikeata paikkaa vaikka posteriori-jakauma muuttuisi yksihuippuiseksi, esimerkiksi mittauksia tulisi muistakin kuin näistä kahdesta tukiasemasta. Nyrkkisääntönä voidaankin pitää, että EKF:ää kannattaa soveltaa systeemiin, jos posteriori-jakaumat muistuttavat normaalijakaumaa eli ovat yksihuippuisia ja jakauman hännät menevät kovaa vauhtia kohti nollaa, mutta tälläisessä kaksihuippuisessa tapauksessa EKF:n soveltaminen alkaa olemaan aika riskialtista. Tosin tämäkin tilanne muuttuisi täysin mikäli etäisyysmittauksia tulisi vielä kolmannestakin tukiasemasta tai reitti ei kulkisi lähellä tukiasemien kautta kulkevaa suoraa. 55
56 Harjoitustehtäviä 3.1. Näytä, että mittauksen y k = H k x k + v k ennusteen ŷ k = H k ˆx k H k P k HT k + R k. keskineliövirhematriisi on 3.2. Oletetaan, että matriisi R on symmetrinen positiivisesti definiitti ja matriisi P on symmetrinen positiivisesti semidefiniitti. Osoita, että (I KH)P(I KH) T + KRK T = P AA T +(KB A)(KB A) T, missä B = (HPH T + R) 1 2 ja A = PH T B Olkoon A mielivaltainen reaalimatriisi, näytä että nollamatriisi on yksikäsitteinen ratkaisu tehtävälle argmin A tr(aa T ) Ositetulle matriisille pätee (tarkista) [ ] 1 [ A B (A BD = 1 C) 1 A 1 B(D CA 1 B) 1 C D D 1 C(A BD 1 C) 1 (D CA 1 B) 1 ], mikäli tarvittavat käänteismatriisit ovat olemassa. Toisaalta tiedetään, että symmetrisen matriisin käänteismatriisi on symmetrinen. Näiden tietojen soveltamisessa matriisiin [ P 1 H T ] H R saattaa olla apua seuraavassa tehtävässä. Lisäksi olkoon A ja B ovat symmetrisiä, positiivisesti definiittejä matriiseja. Nyt jos A B, niin B 1 A 1 [13, Korollaari ]. (a) Osoita, että (P 1 + H T R 1 H) 1 = P PH T (HPH T + R) 1 HP, tässä P > 0 ja R > 0. (b) Osoita, että lineaaris gaussisessa tapauksessa posteriorin kovarianssimatriisi on kasvava. Siis osoita, että jos 0<P 1 P 2 niin 0<P + 1 P+ 2, missä P+ i =(I K i H)P i ja K i = P i H T (HP i H T + R) (a) Olkoon x k 1 N( ˆx k 1,P k 1 ), w k 1 N(0,Q k 1 ) ja v k N(0,R k ) riippumattomia satunnaismuuttujia. Mikä on satunnaismuuttujan [ ] [ ] x xk Φk 1 I 0 k 1 = w y k H k Φ k 1 H k I k 1 v k jakauma? (b) Olkoon [ x y ] ([ x N ȳ ] [ Σxx Σ, xy Σ yx Σ yy ]), näytä, että x y = y N( x+σ xy Σ 1 yy (y ȳ),σ xx Σ xy Σ 1 yy Σ yx). 56
57 (c) Sovella (b)-kohdan tulosta (a)-kohdan jakaumaan ja vertaa saatua tulosta kappaleessa 3.2 esitettyyn BLU-estimaattoriin Näytä, että yksiulotteisessa tapauksessa UT käyttäen kaavassa (3.17) annettuja pisteitä approksimaatio (3.16) on tarkka kolmannenasteen polynomille. Tässä luonnollisestikin p(x) on jakauman N(µ,σ 2 ) tiheysfunktio. Millä perusteella valinta κ = 2 on järkevä? (vihje: R x 4 p(x)dx = µ 4 + 6µ 2 σ 2 + 3σ 4 ) 3.7. Osoita, että posteriorin odotusarvo minimoi odotusarvon E( x k ˆx k 2 y 1:k = y 1:k ). Tietokonetehtävät 3.8. Ohjelmoi Kalmanin suodatin, jonka määrittely näyttää seuraavanlaisesta. % [X,P] = kalman(x0,p0,f,q,y,h,r) % % x_{k+1} = Fx_{k}+w % y_{k} = Hx_{k}+v % % IN: x0 = alkutila hetkellä 0 (R^n) % P0 = alkutilan kovarianssimatriisi % F = tilansiirtomatriisi % Q = liikemallin virheen w kovarianssimatriisi % Y = mittaukset Y=[y_1,...,y_k](R^(m \times k), % m mittausta joka ajanhetki) % H = mittausmalli % R = mittausvirheen v kovarianssimatriisi % %OUT: X = [x_0,x_1,...,x_k], missä x_i on estimaatti hetkellä i. % P(:,:,i) = keskineliövirhematriisi ajanhetkellä i function [X,P] = kalman(x0,p0,f,q,y,h,r) Testaa suodatinta sivulta harkat.html löytyvällä datalla ja visualisoi suodattimen antamia tuloksia. Säästä tekemäsi koodit myöhempää käyttöä varten (tehtävä 3.10) Laske Monte Carlo integroinnilla lauseke R A 2π x I = exp( 1 2 xt x ) dx RA 2π 1 exp( 1 2 xt x ) dx, missä A = [0, 2] [0, 2]. Lisäksi tutki Monte Carlo simulaatioiden suppenemista kohti tarkkaa arvoa [ ] 1 exp( 2) 1 I =, 2π(Φ(0) Φ( 2)) 1 57
58 missä Φ on jakauman N(0, 1) kertymäfunktio. Kyseinen integraali esittää posteriorijakauman odotusarvoa, mikä priorijakauma on N(0, I) ja mittauksena tieto, että tila sijaitsee alueessa A Ohjelmoi kaksi suodatinta joukosta {EKF, UKF, PF}. Suodattimien määrittelyn tulee näyttää seuraavanlaisesta. % [X,P,...] = suodatin(x0,p0,f,q,y,s,r) % % x_{k+1} = Fx_{k}+w % y_{k} = h(x_{k})+v, % missä (h(x_{k}))_i on etäisyysmittaus tukiasemaan s_i. % % IN: x0 = alkutila hetkellä 0(R^n) % P0 = alkutilan kovarianssimatriisi % F = tilansiirtomatriisi % Q = liikemallin virheen w kovarianssimatriisi % Y = mittaukset Y=[y_1,...,y_k](R^(m \times k), % m mittausta joka ajanhetki) % S = tukiasemien koordinaatit [s_1,...,s_l] % R = mittausvirheen v kovarianssimatriisi % %OUT: X = [x_0,x_1,...,x_k], missä x_i on estimaatti hetkellä i. % P(:,:,i) = keskineliövirhematriisi ajanhetkellä i function [X,P,...] = suodatin(x0,p0,f,q,y,s,r) Lisäksi testaa ja vertaile suodattimia sivulta ~aliloytt/menetelmat/harkat.html löytyvällä datalla ja visualisoi suodattimien antamia tuloksia. 58
59 Luku 4 Paikannustekniikoita 4.1 Inertiapaikannus Kappaleessa 1 käytiin jo koordinaatistojen vaihtoja läpi, ja periaatteessa inertiapaikannusalgoritmit perustuvatkin näihin operaatioihin. Mutta alku voi olla hieman hankalaa, ja ennen kuin käydään peruskaavat läpi, on ymmärrettävä mitä mitataan. Kiihtyvyysanturitriadin mittaus mainittiin jo, a B g B. Tämä on ehkä se hankalin mittaus, vektori a on nimittäin kiihtyvyys inertiakoordinaatistossa. Mittalaite kuitenkin ilmoittaa tämän vektorin itseensä sidotussa B-koordinaatissa. Ja lisäksi, ongelmana on se, että Newtonin liikelakien käyttö vaatii myös gravitaatiovoimien mittaamisen sepä ei kiihtyvyysantureilta suoraan onnistukaan! Esimerkiksi mantereeseen kiinnitetty kiihtyvyysanturitriadi etelänavalla ei ole kiihtyvässä liikkessä ECI-koordinaatiston suhteen. Mutta kiihtyvyysantureiden ulostulo on silti g. Newtonilaisestihan tässä tilanteessa piirretään gravitaatiovoimavektori alaspäin ja tukivoima ylöspäin. Ja voimat kumoavat toisensa, jolloin kiihtyvyydeksi saadaan 0. Mutta todelliseltä kiihtyvyyanturilta jää se vektori g mittaamatta. Tästä seuraa se, että jos paikanmuutoksia lasketaan ECI:ssä kiihtyvyysanturien avulla, pitää vektori lisätä erikseen mittauksiin. Ja g on paikan funktio. Harjoituksissa katsotaan minkälaisia takaisinkytkentöjä tästä seuraa. Seuraava ongelma on se, että a B on B-koordinaatiston koordinaateissa. Tässä koordinaatistossa olevia kiihtyvyysmittauksia ei ole järkevä integroida, pitää ensin siirtyä I- tai E- koordinaatistoon. Käytännössä tarvitaan C I B, CE B ja CL B, ja koska nämä eivät ole ajan myötä vakioita, tarvitaan gyrotriadin mittaukset. Gyrotriadihan mittasi vektoria w B IB. Käydään seuraavaksi läpi lyhyesti inertia-anturit, tarvittavat perusyhtälöt ja tutkitaan mittausvirheitä Kiihtyvyys- ja kulmanopeusanturit Inertia-termi viittaa kappaleen pyrkimykseen jatkaa kulkuansa, jos kappaleeseen ei kohdistu ulkoisia voimia. Kiihtyvyysanturit perustuvatkin tähän periaatteeseen, kuten myös osa gyroista. Kiihtyvyysanturin rakentamiseen tarvitaan massa, jousi, kotelo ja jonkinlainen indikaattori Yksinkertaisin gyro- ja kiihtyvyysanturikokoonpano koostuu kolmesta anturista, joiden mittausakselit ovat kohtisuorassa toisiinsa nähden. 59
60 massan paikasta kotelon suhteen (kuva 4.1). Voiman ja kiihtyvyyden suhde on tietysti tunnettu, ja jousen puristus tai venymä kertoo voiman suuruuden. Mittauksen ongelmana on jo mainittu g:n puuttuminen. Kuvassa (4.1) näkyvä jousen puristus voi nimittäin olla joko normaalivoiman ja gravitaation yhteisvaikutus, anturin ollessa paikallaan. Tai sitten syynä on kiihtyvyys inertiakehyksessä (ilman gravitaatiota). Anturi ei tiedä kumpi tilanne on kyseessä. Kulmanopeuden mittaamiseen on useita eri vaihtoehtoja. Mekaaniset gyrot perustuvat myös inertiaan, tällä kertaa liikkuvan anturielementin pyrkimyksiin vastustaa kiertoja. Yksi tapa mitata kulmanopeutta on asentaa pyörivä massa (M) laakeroituun koteloon (B), w B BM = [0 0 ω M] T. Ripustetaan massa siten, että pyörivä massa laakereineen pääsee pyörimään suunnassa u B out = [0 ± 1 0] T, mutta ei suunnassa u in = [±1 0 0] T. Tällöin liike w B IB = [ω in 0 0] T aiheuttaa ripustuksen kiertymisen suunnassa w B BM wb IB, mikä onkin u out suuntainen akseli. Kun mitataan kiertymistä tämän akselin suhteen saadaan tieto kulmanopeudesta u in akselin suhteen. Kuva 4.1: Kiihtyvyysanturin toimintaperiaate. Lähde: [36] Pyörivä massa ei välttämättä ole käytännöllinen jos suunnittelijalle on annettu rajoituksia koon tai virrankulutuksen suhteen. Toinen mekaaninen gyrotyyppi on värähtelevä gyro, jossa liike on edestakaista. Kuva 4.2 esittää äänirautagyron (tuning fork gyro) toimintaperiaatteen. Ylempi haarukka laitetaan resonoimaan sähkövirran avulla. Jos anturi pyörii sisäänmenoakselin ympäri, Coriolis-voima aiheuttaa edestakaisen liikkeen, joka on kohtisuorassa pakotetun resonoinnin suuntaan ja sisäänmenoakselin suuntaan nähden (nuolet alemmassa haarukassa). Tätä liikettä mitataan (yleensä kapasitiivisesti), ja tuloksena on kulmanopeudella moduloitu signaali, josta saadaan kulmanopeus selville. Mikromekaaniset (MEMS) gyrot toimivat tällä periaatteella. Kuva 4.2: Esimerkki Coriolis-voimaan perustuvasta gyrosta. Lähde: [36] Pyörimisen mittaamiseen ei välttämättä tarvita liikkuvia osia, sillä mekaanisille pyörimiseen liittyville ilmiöille löytyy sähkömagneettimen vastine, Sagnac-ilmiö. Ilmiön selittämiseen tarvitaan suhteellisuusteoriaa, mutta tämän kurssin puitteissa voidaan oikaista hieman. Lähetetään lasersäde matkaan, ja peilien Lisänä voi olla vielä takaisinkytkentä, joka pyrkii pitämään massan paikallaan koteloon nähden. 60
61 avulla ohjataan säde takaisin lähtöpaikkaan, kulkusuunta myötäpäivään. Lisätään toinen lasersäde, joka kulkee vastapäivään. Syntyy kaksi seisovaa aaltoa, joiden taajuuseroa mitataan. Kun kotelo pyörii I-koordinaatiston suhteen (laserin reitin määräämän tason normaalin ympäri), tämä taajuusero muuttuu. Tällä periatteella toimivaa gyroa kutsutaan rengaslasergyroksi (Ring Laser Gyro, RLG). Optisella mittaustavalla on useita etuja: Gyro on erittäin tarkka. Sisäänmenokaista on rajaton. Ei liikkuvia osia, tärinä ei haittaa ja luotettavuus on mekaanisia gyroja parempi. Lineaarinen kiihtyvyys ei vaikuta mittaukseen. Toisaalta hinta, koko ja virrankulutus estävät käytön henkilökohtaisissa sovelluksissa. Ainakin toistaiseksi. Kuva 4.3: Lasergyro. Lähde: [36] Keskeiset INS yhtälöt Tämän kappaleen kaavojen muoto on melko suoraan viittestä [32]. Paikkavektorin origona käytetään E-koordinaatiston origoa, ja g L lasketaan erikseen paikan funktiona (esim. gravitaatiomalli). B-koordinaatiston ja L-koordinaatiston aikaderivaatta esiteltiin jo aiemmin (1.25): Ċ L B = C B L(w B IB ) (w L IL )C L B. (4.1) Alkuehto C L B saadaan erilliseltä alustusalgoritmilta (Harjoitus 4.8). Kulmanopeustermi wb IB saadaan gyrotriadilta, ja termi w L IL on maan pyörimisen ja maanopeudesta johtuvan lokaalin koordinaatiston pyörimisen summa: w L IL = w L IE + w L EL (4.2) Pyörimissuuntaan kulkeva säde kulkee pidemmän matkan I-koordinaatistosta katsottuna... 61
62 Lokaali koordinaatistohan (L) pitää z-akselin kohtisuorassa pallon (ellipsoidin) pintaan nähden, ja kohteen liikkuessa maan pinnalla tämä koordinaatisto pyörii kulmanopeudella: w L EL = F c (u L ZL v L )+ρ ZL u L ZL (4.3) 3 3 matriisin F c koostumus riippuu siitä, käytetäänkö ellipsoidi- vai pallomallia. Lisäksi termillä ρ ZL säädetään L:n pohjois-akselin liikettä (Harjoitus 4.1). u L ZL on yksikkövektori joka kertoo suunnan ylös L-koordinaatistossa. Eli meidän sopimuksilla u L ZL = [0 0 1]T. Mitatun kiihtyvyysvektorin (merk. a B SF = ab g B ) muunnos L-koordinaatistoon: a L SF = C L Ba B SF (4.4) Lopuksi tarvitaan painovoima (g P =gravitaatio plus maapallon pyörimisen vaikutus) nopeusvektorin (suhteessa maapalloon, E-kehys) muutos ja horisontaalinen paikan muutosnopeus sekä korkeuden muutosnopeus g L P = g L (w L IE )(w L IE )R L, (4.5) v L = a L SF + gl P (w L EL + 2w L IE) v L, (4.6) Ċ E L = C E L(w L EL ) (4.7) ḣ = u L ZL v L. (4.8) Siinä kaikki. Paikka ja nopeus voidaan sopivasta alkuehdosta lähtien ratkaista differentiaaliyhtälöistä (4.6) (4.8). Ryhmitellään tärkeimpitä termejä hieman, jotta kokonaiskuva selkiytyy: Tietoa antureilta: a B SF ja wb IB Maapallon ominaisuuksiin liittyvät termit: w IE, g, F c Ja näitä alunperin haluttiin laskea: R E (paikkavektori ECEF:ssä, C E L ja h, korkeus referenssigeoidista ajaa saman asian, ks. harjoitus 4.2), v L (nopeus maapallon suhteen), C L B INS laitteen asento L-koordinaatistoon nähden Mittausvirheet Aloitetaan gyroista, koska niiden virheet yleensä määräävät koko INS-järjestelmän laadun. Tämä johtuu INS mekanisoinnin luonteesta, ja toisaalta siitä että kulmanopeuden mittaaminen on vaikeampaa kuin kiihtyvyyden. Luvun 2 merkintöjen mukaisesti, olkoon mitattu gyrojen ulostulo y. Mittausvirheiden vuoksi tämä ei käytännössä ole w B IB, vaan esimerkiksi mallin y = Mw B IB + b+n (4.9) 62
63 mukainen. Tässä matriisi M sisältää skaalaus- ja kohdistusvirheet (scale factor, misalignment). Kohinatermit on jaettu biastyyppiseen (b) ja autokorreloimattomaan kohinaan (n). Huomaa, että virhetermi on nyt v = (M I)w B IB + b+n, eli skaalaus- ja kohdistusvirheet aiheuttavat sen että virhe on mitattavan suureen funktio. Tämä aiheuttaa ongelmia mittavirheiden tilastollisessa analysoinnissa. Peruskokoonpanossa on kolme anturia, joiden mittausakselit ovat kohtisuorassa toisiinsa nähden. Tällöin (3 3) matriisin M diagonaalialkiot ovat vastaavien antureiden skaalausvirheet. Kohdistusvirhe johtuu siitä, että todellisuudessa antureita ei saa tarkalleen kohtisuoraan toisiinsa nähden. Tällöin tietyn akselin data näkyy myös toiselle anturille. Huippuluokan INS-laitteissa kohdistusvirhe on asteen tuhannesosan luokkaa, ja skaalauskerroin virheet muutaman miljoonasosan signaalin suurudesta (ppm, parts per million). Huomaa, että antureita ei välttämättä tarvitse sijoittaa kohtisuoraan toisiinsa nähden, kunhan akseleiden väliset kulmat tiedetään. Antureita voi olla enemmän kuin vaadittavat kolme, vikatilanteiden varalta. Tässä tapauksessa kohtisuora asennus ei ole tietenkään edes mahdollista. Virhetermi b on ehkä mielenkiintoisin ja käytännössä myös haastavin. Tällä viitataan virheisiin jotka pysyvät samana tai lähes samana pitkään. Jako b:n ja n:n välillä ei ole mitenkään itsestäänselvä. Ääritilannetta jossa b olisi aina vakio ja n olisi täysin korreloimaton näytteiden välillä ei reaalimaailmasta löydy (tällöin bias termi saataisiin ratkaistua täysin jo tehdaskalibroinnissa). Käytännössä b:n korrelaatioaika on laitteen käynnistyksien välisen ajan luokkaa (tunteja kuukausia), ja n:n korrelaatioaika on selvästi pienempi. Näiden virhetermien erottelu ei enää kuulu tämän kurssin aihealueisiin, mutta asiasta kiinnostuneiden kannattaa tutusta esimerkiksi Allan-varianssiin (Allan Variance)[2]. Virhetermin n käsittelystä onkin edellisissä kappaleissa paljon tietoa. Kannattaa huomata, että INS mekanisointi sisältää paljon integrointeja, joten virheen korrelaatiolla ajan suhteen on merkittävä vaikutus paikannustarkkuuteen. Jos lyhyt näyte datasta näyttää kohinaiselta, ei tästä kannata vetää liian jyrkkiä johtopäätöksiä. Vakava virhe on vertailla gyrojen laatua muutaman minuutin näytteistä otetuilla keskihajontaestimaateilla. Malli (4.9) käy sellaisenaan myös kiihtyvyysantureille, kunhan termin w IB korvaa termillä a B SF. Taulukossa 4.1 kerrotaan mitä antureilta vaaditaan, jos INS ratkaisun virheen halutaan pysyvän muutamassa kilometrissä tunnin navigoinnin jälkeen. Vaatimukset ovat kovat, erityisesti gyroille. Lisäksi tulevat vielä dynamiikkavaatimukset, 500 astetta sekunnissa tapahtuva pyörähdys on mitattava. Tämä riippuu tietysti käyttökohteesta. Tämän tason INS-laitteiden hinta liikkuu US dollarin tienoilla, mutta hinnat tulevat toki alas koko ajan. Hinnan lisäksi ongelmia aiheuttaa vientirajoitukset, tarkat INS laitteet kun luokitellaan useissa maissa aseteknologiaksi. MEMS-anturit eivät vielä täytä lähellekään näitä vaatimuksia, mutta ovat helposti saatavilla ja luonnollisesti edullisempia. Ja vaikka INS sellaisenaan ei onnistuisikaan mittausvirheiden vuoksi, inertiamittauksilla saadaan arvokasta lisätietoa paikannusalgoritmeille [6]. 63
64 Taulukko 4.1: Antureiden tarkkuusvaatimuksia, paikannusvirhe 0,1 tai 1 merimailia per tunti [33] 0.1 nmph 1 nmph Kiihtyvyysanturi, bias 5 µg 40 µg Kiihtyvyysanturi, skaalausvirhe 40 ppm 200 ppm Kiihtyvyysanturi, kohdistusvirhe 1/3600 7/3600 Gyro, bias /h /h Gyro, skaalausvirhe 1 ppm 5 ppm Gyro, kohdistusvirhe 0.7/3600 3/ Kantoaaltomittauksiin perustuva satelliittipaikannus GPS-vastaanottimen perusmittauksina usein pidetään pseudoetäisyysmittausta ja deltapseudoetäisyysmittausta. Näin ei kuitenkaan ole, vaan perusmittaukset ovat (replika)koodivaihe- ja (replika)kantoaallonvaihemittaukset. Replikakoodivaihe voidaan muuttaa lähetysajaksi, josta voidaan sitten pseudoetäisyys laskea. Replikakantoaallonvaihe voidaan muuttaa deltapseudoetäisyydeksi tai ns. integroiduksi Doppleriksi. Kantoaaltomittauksia ei suunniteltu hyötykäyttöön GPS-järjestelmää toteutettaessa, vaan GPS suunniteltiin olettaen, että vain koodimittauksia käytetään. Kantoaaltomittausten käyttäminen GPS-paikannuksessa sai pohjaa tutkimuksista, jossa mitattiin kahden tähtiantennin suhteellista sijaintia. Kantoaaltomittausten avulla voidaan mitata paikan muutosta hyvin tarkasti. Jos jokin referenssipiste (josta etäisyyttä mitataan) on tarkasti tiedossa, siirtyy absoluuttinen tarkkuus myös mitatun paikan tarkkuudeksi (kuva 4.4). Tärkein suhteellisen paikannuksen sovellusalue on maanmittaus eli geodesia. Henkilökohtaisessa paikannuksessa kantoaaltoa on käytetty tasoittamaan koodimittauksia (carrier smoothing). Suhteellista paikannusta ollaan kuitenkin tuomassa myös henkilökohtaiseen paikannukseen [1]. Oikea rata Oikea rata Mitattu rata Oikea alkupaikka Mitattu rata Mittaus Referenssipaikan virhe Referenssi Mittaus Kuva 4.4: Suhteellinen paikannus. Alkupaikan tarkkuus siirtyy koko reitin tarkkuudeksi, jos reittiä pystytään seuraamaan virheettä. 64
65 4.2.1 Doppler-ilmiö Satelliitit liikkuvat suhteessa käyttäjään koko ajan. GPS-satelliitit kiertävät maapallon elliptisillä, lähes ympyränmuotoisilla radoilla noin kaksi kertaa vuorokaudessa. Näin ollen niiden ratanopeus on noin 4 km / s. Satelliittien ja käyttäjän väliseen suhteelliseen nopeuteen vaikuttaa tietysti myös käyttäjän liike. Satelliitin ja sen lähettämän signaalin vastaanottajan välinen suhteellinen liike vaikuttaa siihen taajuuteen, millä vastaanottaja signaalin havaitsee.tätä lähettimen ja vastaanottimen välisen suhteellisen liikkeen vaikutusta vastaanotettuun taajuuteen kutsutaan Doppler-ilmiöksi. Vastaavasti eroa lähetetyn signaalitaajuuden ja vastaanotetun signaalitaajuuden välillä kutsutaan Doppler-siirtymäksi. GPS-vastaanottimella voidaan mitata Doppler-siirtymä hyvin tarkasti. Seuraamalla yhtäjaksoisesti Doppler-siirtymää saadaan tietoa satelliitin ja käyttäjän välisestä liikkeestä, ja kun satelliitin nopeus tunnetaan, voidaan käyttäjän nopeus ratkaista. Doppler-ilmiö mallinnetaan seuraavasti: f R = f T (1 v r a c ) (4.10) missä f R on vastaanotettu taajuus, f T on lähetetty taajuus, v R on satelliitin ja vastaanottajan välinen suhteellinen nopeus, a on yksikkövektori vastaanottajan sijainnista satelliittia kohti ja c on valon nopeus. Doppler-siirtymä on siis f D = f R f T. (4.11) Integroimalla Doppler-siirtymä f D mittausjakson (tyypillisesti 1 s) yli saadaan selville kantoaaltomittauksen muutos. Toisin sanoen, f D on kantoaallon muutoksen nopeus ja näin ollen mittausjakson yli integrointi tuottaa kantoaaltomittauksen Doppler-taajuuden ja etäisyysmittauksen muutoksen välinen yhteys Esimerkissä 14 (sivu 24) on esitelty mittausmalli pseudoetäisyysmittaukselle. Samoja merkintöjä käyttäen ilmaisemme nyt pseudoetäisyyden derivaatan eli deltaetäisyyden, olettaen mittausvirheen nollaksi: ρ = d dt ( s x +b) = (v sat v u ) T s x s x + ḃ (4.12) missä v sat on satelliitin nopeusvektori, v u on vastaanottajan nopeusvektori ja ḃ vastaanottimen kellon ajautuminen [s/s] (clock drift). Nyt huomaamme, että a = s x s x ja että v r = v sat v u, ja näin ollen (4.12) saadaan muotoon ρ = v r a+ḃ. (4.13) 65
66 Kun vastaanottimen kellon ajautumisen vaikutus jätetään huomiotta ja kun palaamme yhtälöihin (4.10) ja (4.11), saadaan tulos f D = f R f T = f T c v r a = f T ρ. (4.14) c Doppler-taajuuden ja vaihemittauksen välinen yhteys Kantoaaltomittausta sanotaan myös integroiduksi Doppleriksi. Uusi kantoaaltomittaus saadaan lisäämällä vanhaan mittaukseen Dopplerin integraali mittausepokin yli. Z tn φ n = φ n 1 + f D (τ)dτ (4.15) t n 1 missä φ n on kantoaaltomittaus epokilla n ja f D on Doppler-taajuus ajan funktiona. Esimerkki 23 (Hätäsireeni). Yleistä hätämerkkiä testataan lähettämällä sinimuotoinen (taajuus muuttuu) äänimerkki kello Oletetaan, että lähettäjällä ja merkin kuulevalla henkilöllä on täydelliseti synkronoidut kellot. Vastaanottaja tietää lähetystaajuuden ja lähetysajan. Vastaanottaja huomaa että äänen taajuus on korkeimmillaan t R sekuntia puolen päivän jälkeen. Mitä vastaanottaja voi päätellä etäisyydestä lähettimeen? Ääniaalto etenee vauhdilla v, eli lähetyshetken taajuus vastaanotetaan s/v sekuntia myöhemmin, missä s on etäisyys. Lähetystaajuus oli moduloitu sinimuotoiseksi, eli f T (t) = Asin(ωt + φ 0 )+ f 0. Vakiotermit A, ω, f 0 ja φ 0 ovat vastaanottajan tiedossa. Vastaanottopuolella pätee f R (t) = f T (t s/v) = Asin(ω(t s/v)+φ 0 )+ f 0, eli vaihe-ero (R-T) on ωs/v. Tästä voidaan ratkaista s, mutta jäljelle jää nk. kokonaislukutuntematon k, etäisyydellä s 1 + 2kπv ω saataisiin samanlainen mittaus. Nämä ovat aallonpituuden monikertoja, 2πv ω = λ, ja vastaanottaja saa koko joukon etäisyysratkaisuja, aallonpituuden monikertoina. Aallonpituus on siis merkittävässä asemassa, kun vaihemittauksia käytetään paikannukseen. GPS L1-taajuuden aallonpituus on 19 cm, josta seuraa huonoja ja hyviä uutisia: Ratkaisuja on todella monta Jos jotenkin löydetään oikea k, ja vaihe saadaan mitattua muutaman asteen tarkkuudella, meillä on millimetri-luokan paikkaratkaisu Valitettavasti vaihe-eroa ei päästä tutkimaan suoraan, esimerkkitilanteessa ei ollut kohinaa sotkemassa vaihemittausta. Kohinan takia GPS vastaanotin joutuukin mittaamaan vaiheen epäsuorasti Doppler-mittausten ja yhtälön (4.15) avulla. 66
67 4.2.4 Kokonaislukutuntemattomien ratkaisemisesta Tässä vaiheessa lienee selvää, että kantoaaltomittaus kuvaa kahden peräkkäisen mittausepokin välillä tapahtunutta liikettä, ja että kantoaaltomittaus pystytään tekemään hyvin tarkasti. Käyttäjän ja satelliittin väliin mahtuvien kokonaisten kantoaaltojaksojen lukumäärä on kuitenkin paikannusta aloitettaessa tuntematon, ja tämä lukumäärä on jokaiselle signaalille eri. Tilannetta voisi kuvata kellolla jossa on pelkkä sekuntiviisari: ajan muutosta pystytään seuraamaan hyvinkin tarkasti sekuntiviisarista, mutta viikonpäivästä ei ole mitään tietoa. Toisaalta jos tarkka aika saadaan joskus selville, pelkällä sekuntiviisarilla pärjätään siitä eteenpäin. Kokonaisten aaltojen lukumäärän selvittäminen mahdollistaa tarkan absoluuttisen paikannuksen. Kokonaislukuoptimointi on vaativa ongelma, ja kokonaislukutuntemattomien tehokas ratkaiseminen (carrier cycle integer ambiguity resolution) on aktiivinen paikannuksen tutkimusalue. Menetelmissä yleensä ensin ratkaistaan tavallisista mittauksista ns. kelluva ratkaisu (floating solution), ja sitten lasketaan sitä riittävän lähellä olevien kokonaislukuratkaisujen todennäköisyyksiä. Usein joudutaan tekemään mittauksia useilla peräkkäisillä ajanhetkillä ennen kuin jonkin ratkaisun todennäköisyys nousee niin korkeaksi että paikkaa voidaan väittää ratkaistuksi. Tunnetuimpia menetelmiä ovat Teunissenin kehittämä LAMBDA-metodi [35] ja Hatchin pienimmän neliösumman metodi [10]. Kuva 4.5: Etäisyysmittauksissa olevat tuntemattomat aallonpituuden moninkerrat (esitetty samankeskisillä ympyröillä) rajoittavat mahdolliset paikat tiettyihin pisteisiin Differentiaalikorjaukset Yhdistämällä kahden suhteellisen lähekkäin olevan vastaanottimen koodi- ja kantoaaltomittauksia voidaan eliminoida sellaisten virhelähteiden vaikutuksia, jotka ovat yhteisiä molemmille vastaanottimille. Näitä ovat esimerkiksi satelliittien rata- ja kellovirheet ja ionosfäärimallin virheet. Yksittäisdifferenssi on kahden eri vastaanottimen samasta satelliitista vastaanottamien signaalien Satelliitti Ilmakehä Vastaanotin 1 Vastaanotin 2 Kantaväli (baseline) Kuva 4.6: Yksittäisdifferenssi yli tehtävä erotus, kuten kuva (4.6) esittää. Kaksoisdifferenssi on kahden eri satelliitteihin liittyvän yksittäisdifferenssin erotus, joita käyttämällä saadaan poistettua suurin osa koodi- ja kantoaaltomittausten virheistä [17]. 67
68 Harjoitustehtäviä 4.1. Käydään kaava w L EL = F c (u L ZL v L )+ρ ZL u L ZL läpi. Minkälainen matriisi F c on, jos käytetään pallomallia, pallon säde R? Mitä termi ρ ZL tekee? Vihje: ajattele lentokonetta joka lentää hyvin lähellä pohjoisnapaa. Jos L-kehyksen y-akseli pidetään aina osoittamaan pohjoista, mitä tapahtuu w L EL vektorille? 4.2. Onko C E L yhdessä h:n kanssa riittävä tieto yksiselitteiseen paikkaratkaisuun? 4.3. INS sovelluksissa kolme gyroa on riittävä määrä, mutta vikatilanteiden varalta niitä voi laittaa useammankin. Oletetaan että kolme gyroa ovat kohtisuorassa toisiinsa nähden, ja lisätään yksi gyro siten, että tämän mittausakseli ei ole yhdensuuntainen muiden gyrojen kanssa. Voidaanko nyt havaita jos joku antureista antaa täysin virheellisiä mittauksia? Jos kyllä, voidaanko ko. anturi tunnistaa ja siten väärät mittaukset eristää? Entä jos meillä onkin 5 anturia siten että mitkään kolme akselia eivät ole samassa tasossa? 4.4. Näytä että virhe g:n laskemisessa (gravitaatiomallin virhe) aiheuttaa positiivisen takaisinkytkennän INS:n korkeusvirheelle Oletetaan että joskus MEMS-gyro analogisella ulostulolla saavuttaa 1 nmph INS vaatimukset, ks. taulukko 4.1 sivulla 64. Jotta signaali saadaan digitaaliseksi, tarvitaan A/D muunnin. Arvioi vaadittavaa resoluutiota, ts. montako bittiä kvantisointiin tarvitaan Monenko integraattorin läpi termi w B IB (eli gyrodata) menee INS yhtälöissä? Mitä tapahtuu (lähes) korreloimattomalle kohinalle näin monen integroinnin jälkeen? Entä bias-tyyppiselle kohinalle? 4.7. Tietokonetehtävä: Takaisinkytkennät INS mekanisoinnissa Tietokonetehtävä: C L B alustus maan pyörimisvektorin ja normaalivoiman avulla Osoita oikeaksi tai vääräksi yhtälö (4.12), eli d ( s x +b) = (ṡ s x ẋ)t dt s x + ḃ 68
69 Luku 5 Luotettavuus HELENA LEPPÄKOSKI Käyttäjän kannalta paikannus ei ole luotettavaa, mikäli järjestelmä- tai laitevirheen takia paikannusta ei pystytä suorittamaan, tai jos paikannustulos on selvästi väärä, vaikka näennäisesti paikannus onnistuukin. Tässä kappaleessa käsitellään tarkemmin satelliittipaikannuksessa käytettäviä menetelmiä, joilla vastaanotin voi havaita suuret virheet paikkaratkaisussa ja pyrkiä poistamaan virhettä aiheuttavat mittaukset ratkaisusta. Luotettavuus liittyy useisiin paikannuksen suorituskykyä kuvaaviin arviointiperusteisiin, joita käsitellään seuraavaksi. Sen jälkeen kerrataan tilastollisen päättelyn ja hypoteesin testauksen periaatteita sekä neliöllisen testisuureen ominaisuuksia. Näihin perustuvia virheen havaitsemisja poistamismenetelmiä sovellettuna staattiseen paikkaratkaisuun esitellään luotettavuus-osion viimeisissä alikappaleissa. 5.1 Paikannuksen suorituskyvyn mittareita Seuraavassa tarkastellaan paikannuksen suorituskykyä satelliittipaikannuksen kannalta jotkut esitettävistä mittareista soveltuvat muidenkin paikannusmenetelmien arviointiin. Asiaa perusteellisemmin käsittelee mm. [34] Tarkkuus Paikannuksen tarkkuudella tarkoitetaan sitä, kuinka lähelle paikannettavan kohteen todellista sijaintia mittauksista lasketut paikannustulokset osuvat. Mitä lähemmäs todellista sijaintia paikannustulos osuu, sen tarkempi on tulos. Usein tarkkuutta arvioidaan paikannustulosten keskineliövirheen neliöjuuren (RMSE, root mean square error) eli virheen tehollisarvon avulla. Toinen yleinen tapa kuvata virhettä on esittää virheen tilastollinen jakauma. Tämä voidaan 69
70 tehdä joko todennäköisyystiheysfunktion tai kertymäfunktion avulla. Eräs yksinkertaistus näistä on CERP (Circular Error Probable), jossa määritellään sellaisen ympyrän säde, jonka sisälle tietty prosentti paikannustuloksista osuu, kun ympyrän keskipisteenä on paikannettavan kohteen todellinen sijainti. Esimerkiksi 95% CERP 56 m tarkoittaa sitä, että vähintään 95% paikannustuloksista osuu enintään 56 metrin päähän todellisesta sijainnista. CERP:iä käytetään horisontaalisen 2-ulotteinen paikkavirheen kuvaamiseen. Vastaavasti 3-ulotteisen paikannusvirheen suuruus voidaan ilmoittaa SERP:in avulla (Spherical Error Probable), missä ympyrän säteen sijaan ilmoitetaan pallon säde. Paikannuksen tarkkuus riippuu paitsi mittaussignaalien tarkkuudesta, myös siitä, miten mahdolliset mittausvirheet vaikuttavat paikkaratkaisun virheeseen. Jälkimmäinen riippuu mittausgeometriasta, ja sen hyvyyttä arvioidaan DOP:illa Eheys (Integrity) Paikannusjärjestelmän eheydellä tarkoitetaan järjestelmän kykyä varoittaa käyttäjää oikeaaikaisesti silloin, kun järjestelmää ei tulisi käyttää paikannukseen. Eheystiedon avulla on tarkoitus varoittaa tilanteesta, jossa järjestelmä näennäisesti toimii ja tuottaa paikannussignaalia, mutta se on jostain syystä niin viallista, että sen perusteella lasketun paikan virhe on suuri. GPS-satelliitit lähettävät käyttäjälle tietoa eheydestään navigointiviesteissä, mutta se tulee aina viivellä maassa sijaitsevan kontrollisegmentin on ensin täytynyt todeta virhe satelliitin lähettämistä signaaleista, ja sen jälkeen lähettää satelliiteille tieto eheysongelman olemassaolosta edelleen navigointiviestissä käyttäjille lähetettäväksi. Paikannustuloksen käytöstä tämän viiveen aikana voi olla kohtalokkaat seuraukset esim. lentokoneen paikannuksessa. Myös ajoneuvopaikannuksessa tilanne voi olla kriittinen, jos esimerkiksi ambulanssi suunnistaa hälytyskohteeseen GPS-autonavigaattorin avulla, ja satelliitin vikaantumisesta aiheutuvan paikannusvirheen takia ambulanssi harhautuu reitiltään eikä ehdi onnettomuuspaikalle riittävän nopeasti. Sama ongelma aiheutuu, jos hätäkeskukseen ilmoitettu onnettomuuspaikan sijainti määritetään GPS:n avulla jonkin paikkaratkaisuun mukaan tulevan satelliitin ollessa vikaantunut. GPS-järjestelmän tarjoaman eheystiedon viiveen takia on kehitetty menetelmiä, joissa vastaanotin itse tutkii signaalien eheyttä. Näitä menetelmiä kutsutaan nimellä RAIM (Receiver Autonomous Integrity Monitoring). Menetelmät perustuvat paikannussignaalien konsistenssin (consistency; yhtäpitävyys) tarkastuksiin. Menetelmiä voidaan käyttää, mikäli mittauksissa on redundanssia, eli signaaleja on käytössä riittävästi, jotta paikanmääritysongelma on ylimäärätty. Signaalien konsistenttisuuden puute voi aiheutua joko itse signaalissa olevasta virheestä tai mittausmallin virheestä. Alunperin RAIM-menetelmien kehitystä ohjasivat siviili-ilmailun turvallisuusvaatimukset. Tavoitteena on ollut eliminoida paikkaratkaisusta suuret mittaussignaalin virheet, joka syntyvät esimerkiksi satelliitin kellon vikaantumisen seurauksena, ja mittausmallin virheet, joiden syynä on virheellinen tieto satelliitin sijainnista (ephemeris-virhe). RAIM:in avulla on siis pyritty havaitsemaan itse paikannusjärjestelmässä esiintyvä mahdollinen virhe, jonka aiheuttaja on Joissakin lähteissä CERP ja SERP lyhennetään CEP ja SEP 70
71 joko kontrolli- tai avaruussegmentti. Tällaiset virheet ovat erittäin harvinaisia, niiden esiintymistiheys on 1 virhe kuukaudessa. Virheiden harvinaisuuden takia lähtökohta on yleensä ollut se, että virheitä on vain yhdessä mittausyhtälössä kerrallaan. Paikannussignaali voi olla virheellinen myös muista kuin kontrolli- tai avaruussegmentin aiheuttamista syistä. Paikannusmittauksiin voi aiheutua signaalin heijastumisesta ja monitieetenemisestä normaalia kohinaa huomattavasti suurempia virheitä. Erittäin herkillä vastaanottimilla (HSGPS, High Sensitivity GPS) voidaan ottaa vastaan voimakkasti vaimentuneita signaaleja, jolloin mittauksen huono signaali/kohina-suhde aiheuttaa kohinan suuren vahvistumisen itse mittauksessa. Myös väärään signaaliin lukkiutuminen on erittäin huonolla signaali/kohinasuhteella mahdollista, jolloin mahdollisesti sinänsä virheetön satelliitin sijainti yhdistetään paikanlaskennassa väärään mittaukseen tällöin lopputulos on mittausyhtälön kannalta samankaltainen kuin suuren ephemeris-virheen tapauksessa. Viimeksi mainitut virheet ovat tyypillisiä henkilökohtaisessa paikannuksessa. Koska niiden vaikutus ilmenee samalla tavalla kuin kontrolli- tai avaruussegmentin aiheuttamien virheiden, voidaan niiden havaitsemiseen ja poistamiseen käyttää samoja menetelmiä kuin perinteisessä RAIM:issa. Henkilökohtaisen paikannuksen virheiden käsitelyyn tarkoitetun RAIM-algoritmin suunnitteluun liittyy muutamia lisähaasteita: näiden virheiden esiintymistiheys on huomattavasti suurempi kuin kontrolli- tai avaruussegmentin aiheuttamien virheiden, ja myös useiden eri mittausyhtälöiden samanaikaiset virheet ovat todennäköisempiä. Vastaanottimen itsenäisesti suorittaman eheystarkastuksen lisäksi käytössä on myös GPS:n ulkopuolisia valvonta-asemien verkkoja, jotka tarkkailevat satelliitteja ja lähettävät käyttäjille tietoa GPS:n eheydestä navigointiviestin eheystietojen tapaan nämäkin sisältävät viiveen. Myöskään valvontaverkot eivät pysty havaitsemaan käyttäjän lähiympäristön aiheuttamia ongelmia Luotettavuus (Reliability) Luotettavuus voidaan määritellä useilla eri tavoilla: Laitteen tai järjestelmän käyttötarkoitukseensa soveltuvuus ajan funktiona Laitteen tai järjestelmän kyky suorittaa vaadittu toiminto määritellyissä olosuhteissa pysyy määritellyn pituisen ajan Todennäköisyys, että toiminnallinen yksikkö suorittaa vaadittua toimintaa määritellyn pituisen ajan määritellyissä olosuhteissa Laite tai järjestelmä täyttää sille suunnitellut suorituskykyvaatimukset Laitteen tai järjestelmän vikasietoisuus Satelliittipaikannuksen luotettavuudella voidaan tarkoittaa kahta asiaa, joko järjestelmän toimintavarmuutta tai tulosten tilastollista luotettavuutta. Ensimmäisessä tapauksessa luotettavuus liittyy laitteiden ja komponenttien käyttövarmuuteen, oikean toiminnan todennäköisyyteen, jolloin tarkastelun työkaluina ovat esimerkiksi komponenttien vikaantumisen todennäköisyystiheydet ajan funktiona. Tilastollinen luotettavuus taas tarkoittaa mittaussarjan konsistenttisuutta. Satelliittipaikannuksessa on käytettävissä samanaikaisesti suoritettuja mittauksia eri 71
72 lähteistä, joiden keskinäistä konsistenttisuutta voidaan tarkastella, mikäli paikannusongelma on ylimäärätty, eli mittauksia on käytettävissä enemmän kuin paikannukseen välttämättä tarvittaisiin. Tässä monisteessa paikannuksen luotettavuutta tarkastellaan paikannustulosten tilastollisen luotettavuuden näkökulmasta. Geodetiikan mittausverkkojen analysoinnissa luotettavuudella tarkoitetaan estimoinnin kykyä havaita suuret virheet [19, 20]. Näin määritelty paikannuksen luotettavuus on käsitteenä hyvin samantapainen kuin RAIM-algoritmien tutkima eheys. Tällaista luotettavuuden määritelmää voidaan käyttää myös henkilökohtaisen paikannuksen suorituskyvyn analysoinnissa [21]. Paikannusongelman geometria vaikuttaa paitsi paikannuksen tarkkuuteen, myös siihen, kuinka hyvin paikannusongelman luotettavuutta tai eheyttä pystytään konsistenssitesteillä tarkastelemaan. Paikannustuloksen tarkkuuden arvioinnissa käytetty tavanomainen DOP ei kaikissa tilanteissa kuvaa riittävästi ongelman soveltuvuutta konsistenssitarkastuksiin Saatavuus (Availability) Paikannuksen saatavuuteen vaikuttavat useat tekijät. Satelliittipaikannuksen tapauksessa ensimmäinen edellytys paikannuksen saatauudelle on se, että vastaanotin pystyy vastaanottamaan riittävän määrän satelliittisignaaleja. Tämä riippuu paitsi satelliittikonstellaatiosta, myös paikannusympäristöstä signaalit eivät kulje vahvojen betonirakenteiden läpi. Vaikka paikannuksen saatavuus olisi paikannusympäristön korkeimpien rakennusten katoilla hyvä, se ei välttämättä ole sitä katutasossa, rakennusten sisällä, tunneleissa tai maanalaisissa tiloissa. Paikannuksen saatavuutta arvioitaessa voidaan myös paikannuksen laadulle (tarkkuus, luotettavuus) asetettaa vaatimuksia, jolloin saatavuutta kuvaava luku (todennäköisyys tai saatavilla oloajan prosentuaalinen osuus) yleensä pienenee. Voidaan esimerkiksi tarkastella paikannuksen saatavuutta, kun vaatimuksena on, että paikannuksessa käytettävien satelliittien korkeuskulma on vähintään 5 ja niiden muodostamalle geometrialle saa PDOP olla enintään 6. Myös eheys- tai luotettavuustiedon saatavuutta voidaan tarkastella erikseen tällaisen tiedon tuottamiseksi vaaditaan enemmän näkyviä satelliitteja kuin pelkkään paikannukseen, ja geometrialle asetetaan lisävaatimuksia. Mikäli eheys- tai luotettavuustarkastelun perusteella hylätään kokonaan virheelliseksi epäilty paikannustulos, josta virhettä ei voi eristää, tai jolle luotettavuustulos ei geometrian tai satelliittien määrän takia ole saatavissa, niin paikannuksen saatavuus huononee. Mikäli taas em. tarkasteluja ei tehdä, vaan hyväksytään kaikki tulokset, mitkä pystytään laskemaan, niin erityisesti henkilökohtaisessa paikannuksessa paikannuksen keskimääräinen tarkkuus huononee. 72
73 5.2 Tilastollinen päättely ja hypoteesien testaus Monet paikannusongelmien eheys- tai luotettavuustarkasteluja varten kehitetyt menetelmät perustuvat tilastolliseen päättelyyn ja hypoteesien testaukseen. Tässä luvussa esitettyjä menetelmiä esitellään viitteissä [16, 19, 20, 21, 28, 38]. Tilastollisessa päättelyssä on tarkoituksena selvittää, onko joku asia kerättyjen havaintojen valossa niin vai näin. Tyypillinen kysymys on esimerkiksi, tuottaako teollisuusprosessi todella eri laatuista tuotetta kuin aiemmin, vai voivatko muuttuneet testitulokset olla sattumaa. Mittausjoukkoa tarkasteltaessa ratkaistavana on usein kysymys, onko muista poikkeava mittaus virheellinen vai voiko havaitun suuruinen poikkeama olla sattumaa, ts. onko poikkeama todennäköinen kun huomioidaan kyseisen mittauksen tavanomainen vaihtelu. Päättelyä varten muotoillaan selvitettävä kysymys hypoteesiksi eli oletukseksi asian tilasta. Näitä oletuksia, jotka voivat olla joko tosia tai epätosia, kutsutaan tilastollisiksi hypoteeseiksi. Tavallisesti hypoteesi koskee tarkasteltavaan ilmiöön liittyvän todennäköisyysjakauman yhtä parametriä. Hypoteesin testauksen tarkoituksena ei ole todistaa hypoteesia todeksi tai epätodeksi. Sen sijaan pyritään osoittamaan, että hypoteesi ei ole uskottava, koska se johtaa hyvin pieneen todennäköisyyteen, ts. kerätyt havainnot poikkeavat merkittävästi niistä, mitkä olisivat olleet todennäköisiä hypoteesin ollessa paikkansa pitävä. Esimerkki 24. Haluamme selvittää, onko kolikon heitossa käytetty kolikko tasapuolinen, ts. tuleeko heitossa tulokseksi kruuna yhtäsuurella todennäköisyydellä kuin klaava. Tätä tutkiaksemme muodostamme hypoteesin kolikko on tasapuolinen : p = 0.5, missä p on todennäköisyys saada kolikonheitossa tulokseksi kruuna. Tutkitaan kolikon tasapuolisuutta heittämällä kolikkoa kokeeksi 20 kertaa. Heitoista 16 tuottaa tulokseksi kruunan. Tällöin olemme melko valmiita hylkäämään hypoteesin kolikko on tasapuolinen, koska hypoteesin ollessa paikkansapitävä tulos 16 kruunaa ei ole kovin todennäköinen, vaan koetulos poikkeaa merkittävästi hypoteesin avulla ennustettavasta. Kyseenalaistettavaksi hypoteesiksi valitaan se, jonka perusteella mikään ei muutu tai ole muuttunut tai joka edustaa neutraalia tilannetta, joka ei vaadi toimenpiteitä. Tästä syystä sitä usein kutsutaan nollahypoteesiksi H 0. Tuotantoprosessin tilaa tutkittaessa nollahypoteesi olisi tuotteen laadussa ei muutoksia (ei tarvitse ryhtyä etsimään ja korjaamaan prosessista laatumuutoksen aiheuttanutta vikaa), mittausdatan analyysissa mittaukset normaaleja (ei tarvitse ryhtyä miettimään mikä on viallinen ja poistetaanko se näytejoukosta), kolikonheittotapauksessa kolikko on tasapuolinen (ei tarvitse vaihtaa kolikkoa, arvonnat voidaan suorittaa tällä). Hypoteesin testaus voidaan kuvata viisivaiheisena prosessina: 1. Muotoillaan käytännön ongelma hypoteesiksi. Aloitetaan vaihtoehtoisesta hypoteesista H 1. Tämän tulisi kattaa ne tapaukset, jotka halutaan diagnosoida, joissa positiivinen testitulos tarkoittaa sitä, että on syytä ryhtyä toimenpiteisiin. 73
74 Nollahypoteesi valitaan niin, että se on yksinkertainen ja edustaa status quo -tilannetta, ja yhdessä vaihtoehtoisen hypoteesin kanssa se kattaa kaikki mahdolliset tilanteet. Esimerkkejä: H 1 : Kolikko ei ole tasapuolinen, p 0.5 (vaihdettava kolikko). H 0 : Kolikko on tasapuolinen, p = 0.5. Näissä p on todennäköisyys saada tulokseksi kruuna. H 1 : Muutettu prosessi B parantaa tuotteen laatua alkuperäiseen prosessiin A verrattuna, µ B > µ A. H 0 : Muutettu prosessi B ei paranna tuotteen laatua alkuperäiseen prosessiin A verrattuna, µ B µ A. Näissä µ A ja µ B ovat tuotteen laatua kuvaavan suureen odotusarvoja, missä suurempi arvo kuvaa parempaa laatua. 2. Valitaan testisuure T, joka on funktio havainnoista (mittauksista). Hyvillä testisuureilla on seuraavat ominaisuudet: (a) se käyttäytyy eri tavalla silloin kun H 0 on tosi verrattuna siihen, että H 1 on tosi. (b) sen todennäköisyysjakauma voidaan laskea kun oletetaan, että H 0 on tosi. 3. Valitaan kriittinen alue. Jos testisuureen T :n arvo on kriittisellä alueella, H 0 hylätään H 1 :n hyväksi. Jos T :n arvo ei ole kriittisellä alueella, hypoteesia H 0 ei hylätä. Päätöstä H 0 :n hyväksymisestä ei tehdä H 0 :n hylkäämättä jättämiseen päädytään, mikäli hypoteesia H 1 tukevaa evidenssiä ei ole. Tehtävänä on päättää, millaiset testisuureen arvot viittaavaat vahvasti siihen, että H 1 on tosi. Kriittisiä alueita ovat esimerkiksi seuraavat: Oikeanpuoleinen H 1 : T > T kr. Mikäli testisuure on suurempi kuin (oikeanpuoleinen) kriittinen arvo, H 0 hylätään. Vasemmanpuoleinen H 1 : T < T kr. Mikäli testisuure on pienempi kuin (vasemmanpuoleinen) kriittinen arvo, H 0 hylätään. Kaksipuoleinen H 1 : T < T kr1 tai T > T kr2. Mikäli testisuure on joko suurempi kuin oikeanpuoleinen kriittinen arvo tai pienempi kuin vasemmanpuoleinen kriittinen arvo, H 0 hylätään. 4. Päätetään kriittisen alueen koko. Tilastollisessa päättelyssä lähtökohtana on se, että tehty päätös H 0 :n hylkäämisestä tai hylkäämättä jättämisestä voi olla oikea tai väärä. Päättely voi johtaa siihen, että H 0 hylätään, vaikka se todellisuudessa olisi tosi tätä kutsutaan lajin I virheeksi. H 0 voi myös jäädä hylkäämättä, vaikka se todellisuudessa on epätosi ja pitäisi hylätä tätä kutsutaan lajin II virheeksi. Kriittisen alueen määrittelyssä otetaan kantaa siihen, kuin suuri riski väärän päätöksen syntymisestä ollaan valmiita ottamaan. Todennäköisyyttä, että tapahtuu lajin I virhe, kutsutaan testin merkitsevyystasoksi tai riskitasoksi ja merkitään α:lla. Usein käytettyjä merkitsevyystasoja ovat 5%, 1% ja 0.1%. Luottamustamme siihen, että päätös olla hylkäämättä nollahypoteesia on oikea, kuvaa luottamustaso 1 α, joka on oikean päätöksen H 0 :aa ei hylätä kun H 0 on tosi todennäköisyys. 74
75 Lajin II virheen todennäköisyyttä merkitään β:lla. Testin teho 1 β on todennäköisyys, että todellinen muutos H 0 :n edustamasta status quo -tilanteesta havaitaan testisuureen muutoksesta. Taulukossa 5.1 esitetään hypoteesin testauksessa esiintyvät neljä eri mahdollisuutta päätyä oikeaan tai väärään päätökseen. Taulukko 5.1: Nollahypoteesin testaus Päätös H 0 :aa ei hylätä H 0 hylätään Todellisuus H 0 tosi oikea päätös lajin I virhe todennäköisyys 1 α todennäköisyys α = luottamustaso = merkitsevyystaso H 0 epätosi lajin II virhe oikea päätös todennäköisyys β todennäköisyys 1 β = testin teho 5. Tutkitaan missä kohdin kriittistä aluetta laskettu T sijaitsee. Jos T sijaitsee kriittisellä alueella lähellä reunaa, voimme päätellä, että meillä on hieman näytöä (evidenssiä) siitä, että H 0 pitäisi hylätä. Jos taas T on pitkällä kriittisessä alueessa, kaukana reunasta, meillä merkittävä näyttö H 0 :n hylkäämisen perusteeksi. Esimerkki 25 (α, β ja testillä havaittavan eron suuruus, [38]). Havainnollistetaan hypoteesin testausta esimerkillä, jossa ongelman geometria on tyypillistä paikannusongelmaa yksinkertaisempi. Tarkastellaan miespuolisten opiskelijoiden painoa. Nollahypoteesi on, että tietyssä yliopistossa miespuoliset opiskelijat painavat keskimäärin 68 kg. Testataan hypoteeseja H 0 : µ = 68, ja H 1 : µ 68. Vaihtoehtoinen hypoteesi kattaa tapaukset µ < 68 tai µ > 68. Testisuureeksi valitaan näytekeskiarvo. Jos se sattuu lähelle oletettua arvoa 68, meillä on H 0 :aa tukevaa evidenssiä. Mikäli näytekeskiarvo on merkittävästi suurempi tai pienempi kuin 68, aineisto ei ole konsistentti H 0 :n kanssa vaan tukee vaihtoehtoista hypoteesia H 1. Kriittiseksi alueeksi valitaan (hieman mielivaltaisesti) välit x < 67 ja x > 69; hylkäämätömyysalue, jolla H 0 :aa ei hylätä, on 67 x 69. Nämä on havainnollistettu kuvassa 5.1. Kuva 5.1: Kriittinen alue (reunoilla) Lasketaan todennäköisyydet lajin I ja II virheille, kun päättelykriteeri on kuvan 5.1 mukainen. Oletetaan, että populaatiossa painon vaihtelun keskihajonta σ = 3.6. Testisuureena käytettävä näytekeskiarvo X lasketaan satunnaisesti valitusta näytejoukosta, jonka suuruus n =
Paikannuksen matematiikka MAT
TA M P E R E U N I V E R S I T Y O F T E C H N O L O G Y M a t h e m a t i c s Paikannuksen matematiikka MAT-45800 4..008. p.1/4 Käytännön järjestelyt Kotisivu: http://math.tut.fi/courses/mat-45800/ Luennot:
MAT Paikannuksen matematiikka TKT-2540 Paikannuksen menetelmät
TA M P E R E E N T E K N I L L I N E N Y L I O P I S TO D i g i t a a l i - j a t i e t o k o n e t e k n i i k k a M a t e m a t i i k k a MAT-45800 Paikannuksen matematiikka TKT-2540 Paikannuksen menetelmät
MAT Paikannuksen matematiikka
a numeerisia menetelmiä, joilla ratkaista käyttäjän paikka käyttäen a saatavilla olevia mittauksia ja informaam. GPS, GSM, 3G, WLAN, kompassi ja kartat. TAMPEREEN TEKNILLINEN YLIOPISTO Matematiikka Suodatin
Kohdeyleisö: toisen vuoden teekkari
Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
Inversio-ongelmien laskennallinen peruskurssi Luento 2
Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +
4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka
Kanta ja Kannan-vaihto
ja Kannan-vaihto 1 Olkoon L vektoriavaruus. Äärellinen joukko L:n vektoreita V = { v 1, v 2,..., v n } on kanta, jos (1) Jokainen L:n vektori voidaan lausua v-vektoreiden lineaarikombinaationa. (Ts. Span(V
MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 3 /
MS-A3/A5 Matriisilaskenta, II/27 MS-A3/A5 Matriisilaskenta Laskuharjoitus 3 / 3. 7..27 Tehtävä (L): Etsi kaikki yhtälön Ax = b ratkaisut, kun 3 5 4 A = 3 2 4 ja b = 6 8 7 4. Ratkaisu : Koetetaan ratkaista
Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle /
MS-A8 Differentiaali- ja integraalilaskenta, V/7 Differentiaali- ja integraalilaskenta Ratkaisut 5. viikolle / 9..5. Integroimismenetelmät Tehtävä : Laske osittaisintegroinnin avulla a) π x sin(x) dx,
3.6 Su-estimaattorien asymptotiikka
3.6 Su-estimaattorien asymptotiikka su-estimaattorit ovat usein olleet puutteellisia : ne ovat usein harhaisia ja eikä ne välttämättä ole täystehokkaita asymptoottisilta ominaisuuksiltaan ne ovat yleensä
Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?
TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä
Luento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään
Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28
Numeeriset menetelmät TIEA381 Luento 5 Kirsi Valjus Jyväskylän yliopisto Luento 5 () Numeeriset menetelmät 3.4.2013 1 / 28 Luennon 5 sisältö Luku 4: Ominaisarvotehtävistä Potenssiinkorotusmenetelmä QR-menetelmä
2. Teoriaharjoitukset
2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien
1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 017 Harjoitus 5 Ratkaisuehdotuksia Tehtäväsarja I 1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X
MS-A0004/A0006 Matriisilaskenta
4. MS-A4/A6 Matriisilaskenta 4. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto..25 Tarkastellaan neliömatriiseja. Kun matriisilla kerrotaan vektoria, vektorin
Numeeriset menetelmät
Numeeriset menetelmät Luento 6 To 22.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 6 To 22.9.2011 p. 1/38 p. 1/38 Ominaisarvotehtävät Monet sovellukset johtavat ominaisarvotehtäviin Yksi
Numeeriset menetelmät
Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma
Dynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt
Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus
Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus 1 / 51 Lineaarikombinaatio Johdattelua seuraavaan asiaan (ei tarkkoja määritelmiä): Millaisen kuvan muodostaa joukko {λv λ R, v R 3 }? Millaisen
Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35
Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen
MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Jarmo Malinen Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto Kevät 2016 1 Perustuu
Luento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila
Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja
7 NELIÖMATRIISIN DIAGONALISOINTI. Ortogonaaliset matriisit Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja A - = A T () Muistutus: Kokoa n olevien vektorien
Ominaisarvoon 4 liittyvät ominaisvektorit ovat yhtälön Ax = 4x eli yhtälöryhmän x 1 + 2x 2 + x 3 = 4x 1 3x 2 + x 3 = 4x 2 5x 2 x 3 = 4x 3.
Matematiikan ja tilastotieteen laitos Lineaarialgebra ja matriisilaskenta II Ylimääräinen harjoitus 6 Ratkaisut A:n karakteristinen funktio p A on λ p A (λ) det(a λi ) 0 λ ( λ) 0 5 λ λ 5 λ ( λ) (( λ) (
Matriisilaskenta, LH4, 2004, ratkaisut 1. Hae seuraavien R 4 :n aliavaruuksien dimensiot, jotka sisältävät vain
Matriisilaskenta LH4 24 ratkaisut 1 Hae seuraavien R 4 :n aliavaruuksien dimensiot jotka sisältävät vain a) Kaikki muotoa (a b c d) olevat vektorit joilla d a + b b) Kaikki muotoa (a b c d) olevat vektorit
Inversio-ongelmien laskennallinen peruskurssi Luento 7 8
Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Kevät 2011 1 Iteratiivisista menetelmistä Tähän mennessä on tarkasteltu niin sanottuja suoria menetelmiä, joissa (likimääräinen) ratkaisu saadaan
Todennäköisyyden ominaisuuksia
Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
MS-A0003/A Matriisilaskenta Laskuharjoitus 6
MS-A3/A - Matriisilaskenta Laskuharjoitus 6 Ratkaisuehdotelmia. Diagonalisointi on hajotelma A SΛS, jossa diagonaalimatriisi Λ sisältää matriisin A ominaisarvot ja matriisin S sarakkeet ovat näitä ominaisarvoja
Ratkaisuehdotukset LH 7 / vko 47
MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [
Satunnaismuuttujien muunnokset ja niiden jakaumat
Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Satunnaismuuttujien muunnokset ja niiden jakaumat TKK (c) Ilkka Mellin (2007) 1 Satunnaismuuttujien muunnokset ja
Mat Sovellettu todennäköisyyslasku A
TKK / Systeemianalyysin laboratorio Nordlund Mat-.090 Sovellettu todennäköisyyslasku A Harjoitus 7 (vko 44/003) (Aihe: odotusarvon ja varianssin ominaisuuksia, satunnaismuuttujien lineaarikombinaatioita,
2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 208 Harjoitus 4 Ratkaisuehdotuksia Tehtäväsarja I. Satunnaismuuttuja U Exp(2) ja V = U/(3 + U). Laske f V käyttämällä muuttujanvaihtotekniikkaa.
MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45
MS-A0003/A0005 Matriisilaskenta Laskuharjoitus / vko 5 Tehtävä 1 (L): Hahmottele kompleksitasoon ne pisteet, jotka toteuttavat a) z 3 =, b) z + 3 i < 3, c) 1/z >. Yleisesti: ehto z = R, z C muodostaa kompleksitasoon
, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1).
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 017 Harjoitus 4 Ratkaisuehdotukset 4.1. Osoita, että tasa-arvojoukko S F (0), F : R 3 R, F (x) = 3x 1 x 3 + e x + x e x 3, on säännöllinen
Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat. TKK (c) Ilkka Mellin (2004) 1
Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat TKK (c) Ilkka Mellin (2004) 1 Satunnaismuuttujien muunnokset ja niiden jakaumat Satunnaismuuttujien muunnosten jakaumat
(1.1) Ae j = a k,j e k.
Lineaarikuvauksen determinantti ja jälki 1. Lineaarikuvauksen matriisi. Palautetaan mieleen, mikä lineaarikuvauksen matriisi annetun kannan suhteen on. Olkoot V äärellisulotteinen vektoriavaruus, n = dim
Luento 9: Yhtälörajoitukset optimoinnissa
Luento 9: Yhtälörajoitukset optimoinnissa Lagrangen kerroin Oletetaan aluksi, että f, g : R R. Merkitään (x 1, x ) := (x, y) ja johdetaan Lagrangen kerroin λ tehtävälle min f(x, y) s.t. g(x, y) = 0 Olkoon
PRELIMINÄÄRIKOE PITKÄ MATEMATIIKKA 9.2.2011
PRELIMINÄÄRIKOE PITKÄ MATEMATIIKKA 9..0 Kokeessa saa vastata enintään kymmeneen tehtävään.. Sievennä a) 9 x x 6x + 9, b) 5 9 009 a a, c) log 7 + lne 7. Muovailuvahasta tehty säännöllinen tetraedri muovataan
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos
Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Ojalammi MS-A0203 Differentiaali- ja integraalilaskenta 2, kevät 2016 Laskuharjoitus 4A (Vastaukset) alkuviikolla
MS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille
Estimointi. Vilkkumaa / Kuusinen 1
Estimointi Vilkkumaa / Kuusinen 1 Motivointi Tilastollisessa tutkimuksessa oletetaan jonkin jakauman generoineen tutkimuksen kohteena olevaa ilmiötä koskevat havainnot Tämän mallina käytettävän todennäköisyysjakauman
BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 4, Syksy 2016
BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 4, Syksy 2016 1. Hahmottele karkeasti funktion f : R R 2 piirtämällä sen arvoja muutamilla eri muuttujan arvoilla kaksiulotteiseen koordinaatistoon
ax + y + 2z = 0 2x + y + az = b 2. Kuvassa alla on esitetty nesteen virtaus eräässä putkistossa.
BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 7, Syksy 206 Tutkitaan yhtälöryhmää x + y + z 0 2x + y + az b ax + y + 2z 0 (a) Jos a 0 ja b 0 niin mikä on yhtälöryhmän ratkaisu? Tulkitse ratkaisu
6 MATRIISIN DIAGONALISOINTI
6 MATRIISIN DIAGONALISOINTI Ortogonaaliset matriisit Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja A - = A T Muistutus: vektorien a ja b pistetulo (skalaaritulo,
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 Tehtävä 8 on tällä kertaa pakollinen. Aloittakaapa siitä. 1. Kun tässä tehtävässä sanotaan sopii mahdollisimman hyvin, sillä tarkoitetaan
10 Moniulotteinen normaalijakauma
10 Moniulotteinen normaalijakauma Tässä luvussa tarkastellaan normaalijakauman moniulotteista yleistystä eli moniulotteista (eli monimuuttujaista) normaalijakaumaa (engl. multivariate normal distribution).
DI matematiikan opettajaksi: Täydennyskurssi, kevät 2010 Luentorunkoa ja harjoituksia viikolle 11: ti klo 13:00-15:30
DI matematiikan opettajaksi: Tädennskurssi, kevät Luentorunkoa ja harjoituksia viikolle : ti 6 klo :-5: Kädään läpi: funktioita f : D f R n R m ja integrointia R n :ssä Oletetaan, että, R n ovat mielivaltaisia
Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,
Todennäköisyyslaskenta, 2. kurssikoe 7.2.22 Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu.. Satunnaismuuttujien X ja Y yhteistiheysfunktio on
Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos
Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Vesanen MS-A0205/6 Differentiaali- ja integraalilaskenta 2, kevät 2017 Laskuharjoitus 4A (Vastaukset) alkuviikolla
Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (5) 1 Momenttiemäfunktio ja karakteristinen funktio Momenttiemäfunktio Diskreettien jakaumien momenttiemäfunktioita
MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio.
MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. Riikka Korte Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3
Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio
Ilkka Mellin Todennäköisyyslaskenta Osa : Satunnaismuuttujat ja todennäköisyysjakaumat Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (7) 1 Momenttiemäfunktio ja karakteristinen funktio
Tilastollinen aineisto Luottamusväli
Tilastollinen aineisto Luottamusväli Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Tilastollinen aineisto p.1/20 Johdanto Kokeellisessa tutkimuksessa tutkittavien suureiden
Likimääräisratkaisut ja regularisaatio
Luku 3 Likimääräisratkaisut ja regularisaatio Käytännön inversio-ongelmissa annettu data y ei aina ole tarkkaa, vaan sisältää häiriöitä. Tuntemattomasta x on annettu häiriöinen data y F (x + }{{}}{{} ε.
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. marraskuuta 2007 Antti Rasila () TodB 30. marraskuuta 2007 1 / 19 1 Lineaarinen regressiomalli ja suurimman uskottavuuden menetelmä Minimin löytäminen
Kuva 1: Funktion f tasa-arvokäyriä. Ratkaisu. Suurin kasvunopeus on gradientin suuntaan. 6x 0,2
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 018 Harjoitus Ratkaisuehdotukset Tehtävä 1. Olkoon f : R R f(x 1, x ) = x 1 + x Olkoon C R. Määritä tasa-arvojoukko Sf(C) = {(x 1, x
Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
Avaruuden R n aliavaruus
Avaruuden R n aliavaruus 1 / 41 Aliavaruus Esimerkki 1 Kuva: Suora on suljettu yhteenlaskun ja skalaarilla kertomisen suhteen. 2 / 41 Esimerkki 2 Kuva: Suora ei ole suljettu yhteenlaskun ja skalaarilla
5 OMINAISARVOT JA OMINAISVEKTORIT
5 OMINAISARVOT JA OMINAISVEKTORIT Ominaisarvo-ongelma Käsitellään neliömatriiseja: olkoon A n n-matriisi. Luku on matriisin A ominaisarvo (eigenvalue), jos on olemassa vektori x siten, että Ax = x () Yhtälön
Matriisiteoria Harjoitus 1, kevät Olkoon. cos α sin α A(α) = . sin α cos α. Osoita, että A(α + β) = A(α)A(β). Mikä matriisi A(α)A( α) on?
Harjoitus 1, kevät 007 1. Olkoon [ ] cos α sin α A(α) =. sin α cos α Osoita, että A(α + β) = A(α)A(β). Mikä matriisi A(α)A( α) on?. Olkoon a x y A = 0 b z, 0 0 c missä a, b, c 0. Määrää käänteismatriisi
Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1
Todennäköisyyslaskun kertaus Vilkkumaa / Kuusinen 1 Satunnaismuuttujat ja todennäköisyysjakaumat Vilkkumaa / Kuusinen 2 Motivointi Kokeellisessa tutkimuksessa tutkittaviin ilmiöihin liittyvien havaintojen
Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on
13 Pistetulo Avaruuksissa R 2 ja R 3 on totuttu puhumaan vektorien pituuksista ja vektoreiden välisistä kulmista. Kuten tavallista, näiden käsitteiden yleistäminen korkeampiulotteisiin avaruuksiin ei onnistu
Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 12 Kirsi Valjus Jyväskylän yliopisto Luento 12 () Numeeriset menetelmät 25.4.2013 1 / 33 Luennon 2 sisältö Tavallisten differentiaaliyhtälöiden numeriikasta Rungen
Insinöörimatematiikka D
Insinöörimatematiikka D M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Matematiikan ja tilastotieteen laitos Turun yliopisto 2015 M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Luentokalvot
. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että
1 Rajoittamaton optimointi
Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y
Osa 2: Otokset, otosjakaumat ja estimointi
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin
MS-A0003/A0005 Matriisilaskenta Malliratkaisut 5 / vko 48
MS-A3/A5 Matriisilaskenta Malliratkaisut 5 / vko 48 Tehtävä (L): a) Onko 4 3 sitä vastaava ominaisarvo? b) Onko λ = 3 matriisin matriisin 2 2 3 2 3 7 9 4 5 2 4 4 ominaisvektori? Jos on, mikä on ominaisarvo?
Derivaatan sovellukset (ääriarvotehtävät ym.)
Derivaatan sovellukset (ääriarvotehtävät ym.) Tehtävät: 1. Tutki derivaatan avulla funktion f kulkua. a) f(x) = x 4x b) f(x) = x + 6x + 11 c) f(x) = x4 4 x3 + 4 d) f(x) = x 3 6x + 1x + 3. Määritä rationaalifunktion
Insinöörimatematiikka D, laskuharjoituksien esimerkkiratkaisut
Insinöörimatematiikka D, 29.3.2016 4. laskuharjoituksien esimerkkiratkaisut 1. Olkoon u (4,0,4,2) ja v ( 1,1,3,5) vektoreita vektoriavaruudessa R 4. Annetun sisätulon (x,y) indusoima normi on x (x,x) ja
Käänteismatriisi 1 / 14
1 / 14 Jokaisella nollasta eroavalla reaaliluvulla on käänteisluku, jolla kerrottaessa tuloksena on 1. Seuraavaksi tarkastellaan vastaavaa ominaisuutta matriiseille ja määritellään käänteismatriisi. Jokaisella
Ennakkotehtävän ratkaisu
Ennakkotehtävän ratkaisu Ratkaisu [ ] [ ] 1 3 4 3 A = ja B =. 1 4 1 1 [ ] [ ] 4 3 12 12 1 0 a) BA = =. 1 + 1 3 + 4 0 1 [ ] [ ] [ ] 1 0 x1 x1 b) (BA)x = =. 0 1 x 2 x [ ] [ ] [ 2 ] [ ] 4 3 1 4 9 5 c) Bb
Yhtälöryhmät 1/6 Sisältö ESITIEDOT: yhtälöt
Yhtälöryhmät 1/6 Sisältö Yhtälöryhmä Yhtälöryhmässä on useita yhtälöitä ja yleensä myös useita tuntemattomia. Tavoitteena on löytää tuntemattomille sellaiset arvot, että kaikki yhtälöt toteutuvat samanaikaisesti.
Lineaarialgebra ja differentiaaliyhtälöt Laskuharjoitus 1 / vko 44
Lineaarialgebra ja differentiaaliyhtälöt Laskuharjoitus 1 / vko 44 Tehtävät 1-3 lasketaan alkuviikon harjoituksissa, verkkotehtävien dl on lauantaina aamuyöllä. Tehtävät 4 ja 5 lasketaan loppuviikon harjoituksissa.
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I. Mitkä seuraavista funktioista F, F, F ja F 4 ovat kertymäfunktioita? Mitkä
Ortogonaalisen kannan etsiminen
Ortogonaalisen kannan etsiminen Lause 94 (Gramin-Schmidtin menetelmä) Oletetaan, että B = ( v 1,..., v n ) on sisätuloavaruuden V kanta. Merkitään V k = span( v 1,..., v k ) ja w 1 = v 1 w 2 = v 2 v 2,
Antti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. Antti Rasila Matematiikan ja systeemianalyysin laitos
Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =
x 4 e 2x dx Γ(r) = x r 1 e x dx (1)
HY / Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta IIA, syksy 217 217 Harjoitus 6 Ratkaisuehdotuksia Tehtäväsarja I 1. Laske numeeriset arvot seuraaville integraaleille: x 4 e 2x dx ja 1
Kompleksiluvut., 15. kesäkuuta /57
Kompleksiluvut, 15. kesäkuuta 2017 1/57 Miksi kompleksilukuja? Reaaliluvut lukusuoran pisteet: Tiedetään, että 7 1 0 x 2 = 0 x = 0 1 7 x 2 = 1 x = 1 x = 1 x 2 = 7 x = 7 x = 7 x 2 = 1 ei ratkaisua reaalilukujen
Matematiikka B2 - TUDI
Matematiikka B2 - TUDI Miika Tolonen 3. syyskuuta 2012 Miika Tolonen Matematiikka B2 - TUDI 1 Kurssin sisältö (1/2) Matriisit Laskutoimitukset Lineaariset yhtälöryhmät Gaussin eliminointi Lineaarinen riippumattomuus
Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).
Esimerkki 9 Esimerkissä 6 miniminormiratkaisu on (ˆx, ˆx (, 0 Seuraavaksi näytetään, että miniminormiratkaisuun siirtyminen poistaa likimääräisongelman epäyksikäsitteisyyden (mutta lisääntyvän ratkaisun
1 Matriisit ja lineaariset yhtälöryhmät
1 Matriisit ja lineaariset yhtälöryhmät 11 Yhtälöryhmä matriisimuodossa m n-matriisi sisältää mn kpl reaali- tai kompleksilukuja, jotka on asetetettu suorakaiteen muotoiseksi kaavioksi: a 11 a 12 a 1n
P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.
Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin
Jatkuvat satunnaismuuttujat
Jatkuvat satunnaismuuttujat Satunnaismuuttuja on jatkuva jos se voi ainakin periaatteessa saada kaikkia mahdollisia reaalilukuarvoja ainakin tietyltä väliltä. Täytyy ymmärtää, että tällä ei ole mitään
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 21. syyskuuta 2007 Antti Rasila () TodB 21. syyskuuta 2007 1 / 19 1 Satunnaismuuttujien riippumattomuus 2 Jakauman tunnusluvut Odotusarvo Odotusarvon ominaisuuksia
Mapu 1. Laskuharjoitus 3, Tehtävä 1
Mapu. Laskuharjoitus 3, Tehtävä Lineaarisessa approksimaatiossa funktion arvoa lähtöpisteen x 0 ympäristössä arvioidaan liikkumalla lähtöpisteeseen sovitetun tangentin kulmakertoimen mukaisesti: f(x 0
802320A LINEAARIALGEBRA OSA II
802320A LINEAARIALGEBRA OSA II Tapani Matala-aho MATEMATIIKKA/LUTK/OULUN YLIOPISTO SYKSY 2016 LINEAARIALGEBRA 1 / 64 Sisätuloavaruus Määritelmä 1 Olkoon V reaalinen vektoriavaruus. Kuvaus on reaalinen
Talousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu
Talousmatematiikan perusteet: Luento 13 Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu Viime luennolla Aloimme tarkastella yleisiä, usean muuttujan funktioita
r > y x z x = z y + y x z y + y x = r y x + y x = r
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 018 Harjoitus Ratkaisuehdotukset Tehtävä 1. Osoita, että avoin kuula on avoin joukko ja suljettu kuula on suljettu joukko. Ratkaisu.
Luento 5: Suurten lineaaristen yhtälöryhmien ratkaiseminen iteratiivisilla menetelmillä
Luento 5: Suurten lineaaristen yhtälöryhmien ratkaiseminen iteratiivisilla menetelmillä Matriisit voivat olla kooltaan niin suuria, että LU-hajotelman laskeminen ei ole järkevä tapa ratkaista lineaarista