Laajennettujen Kalman-suotimien soveltaminen epäkoherentin sironnan spektritiheysfunktion estimoinnissa

Koko: px
Aloita esitys sivulta:

Download "Laajennettujen Kalman-suotimien soveltaminen epäkoherentin sironnan spektritiheysfunktion estimoinnissa"

Transkriptio

1 Laajennettujen Kalman-suotimien soveltaminen epäkoherentin sironnan spektritiheysfunktion estimoinnissa Pro Gradu -tutkielma Karjalainen Joni Matemaattisten tieteiden laitos Oulun yliopisto Syksy 2016

2 Sisältö Johdanto 2 1 Stokastiset prosessit 3 2 Lineaarinen Kalman-suodin Tila-avaruusmallit Kalman-suotimen johto Kalman-suotimen laajennuksia Laajennettu Kalman-suodin Hajustamaton Kalman-suodin Hiukkassuodin Spektritiheysfunktion estimointi Ongelman muotoilu Levenberg-Marquardt -menetelmä Tulokset Lähdeluettelo 40 Liitteet 41 A EKF 41 B EKF2 44 C UKF 48 D BF 54 E LM 57 1

3 Johdanto Tutkimusongelmana tälle työlle on soveltaa laajennettuja Kalman-suotimia ionosfääriin liittyvän käänteisen sirontaongelman parametrien estimointiin. Ionosfääristä antennilla vastaanotetusta signaalista voidaan muodostaa autokovarianssi- ja spektritiheysfunktiot. Näistä voidaan saada selville erilaisia ionosfäärin ominaisuuksia. Tässä työssä rajoitutaan tarkastelemaan vain spektritiheysfunktioita. Vastaanotetun signaalin spektritiheysfunktion plasmaparametrit muuttuvat eri ionosfäärin korkeuksilla. Tutkimusaiheena on käyttää lineaarisen Kalman-suotimen laajennuksia näiden parametrien estimointiin. Spektritiheysfunktioita simuloidaan aidon datan sijaan Lorentz-käyrien avulla. Suotimien toimivuutta verrataan aiemmin estimoinnissa käytettyyn Levenberg- Marquardt-menetelmään. Työn runkona on käytetty lähdettä [6]. Matemaattiset merkinnät on pyritty pitämään pääosin samoina tämän lähteen kanssa. Liitteenä on estimoinnin tarpeisiin muokattujen menetelmien R-koodit. Kiitokset Sodankylän Geofysikaalisen Observatorion väelle, joka auttoi tämän Pro Gradu -tutkielman tekemisessä. 2

4 1 Stokastiset prosessit Tässä kappaleessa käydään läpi stokastisiin prosesseihin, erityisesti Markovin ketjuihin liittyvää teoriaa. Tämä kappale sisältää esitietoja eri Kalmansuotimiin liittyen. Kappale on koottu lähteistä [2] [5], ja [6]. Määritelmä 1.1. Olkoon annettu todennäköisyysavaruus (Ω, F, P) ja mitallinen avaruus (S, Σ). Olkoon T täysin järjestetty indeksijoukko. S-arvoinen stokastinen prosessi X on perhe {X k : k T } S-arvoisia satunnaismuuttujia avaruudessa Ω. Joukkoa S kutsutaan stokastisen prosessin X tila-avaruudeksi ja sen alkioita x X tiloiksi. Mikäli indeksijoukko T on diskreetti, sanotaan stokastisen prosessin olevan diskreettiaikainen, ja jos T on jatkuva, sanotaan stokastisen prosessin olevan jatkuva-aikainen. Stokastisen prosessin realisaatiota {x k0, x k1,...}, kutsutaan aikasarjaksi. Joukko T tulkitaan usein aikapisteiden joukoksi. Merkitään jatkossa äärellistä aikasarjaa x k0 :k n := {x k0,..., x kn, k n < } yksinkertaisuuden vuoksi. Käytetään merkintää p(x k0 :k n ) := p(x k0 = x k0,..., X kn = x kn ) tiheysfunktion p arvolle tiloissa x k0,..., x kn, ja merkintää p(x x k0 :k n ) := p(x = x X k0 = x k0,..., X kn = x kn ) ehdolliselle tiheysfunktiolle. Tässä työssä keskitytään jatkossa tarkastelemaan diskreettiaikaisia stokastisia prosesseja. Määritelmä 1.2. Olkoon X stokastinen prosessi, T siihen liittyvä diskreetti indeksijoukko ja k, l T. Stokastisen prosessin X autokovarianssifunktio on C(k, l) := Cov(X k, X l ) = E[(X k E[X k ])(X l E[X l ])] olettaen, että vaaditut odotusarvot ovat olemassa. 3

5 Kyseessä on siis stokastisen prosessin X kovarianssi itsensä kanssa kaikilla ajanhetkillä. Määritelmä 1.3. Olkoon diskreettiaikaisen stokastisen prosessin X autokovarianssifunktio C(k, l) hyvin määritelty ja C(k, l) <. k,l T Tällöin voidaan määritellä stokastisen prosessin X spektritiheysfunktio muunnoksena S(f) = 1 2π C(k, l)e i(k l)f, k,l T missä < f < on taajuus ja i on imaginaariyksikkö. Kyseessä on siis autokovarianssifunktion diskreetti Fourier-muunnos. Autokovarianssifunktion avulla aikasarjaa tarkastellaan aikaulottuvuuden kautta, kun taas spektritiheysfunktiota tarkastellaan taajuusulottuvuuden kautta. Kyseessä ovat siis eri tavat karakterisoida aikasarja. Lisää tietoa spektritiheysfunktioista saa lähteestä [2]. Spektritiheysfunktioita tarkastellaan tarkemmin kappaleessa 4, missä estimoidaan plasmaparametrejä laajennetuilla Kalman-suotimilla. Lause 1.4. Olkoot x 0,..., x k stokastisen prosessin X tiloja. Tällöin p(x 0:k ) = p(x 0 )p(x 2 x 1 ) p(x k x 1:k 1 ), (1) olettaen että ylläolevat ehdolliset todennäköisyydet on hyvin määritelty. Yhtälöä (1) kutsutaan kertolaskukaavaksi. Määritelmä 1.5. Diskreettiaikaista stokastista prosessia {X k : k = 0, 1,...} kutsutaan 1. kertaluvun Markovin ketjuksi mikäli kaikilla k N ja tiloilla (x 0,..., x k ) S k+1 pätee p(x k x 0:k 1 ) = p(x k x k 1 ), (2) mikäli kyseiset ehdolliset todennäköisyydet ovat olemassa. 4

6 Jatkuva-aikaista stokastista prosessia {X k : k 0}, joka toteuttaa ehdon (2) kutsutaan Markovin jonoksi. Sitä, että Markovin ketju unohtaa kaikki muut tilat paitsi viimeisen kaavan (2) mukaisesti, kutsutaan Markovin ominaisuudeksi. Markovin ketjut ovat usein tärkeitä sovellusten kannalta, koska ne yksinkertaistavat laskentaa, jossa tarvitaan kertolaskukaavaa (1). Johdetaan seuraavaksin eräs tärkeä tulos tilojen laskemiseksi. Lause 1.6. Olkoon X Markovin ketju. Markovin ketjun tiheysfunktioille pätee p(x k y 1:k 1 ) = p(x k x k 1 )p(x k 1 y 1:k 1 )dx k 1, (3) missä k N +. Todistus. Tilojen x k ja x k 1 yhteisjakauma, kun y 1:k 1 on annettu, on p(x k, x k 1 y 1:k 1 ) = p(x k x k 1, y 1:k 1 )p(x k 1 y 1:k 1 ) = p(x k x k 1 )p(x k 1 y 1:k 1 ), missä on käytetty Markovin ominaisuutta mittauksen y 1:k 1 poistamiseen. Marginaalijakaumaan (3) päästään tästä, kun integroidaan viimeinen yhtälö muuttujan x k 1 suhteen. Yhtälöä (3) kutsutaan Chapman-Kolmogorovin yhtälöksi. Lisää tietoa Markovin ketjuista voi saada lähteestä [5]. Määritelmä 1.7. Satunnaisvektori x R n noudattaa multinormaalijakaumaa odotusarvolla m R n ja kovarianssilla P R n n, jos sen tiheysfunktio on muotoa N (x m, P) = 1 (2π) n 2 P 1 2 ( exp 1 ) 2 (x m)t P 1 (x m). (4) Tässä P on kovarianssimatriisin P determinantti. Satunnaisvektori x ositetaan usein kahteen osaan: x = ( x1 5 x 2 ),

7 jolloin myös odotusarvo m ja kovarianssimatriisi P jakaumassa (4) jaetaan osiin: m = ( m1 m 2 ) ( ) P11 P 12, P =. P 21 P 22 Teoriasta tiedetään, että kovarianssimatriisin P täytyy olla symmetrinen ja positiivisesti deniitti. Kovarianssimatriisin komponenteille pätee siis P 12 = P T 21. Satunnaisvektorin osituksen tarkoituksena on Kalman-suotimiin liittyen ilmaista dynaamisen systeemin tilat ja mittaukset saman jakauman avulla. Kalman-suotimien johtamiseksi tarvitaan johtaa muutama multinormaalijakaumaan liittyvä aputulos. Käydään nämä läpi seuraavaksi. Lemma 1.8. Jos satunnaisvektorit x ja y noudattavat yhteistodennäköisyysjakaumana multinormaalijakaumaa ( ) ( ( ) ( ) ) x a A C N,, y b C T B niin reunajakaumat noudattavat multinormaalijakaumaa seuraavasti: x N (a, A), y N (b, B). Ehdolliset jakaumat satunnaisvektoreille x ja y noudattavat multinormaalijakaumaa seuraavasti: x y N (a + CB 1 (y b), A CB 1 C T ), y x N (b + C T A 1 (x a), B C T A 1 C). Lemma 1.9. Olkoon x R n ja y R m satunnaisvektoreita ja x N (m, P), y x N (Hx + u, R). Tällöin satunnaisvektorien x ja y yhteistiheysfunktio on ( ) ( ( ) ( ) ) x m P PH T N,, y Hm + u HP HPH T + R ja satunnaisvektorin y reunajakauma on y N (Hm + u, HPH T + R). 6

8 Määritelmä Olkoon x R n ja y R m, missä n, m N +, satunnaisvektoreita. Oletetaan, että yhtälö p(x y) = p(y x)p(x) p(y) (5) on hyvin määritelty. Yhtälöä (5) kutsutaan Bayesin kaavaksi tiheysfunktioille. Ehdollista tiheysfunktiota p(x y) kutsutaan posterioritodennäköisyystiheysfunktioksi, ehdollista tiheysfunktiota p(y x) uskottavuusfunktioksi ja tiheysfunktiota p(y) prioritodennäköisyystiheysfunktioksi. Yhtälön (5) oikean puolen nimittäjässä oleva lauseke p(y) = p(y x)p(x)dx on nollasta eroava normitusvakio. Bayesin kaavaa (5) käytetään Kalman-suotimien johtamisessa rekursiivisesti siten, että päivittämällä datavektori y käytetään uutta prioritodennäköisyystiheysfunktiota ja uskottavuusfunktiota posterioritodennäköisyystiheysfunktion laskemiseksi. Määritelmä Gaussisessa approksimaatiossa posteriorijakaumaa arvioidaan multinormaalijakaumalla. Merkitään tätä p(x y) N (x m, P), (6) missä x R n ja y R m ; n, m N +, ja m R n on satunnaisvektorin x odotusarvo ja P kovarianssi. 2 Lineaarinen Kalman-suodin Tässä kappaleessa johdetaan lineaarinen Kalman-suodin, joka on rekursiivinen ratkaisu tietyntyyppiselle satunnaiselle dynaamiselle systeemille. 7

9 2.1 Tila-avaruusmallit Kalman-suodinten tapauksessa käytetään niin sanottuja Markovin piilomalleja. Tällöin estimoitavia systeemin tiloja {x k, k T } ei voida suoraan mitata, va an niitä on tarkasteltava epäsuorien mittausten {y k, k T } avulla. Bayesilaisessa suodatuksessa tarkoituksena on saada laskettua jakauma p(x k y 1:k ), eli nykyisen tilan x k jakauma, kun aiempien ajanhetkien mittausten arvot tunnetaan. Tämän jakauman laskeminen Bayesin kaavalla ei ole usein käytännössä mahdollista laskennallisen monimutkaisuuden kasvaessa mittausten määrän vuoksi. Rajoittamalla laskenta reunajakaumiin ja olettamalla dynaamisten mallien luokan olevan Markovin jonoja laskenta muuttuu kevyemmäksi. Tältä pohjalta voidaan kehittää seuraava satunnainen tila-avaruusmalli : x 0 p(x 0 ), x k p(x k x k 1 ), (7) y k p(y k x k ), missä jakaumaa p(x k x k 1 ) kutsutaan evoluutiomalliksi ja jakaumaa p(y k x k ) havaintomalliksi. Näitä jakaumia voidaan käyttää apuna Bayesilaisen suodatuksen jakauman laskemiseen. Merkitään jatkossa parametrivektoria θ:lla. Parametrien estimointi tapahtuu Bayesilaisessa suodatuksessa siten, että asetetaan parametreille priorijakauma p(θ) ja pidetään parametreja ylimääräisinä satunnaismuuttujina tilamallissa (7). Näin saadaan parametrien estimoinnille seuraava satunnainen tila-avaruusmalli: θ p(θ), x 0 p(x 0 θ), x k p(x k x k 1, θ), y k p(y k x k, θ). Tila-avaruusmallia (7) voidaan käyttää jakauman p(x k y 1:k ) laskemiseen. Seuraava algoritmi antaa keinon tähän. 8

10 Algoritmi Tiheysfunktiot p(x k y 1:k 1 ) ja p(x k y 1:k ) saadaan laskettua seuraavien vaiheiden avulla: 1. Aloitetaan rekursio alustamalla priorijakauma p(x 0 ). 2. Chapman-Kolmogorovin yhtälöistä (3) saadaan p(x k y 1:k 1 ) = p(x k x k 1 ) p(x k 1 y 1:k 1 ) dx k Lasketaan p(x k y 1:k ) = 1 Z k p(y k x k ) p(x k y 1:k 1 ), missä Z k = p(y k x k ) p(x k y 1:k 1 ) dx k on normitusvakio. 2.2 Kalman-suotimen johto Määritelmä Lineaarinen Kalman-suodin on suljettu ratkaisu Bayesilaisiin suodatusyhtälöihin, kun evoluutiomalli ja havaintomalli ovat lineaarisia, eli muotoa x k = A k 1 x k 1 + q k 1, y k = H k x k + r k, (8) missä x k R n on tila, y k R m on mittaus, q k 1 N (0, Q k 1 ) on prosessin kohina, r k N (0, R k ) on mittausvirhe ja priorijakauma on gaussinen x 0 N (n 0, P 0 ). Matriisi A k 1 on evoluutiomallin siirtomatriisi ja H k mittausmallin matriisi. Käyttämällä Gaussista approksimaatiota evoluutiomalliin ja havaintomalliin, voidaan tila-avaruusmalli (8) kirjoittaa jakaumamallina p(x k x k 1 ) = N (x k A k 1 x k 1, Q k 1 ), p(y k x k ) = N (y k H k x k, R k ). Esitetään seuraavaksi lineaarinen Kalman-suodin. 9

11 Lause Ratkaisuna yhtälöihin (8) saadaan Bayesilaisen suodatuksen posterioritodennäköisyydet p(x k y 1:k 1 ) = N (x k m k, P k ), p(x k y 1:k ) = N (x k m k, P k ), p(y k y 1:k 1 ) = N (y k H k m k, S k), missä m k = A k 1m k 1, P k = A k 1P k 1 A T k 1 + Q k 1, (9) ja m k = m k + P k HT k (H k P k HT k + R k ) 1 [y k H k m k ], P k = P k P k HT k (H k P k HT k + R k ) 1 H k P k. (10) Todistus. Ideana todistuksessa on käyttää algoritmia Johdetaan ensin parametrien (9) yhtälöt. Lemmasta 1.9 saadaan p(x k 1, x k y 1:k 1 ) = p(x k x k 1 ) p(x k 1 y 1:k 1 ) = N (x k A k 1 x k 1, Q k 1 )N (x k 1 m k 1, P k 1 ) ( ( ) ) xk 1 = N m, P. x k Tässä ( mk 1 ) m =, A k 1 m k 1 ( ) P Pk 1 P k 1 A T k 1 = A k 1 P k 1 A k 1 P k 1 A T k 1 + Q. k 1 Vektorin x k reunajakauma on Lemman 1.8 mukaan p(x k y 1:k 1 ) = N (x k m k, P k ). Tässä m k = A k 1m k 1, P k = A k 1P k 1 A T k 1 + Q k 1. 10

12 Johdetaan seuraavaksi parametrien (10) yhtälöt. Lemmasta 1.9 saadaan vektorien x k ja y k yhteistodennäköisyys: Tässä missä p(x k, y k y 1:k 1 ) = p(y k x k ) p(x k y 1:k 1 ) m = Lemmasta 1.8 saadaan = N (y k H k x k, R k )N (x k m k, P k ( ( ) ) xk ) = N m, P. y k ( ) ( m k P, P k = H k m k H k P k p(x k y k, y 1:k 1 ) = p(x k y 1:k ) P k HT k H k P k HT k + R k = N (x k m k, P k ), m k = m k + P k HT k (H k P k HT k + R k ) 1 [y k H k m k ], P k = P k P k HT k (H k P k HT k + R k ) 1 H k P k. ). Algoritmi Lineaarinen Kalman-suodin jaetaan algoritmiltaan usein kahteen vaiheeseen. 1. Ennustevaiheessa lasketaan ennusteparametrit m k = A k 1m k 1, P k = A k 1P k 1 A T k 1 + Q k Päivitysvaiheessa lasketaan matriisit v k = y k H k m k, S k = H k P k HT k + R k, K k = P k HT k S 1 k, m k = m k + K kv k, P k = P k K ks k K T k, jotka saadaan hajottamalla matriisit (10) sopivasti. 11

13 3. Aloitetaan seuraava kierros. Lineaarisen Kalman-suotimen idea on siis laskea ensin ennustevaiheessa tilan estimaatti. Tämän jälkeen tätä estimaattia verrataan mittauksiin ja korjataan sopivasti päivitysvaiheessa. Korjattua estimaattia käytetään tämän jälkeen uutena ennusteena. Kalman-suodin toimii näin ollen rekursiivisena estimaattorina. Matriisia K k kutsutaan vahvistusmatriisiksi, ja se kertoo, miten paljon odotusarvoa ja kovarianssia pitää päivitysvaiheessa skaalata. Epälineaarisille suodatusyhtälöille lineaarisella Kalman-suotimella ei saa yleensä tarkkoja ratkaisuja lineaarisuudesta johtuvan epätarkkuuden vuoksi. Tätä tarkoitusta varten on kehitetty erilaisia Kalman-suotimen laajennuksia. 3 Kalman-suotimen laajennuksia Tässä kappaleessa käydään läpi laajennettu Kalman-suodin, hajustamaton Kalman-suodin ja hiukkassuodin. 3.1 Laajennettu Kalman-suodin Johdetaan ensin laajennettu Kalman-suodin. Tämä menetelmä saadaan arvioimalla epälineaaristen suodatusyhtälöiden funktioita Taylorin kehitelmällä, jolloin voidaan käyttää lineaarista Kalman-suodinta tavalliseen tapaan. Tarkastellaan satunnaisvektorin x muunnosta x N (m, P), y = g(x), missä x R n, y R m ja g : R n R m on jokin epälineaarinen funktio. Tätä muunnosta tarvitaan laajennetun Kalman-suotimen johtamisessa. Johdetaan seuraavaksi pari tulosta. Määritelmä Olkoon x = m + δx, missä δx N (0, P). Oletetaan, että funktion g : R n R m n:nnen asteen osittaisderivaatat ovat olemassa. 12

14 Tällöin g(m + δx) g(m) + G x (m)δx + i 1 2 δxt G (i) xx(m)δxe i +..., (11) missä [G x (m)] j,j = g j(x) x j, x=m xx(m)] j,j = 2 g i (x) x j x j [G (i) x=m ja e i = (0,..., 0, 1, 0,..., 0) on vektori, jonka i:s komponentti on 1. Yhtälön (11) oikean puolen sarjaa kutsutaan funktion g(x) Taylorin kehitelmäksi. Lemma Olkoon x = m + δx, missä δx N (0, P). Olkoon funktion g : R n R m ensimmäisen kertaluvun osittaisderivaatat olemassa. Funktion g ensimmäisen kertaluvun Taylorin kehitelmän g(x) g(m) + G x (m)δx, missä merkintä tarkoittaa, että funktion g(x) oletetaan olevan likimääräisesti oikean puolen lauseke, odotusarvo on E[g(x)] g(m). Toisaalta kovarianssille pätee arvio Todistus. Odotusarvo on nyt Cov[g(x)] G x (m)pg T x(m). E[g(x)] E[g(m) + G x (m)δx] = g(m) + G x (m) E[δx] = g(m). 13

15 Funktion g(x) kovarianssiksi saadaan Cov[g(x)] = E [ (g(x) E[g(x)])(g(x) E[g(x)]) T ] E [ (g(x) g(m))(g(x) g(m)) T ] E [ (g(m) + G x (m)δx g(m))(g(m) + G x (m)δx g(m)) T ] = E [ (G x (m)δx)(g x (m)δx) T ] = G x (m) E[δxδx T ]G T x(m) = G x (m)pg T x(m). Laajennetun Kalman-suotimen johdossa tarvitaan muunnosta x N (m, P), q N (0, Q), y = g(x) + q, (12) missä q on riippumaton muuttujasta x. Satunnaismuuttujien x ja y yhteisjakauma saadaan seuraavan lemman avulla. Lemma Muunnoksessa (12) muuttujien x ja y yhteistodennäköisyysjakauma on ( ) ( ( ) ( ) ) x m P CL N,, T y µ L C L S L missä µ L = g(m), S L = G x (m)pg T x (m) + Q, C L = PG T x (m). Toisen asteen laajennetun Kalman-suotimen johtamiseen tarvitaan seuraavaa lemmaa. Lemma Toisen kertaluvun Taylorin approksimaatio muunnokselle (12) on ( ) ( ( ) ( ) ) x m P CQ N,, y µ Q 14 C T Q S Q

16 missä µ Q = g(m) S Q = G x (m)pg T x (m) i e i tr ( G (i) xx(m)p ), i,i e i e T i tr ( G (i) xx(m)pg (i ) xx (m)p ), C Q = PG T x (m). Tässä G x (m) on funktion g Jacobin matriisi pisteessä m, G (i) xx(m) on funktion g i Hessin matriisi pisteessä m, e i on yksikkävektori,jonka i:s komponentti on 1, ja operaatio tr() on matriisin jälki. Määritelmä Oletetaan, että prosessin ja mittauksen kohinat ovat additiivisia. Laajennettu Kalman-suodin on ratkaisu Bayesilaisiin suodatusyhtälöihin, kun tila-avaruusmalli on muotoa x k = f(x k 1 ) + q k 1, y k = h(x k ) + r k, (13) missä x k R n on tila, y k R m on mittaus, q k 1 N (0, Q k 1 ) on evoluutiomallin virhe, r k N (0, R k ) on havaintomallin virhe ja f ja h ovat epälineaarisia funktioita. Kuten lineaarisen Kalman-suotimenkin tapauksessa, tarkoituksena on laskea Bayesilaisen suodatuksen jakaumat. Esitetään seuraavaksi laajennetun Kalman-suotimen ratkaisu. Lause Suodatusjakaumat ovat laajennetun Kalman-suotimen tapauksessa muotoa p(x k y 1:k 1 ) = N (x k m k, P k ), p(x k y 1:k ) = N (x k m k, P k ), (14) p(y k y 1:k 1 ) = N (y k H k m k, S k). Tarvittavat parametrit yhtälöihin (14) ovat m k = f(m k 1), P k = F x(m k 1 )P k 1 F T x(m k 1 ) + Q k 1, (15) 15

17 ja v k = y k h(m k ), S k = H x (m k )P k HT x(m k ) + R k, K k = P k HT x(m k )S 1 k, m k = m k + K kv k, P k = P k K ks k K T k, (16) missä F x (m k 1 ) on funktion f Jacobin matriisi pisteessä m k 1 ja H x (m k ) on funktion h Jacobin matriisi pisteessä m k. Todistus. Sovelletaan lemmaa funktioon f(x k 1 ) + q k 1. Tästä saadaan Gaussinen approksimaatio ( ( ) ) xk 1 f(x k 1, x k y 1:k 1 ) N x m, P, k missä ) ( xk 1 m =, x k ( ) P Pk 1 P k 1 F T x =. F x P k 1 F x P k 1 F T x + Q k 1 Jacobin matriisi F x lasketaan pisteessä x = m k 1. Nyt m k = f(m k 1), P k = F xp k 1 F T x + Q k 1. Sovelletaan nyt lemmaa funktioon h(x k ) + r k. Tästä saadaan Gaussinen approksimaatio 16

18 missä ( ( ) ) xk f(x k, y k y 1:k 1 ) N m, P, y k ( ) m m k = h(m k ), ( ) P P k P k = HT x. H x P k H x P k HT x + R k Jacobin matriisi H x lasketaan pisteessä x = m k Lemman (1.8) perusteella saadaan f(x k y k, y 1:k 1 ) N (x k m k, P k ), missä m k = m k + P k HT x(h x P k HT x + R k ) 1 [y k h(m k )m k ], P k = P k P k HT x(h x P k HT x + R k ) 1 H x P k. (17) Yhtälöiden (17) laskenta voidaan hajoittaa vastaavasti kuin lineaarisen Kalman-suotimen tapauksessa. Laajennetun Kalman-suotimen algoritmi voidaan siis kirjoittaa vastaavasti kuin lineaarinen versio Sovellettaessa toisen asteen Taylorin approksimaatiota epälineaariseen tila-avaruusmalliin (13) lemman mukaisesti, saadaan muodostettua niin kutsuttu toisen asteen laajennettu Kalman-suodin. Esitetään kyseinen algoritmi seuraavaksi. Algoritmi Toisen asteen laajennettu Kalman-suodin saadaan ratkaistua seuraavien ennustus-ja päivitysvaiheiden avulla. 1. Ennustetaan odotusarvo ja kovarianssi: m k = f(m k 1) + 1 e i tr(f (i) 2 xx(m k 1 )P k 1 ), i P k = F x(m k 1 )P k 1 F T x(m k 1 ) + 1 e i e T i 2 tr(f(i) xx(m k 1 )P k 1 F (i ) xx (m k 1 )P k 1 ) + Q k 1. i,i 17

19 2. Päivitetään odotusarvo ja kovarianssi mittausten avulla: v k = y k h(m k ) 1 e i tr(h (i) 2 xx(m k )P k ), i S k = H x (m k )P k HT x(m k ) + 1 e i e T i 2 tr(h(i) xx(m k )P k 1H (i ) xx (m k )P k 1) + R k, i,i K k = P k HT x(m k )S 1 k, m k = m k + K kv k, P k = P k K ks k K T k. 3. Aloitetaan seuraava kierros. Tässä F (i) xx on funktion f Hessin matriisi ja H (i) xx on funktion h Hessin matriisi. 3.2 Hajustamaton Kalman-suodin Hajustamaton Kalman-suodin on eräs menetelmä epälineaarisen suodatusyhtälön (13) ratkaisemiseksi. Ideana on arvioida posteriorijakauman odotusarvoa ja kovarianssia kiinteiden pisteiden avulla, jotka ovat sijoitettu kohdejakaumaan nähden sopivasti. Pisteiden sijoittelu voidaan muodostaa niin kutsutulla hajustamattomalla muunnoksella. Määritellään tämä seuraavaksi. Määritelmä Hajustamaton muunnos muodostaa Gaussisen approksimaation (6) seuraavien vaiheiden kautta. Ensin muodostetaan 2n + 1 kappaletta sigmapisteitä X (0) = m, X (i) = m + [ P ] n + λ, i X (i+n) = m [ P ] n + λ, i = 1,..., n, missä merkintä [ ] i tarkoittaa matriisin saraketta i, m on odotusarvon estimaatti, n on odotusarvovektorin dimensio, matriisin P neliöjuuri määritellään P P = P, i 18

20 ja λ on skaalausparametri λ = α 2 (n + κ) n. Tässä parametrit α ja κ määrittävät sigmapisteiden hajonnan keskiarvon ympärillä. Seuraavaksi monistetaan sigmapisteet epälineaarisen funktion avulla: Y (i) = g(x (i) ), i = 0,..., 2n. Muunnetun muuttujan odotusarvo ja kovarianssi lasketaan seuraavasti: E[g(x)] µ U = Cov[g(x)] S U = 2n i=0 2n i=0 W (m) i Y (i) W (c) i (Y (i) µ U )(Y (i) µ U ) T, missä painot W (m) i ja W (c) i saadaan seuraavasti: W (m) 0 = λ n + λ, W (c) 0 = λ n + λ + (1 α2 + β), W (m) i = W (c) i = 1, 2(n + λ) i = 1,..., 2n, 1, 2(n + λ) i = 1,..., 2n. (18) Algoritmi Bayesilaiset suodatusyhtälöt voidaan nyt muodostaa käyttämällä hajustamatonta muunnosta. Tuloksena saadaan seuraava hajustamattoman Kalman-suotimen algoritmi. 1. Lasketaan ennuste: X (0) k 1 = m k 1, X (i) k 1 = m k 1 + [ Pk 1 ] n + λ, i = m k 1 [ Pk 1 ] n + λ, i = 1,..., n, X (i+n) k 1 19 i

21 2. Monistetaan sigmapisteet evoluutiomallilla: ˆX (i) k = f(x (i) k 1 ), i = 0,..., 2n. 3. Lasketaan ennustettu keskiarvo ja ennustettu kovarianssi: m k P k = 2n i=0 = 2n missä painot W (m) i i=0 W (m) i ˆX (i) k, W (c) (i) i ( ˆX k m (i) k )( ˆX k m k )T + Q k 1, ja W (c) i määriteltiin yhtälöissä (18). 4. Päivitetään estimaatit: Muodostetaan sigmapisteet: X (0) k = m k, X (i) k X (i+n) k = m k + [ P ] n + λ, k i = m k [ P ] n + λ, i = 1,..., n, k 5. Monistetaan sigmapisteet mittausmallilla: Ŷ (i) k = h(x (i) k ), i = 0,..., 2n. 6. Lasketaan odotettu keskiarvo, mittauksen odotettu kovarianssi ja mittauksen tilan ristikovarianssi: µ k = S k = C k = 2n i=0 2n i=0 2n i=0 W (m) i Ŷ (i) k, W (c) i (Ŷ(i) k µ k )(Ŷ(i) k µ k ) T + R k, W (c) (i) i ( ˆX k m k )(Ŷ(i) k µ k ) T. 7. Lasketaan vahvistusmatriisi, tilan odotusarvo ja kovarianssi ehdollistettuna mittaukselle: K k = C k S 1 k, m k = m k + K k(y k µ k ), P k = P k K ks k K T k. 20 i

22 8. Aloitetaan seuraava kierros. Laajennetuista Kalman-suotimista poiketen hajustamattomassa versiossa ei tarvitse laskea epälineaaristen funktioiden derivaattoja. Erona hiukkassuotimiin hajustamattomassa Kalman-suotimessa odotusarvoa ja kovarianssia estimoidaan kiinteillä ennaltamäärätyillä pisteillä satunnaisten otosten sijaan. Hajustamaton Kalman-suodin on erikoistapaus niin kutsutuista Gaussisista suotimista. Lisää näistä voi lukea lähteestä [6]. 3.3 Hiukkassuodin Tietyissä tilanteissa Bayesilaisia suodatusyhtälöitä p(x k y 1:k 1 ), p(x k y 1:k ) ja p(y k y 1:k 1 ) ei kannata ratkaista Gaussisen approksimaation avulla. Esimerkiksi jakaumien ollessa monihuippuisia menetetään tarkkuutta jakauman valinnasta johtuen. Tällaisissa tilanteissa Monte Carlo -approksimaatio toimii usein paremmin. Tarkoituksena on laskea odotusarvo E[g(x) y 1:T ] = g(x)p(x y 1:T )dx, (19) missä g : R n R m on mielivaltainen funktio ja p(x y 1:T ) on posteriorijakauman tiheysfunktio. Monte Carlo -menetelmän ideana on ottaa N kappaletta riippumattomia satunnaisotoksia x (i) p(x y 1:T ), i = 1,..., N ja arvioidaan odotusarvoa (19) summalla 1 N N g(x (i) ). i=1 Käytännössä ei ole kuitenkaan usein mahdollista ottaa otoksia suoraan posteriorijakaumasta p(x y 1:T ). Tämän vuoksi pyritään ottamaan otoksia niin sanotusta tärkeysjakaumasta π(x y 1:T ), jota on helpompi käsitellä. Ehtona tärkeysjakauman valinnalle on, että sen tukialue on suurempi tai yhtäsuuri kuin posteriorijakaumalla. Odotusarvoa (19) voidaan arvioida tärkeysjakaumien avulla seuraavasti. Nyt g(x)p(x y 1:T )dx = [ g(x) p(x y 1:T ) π(x y 1:T ) 21 ] π(x y 1:T )dx.

23 Ottamalla N otosta tärkeysjakaumasta voidaan muodostaa arvio missä painot määritellään E[g(x) y 1:T ] 1 N = N i=1 p(x (i) y 1:T ) π(x (i) y 1:T ) g(x(i) ) N w (i) g(x (i) ), i=1 w (i) = 1 N Tätä menettelyä kutsutaan tärkeysotannaksi. p(x (i) y 1:T ) π(x (i) y 1:T ). (20) Jotta painot (20) voitaisiin laskea, täytyy pystyä laskemaan posterioritodennäköisyystiheysfunktion arvo p(x (i) Bayesin kaavan avulla muotoon p(x (i) y 1:T ) = p(y 1:T x (i) )p(x (i) ) p(y1:t x)p(x)dx. y 1:T ). Tämä voidaan kirjoittaa Nimittäjässä olevaa vakiota ei usein pystytä laskemaan. Muodostamalla tärkeysotanta myös tälle vakiolle voidaan odotusarvo (19) saada muotoon E[g(x) y 1:T ] = g(x)p(x y 1:T ) missä w (i) = N j=1 N w (i) g(x (i) ), i=1 p(y 1:T x (i) )p(x (i) ) π(x (i) y 1:T ) Johto painojen kaavalle löytyy lähteestä [6]. p(y 1:T x (j) )p(x (j) ) π(x (j) y 1:T ) Jaksollisessa tärkeysotannassa muodostetaan tärkeysotannan avulla approksimaatiot Bayesilaisille suodatusyhtälöille, kun tila-avaruusmalli voidaan kirjoittaa muodossa x k p(x k x k 1 ), y k p(y k x k ). 22.

24 Suodatusyhtälöt estimoidaan niin kutsuttujen hiukkasten {(w (i) k, x(i) k ) : i = 1,..., N} avulla. Ideana on ottaa otoksia x (i) k tärkeysjakaumasta ja laskea näille painot w (i) k ajanhetkellä k. Tällä tavoin voidaan laskea odotusarvo jokaisella ajanhetkellä k. E[g(x k ) y 1:k ] N i=1 w (i) k g(x(i) k ) Jaksollinen tärkeysuudelleenotanta, eli hiukkassuodin on muuten samanlainen menetelmä hiukkasten laskemiseksi kuin jaksollinen tärkeysotanta, mutta tietyillä kierroksilla suoritetaan uudelleenotanta. Tämä pyrkii estämään tilanteen, joissa vain muutamalla hiukkasella on merkittävät painot. Tällöin lisätään suurien painojen omaavien hiukkasten lukumäärää otoksessa pitämällä tiloja x (i) k diskreetin satunnaismuuttujan arvoina ja painoja w (i) k vastaavina todennäköisyyksinä. Se, millä kierroksella uudelleenotanta suoritetaan, päätetään usein laskemalla niin kutsuttu hiukkasten efektiivinen määrä n eff kaavalla n eff 1 N ( (i) i=1 w k ja vertaamalla tätä vakioon n N. Mikäli efektiivinen määrä on pienempi, suoritetaan uudelleenotanta. Esitetään seuraavaksi hiukkassuotimen ja uudelleenotannan algoritmit. Algoritmi Hiukkassuodin voidaan kirjoittaa seuraavien vaiheiden avulla: 1. Otetaan N otosta priorijakaumasta ja asetetaan w (i) 0 = 1 N ) 2 x (i) 0 p(x 0 ), i = 1,..., N, kaikille i = 1,..., N. 2. Jokaiselle ajanhetkelle (k = 1,..., T ) suoritetaan seuraavat vaiheet: A Otetaan otoksia x (i) k tärkeysjakaumista x (i) k = π(x k x (i) k 1, y 1:k), i = 1,..., N. 23

25 B Lasketaan uudet painot seuraavasti: w (i) k Nämä normalisoidaan. w (i) p(y k x (i) k )p(x(i) k x (i) k 1 π(x (i) k x (i) k 1, y 1:k) k 1 ) C Mikäli hiukkasten efektiivinen määrä on vähäinen, niin suoritetaan uudelleenotanta. Algoritmi Uudelleenotanta suoritetaan seuraavien vaiheiden avulla:. 1. Muodostetaan painot w (i) k : i = 1,..., N}. {x (i) k todennäköisyyksinä saada indeksi i joukosta 2. Otetaan N otosta tästä diskreetistä jakaumasta ja korvataan vanha otosjoukko tällä. 3. Asetetaan kaikki painot vakioksi: w (i) k = 1 N. Hiukkassuotimen algoritmin johto löytyy lähteestä [6]. Niin kutsutussa bootstrap-suotimessa tärkeysjakaumana π(x k x k 1, y 1:k ) käytetään evoluutiomallia p(x k x k 1 ). Tämän jakauman tehottomuuden vuoksi joudutaan yleensä käyttämään suurempaa määrää hiukkasia kuin tehokkaamman tärkeysjakauman tapauksessa. Bootstrap-suotimessa uudelleenotanta suoritetaan yleensä joka kierroksella. 4 Spektritiheysfunktion estimointi Tässä kappaleessa sovelletaan laajennettuja Kalman-suotimia plasmaparametrien estimoimiseen. Kappale on koottu lähteistä [1], [3] ja [4]. 4.1 Ongelman muotoilu Ionosfääristä saadaan havaittua epäkoherenttia sirontaa, kun siihen lähetetään signaali sirontatutkalla. Muuttunut signaali vastaanotetaan toisella asemalla. Tästä vastaanotetusta signaalista voidaan muodostaa autokovarianssi- 24

26 Kuva 1: Asema A lähettää signaalin, joka vastaanotetaan asemalla B. Signaalissa tapahtuneet muutokset kertovat ionosfäärin ominaisuuksista. ja spektritiheysfunktiot [3]. Niiden avulla saadaan tietoa ionisoituneen plasman ominaisuuksista, kuten elektronitiheydestä ja lämpötilasta [4]. Keskitytään jatkossa pelkästään spektritiheysfunktioiden tarkasteluun. Nämä riippuvat niin kutsutuista plasmaparametreista, joita pyritään estimoimaan. Tutkalla mittaukset tehdään usein usealle eri korkeudelle. Olkoon annettu spektritiheysfunktioparvi S(f, θ(h)), missä f on taajuus ja θ(h) on parametrivektori, joka riippuu korkeudesta h. Ongelmana on löytää parametrien θ(h) estimaatit tietyillä korkeuksilla Kalman-suotimen laajennuksien avulla. Käytetään spektritiheysfunktion simulointiin Lorentz-käyrää. Se on muotoa ( f 0 f ω/2 missä f 0 on huipun kohta, f on taajuus ja ω on puoliarvoleveys, eli sellaisten pisteiden välinen välimatka, jotka ovat arvoltaan puolet käyrän maksimiarvosta. Laskemalla yhteen kaksi Lorentz-käyrämuotoa voidaan simuloida 25 ) 2,

27 kaksihuippuista spektritiheysfunktiota. Tällöin saadaan funktio muotoa L(f, θ(h)) := ( f 1,h f ω 1,h /2 ) ( f 2,h f ω 2,h /2 ) 2, (21) missä f 1,h ja f 2,h ovat huippujen kohdat, ω 1,h on ensimmäisen ja ω 2,h toisen käyrän puoliarvoleveys. Parametrivektori on nyt muotoa θ(h) = (f 1,h, ω 1,h, f 2,h, ω 2,h ). Intensiteetti Intensiteetti Taajuus Taajuus Kuva 2: Lorentz-käyrä (yksihuippuinen käyrä) ja kaksi eri Lorentz-käyrää summaamalla muodostettu kaksihuippuisen spektritiheysfunktion simulaatio. Tarkastellaan yhtä korkeutta. Käytetään ongelman mallintamiseen tilaavaruusmallia θ k = θ k 1 + N (0, Q k 1 ), y f,k = L(f, θ k ) + N (0, R k ), 26

28 missä θ k = (f 1,k, ω 1,k, f 2,k, ω 2,k ) on parametrivektori, y f,k on mittaus, L on määritelty kaavalla (21), Q k 1 = σ k 1 I, missä σ k 1 on vakio ja I on yksikkömatriisi, ja R k on havaintomallin virheen varianssi. Spektritiheysfunktion plasmaparametreja on tähän mennessä estimoitu Levenberg-Marquardt (LM) -menetelmällä. Johdetaan tämä seuraavaksi. 4.2 Levenberg-Marquardt -menetelmä Olkoon annettu epälineaarinen yhtälöryhmä G(θ) = d, missä θ on n-dimensioinen parametrivektori, vektori d on m-dimensioinen datavektori ja G on epälineaarinen kuvaus. Pyrkimyksenä on löytää sopiva parametrivektori θ niin, että residuaalien normi minimoituu. Oletetaan, että mittauksen virhetermit ovat normaalijakautuneita keskivirheillä σ i, i = 1... m. Tarkoituksena olisi minimoida lauseke missä f(θ) = m fi 2 (θ), (22) i=1 f i (θ) = G(θ) i d i σ i, i = 1... m, on keskivirheillä painotettu residuaali. Käytetään minimoimiseen Newtonin menetelmää. Newtonin menetelmä on nyt H(f(θ k )) θ = f(θ k ), (23) missä k on iteraatiokierros, H(f(θ k )) on funktion f Hessin matriisi pisteessä θ k, θ on tarkan ja likimääräisen ratkaisun erotus iteraatiokierroksella k: θ = θ θ k ja f(θ k ) on funktion f gradientti pisteessä θ k. Johdon Newtonin menetelmälle voi lukea lähteestä [1]. Funktion f(θ) gradientti voidaan kirjoittaa m f(θ) = ( f i (θ) 2). Gradientin f(θ) komponentit voidaan kirjoittaa m ( f(θ)) j = 2f i (θ)( f i (θ)) j, i=1 i=1 27

29 mikä voidaan kirjoittaa matriisimerkinnöin muodossa missä J(θ) on Jacobin matriisi f 1 (θ) θ 1 J(θ) =.... f m(θ) θ 1 ja matriisi F(θ) on muotoa f(θ) = 2J(θ) T F(θ), (24) f 1 (θ) θ n. f m(θ) θ n f 1 (θ) F(θ) =.. f m (θ), Vastaavasti voidaan funktion f(θ) Hessen matriisi kirjoittaa kaavaa (22) käyttäen H(f(θ)) = = m H(f i (θ) 2 ) i=1 m H i (θ), missä matriisi H i (θ) on funktion f i (θ) 2 Hessen matriisi. Hessen matriisin H i (θ) j:nnen rivin ja k:nnen sarakkeen alkio on Näin ollen Hj,k(θ) i = 2 (f i (θ) 2 ) θ j θ k = θ j ( fi (θ) = 2 θ j i=1 ( 2f i (θ) f i(θ) θ k f i (θ) θ k ) ) + f i (θ) 2 f i (θ). θ j θ k H(f(θ)) = 2J(θ) T J(θ) + Q(θ), (25) missä m Q(θ) = 2 f i (θ)h(f i (θ)). i=1 28

30 Niin sanotussa Gauss-Newton menetelmässä Hessin matriisia arvioidaan jättämällä termi Q(θ) pois yhtälöstä (25), jolloin saadaan H(f(θ)) 2J(θ) T J(θ). (26) Tämä arvio voidaan tehdä, koska kertoimien f i (θ) voidaan olettaa olevan pieniä, kun lähestytään optimaalisia parametrien θ arvoja. Sijoittamalla gradientti (24) ja Hessin matriisi (26) Newtonin menetelmään (23) saadaan iteraatioyhtälö missä k on iteraatioindeksi. J(θ k ) T J(θ k ) θ = J(θ k ) T F(θ k ), (27) Levenberg-Marquardt -menetelmä (LM) saadaan, kun muokataan yhtälö (27) muotoon (J(θ k ) T J(θ k ) + λi) θ = J(θ k ) T F(θ k ), (28) missä I on yksikkämatriisi ja parametri λ R + on positiivinen reaaliluku, joka päivitetään joka kierroksella iteraatiojonon (θ) k suppenemisen varmistamiseksi. Parametrien θ päivittäminen tapahtuu ratkaisemalla muutos θ kaavasta (28) sopivalla numeerisella menetelmällä ja laskemalla uuden kierroksen parametrit kaavalla θ k+1 = θ k + θ. Termin λi lisääminen pyrkii takaamaan, että matriisi J(θ k ) T J(θ k ) + λi olisi säännöllinen. Menetelmän toimivuus riippuu näin ollen keskeisesti parametrin λ valinnasta. Eräs idea on päivittää kyseistä parametria joka kierroksella riippuen residuaalin euklidisen normin G(θ) i d i σ i, i = 1... m suuruudesta. Mikäli kyseinen normi pienenee, pienennetään parametrin arvoa ja päinvastoin. Tarkastellaan seuraavaksi estimointiongelmasta saatuja tuloksia. 4.3 Tulokset Lasketaan spektritiheysfunktion parametrien arvot yhdellä korkeudella laajennetulla, hajustamattomalla- ja bootstrap-suotimella. Verrataan näiden 29

31 menetelmien tarkkuutta LM -menetelmästä saatuihin tuloksiin. Estimointia varten muokatut algoritmit on toteutettu R-ohjelmointikielellä. Koodit ovat liitteinä. Tarkastellaan edellä määriteltyä spektritiheysfunktion simulaatiota L, joka on määritelty kaavalla (21). Olkoon parametrien oikeat arvot θ = (f 1, ω 1, f 2, ω 2 ) = (1, 2, 1, 2). Olkoon alkuarvaus parametreille θ 0 = (0.5, 1.5, 0.5, 1.5). Asetetaan evoluutiomallin ja priorijakauman kovarianssimatriisin alkuarvoksi Q 0 = P 0 = 0.01 I ja havaintomallin varianssin alkuarvoksi R 0 = Asetetaan hajustamattomaan muunnokseen tarvittavat parametrit α = 0.001, β = 1 ja κ = 0.1. Olkoon bootstrap-suotimen hiukkasten lukumäärä N = Olkoon LM-menetelmässä λ 0 = 1. Käytetään viimeiseltä kierrokselta saatua arvoa estimaattina kyseiselle korkeudelle. Ensimmäisen asteen laajennetulla Kalman-suotimella saadut estimaatit olivat pyöristettynä θ 201 = (0.8905, , , ). Parametrien absoluuttiset virheet olivat θ θ 201 = ( f 1 f 1, ω 1 ω 1, f 2 f 2, ω 1 ω 1 ) = (0.1095, , , ). Aikaa menetelmän algoritmin suorittamiseen kului 0.01 sekuntia. Vastaavasti toisen asteen laajennetulla Kalman-suotimella saadut estimaatit olivat θ 201 = (0.8917, , , 1.830). Menetelmästä saadut virheet olivat (0.1083, , , ). Algoritmin suorittaminen kesti 0.03 sekuntia. Hajustamattomalla Kalman-suotimella saadut estimaatit olivat θ 201 = (0.8917, , , ). Tästä menetelmästä saadut virheet olivat (0.1083, , , ). Aikaa algoritmin suorittamiseen kului 1.40 sekuntia. Bootstrap-suotimella ratkaisuna saatiin estimaattien arvot θ 200 = (1.1474, , , ). Estimaattien virheet tällä menetelmällä olivat (0.1474, , , ). Aikaa suorittamiseen kului sekuntia. 30

32 LM-menetelmää käyttäen oikeat parametrien arvot saavutettiin viidennellä kierroksella. Aikaa algoritmin suorittamiseen kului 0.11 sekuntia. Estimoinnin kulku eri menetelmillä voidaan nähdä seuraavista kuvista. f1 f Aika Aika w1 w Aika Aika Kuva 3: Parametrien estimaatit ensimmäisen asteen laajennetulla Kalmansuotimella. Oikea parametrin arvo punaisella ja estimaatti sinisellä viivalla. 31

33 f1 f Aika Aika w1 w Aika Aika Kuva 4: Estimaatit toisen asteen laajennetulla Kalman-suotimella. Oikea parametrin arvo punaisella ja estimaatti sinisellä viivalla. 32

34 f1 f Aika Aika w1 w Aika Aika Kuva 5: Parametrien estimaatit hajustamattomalla Kalman-suotimella. Oikea parametrin arvo punaisella ja estimaatti sinisellä viivalla. 33

35 f1 f Aika Aika w1 w Aika Aika Kuva 6: Parametrien estimaatit bootstrap-suotimella. Oikea parametrin arvo punaisella ja estimaatti sinisellä viivalla. 34

36 f1 f Iteraatiokierros Iteraatiokierros w1 w Iteraatiokierros Iteraatiokierros Kuva 7: Parametrien estimaatit Levenberg-Marquardt -menetelmällä. Oikea parametrin arvo punaisella ja estimaatti sinisellä viivalla. Edellä olevassa esimerkissä parametrien arvojen alkuarvaus oli melko huono. Hyvällä alkuarvauksella saadaan kaikilla suotimilla suhteellisen tarkat estimaatit. Esimerkiksi hajustamatonta- ja bootstrap-suodinta verrattaessa estimaatit edelliselle ongelmalle alkuarvauksella θ = (0.9, 1.9, 0.9, 1.9) olivat (0.9880, , , ) ja (1.005, , , ). Vastaavat virheet näille suotimille olivat nyt (0.0120, , , ) ja (0.0050, , , ). LM-menetelmällä oikeat parametrien arvot 35

37 saavutettiin neljännellä kierroksella. Tarkastellaan seuraavaksi parametrien estimointia usealla korkeudella. Käytetään satunnaishyppyä θ h θ h θ h 1 N (0, I) priorina korkeuden h parametreille, missä normi on määritelty, kuten aikaisemmin parametrien etäisyyksien tarkastelussa. Alustetaan kohinoiden kovarianssimatriisit alkuperäisiksi korkeuden vaihtuessa. Lasketaan estimaatit kuudella korkeudella priorin kanssa. Käytetään laskentaan toisen asteen laajennettua Kalman-suodinta, bootstrap-suodinta ja LM-menetelmää. Parhaiten estimoinnissa onnistuttiin LM-menetelmällä. Huonoimmat estimaatit saatiin bootstrap-menetelmällä. Estimoinnin kuvat löytyvät seuraavalta sivulta. Yhteenvetona saatujen tulosten perusteella LM-menetelmä vaikuttaa olevan tarkempi tarkasteltuihin Kalman-suotimiin verrattuna. Se vaikuttaa olevan myös algoritmiltaan kevyempi kuin hajustamaton- ja bootstrap-suodin. Haittapuolena LM-menetelmässä on Jacobin matriisin laskenta, mikä voi olla työlästä, mikäli spektritiheysfunktion malli on monimutkainen. Tällöin hajustamaton Kalman-suodin tai hiukkassuodin saattaa olla parempi ratkaisu, jos tarkkuudesta voidaan tinkiä. 36

38 f1 f Aika Aika w1 w Aika Aika Kuva 8: Estimaatit toisen asteen laajennetulla Kalman-suotimella kuudelta korkeudelta. Oikeat parametrien arvot punaisella ja estimaatit sinisellä viivalla. 37

39 f1 f Aika Aika w1 w Aika Aika Kuva 9: Parametrien estimaatit bootstrap-suotimella kuudelta korkeudelta. Oikeat parametrien arvot punaisella ja estimaatit sinisellä viivalla. 38

40 f1 f Iteraatiokierros Iteraatiokierros w1 w Iteraatiokierros Iteraatiokierros Kuva 10: Parametrien estimaatit LM-menetelmällä kuudelta korkeudelta. Oikeat parametrien arvot punaisella ja estimaatit sinisellä viivalla. 39

41 Lähdeluettelo [1] Richard C Aster, Brian Borchers, and Cliord H Thurber. Parameter estimation and inverse problems. Academic Press, [2] David R Brillinger. Time series: data analysis and theory, volume 36. Siam, [3] Baylie Damtie. New Incoherent Scatter Radar Measurement Techniques and Data Analysis Methods. Citeseer, [4] W. E. Gordon. Incoherent scattering of radio waves by free electrons with applications to space exploration by radar. Proceedings of the IRE, 46(11): , Nov [5] Emanuel Parzen. Stochastic processes, volume 24. Siam, [6] Simo Särkkä. Bayesian ltering and smoothing, volume 3. Cambridge University Press,

42 Liitteet A EKF 1 ############################################################### 2 3 # Function : EKF ( F i r s t order Extended Kalman f i l t e r ) 4 5 # Input : 6 7 # L : Measurement v e c t o r 8 # m: Number o f Lorentzian s p e c t r a 9 # f : Frequency i n t e r v a l 10 # h d i s t d i f f : D i f f e r e n c e between h e i g h t s 11 # theta0 : I n i t i a l value f o r parameters o f form ( f1, f2, w1, w2) 12 # P0 : C o e f f i c i e n t o f covariance matrix Pk 13 # Q0 : I n i t i a l e r r o r 14 # R0 : I n i t i a l measurement model e r r o r variance # Output : # thetak : Parameter estimate v e c t o r ############################################################### EKF < f u n c t i o n (L,m, f, h d i s t d i f f, theta0, P0, Q0, R0){ # I n i t i a l i z i n g # Define the Jacobian Hf : Hf < f u n c t i o n ( f l, theta0 ){ J < mat. or. vec ( 1, 4 ) 32 41

43 33 W1 < ( ( theta0 [1] f l ) / ( theta0 [ 3 ] / 2))^2 34 W2 < ( ( theta0 [2] f l ) / ( theta0 [ 4 ] / 2))^ J [ 1 ] < W1/ ( ( theta0 [1] f l ) (1+W1)^2) 37 J [ 2 ] < W2/ ( ( theta0 [2] f l ) (1+W2)^2) J [ 3 ] < W1/ ( theta0 [ 3 ] (1+W1)^2) 40 J [ 4 ] < W2/ ( theta0 [ 4 ] (1+W2)^2) J < 2 J return ( J ) } # Define the Lorentzian spectrum : spec < f u n c t i o n ( f l, theta0 ){ x1 < ( theta0 [1] f l ) / ( theta0 [ 3 ] / 2) 53 x2 < ( theta0 [2] f l ) / ( theta0 [ 4 ] / 2) return ( ( 1 /(1+(x1 ^2))) + (1 /(1+(x2 ^ 2 ) ) ) ) } i < Qk < Q0 diag ( 4 ) Pk < P0 diag ( 4 ) thetak < mat. or. vec (4, length (L) ) Kk < mat. or. vec ( 4, 1 )

44 71 f l < rep ( f, length. out = length (L) ) a l t i t < seq ( length (L) /m, length (L), by = length (L) /m) # Main loop f o r ( l in 1 : length (L) ) { # P r e d i c t i o n : i f ( ( l %in% a l t i t ) && ( l!= a l t i t [ length ( a l t i t ) ] ) ) { i < i theta0 < theta0 + 1/10 abs ( h d i s t d i f f [ i ] ) 88 rnorm ( 4, 0, 1 ) Qk < Q0 diag ( 4 ) #i n i t i a l i z i n g Pk < P0 diag ( 4 ) Kk < mat. or. vec ( 4, 1 ) } # Update : Hftemp < Hf ( f l [ l ], theta0 ) vk < L [ l ] spec ( f l [ l ], theta0 ) Sk < Hftemp % % Pk % % t ( Hftemp ) + R0 108 Kk < (Pk % % t ( Hftemp ) )% % (1 /Sk ) 43

45 109 theta0 < theta0 + (Kk vk ) 110 Pk < Pk (Kk % % Sk % % t (Kk) ) thetak [, l ] < theta } return ( thetak ) } B EKF2 1 ############################################################### 2 3 # Function : EKF2 ( Second order Extended Kalman f i l t e r ) 4 5 # Input : 6 7 # L : Measurement v e c t o r 8 # m: Number o f Lorentzian s p e c t r a 9 # f : Frequency i n t e r v a l 10 # h d i s t d i f f : D i f f e r e n c e between h e i g h t s 11 # theta0 : I n i t i a l value f o r parameters o f form ( f1, f2, w1, w2) 12 # P0 : C o e f f i c i e n t o f covariance matrix Pk 13 # Q0 : I n i t i a l e r r o r c o e f f i c i e n t 14 # R0 : I n i t i a l measurement model e r r o r variance # Output : # thetak : Parameter estimate v e c t o r ###############################################################

46 23 EKF2 < f u n c t i o n (L,m, f, h d i s t d i f f, theta0, P0, Q0, R0){ # I n i t i a l i z i n g # Define the Jacobian Hf : Hf < f u n c t i o n ( f l, theta0 ){ J < mat. or. vec ( 1, 4 ) W1 < ( ( theta0 [1] f l ) / ( theta0 [ 3 ] / 2))^2 34 W2 < ( ( theta0 [2] f l ) / ( theta0 [ 4 ] / 2))^ J [ 1 ] < W1/ ( ( theta0 [1] f l ) (1+W1)^2) 37 J [ 2 ] < W2/ ( ( theta0 [2] f l ) (1+W2)^2) J [ 3 ] < W1/ ( theta0 [ 3 ] (1+W1)^2) 40 J [ 4 ] < W2/ ( theta0 [ 4 ] (1+W2)^2) J < 2 J return ( J ) } # Define the Hessian matrix Hff : Hff < f u n c t i o n ( f l, theta0 ){ J < mat. or. vec ( 4, 4 ) F1 < theta0 [1] f l 56 F2 < theta0 [2] f l W1 < 4 ( ( F1/ theta0 [ 3 ] ) ^ 2 ) 59 W2 < 4 ( ( F2/ theta0 [ 4 ] ) ^ 2 ) 60 45

47 61 ww1 < theta0 [ 3 ] (1+W1) 62 ww2 < theta0 [ 4 ] (1+W2) J [ 1, 1 ] < ( ( 8 W1 8)/ ( (ww1^2) (1+W1) ) ) + 65 (W1/ ( ( F1 (1+W1) ) ^ 2 ) ) 66 J [ 2, 2 ] < ( ( 8 W2 8)/ ( (ww2^2) (1+W2) ) ) + 67 (W2/ ( ( F2 (1+W2) ) ^ 2 ) ) J [ 3, 3 ] < ( ( 8 (F1^2) (W1^2 1 ) ) / (ww1^4)) 70 ( (W1/ (ww1^2))) 71 J [ 4, 4 ] < ( ( 8 (F2^2) (W2^2 1 ) ) / (ww2^4)) 72 ( (W2/ (ww2^2))) J [ 1, 3 ] < (F1 (8 W1 8 ) ) / ( ww1^3 ) 75 J [ 3, 1 ] < J [ 1, 3 ] J [ 2, 4 ] < (F2 (8 W2 8 ) ) / ( ww2^3 ) 78 J [ 4, 2 ] < J [ 2, 4 ] J < 2 J return ( J ) } # Define the Lorentzian spectrum : spec < f u n c t i o n ( f l, theta0 ){ x1 < ( theta0 [1] f l ) / ( theta0 [ 3 ] / 2) 92 x2 < ( theta0 [2] f l ) / ( theta0 [ 4 ] / 2) return ( ( 1 /(1+(x1 ^2))) + (1 /(1+(x2 ^ 2 ) ) ) ) } i < 1 46

48 Qk < Q0 diag ( 4 ) Pk < P0 diag ( 4 ) thetak < mat. or. vec (4, length (L) ) Kk < mat. or. vec ( 4, 1 ) f l < rep ( f, length. out = length (L) ) a l t i t < seq ( length (L) /m, length (L), by = length (L) /m) # Main loop f o r ( l in 1 : length (L) ) { # P r e d i c t i o n : i f ( ( l %in% a l t i t ) && ( l!= a l t i t [ length ( a l t i t ) ] ) ) { i < i theta0 < theta0 + 1/10 abs ( h d i s t d i f f [ i ] ) 127 rnorm ( 4, 0, 1 ) Qk < Q0 diag ( 4 ) #i n i t i a l i z i n g Pk < P0 diag ( 4 ) Kk < mat. or. vec ( 4, 1 ) }

49 137 # Update : Hftemp < Hf ( f l [ l ], theta0 ) Hfftemp < Hff ( f l [ l ], theta0 ) vk < L [ l ] spec ( f l [ l ], theta0 ) (sum( diag ( Hfftemp % % Pk ) ) ) Sk < ( Hftemp % % Pk % % t ( Hftemp ) ) sum( diag ( Hfftemp% %Pk% %Hfftemp % %Pk))+ R0 150 Kk < (Pk % % t ( Hftemp ) )% % (1 /Sk ) 151 theta0 < theta0 + (Kk vk ) 152 Pk < Pk (Kk % % Sk % % t (Kk) ) thetak [, l ] < theta } return ( thetak ) } C UKF 1 ############################################################### 2 3 # Function : UKF ( Unscented Kalman f i l t e r ) 4 5 # Input : 6 7 # L : Measurement v e c t o r 8 # m: Number o f Lorentzian s p e c t r a 9 # f : Frequency i n t e r v a l 10 # h d i s t d i f f : D i f f e r e n c e between h e i g h t s 48

50 11 # theta0 : I n i t i a l value f o r parameters o f form ( f1, f2, w1, w2) 12 # P0 : C o e f f i c i e n t o f covariance matrix Pk 13 # Q0 : I n i t i a l e r r o r c o e f f i c i e n t 14 # R0 : I n i t i a l measurement model e r r o r variance 15 # Parameters f o r the unscented transform : alpha, kappa, beta # Output : # thetak : Parameter estimate v e c t o r ############################################################### UKF < f u n c t i o n (L,m, f, h d i s t d i f f, theta0, P0, Q0, R0, 25 alpha, kappa, beta ){ # I n i t i a l i z i n g j < f l < rep ( f, length. out = length (L) ) thetak < mat. or. vec (4, length (L) ) Pk < P0 diag ( 4 ) 36 Qk < Q0 diag ( 4 ) n < dim ( theta0 ) [ 1 ] 40 CHI < mat. or. vec (n, (2 n) +1) 41 Y < mat. or. vec (1, (2 n) +1) a l t i t < seq ( length (L) /m, length (L), by = length (L) /m) # C o e f f i c i e n t s lambda < ( alpha ^2) (n+kappa ) n # S c a l i n g parameter 48 49

51 49 Wm < mat. or. vec (1, (2 n) +1) Wm[ 1, ] < 1/ (2 (n + lambda ) ) 52 Wc < Wm Wm[, 1 ] < lambda/ (n + lambda ) 55 Wc[, 1 ] < Wm[, 1 ] + (1 ( alpha ^2) + beta ) s q c o e f < s q r t (n+lambda ) # Define the Lorentzian spectrum spec < f u n c t i o n ( f l, f1, f2, w1, w2){ x1 < ( f1 f l ) / (w1/ 2) 65 x2 < ( f2 f l ) / (w2/ 2) return (1 /(1+x1 ^2) + 1/(1+x2 ^2)) } cat ( c ( "\n", "Number o f a l t i t u d e s computed : ", "\n", "\n" ) ) # Main loop f o r ( l in 1 : length (L) ) { # P r e d i c t i o n : CHI [, 1 ] < theta i f ( ( l %in% a l t i t ) && ( l!= a l t i t [ length ( a l t i t ) ] ) ) { j < j

52 87 CHI [, 1 ] < theta0 + 1/10 abs ( h d i s t d i f f [ j ] ) 88 rnorm ( 4, 0, 1 ) Qk < Q0 diag ( 4 ) #i n i t i a l i z i n g Pk < P0 diag ( 4 ) Kk < mat. or. vec ( 4, 1 ) } sqp < try ( matrix ( as. numeric ( sqrtm (Pk ) ), 4, 4 ), s i l e n t = TRUE) f o r ( i in 2 : ( n+1)){ CHI [, i ] < CHI [, 1 ] + ( s q c o e f sqp [, i 1]) 105 CHI [, i+n ] < CHI [, 1 ] ( s q c o e f sqp [, i 1]) } theta0 < matrix ( c ( 0, 0, 0, 0 ), 4, 1 ) f o r ( i in 1 : ( 2 n + 1)){ theta0 < theta0 + (Wm[, i ] CHI [, i ] ) } # Pkline : Pk < mat. or. vec ( 4, 4 )

53 125 f o r ( i in 1 : ( 2 n + 1)){ Pk < Pk + (Wc[, i ] (CHI [, i ] theta0 ) % % 128 t (CHI [, i ] theta0 ) ) } # Update : # Predicted matrices : # mkline : CHI [, 1 ] < theta s q P l i n e < try ( matrix ( as. numeric ( sqrtm (Pk ) ), 4, 4 ), 143 s i l e n t = TRUE) f o r ( i in 2 : ( n+1)){ CHI [, i ] < CHI [, 1 ] + ( s q c o e f s q P l i n e [, i 1]) 149 CHI [, i+n ] < CHI [, 1 ] ( s q c o e f s q P l i n e [, i 1]) } # Propagate the sigma p o i n t s : f o r ( i in 1 : ( 2 n + 1)){ Y[, i ] < spec ( f l [ l ], CHI [ 1, i ], CHI [ 2, i ], CHI [ 3, i ], CHI [ 4, i ] ) }

54 # The needed submatrices : # muk : muk < f o r ( i in 1 : ( 2 n + 1)){ muk < muk + (Wm[, i ] Y[, i ] ) } # Sk : Sk < f o r ( i in 1 : ( 2 n + 1)){ Sk < Sk + (Wc[, i ] (Y[, i ] muk)^2 ) } Sk < Sk + R # Ck : Ck < mat. or. vec ( 4, 1 ) f o r ( i in 1 : ( 2 n + 1)){ Ck < Ck + (Wc[, i ] (CHI [, i ] theta0 ) (Y[, i ] muk) ) } # C a l c u l a t i o n o f needed matrices :

9. Tila-avaruusmallit

9. Tila-avaruusmallit 9. Tila-avaruusmallit Aikasarjan stokastinen malli ja aikasarjasta tehdyt havainnot voidaan esittää joustavassa ja monipuolisessa muodossa ns. tila-avaruusmallina. Useat aikasarjat edustavat dynaamisia

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista

Lisätiedot

Cubature Integration Methods in Non-Linear Kalman Filtering and Smoothing (valmiin työn esittely)

Cubature Integration Methods in Non-Linear Kalman Filtering and Smoothing (valmiin työn esittely) Cubature Integration Methods in Non-Linear Kalman Filtering and Smoothing (valmiin työn esittely) Ohjaaja: Valvoja: TkT Simo Särkkä Prof. Harri Ehtamo 13.9.2010 Aalto-yliopiston teknillinen korkeakoulu

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma

Lisätiedot

Dynaamiset regressiomallit

Dynaamiset regressiomallit MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt

Lisätiedot

Moniulotteisia todennäköisyysjakaumia

Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1, Todennäköisyyslaskenta, 2. kurssikoe 7.2.22 Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu.. Satunnaismuuttujien X ja Y yhteistiheysfunktio on

Lisätiedot

4.0.2 Kuinka hyvä ennuste on?

4.0.2 Kuinka hyvä ennuste on? Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 7

Inversio-ongelmien laskennallinen peruskurssi Luento 7 Inversio-ongelmien laskennallinen peruskurssi Luento 7 Kevät 2012 1 Tilastolliset inversio-ongelmat Tilastollinen ionversio perustuu seuraaviin periaatteisiin: 1. Kaikki mallissa olevat muuttujat mallinnetaan

Lisätiedot

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio. Määritelmä 4.3. Estimaattoria X(Y ) nimitetään lineaariseksi projektioksi, jos X on lineaarinen kuvaus ja E[(X X(Y )) Y] 0 }{{} virhetermi Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi

Lisätiedot

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista 6 Epäyhtälöitä Epäyhtälöt ovat yksi matemaatikon voimakkaimmista työvälineistä. Yhtälö a = b kertoo sen, että kaksi ehkä näennäisesti erilaista asiaa ovat samoja. Epäyhtälö a b saattaa antaa keinon analysoida

Lisätiedot

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 017 Harjoitus 5 Ratkaisuehdotuksia Tehtäväsarja I 1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X

Lisätiedot

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme? TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä

Lisätiedot

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka

Lisätiedot

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx. Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin

Lisätiedot

Todennäköisyyden ominaisuuksia

Todennäköisyyden ominaisuuksia Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset

Lisätiedot

2. Teoriaharjoitukset

2. Teoriaharjoitukset 2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Inversio-ongelmien laskennallinen peruskurssi Luento 2 Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +

Lisätiedot

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen Yhden faktorin malli: n kpl sijoituskohteita, joiden tuotot ovat r i, i =, 2,..., n. Olkoon f satunnaismuuttuja ja oletetaan, että tuotot voidaan selittää yhtälön r i = a i + b i f + e i avulla, missä

Lisätiedot

Harha mallin arvioinnissa

Harha mallin arvioinnissa Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2006) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

Ennustaminen ARMA malleilla ja Kalmanin suodin

Ennustaminen ARMA malleilla ja Kalmanin suodin Ennustaminen ARMA malleilla ja Kalmanin suodin MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2017

Lisätiedot

Tilastollinen aineisto Luottamusväli

Tilastollinen aineisto Luottamusväli Tilastollinen aineisto Luottamusväli Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Tilastollinen aineisto p.1/20 Johdanto Kokeellisessa tutkimuksessa tutkittavien suureiden

Lisätiedot

Osa 2: Otokset, otosjakaumat ja estimointi

Osa 2: Otokset, otosjakaumat ja estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2 HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 208 Harjoitus 4 Ratkaisuehdotuksia Tehtäväsarja I. Satunnaismuuttuja U Exp(2) ja V = U/(3 + U). Laske f V käyttämällä muuttujanvaihtotekniikkaa.

Lisätiedot

3.6 Su-estimaattorien asymptotiikka

3.6 Su-estimaattorien asymptotiikka 3.6 Su-estimaattorien asymptotiikka su-estimaattorit ovat usein olleet puutteellisia : ne ovat usein harhaisia ja eikä ne välttämättä ole täystehokkaita asymptoottisilta ominaisuuksiltaan ne ovat yleensä

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 4. Kirsi Valjus. Jyväskylän yliopisto. Luento 4 () Numeeriset menetelmät / 44

Numeeriset menetelmät TIEA381. Luento 4. Kirsi Valjus. Jyväskylän yliopisto. Luento 4 () Numeeriset menetelmät / 44 Numeeriset menetelmät TIEA381 Luento 4 Kirsi Valjus Jyväskylän yliopisto Luento 4 () Numeeriset menetelmät 21.3.2013 1 / 44 Luennon 4 sisältö Lineaarisen yhtälöryhmän ratkaisemisesta: Choleskyn menetelmä

Lisätiedot

Maximum likelihood-estimointi Alkeet

Maximum likelihood-estimointi Alkeet Maximum likelihood-estimointi Alkeet Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Maximum likelihood-estimointi p.1/20 Maximum Likelihood-estimointi satunnaismuuttujan X

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35 Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen

Lisätiedot

Mallipohjainen klusterointi

Mallipohjainen klusterointi Mallipohjainen klusterointi Marko Salmenkivi Johdatus koneoppimiseen, syksy 2008 Luentorunko perjantaille 5.12.2008 Johdattelua mallipohjaiseen klusterointiin, erityisesti gaussisiin sekoitemalleihin Uskottavuusfunktio

Lisätiedot

2. Uskottavuus ja informaatio

2. Uskottavuus ja informaatio 2. Uskottavuus ja informaatio Aluksi käsittelemme uskottavuus- ja log-uskottavuusfunktioita Seuraavaksi esittelemme suurimman uskottavuuden estimointimenetelmän Ensi viikolla perehdymme aiheeseen lisääkö

Lisätiedot

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta

Lisätiedot

Kuva 3.1: Näyte Gaussisesta valkoisest kohinasta ε t N(0, 1) Aika t

Kuva 3.1: Näyte Gaussisesta valkoisest kohinasta ε t N(0, 1) Aika t Kuva 3.1: Näyte Gaussisesta valkoisest kohinasta ε t N(0, 1) Valkoinen kohina ε t 2 1 0 1 2 Voimme tehdä saman laskun myös yleiselle välille [ a, a], missä 0 < a

Lisätiedot

6. Tietokoneharjoitukset

6. Tietokoneharjoitukset 6. Tietokoneharjoitukset 6.1 Tiedostossa Const.txt on eräällä Yhdysvaltalaisella asuinalueella aloitettujen rakennusurakoiden määrä kuukausittain, aikavälillä 1966-1974. Urakoiden määrä on skaalattu asuinalueen

Lisätiedot

Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden

Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden 1.12.2006 1. Satunnaisjakauman tiheysfunktio on Ü µ Üe Ü, kun Ü ja kun Ü. Määritä parametrin estimaattori momenttimenetelmällä ja suurimman uskottavuuden menetelmällä. Ratkaisu: Jotta kyseessä todella

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille

Lisätiedot

0 3 y4 dy = 3 y. 15x 2 ydx = 15. f Y (y) = 5y 4 1{0 y 1}.

0 3 y4 dy = 3 y. 15x 2 ydx = 15. f Y (y) = 5y 4 1{0 y 1}. HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 18 Harjoitus Ratkaisuehdotuksia Tehtäväsar I 1. Satunnaismuuttujilla X Y on tkuva yhteiskauma yhteistiheysfunktiolla f

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

4.2.2 Uskottavuusfunktio f Y (y 0 X = x)

4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Kuva 4.6: Elektroniikassa esiintyvän lämpökohinan periaate. Lämpökohinaa ε mallinnetaan additiivisella häiriöllä y = Mx + ε. 4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Tarkastellaan tilastollista inversio-ongelmaa,

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo

Lisätiedot

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Vesanen MS-A0205/6 Differentiaali- ja integraalilaskenta 2, kevät 2017 Laskuharjoitus 4A (Vastaukset) alkuviikolla

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. marraskuuta 2007 Antti Rasila () TodB 30. marraskuuta 2007 1 / 19 1 Lineaarinen regressiomalli ja suurimman uskottavuuden menetelmä Minimin löytäminen

Lisätiedot

Epälineaaristen yhtälöiden ratkaisumenetelmät

Epälineaaristen yhtälöiden ratkaisumenetelmät Epälineaaristen yhtälöiden ratkaisumenetelmät Keijo Ruotsalainen Division of Mathematics Perusoletus Lause 3.1 Olkoon f : [a, b] R jatkuva funktio siten, että f(a)f(b) < 0. Tällöin funktiolla on ainakin

Lisätiedot

x 4 e 2x dx Γ(r) = x r 1 e x dx (1)

x 4 e 2x dx Γ(r) = x r 1 e x dx (1) HY / Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta IIA, syksy 217 217 Harjoitus 6 Ratkaisuehdotuksia Tehtäväsarja I 1. Laske numeeriset arvot seuraaville integraaleille: x 4 e 2x dx ja 1

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33 Numeeriset menetelmät TIEA381 Luento 12 Kirsi Valjus Jyväskylän yliopisto Luento 12 () Numeeriset menetelmät 25.4.2013 1 / 33 Luennon 2 sisältö Tavallisten differentiaaliyhtälöiden numeriikasta Rungen

Lisätiedot

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä 1 3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a

Lisätiedot

Lineaariset kongruenssiyhtälöryhmät

Lineaariset kongruenssiyhtälöryhmät Lineaariset kongruenssiyhtälöryhmät LuK-tutkielma Jesse Salo 2309369 Matemaattisten tieteiden laitos Oulun yliopisto Sisältö Johdanto 2 1 Kongruensseista 3 1.1 Kongruenssin ominaisuuksia...................

Lisätiedot

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 Tehtävä 8 on tällä kertaa pakollinen. Aloittakaapa siitä. 1. Kun tässä tehtävässä sanotaan sopii mahdollisimman hyvin, sillä tarkoitetaan

Lisätiedot

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia. HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I. Mitkä seuraavista funktioista F, F, F ja F 4 ovat kertymäfunktioita? Mitkä

Lisätiedot

Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi

Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 5.-7.11.2008. 1 Tällä viikolla Sisältösuunnitelma: Ennustamisstrategioista Koneoppimismenetelmiä: k-nn (luokittelu

Lisätiedot

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä 3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a 21

Lisätiedot

6.2.3 Spektrikertymäfunktio

6.2.3 Spektrikertymäfunktio ja prosessin (I + θl + + θl q )ε t spektritiheysfunktio on Lemman 6. ja Esimerkin 6.4 nojalla σ π 1 + θ 1e iω + + θ q e iqω. Koska viivepolynomien avulla määritellyt prosessit yhtyvät, niin myös niiden

Lisätiedot

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1 TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että

Lisätiedot

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (5) 1 Momenttiemäfunktio ja karakteristinen funktio Momenttiemäfunktio Diskreettien jakaumien momenttiemäfunktioita

Lisätiedot

Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia TKK (c) Ilkka Mellin (2005) 1 Normaalijakaumasta johdettuja jakaumia Johdanto χ 2 -jakauma F-jakauma t-jakauma TKK (c) Ilkka Mellin

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 4

Inversio-ongelmien laskennallinen peruskurssi Luento 4 Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa

Lisätiedot

Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3

Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3 Aiheet: Satunnaisvektorit ja moniulotteiset jakaumat Tilastollinen riippuvuus ja lineaarinen korrelaatio Satunnaisvektorit ja moniulotteiset

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2

Lisätiedot

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8. HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 13 Ti 18.10.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 13 Ti 18.10.2011 p. 1/43 p. 1/43 Nopeat Fourier-muunnokset Fourier-sarja: Jaksollisen funktion esitys

Lisätiedot

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on HY, MTO / Matemaattisten tieteiden kandiohjelma Tilastollinen päättely II, kevät 018 Harjoitus B Ratkaisuehdotuksia Tehtäväsarja I 1 (Monisteen tehtävä 14) Olkoon f Y (y; θ) tilastollinen malli, jonka

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

Dynaamiset regressiomallit

Dynaamiset regressiomallit MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Tilastolliset aikasarjat voidaan jakaa kahteen

Lisätiedot

Regressioanalyysi. Kuusinen/Heliövaara 1

Regressioanalyysi. Kuusinen/Heliövaara 1 Regressioanalyysi Kuusinen/Heliövaara 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Oletetaan, että haluamme selittää jonkin selitettävän muuttujan havaittujen arvojen vaihtelun joidenkin

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3

Lisätiedot

Estimointi. Vilkkumaa / Kuusinen 1

Estimointi. Vilkkumaa / Kuusinen 1 Estimointi Vilkkumaa / Kuusinen 1 Motivointi Tilastollisessa tutkimuksessa oletetaan jonkin jakauman generoineen tutkimuksen kohteena olevaa ilmiötä koskevat havainnot Tämän mallina käytettävän todennäköisyysjakauman

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio Ilkka Mellin Todennäköisyyslaskenta Osa : Satunnaismuuttujat ja todennäköisyysjakaumat Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (7) 1 Momenttiemäfunktio ja karakteristinen funktio

Lisätiedot

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Frekventistiset vs. bayeslaiset menetelmät Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Paikannuksen matematiikka MAT

Paikannuksen matematiikka MAT TA M P E R E U N I V E R S I T Y O F T E C H N O L O G Y M a t h e m a t i c s Paikannuksen matematiikka MAT-45800 4..008. p.1/4 Käytännön järjestelyt Kotisivu: http://math.tut.fi/courses/mat-45800/ Luennot:

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Kevät 2011 1 Iteratiivisista menetelmistä Tähän mennessä on tarkasteltu niin sanottuja suoria menetelmiä, joissa (likimääräinen) ratkaisu saadaan

Lisätiedot

Luku 10. Bayesläiset estimaattorit Bayesläiset piste-estimaatit. Lasse Leskelä Aalto-yliopisto 18. lokakuuta 2017

Luku 10. Bayesläiset estimaattorit Bayesläiset piste-estimaatit. Lasse Leskelä Aalto-yliopisto 18. lokakuuta 2017 Luku 1 Bayesläiset estimaattorit Lasse Leskelä Aalto-yliopisto 18. lokakuuta 217 1.1 Bayesläiset piste-estimaatit Tarkastellaan datalähdettä, joka tuottaa tiheysfunktion f(x θ) mukaan jakautuneita riippumattomia

Lisätiedot

8.1 Ehdolliset jakaumat

8.1 Ehdolliset jakaumat 8 Ehdollinen jakauma Tämän kappaleen tärkeitä käsitteitä: Ehdollinen jakauma; ehdollinen ptnf/tf. Kertolaskusääntö eli ketjusääntö yhteisjakauman esittämiseksi. Ehdollinen odotusarvo ja ehdollinen varianssi.

Lisätiedot

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

Tilastotieteen kertaus. Kuusinen/Heliövaara 1 Tilastotieteen kertaus Kuusinen/Heliövaara 1 Mitä tilastotiede on? Tilastotiede kehittää ja soveltaa menetelmiä, joiden avulla reaalimaailman ilmiöistä voidaan tehdä johtopäätöksiä tilanteissa, joissa

Lisätiedot

1 Kertaus. Lineaarinen optimointitehtävä on muotoa:

1 Kertaus. Lineaarinen optimointitehtävä on muotoa: 1 Kertaus Lineaarinen optimointitehtävä on muotoa: min c 1 x 1 + c 2 x 2 + + c n x n kun a 11 x 1 + a 12 x 2 + + a 1n x n b 1 a 21 x 1 + a 22 x 2 + + a 2n x n b 2 (11) a m1 x 1 + a m2 x 2 + + a mn x n

Lisätiedot

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1 Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:

Lisätiedot

Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin

Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin TAMPEREEN YLIOPISTO Pro gradu -tutkielma Emmihenna Jääskeläinen Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin Matematiikan ja tilastotieteen laitos Matematiikka Toukokuu 2012 Tampereen

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Ojalammi MS-A0203 Differentiaali- ja integraalilaskenta 2, kevät 2016 Laskuharjoitus 4A (Vastaukset) alkuviikolla

Lisätiedot

TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio. Kimmo Berg. Mat Optimointioppi. 9. harjoitus - ratkaisut

TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio. Kimmo Berg. Mat Optimointioppi. 9. harjoitus - ratkaisut TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-2.139 Optimointioppi Kimmo Berg 9. harjoitus - ratkaisut 1. a) Viivahakutehtävä pisteessä x suuntaan d on missä min f(x + λd), λ f(x + λd) = (x

Lisätiedot

1 + b t (i, j). Olkoon b t (i, j) todennäköisyys, että B t (i, j) = 1. Siis operaation access(j) odotusarvoinen kustannus ajanhetkellä t olisi.

1 + b t (i, j). Olkoon b t (i, j) todennäköisyys, että B t (i, j) = 1. Siis operaation access(j) odotusarvoinen kustannus ajanhetkellä t olisi. Algoritmien DP ja MF vertaileminen tapahtuu suoraviivaisesti kirjoittamalla kummankin leskimääräinen kustannus eksplisiittisesti todennäköisyyksien avulla. Lause T MF ave = 1 + 2 1 i

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Sallitut apuvälineet: kirjoitusvälineet, laskin sekä käsinkirjoitettu, A4-kokoinen lunttilappu ja MAOL taulukkokirjaa

Sallitut apuvälineet: kirjoitusvälineet, laskin sekä käsinkirjoitettu, A4-kokoinen lunttilappu ja MAOL taulukkokirjaa Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta II. kurssikoe 18.1.15 Sallitut apuvälineet: kirjoitusvälineet, laskin sekä käsinkirjoitettu, A4-kokoinen lunttilappu ja MAOL taulukkokirjaa

Lisätiedot

y x1 σ t 1 = c y x 1 σ t 1 = y x 2 σ t 2 y x 2 x 1 y = σ(t 2 t 1 ) x 2 x 1 y t 2 t 1

y x1 σ t 1 = c y x 1 σ t 1 = y x 2 σ t 2 y x 2 x 1 y = σ(t 2 t 1 ) x 2 x 1 y t 2 t 1 1. Tarkastellaan funktiota missä σ C ja y (y 1,..., y n ) R n. u : R n R C, u(x, t) e i(y x σt), (a) Miksi funktiota u(x, t) voidaan kutsua tasoaalloksi, jonka aaltorintama on kohtisuorassa vektorin y

Lisätiedot

Jatkuvat satunnaismuuttujat

Jatkuvat satunnaismuuttujat Jatkuvat satunnaismuuttujat Satunnaismuuttuja on jatkuva jos se voi ainakin periaatteessa saada kaikkia mahdollisia reaalilukuarvoja ainakin tietyltä väliltä. Täytyy ymmärtää, että tällä ei ole mitään

Lisätiedot

Satunnaismuuttujat Satunnaismuuttuja kuvaa kokeen tuloksen reaaliakselille Satunnaismuuttuja on siis funktio X(s) joka saa reaalisia arvoja Koe s

Satunnaismuuttujat Satunnaismuuttuja kuvaa kokeen tuloksen reaaliakselille Satunnaismuuttuja on siis funktio X(s) joka saa reaalisia arvoja Koe s Satunnaismuuttujat Satunnaismuuttuja kuvaa kokeen tuloksen reaaliakselille Satunnaismuuttuja on siis funktio X(s) joka saa reaalisia arvoja Koe s kuuluu todennäköisyysavaruuteen S (s S) Esimerkkejä Kolikonheitossatodennäköisyysavaruus

Lisätiedot

Matemaattisten tieteiden kandiohjelma / MTL Todennäköisyyslaskenta IIb Kurssikoe (kesto 2h 30 min)

Matemaattisten tieteiden kandiohjelma / MTL Todennäköisyyslaskenta IIb Kurssikoe (kesto 2h 30 min) Matemaattisten tieteiden kandiohjelma / MTL Todennäköisyyslaskenta IIb Kurssikoe 8..7 (kesto h 3 min) Sallitut apuvälineet: kirjoitusvälineet, laskin sekä käsinkirjoitettu, A4-kokoinen lunttilappu. Ei

Lisätiedot

Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle

Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle Olkoon X sisätuloavaruus ja Y X äärellisulotteinen aliavaruus. Tällöin on olemassa lineaarisesti riippumattomat vektorit y 1, y 2,..., yn, jotka

Lisätiedot

2. Uskottavuus ja informaatio

2. Uskottavuus ja informaatio 2. Uskottavuus ja informaatio Viimeksi käsittelimme uskottavuusfunktioita, log-uskottavuusfunktioita ja su-estimaatteja Seuraavaksi tarkastelemme parametrin muunnoksia ja kuinka su-estimaatit käyttäytyvät

Lisätiedot

Koodausteoria, Kesä 2014

Koodausteoria, Kesä 2014 Koodausteoria, Kesä 2014 Topi Törmä Matemaattisten tieteiden laitos 5.2 BCH-koodin dekoodaus Tarkastellaan t virhettä korjaavaa n-pituista BCH-koodia. Olkoon α primitiivinen n:s ykkösen juuri, c = c(x)

Lisätiedot

Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle /

Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle / MS-A8 Differentiaali- ja integraalilaskenta, V/7 Differentiaali- ja integraalilaskenta Ratkaisut 5. viikolle / 9..5. Integroimismenetelmät Tehtävä : Laske osittaisintegroinnin avulla a) π x sin(x) dx,

Lisätiedot

Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.

Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0. Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +

Lisätiedot

Satunnaismuuttujien muunnokset ja niiden jakaumat

Satunnaismuuttujien muunnokset ja niiden jakaumat Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Satunnaismuuttujien muunnokset ja niiden jakaumat TKK (c) Ilkka Mellin (2007) 1 Satunnaismuuttujien muunnokset ja

Lisätiedot

pitkittäisaineistoissa

pitkittäisaineistoissa Puuttuvan tiedon ongelma p. 1/18 Puuttuvan tiedon ongelma pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto mtl.uta.fi/tilasto/sekamallit/puupitkit.pdf

Lisätiedot

Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II

Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II Dynaamisten systeemien teoriaa Systeemianalyysilaboratorio II 15.11.2017 Vakiot, sisäänmenot, ulostulot ja häiriöt Mallin vakiot Systeemiparametrit annettuja vakioita, joita ei muuteta; esim. painovoiman

Lisätiedot

Antti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16

Antti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16 MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. Antti Rasila Matematiikan ja systeemianalyysin laitos

Lisätiedot

Määritelmä Olkoon T i L (V i, W i ), 1 i m. Yksikäsitteisen lineaarikuvauksen h L (V 1 V 2 V m, W 1 W 2 W m )

Määritelmä Olkoon T i L (V i, W i ), 1 i m. Yksikäsitteisen lineaarikuvauksen h L (V 1 V 2 V m, W 1 W 2 W m ) Määritelmä 519 Olkoon T i L V i, W i, 1 i m Yksikäsitteisen lineaarikuvauksen h L V 1 V 2 V m, W 1 W 2 W m h v 1 v 2 v m T 1 v 1 T 2 v 2 T m v m 514 sanotaan olevan kuvausten T 1,, T m indusoima ja sitä

Lisätiedot

Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat. TKK (c) Ilkka Mellin (2004) 1

Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat. TKK (c) Ilkka Mellin (2004) 1 Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat TKK (c) Ilkka Mellin (2004) 1 Satunnaismuuttujien muunnokset ja niiden jakaumat Satunnaismuuttujien muunnosten jakaumat

Lisätiedot