3 Yleistä estimointiteoriaa. Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin
|
|
- Juho Nurmi
- 6 vuotta sitten
- Katselukertoja:
Transkriptio
1 3 Yleistä estimointiteoriaa Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin
2 3.1 Johdanto Tähän mennessä olemme tarkastelleet estimointia su-estimoinnin kautta. Tässä luvussa mietimme kysymyksiä: a) Millaisia muita menetelmiä on konstruoida estimaatteja? b) Mitä tarkoittaa, että estimaatti on hyvä? Millä kriteereillä estimaattien hyvyyttä mitataan? Mikä on optimaalinen estimaatti? c) Onko su-menetelmä hyvä tai jopa optimaalinen estimointimenetelmä?
3 3.2 Harhattomuus Aluksi palautamme mieleen tutun harhattomuuden käsitteen Ensi viikolla tutustumme toisiin toivottaviin estimaattorien ominaisuuksiin: tehokkuuteen ja tarkentuvuuteen Seuraavassa puhumme vain lähinnä estimaattoreista (eli emme turvaudu annettuihin aineistoihin)
4 3.2.1 Määritelmät Tarkastellaan tilastollista mallia f Y (y; θ), jonka parametriavaruus on Ω R d. Määritelmä Funktion g(θ) estimaattori T = t(y) on harhaton (engl. unbiased), jos on voimassa E θ T = g(θ) kaikilla θ Ω. Muutoin T on harhainen (engl. biased) ja sen harha (engl. bias) on on nollasta eroava jollain θ Ω. b(θ) = E θ T g(θ)
5 Tärkeä erikoistapaus Kun g(θ) = θ, niin havaitaan, että parametrin θ estimaattori T on siis harhaton jos E θ T = θ jos taas T on harhainen, niin sen harha on tällöin b(θ) = E θ T θ Huom. jos d > 1, on edellä oleva odotusarvo luonnollisesti satunnaisvektorin T odotusarvovektori.
6 3.2.2 Esimerkki: otoskeskiarvo on harhaton estimaattori Oletetaan, että havaintosatunnaismuuttujilla Y 1,..., Y n on sama odotusarvo EY i = µ. Otoskeskiarvo Y = n 1 Y i on odotusarvon µ harhaton estimaattori. Esimerkiksi, jos Y i noudattaa jotain tutuista jakaumista B(µ), Poi(µ), Exp(1/µ), N(µ, σ 2 ) on otoskeskiarvo harhaton estimaattori Jos Y 1,..., Y n, on Y myös su-estimaattori näissä tapauksissa.
7 3.2.3 Esimerkki: varianssin harhattomasta estimoinnista palautetaan mieleen su-estimaattori σ 2 normaalimallissa (Y 1,..., Y n N(µ, σ 2 ) ): σ 2 = 1 n n (Y i Y ) 2. i=1 monisteen tehtävässä 3.3. annetaan perustelu otosvarianssin S 2 = 1 n 1 n (Y i Y ) 2 i=1 harhattomuudelle eli ES 2 = σ 2. Tässä tapauksessa su-estimaattori σ 2 on harhainen ja sen harha on b(σ 2 ) = σ2 n
8 3.2.4 Harhattomuuden merkityksestä ja ongelmista Olemme nähneet että su-estimaattori ja harhaton estimaattori ovat itsenäisiä käsitteitä Perinteisesti harhattomuuden merkitys korostunut - kukapa haluaisi käyttää koejärjestelyä, joka tuottaa keskimäärin vääriä tuloksia :) on kehitetty laaja teoria optimaalisten harhattomien estimaattorien konstruoimiseksi (UMVU -estimaattorit)
9 3.2.4 Harhattomuuden merkityksestä ja ongelmista harhattomuuden tavoittelussa on myös puutteensa a) harhattomia estimaattoreita ei välttämättä ole lainkaan tai ne ovat muuten ilmeisen epätyydyttäviä b) rikkoo invarianssiperiaatetta, sillä harhattomuus ei ole invariantti (epälineaaristen) parametrimuunnosten suhteen c) ei yhteensopiva uskottavuusperiaatteen kanssa, sillä harhattomuus riippuu vahvasti valitusta mallista
10 Esimerkki 3.2.5: harhattomuus ja invarianssiperiaate Esimerkissä johdettiin kestoikiä kuvaava malli Y 1,..., Y n Exp(λ) sen uudelleenparametrointi µ = 1/λ. Esimerkin (ja harjoitustehtävän) mukaan µ = Y ja λ = 1/Y ovat parametreja µ ja λ vastaavat su-estimaattorit Esimerkin mukaan µ on myös harhaton estimaattori
11 Esimerkki 3.2.5: harhattomuus ja invarianssiperiaate Näytetään nyt laskemalla, että λ ei ole harhaton estimaattori (ja jos n = 1 sillä ei ole edes odotusarvoa) TN-laskennasta: S = Y Y n Gam(n, λ) eli sen tf tunnetaan Koska λ = n/s, niin E λ voidaan laskea käyttämällä TTL:ää. integrointi saadaan mukavasti integroimalla tilastotieteilijän tapaan (tunnistamalla jakauma Gam(n 1, λ)) harhaksi b(λ) (kun n 2) saamme b(λ) = λ n 1
12 3.2.6 Esimerkki: geometrinen jakauma ja harhattomuuden hankaluus Tarkastellaan toistokoetta, jossa onnistumistodennäköisyys on θ ja olkoon N sen kokeen järjestysnumero, jolloin ensimmäinen onnistuminen sattuu Tällöin ptnf f (n; θ) = P(N = n) = θ(1 θ) n 1, n = 1, 2,... Oletetaan, että T = T (N) on parametrin θ harhaton estimaattori. Tällöin jokaisella θ (0, 1) on voimassa θ = ET = θ t(n)(1 θ) n 1 n=1
13 3.2.6 Esimerkki: geometrinen jakauma ja harhattomuuden hankaluus Yhtälöllä θ = θ t(n)(1 θ) n 1 n=1 on vain yksi ratkaisu, joka on voimassa ratkaisu kaikilla θ (0, 1). Tämä on t(n) = 1{ n = 1 }. Havaitsemme, että parametrin θ ainoa harhaton estimaattori { 1 jos N = 1 T = 0 muuten on aika erikoinen.
14 3.2.6 Esimerkki: harhattomuus ja uskottavuusperiaate Tässä tapauksessa uskottavuusfunktioksi käy L(θ) = θ(1 θ) n 1 Tämä on vanha tuttu uskottavuusfunktio, joten tiedämme että θ = 1/n, ja tätä vastaava estimaattori 1/N on siten harhainen Kuitenkin binomimallissa K Bin(n, θ) kun havaitaan k = 1 (jolloin uskottavuusfunktio on sama kuin yllä) vastaava estimaattori 1/N on harhaton
15 3.2.7 Asymptoottinen harhattomuus Miten ongelmia voisi kiertää: heikentämällä vaatimuksia. Oletetaan, että T (n) on funktion g(θ) estimaattori, joka perustuu kokoa n olevaan aineistoon (Y 1,..., Y n ). Määritelmä Jos estimaattorin T (n) harha lähestyy nollaa havaintojen lukumäärän n kasvaessa, niin sanotaan, että T (n) on asymptoottisesti harhaton
16 3.2.7 Asymptoottinen harhattomuus Tarkemmin sanottaisiin jono estimaattoreita T (1), T (2),... on asymptoottisesti harhaton Asymptoottisesti harhattomuus tarkoittaa siis: riittävän suurilla n E θ T (n) g(θ) Esimerkkien ja harhaiset estimaattorit σ 2 ja λ ovat asymptoottisesti harhattomia.
17 3.4 Tehokkuus ja informaatioepäyhtälö Seuraavaksi tarkastelemme kuinka hyviä tai tarkkoja estimaattorimme ovat Tätä varten esittelemme tehokkuuden käsitteen Ja osoitamme keskeisen informaatioepäyhtälön, joka antaa rajan, kuinka tarkkaan voimme ylipäätään estimoida.
18 3.4.1 Estimaattorin keskineliövirhe Harhaton estimaattori T ei välttämättä ole erityisen tarkka g(θ):n estimaattori Estimaatit voivat olla jopa aina kaukana parametrista Harhattoman estimaattorin hyvyyttä tässä suhteessa voidaankin mitata sen varianssilla var θ T, sillä Tšebyševin ey:n mukaan suurin osa T :n jakaumasta keskittynyt lähelle parametria.
19 3.4.1 Estimaattorin keskineliövirhe Määritelmä Funktion g(θ) estimaattorin T = t(y) keskineliövirhe on E θ ( (T g(θ) ) 2 ) Huom. Keskineliövirhe voidaan esittää E θ ( (T g(θ) ) 2 ) = var θ T + b(θ) 2. Harhattomalla estimaattorilla keskineliövirhe = varianssi.
20 3.4.1 Harhattomien estimaattorien tehokkuus Jos T ja T ovat kumpikin estimaattoreita, niin sanomme että T on parempi estimaattori keskineliövirheen mielessä kuin T, jos E θ ( T g(θ) ) 2 Eθ ( T g(θ) ) 2 kaikilla θ Ω. Jos T ja T ovat kumpikin harhattomia estimaattoreita, voidaan yhtäpitävästi kirjoittaa muodossa var θ (T ) var θ (T ) kaikilla θ Ω. Tällöin sanomme, että T on tehokkaampi kuin T.
21 3.4.2 Esimerkki: normaalimallin odotusarvo Pohditaan odotusarvon µ estimointia mallissa Y 1,..., Y n, Y i N(µ, σ0 2) jossa σ2 0 on tunnettu luku Tiedämme µ = Y on harhaton Muita harhattomia estimaattoreita S = Y 1 ja T = 1 2 (Y 1 + Y 2 ) Estimaattorien varianssit ovat: σ 2 0 /n, σ2 0 ja σ2 0 /2 Siispä: su-estimaattori µ on tehokkain (jos n > 2).
22 3.4.3 Informaatioepäyhtälö tapauksessa d = 1 Keskeinen kysymys: onko olemassa estimaattoreita, joiden keskineliövirhe on mielivaltaisen pieni? Informaatioepäyhtälö vastaa tähän kysymykseen säännöllisille malleille: EI!. Mallin Fisherin informaatio antaa alarajan tälle virheelle! Normaalimalliesimerkin σ 2 0 /n on keskineliövirheen mielessä paras mahdollinen
23 3.4.3 Informaatioepäyhtälö tapauksessa d = 1 Lause Seuraavassa tarkastellaan säännöllistä tilastollista mallia f Y (y; θ), kun Ω R ja ι(θ) on mallin Fisherin informaatio Olkoon T = T (Y) jokin parametrin g(θ) estimaattori ja olkoon b(θ) estimaattorin harha. Tällöin var θ T ( g (θ) + b (θ) ) 2 ι(θ) (3.2a)
24 3.4.3 Informaatioepäyhtälö tapauksessa d = 1 Jos edellisessä lausessa T on lisäksi harhaton, niin var θ T ( g (θ) ) 2 ι(θ) (3.2b) Erityisesti jos T on parametrin θ harhaton estimaattori, niin var θ T 1 ι(θ) (3.2c)
25 3.4.3 Informaatioepäyhtälön todistus Olkoon U = T = t(y) ja V = l (θ; Y) eli U on tarkasteltava estimaattori ja V pistemäärä. Cauchyn Schwarzin ey kertoo: (cov(u, V )) 2 var U var V Apulause (ja mallin säännöllisyys) kertoo mikä on pistemäärän varianssi: (cov(u, V )) 2 ι(θ) var θ T Jakamalla Fisherin informaatiolla havaitsemme, että väite seuraa, kunhan laskemalla näytämme, että cov(u, V ) = g (θ) + b (θ) = θ E θt
26 3.4.3 Informaatioepäyhtälön ja Fisherin informaation merkitys Esitetty lause on voimakas tulos, ja samalla se ilmaisee Fisherin informaation syvällisen merkityksen piste-estimoinnin teoriassa. Mitä vähemmän informaatiota on, sitä vaikeampaa parametrin estimointi on (ainakin kun malli on säännöllinen). Epäyhtälöitä (3.2) kutsutaan informaatioepäyhtälöiksi, vanhemmassa kirjallisuudessa usein Cramérin-Raon -epäyhtälöiksi. Tärkein ja samalla helpoin muistaa on epäyhtälö (3.2c).
27 3.4.3 Harhattomien estimaattorien tehokkuus Määritelmä Harhattoman estimaattorin T tehokkuus on prosenttilukuna T :n tehokkuus = ( g (θ) ) 2 ι(θ) var θ (T ) 100% Jos var θ (T ) on sama kuin informaatioepäyhtälön raja g (θ) 2 / ι(θ), niin estimaattoria kutsutaan täystehokkaaksi. Huom. Jos T on täystehokas ja malli on säännöllinen, niin T on paras harhaton estimaattori.
28 3.4.4 Esimerkki: normaalimallin odotusarvo Esimerkissä 3.4.3: Y 1,..., Y n, Y i N(µ, σ 2 0 ) jossa σ2 0 on tunnettu luku: Päättelimme µ = Y on harhaton ja var θ µ = n 1 σ 2 0 = 1/ ι(µ) Siispä: su-estimaattori µ on täystehokas ja paras harhaton estimaattori
29 3.4.5 Esimerkki: eksponenttimalli Tarkastellaan mallia Y 1,..., Y n Exp(λ) estimoidaan odotusarvoa µ = 1/λ = g(λ). Su-estimaattori on µ = Y on harhaton (Esimerkit ja 3.2.5). Monisteen tehtävä 2.11: ι(λ) = n λ 2 Estimaattorin µ tehokkuus on siten: ( g (λ) ) 2 ι(λ) var( µ) 100% = (λ 2 ) 2 100% = 100% n 1 λ 2 nλ 2 Siispä: µ on täystehokas
30 3.4.6 Informaatioepäyhtälö tapauksessa d > 1 Tarkastellaan nyt mallia f Y (y; θ), jonka parametri on vektori θ = (θ 1,..., θ d ). Oletetaan, että estimoitavana on jokin reaaliarvoinen funktio g(θ) parametrista θ Suurin ero tapaukseen d = 1 on siinä, että nyt Fisherin informaatio ι(θ) on d d-matriisi
31 3.4.6 Informaatioepäyhtälö tapauksessa d > 1 kun Fisherin informaatio on i 1,1 (θ) ι(θ) =. i d,1 (θ)... i 1,d (θ) i d,d (θ) sen käänteismatriisia ι 1 (θ) = ( ι(θ)) 1 voimme merkitä yläindekseillä i 1,1 (θ)... i 1,d (θ) ι 1 (θ) =..... i d,1 (θ)... i d,d (θ)
32 3.4.6 Informaatioepäyhtälö tapauksessa d > 1 Lause Seuraavassa tarkastellaan säännöllistä tilastollista mallia f Y (y; θ), kun Ω R d ja ι(θ) on mallin Fisherin informaatio Oletamme myös että g(θ) on reaaliarvoinen Olkoon T = t(y) jokin parametrin g(θ) estimaattori ja olkoon b(θ) estimaattorin harha. Tällöin var θ T ( g(θ) + b(θ)) ι 1 (θ)( g(θ) + b(θ)) (3.3a)
33 3.4.6 Informaatioepäyhtälö tapauksessa d > 1 Jos edellisessä lausessa T on lisäksi harhaton, niin var θ T ( g(θ)) ι 1 (θ)( g(θ)) (3.3b) Erityisesti jos T on parametrin θ a harhaton estimaattori, niin var θ T ι a,a (θ) (3.3c)
34 3.4.6 Informaatioepäyhtälö tapauksessa d > 1 Huom. Voisimme osoittaa, että ι a,a (θ) 1/ ι a,a (θ) ja yhtäsuuruus vain kun θ a on ortogonaalinen loppujen komponenttien kanssa Tämän voi ymmärtää seuraavasti: epävarmuus estimoinnissa kasvaa, kun estimoitavia parametrejä on enemmän ellei ne ole ortogonaalisia tarkasteltavan parametrin kanssa.
35 3.4.7 Esimerkki: normaalimalli Esimerkissä laskimme normaalimallissa Y 1,..., Y n N(µ, σ 2 ) Fisherin informaation Fisherin informaatioksi saimme ( ) ι(µ, σ 2 n/σ 2 0 ) = 0 n/2σ 4 Fisherin informaation käänteismatriisi on siis ( ι 1 (µ, σ 2 σ ) = 2 ) /n 0 0 2σ 4 /n
36 3.4.7 Esimerkki: normaalimalli Informaatioepäyhtälön nojalla: jokaisen harhattoman µ:n estimaattorin varianssi σ 2 /n. (tiedämme jo, että otoskeskiarvo Y on täystehokas) Informaatioepäyhtälön nojalla: jokaisen harhattoman σ 2 :n estimaattorin varianssi 2σ 4 /n. otosvarianssi S 2 = (n 1) 1 i (Y i Y ) 2 on harhaton ja sen varianssi on var(s 2 ) = 2σ4 n 1 > 2σ4 n
37 3.4.7 Esimerkki: normaalimalli otosvarianssi tehokkuus on: 2σ 4 n n 1 2σ 4 100% = n 1 100% n eli otosvarianssi ei ole täystehokas Voisimme kuitenkin osoittaa, että S 2 paras harhaton estimaattori varianssille σ 2!
38 3.4.8 Informaatioepäyhtälö ja matriisien suuruusjärjestys Oletetaan yksinkertaisuuden vuoksi, että T on parametrin θ harhaton estimaattori Informaatioepäyhtälö voidaan tapauksessa d = 1 kirjoittaa tällöin muodossa var θ T ι 1 (θ) Kun d > 1 on varianssin luonnollinen yleistys kovarianssimatriisi ja informaatioepäyhtälön voi myös tällöin kirjoittaa muodossa Cov θ (T) ι 1 (θ) kunhan suuruusjärjestys matriiseille ymmärretään sopivasti positiivisen semidefiniittisyyden avulla
39 3.4.8 Informaatioepäyhtälö ja matriisien suuruusjärjestys Voisimme sopia, että matriiseille suuruusjärjestys tarkoittaa A B tarkoittaa A B 0 tarkoittaa A B on pos. semidefiniitti Tämä havaitaan tarkastelemalla reaalisen parametrin a θ harhattomia estimaattoreita a T, kun a R d on jokin vakiovektori Informaatioepäyhtälö kertoo näille estimaattoreille, että a (Cov θ (T) ι 1 (θ))a 0
40 3.5 Tarkentuvuus Seuraavaksi puhutaan estimaattorien asymptoottisista ominaisuuksista Sana asymptotiikka viittaa siihen, miten estimaattori tai jokin muu tilastollinen menetelmä käyttäytyy, kun havaintojen lukumäärä kasvaa rajatta. Käytännön tapa ajatella: estimaattorin (tai vastaavan) likimääräinen käytös, kun havaintoja on riittävän paljon
41 3.5.1 Tarkentuvuuden määritelmä Tarkastellaan mallia f Y (y; θ), ja Ω R d. Oletetaan, että T (n) on funktion g(θ) estimaattori, joka perustuu kokoa n olevaan aineistoon (Y 1,..., Y n ). Määritelmä Jos estimaattori T (n) suppenee stokastisesti kohti estimoitavaa parametria g(θ), niin sanotaan, että T (n) on tarkentuva.
42 3.5.1 Tarkentuvuuden määritelmä Tarkemmin tietty sanottaisiin, että jono estimaattoreita T (1), T (2),... on tarkentuva Stokastinen suppeneminenhan tarkoitti: jokaisella ε > 0 pätee: lim P( n T(n) g(θ) > ε) = 0 Merkitsemme tätä T (n) p g(θ)
43 3.5.1 Heikko suurten lukujen laki Tarkentuvuus kuvaa todennäköisyysmassan keskittymistä parametrin ympärille Taustalla yleensä jokin suurten lukujen laki, kuten HSSL Lause (Heikko suurten lukujen laki) Olkoon X 1, X 2,... jono riippumattomia sm:ia, joilla on sama odotusarvo µ = EX i ja varianssi σ 2 = var X i <. Tällöin otoskeskiarvojen muodostama jono suppeneminee stokastisesti kohti odotusarvoa, eli 1 n p X i µ n i=1
44 3.5.2 Esimerkki: otoskeskiarvo on tarkentuva Oletetaan, että havaintosatunnaismuuttujilla Y 1,..., Y n on sama odotusarvo EY i = µ ja sama varianssi var Y i = σ 2. Tiedämme, että otoskeskiarvo Y = n 1 Y i on odotusarvon µ harhaton estimaattori ja lisäksi usein su-estimaattori. HSSL sanoo suoraan, että otoskeskiarvo on tarkentuva.
45 3.5.3 Riittävä ehto tarkentuvuudelle Markovin ey antaa mukavan riittävän ehdon tarkentuvuudelle. Lause Oletetaan, että g(θ):n estimaattorille T (n) pätee a) T (n) on asymptoottisesti harhaton ja b) var T (n) 0. Tällöin T (n) on tarkentuva. Todistus. Liitutaululla.
46 3.5.4 Esimerkki: normaalimallin varianssi oletamme jälleen Y 1,..., Y n N(µ, σ 2 ) otosvarianssi S 2 = 1 n 1 n (Y i Y ) 2 i=1 on esimerkin mukaan S 2 on harhaton ja sen var(s 2 ) = 2σ4 n 1 edellä olevan lauseen nojalla voimme todeta, että S 2 on tarkentuva myös su-estimaattori σ 2 = 1 n n (Y i Y ) 2 i=1 on tarkentuva.
3 Yleistä estimointiteoriaa. Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin
3 Yleistä estimointiteoriaa Olemme perehtuneet jo piste-estimointiin su-estimoinnin kautta Tässä luvussa tarkastellaan piste-estimointiin yleisemmin 3.1 Johdanto Tähän mennessä olemme tarkastelleet estimointia
Lisätiedot3.6 Su-estimaattorien asymptotiikka
3.6 Su-estimaattorien asymptotiikka su-estimaattorit ovat usein olleet puutteellisia : ne ovat usein harhaisia ja eikä ne välttämättä ole täystehokkaita asymptoottisilta ominaisuuksiltaan ne ovat yleensä
Lisätiedot2. Uskottavuus ja informaatio
2. Uskottavuus ja informaatio Viimeksi käsittelimme uskottavuusfunktioita, log-uskottavuusfunktioita ja su-estimaatteja Seuraavaksi tarkastelemme parametrin muunnoksia ja kuinka su-estimaatit käyttäytyvät
LisätiedotTässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:
4. Tyhjentyvyys Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: Voidaanko päätelmät perustaa johonkin tunnuslukuun t = t(y) koko aineiston y sijasta? Mitä
Lisätiedot6.1.2 Luottamusjoukon määritelmä
6.1.1 Johdanto Olemme tarkastelleet piste-estimointia: tavoitteemme oli etsiä tunnuslukuja t, joilla piste t(y) hyvä arvio mallin parametrille θ (tai sen muunnokselle g(θ)). Pelkän piste-estimaatin esittäminen
Lisätiedot5.7 Uskottavuusfunktioon perustuvia testejä II
5.7 Uskottavuusfunktioon perustuvia testejä II Tässä pykälässä pohditaan edellä tarkasteltujen kolmen testisuureen yleistystä malleihin, joiden parametri on useampiulotteinen, ja testausasetelmiin, joissa
Lisätiedot2. Uskottavuus ja informaatio
2. Uskottavuus ja informaatio Aluksi käsittelemme uskottavuus- ja log-uskottavuusfunktioita Seuraavaksi esittelemme suurimman uskottavuuden estimointimenetelmän Ensi viikolla perehdymme aiheeseen lisääkö
LisätiedotOsa 2: Otokset, otosjakaumat ja estimointi
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin
LisätiedotHY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät Ratkaisuehdotuksia
HY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät 2017 14..2017 Ratkaisuehdotuksia 1. Olkoon θ positiivinen parametri, ja asetetaan 2θ 1 y exp y 2 /θ), kun y > 0 fy; θ) = 0, muuten
LisätiedotIlkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2006) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo
LisätiedotYleistä tietoa kokeesta
Yleistä tietoa kokeesta Kurssikoe järjestetään maanantai 7.5. klo 12-15 jossakin Exactumin auditorioista. Korvaava kurssikoe keskiviikkona (yleisenä tenttipäivänä) 11.4. klo 16-19 jossakin Exactumin auditorioista.
LisätiedotMS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi
LisätiedotEpäyhtälöt ovat yksi matemaatikon voimakkaimmista
6 Epäyhtälöitä Epäyhtälöt ovat yksi matemaatikon voimakkaimmista työvälineistä. Yhtälö a = b kertoo sen, että kaksi ehkä näennäisesti erilaista asiaa ovat samoja. Epäyhtälö a b saattaa antaa keinon analysoida
Lisätiedot4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
LisätiedotKertausluento. Tilastollinen päättely II - 1. kurssikoe
Kertausluento Tilastollinen päättely II - 1. kurssikoe Yleistä tietoa TP II -1. kurssikokeesta 1. Kurssikoe on to 7.3 klo 12.00-14.30 (jossakin Exactumin auditorioista, salijako selvinnee tuolloin torstiana).
Lisätiedotl (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on
HY, MTO / Matemaattisten tieteiden kandiohjelma Tilastollinen päättely II, kevät 018 Harjoitus B Ratkaisuehdotuksia Tehtäväsarja I 1 (Monisteen tehtävä 14) Olkoon f Y (y; θ) tilastollinen malli, jonka
LisätiedotMTTTP5, luento Otossuureita ja niiden jakaumia (jatkuu)
21.11.2017/1 MTTTP5, luento 21.11.2017 Otossuureita ja niiden jakaumia (jatkuu) 4) Olkoot X 1, X 2,..., X n satunnaisotos (, ):sta ja Y 1, Y 2,..., Y m satunnaisotos (, ):sta sekä otokset riippumattomia.
Lisätiedot11 Raja-arvolauseita ja approksimaatioita
11 Raja-arvolauseita ja approksimaatioita Tässä luvussa esitellään sellaisia kuuluisia todennäköisyysteorian raja-arvolauseita, joita sovelletaan usein tilastollisessa päättelyssä. Näiden raja-arvolauseiden
LisätiedotTilastollinen aineisto Luottamusväli
Tilastollinen aineisto Luottamusväli Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Tilastollinen aineisto p.1/20 Johdanto Kokeellisessa tutkimuksessa tutkittavien suureiden
Lisätiedot5 Hypoteesien testaaminen
5 Hypoteesien testaaminen Seuraavaksi tutustumme tilastollisiin testeihin ja niihin liittyviin peruskäsitteisiin Esittelemme aluksi hypoteesit sekä testisuureet ja puhumme p-arvosta (eli havaitusta merkitsevyystasosta)
LisätiedotYksisuuntainen varianssianalyysi (jatkoa) Heliövaara 1
Yksisuuntainen varianssianalyysi (jatkoa) Heliövaara 1 Odotusarvoparien vertailu Jos yksisuuntaisen varianssianalyysin nollahypoteesi H 0 : µ 1 = µ 2 = = µ k = µ hylätään tiedetään, että ainakin kaksi
LisätiedotJohdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1
Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:
LisätiedotMaximum likelihood-estimointi Alkeet
Maximum likelihood-estimointi Alkeet Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Maximum likelihood-estimointi p.1/20 Maximum Likelihood-estimointi satunnaismuuttujan X
LisätiedotEstimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?
TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen TKK (c) Ilkka Mellin (2004) 2 Mitä opimme? 1/4 Tilastollisen tutkimuksen tavoitteena on tehdä johtopäätöksiä prosesseista, jotka generoivat reaalimaailman
LisätiedotEstimointi populaation tuntemattoman parametrin arviointia otossuureen avulla Otossuure satunnaisotoksen avulla määritelty funktio
17.11.2015/1 MTTTP5, luento 17.11.2015 Luku 5 Parametrien estimointi 5.1 Piste-estimointi Estimointi populaation tuntemattoman parametrin arviointia otossuureen avulla Otossuure satunnaisotoksen avulla
LisätiedotTilastollinen päättely II, kevät 2017 Harjoitus 2A
Tilastollinen päättely II, kevät 07 Harjoitus A Heikki Korpela 3. tammikuuta 07 Tehtävä. (Monisteen tehtävä.3 Olkoot Y,..., Y n Exp(λ. Kirjoita vastaava tilastollisen mallin lauseke (ytf. Muodosta sitten
Lisätiedot5 Hypoteesien testaaminen
5 Hypoteesien testaaminen Seuraavaksi tutustumme tilastollisiin testeihin ja niihin liittyviin peruskäsitteisiin Esittelemme aluksi hypoteesit sekä testisuureet ja puhumme p-arvosta (eli havaitusta merkitsevyystasosta)
Lisätiedot2. Teoriaharjoitukset
2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien
LisätiedotYksisuuntainen varianssianalyysi (jatkoa) Kuusinen/Heliövaara 1
Yksisuuntainen varianssianalyysi (jatkoa) Kuusinen/Heliövaara 1 Odotusarvoparien vertailu Jos yksisuuntaisen varianssianalyysin nollahypoteesi H 0 : µ 1 = µ 2 = = µ k = µ hylätään, tiedetään, että ainakin
LisätiedotParametrin estimointi ja bootstrap-otanta
Parametrin estimointi ja bootstrap-otanta Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo Tutkimustiedonhallinnan peruskurssi Parametrin estimointi ja bootstrap-otanta 1/27 Kevät 2003 Käytännön asioista
LisätiedotPelaisitko seuraavaa peliä?
Lisätehtävä 1 seuraavassa on esitetty eräs peli, joka voidaan mallintaa paramterisena tilastollisena mallina tehtävänä on selvittää, kuinka peli toimii ja näyttää mallin takana oleva apulause (Tehtävä
LisätiedotTilastollinen päättömyys, kevät 2017 Harjoitus 6B
Tilastollinen päättömyys, kevät 7 Harjoitus 6B Heikki Korpela 8. helmikuuta 7 Tehtävä. Monisteen teht. 6... Olkoot Y,..., Y 5 Nµ, σ, ja merkitään S 5 i Y i Y /4. Näytä, että S/σ on saranasuure eli sen
Lisätiedot9. laskuharjoituskierros, vko 12-13, ratkaisut
9. laskuharjoituskierros, vko 12-13, ratkaisut D1. Olkoot X i, i = 1, 2,..., n riippumattomia, samaa eksponenttijakaumaa noudattavia satunnaismuuttujia, joiden odotusarvo E(X i = β, toisin sanoen X i :t
Lisätiedot2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 208 Harjoitus 4 Ratkaisuehdotuksia Tehtäväsarja I. Satunnaismuuttuja U Exp(2) ja V = U/(3 + U). Laske f V käyttämällä muuttujanvaihtotekniikkaa.
Lisätiedot1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 017 Harjoitus 5 Ratkaisuehdotuksia Tehtäväsarja I 1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X
LisätiedotMoniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
LisätiedotIlkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
Lisätiedot4.1. Olkoon X mielivaltainen positiivinen satunnaismuuttuja, jonka odotusarvo on
Mat-2.090 Sovellettu todennäköisyyslasku A / Ratkaisut Aiheet: Avainsanat: Otanta Poisson- Jakaumien tunnusluvut Diskreetit jakaumat Binomijakauma, Diskreetti tasainen jakauma, Geometrinen jakauma, Hypergeometrinen
Lisätiedot1. Tilastollinen malli??
1. Tilastollinen malli?? https://fi.wikipedia.org/wiki/tilastollinen_malli https://en.wikipedia.org/wiki/statistical_model http://projecteuclid.org/euclid.aos/1035844977 Tilastollinen malli?? Numeerinen
Lisätiedot10 Moniulotteinen normaalijakauma
10 Moniulotteinen normaalijakauma Tässä luvussa tarkastellaan normaalijakauman moniulotteista yleistystä eli moniulotteista (eli monimuuttujaista) normaalijakaumaa (engl. multivariate normal distribution).
LisätiedotTilastollinen päättely II, kevät 2017 Harjoitus 1A
Tilastollinen päättely II, kevät 207 Harjoitus A Heikki Korpela 23. tammikuuta 207 Tehtävä. Kertausta todennäköisyyslaskennasta. Ilmoita satunnaismuuttujan Y jakauman nimi ja pistetodennäköisyys- tai tiheysfunktio
LisätiedotBatch means -menetelmä
S-38.148 Tietoverkkojen simulointi / Tulosten keruu ja analyysi 1(9) Batch means -menetelmä Batch means -menetelmää käytetään hyvin yleisesti Simulointi suoritetaan tässä yhtenä pitkänä ajona olkoon simuloinnin
Lisätiedot1. (Jatkoa Harjoitus 5A tehtävään 4). Monisteen esimerkin mukaan momenttimenetelmän. n ne(y i Y (n) ) = 2E(Y 1 Y (n) ).
HY / Matematiika ja tilastotietee laitos Tilastollie päättely II, kevät 018 Harjoitus 5B Ratkaisuehdotuksia Tehtäväsarja I 1. (Jatkoa Harjoitus 5A tehtävää ). Moistee esimerki 3.3.3. mukaa momettimeetelmä
LisätiedotKertausluento. Tilastollinen päättely II - 2. kurssikoe
Kertausluento Tilastollinen päättely II - 2. kurssikoe Yleistä tietoa TP II -2. kurssikokeesta 2. kurssikoe maanantaina 6.5.2019 klo 12.00-14.30 jossakin Exactumin auditoriossa Kurssikokeeseen ilmoittaudutaan
LisätiedotOdotusarvoparien vertailu. Vilkkumaa / Kuusinen 1
Odotusarvoparien vertailu Vilkkumaa / Kuusinen 1 Motivointi Viime luennolta: yksisuuntaisella varianssianalyysilla testataan nollahypoteesia H 0 : μ 1 = μ 2 = = μ k = μ Jos H 0 hylätään, tiedetään, että
LisätiedotYleistä tietoa kokeesta
Yleistä tietoa kokeesta Kurssikoe on ma 18.12. klo 12.00-14.30 (jossakin auditorioista). Huomaa tasatunti! Seuraava erilliskoe on ke 10.1.2018 klo 10-14, johon ilmoittaudutaan Oodissa (ilmoittautumisaika
LisätiedotEstimointi. Vilkkumaa / Kuusinen 1
Estimointi Vilkkumaa / Kuusinen 1 Motivointi Tilastollisessa tutkimuksessa oletetaan jonkin jakauman generoineen tutkimuksen kohteena olevaa ilmiötä koskevat havainnot Tämän mallina käytettävän todennäköisyysjakauman
LisätiedotTilastotieteen kertaus. Kuusinen/Heliövaara 1
Tilastotieteen kertaus Kuusinen/Heliövaara 1 Mitä tilastotiede on? Tilastotiede kehittää ja soveltaa menetelmiä, joiden avulla reaalimaailman ilmiöistä voidaan tehdä johtopäätöksiä tilanteissa, joissa
LisätiedotTodennäköisyyden ominaisuuksia
Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset
LisätiedotHY, MTO / Matemaattisten tieteiden kandiohjelma Tilastollinen päättely II, kevät 2018 Harjoitus 8B Ratkaisuehdotuksia.
HY, MTO / Matemaattisten tieteiden kandiohjelma Tilastollinen päättely II, kevät 2018 Harjoitus 8B Ratkaisuehdotuksia Tehtäväsarja I 1. Jatkoa Harjoitus 8A tehtävään 3. Muodosta odotusarvolle µ approksimatiivinen
LisätiedotKannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:
8 Kanta Tässä luvussa tarkastellaan aliavaruuden virittäjävektoreita, jotka muodostavat lineaarisesti riippumattoman jonon. Merkintöjen helpottamiseksi oletetaan luvussa koko ajan, että W on vektoreiden
LisätiedotLause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.
Määritelmä 4.3. Estimaattoria X(Y ) nimitetään lineaariseksi projektioksi, jos X on lineaarinen kuvaus ja E[(X X(Y )) Y] 0 }{{} virhetermi Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi
LisätiedotTilastolliset menetelmät. Osa 1: Johdanto. Johdanto tilastotieteeseen KE (2014) 1
Tilastolliset menetelmät Osa 1: Johdanto Johdanto tilastotieteeseen KE (2014) 1 Mitä tilastotiede on? Tilastotiede kehittää ja soveltaa menetelmiä ja malleja, joiden avulla reaalimaailman ilmiöistä voidaan
Lisätiedot3. Teoriaharjoitukset
3. Teoriaharjoitukset Demotehtävät 3.1 a Olkoot u ja v satunnaumuuttujia, joilla on seuraavat ominaisuudet: E(u = E(v = 0 Var(u = Var(v = σ 2 Cov(u, v = E(uv = 0 Näytä että deterministinen prosessi. x
Lisätiedot8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH
8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH Osa aikasarjoista kehittyy hyvin erityyppisesti erilaisissa tilanteissa. Esimerkiksi pörssikurssien epävakaus keskittyy usein lyhyisiin
LisätiedotIlkka Mellin Aikasarja-analyysi Suurimman uskottavuuden menetelmä
Ilkka Mellin Aikasarja-analyysi Suurimman uskottavuuden menetelmä TKK (c) Ilkka Mellin (2007) 1 Suurimman uskottavuuden menetelmä >> Suurimman uskottavuuden estimointimenetelmä Tarkentuvuus Asymptoottinen
LisätiedotVäliestimointi (jatkoa) Heliövaara 1
Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).
LisätiedotTutkimustiedonhallinnan peruskurssi
Tutkimustiedonhallinnan peruskurssi Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo hannu.toivonen, marko.salmenkivi, inkeri.verkamo@cs.helsinki.fi Helsingin yliopisto Hannu Toivonen, Marko Salmenkivi,
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 15 1 Tilastollisia testejä Z-testi Normaalijakauman odotusarvon testaus, keskihajonta tunnetaan
LisätiedotOrtogonaalisen kannan etsiminen
Ortogonaalisen kannan etsiminen Lause 94 (Gramin-Schmidtin menetelmä) Oletetaan, että B = ( v 1,..., v n ) on sisätuloavaruuden V kanta. Merkitään V k = span( v 1,..., v k ) ja w 1 = v 1 w 2 = v 2 v 2,
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 18. lokakuuta 2007 Antti Rasila () TodB 18. lokakuuta 2007 1 / 19 1 Tilastollinen aineisto 2 Tilastollinen malli Yksinkertainen satunnaisotos 3 Otostunnusluvut
LisätiedotRegressioanalyysi. Vilkkumaa / Kuusinen 1
Regressioanalyysi Vilkkumaa / Kuusinen 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Halutaan selittää selitettävän muuttujan havaittujen arvojen vaihtelua selittävien muuttujien havaittujen
LisätiedotJohdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka
LisätiedotV ar(m n ) = V ar(x i ).
Mat-.3 Stokastiset prosessit Syksy 007 Laskuharjoitustehtävät 6 Poropudas/Kokkala. Olkoon M n = X +... + X n martingaali ja M 0 = 0. Osoita, että V ar(m n ) = n V ar(x i ). i= Huomattavaa on, että muuttujia
LisätiedotGripenberg. MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta
MS-A00 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta 7.. Gripenberg Kirjoita jokaiseen koepaperiin nimesi, opiskelijanumerosi ym. tiedot ja minkä kokeen suoritat! Laskin,
LisätiedotOminaisvektoreiden lineaarinen riippumattomuus
Ominaisvektoreiden lineaarinen riippumattomuus Lause 17 Oletetaan, että A on n n -matriisi. Oletetaan, että λ 1,..., λ m ovat matriisin A eri ominaisarvoja, ja oletetaan, että v 1,..., v m ovat jotkin
Lisätiedot031021P Tilastomatematiikka (5 op) viikko 4
031021P Tilastomatematiikka (5 op) viikko 4 Jukka Kemppainen Mathematics Division Tilastollinen aineisto Tilastolliset menetelmät ovat eräs keino tutkia numeerista havaintoaineistoa todennäköisyyslaskentaa
LisätiedotRegressioanalyysi. Kuusinen/Heliövaara 1
Regressioanalyysi Kuusinen/Heliövaara 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Oletetaan, että haluamme selittää jonkin selitettävän muuttujan havaittujen arvojen vaihtelun joidenkin
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 21. syyskuuta 2007 Antti Rasila () TodB 21. syyskuuta 2007 1 / 19 1 Satunnaismuuttujien riippumattomuus 2 Jakauman tunnusluvut Odotusarvo Odotusarvon ominaisuuksia
LisätiedotJohdatus tilastotieteeseen Väliestimointi. TKK (c) Ilkka Mellin (2005) 1
Johdatus tilastotieteeseen Väliestimointi TKK (c) Ilkka Mellin (2005) 1 Väliestimointi Todennäköisyysjakaumien parametrien estimointi Luottamusväli Normaalijakauman odotusarvon luottamusväli Normaalijakauman
LisätiedotJohdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1
Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille TKK (c) Ilkka Mellin (004) 1 Testit suhdeasteikollisille muuttujille Testit normaalijakauman parametreille Yhden otoksen t-testi Kahden
LisätiedotSallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,
Todennäköisyyslaskenta, 2. kurssikoe 7.2.22 Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu.. Satunnaismuuttujien X ja Y yhteistiheysfunktio on
LisätiedotHY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2017 Harjoitus 1 Ratkaisuehdotuksia
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 07 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Osa tämän viikon tehtävistä ovat varsin haastavia, joten ei todellakaan
LisätiedotIteratiiviset ratkaisumenetelmät
Iteratiiviset ratkaisumenetelmät Keijo Ruotsalainen Division of Mathematics Yleinen iteraatio Lineaarisen yhtälöryhmän iteratiivinen ratkaisumenetelmä voidaan esittää muodossa: Anna alkuarvaus: x 0 R n
Lisätiedot4. Martingaalit ja lokaalit martingaalit
STOKASTISET DIFFERENTIAALIYHTÄLÖT 45 4. Martingaalit ja lokaalit martingaalit Lähestymme nyt jo kovaa vauhtia hetkeä, jolloin voimme aloittaa stokastisen integroinnin. Ennen sitä käymme vielä läpi yhtä
LisätiedotVektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on
13 Pistetulo Avaruuksissa R 2 ja R 3 on totuttu puhumaan vektorien pituuksista ja vektoreiden välisistä kulmista. Kuten tavallista, näiden käsitteiden yleistäminen korkeampiulotteisiin avaruuksiin ei onnistu
LisätiedotMS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4B Tilastolliset luottamusvälit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016,
Lisätiedot5. Stokastinen integrointi
STOKASTISET DIFFERENTIAALIYHTÄLÖT 55 5. Stokastinen integrointi Olemme lopulta käyneet läpi tarvittavat tiedot peruskäsitteistä ja voimme aloittaa stokastisen integroinnin (ja siten stokastisen derivoinnin
Lisätiedottilastotieteen kertaus
tilastotieteen kertaus Keskiviikon 24.1. harjoitukset pidetään poikkeuksellisesti klo 14-16 luokassa Y228. Heliövaara 1 Mitä tilastotiede on? Tilastotiede kehittää ja soveltaa menetelmiä, joiden avulla
LisätiedotTestejä suhdeasteikollisille muuttujille
Ilkka Mellin Tilastolliset menetelmät Osa 3: Tilastolliset testit Testejä suhdeasteikollisille muuttujille TKK (c) Ilkka Mellin (007) 1 Testejä suhdeasteikollisille muuttujille >> Testit normaalijakauman
LisätiedotP(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu
1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)
LisätiedotMS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 6A Tilastolliset luottamusvälit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016,
LisätiedotEsimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).
Esimerkki 9 Esimerkissä 6 miniminormiratkaisu on (ˆx, ˆx (, 0 Seuraavaksi näytetään, että miniminormiratkaisuun siirtyminen poistaa likimääräisongelman epäyksikäsitteisyyden (mutta lisääntyvän ratkaisun
Lisätiedot805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016)
805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016) Tavoitteet (teoria): Hallita multinormaalijakauman määritelmä. Ymmärtää likelihood-funktion ja todennäköisyystiheysfunktion ero. Oppia kirjoittamaan
LisätiedotARMA mallien ominaisuudet ja rakentaminen
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Viikko 4: 1 ARMA-mallien ominaisuudet 1 Stationaaristen
LisätiedotMoniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?
TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä
LisätiedotTilastollinen päättely II, kevät 2017 Harjoitus 3B
Tilastollie päättely II, kevät 7 Harjoitus 3B Heikki Korpela 3. maaliskuuta 7 Tehtävä. Jatkoa harjoitukse B tehtävii -3. Oletetaa, että x i c kaikilla i, ku c > o vakio. Näytä, että ˆβ, T ja T ovat tarketuvia.
LisätiedotErityiskysymyksiä yleisen lineaarisen mallin soveltamisessa
Ilkka Mellin Tilastolliset menetelmät Osa 4: Lineaarinen regressioanalyysi Erityiskysymyksiä yleisen lineaarisen mallin soveltamisessa TKK (c) Ilkka Mellin (2007) 1 Erityiskysymyksiä yleisen lineaarisen
LisätiedotYhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1
Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia Heliövaara 1 Regressiokertoimien PNS-estimaattorit Määritellään havaintojen x j ja y j, j = 1, 2,...,n
Lisätiedot9. Tila-avaruusmallit
9. Tila-avaruusmallit Aikasarjan stokastinen malli ja aikasarjasta tehdyt havainnot voidaan esittää joustavassa ja monipuolisessa muodossa ns. tila-avaruusmallina. Useat aikasarjat edustavat dynaamisia
LisätiedotTarkastelemme ensin konkreettista esimerkkiä ja johdamme sitten yleisen säännön, joilla voidaan tietyissä tapauksissa todeta kielen ei-säännöllisyys.
Ei-säännöllisiä kieliä [Sipser luku 1.4] Osoitamme, että joitain kieliä ei voi tunnistaa äärellisellä automaatilla. Tulos ei sinänsä ole erityisen yllättävä, koska äärellinen automaatti on äärimmäisen
Lisätiedot/1. MTTTP1, luento Normaalijakauma (jatkoa) Olkoon Z ~ N(0, 1). Määritellään z siten, että P(Z > z ) =, graafisesti:
4.10.2016/1 MTTTP1, luento 4.10.2016 7.4 Normaalijakauma (jatkoa) Olkoon Z ~ N(0, 1). Määritellään z siten, että P(Z > z ) =, graafisesti: Samoin z /2 siten, että P(Z > z /2 ) = /2, graafisesti: 4.10.2016/2
LisätiedotKaksisuuntainen varianssianalyysi. Heliövaara 1
Kaksisuuntainen varianssianalyysi Heliövaara 1 Kaksi- tai useampisuuntainen varianssianalyysi Kaksi- tai useampisuuntaisessa varianssianalyysissa perusjoukko on jaettu ryhmiin kahden tai useamman tekijän
Lisätiedot3.2.2 Tikhonovin regularisaatio
3 Tikhonovin regularisaatio Olkoon x 0 R n tuntematon, M R m n teoriamatriisi ja y Mx + ε R m (316 annettu data Häiriöherkässä ongelmassa pienimmän neliösumman miniminormiratkaisu x M + y Q N (M x + M
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3
LisätiedotMS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 3A Satunnaismuuttujien summa ja keskihajonta Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 4
Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa
LisätiedotJohdatus tilastolliseen päättelyyn. Petri Koistinen Matematiikan ja tilastotieteen laitos Helsingin yliopisto
Johdatus tilastolliseen päättelyyn Petri Koistinen Matematiikan ja tilastotieteen laitos Helsingin yliopisto 29. huhtikuuta 2013 Sisältö 1 Johdanto 1 Kirjallisuutta................................ 2 2
LisätiedotOminaisarvo ja ominaisvektori
Ominaisarvo ja ominaisvektori Määritelmä Oletetaan, että A on n n -neliömatriisi. Reaaliluku λ on matriisin ominaisarvo, jos on olemassa sellainen vektori v R n, että v 0 ja A v = λ v. Vektoria v, joka
Lisätiedot