Identifiointiprosessi

Samankaltaiset tiedostot
Identifiointiprosessi

Identifiointiprosessi II

Identifiointiprosessi

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Parametristen mallien identifiointiprosessi

Missä mennään. systeemi. identifiointi. mallikandidaatti. validointi. malli. (fysikaalinen) mallintaminen. mallin mallin käyttötarkoitus, reunaehdot

Dynaamisten systeemien identifiointi 1/2

Identifiointiprosessi

Parametristen mallien identifiointiprosessi

Identifiointiprosessi

Regressioanalyysi. Kuusinen/Heliövaara 1

Signaalimallit: sisältö

805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016)

Sovellettu todennäköisyyslaskenta B

Johdatus tilastotieteeseen Regressiomallin valinta. TKK (c) Ilkka Mellin (2004) 1

xi = yi = 586 Korrelaatiokerroin r: SS xy = x i y i ( x i ) ( y i )/n = SS xx = x 2 i ( x i ) 2 /n =

Ilkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Regressiomallin valinta. TKK (c) Ilkka Mellin (2007) 1

Keskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6)

Yksisuuntainen varianssianalyysi (jatkoa) Heliövaara 1

Yksisuuntainen varianssianalyysi (jatkoa) Kuusinen/Heliövaara 1

Mat Tilastollisen analyysin perusteet, kevät 2007

Mat Systeemien identifiointi, aihepiirit 1/4

TA7, Ekonometrian johdantokurssi HARJOITUS 4 1 RATKAISUEHDOTUKSET

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Odotusarvoparien vertailu. Vilkkumaa / Kuusinen 1

805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016)

Tilastotieteen aihehakemisto

Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1

ABHELSINKI UNIVERSITY OF TECHNOLOGY

805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016)

5.7 Uskottavuusfunktioon perustuvia testejä II

2. Uskottavuus ja informaatio

Mat Tilastollisen analyysin perusteet, kevät 2007

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Mat Tilastollisen analyysin perusteet, kevät 2007

Sovellettu todennäköisyyslaskenta B

ARMA(p, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma.

Batch means -menetelmä

Harha mallin arvioinnissa

Johdatus regressioanalyysiin. Heliövaara 1

Dynaamiset regressiomallit

Harjoitus 7: NCSS - Tilastollinen analyysi

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

Geenikartoitusmenetelmät. Kytkentäanalyysin teoriaa. Suurimman uskottavuuden menetelmä ML (maximum likelihood) Uskottavuusfunktio: koko aineisto

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B

Regressiodiagnostiikka ja regressiomallin valinta

MS-C2103 Koesuunnittelu ja tilastolliset mallit (5 op)

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

TUTKIMUSAINEISTON ANALYYSI. LTKY012 Timo Törmäkangas

1. Tutkitaan tavallista kahden selittäjän regressiomallia

Todennäköisyyden ominaisuuksia

x = ( θ θ ia y = ( ) x.

Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt

Korrelaatiokertoinen määrittely 165

Lohkoasetelmat. Vilkkumaa / Kuusinen 1

Sovellettu todennäköisyyslaskenta B

Tilastollinen aineisto Luottamusväli

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

TUTKIMUSAINEISTON KVANTITATIIVINEN ANALYYSI LTKY012. Timo Törmäkangas

ABHELSINKI UNIVERSITY OF TECHNOLOGY

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

Load

Osa 2: Otokset, otosjakaumat ja estimointi

MS-C2128 Ennustaminen ja Aikasarja-analyysi, 5 op Esittely

Väliestimointi (jatkoa) Heliövaara 1

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

Maximum likelihood-estimointi Alkeet

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL

Harjoitus 9: Excel - Tilastollinen analyysi

Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II

Regressiodiagnostiikka ja regressiomallin valinta

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

Logistinen regressio, separoivat hypertasot

tilastotieteen kertaus

χ = Mat Sovellettu todennäköisyyslasku 11. harjoitukset/ratkaisut

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH

MS-C2103 Koesuunnittelu ja tilastolliset mallit (5 op)

MS-C2103 Koesuunnittelu ja tilastolliset mallit (5 op)

1. Tilastollinen malli??

Matriisi-vektori-kertolasku, lineaariset yhtälöryhmät

Inversio-ongelmien laskennallinen peruskurssi Luento 2

4.0.2 Kuinka hyvä ennuste on?

Laskennallinen data-analyysi II

Simuloinnin strategisia kysymyksiä

Ratkaisuehdotukset LH 7 / vko 47

Testaa onko myrkkypitoisuus eri ryhmissä sama. RATK. Lasketaan kaikkien havaintoarvojen summa: k T i = = 486.

Laskuharjoitus 9, tehtävä 6

Diskriminanttianalyysi I

Ennustaminen ARMA malleilla ja Kalmanin suodin

Testit laatueroasteikollisille muuttujille

FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa. 9. luento. Pertti Palo

Simuloinnin strategisia kysymyksiä

Johdatus tn-laskentaan perjantai

Tilastollisen analyysin perusteet Luento 10: Johdatus varianssianalyysiin

1. Tutkitaan regressiomallia Y i = β 0 + β 1 X i + u i ja oletetaan, että tavanomaiset

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä

Erityiskysymyksiä yleisen lineaarisen mallin soveltamisessa

Auringonpilkkujen jaksollisuus

USEAN MUUTTUJAN REGRESSIOMALLIT JA NIIDEN ANA- LYYSI

Transkriptio:

Alustavia kokeita Identifiointiprosessi Koesuunnittelu, identifiointikoe Mittaustulosten / datan esikäsittely Ei-parametriset menetelmät: - Transientti-, korrelaatio-, taajuus-, Fourier- ja spektraalianalyysi => askel-, impulssi- ja taajuusvaste, ajatuksia esim. kertaluvuista Parametrien estimointi mallirakenteen (rakenneparametrit) valinta Mallin arviointi: - Simulointi, navat, erilaiset vasteet, jne Mallin validointi: - Parametrien merkitsevyys, residuaalianalyysi, jne

Mallirakenteen valinta Rakenteellinen black box? Rakenteellinen vaikea tuottaa, mutta usein vähemmän estimoitavaa => tarkempia tuloksia Black-box: mallirakenne & kertaluvut? Estimointimenetelmä (ARX PNS, muut vaativat iteratiivisia) Kertaluvut? ARMA-, ARIMA-mallit oma tarinansa, ks. Mat-2.3128 Niukkuusperiaate (parsimony principle): valitse kahdesta tasaväkisestä mallista se, jossa on vähemmän parametreja Miksi? Voidaan osoittaa, että ylimääräiset parametrit lisäävät ennustevirheen varianssia Käyttötarkoitus; mallinnusosaaminen; algoritminen kompleksisuus;

Mallirakenteiden vertaaminen Helppoa! verrataan vaan jäännösneliösummia! Vai hetkinen kun lisään tarpeeksi monta parametria, siitä tulee nolla!?? Tietyn rajan jälkeen malli alkaa sovittautua datan kohinaan Kupletin juoni ei olekaan estimointidataan sovittaminen vaan ilmiön kuvaaminen Ristiinvalidointi: Mallin suorituskyvyn (esim. ennustuskyvyn) arviointi riippumattomalla datalla Kvantitatiivinen analyysi (vrt. lineaariset regressiomallit, ks. esim. Mat-2.2104): Tilastollinen analyysi: pieneneekö hyvyysfunktio merkitsevästi kun siihen lisätään parametri? Informaatiokriteerit: sakotetaan parametrien lisäämisestä Selittäjien kovarianssin singulaarisuus

F-testi Olkoot M 1 ja M 2 kaksi hierarkkista mallirakennetta (ts. M 1 saadaan M 2 :sta poistamalla parametri/parametreja) Ol. että kumpikin mallirakenne kuvaa systeemin niin, että ennustevirheet ovat valkoista kohinaa Tällöin testisuure χ=n(v N 1 -V N 2 )/V N 2 on asymptoottisesti χ 2 - jakautunut vapausteilla p 2 -p 1 p i = parametrien lkm mallissa i V N i hyvyyskriteerin arvo mallilla i N havaintojen lukumäärä Idea: poikkeaako testisuure nollasta tilastollisesti merkitsevästi kun siirrytään mallista 1 malliin 2?

Informaatiokriteerien idis Hyvyyskriteerin optimiarvo vs. parametrien lukumäärä d Tyypillinen funktionaalinen muoto: W N = β(d,n)v N V N = parametreistä (d kpl) riippuva ennustevirheiden neliösumma β kasvaa kun d kasvaa ja vähenee kun N kasvaa Minimoi W n in d:n ja parametrien suhteen => Valitaan malli, jolle W N on pienin

Informaatiokriteereitä Akaiken informaatiokriteeri (1972): AIC=(1+2d/N)V N Kullback-Leibler etäisyysdellä (informaatioetäisyys) voidaan mitata kahden tn-jakauman etäisyyttä AIC:n minimoiva malli minimoi mallin ja systeemin informaatioetäisyyden Final Prediction Error (Akaike, 1969): FPE=(1+d/N)/(1-d/N)V N /N Keskimääräinen estimaatti ennustevirheen varianssille, kun estimaatti lasketaan muulla kuin mallin identifointiin käytetyllä datalla Rissasen minimipituuskriteeri (1978): MDL=(1+2d logn/n)v N Kuvaa tilaa, joka tarvitaan mallin sisältämän informaation (mallin parametrit + ennustevirheet) tallentamiseksi pienimpään mahdolliseen tilaan

Hankel-matriisin testaus 1/2 N:nnen kertaluvun järjestelmän impulssivaste t) riippuu lineaarisesti n:stä edellisestä arvosta t-1),,t-n) Esim. y(t)=-a 1 y(t-1)-a 2 y(t-2)+b 1 u(t-1)+b 2 u(t-2) u(0)=1,u(i)=0 kaikilla i >0; y(0)=y(-1)=y(-2)=0 Vaste 1)=b1; 2)=-a 1 1)+b2; 3)=-a 1 2)- a 2 1);;t)=-a 1 t-1)-a 2 t-2) kaikilla t>2 Määritellään Hankel-matriisi: k) 1) H( l, k) = M l 1) k k k + l + 1) + 2) M 2) O l 1) l 2) M 2l 2)

Hankel-matriisin testaus 2/2 Järjestelmän kertaluku n => H(l,k):n rangi = n kaikilla l>n Testaus: det (H(l,k))=0 kun l>n Kohinaa => testataan perättäisten determinanttien suhteita: D l = det(h(l,k)) / det(h,l+1,k)) Determinantit voidaan keskiarvottaa yli k:n l=n maksimoi D l :n Käytännössä: Transsienttianalyysi => impulssi/askelvaste => Hankelmatriisi => D l => n

Tulomomenttimatriisin testaus Olkoot järjestelmän kertaluku n ja u pe vähintään n+1 Määr. U(l): y( l) y( l+ 1) U( l) = M y( N) O y( N y(1) y(2) M l+ 1) u( l+ 1) u( N) u(1) u(2) M u( N l+ 1) Hae suurin l = l* jolla U(l) vielä täyttä (rivi)rangia => n=l* hae suurin l=l* jolla U(l) T U(l) (tulomomenttimatriisi) täyttä rangia => n=l* Käytännössä: 1) Tee koe sopivalla herätteellä 2) Etsi l* eli n u( l) M O