Mallien avulla yritetään kuvata syy-seuraussuhteita. Perusmallituksessa (tunnetut) syyt selittävät mallitettavia seurauksia

Samankaltaiset tiedostot
Käänteiset tehtävät. Johdanto. Esimerkki - silmälasien tarpeellisuus. T. Tiihonen, JY

Häiriöteoriaa ja herkkyysanalyysiä. malleissa on usein pieniä/suuria parametreja. miten yksinkertaistetaan mallia kun parametri menee rajalle

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Likimääräisratkaisut ja regularisaatio

Kuva 1: Funktion f tasa-arvokäyriä. Ratkaisu. Suurin kasvunopeus on gradientin suuntaan. 6x 0,2

Sekalaiset tehtävät, 11. syyskuuta 2005, sivu 1 / 13. Tehtäviä

Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio:

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

Inversio-ongelmien laskennallinen peruskurssi Luento 2

1 Rajoittamaton optimointi

Oletetaan, että funktio f on määritelty jollakin välillä ]x 0 δ, x 0 + δ[. Sen derivaatta pisteessä x 0 on

3 = Lisäksi z(4, 9) = = 21, joten kysytty lineaarinen approksimaatio on. L(x,y) =

MS-A010{3,4,5} (ELEC*, ENG*) Differentiaali- ja integraalilaskenta 1 Luento 11: Lineaarinen differentiaaliyhtälö

1 Komparatiivinen statiikka ja implisiittifunktiolause

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33

Johdatusta moniskaalamallinnukseen. malleissa on usein pieniä/suuria parametreja. rajaprosessi voi johtaa laadullisesti erilaiseen rajayhtälöön

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

y = 3x2 y 2 + sin(2x). x = ex y + e y2 y = ex y + 2xye y2

Numeeriset menetelmät

Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II

k=0 saanto jokaisen kolmannen asteen polynomin. Tukipisteet on talloin valittu

y x1 σ t 1 = c y x 1 σ t 1 = y x 2 σ t 2 y x 2 x 1 y = σ(t 2 t 1 ) x 2 x 1 y t 2 t 1

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018

Pienimmän Neliösumman Sovitus (PNS)

Dynaamiset regressiomallit

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

Matematiikan tukikurssi

x = ( θ θ ia y = ( ) x.

Johdatus reaalifunktioihin P, 5op

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Matemaattinen Analyysi

3.6 Su-estimaattorien asymptotiikka

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

3.2.2 Tikhonovin regularisaatio

MS-A0102 Differentiaali- ja integraalilaskenta 1

Vastepintamenetelmä. Kuusinen/Heliövaara 1

Pienimmän neliösumman menetelmä

Kvanttifysiikan perusteet, harjoitus 5

Dynaamiset regressiomallit

Ensimmäisen ja toisen kertaluvun differentiaaliyhtälöistä

17. Differentiaaliyhtälösysteemien laadullista teoriaa.

Matematiikan tukikurssi

Dynaamisten systeemien identifiointi 1/2

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

MS-A010{3,4} (ELEC*) Differentiaali- ja integraalilaskenta 1 Luento 4: Derivaatta

Havaitsevan tähtitieteen peruskurssi I. Datan käsittely. Jyri Lehtinen. kevät Helsingin yliopisto, Fysiikan laitos

Matematiikan peruskurssi 2

{ 2v + 2h + m = 8 v + 3h + m = 7,5 2v + 3m = 7, mistä laskemmalla yhtälöt puolittain yhteen saadaan 5v + 5h + 5m = 22,5 v +

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

Epäyhtälöt 1/7 Sisältö ESITIEDOT: yhtälöt

a(t) = v (t) = 3 2 t a(t) = 3 2 t < t 1 2 < 69 t 1 2 < 46 t < 46 2 = 2116 a(t) = v (t) = 50

3 Derivoituvan funktion ominaisuuksia

x + 1 πx + 2y = 6 2y = 6 x 1 2 πx y = x 1 4 πx Ikkunan pinta-ala on suorakulmion ja puoliympyrän pinta-alojen summa, eli

Sovellettu todennäköisyyslaskenta B

Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).

2. Viikko. CDH: luvut (s ). Matematiikka on fysiikan kieli ja differentiaaliyhtälöt sen yleisin murre.

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

Tenttiin valmentavia harjoituksia

BM20A0900, Matematiikka KoTiB3

6. Differentiaaliyhtälösysteemien laadullista teoriaa.

Spektri- ja signaalianalysaattorit

Lyhyt yhteenvetokertaus nodaalimallista SÄTEILYTURVAKESKUS STRÅLSÄKERHETSCENTRALEN RADIATION AND NUCLEAR SAFETY AUTHORITY

Osa IX. Z muunnos. Johdanto Diskreetit funktiot

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

3. kierros. 2. Lähipäivä

Numeeriset menetelmät

=p(x) + p(y), joten ehto (N1) on voimassa. Jos lisäksi λ on skalaari, niin

6. Toisen ja korkeamman kertaluvun lineaariset

Dierentiaaliyhtälöistä

a) on lokaali käänteisfunktio, b) ei ole. Piirrä näiden pisteiden ympäristöön asetetun neliöruudukon kuva. VASTAUS:

Numeeriset menetelmät TIEA381. Luento 7. Kirsi Valjus. Jyväskylän yliopisto. Luento 7 () Numeeriset menetelmät / 43

Harjoitus Etsi seuraavien autonomisten yhtälöiden kriittiset pisteet ja tutki niiden stabiliteettia:

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8

Sovellettu todennäköisyyslaskenta B

Injektio (1/3) Funktio f on injektio, joss. f (x 1 ) = f (x 2 ) x 1 = x 2 x 1, x 2 D(f )

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos

Numeeriset menetelmät TIEA381. Luento 4. Kirsi Valjus. Jyväskylän yliopisto. Luento 4 () Numeeriset menetelmät / 44

Normaaliryhmä. Toisen kertaluvun normaaliryhmä on yleistä muotoa

2. Fourier-sarjoista. Aaltoliikkeen ja lämmöjohtumisen matemaattinen tarkastelu

VEKTORIANALYYSIN HARJOITUKSET: VIIKKO 4

MS-A0104 Differentiaali- ja integraalilaskenta 1 (ELEC2) MS-A0106 Differentiaali- ja integraalilaskenta 1 (ENG2)

13. Ratkaisu. Kirjoitetaan tehtävän DY hieman eri muodossa: = 1 + y x + ( y ) 2 (y )

Missä mennään. systeemi. identifiointi. mallikandidaatti. validointi. malli. (fysikaalinen) mallintaminen. mallin mallin käyttötarkoitus, reunaehdot

805324A (805679S) Aikasarja-analyysi Harjoitus 5 (2016)

2 Funktion derivaatta

Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle /

(b) = x cos x 1 ( cos x)dx. = x cos x + cos xdx. = sin x x cos x + C, C R.

Matematiikan tukikurssi

Mat Dynaaminen optimointi, mallivastaukset, kierros Vaimennetun heilurin tilanyhtälöt on esitetty luennolla: θ = g sin θ r θ

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos

Sovellettu todennäköisyyslaskenta B

Derivaatat lasketaan komponenteittain, esimerkiksi E 1 E 2

Insinöörimatematiikka D

13. Taylorin polynomi; funktioiden approksimoinnista. Muodosta viidennen asteen Taylorin polynomi kehityskeskuksena origo funktiolle

FYSA2031 Potentiaalikuoppa

Numeeriset menetelmät

4. Ensimmäisen ja toisen kertaluvun differentiaaliyhtälöistä

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Transkriptio:

Käänteiset tehtävät Mallien avulla yritetään kuvata syy-seuraussuhteita Perusmallituksessa (tunnetut) syyt selittävät mallitettavia seurauksia Useissa käytännön tilanteissa seuraukset tunnetaan tai havaitaan ja syyt tulee määrätä mallin avulla Näillä käänteisillä tehtävillä on omat erityispiirteensä 0

Esimerkki - silmälasit Miksi silmälasit on pitänyt keksiä? Näköhavainto syntyy, kun aivot tulkitsevat silmän verkkokalvolle syntyvää kuvaa. Miksi aivot eivät osaa tulkita epäterävää kuvaa. Analysoidaan tilannetta yksinkertaistettuna: Alkuperäinen näkymä f i : R R muodostaa silmän välityksellä kuvan f o. Epäterävässä kuvassa yksi piste kuvautuu väliksi. f o (x) = 1 2ɛ Tässä ɛ mittaa epäterävyyttä. x+ɛ x ɛ f i (y) dy 1

Näköhavainnon kääntäminen Tulkitaan näköhavaintoa käänteisesti eli päätellään kuvasta f o alkuperäinen näkymä f i. Jos f o = s(f i ), on konstruoitava käänteiskuvaus s 1 mikäli tämä on mahdollista. Yleistä käänteiskuvausta ei ole: kaikki 2ɛ periodiset näkymät kuvautuvat vakiofunktioiksi. Ts. f i :n periodista vaihtelua ei voi päätellä kuvan f o avulla. 2

Näköhavainnon kääntäminen II Tarkastellaan tilannetta hieman yleisemmin. Oletetaan, että f i on muotoa f i (x) = cos λx. Tällöin f o (x) = 1 2ɛ x+ɛ x ɛ cos λy = 1 (sin(λ(x + ɛ)) sin(λ(x ɛ))) 2λɛ = 1 λɛ sin λɛ cos λx sin λɛ Kosiniaalto vaimenee tekijän λɛ verran. Jos λɛ = π 2 + nπ signaali häviää täysin. Osalla taajuuksista merkki vaihtuu. 3

Näköhavainnon kääntäminen III Näkymän rekonstruointi edellyttää että taajuuskomponentti cos λx jaetaan sin λɛ λɛ :lla. Tämä onnistuu vain matalille taajuuksille. Korkeiden taajuuksien rekonstruointi ei ole mahdollista. Yleisemmin: signaali muunnetaan taajuustasoon Fourier muunnoksella. Systeemin malliksi saadaan F o = SF i, missä S on ns. siirtofunktio. Käänteisongelma tarkoittaa S 1 :n määräämistä. Tähän liittyy kolme vaikeutta: S tunnetaan vain osittain/kokeellisesti, havainto F o on epätarkka ja S ei ole kääntyvä. Tarvitaan kuvaus, joka approksimoi S 1 :tä mutta ei vahvista datan virheitä. 4

PNS-menetelmä Yleisesti käytetty tapa käänteisongelmiin on pienimmän neliösumman menetelmä (output least squares). Etsitään se syöte, jonka aiheuttama vaste minimoi etäisyyden havaintoon. Näköesimerkille etsitään f, jolle (s(f) f o ) 2 minimoituu. Menetelmä on huonosti asetettu. f voi sisältää mielivaltaisesti taajuuksia, joille s = 0. Toisaalta pieni virhe f o :ssa kriittisellä taajuudella voi aiheuttaa ison virheen f:ssä. 5

PNS-menetelmä ja säännöllistäminen PNS-menetelmää voi säännöllistää suosimalla syötteitä, jotka ovat pieniä, lisäämällä kustannusfunktioon syötteen sopivan normin. Esimerkiksi J α (f) = (s(f) f o ) 2 + αf 2 x Tässä α on säännöllistämisparametri. Valittu lisätermi rajoittaa korkeita taajuuksia ratkaisussa. Ratkaisun f i optimaalisuusehto on (s(f i ) f o )s(v) + αf i xv x = 0 v 6

PNS-menetelmä ja säännöllistäminen II Osittaisintegroimalla ja muokkaamalla integrointien järjestystä (s(s(f( i )) αf i xx)v = Olkoon f i on muotoa a cos λɛ. Tällöin s(f o )v. s(f i sin λɛ ) = a cos λɛ, λɛ s(s(f i )) = sin2 λɛ a cos λɛ, (λɛ) 2 αf i xx = α(λɛ) 2 a cos λɛ. Optimaalisuusehdon vasen puoli on oleellisesti muotoa sin 2 λɛ + α(λɛ) 4 (λɛ) 2 a cos λɛ. Jos oikea signaali cos λɛ ja virheettömästi havaittu, saamme f o = sin λɛ λɛ cos λɛ ja s(f o ) = sin2 λɛ (λɛ) 2 cos λɛ. Yhdistämällä 7

edelliset, saamme lausekkeen f i :lle, f i = a cos λɛ, missä a = sin 2 λɛ sin 2 λɛ + α(λɛ) 4. Toisin sanoen, pienille λɛ a 1 eli alkuperäinen näkymä palautuu lähes täydellisesti. Kun taajuus kasvaa, a pienenee, joten korkeita taajuuksia ei käytännössä näy. 8

Huonosti asetetut tehtävät Tehtävä on hyvin asetettu, jos kaikille lähtötiedoille on olemassa yksikäsitteinen ratkaisu, joka riippuu jatkuvasti lähtötiedoista. Muulloin tehtävä on huonosti asetettu. Hyvin asetetulle tehtävälle data ja ratkaisu on määritelty oikein. Vahvat oletukset datasta tuovat yksikäsitteisyyttä ja jatkuvaa riippuvuutta. Heikot vaatimukset ratkaisulle takaavat olemassa olon. 9

Huonosti asetetut tehtävät II Käänteisille tehtäville data on yleensä havaintoja todellisuudesta (epätarkkoja ja pisteittäin määriteltyjä), joille ei voi tehdä vahvoja oletuksia. Vastaavasti ratkaisun oletetaan yleensä olevan siisti. Käänteisen tehtävän ratkaiseminen on riippuvainen havainnosta (saatavilla olevasta datasta). (Havaitaanko koko systeemi vai sen osa, havaitaanko suureita vai myös niiden derivaattoja, hetkellinen arvo vai historia). Lisäksi tarvitaan ennakkotietoa (a priori oletuksia) havaintojen tarkkuudesta ja ratkaisun laadullisista ominaisuuksista. 10

Parametrin identifiointi Miten määrätään mallin parametri (vakio tai funktio) havaintojen avulla. Tyypillinen esimerkki stationäärinen diffuusioyhtälö (au x ) x = f jossa a esim. lämmönjohtavuus tai permeabiliteetti, u lämpötila tai paine. Tunnetaan f, mitataan u ja tavoitteena on määrätä a. Muodollisesti (au x ) x = f, = au x = F, = a = F u x 11

Parametrin identifiointi II Jos u (ja u x ) tunnetaan, a on määrättävissä. Jos u x = 0, a on määrittelemätön. Havainnoitava tilanne on valittava oikein! Yleensä u x :n havainnointi ei onnistu suoraan. Havaitaan vain u äärellisessä määrässä pisteitä (havainto maksaa ja häiritsee havaittavaa ilmiötä). Siispä u x on epätarkka, johdettu suure. Suora lähestymistapa antaa epäluotettavan arvion a:lle. Menettely ei myöskään yleisty korkeampiin ulottuvuuksiin. 12

PNS-lähestymistapa Muotoillaan PNS-tehtävä: Etsi a, jolle tehtävän (au x ) x = f ratkaisu u a minimoi eron havaintoon ū J(a) = u a ū 2 Tässä riittää pelkkä havainto, ilman derivaattoja. Tehtävää on mahdollista säännöllistää: sopivalle R(a). J α (a) = J(a) + αr(a) 13

Säännöllistäminen PNS-tehtävän ominaisuuksiin voi vaikuttaa havainto- ja parametritermien valinnoilla (käytettävät normit ja niiden painot). Mitä luotettavammat havainnot, sitä vahvempaa normia/painoa voi soveltaa havaintotermiin. Vastaavasti, mitä enemmän tiedetään etukäteen parametrista sitä helpompi on muotoilla parametritermi. Esimerkiksi: parametria voi pyrkiä rajoittamaan lisätermillä R(a) = joka suosii pieniä arvoja. Jos tiedämme parametrin suuruusluokalle a priori arvauksen a, voimme vaihtaa termiksi R(a) = a 2 (a a ) 2 14

Säännöllistäminen II Jos parametrin oletetaan olevan sileä ja lähes vakio, voimme valita R(a) = a 2 x Edellä kaikki termit olivat neliöllisiä ja johtavat lineaarisiin optimaalisuusehtoihin. Usein tarvitaan myös epälineaarisia (ei-neliöllisiä) muotoiluja. Esimerkiksi R(a) = a x sallii nopeampia muutoksia (mutta ei epäjatkuvuutta). Toisaalta termi on epäsileä, jolloin ratkaisun etsiminen optimoimalla vaatii eritysimenetelmiä. 15

Säännöllistäminen III Numeeriset menetelmät säännöllistävät ratkaisua usein itsestään. Jos a:n esittämiseen numeerisesti on käytössä vähän parametreja, ratkaisu ei voi käyttäytyä kovin pahasti. Jos mittausdataa on äärellisesti, myöskään parametrin approksimoinnissa ei voi käyttää liikaa vapausasteita (tuntemattomia oltava vähemmän kuin dataa). Jos mittaaminen on epätarkkaa, liian monta mittauspistettä voi lisätä kohinaa (ja vaatia lisää silotusta). Käänteistehtäviä ei pidä yrittää ratkaista liian tarkasti. 16

PNS-tehtävän ratkaiseminen Kuvaus parametrilta havainnolle on epälineaarinen, joten parametri on ratkaistava iteratiivisesti. PNS kustannuksen minimointi edellyttää kustannuksen gradientin laskentaa. Olkoon J(a) = (u a ū) 2 + αa 2 x Nyt DJ(a; b) (J:n derivaatta a:ssa suuntaan b) on DJ(a; b) = 2(u a ū)u + αa x b x missä u on tilaratkaisun derivaatta a:n suhteen suuntaan b. Häiriöteorian avulla au xv x = bu a xv x v 17

PNS-tehtävän ratkaiseminen II Edelleen ottamalla käyttöön liittotila p, jolle ap x v x = 2(u a ū)v saamme DJ(a; b) = bu a xp x + αa x b x ja osittaisintegroimalla DJ(a; b) = b( u a x p x αa xx ) Kustannuksen gradientti on siis laskettavissa. Jos havainto tai sen normi muuttuu, muuttuu myös liittotila. 18

Muita käänteistehtäviä Edellä tarkasteltiin ajastariippumattomia systeemejä, joissa tilasta saatiin (periaatteessa) täysi havainto. Monissa käytännön tilanteissa kaikkea ei voi havaita. Käänteinen lämpöyhtälö: havaitaan silottavan ajasta riippuvan systeemin lopputila, tunnetaan reunaehdot ja parametrit. Määrättävä alkutila. Erittäin hankala tehtävä, joka vaatii paljon ennakkotietoa/säännöllistämistä. Reunahavainto: Voidaan havaita vain reunakäyttäytymistä, mitä voidaan päätellä? Ajasta riippumattomassa tapauksessa yleensä tehdään useita mittauksia vaihdellen dataa (esim tomografia). Mahdollista päätellä parametrien arvoja. Ajasta riippuvassa systeemissä reunahavainnosta voi yrittää päätellä myös alkuarvoja. 19

Yhteenvetoa Käänteistehtävät perustuvat aina äärelliseen määrään havaintoja, joten vain osittainen ratkaisu mahdollista. Puuttuva informaatio korvattava a priori oletuksilla. Peruskysymys: millaista vaihtelua tunnistettavassa arvossa on vaikea tai mahdoton havaita. Havainto on pyrittävä järjestämään niin että ei havaittava vaihtelu on mahdollisimman epätodennäköistä/epätyyppillistä ja voidaan rajoittaa pois a priori. PNS-tekniikalla on mahdollista tuottaa ratkeavia säännöllistettyjä approksimaatioita. Ratkaisun mielekkyys on kuitenkin aina arvioitava. 20