Käänteiset tehtävät. Johdanto. Esimerkki - silmälasien tarpeellisuus. T. Tiihonen, JY

Samankaltaiset tiedostot
Mallien avulla yritetään kuvata syy-seuraussuhteita. Perusmallituksessa (tunnetut) syyt selittävät mallitettavia seurauksia

Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio:

3.2.2 Tikhonovin regularisaatio

Sekalaiset tehtävät, 11. syyskuuta 2005, sivu 1 / 13. Tehtäviä

Likimääräisratkaisut ja regularisaatio

3 = Lisäksi z(4, 9) = = 21, joten kysytty lineaarinen approksimaatio on. L(x,y) =

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Tenttiin valmentavia harjoituksia

Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II

Täydellisyysaksiooman kertaus

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on

Matematiikan tukikurssi, kurssikerta 2

Luento 15: Ääniaallot, osa 2

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Oletetaan ensin, että tangenttitaso on olemassa. Nyt pinnalla S on koordinaattiesitys ψ, jolle pätee että kaikilla x V U

Johdatusta moniskaalamallinnukseen. malleissa on usein pieniä/suuria parametreja. rajaprosessi voi johtaa laadullisesti erilaiseen rajayhtälöön

y = 3x2 y 2 + sin(2x). x = ex y + e y2 y = ex y + 2xye y2

MS-C1340 Lineaarialgebra ja

Malliratkaisut Demot

Häiriöteoriaa ja herkkyysanalyysiä. malleissa on usein pieniä/suuria parametreja. miten yksinkertaistetaan mallia kun parametri menee rajalle

MS-A010{3,4,5} (ELEC*, ENG*) Differentiaali- ja integraalilaskenta 1 Luento 11: Lineaarinen differentiaaliyhtälö

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

pitkittäisaineistoissa

Kuva 1: Funktion f tasa-arvokäyriä. Ratkaisu. Suurin kasvunopeus on gradientin suuntaan. 6x 0,2

Kuva 1: Yksinkertainen siniaalto. Amplitudi kertoo heilahduksen laajuuden ja aallonpituus

Cantorin joukon suoristuvuus tasossa

{ 2v + 2h + m = 8 v + 3h + m = 7,5 2v + 3m = 7, mistä laskemmalla yhtälöt puolittain yhteen saadaan 5v + 5h + 5m = 22,5 v +

Matematiikan peruskurssi 2

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

Harjoitus 9: Excel - Tilastollinen analyysi

Dynaamisten systeemien identifiointi 1/2

Normaaliryhmä. Toisen kertaluvun normaaliryhmä on yleistä muotoa

3.6 Su-estimaattorien asymptotiikka

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33

5.6 Yhdistetty kuvaus

12. Hessen matriisi. Ääriarvoteoriaa

1 Kannat ja kannanvaihto

MATP153 Approbatur 1B Ohjaus 2 Keskiviikko torstai

TRIGONOMETRISTEN FUNKTIOIDEN KUVAAJAT

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

Kvanttifysiikan perusteet 2017

MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

Pienimmän Neliösumman menetelmä (PNS)

MATEMATIIKAN JA TILASTOTIETEEN LAITOS Analyysi I Harjoitus alkavalle viikolle Ratkaisuehdoituksia Rami Luisto Sivuja: 5

Konvergenssilauseita

2 Funktion derivaatta

Epäyhtälöt 1/7 Sisältö ESITIEDOT: yhtälöt

1 Komparatiivinen statiikka ja implisiittifunktiolause

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Matemaattinen Analyysi

Matematiikan tukikurssi

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

pitkittäisaineistoissa

1 Rajoittamaton optimointi

802320A LINEAARIALGEBRA OSA II

Dynaamiset regressiomallit

Malliratkaisut Demot

1. Tilastollinen malli??

Spektri- ja signaalianalysaattorit

Harjoitus 7: NCSS - Tilastollinen analyysi

saadaan kvanttorien järjestystä vaihtamalla ehto Tarkoittaako tämä ehto mitään järkevää ja jos, niin mitä?

1 Sisätulo- ja normiavaruudet

Kurssikoe on maanantaina Muista ilmoittautua kokeeseen viimeistään 10 päivää ennen koetta! Ilmoittautumisohjeet löytyvät kurssin kotisivuilla.

Matematiikan johdantokurssi, syksy 2016 Harjoitus 11, ratkaisuista

1 Lineaariavaruus eli Vektoriavaruus

Lyhyt yhteenvetokertaus nodaalimallista SÄTEILYTURVAKESKUS STRÅLSÄKERHETSCENTRALEN RADIATION AND NUCLEAR SAFETY AUTHORITY

Johdatus matemaattiseen päättelyyn

b 1. b m ) + ( 2b Ax) + (b b)

Osa IX. Z muunnos. Johdanto Diskreetit funktiot

10. Toisen kertaluvun lineaariset differentiaaliyhtälöt

Tehtävä 1. Oletetaan että uv on neliö ja (u, v) = 1. Osoita, että kumpikin luvuista u ja v on. p 2j i. p j i

1 Kertaus. Lineaarinen optimointitehtävä on muotoa:

Pienimmän neliösumman menetelmä

Luento 2. Jaksolliset signaalit

Kolmannen ja neljännen asteen yhtälöistä

MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ

Matematiikan tukikurssi

Lineaarikuvauksen R n R m matriisi

802320A LINEAARIALGEBRA OSA I

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

17. Differentiaaliyhtälösysteemien laadullista teoriaa.

Johdatus reaalifunktioihin P, 5op

7. Tasaisen rajoituksen periaate

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45

Matematiikan tukikurssi

2.1. Tehtävänä on osoittaa induktiolla, että kaikille n N pätee n = 1 n(n + 1). (1)

Matematiikan tukikurssi

2. kierros. 2. Lähipäivä

(a) avoin, yhtenäinen, rajoitettu, alue.

0 kun x < 0, 1/3 kun 0 x < 1/4, 7/11 kun 1/4 x < 6/7, 1 kun x 1, 1 kun x 6/7,

Injektio (1/3) Funktio f on injektio, joss. f (x 1 ) = f (x 2 ) x 1 = x 2 x 1, x 2 D(f )

MATEMATIIKKA. Matematiikkaa pintakäsittelijöille. Ongelmanratkaisu. Isto Jokinen 2017

Pienimmän neliösumman menetelmä (PNS)

1.5 Suljetulla välillä jatkuva funktio. Perusominaisuudet.

Pienimmän neliösumman menetelmä (PNS)

MS-A0003/A0005 Matriisilaskenta Malliratkaisut 5 / vko 48

Differentiaali- ja integraalilaskenta 2 (CHEM) MS-A0207 Hakula/Vuojamo Kurssitentti, 12.2, 2018, arvosteluperusteet

a(t) = v (t) = 3 2 t a(t) = 3 2 t < t 1 2 < 69 t 1 2 < 46 t < 46 2 = 2116 a(t) = v (t) = 50

Transkriptio:

Käänteiset tehtävät T. Tiihonen, JY Johdanto Hyvin yleisellä tasolla malli voidaan abstrahoida kuvaukseksi, joka annetuille syöttötiedoille määrittää mallin tuloksen tai ratkaisun. Tämän kurssin kontekstissa tämä on tarkoittanut käytännössä, että malli on ollut dierentiaalitai osittaisdierentiaaliyhtälö, jonka alku- tai reunaehdot sekä kertoimet ja kerroinfunktiot oletetaan tunnetuiksi (eli syötteeksi). Tulos puolestaan on yhtälön ratkaisu tai siitä johdettava suure. Käytännön mallinnustilanteissa mikään ei takaa, että asiat olisivat näin selkeitä. Eri tilanteissa samastakin ilmiöstä saatetaan tuntea eri asioita tai halutaan tietää eri asioita. Se, mitä tunnetaan ja mitä halutaan selvittää mallin avulla, määrää mallinnustehtävän luonteen ja perusominaisuudet. Haastavimpia tehtäviä ovat ns. käänteiset tehtävät (vastakohtana ns. suorille tehtäville). Näille on ominaista, että kysymyksenasettelussa syy-seuraussuhteet poikkeavat todellisen ilmiön syy-seuraussuhteista. Toisin sanoen, haluamme mallin avulla selittää syitä havaittujen seurausten pohjalta. Selkeimmin tämä näkyy ajastariippuvissa ilmiöissä. Tulevaisuuden selittäminen nykytilan (ja historian) avulla on helpompaa kuin menneen selittäminen nykytilan perusteella. Poikkeuksen tästä tekevät ns. reversiibelit ilmiöt (häviöttömät, täydelliset systeemit, jotka ovat ajan suhteen symmetrisiä, esimerkkinä vaimentumaton värähtely). Esimerkki - silmälasien tarpeellisuus Johdantona käänteisiin tehtäviin tarkastellaan aluksi kysymystä, miksi silmälasit on pitänyt keksiä. Näkeminen perustuu viimekädessä siihen, miten aivot käsittelevät ja tulkitsevat silmän verkkokalvolla havaittua valoa (verkkosilmäiset ovat oma lukunsa). Silmän mykiön polttoväli ja silmän koko eivät aina sovi yhteen, jolloin verkkokalvolla näkyy epäterävä kuva. Miksi aivot eivät osaa päätellä sen avulla 'alkuperäistä' kuvaa? Yksinkertaistettuna tilannetta voidaan kuvata seuraavasti: olkoon f i : R R alkuperäinen 'näkymä' (tarkastellaan yksiulotteista ja mustavalkoista alkukuvaa, jossa f i kuvaa valon intensiteettiä). Linssi (silmä) muodostaa tästä kuvan f o : R R. Jos linssin polttoväli ja etäisyydet eivät ole kohdallaan, muodostunut kuva ei ole terävä vaan yksi piste kuvautuu isommaksi alueeksi kuvapuolella. Yksinkertaisuuden vuoksi skaalaamme alkukuvan ja

kuvan saman kokoisiksi ja saman suuntaisiksi. Tällöin voimme kirjoittaa f o (x) = 1 2ɛ x+ɛ f i (y)dy missä ɛ kuvaa epäterävyyttä. (Yksittäinen piste kuvautuu 2ɛ mittaiseksi väliksi - oikeassa kaksiulotteisessa tapauksessa kyse olisi ɛ-säteisestä kiekosta). Yritetään nyt tulkita näköhavaintoa käänteisesti eli päätellä syntyneestä kuvasta f 0 alkuperäinen kuva f i. Todellinen kausaalisuhde on ilmeinen: näkymä synnyttää kuvan eikä päinvastoin. Merkitään s:llä kuvausta f 0 = s(f i ). Jotta f o :sta voisi päätellä f i :n, tulisi määrätä käänteiskuvaus s 1. Millä oletuksin tämä on mahdollista ja ellei se ole mahdollista, mitä on tehtävissä. On helppo todeta, että yleistä käänteiskuvausta ei ole. Nimittäin oletetaan, että f i on periodinen, periodilla 2ɛ. Tällöin jokaisessa pisteessä x, kuva f o (x) = x+ɛ f i (y) on f i :n keskiarvo periodin yli. Toisin sanoen f o on vakio eikä siitä voi päätellä onko itse näkymä vakio vai onko siinä periodista vaihtelua ja jos niin kuinka paljon. Tarkastellaan tilannetta hieman yleisemmin. Oletetaan, että f i on muotoa f i (x) = cos λx. Tällöin f o (x) = 1 2ɛ x+ɛ cos λy = 1 (sin(λ(x + ɛ)) sin(λ(x ɛ))) 2 = 1 sin cos λx Toisin sanoen kosini-aallon kuva säilyttää tässä tapauksessa sekä vaiheensa sin että taajuutensa, mutta vaimenee tekijän verrran. erityisesti, jos = π 2 signaali häviää täysin ja tätä (vähän) suuremmilla λ:n arvoilla muuttuu vastakkaismerkkiseksi. Luonnollisesti, jos λ pidetään vakiona ja kasvatetaan epätarkkuutta ɛ käy vastaavasti - kuva heikkenee, häviää ja muuttuu varjokuvakseen. Alkuperäisen kuvan rekonstruointi merkitsisi sitä, että kaikille taajuuksille λ voisimme jakaa signaalin amplitudin :lla. Tämä ei luonnollisestikaan sin onnistu. Osittainen rekonstruktio on kuitenkin mahdollista, jos korvaamme taajuusriippuvuuden jollakin aidosti positiivisella (ja siten kääntyvällä) approksimaatiolla. Korkeille taajuuksille tällainen approksimaatio on selkeästi väärä, joten niitä ei voida luotettavasti rekonstruoida. Matalien taajuuksien osalta on kuitenkin mahdollista päästä havaittua kuvaa parempaan tarkkuuteen.

Ennenkuin menemme eteenpäin, yleistämme edellistä lähestymistapaa. Syötteen ja tuloksen jako taajuskomponentteihin ja tähän pohjautuva analyysi soveltuu tapauksiin, joissa systeemi on lineaarinen sekä aika- tai siirtoinvariantti. Tällöin analyysi voidaan siirtää ns. taajuustasoon tekemällä Fourier-muunnos (josta kosinimuunnos on erikoistapaus) syötteelle ja tulokselle. Nämä johtavat relaatioon F o = SF i, missä F i ja F o ovat syötteen ja tuloksen Fouriermuunnokset ja S systeemin ns. siirtofunktio. Käännetty tehtävä tarkoittaa nyt approksimaation löytämistä tai määrittelemistä S 1 :lle. Yleensä sovelluksissa S tunnetaan vain osittain (ja määrätään kokeellisesti). Samoin f o on mitattu havainto ja siten epätarkka. Tämän takia S 1 :n (approksimaation) tulisi pysyä rajoitettuna, jotta havaintovirheet eivät näkyisi liikaa. Toisaalta S 1 tulee konstruoida niin, että sitä vastaavaa kuvausta on helppo soveltaa havaintoon. Aina ei ole mahdollista eikä tarkoituksenmukaista analysoida mallia taajuuskomponenteittain (esimerkiksi epälineaariset tai vaihtuvakertoimiset systeemit). Miten voimme lähestyä käänteisongelmaa näissä tapauksissa. Hyvin yleisesti sovellettu tekniikka on pienimmän neliösumman menetelmä (output least squares). Esimerkkimme kontekstissa se tarkoittaa, että etsimme syötettä f i, jolle s(f i ) on mahdollisimman lähellä havaintoa f o. Toisin sanoen, erotuksen neliö, (s(f i ) f o ) 2, on mahdollisimman pieni. Tässä muodossa tehtävä on huonosti asetettu, koska taajuudet, joilla sin 0 eivät vaikuta kustannukseen ja siten niiden osuutta f i :ssä ei voi kontrolloida. Toisaalta, jos f o :ssa on esimerkiksi mittausvirhe taajuudella, jolle sin 0, se generoi suuren häiriön f i :hin. Näitä häiriöitä voi vaimentaa suosimalla 'pieniä' syötteitä f i. Tämä voidaan toteuttaa valitsemalla kustannusfunktio, jossa on mukana sopiva f i :n normi. Yksinkertaisuuden vuoksi valitaan nyt minimoitavaksi suureeksi J(f i ) = (s(f i ) f o ) 2 + α(fx) i 2, missä α on (pieni) säännöllistämisparametri, joka kontrolloi valittua lisätermiä. Lisätermiksi valittiin f i :n ensimmäisten derivaattojen normi, koska tällä on se toivottu ominaisuus, että kun taajuus kasvaa, myös lisätermi kasvaa ja siten rajoittaa korkeita taajuuksia ratkaisussa. Matalilla taajuuksilla vaikutus puolestaan on pieni. Analysoidaan nyt lisätermillä modioitua tehtävää. Energian optimaalisuusehto on muotoa (s(f i ) f o )s(v) + αfxv i x = 0 v

tai osittaisintegroimalla ja muokkaamalla integrointien järjestystä (s(s(f( i )) αfxx)v i = s(f o )v. Ratkaisun analysoimiseksi siirrytään jälleen taajuustasoon ja tarkastellaan taajuutta eli oletetaan, että f i on muotoa a cos. Tällöin joten ja s(f i ) = sin a cos, s(s(f i )) = sin2 a cos () 2 αf i xx = α() 2 a cos. Toisin sanoen optimaalisuusehdon vasen puoli on oleellisesti muotoa sin 2 + α() 4 a cos. () 2 Jos oletetaan, että oikea signaali oli cos ja että f o on virheettömästi havaittu, saamme f o sin = cos ja s(f o ) = sin2 cos. Yhdistämällä edelliset, () 2 saamme lausekkeen f i :lle, f i = a cos, missä a = sin 2 sin 2 + α() 4. Toisin sanoen, pienille a 1 eli alkuperäinen näkymä palautuu lähes täydellisesti. Kun taajuus kasvaa, a pienenee, joten korkeita taajuuksia (sen enempää oikeita kuin vääriäkään) ei käytännössä näy. Sama pätee myös, jos havaintoon f o lisätään virheitä. Huonosti asetetut tehtävät Käänteisongelmat ovat yleensä huonosti asetettuja (ill posed). Mitä tämä merkitsee ja mitä siitä seuraa. Sanomme, että tehtävä on hyvin asetettu, jos sillä on kaikille lähtötiedoille olemassa yksikäsitteinen ratkaisu, joka riippuu jatkuvasti lähtötiedoista. Ellei näin ole, tehtävä on (ainakin jossakin mielessä) huonosti asetettu. Perinteisille dierentiaali- ja osittaisdierentiaaliyhtälöille kysymys tehtävän hyvästä muotoilusta on pitkälti kysymys oikeiden funktioavaruuksien

ja normien löytämisestä lähtötiedoille ja ratkaisuille. Mitä vahvemmat oletukset tehdään lähtötiedoista, sitä varmemmin ratkaisu on yksikäsitteinen ja riippuu jatkuvasti datasta. Vastaavasti, mitä vähemmän oletetaan ratkaisulta, sitä helpommin sellainen on olemassa. Käänteisille tehtäville on tyypillistä, että 'alkutiedot' ovat yleensä havaintoja todellisen systeemin tuloksista ja sellaisina paitsi epätarkkoja, myös yleensä pelkästään pisteittäin määriteltyjä. Näin ollen niiltä ei voi odottaa vahvaa säännöllisyyttä. Käännetty systeemi on yleensä jatkuvan systeemin käänteiskuvaus (jos sellainen yleensä on olemassa). Helposti havaitaan, että mitä vahvempi arvio voidaan esittää alkuperäisen kuvauksen jatkuvuudelle, sitä vahvemmin käänteiskuvaus kasvattaa datassa olevia eroja. Pieni ero havainnossa edellyttää selittyäkseen suurta eroa syötteessä. Käänteiskuvaus ei siis yleensä ole jatkuva tehtävän kannalta luonnollisissa normeissa. Kysymys siitä, milloin käänteiskuvaus ylipäätään on olemassa, liittyy havaittavuuteen, eli kysymykseen siitä, miten paljon ja millaista tietoa systeemistä on saatava, jotta haluttu suure voidaan edes periaatteessa määrittää - milloin riittää havainto yhdellä ajanhetkellä. Tarvitaanko havainto koko systeemistä tai sen osasta vai riittääkö esimerkiksi havainnoida vain systeemin reunaa. Mitä on havaittava, suureita, niiden derivaattoja, jne. Jotta huonosti asetettuja tehtäviä ylipäätään olisi mahdollista pyrkiä ratkaisemaan mielekkäästi, tarvitaan jotakin informaatiota itse tehtävänasettelun lisäksi. Tätä tietoa sanotaa a priori tiedoksi. Kyse voi olle tiedosta tai oletuksesta. Yleensä tieto koskee yhtäältä havainnon tarkkuutta (esimerkiksi havaintovirheen tasoa ja jakaumaa) ja toisaalta itse käänteistehtävän ratkaisun laadullisia ominaisuuksia. Edellisessä esimerkissä mm. teimme epäsuorasti oletuksen, että alkuperäisessä kuvassa ei esiinny korkeita taajuuksia, jolloin niiden ratkaiseminen ei ollut tarpeen. A priori tietoa käytetään käänteistehtävän regularisointiin (tai kääntäen, tehtävän regularisointi merkitsee asiallisesti oletusten tekoa tehtävän datasta ja ratkaisusta). Yhteenvetona: ennen kuin yrität ratkaista käänteisongelmaa, tulee selvittää, onko käytettävissä riittävästi dataa tehtävän ratkaisemiseen periaatteessa. Jos näin on, seuraavaksi on selvitettävä tai tehtävä oletus siitä, millainen on ratkaisun luonne ja havaintojen laatu. Vasta tämän jälkeen on mahdollista muotoilla käänteistehtävälle rationaalinen approksimaatio.