Käänteiset tehtävät Mallien avulla yritetään kuvata syy-seuraussuhteita Perusmallituksessa (tunnetut) syyt selittävät mallitettavia seurauksia Useissa käytännön tilanteissa seuraukset tunnetaan tai havaitaan ja syyt tulee määrätä mallin avulla Näillä käänteisillä tehtävillä on omat erityispiirteensä 0
Esimerkki - silmälasit Miksi silmälasit on pitänyt keksiä? Näköhavainto syntyy, kun aivot tulkitsevat silmän verkkokalvolle syntyvää kuvaa. Miksi aivot eivät osaa tulkita epäterävää kuvaa. Analysoidaan tilannetta yksinkertaistettuna: Alkuperäinen näkymä f i : R R muodostaa silmän välityksellä kuvan f o. Epäterävässä kuvassa yksi piste kuvautuu väliksi. f o (x) = 1 2ɛ Tässä ɛ mittaa epäterävyyttä. x+ɛ x ɛ f i (y) dy 1
Näköhavainnon kääntäminen Tulkitaan näköhavaintoa käänteisesti eli päätellään kuvasta f o alkuperäinen näkymä f i. Jos f o = s(f i ), on konstruoitava käänteiskuvaus s 1 mikäli tämä on mahdollista. Yleistä käänteiskuvausta ei ole: kaikki 2ɛ periodiset näkymät kuvautuvat vakiofunktioiksi. Ts. f i :n periodista vaihtelua ei voi päätellä kuvan f o avulla. 2
Näköhavainnon kääntäminen II Tarkastellaan tilannetta hieman yleisemmin. Oletetaan, että f i on muotoa f i (x) = cos λx. Tällöin f o (x) = 1 2ɛ x+ɛ x ɛ cos λy = 1 (sin(λ(x + ɛ)) sin(λ(x ɛ))) 2λɛ = 1 λɛ sin λɛ cos λx sin λɛ Kosiniaalto vaimenee tekijän λɛ verran. Jos λɛ = π 2 + nπ signaali häviää täysin. Osalla taajuuksista merkki vaihtuu. 3
Näköhavainnon kääntäminen III Näkymän rekonstruointi edellyttää että taajuuskomponentti cos λx jaetaan sin λɛ λɛ :lla. Tämä onnistuu vain matalille taajuuksille. Korkeiden taajuuksien rekonstruointi ei ole mahdollista. Yleisemmin: signaali muunnetaan taajuustasoon Fourier muunnoksella. Systeemin malliksi saadaan F o = SF i, missä S on ns. siirtofunktio. Käänteisongelma tarkoittaa S 1 :n määräämistä. Tähän liittyy kolme vaikeutta: S tunnetaan vain osittain/kokeellisesti, havainto F o on epätarkka ja S ei ole kääntyvä. Tarvitaan kuvaus, joka approksimoi S 1 :tä mutta ei vahvista datan virheitä. 4
PNS-menetelmä Yleisesti käytetty tapa käänteisongelmiin on pienimmän neliösumman menetelmä (output least squares). Etsitään se syöte, jonka aiheuttama vaste minimoi etäisyyden havaintoon. Näköesimerkille etsitään f, jolle (s(f) f o ) 2 minimoituu. Menetelmä on huonosti asetettu. f voi sisältää mielivaltaisesti taajuuksia, joille s = 0. Toisaalta pieni virhe f o :ssa kriittisellä taajuudella voi aiheuttaa ison virheen f:ssä. 5
PNS-menetelmä ja säännöllistäminen PNS-menetelmää voi säännöllistää suosimalla syötteitä, jotka ovat pieniä, lisäämällä kustannusfunktioon syötteen sopivan normin. Esimerkiksi J α (f) = (s(f) f o ) 2 + αf 2 x Tässä α on säännöllistämisparametri. Valittu lisätermi rajoittaa korkeita taajuuksia ratkaisussa. Ratkaisun f i optimaalisuusehto on (s(f i ) f o )s(v) + αf i xv x = 0 v 6
PNS-menetelmä ja säännöllistäminen II Osittaisintegroimalla ja muokkaamalla integrointien järjestystä (s(s(f( i )) αf i xx)v = Olkoon f i on muotoa a cos λɛ. Tällöin s(f o )v. s(f i sin λɛ ) = a cos λɛ, λɛ s(s(f i )) = sin2 λɛ a cos λɛ, (λɛ) 2 αf i xx = α(λɛ) 2 a cos λɛ. Optimaalisuusehdon vasen puoli on oleellisesti muotoa sin 2 λɛ + α(λɛ) 4 (λɛ) 2 a cos λɛ. Jos oikea signaali cos λɛ ja virheettömästi havaittu, saamme f o = sin λɛ λɛ cos λɛ ja s(f o ) = sin2 λɛ (λɛ) 2 cos λɛ. Yhdistämällä 7
edelliset, saamme lausekkeen f i :lle, f i = a cos λɛ, missä a = sin 2 λɛ sin 2 λɛ + α(λɛ) 4. Toisin sanoen, pienille λɛ a 1 eli alkuperäinen näkymä palautuu lähes täydellisesti. Kun taajuus kasvaa, a pienenee, joten korkeita taajuuksia ei käytännössä näy. 8
Huonosti asetetut tehtävät Tehtävä on hyvin asetettu, jos kaikille lähtötiedoille on olemassa yksikäsitteinen ratkaisu, joka riippuu jatkuvasti lähtötiedoista. Muulloin tehtävä on huonosti asetettu. Hyvin asetetulle tehtävälle data ja ratkaisu on määritelty oikein. Vahvat oletukset datasta tuovat yksikäsitteisyyttä ja jatkuvaa riippuvuutta. Heikot vaatimukset ratkaisulle takaavat olemassa olon. 9
Huonosti asetetut tehtävät II Käänteisille tehtäville data on yleensä havaintoja todellisuudesta (epätarkkoja ja pisteittäin määriteltyjä), joille ei voi tehdä vahvoja oletuksia. Vastaavasti ratkaisun oletetaan yleensä olevan siisti. Käänteisen tehtävän ratkaiseminen on riippuvainen havainnosta (saatavilla olevasta datasta). (Havaitaanko koko systeemi vai sen osa, havaitaanko suureita vai myös niiden derivaattoja, hetkellinen arvo vai historia). Lisäksi tarvitaan ennakkotietoa (a priori oletuksia) havaintojen tarkkuudesta ja ratkaisun laadullisista ominaisuuksista. 10
Parametrin identifiointi Miten määrätään mallin parametri (vakio tai funktio) havaintojen avulla. Tyypillinen esimerkki stationäärinen diffuusioyhtälö (au x ) x = f jossa a esim. lämmönjohtavuus tai permeabiliteetti, u lämpötila tai paine. Tunnetaan f, mitataan u ja tavoitteena on määrätä a. Muodollisesti (au x ) x = f, = au x = F, = a = F u x 11
Parametrin identifiointi II Jos u (ja u x ) tunnetaan, a on määrättävissä. Jos u x = 0, a on määrittelemätön. Havainnoitava tilanne on valittava oikein! Yleensä u x :n havainnointi ei onnistu suoraan. Havaitaan vain u äärellisessä määrässä pisteitä (havainto maksaa ja häiritsee havaittavaa ilmiötä). Siispä u x on epätarkka, johdettu suure. Suora lähestymistapa antaa epäluotettavan arvion a:lle. Menettely ei myöskään yleisty korkeampiin ulottuvuuksiin. 12
PNS-lähestymistapa Muotoillaan PNS-tehtävä: Etsi a, jolle tehtävän (au x ) x = f ratkaisu u a minimoi eron havaintoon ū J(a) = u a ū 2 Tässä riittää pelkkä havainto, ilman derivaattoja. Tehtävää on mahdollista säännöllistää: sopivalle R(a). J α (a) = J(a) + αr(a) 13
Säännöllistäminen PNS-tehtävän ominaisuuksiin voi vaikuttaa havainto- ja parametritermien valinnoilla (käytettävät normit ja niiden painot). Mitä luotettavammat havainnot, sitä vahvempaa normia/painoa voi soveltaa havaintotermiin. Vastaavasti, mitä enemmän tiedetään etukäteen parametrista sitä helpompi on muotoilla parametritermi. Esimerkiksi: parametria voi pyrkiä rajoittamaan lisätermillä R(a) = joka suosii pieniä arvoja. Jos tiedämme parametrin suuruusluokalle a priori arvauksen a, voimme vaihtaa termiksi R(a) = a 2 (a a ) 2 14
Säännöllistäminen II Jos parametrin oletetaan olevan sileä ja lähes vakio, voimme valita R(a) = a 2 x Edellä kaikki termit olivat neliöllisiä ja johtavat lineaarisiin optimaalisuusehtoihin. Usein tarvitaan myös epälineaarisia (ei-neliöllisiä) muotoiluja. Esimerkiksi R(a) = a x sallii nopeampia muutoksia (mutta ei epäjatkuvuutta). Toisaalta termi on epäsileä, jolloin ratkaisun etsiminen optimoimalla vaatii eritysimenetelmiä. 15
Säännöllistäminen III Numeeriset menetelmät säännöllistävät ratkaisua usein itsestään. Jos a:n esittämiseen numeerisesti on käytössä vähän parametreja, ratkaisu ei voi käyttäytyä kovin pahasti. Jos mittausdataa on äärellisesti, myöskään parametrin approksimoinnissa ei voi käyttää liikaa vapausasteita (tuntemattomia oltava vähemmän kuin dataa). Jos mittaaminen on epätarkkaa, liian monta mittauspistettä voi lisätä kohinaa (ja vaatia lisää silotusta). Käänteistehtäviä ei pidä yrittää ratkaista liian tarkasti. 16
PNS-tehtävän ratkaiseminen Kuvaus parametrilta havainnolle on epälineaarinen, joten parametri on ratkaistava iteratiivisesti. PNS kustannuksen minimointi edellyttää kustannuksen gradientin laskentaa. Olkoon J(a) = (u a ū) 2 + αa 2 x Nyt DJ(a; b) (J:n derivaatta a:ssa suuntaan b) on DJ(a; b) = 2(u a ū)u + αa x b x missä u on tilaratkaisun derivaatta a:n suhteen suuntaan b. Häiriöteorian avulla au xv x = bu a xv x v 17
PNS-tehtävän ratkaiseminen II Edelleen ottamalla käyttöön liittotila p, jolle ap x v x = 2(u a ū)v saamme DJ(a; b) = bu a xp x + αa x b x ja osittaisintegroimalla DJ(a; b) = b( u a x p x αa xx ) Kustannuksen gradientti on siis laskettavissa. Jos havainto tai sen normi muuttuu, muuttuu myös liittotila. 18
Muita käänteistehtäviä Edellä tarkasteltiin ajastariippumattomia systeemejä, joissa tilasta saatiin (periaatteessa) täysi havainto. Monissa käytännön tilanteissa kaikkea ei voi havaita. Käänteinen lämpöyhtälö: havaitaan silottavan ajasta riippuvan systeemin lopputila, tunnetaan reunaehdot ja parametrit. Määrättävä alkutila. Erittäin hankala tehtävä, joka vaatii paljon ennakkotietoa/säännöllistämistä. Reunahavainto: Voidaan havaita vain reunakäyttäytymistä, mitä voidaan päätellä? Ajasta riippumattomassa tapauksessa yleensä tehdään useita mittauksia vaihdellen dataa (esim tomografia). Mahdollista päätellä parametrien arvoja. Ajasta riippuvassa systeemissä reunahavainnosta voi yrittää päätellä myös alkuarvoja. 19
Yhteenvetoa Käänteistehtävät perustuvat aina äärelliseen määrään havaintoja, joten vain osittainen ratkaisu mahdollista. Puuttuva informaatio korvattava a priori oletuksilla. Peruskysymys: millaista vaihtelua tunnistettavassa arvossa on vaikea tai mahdoton havaita. Havainto on pyrittävä järjestämään niin että ei havaittava vaihtelu on mahdollisimman epätodennäköistä/epätyyppillistä ja voidaan rajoittaa pois a priori. PNS-tekniikalla on mahdollista tuottaa ratkeavia säännöllistettyjä approksimaatioita. Ratkaisun mielekkyys on kuitenkin aina arvioitava. 20