Käänteiset tehtävät T. Tiihonen, JY Johdanto Hyvin yleisellä tasolla malli voidaan abstrahoida kuvaukseksi, joka annetuille syöttötiedoille määrittää mallin tuloksen tai ratkaisun. Tämän kurssin kontekstissa tämä on tarkoittanut käytännössä, että malli on ollut dierentiaalitai osittaisdierentiaaliyhtälö, jonka alku- tai reunaehdot sekä kertoimet ja kerroinfunktiot oletetaan tunnetuiksi (eli syötteeksi). Tulos puolestaan on yhtälön ratkaisu tai siitä johdettava suure. Käytännön mallinnustilanteissa mikään ei takaa, että asiat olisivat näin selkeitä. Eri tilanteissa samastakin ilmiöstä saatetaan tuntea eri asioita tai halutaan tietää eri asioita. Se, mitä tunnetaan ja mitä halutaan selvittää mallin avulla, määrää mallinnustehtävän luonteen ja perusominaisuudet. Haastavimpia tehtäviä ovat ns. käänteiset tehtävät (vastakohtana ns. suorille tehtäville). Näille on ominaista, että kysymyksenasettelussa syy-seuraussuhteet poikkeavat todellisen ilmiön syy-seuraussuhteista. Toisin sanoen, haluamme mallin avulla selittää syitä havaittujen seurausten pohjalta. Selkeimmin tämä näkyy ajastariippuvissa ilmiöissä. Tulevaisuuden selittäminen nykytilan (ja historian) avulla on helpompaa kuin menneen selittäminen nykytilan perusteella. Poikkeuksen tästä tekevät ns. reversiibelit ilmiöt (häviöttömät, täydelliset systeemit, jotka ovat ajan suhteen symmetrisiä, esimerkkinä vaimentumaton värähtely). Esimerkki - silmälasien tarpeellisuus Johdantona käänteisiin tehtäviin tarkastellaan aluksi kysymystä, miksi silmälasit on pitänyt keksiä. Näkeminen perustuu viimekädessä siihen, miten aivot käsittelevät ja tulkitsevat silmän verkkokalvolla havaittua valoa (verkkosilmäiset ovat oma lukunsa). Silmän mykiön polttoväli ja silmän koko eivät aina sovi yhteen, jolloin verkkokalvolla näkyy epäterävä kuva. Miksi aivot eivät osaa päätellä sen avulla 'alkuperäistä' kuvaa? Yksinkertaistettuna tilannetta voidaan kuvata seuraavasti: olkoon f i : R R alkuperäinen 'näkymä' (tarkastellaan yksiulotteista ja mustavalkoista alkukuvaa, jossa f i kuvaa valon intensiteettiä). Linssi (silmä) muodostaa tästä kuvan f o : R R. Jos linssin polttoväli ja etäisyydet eivät ole kohdallaan, muodostunut kuva ei ole terävä vaan yksi piste kuvautuu isommaksi alueeksi kuvapuolella. Yksinkertaisuuden vuoksi skaalaamme alkukuvan ja
kuvan saman kokoisiksi ja saman suuntaisiksi. Tällöin voimme kirjoittaa f o (x) = 1 2ɛ x+ɛ f i (y)dy missä ɛ kuvaa epäterävyyttä. (Yksittäinen piste kuvautuu 2ɛ mittaiseksi väliksi - oikeassa kaksiulotteisessa tapauksessa kyse olisi ɛ-säteisestä kiekosta). Yritetään nyt tulkita näköhavaintoa käänteisesti eli päätellä syntyneestä kuvasta f 0 alkuperäinen kuva f i. Todellinen kausaalisuhde on ilmeinen: näkymä synnyttää kuvan eikä päinvastoin. Merkitään s:llä kuvausta f 0 = s(f i ). Jotta f o :sta voisi päätellä f i :n, tulisi määrätä käänteiskuvaus s 1. Millä oletuksin tämä on mahdollista ja ellei se ole mahdollista, mitä on tehtävissä. On helppo todeta, että yleistä käänteiskuvausta ei ole. Nimittäin oletetaan, että f i on periodinen, periodilla 2ɛ. Tällöin jokaisessa pisteessä x, kuva f o (x) = x+ɛ f i (y) on f i :n keskiarvo periodin yli. Toisin sanoen f o on vakio eikä siitä voi päätellä onko itse näkymä vakio vai onko siinä periodista vaihtelua ja jos niin kuinka paljon. Tarkastellaan tilannetta hieman yleisemmin. Oletetaan, että f i on muotoa f i (x) = cos λx. Tällöin f o (x) = 1 2ɛ x+ɛ cos λy = 1 (sin(λ(x + ɛ)) sin(λ(x ɛ))) 2 = 1 sin cos λx Toisin sanoen kosini-aallon kuva säilyttää tässä tapauksessa sekä vaiheensa sin että taajuutensa, mutta vaimenee tekijän verrran. erityisesti, jos = π 2 signaali häviää täysin ja tätä (vähän) suuremmilla λ:n arvoilla muuttuu vastakkaismerkkiseksi. Luonnollisesti, jos λ pidetään vakiona ja kasvatetaan epätarkkuutta ɛ käy vastaavasti - kuva heikkenee, häviää ja muuttuu varjokuvakseen. Alkuperäisen kuvan rekonstruointi merkitsisi sitä, että kaikille taajuuksille λ voisimme jakaa signaalin amplitudin :lla. Tämä ei luonnollisestikaan sin onnistu. Osittainen rekonstruktio on kuitenkin mahdollista, jos korvaamme taajuusriippuvuuden jollakin aidosti positiivisella (ja siten kääntyvällä) approksimaatiolla. Korkeille taajuuksille tällainen approksimaatio on selkeästi väärä, joten niitä ei voida luotettavasti rekonstruoida. Matalien taajuuksien osalta on kuitenkin mahdollista päästä havaittua kuvaa parempaan tarkkuuteen.
Ennenkuin menemme eteenpäin, yleistämme edellistä lähestymistapaa. Syötteen ja tuloksen jako taajuskomponentteihin ja tähän pohjautuva analyysi soveltuu tapauksiin, joissa systeemi on lineaarinen sekä aika- tai siirtoinvariantti. Tällöin analyysi voidaan siirtää ns. taajuustasoon tekemällä Fourier-muunnos (josta kosinimuunnos on erikoistapaus) syötteelle ja tulokselle. Nämä johtavat relaatioon F o = SF i, missä F i ja F o ovat syötteen ja tuloksen Fouriermuunnokset ja S systeemin ns. siirtofunktio. Käännetty tehtävä tarkoittaa nyt approksimaation löytämistä tai määrittelemistä S 1 :lle. Yleensä sovelluksissa S tunnetaan vain osittain (ja määrätään kokeellisesti). Samoin f o on mitattu havainto ja siten epätarkka. Tämän takia S 1 :n (approksimaation) tulisi pysyä rajoitettuna, jotta havaintovirheet eivät näkyisi liikaa. Toisaalta S 1 tulee konstruoida niin, että sitä vastaavaa kuvausta on helppo soveltaa havaintoon. Aina ei ole mahdollista eikä tarkoituksenmukaista analysoida mallia taajuuskomponenteittain (esimerkiksi epälineaariset tai vaihtuvakertoimiset systeemit). Miten voimme lähestyä käänteisongelmaa näissä tapauksissa. Hyvin yleisesti sovellettu tekniikka on pienimmän neliösumman menetelmä (output least squares). Esimerkkimme kontekstissa se tarkoittaa, että etsimme syötettä f i, jolle s(f i ) on mahdollisimman lähellä havaintoa f o. Toisin sanoen, erotuksen neliö, (s(f i ) f o ) 2, on mahdollisimman pieni. Tässä muodossa tehtävä on huonosti asetettu, koska taajuudet, joilla sin 0 eivät vaikuta kustannukseen ja siten niiden osuutta f i :ssä ei voi kontrolloida. Toisaalta, jos f o :ssa on esimerkiksi mittausvirhe taajuudella, jolle sin 0, se generoi suuren häiriön f i :hin. Näitä häiriöitä voi vaimentaa suosimalla 'pieniä' syötteitä f i. Tämä voidaan toteuttaa valitsemalla kustannusfunktio, jossa on mukana sopiva f i :n normi. Yksinkertaisuuden vuoksi valitaan nyt minimoitavaksi suureeksi J(f i ) = (s(f i ) f o ) 2 + α(fx) i 2, missä α on (pieni) säännöllistämisparametri, joka kontrolloi valittua lisätermiä. Lisätermiksi valittiin f i :n ensimmäisten derivaattojen normi, koska tällä on se toivottu ominaisuus, että kun taajuus kasvaa, myös lisätermi kasvaa ja siten rajoittaa korkeita taajuuksia ratkaisussa. Matalilla taajuuksilla vaikutus puolestaan on pieni. Analysoidaan nyt lisätermillä modioitua tehtävää. Energian optimaalisuusehto on muotoa (s(f i ) f o )s(v) + αfxv i x = 0 v
tai osittaisintegroimalla ja muokkaamalla integrointien järjestystä (s(s(f( i )) αfxx)v i = s(f o )v. Ratkaisun analysoimiseksi siirrytään jälleen taajuustasoon ja tarkastellaan taajuutta eli oletetaan, että f i on muotoa a cos. Tällöin joten ja s(f i ) = sin a cos, s(s(f i )) = sin2 a cos () 2 αf i xx = α() 2 a cos. Toisin sanoen optimaalisuusehdon vasen puoli on oleellisesti muotoa sin 2 + α() 4 a cos. () 2 Jos oletetaan, että oikea signaali oli cos ja että f o on virheettömästi havaittu, saamme f o sin = cos ja s(f o ) = sin2 cos. Yhdistämällä edelliset, () 2 saamme lausekkeen f i :lle, f i = a cos, missä a = sin 2 sin 2 + α() 4. Toisin sanoen, pienille a 1 eli alkuperäinen näkymä palautuu lähes täydellisesti. Kun taajuus kasvaa, a pienenee, joten korkeita taajuuksia (sen enempää oikeita kuin vääriäkään) ei käytännössä näy. Sama pätee myös, jos havaintoon f o lisätään virheitä. Huonosti asetetut tehtävät Käänteisongelmat ovat yleensä huonosti asetettuja (ill posed). Mitä tämä merkitsee ja mitä siitä seuraa. Sanomme, että tehtävä on hyvin asetettu, jos sillä on kaikille lähtötiedoille olemassa yksikäsitteinen ratkaisu, joka riippuu jatkuvasti lähtötiedoista. Ellei näin ole, tehtävä on (ainakin jossakin mielessä) huonosti asetettu. Perinteisille dierentiaali- ja osittaisdierentiaaliyhtälöille kysymys tehtävän hyvästä muotoilusta on pitkälti kysymys oikeiden funktioavaruuksien
ja normien löytämisestä lähtötiedoille ja ratkaisuille. Mitä vahvemmat oletukset tehdään lähtötiedoista, sitä varmemmin ratkaisu on yksikäsitteinen ja riippuu jatkuvasti datasta. Vastaavasti, mitä vähemmän oletetaan ratkaisulta, sitä helpommin sellainen on olemassa. Käänteisille tehtäville on tyypillistä, että 'alkutiedot' ovat yleensä havaintoja todellisen systeemin tuloksista ja sellaisina paitsi epätarkkoja, myös yleensä pelkästään pisteittäin määriteltyjä. Näin ollen niiltä ei voi odottaa vahvaa säännöllisyyttä. Käännetty systeemi on yleensä jatkuvan systeemin käänteiskuvaus (jos sellainen yleensä on olemassa). Helposti havaitaan, että mitä vahvempi arvio voidaan esittää alkuperäisen kuvauksen jatkuvuudelle, sitä vahvemmin käänteiskuvaus kasvattaa datassa olevia eroja. Pieni ero havainnossa edellyttää selittyäkseen suurta eroa syötteessä. Käänteiskuvaus ei siis yleensä ole jatkuva tehtävän kannalta luonnollisissa normeissa. Kysymys siitä, milloin käänteiskuvaus ylipäätään on olemassa, liittyy havaittavuuteen, eli kysymykseen siitä, miten paljon ja millaista tietoa systeemistä on saatava, jotta haluttu suure voidaan edes periaatteessa määrittää - milloin riittää havainto yhdellä ajanhetkellä. Tarvitaanko havainto koko systeemistä tai sen osasta vai riittääkö esimerkiksi havainnoida vain systeemin reunaa. Mitä on havaittava, suureita, niiden derivaattoja, jne. Jotta huonosti asetettuja tehtäviä ylipäätään olisi mahdollista pyrkiä ratkaisemaan mielekkäästi, tarvitaan jotakin informaatiota itse tehtävänasettelun lisäksi. Tätä tietoa sanotaa a priori tiedoksi. Kyse voi olle tiedosta tai oletuksesta. Yleensä tieto koskee yhtäältä havainnon tarkkuutta (esimerkiksi havaintovirheen tasoa ja jakaumaa) ja toisaalta itse käänteistehtävän ratkaisun laadullisia ominaisuuksia. Edellisessä esimerkissä mm. teimme epäsuorasti oletuksen, että alkuperäisessä kuvassa ei esiinny korkeita taajuuksia, jolloin niiden ratkaiseminen ei ollut tarpeen. A priori tietoa käytetään käänteistehtävän regularisointiin (tai kääntäen, tehtävän regularisointi merkitsee asiallisesti oletusten tekoa tehtävän datasta ja ratkaisusta). Yhteenvetona: ennen kuin yrität ratkaista käänteisongelmaa, tulee selvittää, onko käytettävissä riittävästi dataa tehtävän ratkaisemiseen periaatteessa. Jos näin on, seuraavaksi on selvitettävä tai tehtävä oletus siitä, millainen on ratkaisun luonne ja havaintojen laatu. Vasta tämän jälkeen on mahdollista muotoilla käänteistehtävälle rationaalinen approksimaatio.