Deterministiset ja tilastolliset inversiomenetelmät röntgentomografiassa

Samankaltaiset tiedostot
P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

3.2.2 Tikhonovin regularisaatio

Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio:

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Inversio-ongelmien laskennallinen peruskurssi Luento 4

Likimääräisratkaisut ja regularisaatio

4.2.2 Uskottavuusfunktio f Y (y 0 X = x)

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja

4.0.2 Kuinka hyvä ennuste on?

Numeeriset menetelmät

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

Talousmatematiikan perusteet: Luento 10. Lineaarikuvaus Matriisin aste Determinantti Käänteismatriisi

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

Talousmatematiikan perusteet: Luento 11. Lineaarikuvaus Matriisin aste Käänteismatriisi

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45

1. TILASTOLLINEN HAHMONTUNNISTUS

Numeeriset menetelmät

Moniulotteisia todennäköisyysjakaumia

Likimääräisratkaisut ja regularisaatio

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

Lineaarikuvausten. Lineaarikuvaus. Lineaarikuvauksia. Ydin. Matriisin ydin. aiheita. Aiheet. Lineaarikuvaus. Lineaarikuvauksen matriisi

4.3.6 Eräitä diskreettejä Markov-kenttiä

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Johdatus diskreettiin matematiikkaan Harjoitus 5, Ratkaise rekursioyhtälö

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Ratkaisuehdotukset LH 7 / vko 47

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Numeeriset menetelmät

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Numeeriset menetelmät TIEA381. Luento 3. Kirsi Valjus. Jyväskylän yliopisto. Luento 3 () Numeeriset menetelmät / 45

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

y x1 σ t 1 = c y x 1 σ t 1 = y x 2 σ t 2 y x 2 x 1 y = σ(t 2 t 1 ) x 2 x 1 y t 2 t 1

Sovellettu todennäköisyyslaskenta B

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Matematiikka ja teknologia, kevät 2011

805306A Johdatus monimuuttujamenetelmiin, 5 op

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Pienimmän neliösumman menetelmä (PNS)

Aiheet. Kvadraattinen yhtälöryhmä. Kvadraattinen homogeeninen YR. Vapaa tai sidottu matriisi. Vapauden tutkiminen. Yhteenvetoa.

Matriisilaskenta (TFM) MS-A0001 Hakula/Vuojamo Ratkaisut, Viikko 47, 2017

Dynaamiset regressiomallit

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33

Matriisilaskenta Luento 8: LU-hajotelma

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

Maximum likelihood-estimointi Alkeet

Johdatus tekoälyn taustalla olevaan matematiikkaan

2. Teoriaharjoitukset

MS-A0107 Differentiaali- ja integraalilaskenta 1 (CHEM)

ARMA(p, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma.

Talousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu

Osa IX. Z muunnos. Johdanto Diskreetit funktiot

Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus

2. Uskottavuus ja informaatio

Käänteismatriisin ominaisuuksia

Luento 5: Suurten lineaaristen yhtälöryhmien ratkaiseminen iteratiivisilla menetelmillä

Kurssin loppuosassa tutustutaan matriiseihin ja niiden käyttöön yhtälöryhmien ratkaisemisessa.

1 Matriisit ja lineaariset yhtälöryhmät

Lineaarinen toisen kertaluvun yhtälö

Pienimmän neliösumman menetelmä (PNS)

Pienimmän neliösumman menetelmä (PNS)

Matriisilaskenta, LH4, 2004, ratkaisut 1. Hae seuraavien R 4 :n aliavaruuksien dimensiot, jotka sisältävät vain

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2

Luento 11: Rajoitusehdot. Ulkopistemenetelmät

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

Pelaisitko seuraavaa peliä?

Ratkaisuehdotukset LH 8 / vko 47

Luento 8: Epälineaarinen optimointi

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

Sovellettu todennäköisyyslaskenta B

Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin

ax + y + 2z = 0 2x + y + az = b 2. Kuvassa alla on esitetty nesteen virtaus eräässä putkistossa.

Konformigeometriaa. 5. maaliskuuta 2006

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x

MS-C1340 Lineaarialgebra ja

Tilastollinen aineisto Luottamusväli

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.

5 Lineaariset yhtälöryhmät

Vektoreiden virittämä aliavaruus

Tilastollinen päättely II, kevät 2017 Harjoitus 2A

Regressioanalyysi. Kuusinen/Heliövaara 1

Luento 9: Yhtälörajoitukset optimoinnissa

Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja

Käänteismatriisi 1 / 14

(0 desimaalia, 2 merkitsevää numeroa).

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45

1 Kertaus. Lineaarinen optimointitehtävä on muotoa:

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

Johdatus tekoälyn taustalla olevaan matematiikkaan

Inversio-ongelmien laskennallinen peruskurssi Luento 3

Luento 8: Epälineaarinen optimointi

JYVÄSKYLÄN YLIOPISTO. 3. Luennon sisältö

Ennakkotehtävän ratkaisu

Matriisi-vektori-kertolasku, lineaariset yhtälöryhmät

Transkriptio:

LAPPEENRANNAN TEKNILLINEN YLIOPISTO School of Engineering Science Laskennallisen tekniikan koulutusohjelma Kandidaatintyö Aleksi Salo Deterministiset ja tilastolliset inversiomenetelmät röntgentomografiassa Ohjaaja: Lassi Roininen

TIIVISTELMÄ Lappeenrannan teknillinen yliopisto School of Engineering Science Laskennallisen tekniikan koulutusohjelma Aleksi Salo Deterministiset ja tilastolliset inversiomenetelmät röntgentomografiassa Kandidaatintyö 2019 16 sivua, 5 kuvaa Ohjaaja: Lassi Roininen Avainsanat: Röntgentomografia; Radon-muunnos; Diskreetti Radon-muunnos; Tikhonovregularisaatio; Inversio-ongelma; Bayesilainen inversio Kandidaatintyössä tutustutaan röntgentomografian inversio-ongelmaan ja sen ratkaisemiseen. Työn toinen luku on teoriaosuus, jossa ensiksi johdetaan röntgentomografian matemaattinen malli, diskreetti Radon-muunnos. Seuraavaksi esitellään Tikhonov-regularisaatio, joka on deterministinen inversiomenetelmä. Työssä esitellään myös vaihtoehtoinen lähestymistapa inversio-ongelmiin; Bayesilainen inversio, mikä on tilastollinen inversiomenetelmä. Lisäksi työssä osoitetaan näiden kahden inversiomenetelmän välinen yhteys. Työn kolmannessa luvussa on laskettu mittausdatasta Tikhonovin-regularisaatiota käyttäen röntgentomografiakuvia eri regularisointiparametrin α arvoilla, eri lisätyn häiriön määrillä sekä eri määrillä mittauksia/projektioita kohteesta. Tässä luvussa on myös esitetty yleisiä huomioita kyseisistä kuvista ja analysoitu miten α-parametrin, häiriön määrän sekä mittauksien määrän muuttaminen näkyy tomografiakuvissa.

Sisältö 1 JOHDANTO 4 1.1 Tausta..................................... 4 1.2 Tavoitteet, rajaus ja toteutus......................... 4 1.3 Työn rakenne................................. 4 2 RÖNTGENTOMOGRAFIAN MALLI JA RATKAISUMENETELMÄT 5 2.1 Jatkuva Radon-muunnos........................... 5 2.2 Diskreetti Radon-muunnos.......................... 6 2.3 Tikhonov-regularisaatio............................ 7 2.4 Bayesilainen inversio............................. 8 3 NUMEERISET RATKAISUT 9 4 YHTEENVETO 14 LÄHTEET 16

4 1 JOHDANTO 1.1 Tausta Inversio-ongelma on ongelma, jossa mittausdatasta pyritään laskemaan ja rekonstruoimaan juuri tämänlaisen datan aiheuttaneet tekijät. Inversio-ongelma ei käyttäydy Hadamardin [1] mielessä hyvin asetetun ongelman tavoin, eli sillä joko ei aina ole ratkaisua, ratkaisu ei ole yksikäsitteinen tai ratkaisu ei riipu jatkuvasti annetuista alkuarvoista. Inversio-ongelmat ovat merkittäviä ongelmia esimerkiksi astronomiassa, optiikassa ja lääketieteellisessä kuvantamisessa. Tässä työssä käsitellään röntgentomografiaa. Röntgentomografia mullisti aikoinaan lääketieteen ja on edelleen tärkeä työkalu eri tieteenaloilla ja teollisuudessa. Röntgentomografia on tärkeä työkalu, sillä sen avulla pystytään nähdä mitattavien kohteiden sisäinen rakenne/tiheysjakauma. 1.2 Tavoitteet, rajaus ja toteutus Tässä työssä tutustutaan inversio-ongelmiin ja niiden ratkaisemiseen röntgentomografian kautta. Työssä keskitytään siis yksinkertaiseen inversiomenetelmään, joka on Tikhonovregularisaatio tai vastaavasti Bayesilainen inversio Gaussisella priorilla. Työssä käytettiin mittausdatana Suomen Inversioseuran tarjoamaa vapaasti käytettävää röntgentomografiadataa osoitteessa: https://www.fips.fi/dataset.php [2, 3]. Röntgentomografiakuvat rekonstruoitiin mittausdatasta käyttäen MATLAB-ohjelmistoa. 1.3 Työn rakenne Työn toisessa luvussa käydään läpi työn kannallta oleellinen teoria. Ensimmäiseksi johdetaan jatkuvan Radon-muunnoksen kautta diskreetti Radon-muunnos, josta saadaan matemaattinen malli röntgentomografialle. Seuraavaksi esitellään Tikhonov-regularisaatio ja Bayesilainen inversio sekä osoitetaan näiden välinen yhteys. Kolmannessa luvussa on kuvia, jotka on laskettu röntgentomografiamittausdatasta käyttäen Tikhnovin-regularisaatiota. Kuvat on laskettu käyttäen eri regularisointiparametri α:n arvoja,

5 eri määriä lisättyä häiriötä sekä eri määriä mittauksia. Kuvien yhteydessä on myös esitetty havaintoja mitä kuvista voidaan nähdä. Luku neljä on lyhyt yhteenveto työstä, jossa myös pohditaan mahdollista jatkoa työlle. 2 RÖNTGENTOMOGRAFIAN MALLI JA RATKAISU- MENETELMÄT 2.1 Jatkuva Radon-muunnos Luvussa 2.1 johdetaan jatkuva Radon-muunnos. Johtoon on käytetty lähteenä kirjaa [4]. Röntgentomografian matemaattinen malli sisältää viivaintegraalien laskemista objektista, jonka tiheysfunktio x on tuntematon. Röntgentomografiassa integraalit ovat tasossa suorien suhteen, jotka leikkaavat x:n määrittelyjoukon. Yleinen muoto suoralle tasossa on as+bt = c, joka voidaan ilmaista seuraavasti { (s,t) R 2 a a 2 + b 2 s + b a 2 + b 2t = c a 2 + b 2 }. (1) ( On olemassa θ siten, että (cosθ,sinθ) = a, a 2 +b 2 b a 2 +b 2 ). Merkitään z = c/ a 2 + b 2 ja ω θ = [cosθ,sinθ] T, niin kaikki suorat tasossa voidaan ilmaista seuraavasti { l θ,z = (s,t) R 2 ω T θ s = z t, (2) missä z R ja θ [ π/2,π/2]. l θ,z voidaan ilmaista myös muodossa l θ,z = {zω θ + ξω θ ξ R}. (3) Oletamme röntgensäteelle, joka kulkee suoraa l θ,z pitkin alkuintensiteetillä I θ,z (ξ 0 ), sironnan olevan mitätöntä verrattuna absorptioon. Lisäksi oletamme, että säteen intensiteetin I θ,z (ξ) aleneminen absorptiosta johtuen suoran osuudella dξ voidaan mallintaa yhtälöllä

6 di θ,z (ξ) = x(zω θ + ξω θ )I θ,z(ξ)dξ. (4) Jos I θ,z (ξ end ) on intensiteetti vastaanottimella sen jälkeen, kun röntgensäde on kulkenut kohteen läpi, niin yhtälöstä (4) ratkaisemalla saadaan ln ( ) Iθ,z (ξ end ) ξend di θ,z (ξ) ξend = I θ,z (ξ 0 ) ξ 0 I θ,z (ξ) dξ = x(zω θ + ξωθ )dξ. (5) ξ 0 Määritellään b(θ,z) = ln ( I θ,z (ξ end )/I θ,z (ξ 0 ) ), ja oletetaan, että röntgenlähde ja vastaanotin ovat [ 1,1] [ 1,1] ruudukon ulkopuolella, missä x(s,t) = 0. Saamme x:n Radonmuunnokselle kaavan: b(θ,z) = x(zω θ + ξωθ )dξ. (6) Röntgentomografian inversio-ongelma on x:n rekonstruoiminen Radon-muunnoksestaan b. 2.2 Diskreetti Radon-muunnos Oletetaan, että x on kokonaisuudessaan yksikköympyrän sisällä, mutta yksinkertaisuuden vuoksi diskretisoidaan x alueella [ 1,1] [ 1,1], ja jaetaan tämä alue 2n 2n yhdenmukaiseksi ruudukoksi, jonka ruutujen keskipisteiden sijainnit saadaan kaavalla [4] (s i,t j ) = ((i 1/2)/n,( j 1/2)/n), i, j = n + 1,,n. (7) Merkitään x i j = x(s i,t j ) ja oletetaan, että x on vakio jokaisen ruudun sisällä; x(s,t) = x i j kaikille (s,t) P i j, missä P i j = {(s,t) R 2 (i 1)/n s i/n, ( j 1)/n t j/n} ja n + 1 i, j n [4]. Määritellään θ k = π/2 + (k 1) m 1 π/2, k = 1,,m 1, (8) ja sillä x on kokonaisuudessaan yksikköympyrän sisällä, niin oletetaan, että 1 z 1, ja määritellään [4]

7 ( ) l 1 z l = 1 + 2, l = 1,,m 2. (9) m 2 Merkitään b kl = b(θ k,z l ), niin yhtälöstä (6) voidaan johtaa diskreetin Radon-muunnoksen yhtälö b kl = n l i j kl x i j, (10) i, j= n+1 missä l i j kl on suoran l θ k,z l pituus ruudussa P i j [4]. Jos B R m 1 m 2 on matriisi, jonka rivillä k ja sarakkeella l oleva alkio on b kl, b = vec(b) ja x = vec(x), niin saadaan m 1 m 2 n 2 yhtälöryhmä b = Ax yhtälöstä (10), missä matriisin A alkiot ovat janoja l i j kl [4]. Matriisi X sisältää funktion x arvot ruuduissa P i j. "vec(m)" tarkoittaa operaatiota, jolla järjestetään matriisin M alkiot vektoriksi. Röntgentomografialle saadaan siis seuraavanlainen lineaarinen tilastollinen malli b = Ax + e, (11) missä b R M on mittausvektori, A R M N on mallimatriisi, x R N on tuntematon vektori ja e R M on identtisesti jakautunut Gaussinen riippumaton satunnaisvektori, jonka alkioiden odotusarvo on nolla [4]. Yhtälöä (11) ei voida usein ratkaista suoraan, koska matriisi A ei ole neliömatriisi, jolloin käänteismatriisia ei ole olemassa. Syy miksi yhtälöä (11) ei ratkaista pienimmän neliösumman menetelmällä on se, että pienimmän neliösumman menetelmän ratkaisu sisältää paljon suuritaajuisia komponentteja jo pienillä häiriön arvoilla, jotka tekevät ratkaisusta epäkelvon [4]. 2.3 Tikhonov-regularisaatio Tikhonov-regularisoitu ratkaisu määritellään seuraavasti optimointiongelman ratkaisuna [4] { 1 x α = min x 2 Ax b 2 + α } 2 x 2, (12) mikä voidaan yhtäpitävästi ilmaista matriisiyhtälön ratkaisuna

8 x α = (A T A + αi) 1 A T b. (13) Tikhonov-regularisaatio toimii niin, että se ei pyri ainoastaan minimoimaan termiä Ax b 2, vaan se pyrkii myös minimoimaan x:n pituutta, millä on "pehmentävä" vaikutus x:ään; x ei sisällä niin paljon suuritaajuisia komponentteja ja vastaa paremmin todellisuutta. Huomionarvoista yhtälössä (13) on se, että α:n arvolla 0 se sieventyy muotoon x = (A T A) 1 A T b, joka on siis pienimmän neliösumman menetelmän ratkaisu yhtälölle Ax = b [4]. Koska matriisi A on usein suuri harva matriisi, niin yhtälössä (13) esiintyvän käänteismatriisin laskenta ei ole mielekästä, vaan sen sijaan ratkaisuun käytetään numeerista iteratiivista PCG-algoritmia (Preconditioned Conjugate Gradient) [4]. 2.4 Bayesilainen inversio Bayesilaisessa inversiossa mallinnetaan tuntematonta x:ää satunnaisvektorina, jolla on tiheysfunktio p(x δ), jota kutsutaan prioritiheysfunktioksi. δ on positiivinen skaalauskerroin. Priori kuvaa ennakkotietoa x:n ominaisuuksista sekä epävarmuutta x:stä [4]. Tarkastellaan seuraavanlaista mallia b = Ax + e, e N(0,λ 1 I), (14) missä A R M N ja I R M M on identiteettimatriisi [4]. Tiheysfunktio b:lle ehdolla x ja λ on siten [4] p(b x,λ) = ( ) λ M/2 exp( λ2 ) 2π Ax b 2. (15) Bayesin kaava määrittelee posterioritiheysfunktion seuraavasti [4] p(x b,λ,δ) = p(b x,λ)p(x δ) p(b λ, δ) p(b x,λ)p(x δ). (16) Oletetaan, että priori x N(0,δ 1 I), missä δ > 0. Tämä oletus johtaa seuraavanlaiseen prioritiheysfunktioon [4]

9 p(x δ) = ( ) δ N/2 exp( δ2 ) 2π x 2. (17) Yhtälön (16) eli posterioritiheysfunktion maksimointi tai vastaavasti ilmaisun ln p(x b,λ,δ) minimointi johtaa optimointiongelman ratkaisuun { λ x MAP = min x 2 Ax b 2 + δ } 2 x 2, (18) mikä on yhtälöllä (12) määritelty Tikhonov-regularisoitu ratkaisu α:n arvolla δ/λ [4]. Posterioritiheysfunktio (16) on yleensä hyvin suuriulotteinen, joten sen visualisointi on erittäin haastavaa, siksi yleensä käytetäänkin MAP-estimaattoria. 3 NUMEERISET RATKAISUT Työn numeeristen ratkaisujen laskennassa käytettiin hyväksi Suomen inversioseuran tarjoamaa avointa röntgentomografiadataa osoitteessa: https://www.fips.fi/dataset.php [2, 3]. Rekonstruktioiden laskemiseen ja luomiseen käytettiin MATLAB-ohjelmistoa. Rekonstruktioiden laskennassa käytettiin MATLAB-funktiota "pcg", joka on siis MATLAB-ohjelmiston toteutus PCG-algoritmista. Kuvassa 1 on lootuksen juuren poikkileikkauskuvia kahdella eri α:n arvoilla laskettuina. Kuvasta nähdään, että α:n arvolla 1 regularisointia ei ole tässä tapauksessa tarpeeksi, kuva on rakeinen ja kaikki yksityiskohdat eivät erotu riittävän selkeästi kohinasta. Huomataan myös, että kuva muuttuu epäselvemmäksi, kun projektioiden määrää pienennetään. Tämä on loogista, sillä informaatiota on vähemmän ja tuntemattomia vapausasteita enemmän.

10 (a) α = 300 (b) α = 1 Kuva 1. Lootuksen juuren poikkileikkauskuvia, kun häiriön keskihajonta on 3% mittauksien maksimiarvosta. Kuvat on laskettu projektioden määrillä 120, 60, 30 ja 15 (Ylhäältä alas). Kuvassa 2 on myös lootuksen juuren poikkileikkauskuvia kahdella eri α:n arvoilla laskettuina, mutta mittauksiin on lisätty nyt enemmän häiriötä. Kuvasta voidaan nähdä, että α:n arvolla 15 000 regularisointia on tässä tapauksessa jo liian paljon, kuva on liian "pehmeä", terävät yksityiskohdat tasoittuvat liikaa.

11 (a) α = 15000 (b) α = 2000 Kuva 2. Lootuksen juuren poikkileikkauskuvia, kun häiriön keskihajonta on 9% mittauksien maksimiarvosta. Kuvat on laskettu projektioden määrillä 120, 60, 30 ja 15 (Ylhäältä alas). Kuvassa 3 on saksanpähkinän poikkileikkauskuvia kahdella eri α:n arvoilla laskettuina. Kuvasta on nähtävissä, että α:n arvolla 10 regularisointia on tässä tapauksessa sopivasti, yksityiskohdat erottuvat selkeästi ja eri alueiden välillä on riittävästi kontrastia. α:n arvolla 0.1 sen sijaan regularisointia ei ole riittävästi, pienet yksityiskohdat katoavat kohinaan ja riittävää kontrastia ei ole.

12 (a) α = 10 (b) α = 0.1 Kuva 3. Saksanpähkinän poikkileikkauskuvia, kun häiriön keskihajonta on 3% mittauksien maksimiarvosta. Kuvat on laskettu projektioden määrillä 120, 60, 30 ja 15 (Ylhäältä alas). Kuvassa 4 on myös saksanpähkinän poikkileikkauskuvia kahdella eri α:n arvoilla laskettuina, mutta mittauksissa on nyt enemmän häiriötä. Kuvassa on havainnollistettu, miksi pienimmän neliösumman menetelmän antama ratkaisu on huono, jos mittauksissa on mukana häiriötä, sillä Tikhonov-regularisoitu ratkaisu α:n arvolla 0 on saman kuin PNS-menetelmän ratkaisu.

13 (a) α = 50 (b) α = 0 Kuva 4. Saksanpähkinän poikkileikkauskuvia, kun häiriön keskihajonta on 9% mittauksien maksimiarvosta. Kuvat on laskettu projektioden määrillä 120, 60, 30 ja 15 (Ylhäältä alas). Kuvassa 5 on vierekkäin poikkileikkauskuvia sekä lootuksen juuresta, että saksanpähkinästä. Kuvasta on nähtävissä, mitä tapahtuu, kun mittausprojektioita otetaan ainoastaan tietyistä rajoitetuista kulmista. Projektioiden määrillä 120 ja 60 ei ole suurta eroa, sillä molemmissa informaatiota saadaan joka puolelta kohdetta, mutta 120 projektion tapauksessa mittausinformaatiota saadaan jokaisesta kulmasta kahteen otteeseen. Mittausprojektioiden määrillä 30 ja 15 näkee, että kohde ei tule mitattua kaikkialta, vaan ainoastaan tietyistä kulmista, ja rekonstruktio ei vastaa todellisuutta.

14 Kuva 5. Poikkileikkauskuvia rajoitetuista kulmista. Kuvat on laskettu projektioden määrillä 120, 60, 30 ja 15 (Ylhäältä alas). 4 YHTEENVETO Työssä tutustuttiin inversio-ongelmiin ja niiden ratkaisumenetelmiin. Käsiteltiin röntgentomografian inversio-ongelmaa, eli miten röntgentomografiamittausdatasta voidaan rekonstruoida kuvattavan kohteen sisäisen rakenteen/tiheysjakauman x esittävä tomografiakuva. Työssä johdettiin jatkuvan Radon-muunnoksen kautta diskreetti Radon-muunnos, joka toimii matemaattisena mallina röntgentomografialle. Inversio-ongelmien ratkaisumenetelmistä rajoituttiin tarkastelemaan Tikhonovin-regularisaatiota ja Bayesilaista inversiota riippumattomalla Gaussisella/normaalijakautuneella priorilla. Työssä osoitettiin, että nämä kaksi menetelmää itse asiassa johtavat samaan ratkaisuun.

15 Luvussa kolme ratkaistiin numeerisesti MATLAB-ohjelmalla Suomen Inversioseuran tarjoamasta röntgentomografiadatasta erilaisten kohteiden tomografiakuvia regularisointiparametrin α eri arvoilla, eri määrillä mittausprojektioita sekä eri määrillä mittauksiin lisättyä kohinaa. Kuvista huomattiin, että regularisointiparametrin α todella pienillä arvoilla kuva oli liian rakeinen, todella suurilla arvoilla kuva oli vastaavasti liian sumea ja sopiva arvo löytyi näiden välistä, jolla kuvasta oli saatu poistettua liika rakeisuus kadottamatta kuitenkaan yksityiskohtia sumeuden alle. Pienemmällä määrällä mittausprojektioita kuvista katosi yksityiskohtia, sillä rekonstruktioon käytettävää informaatiota oli vähemmän ja mitä suurempi määrä kohinaa mittauksiin oli lisätty, sitä epätarkempia rekonstruktiot olivat, sillä kohinan taakse katoaa aina informaatiota. Kolmannessa luvussa myös havainnollistettiin miten mittausprojektioiden valitseminen vain tietyistä rajoitetuista kulmista vaikutti rekonstruktioon. Huomattiin, että rekonstruktiot eivät vastanneet todellisuutta niillä alueilla, joista mittauksia ei oltu käytetty, vaan ainoastaan alueilla, joista mittauksia oli käytetty. Tässä työssä käsiteltiin Bayesilaista inversiota yksinkertaisella Gaussisella priorilla, joka ei ole kovin realistinen, sillä se olettaa, että x:n alkiot ovat täysin toisistaan riippumattomia. Todellisuudessa x:n viereikkäiset alkiot usein ovat riippuvaisia toisistaan, joten tarvitaan priori, joka ottaa tämän seikan huomioon. Bayesilaiseen inversioon voisi mahdollisesti perehtyä enemmän ja yksityiskohtaisemmin diplomityössä.

Lähteet [1] Jacques Hadamard. Sur les problèmes aux dérivées partielles et leur signification physique. Princeton University Bulletin (1902), s. 49 52. [2] Tatiana A. Bubba et al. Tomographic X-ray data of a lotus root filled with attenuating objects (2016). arxiv: 1609.07299 [physics.data-an]. [3] Keijo Hämäläinen et al. Tomographic X-ray data of a walnut (2015). arxiv: 1502. 04064 [physics.data-an]. [4] Johnathan M. Bardsley. Computational Uncertainty Quantification for Inverse Problems. SIAM, 2018. ISBN: 978-1-611975-37-6.