Deterministiset ja tilastolliset inversiomenetelmät röntgentomografiassa
|
|
- Ismo Ahola
- 5 vuotta sitten
- Katselukertoja:
Transkriptio
1 LAPPEENRANNAN TEKNILLINEN YLIOPISTO School of Engineering Science Laskennallisen tekniikan koulutusohjelma Kandidaatintyö Aleksi Salo Deterministiset ja tilastolliset inversiomenetelmät röntgentomografiassa Ohjaaja: Lassi Roininen
2 TIIVISTELMÄ Lappeenrannan teknillinen yliopisto School of Engineering Science Laskennallisen tekniikan koulutusohjelma Aleksi Salo Deterministiset ja tilastolliset inversiomenetelmät röntgentomografiassa Kandidaatintyö sivua, 5 kuvaa Ohjaaja: Lassi Roininen Avainsanat: Röntgentomografia; Radon-muunnos; Diskreetti Radon-muunnos; Tikhonovregularisaatio; Inversio-ongelma; Bayesilainen inversio Kandidaatintyössä tutustutaan röntgentomografian inversio-ongelmaan ja sen ratkaisemiseen. Työn toinen luku on teoriaosuus, jossa ensiksi johdetaan röntgentomografian matemaattinen malli, diskreetti Radon-muunnos. Seuraavaksi esitellään Tikhonov-regularisaatio, joka on deterministinen inversiomenetelmä. Työssä esitellään myös vaihtoehtoinen lähestymistapa inversio-ongelmiin; Bayesilainen inversio, mikä on tilastollinen inversiomenetelmä. Lisäksi työssä osoitetaan näiden kahden inversiomenetelmän välinen yhteys. Työn kolmannessa luvussa on laskettu mittausdatasta Tikhonovin-regularisaatiota käyttäen röntgentomografiakuvia eri regularisointiparametrin α arvoilla, eri lisätyn häiriön määrillä sekä eri määrillä mittauksia/projektioita kohteesta. Tässä luvussa on myös esitetty yleisiä huomioita kyseisistä kuvista ja analysoitu miten α-parametrin, häiriön määrän sekä mittauksien määrän muuttaminen näkyy tomografiakuvissa.
3 Sisältö 1 JOHDANTO Tausta Tavoitteet, rajaus ja toteutus Työn rakenne RÖNTGENTOMOGRAFIAN MALLI JA RATKAISUMENETELMÄT Jatkuva Radon-muunnos Diskreetti Radon-muunnos Tikhonov-regularisaatio Bayesilainen inversio NUMEERISET RATKAISUT 9 4 YHTEENVETO 14 LÄHTEET 16
4 4 1 JOHDANTO 1.1 Tausta Inversio-ongelma on ongelma, jossa mittausdatasta pyritään laskemaan ja rekonstruoimaan juuri tämänlaisen datan aiheuttaneet tekijät. Inversio-ongelma ei käyttäydy Hadamardin [1] mielessä hyvin asetetun ongelman tavoin, eli sillä joko ei aina ole ratkaisua, ratkaisu ei ole yksikäsitteinen tai ratkaisu ei riipu jatkuvasti annetuista alkuarvoista. Inversio-ongelmat ovat merkittäviä ongelmia esimerkiksi astronomiassa, optiikassa ja lääketieteellisessä kuvantamisessa. Tässä työssä käsitellään röntgentomografiaa. Röntgentomografia mullisti aikoinaan lääketieteen ja on edelleen tärkeä työkalu eri tieteenaloilla ja teollisuudessa. Röntgentomografia on tärkeä työkalu, sillä sen avulla pystytään nähdä mitattavien kohteiden sisäinen rakenne/tiheysjakauma. 1.2 Tavoitteet, rajaus ja toteutus Tässä työssä tutustutaan inversio-ongelmiin ja niiden ratkaisemiseen röntgentomografian kautta. Työssä keskitytään siis yksinkertaiseen inversiomenetelmään, joka on Tikhonovregularisaatio tai vastaavasti Bayesilainen inversio Gaussisella priorilla. Työssä käytettiin mittausdatana Suomen Inversioseuran tarjoamaa vapaasti käytettävää röntgentomografiadataa osoitteessa: [2, 3]. Röntgentomografiakuvat rekonstruoitiin mittausdatasta käyttäen MATLAB-ohjelmistoa. 1.3 Työn rakenne Työn toisessa luvussa käydään läpi työn kannallta oleellinen teoria. Ensimmäiseksi johdetaan jatkuvan Radon-muunnoksen kautta diskreetti Radon-muunnos, josta saadaan matemaattinen malli röntgentomografialle. Seuraavaksi esitellään Tikhonov-regularisaatio ja Bayesilainen inversio sekä osoitetaan näiden välinen yhteys. Kolmannessa luvussa on kuvia, jotka on laskettu röntgentomografiamittausdatasta käyttäen Tikhnovin-regularisaatiota. Kuvat on laskettu käyttäen eri regularisointiparametri α:n arvoja,
5 5 eri määriä lisättyä häiriötä sekä eri määriä mittauksia. Kuvien yhteydessä on myös esitetty havaintoja mitä kuvista voidaan nähdä. Luku neljä on lyhyt yhteenveto työstä, jossa myös pohditaan mahdollista jatkoa työlle. 2 RÖNTGENTOMOGRAFIAN MALLI JA RATKAISU- MENETELMÄT 2.1 Jatkuva Radon-muunnos Luvussa 2.1 johdetaan jatkuva Radon-muunnos. Johtoon on käytetty lähteenä kirjaa [4]. Röntgentomografian matemaattinen malli sisältää viivaintegraalien laskemista objektista, jonka tiheysfunktio x on tuntematon. Röntgentomografiassa integraalit ovat tasossa suorien suhteen, jotka leikkaavat x:n määrittelyjoukon. Yleinen muoto suoralle tasossa on as+bt = c, joka voidaan ilmaista seuraavasti { (s,t) R 2 a a 2 + b 2 s + b a 2 + b 2t = c a 2 + b 2 }. (1) ( On olemassa θ siten, että (cosθ,sinθ) = a, a 2 +b 2 b a 2 +b 2 ). Merkitään z = c/ a 2 + b 2 ja ω θ = [cosθ,sinθ] T, niin kaikki suorat tasossa voidaan ilmaista seuraavasti { l θ,z = (s,t) R 2 ω T θ s = z t, (2) missä z R ja θ [ π/2,π/2]. l θ,z voidaan ilmaista myös muodossa l θ,z = {zω θ + ξω θ ξ R}. (3) Oletamme röntgensäteelle, joka kulkee suoraa l θ,z pitkin alkuintensiteetillä I θ,z (ξ 0 ), sironnan olevan mitätöntä verrattuna absorptioon. Lisäksi oletamme, että säteen intensiteetin I θ,z (ξ) aleneminen absorptiosta johtuen suoran osuudella dξ voidaan mallintaa yhtälöllä
6 6 di θ,z (ξ) = x(zω θ + ξω θ )I θ,z(ξ)dξ. (4) Jos I θ,z (ξ end ) on intensiteetti vastaanottimella sen jälkeen, kun röntgensäde on kulkenut kohteen läpi, niin yhtälöstä (4) ratkaisemalla saadaan ln ( ) Iθ,z (ξ end ) ξend di θ,z (ξ) ξend = I θ,z (ξ 0 ) ξ 0 I θ,z (ξ) dξ = x(zω θ + ξωθ )dξ. (5) ξ 0 Määritellään b(θ,z) = ln ( I θ,z (ξ end )/I θ,z (ξ 0 ) ), ja oletetaan, että röntgenlähde ja vastaanotin ovat [ 1,1] [ 1,1] ruudukon ulkopuolella, missä x(s,t) = 0. Saamme x:n Radonmuunnokselle kaavan: b(θ,z) = x(zω θ + ξωθ )dξ. (6) Röntgentomografian inversio-ongelma on x:n rekonstruoiminen Radon-muunnoksestaan b. 2.2 Diskreetti Radon-muunnos Oletetaan, että x on kokonaisuudessaan yksikköympyrän sisällä, mutta yksinkertaisuuden vuoksi diskretisoidaan x alueella [ 1,1] [ 1,1], ja jaetaan tämä alue 2n 2n yhdenmukaiseksi ruudukoksi, jonka ruutujen keskipisteiden sijainnit saadaan kaavalla [4] (s i,t j ) = ((i 1/2)/n,( j 1/2)/n), i, j = n + 1,,n. (7) Merkitään x i j = x(s i,t j ) ja oletetaan, että x on vakio jokaisen ruudun sisällä; x(s,t) = x i j kaikille (s,t) P i j, missä P i j = {(s,t) R 2 (i 1)/n s i/n, ( j 1)/n t j/n} ja n + 1 i, j n [4]. Määritellään θ k = π/2 + (k 1) m 1 π/2, k = 1,,m 1, (8) ja sillä x on kokonaisuudessaan yksikköympyrän sisällä, niin oletetaan, että 1 z 1, ja määritellään [4]
7 7 ( ) l 1 z l = 1 + 2, l = 1,,m 2. (9) m 2 Merkitään b kl = b(θ k,z l ), niin yhtälöstä (6) voidaan johtaa diskreetin Radon-muunnoksen yhtälö b kl = n l i j kl x i j, (10) i, j= n+1 missä l i j kl on suoran l θ k,z l pituus ruudussa P i j [4]. Jos B R m 1 m 2 on matriisi, jonka rivillä k ja sarakkeella l oleva alkio on b kl, b = vec(b) ja x = vec(x), niin saadaan m 1 m 2 n 2 yhtälöryhmä b = Ax yhtälöstä (10), missä matriisin A alkiot ovat janoja l i j kl [4]. Matriisi X sisältää funktion x arvot ruuduissa P i j. "vec(m)" tarkoittaa operaatiota, jolla järjestetään matriisin M alkiot vektoriksi. Röntgentomografialle saadaan siis seuraavanlainen lineaarinen tilastollinen malli b = Ax + e, (11) missä b R M on mittausvektori, A R M N on mallimatriisi, x R N on tuntematon vektori ja e R M on identtisesti jakautunut Gaussinen riippumaton satunnaisvektori, jonka alkioiden odotusarvo on nolla [4]. Yhtälöä (11) ei voida usein ratkaista suoraan, koska matriisi A ei ole neliömatriisi, jolloin käänteismatriisia ei ole olemassa. Syy miksi yhtälöä (11) ei ratkaista pienimmän neliösumman menetelmällä on se, että pienimmän neliösumman menetelmän ratkaisu sisältää paljon suuritaajuisia komponentteja jo pienillä häiriön arvoilla, jotka tekevät ratkaisusta epäkelvon [4]. 2.3 Tikhonov-regularisaatio Tikhonov-regularisoitu ratkaisu määritellään seuraavasti optimointiongelman ratkaisuna [4] { 1 x α = min x 2 Ax b 2 + α } 2 x 2, (12) mikä voidaan yhtäpitävästi ilmaista matriisiyhtälön ratkaisuna
8 8 x α = (A T A + αi) 1 A T b. (13) Tikhonov-regularisaatio toimii niin, että se ei pyri ainoastaan minimoimaan termiä Ax b 2, vaan se pyrkii myös minimoimaan x:n pituutta, millä on "pehmentävä" vaikutus x:ään; x ei sisällä niin paljon suuritaajuisia komponentteja ja vastaa paremmin todellisuutta. Huomionarvoista yhtälössä (13) on se, että α:n arvolla 0 se sieventyy muotoon x = (A T A) 1 A T b, joka on siis pienimmän neliösumman menetelmän ratkaisu yhtälölle Ax = b [4]. Koska matriisi A on usein suuri harva matriisi, niin yhtälössä (13) esiintyvän käänteismatriisin laskenta ei ole mielekästä, vaan sen sijaan ratkaisuun käytetään numeerista iteratiivista PCG-algoritmia (Preconditioned Conjugate Gradient) [4]. 2.4 Bayesilainen inversio Bayesilaisessa inversiossa mallinnetaan tuntematonta x:ää satunnaisvektorina, jolla on tiheysfunktio p(x δ), jota kutsutaan prioritiheysfunktioksi. δ on positiivinen skaalauskerroin. Priori kuvaa ennakkotietoa x:n ominaisuuksista sekä epävarmuutta x:stä [4]. Tarkastellaan seuraavanlaista mallia b = Ax + e, e N(0,λ 1 I), (14) missä A R M N ja I R M M on identiteettimatriisi [4]. Tiheysfunktio b:lle ehdolla x ja λ on siten [4] p(b x,λ) = ( ) λ M/2 exp( λ2 ) 2π Ax b 2. (15) Bayesin kaava määrittelee posterioritiheysfunktion seuraavasti [4] p(x b,λ,δ) = p(b x,λ)p(x δ) p(b λ, δ) p(b x,λ)p(x δ). (16) Oletetaan, että priori x N(0,δ 1 I), missä δ > 0. Tämä oletus johtaa seuraavanlaiseen prioritiheysfunktioon [4]
9 9 p(x δ) = ( ) δ N/2 exp( δ2 ) 2π x 2. (17) Yhtälön (16) eli posterioritiheysfunktion maksimointi tai vastaavasti ilmaisun ln p(x b,λ,δ) minimointi johtaa optimointiongelman ratkaisuun { λ x MAP = min x 2 Ax b 2 + δ } 2 x 2, (18) mikä on yhtälöllä (12) määritelty Tikhonov-regularisoitu ratkaisu α:n arvolla δ/λ [4]. Posterioritiheysfunktio (16) on yleensä hyvin suuriulotteinen, joten sen visualisointi on erittäin haastavaa, siksi yleensä käytetäänkin MAP-estimaattoria. 3 NUMEERISET RATKAISUT Työn numeeristen ratkaisujen laskennassa käytettiin hyväksi Suomen inversioseuran tarjoamaa avointa röntgentomografiadataa osoitteessa: [2, 3]. Rekonstruktioiden laskemiseen ja luomiseen käytettiin MATLAB-ohjelmistoa. Rekonstruktioiden laskennassa käytettiin MATLAB-funktiota "pcg", joka on siis MATLAB-ohjelmiston toteutus PCG-algoritmista. Kuvassa 1 on lootuksen juuren poikkileikkauskuvia kahdella eri α:n arvoilla laskettuina. Kuvasta nähdään, että α:n arvolla 1 regularisointia ei ole tässä tapauksessa tarpeeksi, kuva on rakeinen ja kaikki yksityiskohdat eivät erotu riittävän selkeästi kohinasta. Huomataan myös, että kuva muuttuu epäselvemmäksi, kun projektioiden määrää pienennetään. Tämä on loogista, sillä informaatiota on vähemmän ja tuntemattomia vapausasteita enemmän.
10 10 (a) α = 300 (b) α = 1 Kuva 1. Lootuksen juuren poikkileikkauskuvia, kun häiriön keskihajonta on 3% mittauksien maksimiarvosta. Kuvat on laskettu projektioden määrillä 120, 60, 30 ja 15 (Ylhäältä alas). Kuvassa 2 on myös lootuksen juuren poikkileikkauskuvia kahdella eri α:n arvoilla laskettuina, mutta mittauksiin on lisätty nyt enemmän häiriötä. Kuvasta voidaan nähdä, että α:n arvolla regularisointia on tässä tapauksessa jo liian paljon, kuva on liian "pehmeä", terävät yksityiskohdat tasoittuvat liikaa.
11 11 (a) α = (b) α = 2000 Kuva 2. Lootuksen juuren poikkileikkauskuvia, kun häiriön keskihajonta on 9% mittauksien maksimiarvosta. Kuvat on laskettu projektioden määrillä 120, 60, 30 ja 15 (Ylhäältä alas). Kuvassa 3 on saksanpähkinän poikkileikkauskuvia kahdella eri α:n arvoilla laskettuina. Kuvasta on nähtävissä, että α:n arvolla 10 regularisointia on tässä tapauksessa sopivasti, yksityiskohdat erottuvat selkeästi ja eri alueiden välillä on riittävästi kontrastia. α:n arvolla 0.1 sen sijaan regularisointia ei ole riittävästi, pienet yksityiskohdat katoavat kohinaan ja riittävää kontrastia ei ole.
12 12 (a) α = 10 (b) α = 0.1 Kuva 3. Saksanpähkinän poikkileikkauskuvia, kun häiriön keskihajonta on 3% mittauksien maksimiarvosta. Kuvat on laskettu projektioden määrillä 120, 60, 30 ja 15 (Ylhäältä alas). Kuvassa 4 on myös saksanpähkinän poikkileikkauskuvia kahdella eri α:n arvoilla laskettuina, mutta mittauksissa on nyt enemmän häiriötä. Kuvassa on havainnollistettu, miksi pienimmän neliösumman menetelmän antama ratkaisu on huono, jos mittauksissa on mukana häiriötä, sillä Tikhonov-regularisoitu ratkaisu α:n arvolla 0 on saman kuin PNS-menetelmän ratkaisu.
13 13 (a) α = 50 (b) α = 0 Kuva 4. Saksanpähkinän poikkileikkauskuvia, kun häiriön keskihajonta on 9% mittauksien maksimiarvosta. Kuvat on laskettu projektioden määrillä 120, 60, 30 ja 15 (Ylhäältä alas). Kuvassa 5 on vierekkäin poikkileikkauskuvia sekä lootuksen juuresta, että saksanpähkinästä. Kuvasta on nähtävissä, mitä tapahtuu, kun mittausprojektioita otetaan ainoastaan tietyistä rajoitetuista kulmista. Projektioiden määrillä 120 ja 60 ei ole suurta eroa, sillä molemmissa informaatiota saadaan joka puolelta kohdetta, mutta 120 projektion tapauksessa mittausinformaatiota saadaan jokaisesta kulmasta kahteen otteeseen. Mittausprojektioiden määrillä 30 ja 15 näkee, että kohde ei tule mitattua kaikkialta, vaan ainoastaan tietyistä kulmista, ja rekonstruktio ei vastaa todellisuutta.
14 14 Kuva 5. Poikkileikkauskuvia rajoitetuista kulmista. Kuvat on laskettu projektioden määrillä 120, 60, 30 ja 15 (Ylhäältä alas). 4 YHTEENVETO Työssä tutustuttiin inversio-ongelmiin ja niiden ratkaisumenetelmiin. Käsiteltiin röntgentomografian inversio-ongelmaa, eli miten röntgentomografiamittausdatasta voidaan rekonstruoida kuvattavan kohteen sisäisen rakenteen/tiheysjakauman x esittävä tomografiakuva. Työssä johdettiin jatkuvan Radon-muunnoksen kautta diskreetti Radon-muunnos, joka toimii matemaattisena mallina röntgentomografialle. Inversio-ongelmien ratkaisumenetelmistä rajoituttiin tarkastelemaan Tikhonovin-regularisaatiota ja Bayesilaista inversiota riippumattomalla Gaussisella/normaalijakautuneella priorilla. Työssä osoitettiin, että nämä kaksi menetelmää itse asiassa johtavat samaan ratkaisuun.
15 15 Luvussa kolme ratkaistiin numeerisesti MATLAB-ohjelmalla Suomen Inversioseuran tarjoamasta röntgentomografiadatasta erilaisten kohteiden tomografiakuvia regularisointiparametrin α eri arvoilla, eri määrillä mittausprojektioita sekä eri määrillä mittauksiin lisättyä kohinaa. Kuvista huomattiin, että regularisointiparametrin α todella pienillä arvoilla kuva oli liian rakeinen, todella suurilla arvoilla kuva oli vastaavasti liian sumea ja sopiva arvo löytyi näiden välistä, jolla kuvasta oli saatu poistettua liika rakeisuus kadottamatta kuitenkaan yksityiskohtia sumeuden alle. Pienemmällä määrällä mittausprojektioita kuvista katosi yksityiskohtia, sillä rekonstruktioon käytettävää informaatiota oli vähemmän ja mitä suurempi määrä kohinaa mittauksiin oli lisätty, sitä epätarkempia rekonstruktiot olivat, sillä kohinan taakse katoaa aina informaatiota. Kolmannessa luvussa myös havainnollistettiin miten mittausprojektioiden valitseminen vain tietyistä rajoitetuista kulmista vaikutti rekonstruktioon. Huomattiin, että rekonstruktiot eivät vastanneet todellisuutta niillä alueilla, joista mittauksia ei oltu käytetty, vaan ainoastaan alueilla, joista mittauksia oli käytetty. Tässä työssä käsiteltiin Bayesilaista inversiota yksinkertaisella Gaussisella priorilla, joka ei ole kovin realistinen, sillä se olettaa, että x:n alkiot ovat täysin toisistaan riippumattomia. Todellisuudessa x:n viereikkäiset alkiot usein ovat riippuvaisia toisistaan, joten tarvitaan priori, joka ottaa tämän seikan huomioon. Bayesilaiseen inversioon voisi mahdollisesti perehtyä enemmän ja yksityiskohtaisemmin diplomityössä.
16 Lähteet [1] Jacques Hadamard. Sur les problèmes aux dérivées partielles et leur signification physique. Princeton University Bulletin (1902), s [2] Tatiana A. Bubba et al. Tomographic X-ray data of a lotus root filled with attenuating objects (2016). arxiv: [physics.data-an]. [3] Keijo Hämäläinen et al. Tomographic X-ray data of a walnut (2015). arxiv: [physics.data-an]. [4] Johnathan M. Bardsley. Computational Uncertainty Quantification for Inverse Problems. SIAM, ISBN:
P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.
Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin
3.2.2 Tikhonovin regularisaatio
3 Tikhonovin regularisaatio Olkoon x 0 R n tuntematon, M R m n teoriamatriisi ja y Mx + ε R m (316 annettu data Häiriöherkässä ongelmassa pienimmän neliösumman miniminormiratkaisu x M + y Q N (M x + M
Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio:
Inversio-ongelmista Craig, Brown: Inverse problems in astronomy, Adam Hilger 1986. Havaitaan oppositiossa olevaa asteroidia. Pyörimisestä huolimatta sen kirkkaus ei muutu. Projisoitu pinta-ala pysyy ilmeisesti
Inversio-ongelmien laskennallinen peruskurssi Luento 2
Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +
Inversio-ongelmien laskennallinen peruskurssi Luento 4
Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa
Likimääräisratkaisut ja regularisaatio
Luku 3 Likimääräisratkaisut ja regularisaatio Käytännön inversio-ongelmissa annettu data y ei aina ole tarkkaa, vaan sisältää häiriöitä. Tuntemattomasta x on annettu häiriöinen data y F (x + }{{}}{{} ε.
4.2.2 Uskottavuusfunktio f Y (y 0 X = x)
Kuva 4.6: Elektroniikassa esiintyvän lämpökohinan periaate. Lämpökohinaa ε mallinnetaan additiivisella häiriöllä y = Mx + ε. 4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Tarkastellaan tilastollista inversio-ongelmaa,
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt ja pienimmän neliösumman menetelmä Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi QR ja PNS PNS-ongelma
MS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt QR-hajotelma ja pienimmän neliösumman menetelmä Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto PNS-ongelma PNS-ongelma
4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
Numeeriset menetelmät
Numeeriset menetelmät Luento 3 Ti 13.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 3 Ti 13.9.2011 p. 1/37 p. 1/37 Epälineaariset yhtälöt Newtonin menetelmä: x n+1 = x n f(x n) f (x n ) Sekanttimenetelmä:
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
Talousmatematiikan perusteet: Luento 10. Lineaarikuvaus Matriisin aste Determinantti Käänteismatriisi
Talousmatematiikan perusteet: Luento 10 Lineaarikuvaus Matriisin aste Determinantti Käänteismatriisi Lineaarikuvaus Esim. Yritys tekee elintarviketeollisuuden käyttämää puolivalmistetta, jossa käytetään
Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28
Numeeriset menetelmät TIEA381 Luento 5 Kirsi Valjus Jyväskylän yliopisto Luento 5 () Numeeriset menetelmät 3.4.2013 1 / 28 Luennon 5 sisältö Luku 4: Ominaisarvotehtävistä Potenssiinkorotusmenetelmä QR-menetelmä
3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä
3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a 21
Talousmatematiikan perusteet: Luento 11. Lineaarikuvaus Matriisin aste Käänteismatriisi
Talousmatematiikan perusteet: Luento 11 Lineaarikuvaus Matriisin aste Käänteismatriisi Viime luennolla Käsittelimme matriisien peruskäsitteitä ja laskutoimituksia Vakiolla kertominen, yhteenlasku ja vähennyslasku
3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä
1 3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a
MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45
MS-A0003/A0005 Matriisilaskenta Laskuharjoitus / vko 5 Tehtävä 1 (L): Hahmottele kompleksitasoon ne pisteet, jotka toteuttavat a) z 3 =, b) z + 3 i < 3, c) 1/z >. Yleisesti: ehto z = R, z C muodostaa kompleksitasoon
1. TILASTOLLINEN HAHMONTUNNISTUS
1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,
Numeeriset menetelmät
Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma
Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
Likimääräisratkaisut ja regularisaatio
48 Luku 4 Likimääräisratkaisut ja regularisaatio Ryhdytään tarkastelemaan klassisia approksimatiivisia ratkaisumenetelmiä huonosti asetetuille tai häiriöherkille äärellisulotteisille lineaarisille ongelmille
Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.
Määritelmä 4.3. Estimaattoria X(Y ) nimitetään lineaariseksi projektioksi, jos X on lineaarinen kuvaus ja E[(X X(Y )) Y] 0 }{{} virhetermi Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi
Lineaarikuvausten. Lineaarikuvaus. Lineaarikuvauksia. Ydin. Matriisin ydin. aiheita. Aiheet. Lineaarikuvaus. Lineaarikuvauksen matriisi
Lineaarikuvaukset aiheita ten ten 1 Matematiikassa sana lineaarinen liitetään kahden lineaariavaruuden väliseen kuvaukseen. ten Määritelmä Olkoon (L, +, ) ja (M, ˆ+, ˆ ) reaalisia lineaariavaruuksia, ja
4.3.6 Eräitä diskreettejä Markov-kenttiä
0.4 0.35 Gauss l1 Cauchy 0.3 0.25 0.2 0.15 0.1 0.05 0 10 8 6 4 2 0 2 4 6 8 10 Kuva 4.20: L2-priorin tnft, Cauchy-priorin tntf kun α = α = 2. 2π π 2π ja L1-priorin tntf kun 4.3.6 Eräitä diskreettejä Markov-kenttiä
Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =
Johdatus diskreettiin matematiikkaan Harjoitus 5, Ratkaise rekursioyhtälö
Johdatus diskreettiin matematiikkaan Harjoitus 5, 14.10.2015 1. Ratkaise rekursioyhtälö x n+4 2x n+2 + x n 16( 1) n, n N, alkuarvoilla x 1 2, x 2 14, x 3 18 ja x 4 42. Ratkaisu. Vastaavan homogeenisen
Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 6 Kirsi Valjus Jyväskylän yliopisto Luento 6 () Numeeriset menetelmät 4.4.2013 1 / 33 Luennon 6 sisältö Interpolointi ja approksimointi Polynomi-interpolaatio: Vandermonden
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
Ratkaisuehdotukset LH 7 / vko 47
MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [
Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35
Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen
Numeeriset menetelmät
Numeeriset menetelmät Luento 4 To 15.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 4 To 15.9.2011 p. 1/38 p. 1/38 Lineaarinen yhtälöryhmä Lineaarinen yhtälöryhmä matriisimuodossa Ax = b
Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
Numeeriset menetelmät TIEA381. Luento 3. Kirsi Valjus. Jyväskylän yliopisto. Luento 3 () Numeeriset menetelmät / 45
Numeeriset menetelmät TIEA381 Luento 3 Kirsi Valjus Jyväskylän yliopisto Luento 3 () Numeeriset menetelmät 20.3.2013 1 / 45 Luennon 3 sisältö Luku 2: Epälineaarisen yhtälön ratkaiseminen Polynomin reaaliset
Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka
y x1 σ t 1 = c y x 1 σ t 1 = y x 2 σ t 2 y x 2 x 1 y = σ(t 2 t 1 ) x 2 x 1 y t 2 t 1
1. Tarkastellaan funktiota missä σ C ja y (y 1,..., y n ) R n. u : R n R C, u(x, t) e i(y x σt), (a) Miksi funktiota u(x, t) voidaan kutsua tasoaalloksi, jonka aaltorintama on kohtisuorassa vektorin y
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. marraskuuta 2007 Antti Rasila () TodB 30. marraskuuta 2007 1 / 19 1 Lineaarinen regressiomalli ja suurimman uskottavuuden menetelmä Minimin löytäminen
Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016
Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.
Matematiikka ja teknologia, kevät 2011
Matematiikka ja teknologia, kevät 2011 Peter Hästö 13. tammikuuta 2011 Matemaattisten tieteiden laitos Tarkoitus Kurssin tarkoituksena on tutustuttaa ja käydä läpi eräisiin teknologisiin sovelluksiin liittyvää
805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?
TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä
Pienimmän neliösumman menetelmä (PNS)
neliösumman Perusongelman kuvaus 1 Tarkastellaan neljää pitkää aikasarjaa q 1 = (q 11,q 21,...,q 10,1 ) T, q 2 = (q 12,q 22,...,q 10,2 ) T, q 3 = (q 13,q 23,...,q 10,3 ) T, ja p 1 = (p 11,p 21,...,p 10,1
Aiheet. Kvadraattinen yhtälöryhmä. Kvadraattinen homogeeninen YR. Vapaa tai sidottu matriisi. Vapauden tutkiminen. Yhteenvetoa.
Yhtälöryhmän ratkaisujen lukumäärä, L8 Esimerkki kvadraattinen Haluamme ratkaista n 4x + y z = x + y + z = 5 x + y + z = 4 4 x 4 + y x y z = + z 5 4 = 5 4 Esimerkki kvadraattinen Yhtälöryhmä on kvadraattinen,
Matriisilaskenta (TFM) MS-A0001 Hakula/Vuojamo Ratkaisut, Viikko 47, 2017
Matriisilaskenta (TFM) MS-A1 Hakula/Vuojamo Ratkaisut, Viikko 47, 17 R Alkuviikko TEHTÄVÄ J1 Mitkä matriisit E 1 ja E 31 nollaavat sijainnit (, 1) ja (3, 1) matriiseissa E 1 A ja E 31 A kun 1 A = 1. 8
Dynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt
Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 12 Kirsi Valjus Jyväskylän yliopisto Luento 12 () Numeeriset menetelmät 25.4.2013 1 / 33 Luennon 2 sisältö Tavallisten differentiaaliyhtälöiden numeriikasta Rungen
Matriisilaskenta Luento 8: LU-hajotelma
Matriisilaskenta Luento 8: LU-hajotelma Antti Rasila 2016 Matriisihajotelmat 1/2 Usein matriisiyhtälön Ax = y ratkaiseminen on epäkäytännöllistä ja hidasta. Siksi numeerisessa matriisilaskennassa usein
P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu
1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)
Maximum likelihood-estimointi Alkeet
Maximum likelihood-estimointi Alkeet Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Maximum likelihood-estimointi p.1/20 Maximum Likelihood-estimointi satunnaismuuttujan X
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 5. luento.2.27 Lineaarialgebraa - Miksi? Neuroverkon parametreihin liittyvät kaavat annetaan monesti
2. Teoriaharjoitukset
2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien
MS-A0107 Differentiaali- ja integraalilaskenta 1 (CHEM)
MS-A17 Differentiaali- ja integraalilaskenta 1 CHEM) Laskuharjoitus 4lv, kevät 16 1. Tehtävä: Laske cos x dx a) osittaisintegroinnilla, b) soveltamalla sopivaa trigonometrian kaavaa. Ratkaisu: a) Osittaisintegroinnin
ARMA(p, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma.
missä µ = c φ ja C j,k = Γj k) = σ 2 φj k φ 2. ARMAp, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma. Käytännösssä optimointi tehdään numeerisesti
Talousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu
Talousmatematiikan perusteet: Luento 13 Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu Viime luennolla Aloimme tarkastella yleisiä, usean muuttujan funktioita
Osa IX. Z muunnos. Johdanto Diskreetit funktiot
Osa IX Z muunnos A.Rasila, J.v.Pfaler () Mat-.33 Matematiikan peruskurssi KP3-i 9. lokakuuta 2007 298 / 322 A.Rasila, J.v.Pfaler () Mat-.33 Matematiikan peruskurssi KP3-i 9. lokakuuta 2007 299 / 322 Johdanto
Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus
Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus 1 / 51 Lineaarikombinaatio Johdattelua seuraavaan asiaan (ei tarkkoja määritelmiä): Millaisen kuvan muodostaa joukko {λv λ R, v R 3 }? Millaisen
2. Uskottavuus ja informaatio
2. Uskottavuus ja informaatio Aluksi käsittelemme uskottavuus- ja log-uskottavuusfunktioita Seuraavaksi esittelemme suurimman uskottavuuden estimointimenetelmän Ensi viikolla perehdymme aiheeseen lisääkö
Käänteismatriisin ominaisuuksia
Käänteismatriisin ominaisuuksia Lause 1.4. Jos A ja B ovat säännöllisiä ja luku λ 0, niin 1) (A 1 ) 1 = A 2) (λa) 1 = 1 λ A 1 3) (AB) 1 = B 1 A 1 4) (A T ) 1 = (A 1 ) T. Tod.... Ortogonaaliset matriisit
Luento 5: Suurten lineaaristen yhtälöryhmien ratkaiseminen iteratiivisilla menetelmillä
Luento 5: Suurten lineaaristen yhtälöryhmien ratkaiseminen iteratiivisilla menetelmillä Matriisit voivat olla kooltaan niin suuria, että LU-hajotelman laskeminen ei ole järkevä tapa ratkaista lineaarista
Kurssin loppuosassa tutustutaan matriiseihin ja niiden käyttöön yhtälöryhmien ratkaisemisessa.
7 Matriisilaskenta Kurssin loppuosassa tutustutaan matriiseihin ja niiden käyttöön yhtälöryhmien ratkaisemisessa. 7.1 Lineaariset yhtälöryhmät Yhtälöryhmät liittyvät tilanteisiin, joissa on monta tuntematonta
1 Matriisit ja lineaariset yhtälöryhmät
1 Matriisit ja lineaariset yhtälöryhmät 11 Yhtälöryhmä matriisimuodossa m n-matriisi sisältää mn kpl reaali- tai kompleksilukuja, jotka on asetetettu suorakaiteen muotoiseksi kaavioksi: a 11 a 12 a 1n
Lineaarinen toisen kertaluvun yhtälö
Lineaarinen toisen kertaluvun yhtälö Keijo Ruotsalainen Mathematics Division Lineaarinen toisen kertaluvun differentiaaliyhtälö Toisen kertaluvun täydellinen lineaarinen yhtälö muotoa p 2 (x)y + p 1 (x)y
Pienimmän neliösumman menetelmä (PNS)
neliösumman Perusongelman kuvaus 1 Tarkastellaan neljää pitkää aikasarjaa q 1 = (q 11,q 21,...,q 10,1 ) T, q 2 = (q 12,q 22,...,q 10,2 ) T, q 3 = (q 13,q 23,...,q 10,3 ) T, ja p 1 = (p 11,p 21,...,p 10,1
Pienimmän neliösumman menetelmä (PNS)
neliösumman Perusongelman kuvaus 1 Tarkastellaan neljää pitkää aikasarjaa q 1 = (q 11,q 21,...,q 10,1 ) T, q 2 = (q 12,q 22,...,q 10,2 ) T, q 3 = (q 13,q 23,...,q 10,3 ) T, ja p 1 = (p 11,p 21,...,p 10,1
Matriisilaskenta, LH4, 2004, ratkaisut 1. Hae seuraavien R 4 :n aliavaruuksien dimensiot, jotka sisältävät vain
Matriisilaskenta LH4 24 ratkaisut 1 Hae seuraavien R 4 :n aliavaruuksien dimensiot jotka sisältävät vain a) Kaikki muotoa (a b c d) olevat vektorit joilla d a + b b) Kaikki muotoa (a b c d) olevat vektorit
2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 208 Harjoitus 4 Ratkaisuehdotuksia Tehtäväsarja I. Satunnaismuuttuja U Exp(2) ja V = U/(3 + U). Laske f V käyttämällä muuttujanvaihtotekniikkaa.
Luento 11: Rajoitusehdot. Ulkopistemenetelmät
Luento 11: Rajoitusehdot. Ulkopistemenetelmät ja sisäpistemenetelmät Lagrangen välttämättömien ehtojen ratkaiseminen Newtonin menetelmällä Jos tehtävässä on vain yhtälörajoituksia, voidaan minimipistekandidaatteja
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia
Pelaisitko seuraavaa peliä?
Lisätehtävä 1 seuraavassa on esitetty eräs peli, joka voidaan mallintaa paramterisena tilastollisena mallina tehtävänä on selvittää, kuinka peli toimii ja näyttää mallin takana oleva apulause (Tehtävä
Ratkaisuehdotukset LH 8 / vko 47
Ratkaisuehdotukset LH 8 / vko 47 Tehtävä 1: Olkoot A R n n matriisi, jonka singulaariarvohajotelma on A [ ] [ ] Σ U 1 U r 0 [V1 ] T 2 V 0 0 2 Jossa Σ r on kääntyvä matriisi, [ U 1 U 2 ] ja [ V1 V 2 ] ovat
Luento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I. Mitkä seuraavista funktioista F, F, F ja F 4 ovat kertymäfunktioita? Mitkä
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin
Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin
TAMPEREEN YLIOPISTO Pro gradu -tutkielma Emmihenna Jääskeläinen Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin Matematiikan ja tilastotieteen laitos Matematiikka Toukokuu 2012 Tampereen
ax + y + 2z = 0 2x + y + az = b 2. Kuvassa alla on esitetty nesteen virtaus eräässä putkistossa.
BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 7, Syksy 206 Tutkitaan yhtälöryhmää x + y + z 0 2x + y + az b ax + y + 2z 0 (a) Jos a 0 ja b 0 niin mikä on yhtälöryhmän ratkaisu? Tulkitse ratkaisu
Konformigeometriaa. 5. maaliskuuta 2006
Konformigeometriaa 5. maaliskuuta 006 1 Sisältö 1 Konformigeometria 1.1 Viivan esitys stereograasena projektiona............ 1. Euklidisen avaruuden konformaalinen malli........... 4 Konformikuvaukset
Inversio-ongelmien laskennallinen peruskurssi Luento 7 8
Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Kevät 2011 1 Iteratiivisista menetelmistä Tähän mennessä on tarkasteltu niin sanottuja suoria menetelmiä, joissa (likimääräinen) ratkaisu saadaan
1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 017 Harjoitus 5 Ratkaisuehdotuksia Tehtäväsarja I 1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X
MS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille
Tilastollinen aineisto Luottamusväli
Tilastollinen aineisto Luottamusväli Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Tilastollinen aineisto p.1/20 Johdanto Kokeellisessa tutkimuksessa tutkittavien suureiden
Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..
5 Lineaariset yhtälöryhmät
5 Lineaariset yhtälöryhmät Edellisen luvun lopun esimerkissä päädyttiin yhtälöryhmään, jonka ratkaisemisesta riippui, kuuluuko tietty vektori eräiden toisten vektorien virittämään aliavaruuteen Tämäntyyppisiä
Vektoreiden virittämä aliavaruus
Vektoreiden virittämä aliavaruus Määritelmä Oletetaan, että v 1, v 2,... v k R n. Näiden vektoreiden virittämä aliavaruus span( v 1, v 2,... v k ) tarkoittaa kyseisten vektoreiden kaikkien lineaarikombinaatioiden
Tilastollinen päättely II, kevät 2017 Harjoitus 2A
Tilastollinen päättely II, kevät 07 Harjoitus A Heikki Korpela 3. tammikuuta 07 Tehtävä. (Monisteen tehtävä.3 Olkoot Y,..., Y n Exp(λ. Kirjoita vastaava tilastollisen mallin lauseke (ytf. Muodosta sitten
Regressioanalyysi. Kuusinen/Heliövaara 1
Regressioanalyysi Kuusinen/Heliövaara 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Oletetaan, että haluamme selittää jonkin selitettävän muuttujan havaittujen arvojen vaihtelun joidenkin
Luento 9: Yhtälörajoitukset optimoinnissa
Luento 9: Yhtälörajoitukset optimoinnissa Lagrangen kerroin Oletetaan aluksi, että f, g : R R. Merkitään (x 1, x ) := (x, y) ja johdetaan Lagrangen kerroin λ tehtävälle min f(x, y) s.t. g(x, y) = 0 Olkoon
Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja
7 NELIÖMATRIISIN DIAGONALISOINTI. Ortogonaaliset matriisit Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja A - = A T () Muistutus: Kokoa n olevien vektorien
Käänteismatriisi 1 / 14
1 / 14 Jokaisella nollasta eroavalla reaaliluvulla on käänteisluku, jolla kerrottaessa tuloksena on 1. Seuraavaksi tarkastellaan vastaavaa ominaisuutta matriiseille ja määritellään käänteismatriisi. Jokaisella
(0 desimaalia, 2 merkitsevää numeroa).
NUMEERISET MENETELMÄT DEMOVASTAUKSET SYKSY 20.. (a) Absoluuttinen virhe: ε x x ˆx /7 0.4 /7 4/00 /700 0.004286. Suhteellinen virhe: ρ x x ˆx x /700 /7 /00 0.00 0.%. (b) Kahden desimaalin tarkkuus x ˆx
MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45
MS-A3/A5 Matriisilaskenta Laskuharjoitus 2 / vko 45 Tehtävä (L): Hahmottele kompleksitasoon ne pisteet, jotka toteuttavat a) z 2i = 2, b) z 2i < 2, c) /z
1 Kertaus. Lineaarinen optimointitehtävä on muotoa:
1 Kertaus Lineaarinen optimointitehtävä on muotoa: min c 1 x 1 + c 2 x 2 + + c n x n kun a 11 x 1 + a 12 x 2 + + a 1n x n b 1 a 21 x 1 + a 22 x 2 + + a 2n x n b 2 (11) a m1 x 1 + a m2 x 2 + + a mn x n
Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:
8 Kanta Tässä luvussa tarkastellaan aliavaruuden virittäjävektoreita, jotka muodostavat lineaarisesti riippumattoman jonon. Merkintöjen helpottamiseksi oletetaan luvussa koko ajan, että W on vektoreiden
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 4. luento 24.11.2017 Neuroverkon opettaminen - gradienttimenetelmä Neuroverkkoa opetetaan syöte-tavoite-pareilla
Inversio-ongelmien laskennallinen peruskurssi Luento 3
Inversio-ongelmien laskennallinen peruskurssi Luento 3 Kevät 2011 1 Singulaariarvohajotelma (Singular Value Decomposition, SVD) Olkoon A R m n matriisi 1. Tällöin A voidaan esittää muodossa A = UΣV T,
Luento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään
JYVÄSKYLÄN YLIOPISTO. 3. Luennon sisältö
JYVÄSKYLÄN YLIOPISTO 3. Luennon sisältö Lineaarisen optimointitehtävän sallittu alue Optimointitehtävien muunnoksia Lineaarisen yhtälöryhmän perusmuoto ja perusratkaisut Lineaarisen optimointitehtävän
Ennakkotehtävän ratkaisu
Ennakkotehtävän ratkaisu Ratkaisu [ ] [ ] 1 3 4 3 A = ja B =. 1 4 1 1 [ ] [ ] 4 3 12 12 1 0 a) BA = =. 1 + 1 3 + 4 0 1 [ ] [ ] [ ] 1 0 x1 x1 b) (BA)x = =. 0 1 x 2 x [ ] [ ] [ 2 ] [ ] 4 3 1 4 9 5 c) Bb
Matriisi-vektori-kertolasku, lineaariset yhtälöryhmät
Matematiikan peruskurssi K3/P3, syksy 25 Kenrick Bingham 825 Toisen välikokeen alueen ydinasioita Alla on lueteltu joitakin koealueen ydinkäsitteitä, joiden on hyvä olla ensiksi selvillä kokeeseen valmistauduttaessa