Inversio-ongelmien laskennallinen peruskurssi Luento 4

Samankaltaiset tiedostot
Inversio-ongelmien laskennallinen peruskurssi Luento 3

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8

3.2.2 Tikhonovin regularisaatio

Likimääräisratkaisut ja regularisaatio

Likimääräisratkaisut ja regularisaatio

Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).

MS-A0003/A Matriisilaskenta Laskuharjoitus 6

Kohdeyleisö: toisen vuoden teekkari

Ratkaisuehdotukset LH 7 / vko 47

Paikannuksen matematiikka MAT

Ratkaisuehdotukset LH 8 / vko 47

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:

Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus

Monissa käytännön ongelmissa ei matriisiyhtälölle Ax = b saada ratkaisua, mutta approksimaatio on silti käyttökelpoinen.

(0 desimaalia, 2 merkitsevää numeroa).

7 Vapaus. 7.1 Vapauden määritelmä

MS-A0004/MS-A0006 Matriisilaskenta Laskuharjoitus 6 / vko 42

Ominaisarvoon 4 liittyvät ominaisvektorit ovat yhtälön Ax = 4x eli yhtälöryhmän x 1 + 2x 2 + x 3 = 4x 1 3x 2 + x 3 = 4x 2 5x 2 x 3 = 4x 3.

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Lineaarialgebra ja matriisilaskenta II Syksy 2009 Laskuharjoitus 1 ( ) Ratkaisuehdotuksia Vesa Ala-Mattila

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Liittomatriisi. Liittomatriisi. Määritelmä 16 Olkoon A 2 M(n, n). Matriisin A liittomatriisi on cof A 2 M(n, n), missä. 1) i+j det A ij.

Käänteismatriisi 1 / 14

1 Singulaariarvohajoitelma

2. Teoriaharjoitukset

Insinöörimatematiikka D

Sisätuloavaruudet. 4. lokakuuta 2006

Kanta ja Kannan-vaihto

Lineaarialgebra ja matriisilaskenta I, HY Kurssikoe Ratkaisuehdotus. 1. (35 pistettä)

Numeeriset menetelmät TIEA381. Luento 4. Kirsi Valjus. Jyväskylän yliopisto. Luento 4 () Numeeriset menetelmät / 44

Päättelyn voisi aloittaa myös edellisen loppupuolelta ja näyttää kuten alkupuolella, että välttämättä dim W < R 1 R 1

Aiheet. Kvadraattinen yhtälöryhmä. Kvadraattinen homogeeninen YR. Vapaa tai sidottu matriisi. Vapauden tutkiminen. Yhteenvetoa.

Numeeriset menetelmät

Johdatus tekoälyn taustalla olevaan matematiikkaan

Matriisilaskenta Luento 12: Vektoriavaruuden kannan olemassaolo

Lineaarialgebra ja matriisilaskenta I

Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.

4. Lasketaan transienttivirrat ja -jännitteet kuvan piiristä. Piirielimien arvot ovat C =

1 Kannat ja kannanvaihto

Matriisihajotelmat. MS-A0007 Matriisilaskenta. 5.1 Diagonalisointi. 5.1 Diagonalisointi

ominaisvektorit. Nyt 2 3 6

Matematiikan tukikurssi

Ominaisvektoreiden lineaarinen riippumattomuus

Vektorien virittämä aliavaruus

Vapaus. Määritelmä. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee:

Lineaarialgebra ja differentiaaliyhtälöt Laskuharjoitus 1 / vko 44

1 Kertaus. Lineaarinen optimointitehtävä on muotoa:

Determinantti 1 / 30

Sovellettu todennäköisyyslaskenta B

Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1

JAKSO 2 KANTA JA KOORDINAATIT

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

Määritelmä Olkoon T i L (V i, W i ), 1 i m. Yksikäsitteisen lineaarikuvauksen h L (V 1 V 2 V m, W 1 W 2 W m )

BM20A0700, Matematiikka KoTiB2

MS-C1340 Lineaarialgebra ja

Aiheet. Kvadraattinen yhtälöryhmä. Kvadraattinen homogeeninen YR. Vapaa tai sidottu matriisi. Vapauden tutkiminen. Yhteenvetoa.

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

Laskennallinen data-analyysi II

Lineaarialgebra II, MATH.1240 Matti laaksonen, Lassi Lilleberg

Parametrien estimointi sovellettuna Pandora-instrumentin mittauksiin

Luento 8: Epälineaarinen optimointi

Ortogonaalisen kannan etsiminen

MS-A0003/A0005 Matriisilaskenta Malliratkaisut 4 / vko 47

Osoita, että täsmälleen yksi vektoriavaruuden ehto ei ole voimassa.

Singulaariarvohajotelma ja pseudoinverssi

Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.

1 Rajoittamaton optimointi

Tehtäväsarja I Seuraavat tehtävät liittyvät kurssimateriaalin lukuun 7 eli vapauden käsitteeseen ja homogeenisiin

1. Normi ja sisätulo

Ominaisarvo-hajoitelma ja diagonalisointi

Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Inversio-ongelmien laskennallinen peruskurssi Luento 7

Regressioanalyysi. Kuusinen/Heliövaara 1

Insinöörimatematiikka D

6. Tietokoneharjoitukset

TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010

Talousmatematiikan perusteet: Luento 10. Lineaarikuvaus Matriisin aste Determinantti Käänteismatriisi

Numeeriset menetelmät

Insinöörimatematiikka D

4.3.6 Eräitä diskreettejä Markov-kenttiä

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Differentiaali- ja integraalilaskenta 1 Ratkaisut 2. viikolle /

Lineaarikuvausten. Lineaarikuvaus. Lineaarikuvauksia. Ydin. Matriisin ydin. aiheita. Aiheet. Lineaarikuvaus. Lineaarikuvauksen matriisi

Matematiikan tukikurssi

Suoran yhtälöt. Suoran ratkaistu ja yleinen muoto: Suoran yhtälö ratkaistussa, eli eksplisiittisessä muodossa, on

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

5 OMINAISARVOT JA OMINAISVEKTORIT

Ominaisarvo ja ominaisvektori

sitä vastaava Cliffordin algebran kannan alkio. Merkitään I = e 1 e 2 e n

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45

Avaruuden R n aliavaruus

Gaussin ja Jordanin eliminointimenetelmä

Talousmatematiikan perusteet: Luento 11. Lineaarikuvaus Matriisin aste Käänteismatriisi

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

5 Ominaisarvot ja ominaisvektorit

Kertausta: avaruuden R n vektoreiden pistetulo

Transkriptio:

Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa muutetaan niin, että se muuttuu hyvin asetetuksi (tai ainakin vähemmän huonosti asetetuksi). Tällöin tietenkin myös saatu ratkaisu muuttuu, eli liiallisen regularisoinnin vaarana on, että halutun approksimatiivisen ratkaisun sijasta saadaankin täysin väärä ratkaisu. Erilaisia regularisointimenetelmiä on lukuisia, mutta tällä kurssilla tutustutaan lähemmin vain kahteen: typistettyyn singulaariarvohajotelmaan ja Tikhonovin regularisaatioon. 2 Typistettu singulaariarvohajotelma (Truncated SVD) Oletetaan, että A R m n. Tarkastellaan lineaarisen yhtälön m = Ax ratkaisemista singulaariarvohajotelmaa A = UΣV T käyttäen. Nyt matriisi ΣR m n on diagonaalimatriisi, jonka diagonaali Σ diag on muotoa Σ diag = (σ, σ 2,..., σ r, 0,..., 0), missä σ r on pienin nollasta eroava matriisin A singulaariarvo, r min(m, n). Miniminormi (tai pienimmän neliösumman) ratkaisu voidaan kirjoittaa muodossa r x = V Σ + U T = m, u i v i,

missä, on normaali vektorien sisätulo, u i on matriisin U i:s sarakevektori ja v i on matriisin V i:s sarakevektori. Likimääräisen ratkaisun TSVD-estimaatti ˆx (k), k r, annetaan kaavalla ˆx (k) = m, u i v i. Toisin sanoen TSVD-estimaattiin otetaan mukaan vain k ensimmäistä singulaariarvoa ja niitä vastaavat matriisien U ja V sarakkeet. Tämä estimaatin antama ratkaisu ˆx (k) luonnollisesti eroaa likimääräisestä ratkaisusta x. Huomaa, että jos matriisilla A on 0-singulaariarvoja, niin likimääräinen ratkaisu x on itsessään TSVD-estimaatti: x = ˆx (r). Tarkastellan nyt ongelmaa, joka sisältää virhetermin ε. m = Ax + ε. Ongelman (tarkan) ratkaisun x ja sen TSVD-estimaatin ˆx (k) eron selvittämiseksi kirjoitetaan ensin ratkaisu x käyttämällä kantana matriisin V sarakevektoreita (Huomaa, että koska V on ortogonaalinen, muodostavat sen sarakevektorit kannan avaruudessa R n.): x = x, v i v i = x vi v j. Nyt mutta ˆx (k) = m, u i v i = Ax, u i = i=i Ax, u i v i + ε, u i v i, σ l x, v l u l, u i = x, v i = x vi, l= koska matriisin U ortogonaalisuuden perusteella u i, u j = 0, kun i j. Täten siis saadaan ˆx (k) = x vi v i + m, u i v i. Nyt ratkaisun x ja sen TSVD-estimaatin ˆx (k) erolle saadaan x ˆx (k) = i=k+ x vi v i + 2 m, u i v i,

ja x ˆx (k) 2 = = i=k+ i=k+ x vi v i 2 + x 2 v i + ε, u i 2. σ 2 i ε, u i v i 2 Ensimmäinen termi in riippumaton virheestä ε, ja sitä kutsutaan usein estimaatin ˆx (k) harhaksi (bias). Sille pätee i=k+ x 2 v i 0, kun k n. Toista termiä kutsutaan rekonstruktiovirheeksi ja se kasvaa, kun k n. Varsinkin, jos matriisin A pienimmät singulaariarvot ovat hyvin pieniä (tai nollia), se saattaa kasvaa kontrolloimattomasti. Typistettyä singulaariarvohajotelmaa käytettäessä onkin tärkeää valita typistysparametri k niin, että. k on tarpeeksi suuri, jotta bias ei ole liian suuri, ja toisaalta 2. k on riittävän pieni, jotta rekonstruktiovirhe ei pääse kasvamaan liian suureksi. Ideaalinen valinta olisi tietysti k = k opt, siten, että k opt = min k x ˆx (k) 2. Tietenkään normaalisti meillä ei ole tietoa, mikä x on, vaan joudutaan turvautumaan ainoastaan likimääräisiin ratkaisuihin. 3 Morozovin diskrepanssiperiaate (discrepancy principle) Oletetaan, että meillä on ainoastaan jonkinlainen arvio virheen normista: ε e, eli ratkaisulle x pätisi Ax m e. 3

Tällöin voidaan sanoa, että mikä tahansa likimääräinen TSVD-estimaatti ˆx (k), jolle pätee Aˆx (k) m e on käytettävissä olevan informaation mielessä tarpeeksi hyvä ratkaisu. Toisaalta, jos k valitaan liian suureksi, alkaa likimääräinen tulla mukaan myös kohinaa, joten k pitäisi valita niin pieneksi kuin mahdollista. Määritelmä 3. (Morozovin diskrepanssiperiaate). Valitaan k siten, että Aˆx (k) m e, Aˆx (k ) m > e, toisin sanoen k on pienin luku, jolla diskrepanssin Aˆx (k) m normi on pienempi kuin mittausvirheen normi. Toinen (mutta heuristinen) tapa valita luku k on niin sanottu L-käyrämenetelmä (L-curve method): Nyt jono on monotonisesti laskeva, eli δ k = Aˆx (k) m δ 0 = m δ δ r = 0. Toisaalta likimääräisratkaisun ˆx (k) normi ˆx (k) 2 = m, u i v i = on parametrin k suhteen kasvava jono. Lisäksi kaavasta ˆx (k) 2 = m, u i 2 σ 2 i ( x vi + ε, u ) 2 i nähdään, että virhetermi alkaa dominoida, kun 0. Jos piirretään kuvaaja k (log ˆx (k), log Aˆx (k) m ), saataa se näyttää esimerkiksi sellaiselta kuin kuvassa. Kuvaajasta voidaan nähdä, että L-kirjaimen kulmassa. diskrepanssi ei enää merkittävästi laske, mutta 2. ratkaisun normissa virhetermi alkaa dominoida. Toisin sanoen, valitse k L-kirjaimen kulman kohdalta! Käyrän muoto riippuu ongelmasta, eikä se aina ole L:n muotoinen. 4

k= 0 0. k kasvaa 0 0. 0 0.3 Diskrepanssi 0 0.5 0 0.7 0 0.9 0 0 0 2 0 4 0 6 0 8 0 0 0 2 0 4 Ratkaisun normi Kuva : L-käyrä 5