Gradient Sampling-Algoritmi

Samankaltaiset tiedostot
Kimppu-suodatus-menetelmä

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Osakesalkun optimointi

Konvergenssilauseita

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi

Este- ja sakkofunktiomenetelmät

Luento 9: Yhtälörajoitukset optimoinnissa

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1

Selvästi. F (a) F (y) < r x d aina, kun a y < δ. Kolmioepäyhtälön nojalla x F (y) x F (a) + F (a) F (y) < d + r x d = r x

DIFFERENTIAALI- JA INTEGRAALILASKENTA I.1. Ritva Hurri-Syrjänen/Syksy 1999/Luennot 6. FUNKTION JATKUVUUS

Taustatietoja ja perusteita

Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi.

Luento 11: Rajoitusehdot. Ulkopistemenetelmät

Matematiikan ja tilastotieteen laitos Reaalianalyysi I Harjoitus Malliratkaisut (Sauli Lindberg)

Epälineaaristen yhtälöiden ratkaisumenetelmät

min x x2 2 x 1 + x 2 1 = 0 (1) 2x1 1, h = f = 4x 2 2x1 + v = 0 4x 2 + v = 0 min x x3 2 x1 = ± v/3 = ±a x 2 = ± v/3 = ±a, a > 0 0 6x 2

(0 desimaalia, 2 merkitsevää numeroa).

Yhden muuttujan funktion minimointi

Täydellisyysaksiooman kertaus

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

peitteestä voidaan valita äärellinen osapeite). Äärellisen monen nollajoukon yhdiste on nollajoukko.

Topologia I Harjoitus 6, kevät 2010 Ratkaisuehdotus

The Metropolis-Hastings Algorithm

Cantorin joukon suoristuvuus tasossa

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

2 Konveksisuus ja ratkaisun olemassaolo

MATEMATIIKAN JA TILASTOTIETEEN LAITOS

Numeeriset menetelmät

Johdatus tekoälyn taustalla olevaan matematiikkaan

MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi

KKT: log p i v 1 + v 2 x i = 0, i = 1,...,n.

Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi.

Lebesguen mitta ja integraali

1 Supremum ja infimum

4.3 Moniulotteinen Riemannin integraali

Luento 10: Optimointitehtävien numeerinen ratkaiseminen; optimointi ilman rajoitusehtoja

Toispuoleiset raja-arvot

Oletetaan ensin, että tangenttitaso on olemassa. Nyt pinnalla S on koordinaattiesitys ψ, jolle pätee että kaikilla x V U

8. Avoimen kuvauksen lause

3.3 Funktion raja-arvo

r > y x z x = z y + y x z y + y x = r y x + y x = r

MS-C1350 Osittaisdifferentiaaliyhtälöt Harjoitukset 5, syksy Mallivastaukset

Duaalisuus kokonaislukuoptimoinnissa. Mat , Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki

1 sup- ja inf-esimerkkejä

Kuva 1: Funktion f tasa-arvokäyriä. Ratkaisu. Suurin kasvunopeus on gradientin suuntaan. 6x 0,2

Numeeriset menetelmät

7. Tasaisen rajoituksen periaate

Positiivitermisten sarjojen suppeneminen

MS-A010{3,4} (ELEC*) Differentiaali- ja integraalilaskenta 1 Luento 3: Jatkuvuus

Injektio (1/3) Funktio f on injektio, joss. f (x 1 ) = f (x 2 ) x 1 = x 2 x 1, x 2 D(f )

TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio. Kimmo Berg. Mat Optimointioppi. 9. harjoitus - ratkaisut

Epälineaaristen yhtälöiden ratkaisumenetelmät

Poistumislause Kandidaatintutkielma

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

Luku 4. Derivoituvien funktioiden ominaisuuksia.

Lineaarinen optimointi. Harjoitus 6-7, Olkoon A R m n, x, c R ja b R m. Osoita, että LP-tehtävän. c T x = min!

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

Analyysi 1. Harjoituksia lukuihin 1 3 / Syksy Osoita täsmällisesti perustellen, että joukko A = x 4 ei ole ylhäältä rajoitettu.

Lineaariavaruudet. Span. Sisätulo. Normi. Matriisinormit. Matriisinormit. aiheita. Aiheet. Reaalinen lineaariavaruus. Span. Sisätulo.

, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1).

b 1. b m ) + ( 2b Ax) + (b b)

Shorin algoritmin matematiikkaa Edvard Fagerholm

Todennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset

Malliratkaisut Demot

Finanssimaailman ongelmien ratkaiseminen epäsileän optimoinnin keinoin. Markus Harteela Turun yliopisto

Seuraava topologisluonteinen lause on nk. Bairen lause tai Bairen kategorialause, n=1

Stokesin lause LUKU 5

Ellipsoidimenetelmä. Samuli Leppänen Kokonaislukuoptimointi. S ysteemianalyysin Laboratorio

Analyysin peruslause

4. Martingaalit ja lokaalit martingaalit

Funktiot. funktioita f : A R. Yleensä funktion määrittelyjoukko M f = A on jokin väli, muttei aina.

Derivaattaluvut ja Dini derivaatat

1 Rajoittamaton optimointi

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Keskeiset tulokset heikko duaalisuus (duaaliaukko, 6.2.1) vahva duaalisuus (6.2.4) satulapisteominaisuus (6.2.5) yhteys KKT ehtoihin (6.2.

MS-C1340 Lineaarialgebra ja

Antti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16

Derivaatta: funktion approksimaatio lineaarikuvauksella.

Ratkaisuehdotus 2. kurssikoe

Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus

Matematiikan tukikurssi

Likimääräisratkaisut ja regularisaatio

IV. TASAINEN SUPPENEMINEN. f(x) = lim. jokaista ε > 0 ja x A kohti n ε,x N s.e. n n

Tasainen suppeneminen ja sen sovellukset

=p(x) + p(y), joten ehto (N1) on voimassa. Jos lisäksi λ on skalaari, niin

Vektorianalyysi I MAT Luennoitsija: Ritva Hurri-Syrjänen Luentoajat: ti: 14:15-16:00, to: 12:15-14:00 Helsingin yliopisto 21.

Matematiikan tukikurssi

y = 3x2 y 2 + sin(2x). x = ex y + e y2 y = ex y + 2xye y2

1 Määrittelyjä ja aputuloksia

Matematiikan tukikurssi

Ratkaisu: (i) Joukko A X on avoin jos kaikilla x A on olemassa r > 0 siten että B(x, r) A. Joukko B X on suljettu jos komplementti B c on avoin.

Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).

Numeeriset menetelmät TIEA381. Luento 4. Kirsi Valjus. Jyväskylän yliopisto. Luento 4 () Numeeriset menetelmät / 44

ICS-C2000 Tietojenkäsittelyteoria Kevät 2016

Differentiaali- ja integraalilaskenta 2 Laskuharjoitus 4 / vko 40

Ratkaisuehdotus 2. kurssikokeeseen

Numeeriset menetelmät

d ) m d (I n ) = 2 d n d. Koska tämä pätee kaikilla

Mat Lineaarinen ohjelmointi

Transkriptio:

1/24 Gradient Sampling-Algoritmi Ville-Pekka Eronen April 20, 2016

2/24 Perusidea -"Stabiloitu nopeimman laskeutumisen menetelmä" - Laskevan suunnan haku: lasketaan gradientit nykyisessä pisteessä sekä muutamasta pisteestä nykyisen pisteen ympäristöstä. Otetaan gradienteista konveksi peite, haetaan tästä joukosta normin minimoiva vektori. Laskeva suunta on tämän vektorin vastakkainen suunta. - Vertaa: suunnaksi normin minimoivan aligradientin vastainen suunta.

3/24 Perusidea - Goldsteinin ε-alidifferentiaali: G ε f (x) = cl conv y B(x,ε) f (y) - Gradienttien konveksin peitteen voidaan ajatella approksimoivan tätä joukkoa. - Sunnan haku toisin: approksimoidaan ε-alidifferentiaalia ja haetaan tästä normin minimoivan vektorin vastavektori.

4/24 Optimointi ongelma - min f (x) s.t. x R n - Menetelmää voidaan soveltaa funktioon f, joka on jatkuva ja differentioituva melkein kaikkialla. - Differentioituva m.k. Jos otetaan piste tasaisesta jakaumasta yli suljetun pallon, niin piste on differentioituva todennäköisyydellä 1.

5/24 Teoreettisia oletuksia - Seuraavaksi esitetään yksinkertaistettu versio artikkelin [1] algoritmista. Alkuperäiselle algoritmille voidaan todistaa tiettyjä konvergenssi ominaisuuksia. Todistukset edellyttävät: 1) Kohdefunktio on lokaalisti Lipschitz jatkuva. 2) Funktion on oltava jatkuvasti differentioituva avoimessa joukossa D, joka on tiheä. 3) On olemassa piste x, jolle L = {x f (x) f (x)} on kompakti.

/24 Gradient sampling - algoritmi 0. askel(alustus) Olkoon x 0 L D R n, β, γ (0, 1), ε > 0, k = 0 ja m n + 1, m N. m n + 1, jotta voidaan todistaa konvergenssituloksia. Funktion oletuksista ja Caratheodoryn Lauseesta seuraa, että äärellisellä todennäköisyydellä algoritmin löytämä laskeva suunta poikkeaa ɛ-alidifferentiaalin normin minimoivan vektorin vastavektorista korkeintaan pienen luvun δ > 0 verran.

/24 1. askel( ε G f approksimointi) Aseta x k0 = x k ja x kj = x k + εu kj, j = 1, 2,..., m, missä pisteet u kj ovat otettu satunnaisotantana tasaisesta jakaumasta yli joukon B(0; 1). Aseta G k = conv { f (x k0 ), f (x k1 ),..., f (x km ) }. Huomaa: G k ε G f (x k0 ).

8/24 Gradient sampling - algoritmi 2. askel(laskevan suunnan haku) Olkoon g k = argmin g Gk g 2. Jos g k = 0, lopeta. Muutoin d k = g k g k. Löydetty suunta on laskeva suunta: f (x k ; d k ) = f (x k ) T d k sup g G k g T d k Epäyhtälö 1) seuraa konveksista analyysistä. 1) g k

9/24 Gradient sampling - algoritmi 3. askel(askelpituuden määritys) t k = max {1, γ, γ 2,...}, jolle f (x k + t k d k ) f (x k ) < βt k g k. (1) Viivahaku on äärellinen prosessi: On olemassa t > 0, jolle f (x k + td k ) < f (x k ) + βt f (x k ) T d k 2) f (x k ) tβ g k kaikilla t (0, t). 2) seuraa kalvon 10 epäyhtälöstä.

10/24 Gradient sampling - algoritmi 4. askel(päivitys) Jos x k + t k d k D, niin aseta x k+1 = x k + t k d k. Jos ei, niin etsi satunnaisesti piste x k x k + εb(0; 1), jolle x k + t k d k D ja f (x k + t k d k ) f (x k ) < βt k g k. Aseta i = i + 1 ja siirry 1. askeleeseen. Funktion f jatkuvuuden nojalla ehdon toteuttava uusi piste löydetään nollasta poikkeavalla todennäköisyydellä.

f (x, y) = max {x 2, y 2 } y 0.0 0.5 1.0 1.5 2.0 x0=(1.01,1)= eps=0.1 y=x f=0.4 f=0.8 f=1.2 f=1.6 0.0 0.5 1.0 1.5 2.0 11/24 x

12/24 gx gy 0.0 0.5 1.0 1.5 2.0 2.5 G =cl conv U f(x i ) k m i=1 0.0 0.5 1.0 1.5 2.0 2.5

13/24 f t 0.2 0.4 0.6 0.8 1.0 β, γ =0.8 f(x k) β t g k 4 3 2 1 f 0.0 0.2 0.4 0.6 0.8 1.0

14/24 x y 0.0 0.5 1.0 1.5 2.0 2 f=0.8 1 f=1.6 0.0 0.5 1.0 1.5 2.0

15/24 Konvergenssi tuloksia, huomioita - Algoritmi löytää iteraatiokierroksen aikana uuden pisteen, joka tuottaa pienemmän kohdefunktion arvon kuin edellinen piste. - Yhteen kierrokseen kuluu äärellinen määrä laskentaa. - Ratkaisupisteet ovat erit ja ne ovat kompaktissa joukossa L - Siis: jono f (x k ) konvergoi ja jono (x k ) sisältää ainakin yhden kasautumispisteen. - Näistäkin huolimatta konvergenssitodistukset ovat hankalia: syy g k satunnaisuus.

16/24 Konvergenssi tuloksia, määrittelyjä Algoritmi pyrkii löytämään Clarke ε-stationaarista pistettä. f (x) ε G f (x) eli Clarke stationaarinen piste on Clarke ε-stationaarinen. Jos ε = 0, niin 0 G f (x) = f (x) Parametria ε pienentämällä ε-stationaaristen pisteiden joukko lähestyy Clarke stationaaristen pisteiden joukkoa.

17/24 Konvergenssi tuloksia: kiinnitetty ε Olkoon ( x k) GS-algoritmin tuottama ratkaisujono. Tällöin todennäköisyydellä 1 joko i) jono ( x k) on äärellinen. Algortimin pysähtyessä askeleeseen k 0 on 0 ε G f (x k 0 ) ii) Jonon ( x k) jokainen kasautumispiste ˆx on Clarke ε-stationaarinen. Todistus: [2] (Kiwiel 2007)

18/24 Konvergenssi tuloksia: muuttuva ε Alkuperäisessä algoritmissa päivitetään parametria ε tiettyjen ehtojen täyttyessä. Tällöin pystytään todistamaan "vahvempi" tulos: Olkoon ( x k) sopiva parametrisen alkuperäisen GS-algoritmin tuottama ratkaisujono. Tällöin todennäköisyydellä 1 jono (x k ) on ääretön. On olemassa osajono ( ) x kj, jonka jokainen kasautumispiste on Clarke stationaarinen piste eli 0 f (ˆx). Todistus: [2] (Kiwiel 2007)

19/24 Numeerinen osuus: käytännössä... - Käytännössä pisteen differentioituvuuden tarkastamista ei tehdä: "This is simply impossible in finite precision and in any case would make life very difficult for the user who provides function and gradient values" (Burke, J.V. et al.). - Algoritmia testattiin viiteen eri tehtävään muutamilla eri muuttujalukumäärillä (käyrän sovittaminen eksponentti summilla, ominaisarvotulojen minimointi, spektraalisen/pseudospektraalisen abskissan minimointi, matriisin "distance to instability" maksimointi ja näiden sovellus) - Tehtäviä ei oltu ennen ratkaistu.

20/24 Numeerinen osuus: vertailua - Kvalitatiivista vertailua polytooppi menetelmän ja Bundle Trust menetelmän kanssa. - Polytooppi menetelmä pystyi ratkaisemaan vain helpoimmat tehtävät pienillä n arvolla. - BT menetelmä nopeampi, mutta epätarkempi kuin GSA. Lisäksi se ei pystynyt ratkaisemaan vaikeimpia ongelmia.

21/24 Kompleksisuudesta Joka iteraatio edellyttää: - m + 1 gradientin evaluointia - kvadraattisen tehtävän ratkaisua (m + 1 muuttujaa, 1 rajoite) - määräämätöntä määrää funktioevaluointeja (viivahaku).

22/24 GSA muualla - Artikkeliin [1] on viitattu yli 71 artikkelista - Kiwiel 2007 [2]: muutos löydetyn pisteen differentioitumis tarkistukseen ja joukon L kompaktisuus oletus pois. Modifioitu versio: laskeva suunta ei enää yksikkövektori. - Curtis & Que 2013 [3]: gradientti evaluointien vähentäminen. 2. kertaluvun informaatiota mukaan.

23/24 Viitteet [1]: Burke, J. V., Lewis, A. S., Overton, M. L., A robust gradient sampling algorithm for nonsmooth, nonconvex optimization. SIAM J. Optim. 15 no. 3, 751-779 [2]: Kiwiel, K. C., Convergence of the gradient sampling algorithm for nonsmooth nonconvex optimization. SIAM J. Optim. 18 (2007), no. 2, 379-388 [3]: Curtis, F. E., Que, X., An adaptive gradient sampling algorithm for non-smooth optimization. Optim. Methods Softw. 28 (2013), no. 6, 1302-1324.

24/24 Kiitos