Osakesalkun optimointi

Save this PDF as:
 WORD  PNG  TXT  JPG

Koko: px
Aloita esitys sivulta:

Download "Osakesalkun optimointi"

Transkriptio

1 Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016

2 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit Optimointiongelmat Epäsileän optimoinnin käyttäminen 5 5 Diskreetin gradientin menetelmä Laskevan suunnan hakeminen Diskreetin gradientin algoritmi Algoritmien testaus 8 7 Rinnakkaistaminen 9 Lähde 9 1 Johdanto Tämä on Epäsileä optimointi -kurssin harjoitustyö, joka perustuu artikkeliin [1]. Osakesalkun optimoinnilla pyritään löytämään sijoituskohteille sopivat painokertoimet ja samalla toteuttamaan halutut riski- ja tuottovaatimukset. Value-at-risk (VaR) on yleinen riskienhallinnassa käytetty mitta. Toinen riskin mittari on odotettu alijäämä (ehdollinen VaR) CVaR, joka määritellään tappion ehdollisena odotusarvona, kun tappio ylittää VaR-rajan. Lineaarisen optimoinnin ja epäsileän optimoinnin tekniikoilla voidaan laskea VaR ja CVaR samalla, kun suoritetaan osakesalkun optimointi. Tämä perustuu myöhemmin esiteltävän epäsileän funktion F β minimointiin. 1

3 2 Taustatietoja Osakesalkussa on n kohdetta ja se esitetään kohteiden suhteellisten painokertoimien avulla. Merkitään painokerroinvektoria w R n ja w i 0, w i = 1. Merkitään vektorilla x R n kohteiden tulevia tuottoja, jotka ovat satunnaismuuttujia tiheysfunktiolla p(x). Jos kohde aiheuttaa tappiota, ajatellaan se negatiivisena tuottona. Osakesalkun tappio L(w, x) on satunnaismuuttuja ja esimerkiksi lineaarisessa tapauksessa L(w, x) = w T x = w i x i. Todennäköisyys, että tappio ei ylitä arvoa α määritellään seuraavasti P (L(w, x) α) = P (α) = p(x)dx. L(w,x) α VaR määritellään arvona, jota tappio L(w, x) ei ylitä todennäköisyydellä β (yleensä 95 %). Se voidaan esittää kvantiilina α β = min{α R : P (α) β}. CVaR (ψ β ) määritellään tappion L(w, x) odotusarvona ehdolla, että tappio on suurempi kuin α β (VaR). CVaR on muun muassa konveksi ja aliadditiivinen. ψ β = E(L(w, x) L(w, x) α β ) = (1 β) L(w,s) α 1 L(w, x)p(x)dx β = (1 β) R 1 max{l(w, x) α β, 0}p(x)dx. n Tarkastellaan osakesalkun optimointitehtävää, jossa tarkoituksena on löytää painokerroinvektori w, joka minimoi osakesalkkuun liittyvän riskin (esimerkiksi VaR tai CVaR). Ratkaisun täytyy kuulua joukkoon S = {w R n : w i 0, w i = 1}. Ratkaisujoukkoa voidaan rajoittaa myös lisäehdolla, että odotetun tuoton on oltava suurempi kuin jokin arvo R eli L(w, E(x)) R tai vastaavasti L(w, E(x)) R. 2

4 Epäsileää optimointia voidaan käyttää osakesalkun optimointiin sekä VaR- ja CVaR-arvojen laskemiseen. Määritellään funktio F β seuraavasti F β (α) = α + (1 β) 1 R n max{l(w, x) α, 0}p(x)dx. Riskit VaR ja CVaR löydetään minimoimalla funktio F β. ψ β = min F β (α), α β = alaraja arg min F β (α). CVaR-arvon minimointi yli kaikkien arvojen w S vastaa tehtävää, jossa minimoidaan F β (w, α) yli arvojen (w, α) S R: min ψ β (w) = min F w β(w, α). w,α Samalla kerralla voidaan siis laskea molemmat riskit sekä osakesalkun optimointitehtävän ratkaisu suhteessa arvoon CVaR. Funktio F β on muuttujan α suhteen konveksi ja jatkuvasti differentioituva. Konveksin tappion L(w, x) tapauksessa se on konveksi myös suhteessa muuttujaan w. Käyttämällä minimoitavan riskin mittana arvoa CVaR voidaan siis käyttää konveksin optimoinnin metodeja. Jos osakesalkkua optimoitaisiin suhteessa riskiin VaR, päädyttäisiin epäkonveksiin kohdefunktioon, jolla on paljon lokaaleja minimiarvoja. 3 Laskumetodit Kohdefunktio F β sisältää moniulotteisen integraalin, joka voidaan laskea käyttämällä Monte-Carlo-metodia. Tätä varten generoidaan q vektoria x 1,..., x q R n käyttäen satunnaismuuttujan x jakautumaa. Approksimoidaan kohdefunktion arvoa seuraavasti ˆF β ˆF β (w, α) = α + 1 q(1 β) q max{l(w, x i ) α, 0}. i=1 on konveksi ja paloittain lineaarinen suhteessa muuttujaan α ja jos L(w, x) on konveksi, ˆFβ on konveksi myös suhteessa muuttujaan w. Jos 3

5 lisäksi L(w, x) on lineaarinen, ˆFβ on konveksi ja paloittain lineaarinen molempien muuttujien suhteen. 3.1 Optimointiongelmat Tarkastellaan kahta eri ongelmaa. Ongelma A: CVaR ja VaR, kun w on kiinnitetty min α ˆFβ (w, α) Ongelma B: Osakesalkun optimointi s.t. w kiinnitetty. min α,w ˆF β (w, α) s.t. w S D, missä D on kompakti joukko, joka esittää mahdollisia lisävaatimuksia, esimerkiksi D = {w S : (L(w, E(x)) R}. Tarkastellaan tapausta, jossa tappio on lineaarinen, L(w, x) = w T x. Tällöin molemmat ongelmat voidaan muotoilla lineaarisiksi optimointiongelmiksi. Ongelma A : min α,ɛ α + 1 q(1 β) q i=1 s.t. α + ɛ i L(w, x i ), i = 1,..., q, ɛ i 0, w kiinnitetty. ɛ i 4

6 Ongelma B : min α + 1 q ɛ i α,w,ɛ q(1 β) i=1 n s.t. α + ɛ i + w j x ij 0, i = 1,..., q, ɛ i 0, j=1 w S D. Tässä x ij on vektorin x i komponentti j. Nyt voidaan ratkaista joko tehtävä A (/B) epäsileän optimoinnin avulla tai tehtävä A (/B ) käyttäen lineaarisia metodeja, kuten simplexiä. Hyvää approksimaatiota varten täytyy generoitujen vektoreiden määrän q olla suuri. Tällöin ongelmilla A ja B on q + 1 ja n + q + 1 muuttujaa. Tämä on paljon enemmän kuin ongelmilla A (yksi muuttuja) ja B (n + 1 muuttujaa). Laskennalliselta kannalta ei kuitenkaan ole aivan selvää, kumpi lähestymistapa on tehokkaampi. 4 Epäsileän optimoinnin käyttäminen Ongelma B on epäsileä osakesalkun optimointitehtävä, jolla on lineaariset rajoitteet. Tehtävä voidaan ratkaista diskreetin gradientin menetelmällä. Koska menetelmää käytetään rajoittamattomille tehtäville, lineaariset rajoitteet täytyy käsitellä jotenkin. Sakkofunktion käyttämisen lisäksi tarkastellaan toista tapaa. Voidaan osoittaa, että muotoa min f(x) (1) s.t. x X = {y R n : Ay = b} 5

7 oleva rajoitettu optimointitehtävä, jonka kohdefunktion oletetaan olevan konveksi ja epäsileä, voidaan muokata rajoittamattomaksi tehtäväksi min h(y) (2) s.t. y R n m. Oletetaan, että A on m n matriisi ja b R m. Oletetaan myös, että matriisin aste on m ja m < n. Tässä tapauksessa lineaariset rajoiteyhtälöt voidaan ratkaista. Muuttujat x 1,..., x n voidaan jakaa kahteen osaan x = (x B, x N ), missä x B R n m,x N R m. Lisäksi A = (A 1, A 2 ), missä A 1 sisältää muuttujia x B vastaavat sarakkeet ja A 2 koostuu muuttujia x N vastaavista sarakkeista. Oletetaan, että A 2 on epäsingulaarinen ja siis kääntyvä. Nyt rajoitteet voidaan kirjoittaa A 1 x B + A 2 x N = b x N = A 1 2 (b A 1 x B ). Alkuperäinen kohdefunktio voidaan kirjoittaa uudelleen Määritellään funktio f(x) = f(x B, x N ) = f(x B, A 1 2 (b A 1 x B )). h(y) = f(y, A 1 2 (b A 1 y)). Seuraava lause esitetään ilman todistuksia. Lause Jos x X on alkuperäisen tehtävän (1) ratkaisu, on olemassa y R n m, jolle x = (y, A 1 2 (b A 1 y )) ja y on tehtävän (2) ratkaisu. 2. Olkoon y R n m ongelman (2) ratkaisu. Tällöin x = (y, A 1 2 (b A 1 y )) on ongelman (1) ratkaisu. Tehtävän (1) sijaan voidaan siis ratkaista rajoittamaton tehtävä (2) esimerkiksi diskreetin gradientin menetelmällä. 6

8 5 Diskreetin gradientin menetelmä Diskreetin gradientin menetelmää käytetään epäsileiden optimointiongelmien ratkaisemisessa. Se hyödyntää diskreettien gradienttien suljettua konveksia joukkoa alidifferentiaalin approksimoinnissa. 5.1 Laskevan suunnan hakeminen Laskeva suunta haetaan käyttämällä annettuja parametrien arvoja ja satunnaista suuntavektoria g, jolle g = 1. Annetussa pisteessä x lasketaan diskreetti gradientti v 1. Asetetaan konveksi suljettu joukko D 1 (x) = {v 1 }. Lasketaan joukon D 1 (x) etäisyys origosta w k 2 = min{ w 2 : w D k (x)}, missä k on kierroslaskuri. Jos etäisyys on pienempi, kuin annettu raja δ, lopetetaan ja hyväksytään x stationaarisen pisteen approksimaatioksi. Muuten asetetaan uusi hakusuunta g k+1 = w k 1 w k. Jos suunta on laskeva, lopetetaan. Muuten lasketaan diskreetti gradientti v k+1 käyttämällä suuntaa g k+1. Lisätään v k+1 diskreettien gradienttien konveksiin joukkoon ja palataan laskemaan joukon etäisyyttä origosta. On osoitettu, että laskevan suunnan haku lopetetaan l (l < ) kierroksen jälkeen. 5.2 Diskreetin gradientin algoritmi Valitaan jokin aloituspiste x 0 ja lasketaan laskeva suunta. Tuloksena saadaan diskreettien gradienttien joukko D l (x k s), missä k ja s ovat kierroslaskureita ja l on kierros, jonka jälkeen laskevan suunnan haku lopetetaan. Lisäksi saadaan vektori, joka antaa joukon etäisyyden origoon. Jos etäisyys on pienempi kuin annettu raja, asetetaan x k+1 = x k, asetetaan k = k + 1 palataan laskemaan laskevaa suuntaa. Muuten asetetaan uusi piste käyttämällä löydettyä laskevaa suuntaa x k s+1 = x k s +σ s gs k. Asetetaan s = s+1 ja palataan laskevan suunnan hakemiseen. 7

9 6 Algoritmien testaus Testataan eri vaihtoehtoja ongelmien A ja B ratkaisemiseksi. Tässä käydään läpi vaihtoehdot 1. Ratkaistaan alkuperäisen sijaan ongelma A (B ) simplex-metodilla. 2. Ratkaistaan A (B ) sisäpistemenetelmällä. 3. Ratkaistaan ongelman A (B ) duaalitehtävä simplex-metodilla. 4. Ratkaistaan duaalitehtävä sisäpistemenetelmällä. 5. Ratkaistaan A (B) diskreetin gradientin menetelmällä käyttäen sakkofunktiota rajoitteiden käsittelyssä. 6. Ratkaistaan A (B) diskreetin gradientin menetelmällä ja muodostamalla rajoittamaton tehtävä kuten luvussa 4. Taulukko 1 sisältää artikkelissa [1] esitetyt laskuajat (s) yhdessä esimerkissä, jossa CVaR (ja VaR) on laskettu käyttäen todennäköisyyttä β = 0, 95. Tappio L(w, x) = w T x, n = 3 ja testiaineistossa muttujat x ovat normaalisti jakautuneita. Taulukko 1 q Ongelma A/A , ,01 0,01 0,01 0, ,1 0, , >14h >14h >14h Ongelma B/B , ,01 1 0,01 0, >14h >14h - >14h

10 Tämän esimerkin ja muiden artikkelissa esitettyjen testien perusteella diskreetin gradientin menetelmä on tehokkaampi sekä VaR- ja CVaR-arvojen, että optimaalisen osakesalkun laskemisessa, kun kohteiden määrä n on kohtalainen ja generoitujen tapausten määrä q on suuri. Toisaalta lineaarisesta lähestymistavasta (ongelmat A ja B ) on hyötyä, kun osakesalkun koko on n on suuri, mutta generoituja tapauksia on vähän. Kohdefunktion F β sisältämän integraalin hyvää approksimaatiota varten tarvitaan kuitenkin paljon tapauksia ja lukumäärän q on oltava riittävän suuri (yli 10 5 ). Epäsileän optimoinnin lähestymistapa (ongelmat A ja B) sietää hyvin lukumäärän kasvattamisen, koska tehtävien muuttujien määrä ei riipu arvosta q. Toisaalta ongelmat A ja B ovat yleisempiä kuin ongelmat A ja B, sillä ne eivät oleta lineaarista tappiota. Diskreetin gradientin menetelmä toimii myös konvekseille tapauksille. Jos L(w, x) onkin konkaavi, kohdefunktiolla ˆF β voi olla paljon lokaaleja minimejä. Diskreetin gradientin menetelmällä päästään matalien lokaalien minimikohtien ohi ja jollei konvergoida kohti globaalia minimiä, päästään ainakin tarpeeksi syvään lokaaliin minimiin. 7 Rinnakkaistaminen Supertietokoneiden käyttämisen sijaan voidaan jakaa laskutehtäviä useammalle nopealla yhteydellä yhdistetylle tietokoneelle. Suuri laskuprosessi voidaan rinnakkaistaa jakamalla tehtäviä usealle koneelle. Tällöin yhdeltä koneelta ei tarvita niin paljon tehokkuutta tai muistia. Diskreetin gradientin menetelmän rinnakkaistamisen sijaan voidaan rinnakkaistaa myös kohdefunktion F β arvon laskeminen. Funktion sisältämän integraalin laskeminen vaatii eniten työtä. Siksi on ehkä järkevämpää käyttää yksinkertaisempaa versiota optimointimetodista ja rinnakkaistaa summan ˆF β laskeminen. 9

11 Lähde [1] Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization. Optimization, 55:5-6, , DOI: /

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016 Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.

Lisätiedot

Kimppu-suodatus-menetelmä

Kimppu-suodatus-menetelmä Kimppu-suodatus-menetelmä 2. toukokuuta 2016 Kimppu-suodatus-menetelmä on kehitetty epäsileiden optimointitehtävien ratkaisemista varten. Menetelmässä approksimoidaan epäsileitä funktioita aligradienttikimpulla.

Lisätiedot

Gradient Sampling-Algoritmi

Gradient Sampling-Algoritmi 1/24 Gradient Sampling-Algoritmi Ville-Pekka Eronen April 20, 2016 2/24 Perusidea -"Stabiloitu nopeimman laskeutumisen menetelmä" - Laskevan suunnan haku: lasketaan gradientit nykyisessä pisteessä sekä

Lisätiedot

Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi.

Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi. Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi. Konveksisuus Muista x + αd, α 0, on pisteestä x R n alkava puolisuora, joka on vektorin d suuntainen. Samoin

Lisätiedot

Taustatietoja ja perusteita

Taustatietoja ja perusteita Taustatietoja ja perusteita Vektorit: x R n pystyvektoreita, transpoosi x T Sisätulo: x T y = n i=1 x i y i Normi: x = x T x = ni=1 x 2 i Etäisyys: Kahden R n :n vektorin välinen etäisyys x y 1 Avoin pallo:

Lisätiedot

Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi.

Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi. Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi. Konveksisuus Muista. + αd, α 0, on pisteessä R n alkava puolisuora, joka on vektorin d suuntainen. Samoin 2

Lisätiedot

Duaalisuus kokonaislukuoptimoinnissa. Mat , Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki

Duaalisuus kokonaislukuoptimoinnissa. Mat , Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki Duaalisuus kokonaislukuoptimoinnissa Mat-2.4191, Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki Sisältö Duaalisuus binäärisissä optimointitehtävissä Lagrangen duaalisuus Lagrangen

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille

Lisätiedot

Malliratkaisut Demot

Malliratkaisut Demot Malliratkaisut Demot 3.2.27 Tehtävä. Valmisohjelmistolla voidaan ratkaista tehtävä min c T x s. t. Ax b x, missä x, c ja b R n ja A R m n. Muunnetaan tehtävä max x + 2x 2 + 3x 3 + x s. t. x + 3x 2 + 2x

Lisätiedot

6. Luennon sisältö. Lineaarisen optimoinnin duaaliteoriaa

6. Luennon sisältö. Lineaarisen optimoinnin duaaliteoriaa JYVÄSKYLÄN YLIOPISTO 6. Luennon sisältö Lineaarisen optimoinnin duaaliteoriaa työkalu ratkaisun analysointiin Jälki- ja herkkyysanalyysiä mitä tapahtuu optimiratkaisulle, jos tehtävän vakiot hieman muuttuvat

Lisätiedot

min x x2 2 x 1 + x 2 1 = 0 (1) 2x1 1, h = f = 4x 2 2x1 + v = 0 4x 2 + v = 0 min x x3 2 x1 = ± v/3 = ±a x 2 = ± v/3 = ±a, a > 0 0 6x 2

min x x2 2 x 1 + x 2 1 = 0 (1) 2x1 1, h = f = 4x 2 2x1 + v = 0 4x 2 + v = 0 min x x3 2 x1 = ± v/3 = ±a x 2 = ± v/3 = ±a, a > 0 0 6x 2 TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-39 Optimointioppi Kimmo Berg 6 harjoitus - ratkaisut min x + x x + x = () x f = 4x, h = x 4x + v = { { x + v = 4x + v = x = v/ x = v/4 () v/ v/4

Lisätiedot

1 Kertaus. Lineaarinen optimointitehtävä on muotoa:

1 Kertaus. Lineaarinen optimointitehtävä on muotoa: 1 Kertaus Lineaarinen optimointitehtävä on muotoa: min c 1 x 1 + c 2 x 2 + + c n x n kun a 11 x 1 + a 12 x 2 + + a 1n x n b 1 a 21 x 1 + a 22 x 2 + + a 2n x n b 2 (11) a m1 x 1 + a m2 x 2 + + a mn x n

Lisätiedot

Lineaarisen ohjelman määritelmä. Joonas Vanninen

Lineaarisen ohjelman määritelmä. Joonas Vanninen Lineaarisen ohjelman määritelmä Joonas Vanninen Sisältö Yleinen optimointitehtävä Kombinatorinen tehtävä Optimointiongelman tapaus Naapurusto Paikallinen ja globaali optimi Konveksi optimointitehtävä Lineaarinen

Lisätiedot

Luento 11: Rajoitusehdot. Ulkopistemenetelmät

Luento 11: Rajoitusehdot. Ulkopistemenetelmät Luento 11: Rajoitusehdot. Ulkopistemenetelmät ja sisäpistemenetelmät Lagrangen välttämättömien ehtojen ratkaiseminen Newtonin menetelmällä Jos tehtävässä on vain yhtälörajoituksia, voidaan minimipistekandidaatteja

Lisätiedot

Malliratkaisut Demo 4

Malliratkaisut Demo 4 Malliratkaisut Demo 4 1. tehtävä a) () = 2+1. Funktio on lineaarinen, joten se on unimodaalinen sekä maksimoinnin että minimoinnin suhteen. Funktio on konveksi ja konkaavi. b) () = (suurin kokonaisluku

Lisätiedot

Luento 6: Monitavoiteoptimointi

Luento 6: Monitavoiteoptimointi Luento 6: Monitavoiteoptimointi Monitavoiteoptimointitehtävässä on useita optimoitavia kohdefunktioita eli ns kriteereitä: f 1,, f m Esimerkiksi opiskelija haluaa oppia mahdollisimman hyvin ja paljon mahdollisimman

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35 Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen

Lisätiedot

Monitavoiteoptimointi

Monitavoiteoptimointi Monitavoiteoptimointi Useita erilaisia tavoitteita, eli useita objektifunktioita Tavoitteet yleensä ristiriitaisia ja yhteismitattomia Optimaalisuus tarkoittaa yleensä eri asiaa kuin yksitavoitteisessa

Lisätiedot

Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu

Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu Merkintöjä := vasen puoli määritellään oikean puolen lausekkeella s.e. ehdolla; siten että (engl. subject to, s.t.) on voimassa

Lisätiedot

Yhden muuttujan funktion minimointi

Yhden muuttujan funktion minimointi Yhden muuttujan funktion minimointi Aloitetaan yhden muuttujan tapauksesta Tarpeellinen myös useamman muuttujan tapauksessa Tehtävä on muotoa min kun f(x) x S R 1 Sallittu alue on muotoa S = [a, b] tai

Lisätiedot

Luento 6: Monitavoitteinen optimointi

Luento 6: Monitavoitteinen optimointi Luento 6: Monitavoitteinen optimointi Monitavoitteisessa optimointitehtävässä on useita optimoitavia kohdefunktioita eli ns kriteereitä: f,,f m Esimerkki ortfolion eli arvopaperijoukon optimoinnissa: f

Lisätiedot

Luento 9: Yhtälörajoitukset optimoinnissa

Luento 9: Yhtälörajoitukset optimoinnissa Luento 9: Yhtälörajoitukset optimoinnissa Lagrangen kerroin Oletetaan aluksi, että f, g : R R. Merkitään (x 1, x ) := (x, y) ja johdetaan Lagrangen kerroin λ tehtävälle min f(x, y) s.t. g(x, y) = 0 Olkoon

Lisätiedot

TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010

TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010 TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta Yliassistentti Jussi Hakanen jussi.hakanen@jyu.fi syksy 2010 Evoluutiopohjainen monitavoiteoptimointi MCDM ja EMO Monitavoiteoptimointi kuuluu

Lisätiedot

Talousmatematiikan perusteet: Luento 14. Rajoitettu optimointi Lagrangen menetelmä: yksi yhtälörajoitus Lagrangen menetelmä: monta yhtälörajoitusta

Talousmatematiikan perusteet: Luento 14. Rajoitettu optimointi Lagrangen menetelmä: yksi yhtälörajoitus Lagrangen menetelmä: monta yhtälörajoitusta Talousmatematiikan perusteet: Luento 14 Rajoitettu optimointi Lagrangen menetelmä: yksi yhtälörajoitus Lagrangen menetelmä: monta yhtälörajoitusta Viime luennolla Tarkastelimme usean muuttujan funktioiden

Lisätiedot

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1 TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että

Lisätiedot

JYVÄSKYLÄN YLIOPISTO. 3. Luennon sisältö

JYVÄSKYLÄN YLIOPISTO. 3. Luennon sisältö JYVÄSKYLÄN YLIOPISTO 3. Luennon sisältö Lineaarisen optimointitehtävän sallittu alue Optimointitehtävien muunnoksia Lineaarisen yhtälöryhmän perusmuoto ja perusratkaisut Lineaarisen optimointitehtävän

Lisätiedot

The Metropolis-Hastings Algorithm

The Metropolis-Hastings Algorithm The Metropolis-Hastings Algorithm Chapters 6.1 6.3 from Monte Carlo Statistical Methods by Christian P. Robert and George Casella 08.03.2004 Harri Lähdesmäki The Metropolis-Hastings Algorithm p. 1/21 Taustaa

Lisätiedot

Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu

Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu Merkintöjä := vasen puoli määritellään oikean puolen lausekkeella s.e. ehdolla; siten että (engl. subject to, s.t.) vasemman puolen

Lisätiedot

KKT: log p i v 1 + v 2 x i = 0, i = 1,...,n.

KKT: log p i v 1 + v 2 x i = 0, i = 1,...,n. TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-2.139 Optimointioppi Kimmo Berg 7. harjoitus - ratkaisut 1. Oletetaan aluksi, että epäyhtälöt eivät ole aktiivisia p i > 0. Tässä tapauksess KKTehdot

Lisätiedot

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Tilastollinen testaus. Vilkkumaa / Kuusinen 1 Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää

Lisätiedot

Malliratkaisut Demo 4

Malliratkaisut Demo 4 Malliratkaisut Demo 4 1. tehtävä a) f(x) = 2x + 21. Funktio on lineaarinen, joten se on unimodaalinen sekä maksimoinnin että imoinnin suhteen. Funktio on konveksi ja konkaavi. b) f(x) = x (pienin kokonaisluku

Lisätiedot

Talousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu

Talousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu Talousmatematiikan perusteet: Luento 13 Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu Viime luennolla Aloimme tarkastella yleisiä, usean muuttujan funktioita

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 10 1 Lokaalit ääriarvot Yhden muuttujan funktion f (x) lokaali maksimi on piste x 0, jossa f (x) on suurempi kuin muualle pisteen x 0 ympäristössä, eli kun f (x 0 )

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

Luento 10: Optimointitehtävien numeerinen ratkaiseminen; optimointi ilman rajoitusehtoja

Luento 10: Optimointitehtävien numeerinen ratkaiseminen; optimointi ilman rajoitusehtoja Luento 10: Optimointitehtävien numeerinen ratkaiseminen; optimointi ilman rajoitusehtoja Seuraavassa esitetään optimointitehtävien numeerisia ratkaisumenetelmiä, eli optimointialgoritmeja, keittokirjamaisesti.

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

Harjoitus 3 (3.4.2014)

Harjoitus 3 (3.4.2014) Harjoitus 3 (3..) Tehtävä Olkoon kaaren paino c ij suurin sallittu korkeus tieosuudella (i, j). Etsitään reitti solmusta s solmuun t siten, että reitin suurin sallittu korkeus pienimmillään olisi mahdollisimman

Lisätiedot

TEKNILLINEN TIEDEKUNTA, MATEMATIIKAN JAOS

TEKNILLINEN TIEDEKUNTA, MATEMATIIKAN JAOS 1. Suorakaiteen muotoisen lämmönvaraajan korkeus on K, leveys L ja syvyys S yksikköä. Konvektiosta ja säteilystä johtuvat lämpöhäviöt ovat verrannollisia lämmönvaraajan lämpötilan T ja ympäristön lämpötilan

Lisätiedot

Väliestimointi (jatkoa) Heliövaara 1

Väliestimointi (jatkoa) Heliövaara 1 Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).

Lisätiedot

Este- ja sakkofunktiomenetelmät

Este- ja sakkofunktiomenetelmät Este- ja sakkofunktiomenetelmät Keijo Ruotsalainen Mathematics Division Luennon kulku Este- ja sisäpistemenetelmät LP-ongelmat ja logaritminen estefunktio Polun seuranta Newtonin menetelmällä Sakkofunktiomenetelmistä

Lisätiedot

Harjoitus 3 (31.3.2015)

Harjoitus 3 (31.3.2015) Harjoitus (..05) Tehtävä Olkoon kaaren paino c ij suurin sallittu korkeus tieosuudella (i,j). Etsitään reitti solmusta s solmuun t siten, että reitin suurin sallittu korkeus pienimmillään olisi mahdollisimman

Lisätiedot

HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2017 Harjoitus 1 Ratkaisuehdotuksia

HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2017 Harjoitus 1 Ratkaisuehdotuksia HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 07 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Osa tämän viikon tehtävistä ovat varsin haastavia, joten ei todellakaan

Lisätiedot

TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010

TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010 TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta Yliassistentti Jussi Hakanen jussi.hakanen@jyu.fi syksy 2010 Optimaalisuus: objektiavaruus f 2 min Z = f(s) Parhaat arvot alhaalla ja vasemmalla

Lisätiedot

, tuottoprosentti r = X 1 X 0

, tuottoprosentti r = X 1 X 0 Ostat osakkeen hintaan ja myyt sen vuoden myöhemmin hintaan X 1. Kokonaistuotto on tällöin R = X 1, tuottoprosentti r = X 1 ja pätee R = 1 + r. Lyhyeksimyymisellä tarkoitetaan, että voit myydä osakkeen

Lisätiedot

4.0.2 Kuinka hyvä ennuste on?

4.0.2 Kuinka hyvä ennuste on? Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki

Lisätiedot

Harjoitus 4: Matlab - Optimization Toolbox

Harjoitus 4: Matlab - Optimization Toolbox Harjoitus 4: Matlab - Optimization Toolbox Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Optimointimallin muodostaminen

Lisätiedot

1 Rajoitettu optimointi I

1 Rajoitettu optimointi I Taloustieteen mat.menetelmät 2017 materiaali II-1 1 Rajoitettu optimointi I 1.1 Tarvittavaa osaamista Matriisit ja vektorit, matriisien de niittisyys Derivointi (mm. ketjusääntö, Taylorin kehitelmä) Implisiittifunktiolause

Lisätiedot

Piiri K 1 K 2 K 3 K 4 R R

Piiri K 1 K 2 K 3 K 4 R R Lineaarinen optimointi vastaus, harj 1, Syksy 2016. 1. Teollisuuslaitos valmistaa piirejä R 1 ja R 2, joissa on neljää eri komponenttia seuraavat määrät: Piiri K 1 K 2 K 3 K 4 R 1 3 1 2 2 R 2 4 2 3 0 Päivittäistä

Lisätiedot

b 1. b m ) + ( 2b Ax) + (b b)

b 1. b m ) + ( 2b Ax) + (b b) TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-9 Optimointioppi Kimmo Berg 5 harjoitus - ratkaisut min Ax b (vertaa PNS-tehtävät) a x + + a n x n a) Ax b = a m x + + a mn x n = x a a m }{{}

Lisätiedot

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista 6 Epäyhtälöitä Epäyhtälöt ovat yksi matemaatikon voimakkaimmista työvälineistä. Yhtälö a = b kertoo sen, että kaksi ehkä näennäisesti erilaista asiaa ovat samoja. Epäyhtälö a b saattaa antaa keinon analysoida

Lisätiedot

1 Rajoittamaton optimointi

1 Rajoittamaton optimointi Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y

Lisätiedot

2 Osittaisderivaattojen sovelluksia

2 Osittaisderivaattojen sovelluksia 2 Osittaisderivaattojen sovelluksia 2.1 Ääriarvot Yhden muuttujan funktiolla f(x) on lokaali maksimiarvo (lokaali minimiarvo) pisteessä a, jos f(x) f(a) (f(x) f(a)) kaikilla x:n arvoilla riittävän lähellä

Lisätiedot

Ellipsoidimenetelmä. Samuli Leppänen Kokonaislukuoptimointi. S ysteemianalyysin Laboratorio

Ellipsoidimenetelmä. Samuli Leppänen Kokonaislukuoptimointi. S ysteemianalyysin Laboratorio Ellipsoidimenetelmä Kokonaislukuoptimointi Sovelletun matematiikan lisensiaattiseminaari Kevät 2008 / 1 Sisällys Ellipsoidimenetelmän geometrinen perusta ja menetelmän idea Formaali ellipsoidimenetelmä

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8

Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Kevät 2011 1 Iteratiivisista menetelmistä Tähän mennessä on tarkasteltu niin sanottuja suoria menetelmiä, joissa (likimääräinen) ratkaisu saadaan

Lisätiedot

Moniulotteisia todennäköisyysjakaumia

Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Talousmatematiikan perusteet: Luento 17. Integraalin sovelluksia kassavirta-analyysissa Integraalin sovelluksia todennäköisyyslaskennassa

Talousmatematiikan perusteet: Luento 17. Integraalin sovelluksia kassavirta-analyysissa Integraalin sovelluksia todennäköisyyslaskennassa Talousmatematiikan perusteet: Luento 17 Integraalin sovelluksia kassavirta-analyysissa Integraalin sovelluksia todennäköisyyslaskennassa Motivointi Kahdella edellisellä luennolla olemme oppineet integrointisääntöjä

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 6 To 22.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 6 To 22.9.2011 p. 1/38 p. 1/38 Ominaisarvotehtävät Monet sovellukset johtavat ominaisarvotehtäviin Yksi

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 18 1 Kertausta: momenttimenetelmä ja suurimman uskottavuuden menetelmä 2 Tilastollinen

Lisätiedot

Pienimmän neliösumman menetelmä

Pienimmän neliösumman menetelmä Pienimmän neliösumman menetelmä Keijo Ruotsalainen Division of Mathematics Funktion sovitus Datapisteet (x 1,...,x n ) Annettu data y i = f(x i )+η i, missä f(x) on tuntematon funktio ja η i mittaukseen

Lisätiedot

Konjugaattigradienttimenetelmä

Konjugaattigradienttimenetelmä Konjugaattigradienttimenetelmä Keijo Ruotsalainen Division of Mathematics Konjugaattigradienttimenetelmä Oletukset Matriisi A on symmetrinen: A T = A Positiivisesti definiitti: x T Ax > 0 kaikille x 0

Lisätiedot

Lineaarinen optimointi. Harjoitus 6-7, Olkoon A R m n, x, c R ja b R m. Osoita, että LP-tehtävän. c T x = min!

Lineaarinen optimointi. Harjoitus 6-7, Olkoon A R m n, x, c R ja b R m. Osoita, että LP-tehtävän. c T x = min! Lineaarinen optimointi Harjoitus 6-7, 016. 1. Olkoon A R m n, x, c R ja b R m. Osoita, että LP-tehtävän c T x = min! (T) Ax b x 0 duaalitehtävän duaali on tehtävä (T). Ratkaisu. (P) c T x = min! Ax b x

Lisätiedot

4.5 Kaksivaiheinen menetelmä simplex algoritmin alustukseen

4.5 Kaksivaiheinen menetelmä simplex algoritmin alustukseen 4.5 Kaksivaiheinen menetelmä simplex algoritmin alustukseen Käypä kantaratkaisu löytyy helposti, esimerkiksi tapauksessa Ax b, b 0 x 0 jolloin sen määräävät puutemuuttujat. Tällöin simplex-menetelmän alustus

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma

Lisätiedot

2. Jatkoa HT 4.5:teen ja edelliseen tehtavään: Määrää X:n kertymäfunktio F (x) ja laske sen avulla todennäköisyydet

2. Jatkoa HT 4.5:teen ja edelliseen tehtavään: Määrää X:n kertymäfunktio F (x) ja laske sen avulla todennäköisyydet Tilastotieteen jatkokurssi Sosiaalitieteiden laitos Harjoitus 5 (viikko 9) Ratkaisuehdotuksia (Laura Tuohilampi). Jatkoa HT 4.5:teen. Määrää E(X) ja D (X). E(X) = 5X p i x i =0.8 0+0.39 +0.4 +0.4 3+0.04

Lisätiedot

Keskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6)

Keskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6) Mat-.3 Koesuunnittelu ja tilastolliset mallit kevät Keskipisteen lisääminen k -faktorikokeeseen (ks. Montgomery 9-6) Esim (Montg. ex. 9-, 6-): Tutkitaan kemiallisen prosessin saannon Y riippuvuutta faktoreista

Lisätiedot

12. Hessen matriisi. Ääriarvoteoriaa

12. Hessen matriisi. Ääriarvoteoriaa 179 12. Hessen matriisi. Ääriarvoteoriaa Tarkastelemme tässä luvussa useamman muuttujan (eli vektorimuuttujan) n reaaliarvoisia unktioita : R R. Edellisessä luvussa todettiin, että riittävän säännöllisellä

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila

Lisätiedot

Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden

Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden 1.12.2006 1. Satunnaisjakauman tiheysfunktio on Ü µ Üe Ü, kun Ü ja kun Ü. Määritä parametrin estimaattori momenttimenetelmällä ja suurimman uskottavuuden menetelmällä. Ratkaisu: Jotta kyseessä todella

Lisätiedot

Lineaarinen optimointitehtävä

Lineaarinen optimointitehtävä Lineaarinen optimointitehtävä Minimointitehtävä yhtälörajoittein: min kun n j=1 n j=1 c j x j a ij x j = b i x j 0 j = 1,..., n i = 1,..., m Merkitään: z = alkuperäisen objektifunktion arvo käsiteltävänä

Lisätiedot

4.2.2 Uskottavuusfunktio f Y (y 0 X = x)

4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Kuva 4.6: Elektroniikassa esiintyvän lämpökohinan periaate. Lämpökohinaa ε mallinnetaan additiivisella häiriöllä y = Mx + ε. 4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Tarkastellaan tilastollista inversio-ongelmaa,

Lisätiedot

Talousmatematiikan perusteet: Luento 11. Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla

Talousmatematiikan perusteet: Luento 11. Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla Talousmatematiikan perusteet: Luento 11 Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla Esimerkki Esim. Yritys tekee kahta elintarviketeollisuuden käyttämää puolivalmistetta,

Lisätiedot

4. Luennon sisältö. Lineaarisen optimointitehtävän ratkaiseminen Simplex-menetelmä

4. Luennon sisältö. Lineaarisen optimointitehtävän ratkaiseminen Simplex-menetelmä JYVÄSKYLÄN YLIOPISTO 4. Luennon sisältö Lineaarisen optimointitehtävän ratkaiseminen Simplex-menetelmä kevät 2012 TIEA382 Lineaarinen ja diskreetti optimointi Lineaarinen optimointitehtävä Minimointitehtävä

Lisätiedot

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx. Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin

Lisätiedot

Finanssimaailman ongelmien ratkaiseminen epäsileän optimoinnin keinoin. Markus Harteela Turun yliopisto

Finanssimaailman ongelmien ratkaiseminen epäsileän optimoinnin keinoin. Markus Harteela Turun yliopisto Finanssimaailman ongelmien ratkaiseminen epäsileän optimoinnin keinoin Markus Harteela Turun yliopisto huhtikuu 2016 1 Johdanto Tämä työ on kurssin Epäsileä Optimointi harjoitustyö ja se perustuu artikkeliin

Lisätiedot

Luento 9: Newtonin iteraation sovellus: optimointiongelma

Luento 9: Newtonin iteraation sovellus: optimointiongelma Luento 9: Newtonin iteraation sovellus: optimointiongelma ilman rajoitusehtoja Optimointiongelmassa tehtävänä on löytää annetun reaaliarvoisen jatkuvan funktion f(x 1,x,,x n ) maksimi tai minimi jossain

Lisätiedot

Luento 3: Simplex-menetelmä

Luento 3: Simplex-menetelmä Luento 3: Simplex-menetelmä Kuten graafinen tarkastelu osoittaa, LP-tehtävän ratkaisu on aina käyvän alueen kulmapisteessä, eli ekstreemipisteessä (extreme point). Simplex-menetelmässä ekstreemipisteitä,

Lisätiedot

r = r f + r M r f (Todistus kirjassa sivulla 177 tai luennon 6 kalvoissa sivulla 6.) yhtälöön saadaan ns. CAPM:n hinnoittelun peruskaava Q P

r = r f + r M r f (Todistus kirjassa sivulla 177 tai luennon 6 kalvoissa sivulla 6.) yhtälöön saadaan ns. CAPM:n hinnoittelun peruskaava Q P Markkinaportfolio on koostuu kaikista markkinoilla olevista riskipitoisista sijoituskohteista siten, että sijoituskohteiden osuudet (so. painot) markkinaportfoliossa vastaavat kohteiden markkina-arvojen

Lisätiedot

Malliratkaisut Demot

Malliratkaisut Demot Malliratkaisut Demot 5 10.4.2017 Tehtävä 1 x 2 7 0,7 9,8 6 5 4 x 1 x 2 7 x 1 x 2 1 3 2 x 1 0 4,3 x 1 9 1 0,0 x 2 0 9,0 1 2 3 4 5 6 7 8 9 x 1 Kuva 1: Tehtävän 1 sallittu joukko S Optimointitehtävän sallittu

Lisätiedot

Malliratkaisut Demot

Malliratkaisut Demot Malliratkaisut Demot 3 7.3.07 Tehtävä Olkoon tilamuuttujat Tällöin saadaan rekursioyhtälö f n (x n ) = max yn {0,} ynwn xn f 0 ( ) = 0. x n = vaiheessa n jäljellä oleva paino, n =,...,N, esine n pakataan

Lisätiedot

Lineaarisen kokonaislukuoptimointitehtävän ratkaiseminen

Lineaarisen kokonaislukuoptimointitehtävän ratkaiseminen Lineaarisen kokonaislukuoptimointitehtävän ratkaiseminen Jos sallittuja kokonaislukuratkaisuja ei ole kovin paljon, ne voidaan käydä kaikki läpi yksitellen Käytännössä tämä ei kuitenkaan ole yleensä mahdollista

Lisätiedot

Tutkimustiedonhallinnan peruskurssi

Tutkimustiedonhallinnan peruskurssi Tutkimustiedonhallinnan peruskurssi Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo hannu.toivonen, marko.salmenkivi, inkeri.verkamo@cs.helsinki.fi Helsingin yliopisto Hannu Toivonen, Marko Salmenkivi,

Lisätiedot

1 Johdanto LP tehtävän luonteen tarkastelua Johdanto herkkyysanalyysiin Optimiarvon funktio ja marginaalihinta

1 Johdanto LP tehtävän luonteen tarkastelua Johdanto herkkyysanalyysiin Optimiarvon funktio ja marginaalihinta Sisältö Johdanto 2 LP tehtävän luonteen tarkastelua 3 Johdanto herkkyysanalyysiin 5 2 Optimiarvon funktio ja marginaalihinta 5 3 Johdanto duaaliteoriaan 6 2 LP-tehtävän standardimuoto 9 Johdanto Optimoinnista

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Inversio-ongelmien laskennallinen peruskurssi Luento 2 Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33 Numeeriset menetelmät TIEA381 Luento 6 Kirsi Valjus Jyväskylän yliopisto Luento 6 () Numeeriset menetelmät 4.4.2013 1 / 33 Luennon 6 sisältö Interpolointi ja approksimointi Polynomi-interpolaatio: Vandermonden

Lisätiedot

4. Tukivektorikoneet

4. Tukivektorikoneet 4. Tukivektorikoneet Tukivektorikoneen (Support Vector Machine, SVM) keskeiset piirteet: Tehdään lineaarista luokittelua (tai regressiota) korkeaulotteisessa piirreavaruudessa. Laskentaa tehostetaan käyttämällä

Lisätiedot

Mat Lineaarinen ohjelmointi

Mat Lineaarinen ohjelmointi Mat-2.3140 Lineaarinen ohjelmointi 4.10.2007 Luento 4 Ekstreemipisteiden optimaalisuus ja Simplex (kirja 2.4-2.6, 3.1-3.2) Lineaarinen ohjelmointi - Syksy 2007 / 1 Luentorunko Degeneroituvuus Ekstreemipisteiden

Lisätiedot

Malliratkaisut Demot 6,

Malliratkaisut Demot 6, Malliratkaisut Demot 6, 19.2.21 Tehtävä 1 Edellisten demojen tehtävä oli muotoa max 3x 1 + 4x 2 s.t. 7x 1 + 3x 2 24 : v 1 x 1 + 4x 2 17 : v 2 x 2 3 : v 3 x 1, x 2. Kohdefunktio voitiin kirjoittaa myös

Lisätiedot

Odotusarvo. Odotusarvon ominaisuuksia Satunnaismuuttujien ominaisuuksia 61

Odotusarvo. Odotusarvon ominaisuuksia Satunnaismuuttujien ominaisuuksia 61 3.3. Satunnaismuuttujien ominaisuuksia 61 Odotusarvo Määritelmä 3.5 (Odotusarvo) Olkoon X diskreetti satunnaismuuttuja, jonka arvojoukko on S ja todennäköisyysfunktio f X (x). Silloin X:n odotusarvo on

Lisätiedot

SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5

SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja

Lisätiedot

Mat Sovellettu todennäköisyyslasku A. Moniulotteiset jakaumat. Avainsanat:

Mat Sovellettu todennäköisyyslasku A. Moniulotteiset jakaumat. Avainsanat: Mat-.9 Sovellettu todennäköisyyslasku A Mat-.9 Sovellettu todennäköisyyslasku A / Ratkaisut Aiheet: Avainsanat: Moniulotteiset jakaumat Diskreetti jakauma, Ehdollinen jakauma, Ehdollinen odotusarvo, Jatkuva

Lisätiedot

Dynaamiset regressiomallit

Dynaamiset regressiomallit MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Tilastolliset aikasarjat voidaan jakaa kahteen

Lisätiedot

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on 13 Pistetulo Avaruuksissa R 2 ja R 3 on totuttu puhumaan vektorien pituuksista ja vektoreiden välisistä kulmista. Kuten tavallista, näiden käsitteiden yleistäminen korkeampiulotteisiin avaruuksiin ei onnistu

Lisätiedot

4.3.7 Epäoleellinen integraali

4.3.7 Epäoleellinen integraali Esimerkki 4.3.16. (Lineaarinen muuttujien vaihto) Olkoot A R m sellainen kompakti joukko, että A on nollajoukko. Olkoon M R m m säännöllinen matriisi (eli det(m) 0) ja f : R m R jatkuva funktio. Tehdään

Lisätiedot

2 Konveksisuus ja ratkaisun olemassaolo

2 Konveksisuus ja ratkaisun olemassaolo 2 Konveksisuus ja ratkaisun olemassaolo Ratkaisun olemassaolon tutkimiseen tarvitaan perustietoja konvekseista joukoista ja lineaarialgebrasta. Niitä tarvitaan myös ratkaisualgoritmin ymmärtämiseen. Tutkitaan

Lisätiedot

Todennäköisyyden ominaisuuksia

Todennäköisyyden ominaisuuksia Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset

Lisätiedot

Bayesin pelit. Kalle Siukola. MS-E2142 Optimointiopin seminaari: Peliteoria ja tekoäly

Bayesin pelit. Kalle Siukola. MS-E2142 Optimointiopin seminaari: Peliteoria ja tekoäly Bayesin pelit Kalle Siukola MS-E2142 Optimointiopin seminaari: Peliteoria ja tekoäly 12.10.2016 Toistetun pelin esittäminen automaatin avulla Ekstensiivisen muodon puu on tehoton esitystapa, jos peliä

Lisätiedot

Malliratkaisut Demot

Malliratkaisut Demot Malliratkaisut Demot 1 23.1.2017 1. Päätösmuuttujiksi voidaan valita x 1 : tehtyjen peruspöytin lukumäärä x 2 : tehtyjen luxuspöytien lukumäärä. Optimointitehtäväksi tulee max 200x 1 + 350x 2 s. t. 5x

Lisätiedot

Likimääräisratkaisut ja regularisaatio

Likimääräisratkaisut ja regularisaatio Luku 3 Likimääräisratkaisut ja regularisaatio Käytännön inversio-ongelmissa annettu data y ei aina ole tarkkaa, vaan sisältää häiriöitä. Tuntemattomasta x on annettu häiriöinen data y F (x + }{{}}{{} ε.

Lisätiedot

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme? TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä

Lisätiedot