Osakesalkun optimointi Anni Halkola Turun yliopisto 2016
Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization. Optimization, 55:5-6, 459-479.
Johdanto Osakesalkun optimoimiseksi pyritään löytämään sijoituskohteille painokertoimet minimoimalla riski. Rajoitteina voi olla esimerkiksi tuottovaatimuksia. Käytetään jotain riskienhallinnan mittaria, esimerkiksi Value-at-risk (VaR) tai Conditional Value-at-Risk (CVaR). Epäsileän optimoinnin tekniikoilla voidaan laskea VaR ja CVaR samalla, kun suoritetaan osakesalkun optimointi.
Taustatietoja Osakesalkussa on n kohdetta ja se esitetään kohteiden suhteellisten painokertoimien avulla. Painokerroinvektori R, 0, = 1. Merkitään vektorilla R kohteiden tulevia tuottoja. Tuotot satunnaismuuttujia tiheysfunktiolla ( ). Osakesalkun tappio,. Esimerkiksi lineaarinen, =.
Todennäköisyys, että tappio ei ylitä arvoa, = = (, ) ( ) VaR määritellään arvona, jota tappio ei ylitä todennäköisyydellä β = min R : ( ) CVaR määritellään tappion odotusarvona ehdolla, että tappio on suurempi kuin VaR ψ = ( (, ) (, ) ) =(1 ) (, ), = (1 ) R max,, 0.
Määritellään funktio = +(1 ) R max,,0. VaR ja CVaR löydetään minimoimalla funktiota ψ = min = alaraja arg min (CVaR) (VaR) Osakesalkun optimoimiseksi minimoidaan riski (esimerkiksi tässä CVaR) min ψ = min,,.
Laskumetodit Kohdefunktion moniulotteinen integraali voidaan laskea Monte-Carlo-metodilla. Generoidaan vektorit,, käyttäen satunnaismuuttujan jakautumaa. Approksimoidaan, = + max, ( ),0
Optimointiongelmat Tarkastellaan kahta ongelmaa Ongelma A: CVaR ja VaR, kun kiinnitetty min, Ongelma B: Osakesalkun optimointi min,, s.t.. Joukko sisältää mahdolliset lisävaatimukset esimerkiksi tuoton suhteen.
Kun tappio on lineaarinen, (, ) =, molemmat ongelmat voidaan muotoilla lineaarisiksi optimointiongelmiksi: Ongelma A ( ) min + +, s.t. + L(w, ), 0 Ongelma B min + +,, s.t. + + ( ) 0, 0,w.
Voidaan ratkaista tehtävä A (tai B) epäsileän optimoinnin avulla tai tehtävä A (tai B ) käyttäen lineaarisia metodeja. Hyvää approksimaatiota varten täytyy generoida paljon vektoreita. Ongelmilla A ja B on tällöin paljon muuttujia: +1 ja + +1. Ongelmilla A ja B vastaavasti vain 1 ja +1. Ei ole itsestään selvää kumpi lähestymistapa on laskennallisesti tehokkaampi.
Epäsileän optimoinnin käyttäminen Ongelma B on epäsileä optimointitehtävä, jolla on lineaariset rajoitteet. Käytetään diskreetin gradientin menetelmää, jossa alidifferentiaalin approksimoinnissa käytetään diskreettejä gradientteja. Tehtävän rajoitteet täytyy käsitellä jotenkin, että menetelmää voidaan käyttää. Eräs vaihtoehto on käyttää sakkofunktiota.
Toinen tapa on muokata rajoitettu tehtävä rajoittamattomaksi tehtäväksi. min ( ) (1) min h( ) (2) s.t. { R : = }. s.t. R. Oletetaan, että on matriisi, matriisin aste on, < ja R. Jaetaan muuttujat kahteen osaan =(, ) ja vastaavasti matriisi = (, ). Oletetaan, että on kääntyvä.
Rajoitteet voidaan kirjoittaa + = = ( ) Ja alkuperäinen kohdefunktio ja funktio h( ) =, = (, ) h = (, ) Voidaan osoittaa, että jos on ongelman (2) ratkaisu, = (, ( )) on alkuperäisen ongelman (1) ratkaisu. Voidaan siis ratkaista (2) tehtävän (1) sijaan.
Diskreetin gradientin menetelmä Algoritmi Lasketaan diskreetti gradientti ja lisätään se konveksini suljettuun joukkoon ( ), jonka etäisyys origosta = min{ : ( )} Jos etäisyys on pienempi kuin annettu raja, asetetaan = (nolla-askel) ja palataan hakemaan laskevaa suuntaa. Muuten lasketaan hakusuunta =. Jos suunta on laskeva, käytetään sitä uuden iteraatiopisteen laskemiseksi. Jos ei, lasketaan uusi diskreetti gradientti, lisätään se joukkoon ( ).
Algoritmien testaus Vaihtoehdot 1. Ratkaistaan ongelma A (B ) simplex-menetelmällä. 2. Ratkaistaan A (B ) sisäpistemenetelmällä. 3. Ratkaistaan ongelman A (B ) duaalitehtävä simplexillä. 4. Ratkaistaan duaalitehtävä sisäpistemenetelmällä. 5. Ratkaistaan A (B) diskreetin gradientin menetelmällä käyttäen sakkofunktiota rajoitteiden käsittelyssä. 6. Ratkaistaan A (B) diskreetin gradientin menetelmällä muodostamalla rajoittamaton tehtävä aiemmin esitetyllä tavalla.
Esimerkki: testiaineistossa muuttujilla x normaalijakautuma, (, ) =, = 3, = 0,95. Laskuajat (s) ongelmalle B/B q 1. 2. 3. 4. 5. 6. 1000 0,01 50 0,01 1 0,01 0,01 20000 21-11 - 7 1 40000 129-162 - 11 2 100000 2223-467 - 64 4 500000 >14h - 10014-163 21 1000000 >14h - >14h - 322 49
Tämän ja muiden artikkelissa esitettyjen testien perusteella diskreetin gradientin menetelmä on tehokkaampi, kun kohteiden määrä n on kohtalainen ja generoitujen tapausten määrä q on suuri. Lisäksi ongelmat A ja B ovat yleisempiä kuin ongelmat A ja B, sillä ne eivät oleta lineaarista tappiota. Diskreetin gradientin menetelmä toimii myös konvekseille tapauksille. Jos tappio on konkaavi (kohdefunktiolla voi olla paljon lokaaleja minimejä), diskreetin gradientin menetelmä konvergoi kohti tarpeeksi syvää minimiä.
Kiitos