Osakesalkun optimointi
|
|
- Lotta Päivi Lehtonen
- 6 vuotta sitten
- Katselukertoja:
Transkriptio
1 Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016
2 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit Optimointiongelmat Epäsileän optimoinnin käyttäminen 5 5 Diskreetin gradientin menetelmä Laskevan suunnan hakeminen Diskreetin gradientin algoritmi Algoritmien testaus 8 7 Rinnakkaistaminen 9 Lähde 9 1 Johdanto Tämä on Epäsileä optimointi -kurssin harjoitustyö, joka perustuu artikkeliin [1]. Osakesalkun optimoinnilla pyritään löytämään sijoituskohteille sopivat painokertoimet ja samalla toteuttamaan halutut riski- ja tuottovaatimukset. Value-at-risk (VaR) on yleinen riskienhallinnassa käytetty mitta. Toinen riskin mittari on odotettu alijäämä (ehdollinen VaR) CVaR, joka määritellään tappion ehdollisena odotusarvona, kun tappio ylittää VaR-rajan. Lineaarisen optimoinnin ja epäsileän optimoinnin tekniikoilla voidaan laskea VaR ja CVaR samalla, kun suoritetaan osakesalkun optimointi. Tämä perustuu myöhemmin esiteltävän epäsileän funktion F β minimointiin. 1
3 2 Taustatietoja Osakesalkussa on n kohdetta ja se esitetään kohteiden suhteellisten painokertoimien avulla. Merkitään painokerroinvektoria w R n ja w i 0, w i = 1. Merkitään vektorilla x R n kohteiden tulevia tuottoja, jotka ovat satunnaismuuttujia tiheysfunktiolla p(x). Jos kohde aiheuttaa tappiota, ajatellaan se negatiivisena tuottona. Osakesalkun tappio L(w, x) on satunnaismuuttuja ja esimerkiksi lineaarisessa tapauksessa L(w, x) = w T x = w i x i. Todennäköisyys, että tappio ei ylitä arvoa α määritellään seuraavasti P (L(w, x) α) = P (α) = p(x)dx. L(w,x) α VaR määritellään arvona, jota tappio L(w, x) ei ylitä todennäköisyydellä β (yleensä 95 %). Se voidaan esittää kvantiilina α β = min{α R : P (α) β}. CVaR (ψ β ) määritellään tappion L(w, x) odotusarvona ehdolla, että tappio on suurempi kuin α β (VaR). CVaR on muun muassa konveksi ja aliadditiivinen. ψ β = E(L(w, x) L(w, x) α β ) = (1 β) L(w,s) α 1 L(w, x)p(x)dx β = (1 β) R 1 max{l(w, x) α β, 0}p(x)dx. n Tarkastellaan osakesalkun optimointitehtävää, jossa tarkoituksena on löytää painokerroinvektori w, joka minimoi osakesalkkuun liittyvän riskin (esimerkiksi VaR tai CVaR). Ratkaisun täytyy kuulua joukkoon S = {w R n : w i 0, w i = 1}. Ratkaisujoukkoa voidaan rajoittaa myös lisäehdolla, että odotetun tuoton on oltava suurempi kuin jokin arvo R eli L(w, E(x)) R tai vastaavasti L(w, E(x)) R. 2
4 Epäsileää optimointia voidaan käyttää osakesalkun optimointiin sekä VaR- ja CVaR-arvojen laskemiseen. Määritellään funktio F β seuraavasti F β (α) = α + (1 β) 1 R n max{l(w, x) α, 0}p(x)dx. Riskit VaR ja CVaR löydetään minimoimalla funktio F β. ψ β = min F β (α), α β = alaraja arg min F β (α). CVaR-arvon minimointi yli kaikkien arvojen w S vastaa tehtävää, jossa minimoidaan F β (w, α) yli arvojen (w, α) S R: min ψ β (w) = min F w β(w, α). w,α Samalla kerralla voidaan siis laskea molemmat riskit sekä osakesalkun optimointitehtävän ratkaisu suhteessa arvoon CVaR. Funktio F β on muuttujan α suhteen konveksi ja jatkuvasti differentioituva. Konveksin tappion L(w, x) tapauksessa se on konveksi myös suhteessa muuttujaan w. Käyttämällä minimoitavan riskin mittana arvoa CVaR voidaan siis käyttää konveksin optimoinnin metodeja. Jos osakesalkkua optimoitaisiin suhteessa riskiin VaR, päädyttäisiin epäkonveksiin kohdefunktioon, jolla on paljon lokaaleja minimiarvoja. 3 Laskumetodit Kohdefunktio F β sisältää moniulotteisen integraalin, joka voidaan laskea käyttämällä Monte-Carlo-metodia. Tätä varten generoidaan q vektoria x 1,..., x q R n käyttäen satunnaismuuttujan x jakautumaa. Approksimoidaan kohdefunktion arvoa seuraavasti ˆF β ˆF β (w, α) = α + 1 q(1 β) q max{l(w, x i ) α, 0}. i=1 on konveksi ja paloittain lineaarinen suhteessa muuttujaan α ja jos L(w, x) on konveksi, ˆFβ on konveksi myös suhteessa muuttujaan w. Jos 3
5 lisäksi L(w, x) on lineaarinen, ˆFβ on konveksi ja paloittain lineaarinen molempien muuttujien suhteen. 3.1 Optimointiongelmat Tarkastellaan kahta eri ongelmaa. Ongelma A: CVaR ja VaR, kun w on kiinnitetty min α ˆFβ (w, α) Ongelma B: Osakesalkun optimointi s.t. w kiinnitetty. min α,w ˆF β (w, α) s.t. w S D, missä D on kompakti joukko, joka esittää mahdollisia lisävaatimuksia, esimerkiksi D = {w S : (L(w, E(x)) R}. Tarkastellaan tapausta, jossa tappio on lineaarinen, L(w, x) = w T x. Tällöin molemmat ongelmat voidaan muotoilla lineaarisiksi optimointiongelmiksi. Ongelma A : min α,ɛ α + 1 q(1 β) q i=1 s.t. α + ɛ i L(w, x i ), i = 1,..., q, ɛ i 0, w kiinnitetty. ɛ i 4
6 Ongelma B : min α + 1 q ɛ i α,w,ɛ q(1 β) i=1 n s.t. α + ɛ i + w j x ij 0, i = 1,..., q, ɛ i 0, j=1 w S D. Tässä x ij on vektorin x i komponentti j. Nyt voidaan ratkaista joko tehtävä A (/B) epäsileän optimoinnin avulla tai tehtävä A (/B ) käyttäen lineaarisia metodeja, kuten simplexiä. Hyvää approksimaatiota varten täytyy generoitujen vektoreiden määrän q olla suuri. Tällöin ongelmilla A ja B on q + 1 ja n + q + 1 muuttujaa. Tämä on paljon enemmän kuin ongelmilla A (yksi muuttuja) ja B (n + 1 muuttujaa). Laskennalliselta kannalta ei kuitenkaan ole aivan selvää, kumpi lähestymistapa on tehokkaampi. 4 Epäsileän optimoinnin käyttäminen Ongelma B on epäsileä osakesalkun optimointitehtävä, jolla on lineaariset rajoitteet. Tehtävä voidaan ratkaista diskreetin gradientin menetelmällä. Koska menetelmää käytetään rajoittamattomille tehtäville, lineaariset rajoitteet täytyy käsitellä jotenkin. Sakkofunktion käyttämisen lisäksi tarkastellaan toista tapaa. Voidaan osoittaa, että muotoa min f(x) (1) s.t. x X = {y R n : Ay = b} 5
7 oleva rajoitettu optimointitehtävä, jonka kohdefunktion oletetaan olevan konveksi ja epäsileä, voidaan muokata rajoittamattomaksi tehtäväksi min h(y) (2) s.t. y R n m. Oletetaan, että A on m n matriisi ja b R m. Oletetaan myös, että matriisin aste on m ja m < n. Tässä tapauksessa lineaariset rajoiteyhtälöt voidaan ratkaista. Muuttujat x 1,..., x n voidaan jakaa kahteen osaan x = (x B, x N ), missä x B R n m,x N R m. Lisäksi A = (A 1, A 2 ), missä A 1 sisältää muuttujia x B vastaavat sarakkeet ja A 2 koostuu muuttujia x N vastaavista sarakkeista. Oletetaan, että A 2 on epäsingulaarinen ja siis kääntyvä. Nyt rajoitteet voidaan kirjoittaa A 1 x B + A 2 x N = b x N = A 1 2 (b A 1 x B ). Alkuperäinen kohdefunktio voidaan kirjoittaa uudelleen Määritellään funktio f(x) = f(x B, x N ) = f(x B, A 1 2 (b A 1 x B )). h(y) = f(y, A 1 2 (b A 1 y)). Seuraava lause esitetään ilman todistuksia. Lause Jos x X on alkuperäisen tehtävän (1) ratkaisu, on olemassa y R n m, jolle x = (y, A 1 2 (b A 1 y )) ja y on tehtävän (2) ratkaisu. 2. Olkoon y R n m ongelman (2) ratkaisu. Tällöin x = (y, A 1 2 (b A 1 y )) on ongelman (1) ratkaisu. Tehtävän (1) sijaan voidaan siis ratkaista rajoittamaton tehtävä (2) esimerkiksi diskreetin gradientin menetelmällä. 6
8 5 Diskreetin gradientin menetelmä Diskreetin gradientin menetelmää käytetään epäsileiden optimointiongelmien ratkaisemisessa. Se hyödyntää diskreettien gradienttien suljettua konveksia joukkoa alidifferentiaalin approksimoinnissa. 5.1 Laskevan suunnan hakeminen Laskeva suunta haetaan käyttämällä annettuja parametrien arvoja ja satunnaista suuntavektoria g, jolle g = 1. Annetussa pisteessä x lasketaan diskreetti gradientti v 1. Asetetaan konveksi suljettu joukko D 1 (x) = {v 1 }. Lasketaan joukon D 1 (x) etäisyys origosta w k 2 = min{ w 2 : w D k (x)}, missä k on kierroslaskuri. Jos etäisyys on pienempi, kuin annettu raja δ, lopetetaan ja hyväksytään x stationaarisen pisteen approksimaatioksi. Muuten asetetaan uusi hakusuunta g k+1 = w k 1 w k. Jos suunta on laskeva, lopetetaan. Muuten lasketaan diskreetti gradientti v k+1 käyttämällä suuntaa g k+1. Lisätään v k+1 diskreettien gradienttien konveksiin joukkoon ja palataan laskemaan joukon etäisyyttä origosta. On osoitettu, että laskevan suunnan haku lopetetaan l (l < ) kierroksen jälkeen. 5.2 Diskreetin gradientin algoritmi Valitaan jokin aloituspiste x 0 ja lasketaan laskeva suunta. Tuloksena saadaan diskreettien gradienttien joukko D l (x k s), missä k ja s ovat kierroslaskureita ja l on kierros, jonka jälkeen laskevan suunnan haku lopetetaan. Lisäksi saadaan vektori, joka antaa joukon etäisyyden origoon. Jos etäisyys on pienempi kuin annettu raja, asetetaan x k+1 = x k, asetetaan k = k + 1 palataan laskemaan laskevaa suuntaa. Muuten asetetaan uusi piste käyttämällä löydettyä laskevaa suuntaa x k s+1 = x k s +σ s gs k. Asetetaan s = s+1 ja palataan laskevan suunnan hakemiseen. 7
9 6 Algoritmien testaus Testataan eri vaihtoehtoja ongelmien A ja B ratkaisemiseksi. Tässä käydään läpi vaihtoehdot 1. Ratkaistaan alkuperäisen sijaan ongelma A (B ) simplex-metodilla. 2. Ratkaistaan A (B ) sisäpistemenetelmällä. 3. Ratkaistaan ongelman A (B ) duaalitehtävä simplex-metodilla. 4. Ratkaistaan duaalitehtävä sisäpistemenetelmällä. 5. Ratkaistaan A (B) diskreetin gradientin menetelmällä käyttäen sakkofunktiota rajoitteiden käsittelyssä. 6. Ratkaistaan A (B) diskreetin gradientin menetelmällä ja muodostamalla rajoittamaton tehtävä kuten luvussa 4. Taulukko 1 sisältää artikkelissa [1] esitetyt laskuajat (s) yhdessä esimerkissä, jossa CVaR (ja VaR) on laskettu käyttäen todennäköisyyttä β = 0, 95. Tappio L(w, x) = w T x, n = 3 ja testiaineistossa muttujat x ovat normaalisti jakautuneita. Taulukko 1 q Ongelma A/A , ,01 0,01 0,01 0, ,1 0, , >14h >14h >14h Ongelma B/B , ,01 1 0,01 0, >14h >14h - >14h
10 Tämän esimerkin ja muiden artikkelissa esitettyjen testien perusteella diskreetin gradientin menetelmä on tehokkaampi sekä VaR- ja CVaR-arvojen, että optimaalisen osakesalkun laskemisessa, kun kohteiden määrä n on kohtalainen ja generoitujen tapausten määrä q on suuri. Toisaalta lineaarisesta lähestymistavasta (ongelmat A ja B ) on hyötyä, kun osakesalkun koko on n on suuri, mutta generoituja tapauksia on vähän. Kohdefunktion F β sisältämän integraalin hyvää approksimaatiota varten tarvitaan kuitenkin paljon tapauksia ja lukumäärän q on oltava riittävän suuri (yli 10 5 ). Epäsileän optimoinnin lähestymistapa (ongelmat A ja B) sietää hyvin lukumäärän kasvattamisen, koska tehtävien muuttujien määrä ei riipu arvosta q. Toisaalta ongelmat A ja B ovat yleisempiä kuin ongelmat A ja B, sillä ne eivät oleta lineaarista tappiota. Diskreetin gradientin menetelmä toimii myös konvekseille tapauksille. Jos L(w, x) onkin konkaavi, kohdefunktiolla ˆF β voi olla paljon lokaaleja minimejä. Diskreetin gradientin menetelmällä päästään matalien lokaalien minimikohtien ohi ja jollei konvergoida kohti globaalia minimiä, päästään ainakin tarpeeksi syvään lokaaliin minimiin. 7 Rinnakkaistaminen Supertietokoneiden käyttämisen sijaan voidaan jakaa laskutehtäviä useammalle nopealla yhteydellä yhdistetylle tietokoneelle. Suuri laskuprosessi voidaan rinnakkaistaa jakamalla tehtäviä usealle koneelle. Tällöin yhdeltä koneelta ei tarvita niin paljon tehokkuutta tai muistia. Diskreetin gradientin menetelmän rinnakkaistamisen sijaan voidaan rinnakkaistaa myös kohdefunktion F β arvon laskeminen. Funktion sisältämän integraalin laskeminen vaatii eniten työtä. Siksi on ehkä järkevämpää käyttää yksinkertaisempaa versiota optimointimetodista ja rinnakkaistaa summan ˆF β laskeminen. 9
11 Lähde [1] Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization. Optimization, 55:5-6, , DOI: /
Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016
Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.
LisätiedotKimppu-suodatus-menetelmä
Kimppu-suodatus-menetelmä 2. toukokuuta 2016 Kimppu-suodatus-menetelmä on kehitetty epäsileiden optimointitehtävien ratkaisemista varten. Menetelmässä approksimoidaan epäsileitä funktioita aligradienttikimpulla.
LisätiedotGradient Sampling-Algoritmi
1/24 Gradient Sampling-Algoritmi Ville-Pekka Eronen April 20, 2016 2/24 Perusidea -"Stabiloitu nopeimman laskeutumisen menetelmä" - Laskevan suunnan haku: lasketaan gradientit nykyisessä pisteessä sekä
LisätiedotLuento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi.
Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi. Konveksisuus Muista x + αd, α 0, on pisteestä x R n alkava puolisuora, joka on vektorin d suuntainen. Samoin
LisätiedotTaustatietoja ja perusteita
Taustatietoja ja perusteita Vektorit: x R n pystyvektoreita, transpoosi x T Sisätulo: x T y = n i=1 x i y i Normi: x = x T x = ni=1 x 2 i Etäisyys: Kahden R n :n vektorin välinen etäisyys x y 1 Avoin pallo:
LisätiedotLuento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi.
Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi. Konveksisuus Muista. + αd, α 0, on pisteessä R n alkava puolisuora, joka on vektorin d suuntainen. Samoin 2
LisätiedotDuaalisuus kokonaislukuoptimoinnissa. Mat , Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki
Duaalisuus kokonaislukuoptimoinnissa Mat-2.4191, Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki Sisältö Duaalisuus binäärisissä optimointitehtävissä Lagrangen duaalisuus Lagrangen
LisätiedotMalliratkaisut Demot
Malliratkaisut Demot 3.2.27 Tehtävä. Valmisohjelmistolla voidaan ratkaista tehtävä min c T x s. t. Ax b x, missä x, c ja b R n ja A R m n. Muunnetaan tehtävä max x + 2x 2 + 3x 3 + x s. t. x + 3x 2 + 2x
LisätiedotMS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille
Lisätiedot6. Luennon sisältö. Lineaarisen optimoinnin duaaliteoriaa
JYVÄSKYLÄN YLIOPISTO 6. Luennon sisältö Lineaarisen optimoinnin duaaliteoriaa työkalu ratkaisun analysointiin Jälki- ja herkkyysanalyysiä mitä tapahtuu optimiratkaisulle, jos tehtävän vakiot hieman muuttuvat
Lisätiedotmin x x2 2 x 1 + x 2 1 = 0 (1) 2x1 1, h = f = 4x 2 2x1 + v = 0 4x 2 + v = 0 min x x3 2 x1 = ± v/3 = ±a x 2 = ± v/3 = ±a, a > 0 0 6x 2
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-39 Optimointioppi Kimmo Berg 6 harjoitus - ratkaisut min x + x x + x = () x f = 4x, h = x 4x + v = { { x + v = 4x + v = x = v/ x = v/4 () v/ v/4
LisätiedotOptimaalisuusehdot. Yleinen minimointitehtävä (NLP): min f(x) kun g i (x) 0 h j (x) = 0
Optimaalisuusehdot Yleinen minimointitehtävä (NLP): min f(x) kun g i (x) 0 h j (x) = 0 i = 1,..., m j = 1,..., l missä f : R n R, g i : R n R kaikilla i = 1,..., m, ja h j : R n R kaikilla j = 1,..., l
Lisätiedot1 Kertaus. Lineaarinen optimointitehtävä on muotoa:
1 Kertaus Lineaarinen optimointitehtävä on muotoa: min c 1 x 1 + c 2 x 2 + + c n x n kun a 11 x 1 + a 12 x 2 + + a 1n x n b 1 a 21 x 1 + a 22 x 2 + + a 2n x n b 2 (11) a m1 x 1 + a m2 x 2 + + a mn x n
LisätiedotLineaarisen ohjelman määritelmä. Joonas Vanninen
Lineaarisen ohjelman määritelmä Joonas Vanninen Sisältö Yleinen optimointitehtävä Kombinatorinen tehtävä Optimointiongelman tapaus Naapurusto Paikallinen ja globaali optimi Konveksi optimointitehtävä Lineaarinen
LisätiedotLuento 11: Rajoitusehdot. Ulkopistemenetelmät
Luento 11: Rajoitusehdot. Ulkopistemenetelmät ja sisäpistemenetelmät Lagrangen välttämättömien ehtojen ratkaiseminen Newtonin menetelmällä Jos tehtävässä on vain yhtälörajoituksia, voidaan minimipistekandidaatteja
LisätiedotMalliratkaisut Demo 4
Malliratkaisut Demo 4 1. tehtävä a) () = 2+1. Funktio on lineaarinen, joten se on unimodaalinen sekä maksimoinnin että minimoinnin suhteen. Funktio on konveksi ja konkaavi. b) () = (suurin kokonaisluku
LisätiedotYhden muuttujan funktion minimointi
Yhden muuttujan funktion minimointi Aloitetaan yhden muuttujan tapauksesta Tarpeellinen myös useamman muuttujan tapauksessa Tehtävä on muotoa min kun f(x) x S R 1 Sallittu alue on muotoa S = [a, b] tai
LisätiedotTalousmatematiikan perusteet: Luento 15. Rajoitettu optimointi Lagrangen menetelmä Lagrangen kerroin ja varjohinta
Talousmatematiikan perusteet: Luento 15 Rajoitettu optimointi Lagrangen menetelmä Lagrangen kerroin ja varjohinta Viime luennolla Tarkastelimme usean muuttujan funktioiden rajoittamatonta optimointia:
LisätiedotNumeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35
Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen
LisätiedotLuento 6: Monitavoiteoptimointi
Luento 6: Monitavoiteoptimointi Monitavoiteoptimointitehtävässä on useita optimoitavia kohdefunktioita eli ns kriteereitä: f 1,, f m Esimerkiksi opiskelija haluaa oppia mahdollisimman hyvin ja paljon mahdollisimman
LisätiedotMonitavoiteoptimointi
Monitavoiteoptimointi Useita erilaisia tavoitteita, eli useita objektifunktioita Tavoitteet yleensä ristiriitaisia ja yhteismitattomia Optimaalisuus tarkoittaa yleensä eri asiaa kuin yksitavoitteisessa
LisätiedotOletetaan ensin, että tangenttitaso on olemassa. Nyt pinnalla S on koordinaattiesitys ψ, jolle pätee että kaikilla x V U
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 018 Harjoitus 4 Ratkaisuehdotukset Tehtävä 1. Olkoon U R avoin joukko ja ϕ = (ϕ 1, ϕ, ϕ 3 ) : U R 3 kaksiulotteisen C 1 -alkeispinnan
LisätiedotLuento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu
Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu Merkintöjä := vasen puoli määritellään oikean puolen lausekkeella s.e. ehdolla; siten että (engl. subject to, s.t.) on voimassa
LisätiedotTIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010
TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta Yliassistentti Jussi Hakanen jussi.hakanen@jyu.fi syksy 2010 Evoluutiopohjainen monitavoiteoptimointi MCDM ja EMO Monitavoiteoptimointi kuuluu
LisätiedotLuento 6: Monitavoitteinen optimointi
Luento 6: Monitavoitteinen optimointi Monitavoitteisessa optimointitehtävässä on useita optimoitavia kohdefunktioita eli ns kriteereitä: f,,f m Esimerkki ortfolion eli arvopaperijoukon optimoinnissa: f
LisätiedotTEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio. Kimmo Berg. Mat Optimointioppi. 9. harjoitus - ratkaisut
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-2.139 Optimointioppi Kimmo Berg 9. harjoitus - ratkaisut 1. a) Viivahakutehtävä pisteessä x suuntaan d on missä min f(x + λd), λ f(x + λd) = (x
LisätiedotLuento 9: Yhtälörajoitukset optimoinnissa
Luento 9: Yhtälörajoitukset optimoinnissa Lagrangen kerroin Oletetaan aluksi, että f, g : R R. Merkitään (x 1, x ) := (x, y) ja johdetaan Lagrangen kerroin λ tehtävälle min f(x, y) s.t. g(x, y) = 0 Olkoon
LisätiedotKeskeiset tulokset heikko duaalisuus (duaaliaukko, 6.2.1) vahva duaalisuus (6.2.4) satulapisteominaisuus (6.2.5) yhteys KKT ehtoihin (6.2.
Duaalisuus Lagrangen duaalifunktio ja duaalitehtävä määrittely ja geometria max θ(u,v), missä θ(u,v)=inf x X ϕ(x,u,v) s.e u 0 Lagr. funktio ϕ(x,u,v)=f(x)+u T g(x)+v T h(x) Keskeiset tulokset heikko duaalisuus
LisätiedotTalousmatematiikan perusteet: Luento 14. Rajoitettu optimointi Lagrangen menetelmä: yksi yhtälörajoitus Lagrangen menetelmä: monta yhtälörajoitusta
Talousmatematiikan perusteet: Luento 14 Rajoitettu optimointi Lagrangen menetelmä: yksi yhtälörajoitus Lagrangen menetelmä: monta yhtälörajoitusta Viime luennolla Tarkastelimme usean muuttujan funktioiden
LisätiedotMS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Vektoriavaruudet Riikka Kangaslampi kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Idea Lineaarisen systeemin ratkaiseminen Olkoon
LisätiedotJYVÄSKYLÄN YLIOPISTO. 3. Luennon sisältö
JYVÄSKYLÄN YLIOPISTO 3. Luennon sisältö Lineaarisen optimointitehtävän sallittu alue Optimointitehtävien muunnoksia Lineaarisen yhtälöryhmän perusmuoto ja perusratkaisut Lineaarisen optimointitehtävän
Lisätiedot. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että
LisätiedotThe Metropolis-Hastings Algorithm
The Metropolis-Hastings Algorithm Chapters 6.1 6.3 from Monte Carlo Statistical Methods by Christian P. Robert and George Casella 08.03.2004 Harri Lähdesmäki The Metropolis-Hastings Algorithm p. 1/21 Taustaa
LisätiedotLuento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu
Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu Merkintöjä := vasen puoli määritellään oikean puolen lausekkeella s.e. ehdolla; siten että (engl. subject to, s.t.) vasemman puolen
LisätiedotTilastollinen testaus. Vilkkumaa / Kuusinen 1
Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää
LisätiedotTalousmatematiikan perusteet: Luento 14. Rajoittamaton optimointi Hessen matriisi Ominaisarvot Ääriarvon laadun tarkastelu
Talousmatematiikan perusteet: Luento 14 Rajoittamaton optimointi Hessen matriisi Ominaisarvot Ääriarvon laadun tarkastelu Luennolla 6 Tarkastelimme yhden muuttujan funktion f(x) rajoittamatonta optimointia
LisätiedotMalliratkaisut Demo 4
Malliratkaisut Demo 4 1. tehtävä a) f(x) = 2x + 21. Funktio on lineaarinen, joten se on unimodaalinen sekä maksimoinnin että imoinnin suhteen. Funktio on konveksi ja konkaavi. b) f(x) = x (pienin kokonaisluku
LisätiedotTalousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu
Talousmatematiikan perusteet: Luento 13 Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu Viime luennolla Aloimme tarkastella yleisiä, usean muuttujan funktioita
LisätiedotMS-C1340 Lineaarialgebra ja differentiaaliyhtälöt
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Vektoriavaruudet Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 17 R. Kangaslampi Vektoriavaruudet Vektoriavaruus
LisätiedotMS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 10 1 Lokaalit ääriarvot Yhden muuttujan funktion f (x) lokaali maksimi on piste x 0, jossa f (x) on suurempi kuin muualle pisteen x 0 ympäristössä, eli kun f (x 0 )
LisätiedotKKT: log p i v 1 + v 2 x i = 0, i = 1,...,n.
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-2.139 Optimointioppi Kimmo Berg 7. harjoitus - ratkaisut 1. Oletetaan aluksi, että epäyhtälöt eivät ole aktiivisia p i > 0. Tässä tapauksess KKTehdot
LisätiedotVäliestimointi (jatkoa) Heliövaara 1
Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).
LisätiedotLuento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään
LisätiedotLuento 10: Optimointitehtävien numeerinen ratkaiseminen; optimointi ilman rajoitusehtoja
Luento 10: Optimointitehtävien numeerinen ratkaiseminen; optimointi ilman rajoitusehtoja Seuraavassa esitetään optimointitehtävien numeerisia ratkaisumenetelmiä, eli optimointialgoritmeja, keittokirjamaisesti.
LisätiedotHarjoitus 3 (3.4.2014)
Harjoitus 3 (3..) Tehtävä Olkoon kaaren paino c ij suurin sallittu korkeus tieosuudella (i, j). Etsitään reitti solmusta s solmuun t siten, että reitin suurin sallittu korkeus pienimmillään olisi mahdollisimman
LisätiedotLuento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään
LisätiedotTEKNILLINEN TIEDEKUNTA, MATEMATIIKAN JAOS
1. Suorakaiteen muotoisen lämmönvaraajan korkeus on K, leveys L ja syvyys S yksikköä. Konvektiosta ja säteilystä johtuvat lämpöhäviöt ovat verrannollisia lämmönvaraajan lämpötilan T ja ympäristön lämpötilan
LisätiedotEste- ja sakkofunktiomenetelmät
Este- ja sakkofunktiomenetelmät Keijo Ruotsalainen Mathematics Division Luennon kulku Este- ja sisäpistemenetelmät LP-ongelmat ja logaritminen estefunktio Polun seuranta Newtonin menetelmällä Sakkofunktiomenetelmistä
LisätiedotMalliratkaisut Demot
Malliratkaisut Demot 5 2.2.28 Tehtävä a) Tehtävä voidaan sieventää muotoon max 5x + 9x 2 + x 3 s. t. 2x + x 2 + x 3 x 3 x 2 3 x 3 3 x, x 2, x 3 Tämä on tehtävän kanoninen muoto, n = 3 ja m =. b) Otetaan
LisätiedotHarjoitus 4: Matlab - Optimization Toolbox
Harjoitus 4: Matlab - Optimization Toolbox Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Optimointimallin muodostaminen
LisätiedotHarjoitus 3 (31.3.2015)
Harjoitus (..05) Tehtävä Olkoon kaaren paino c ij suurin sallittu korkeus tieosuudella (i,j). Etsitään reitti solmusta s solmuun t siten, että reitin suurin sallittu korkeus pienimmillään olisi mahdollisimman
LisätiedotHY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 2017 Harjoitus 1 Ratkaisuehdotuksia
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 07 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Osa tämän viikon tehtävistä ovat varsin haastavia, joten ei todellakaan
LisätiedotTIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010
TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta Yliassistentti Jussi Hakanen jussi.hakanen@jyu.fi syksy 2010 Optimaalisuus: objektiavaruus f 2 min Z = f(s) Parhaat arvot alhaalla ja vasemmalla
Lisätiedot, tuottoprosentti r = X 1 X 0
Ostat osakkeen hintaan ja myyt sen vuoden myöhemmin hintaan X 1. Kokonaistuotto on tällöin R = X 1, tuottoprosentti r = X 1 ja pätee R = 1 + r. Lyhyeksimyymisellä tarkoitetaan, että voit myydä osakkeen
LisätiedotTalousmatematiikan perusteet: Luento 12. Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla
Talousmatematiikan perusteet: Luento 12 Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla Esimerkki Esim. Yritys tekee kahta elintarviketeollisuuden käyttämää puolivalmistetta,
Lisätiedot1 Rajoitettu optimointi I
Taloustieteen mat.menetelmät 2017 materiaali II-1 1 Rajoitettu optimointi I 1.1 Tarvittavaa osaamista Matriisit ja vektorit, matriisien de niittisyys Derivointi (mm. ketjusääntö, Taylorin kehitelmä) Implisiittifunktiolause
LisätiedotPiiri K 1 K 2 K 3 K 4 R R
Lineaarinen optimointi vastaus, harj 1, Syksy 2016. 1. Teollisuuslaitos valmistaa piirejä R 1 ja R 2, joissa on neljää eri komponenttia seuraavat määrät: Piiri K 1 K 2 K 3 K 4 R 1 3 1 2 2 R 2 4 2 3 0 Päivittäistä
Lisätiedot4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
Lisätiedotb 1. b m ) + ( 2b Ax) + (b b)
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-9 Optimointioppi Kimmo Berg 5 harjoitus - ratkaisut min Ax b (vertaa PNS-tehtävät) a x + + a n x n a) Ax b = a m x + + a mn x n = x a a m }{{}
LisätiedotEpäyhtälöt ovat yksi matemaatikon voimakkaimmista
6 Epäyhtälöitä Epäyhtälöt ovat yksi matemaatikon voimakkaimmista työvälineistä. Yhtälö a = b kertoo sen, että kaksi ehkä näennäisesti erilaista asiaa ovat samoja. Epäyhtälö a b saattaa antaa keinon analysoida
Lisätiedot1 Rajoittamaton optimointi
Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y
Lisätiedot2 Osittaisderivaattojen sovelluksia
2 Osittaisderivaattojen sovelluksia 2.1 Ääriarvot Yhden muuttujan funktiolla f(x) on lokaali maksimiarvo (lokaali minimiarvo) pisteessä a, jos f(x) f(a) (f(x) f(a)) kaikilla x:n arvoilla riittävän lähellä
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 18 1 Kertausta: momenttimenetelmä ja suurimman uskottavuuden menetelmä 2 Tilastollinen
LisätiedotEllipsoidimenetelmä. Samuli Leppänen Kokonaislukuoptimointi. S ysteemianalyysin Laboratorio
Ellipsoidimenetelmä Kokonaislukuoptimointi Sovelletun matematiikan lisensiaattiseminaari Kevät 2008 / 1 Sisällys Ellipsoidimenetelmän geometrinen perusta ja menetelmän idea Formaali ellipsoidimenetelmä
Lisätiedotk S P[ X µ kσ] 1 k 2.
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 28 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Osa tämän viikon tehtävistä ovat varsin haastavia, joten ei todellakaan
Lisätiedot2. Jatkoa HT 4.5:teen ja edelliseen tehtavään: Määrää X:n kertymäfunktio F (x) ja laske sen avulla todennäköisyydet
Tilastotieteen jatkokurssi Sosiaalitieteiden laitos Harjoitus 5 (viikko 9) Ratkaisuehdotuksia (Laura Tuohilampi). Jatkoa HT 4.5:teen. Määrää E(X) ja D (X). E(X) = 5X p i x i =0.8 0+0.39 +0.4 +0.4 3+0.04
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 7 8
Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Kevät 2011 1 Iteratiivisista menetelmistä Tähän mennessä on tarkasteltu niin sanottuja suoria menetelmiä, joissa (likimääräinen) ratkaisu saadaan
LisätiedotTehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..
LisätiedotNumeeriset menetelmät
Numeeriset menetelmät Luento 6 To 22.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 6 To 22.9.2011 p. 1/38 p. 1/38 Ominaisarvotehtävät Monet sovellukset johtavat ominaisarvotehtäviin Yksi
LisätiedotJos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden
1.12.2006 1. Satunnaisjakauman tiheysfunktio on Ü µ Üe Ü, kun Ü ja kun Ü. Määritä parametrin estimaattori momenttimenetelmällä ja suurimman uskottavuuden menetelmällä. Ratkaisu: Jotta kyseessä todella
LisätiedotPienimmän neliösumman menetelmä
Pienimmän neliösumman menetelmä Keijo Ruotsalainen Division of Mathematics Funktion sovitus Datapisteet (x 1,...,x n ) Annettu data y i = f(x i )+η i, missä f(x) on tuntematon funktio ja η i mittaukseen
LisätiedotKonjugaattigradienttimenetelmä
Konjugaattigradienttimenetelmä Keijo Ruotsalainen Division of Mathematics Konjugaattigradienttimenetelmä Oletukset Matriisi A on symmetrinen: A T = A Positiivisesti definiitti: x T Ax > 0 kaikille x 0
LisätiedotLineaarinen optimointi. Harjoitus 6-7, Olkoon A R m n, x, c R ja b R m. Osoita, että LP-tehtävän. c T x = min!
Lineaarinen optimointi Harjoitus 6-7, 016. 1. Olkoon A R m n, x, c R ja b R m. Osoita, että LP-tehtävän c T x = min! (T) Ax b x 0 duaalitehtävän duaali on tehtävä (T). Ratkaisu. (P) c T x = min! Ax b x
Lisätiedot4.5 Kaksivaiheinen menetelmä simplex algoritmin alustukseen
4.5 Kaksivaiheinen menetelmä simplex algoritmin alustukseen Käypä kantaratkaisu löytyy helposti, esimerkiksi tapauksessa Ax b, b 0 x 0 jolloin sen määräävät puutemuuttujat. Tällöin simplex-menetelmän alustus
LisätiedotLineaarisen kokonaislukuoptimointitehtävän ratkaiseminen
Lineaarisen kokonaislukuoptimointitehtävän ratkaiseminen Jos sallittuja kokonaislukuratkaisuja ei ole kovin paljon, ne voidaan käydä kaikki läpi yksitellen Käytännössä tämä ei kuitenkaan ole yleensä mahdollista
LisätiedotNumeeriset menetelmät
Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma
LisätiedotMoniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
Lisätiedot, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1).
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 017 Harjoitus 4 Ratkaisuehdotukset 4.1. Osoita, että tasa-arvojoukko S F (0), F : R 3 R, F (x) = 3x 1 x 3 + e x + x e x 3, on säännöllinen
LisätiedotYhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
LisätiedotMS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila
LisätiedotTalousmatematiikan perusteet: Luento 17. Integraalin sovelluksia kassavirta-analyysissa Integraalin sovelluksia todennäköisyyslaskennassa
Talousmatematiikan perusteet: Luento 17 Integraalin sovelluksia kassavirta-analyysissa Integraalin sovelluksia todennäköisyyslaskennassa Motivointi Kahdella edellisellä luennolla olemme oppineet integrointisääntöjä
LisätiedotIlkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
LisätiedotKeskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6)
Mat-.3 Koesuunnittelu ja tilastolliset mallit kevät Keskipisteen lisääminen k -faktorikokeeseen (ks. Montgomery 9-6) Esim (Montg. ex. 9-, 6-): Tutkitaan kemiallisen prosessin saannon Y riippuvuutta faktoreista
Lisätiedot12. Hessen matriisi. Ääriarvoteoriaa
179 12. Hessen matriisi. Ääriarvoteoriaa Tarkastelemme tässä luvussa useamman muuttujan (eli vektorimuuttujan) n reaaliarvoisia unktioita : R R. Edellisessä luvussa todettiin, että riittävän säännöllisellä
LisätiedotDifferentiaali- ja integraalilaskenta 2 (CHEM) MS-A0207 Hakula/Vuojamo Kurssitentti, 12.2, 2018, arvosteluperusteet
ifferentiaali- ja integraalilaskenta 2 (CHEM) MS-A27 Hakula/Vuojamo Kurssitentti, 2.2, 28, arvosteluperusteet T Moniosaisten tehtävien osien painoarvo on sama ellei muuta ole erikseen osoitettu. Kokeessa
LisätiedotTalousmatematiikan perusteet: Luento 11. Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla
Talousmatematiikan perusteet: Luento 11 Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla Esimerkki Esim. Yritys tekee kahta elintarviketeollisuuden käyttämää puolivalmistetta,
LisätiedotLineaarinen optimointitehtävä
Lineaarinen optimointitehtävä Minimointitehtävä yhtälörajoittein: min kun n j=1 n j=1 c j x j a ij x j = b i x j 0 j = 1,..., n i = 1,..., m Merkitään: z = alkuperäisen objektifunktion arvo käsiteltävänä
Lisätiedot4.2.2 Uskottavuusfunktio f Y (y 0 X = x)
Kuva 4.6: Elektroniikassa esiintyvän lämpökohinan periaate. Lämpökohinaa ε mallinnetaan additiivisella häiriöllä y = Mx + ε. 4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Tarkastellaan tilastollista inversio-ongelmaa,
LisätiedotP (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.
Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin
Lisätiedot4. Luennon sisältö. Lineaarisen optimointitehtävän ratkaiseminen Simplex-menetelmä
JYVÄSKYLÄN YLIOPISTO 4. Luennon sisältö Lineaarisen optimointitehtävän ratkaiseminen Simplex-menetelmä kevät 2012 TIEA382 Lineaarinen ja diskreetti optimointi Lineaarinen optimointitehtävä Minimointitehtävä
LisätiedotLuento 9: Newtonin iteraation sovellus: optimointiongelma
Luento 9: Newtonin iteraation sovellus: optimointiongelma ilman rajoitusehtoja Optimointiongelmassa tehtävänä on löytää annetun reaaliarvoisen jatkuvan funktion f(x 1,x,,x n ) maksimi tai minimi jossain
Lisätiedot4. Tukivektorikoneet
4. Tukivektorikoneet Tukivektorikoneen (Support Vector Machine, SVM) keskeiset piirteet: Tehdään lineaarista luokittelua (tai regressiota) korkeaulotteisessa piirreavaruudessa. Laskentaa tehostetaan käyttämällä
LisätiedotFinanssimaailman ongelmien ratkaiseminen epäsileän optimoinnin keinoin. Markus Harteela Turun yliopisto
Finanssimaailman ongelmien ratkaiseminen epäsileän optimoinnin keinoin Markus Harteela Turun yliopisto huhtikuu 2016 1 Johdanto Tämä työ on kurssin Epäsileä Optimointi harjoitustyö ja se perustuu artikkeliin
LisätiedotBM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 Tehtävä 8 on tällä kertaa pakollinen. Aloittakaapa siitä. 1. Kun tässä tehtävässä sanotaan sopii mahdollisimman hyvin, sillä tarkoitetaan
LisätiedotMalliratkaisut Demot
Malliratkaisut Demot 3 7.3.07 Tehtävä Olkoon tilamuuttujat Tällöin saadaan rekursioyhtälö f n (x n ) = max yn {0,} ynwn xn f 0 ( ) = 0. x n = vaiheessa n jäljellä oleva paino, n =,...,N, esine n pakataan
Lisätiedotr = r f + r M r f (Todistus kirjassa sivulla 177 tai luennon 6 kalvoissa sivulla 6.) yhtälöön saadaan ns. CAPM:n hinnoittelun peruskaava Q P
Markkinaportfolio on koostuu kaikista markkinoilla olevista riskipitoisista sijoituskohteista siten, että sijoituskohteiden osuudet (so. painot) markkinaportfoliossa vastaavat kohteiden markkina-arvojen
LisätiedotMalliratkaisut Demot
Malliratkaisut Demot 5 10.4.2017 Tehtävä 1 x 2 7 0,7 9,8 6 5 4 x 1 x 2 7 x 1 x 2 1 3 2 x 1 0 4,3 x 1 9 1 0,0 x 2 0 9,0 1 2 3 4 5 6 7 8 9 x 1 Kuva 1: Tehtävän 1 sallittu joukko S Optimointitehtävän sallittu
LisätiedotDynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Tilastolliset aikasarjat voidaan jakaa kahteen
Lisätiedot1 Johdanto LP tehtävän luonteen tarkastelua Johdanto herkkyysanalyysiin Optimiarvon funktio ja marginaalihinta
Sisältö Johdanto 2 LP tehtävän luonteen tarkastelua 3 Johdanto herkkyysanalyysiin 5 2 Optimiarvon funktio ja marginaalihinta 5 3 Johdanto duaaliteoriaan 6 2 LP-tehtävän standardimuoto 9 Johdanto Optimoinnista
Lisätiedot