Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat
|
|
- Kari Ranta
- 8 vuotta sitten
- Katselukertoja:
Transkriptio
1 1 Tukivektoriluokittelija Tukivektorikoneeseen (support vector machine) perustuva luoikittelija on tilastollisen koneoppimisen teoriaan perustuva lineaarinen luokittelija. Perusajatus on sovittaa kahden näytejoukon väliin sellainen taso, että sen kanssa yhdensuuntaisten marginaalitasojen välimatka on mahdollisimman suuri eikä yksikään näyte jää marginaalitasojen väliin. Marginaalitasojen välimatkaa rajoittavia näytevektoreita kutsutaan tukivektoreiksi. Luokittelun tulos riippuu ainoastaan näistä tukivektoreista (kuvassa ympyröity). Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat Olkoon data (xx ii, yy ii ) xx ii RR dd, yy ii { 1, +1}, ii = 1,,. x i on näytteen piirrevektori ja y i sen luokka. Luokkia erottavan hypertason (päätöstaso) yhtälö on ww TT xx + bb = 0, jossa siis w on tason normaalivektori. Haluamme valita parametrit w ja b siten, että luokkien väliin jäävä marginaali eli rinnakkaisten hypertasojen välinen etäisyys on maksimaalinen. Rinnakkaisten hypertasojen yhtälöt ovat: ww TT xx + bb = +1 ja ww TT xx + bb = 1. 2 Tasojen etäisyys on, jonka siis haluamme maksimoida. Tämä on sama kuin että ww minimoisimme lausekkeen ww.
2 2 Lisäksi vaaditaan, etteivät datanäytteet jää marginaalitasojen väliin, eli: ww TT xx ii + bb +1, luokan (+1) näytteille, ja ww TT xx ii + bb 1, luokan (-1) näytteille. Nämä voidaan yhdistää kätevästi: yy ii (ww TT xx ii + bb) 1, kaikille näytteille x i. Nyt käsillä on minimointiongelma: Minimoi ww, ehdolla että yy ii (ww TT xx ii + bb) 1, kaikille näytteille x i. Helpompaa on kuitenkin minimoida 1 2 ww 2, joka on neliöllinen lauseke ja konveksi omaten vain yhden minimikohdan. Tällöin voidaan käyttää neliöllisen ongelmoinnin menetelmiä ratkaisun löytämiseksi. Formuloidaan siis uudestaan: Minimoi 1 2 ww 2, ehdolla että yy ii (ww TT xx ii + bb) 1, kaikille näytteille x i. Tämä voidaan kirjoittaa Lagrangen menetelmän mukaisesti seuraavaan muotoon: Minimoi: LL(ww, bb) = 1 2 ww 2 αα ii [yy ii (ww TT xx ii + bb) 1] ehdolla αα ii 0 Ratkaisemalla lausekkeesta ääriarvokohdat parametrien w ja b suhteen ja sijoittamalla takaisin saadaan lopulta Wolfin duaalimuoto: Maksimoi: WW(αα) = αα ii 1 αα 2 ii,jj =1 iiαα jj yy ii yy jj xx ii TT xx jj ehdolla αα ii 0 ja αα ii yy ii 0 α i -parametrit voidaan ratkaista numeerisesti neliöllisen ohjelmoinnin periaatteilla. Seuraavaksi parametri w voidaan laskea seuraavasti: ww = αα ii yy ii xx ii Tämän jälkeen parametri b voidaan laskea Karush-Kuhn-Tucker-ehtolausekkeesta
3 3 αα ii (yy ii (ww TT xx ii + bb) 1) = 0 jollakin näytteellä jolla α i >0. Kannattaa keskiarvoistaa niiden näytteiden (M kpl) yli, joilla α i >0: MM bb = 1 MM (yy ii ww TT xx ii ) Tukivektoriluokittelija saa nyt seuraavan muodon: DD(zz) = ssssssss αα ii yy ii zz TT xx ii + bb Lausekkeeseen sijoitetaan luokiteltava uuden näytteen piirrevektori z ja painotetun summan etumerkki määrää luokan +1 tai -1. Luokittelija siis hyödyntää jokaista opetusnäytettä tehdessään luokittelupäätöstä. Opetusvaiheessa jokaiselle opetusnäytteelle x i määrätään painokerroin α i. Ne näytteet x i, joille tulee α i > 0, sijaitsevat marginaalitasoilla (tukivektorit). Loput näytteet sijaitsevat joko marginaalitasoilla tai marginaalialueen ulkopuolella. Tukivektoriluokittelija siis huomioi luokittelupäätöksiä tehdessään vain tukivektorit, ei muita opetusaineiston näytteitä. Vertaa AdaBoost-algoritmiin, jonka kanssa tukivektorikone on sukulainen! Lineaarisesti erottumattomat luokat, joustava marginaali Kun opetusjoukot eivät ole lineaarisesti erottuvia, käytetään tukivektorikonetoteutusta, jota kutsutaan joustavan marginaalin (soft margin) luokittimeksi. Keskeinen näytekohtainen ehtolauseke formuloidaan slack-vakioiden γ i avulla seuraavasti: yy ii (ww TT xx ii + bb) 1 γγ ii Slack-vakiot mahdollistavat sen, että osa näytteistä jää marginaalin sisälle. Optimoitava funktio voidaan kirjoittaa kuten edellä ja ratkaista neliöllisellä ohjelmoinnilla. Yksityiskohdat ohitetaan tässä.
4 4 Lineaarisesti erottumattomat luokat, epälineaarinen tukivektorikone Edellä datanäytteet esiintyvät lausekkeessa pistetulon muodossa. Tämä voidaan yleistää epälineaariseen muotoon tekemällä piirrevektoreille epälineaarinen muunnos korkeampiulotteiseen piirreavaruuteen (joka on oltava välttämättä Hilbert-avaruus): xx ii TT xx jj θθ(xx ii ) TT θθ(xx jj ) Funktioiden θ(x) pistetuloa sanotaan kerneliksi. Usein käytettyjä kerneleitä ovat: Radial Basis Function: KK xx ii, xx jj = ee xx ii xx jj 2 /2σσ 2 Polynomial Function: KK xx ii, xx jj = (xx ii TT xx jj + 1) pp Tällöin päätöspinta on epälineaarinen (alkuperäisessä piirreavaruudessa), mikä mahdollistaa aiempaa monimutkaisempien aineistojen erottamisen toisistaan. Tukivektorikoneen käyttöönotto 1. Valitse sopiva kernelifunktio K(x i, x j ). 2. Maksimoi (käyttäen neliöllisen ohjelmoinnin periaatetta): 3. Laske b-parametri: WW(αα) = αα ii 1 αα 2 ii,jj =1 iiαα jj yy ii yy jj KK(xx ii, xx jj ) ehdolla αα ii 0 ja αα ii yy ii 0 bb = 1 2 min jj yy jj =1 αα iiyy ii KK(xx ii, xx jj ) + max {kk yykk = 1} αα ii yy ii KK(xx ii, xx kk ) 4. Tukivektoriluokittelija: DD(zz) = sign {ii yy ii =1} {ii yy ii = 1} αα ii yy ii KK(xx ii, zz) + bb
5 5 Laajennus monen luokan ongelmaan Tyypillisesti monen luokan ongelma ratkaistaan jakamalla ongelma useaksi kaksiluokkaiseksi ongelmaksi ja suunnittelemalla jokaiselle oma tukivektoriluokittelija sekä yhdistämällä tulokset. Seuraavat kaksi menetelmää ovat suosituimpia: 1) Suunnitellaan L kaksiluokkaista SVM-luokittelijaa yllä esitetyllä tavalla: luokka C i vastaan muut luokat (i=1,...,l). Eli muut luokat muodostavat yhden luokan yhdistämällä aineistot. Tunnistettaessa uutta näytettä z: (i) lasketaan kunkin luokittelijan osalta lauseke: DD(zz) = αα ii yy ii KK(xx ii, zz) + bb (ii) valitaan voittajaksi se, jolla on suurin D(z)-lausekkeen arvo. 2) Suunnitellaan L(L-1)/2 kaksiluokkaista SVM-luokittelijaa yllä esitetyllä tavalla: luokka C i vastaan luokka C j (i,j=1,...,l; i j). Eli suunnitellaan luokittelija jokaiselle luokkaparille erikseen (jättämällä kulloinkin ulos muiden luokkien aineistot). Tunnistettaessa uutta näytettä z: (i) syötetään näyte kuhunkin luokittelijaan ja kirjataan ylös kuinka monta kertaa kukin luokka C i voitti. (ii) valitaan voittajaksi se luokka C j, joka voitti useimmiten (enemmistöpäätös). Lähteitä: Hofmann T, Schölkopf B, Smola A. Kernel methods in machine learning. The Annals of Statistics, 2008, Vol. 36, No. 3, pp Vapnik V, Lerner A. Pattern recognition using generalized portrait method. Autom. Remote Control, 1963, 24, pp
4. Tukivektorikoneet
4. Tukivektorikoneet Tukivektorikoneen (Support Vector Machine, SVM) keskeiset piirteet: Tehdään lineaarista luokittelua (tai regressiota) korkeaulotteisessa piirreavaruudessa. Laskentaa tehostetaan käyttämällä
1. LINEAARISET LUOKITTIMET (jatkoa)
1. LINEAARISET LUOKITTIMET (jatkoa) 1.1 Tukivektorikone ( A Tutorial on Support Vector Machines for Pattern Recognition, http://www.kernel-machines.org/papers/burges98.ps.gz) Tukivektorikoneen ( Support
4. Lineaariset diskriminanttifunktiot
75 / 99 4. Lineaariset diskriminanttifunktiot Piirrevektorin x komponenttien suhteen lineaarinen diskriminanttifunktio voidaan kirjoittaa muotoon: g( x) = w t x + w 0, jossa w on painokerroinvektori ja
Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu
Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu Merkintöjä := vasen puoli määritellään oikean puolen lausekkeella s.e. ehdolla; siten että (engl. subject to, s.t.) on voimassa
Lineaariset luokittelumallit: regressio ja erotteluanalyysi
Lineaariset luokittelumallit: regressio ja erotteluanalyysi Aira Hast Johdanto Tarkastellaan menetelmiä, joissa luokittelu tehdään lineaaristen menetelmien avulla. Avaruus jaetaan päätösrajojen avulla
1. TILASTOLLINEN HAHMONTUNNISTUS
1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,
Harjoitus 4: Matlab - Optimization Toolbox
Harjoitus 4: Matlab - Optimization Toolbox Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Optimointimallin muodostaminen
Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu
Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu Merkintöjä := vasen puoli määritellään oikean puolen lausekkeella s.e. ehdolla; siten että (engl. subject to, s.t.) vasemman puolen
Logistinen regressio, separoivat hypertasot
Logistinen regressio, separoivat hypertasot Topi Sikanen Logistinen regressio Aineisto jakautunut K luokkaan K=2 tärkeä erikoistapaus Halutaan mallintaa luokkien vedonlyöntikertoimia (odds) havaintojen
min x x2 2 x 1 + x 2 1 = 0 (1) 2x1 1, h = f = 4x 2 2x1 + v = 0 4x 2 + v = 0 min x x3 2 x1 = ± v/3 = ±a x 2 = ± v/3 = ±a, a > 0 0 6x 2
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-39 Optimointioppi Kimmo Berg 6 harjoitus - ratkaisut min x + x x + x = () x f = 4x, h = x 4x + v = { { x + v = 4x + v = x = v/ x = v/4 () v/ v/4
Numeeriset menetelmät
Numeeriset menetelmät Luento 8 To 29.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 8 To 29.9.2011 p. 1/36 p. 1/36 Interpolointi kuutiosplinillä Osavälit: I i = [t i 1,t i ], i = 1,2,...,n
Viikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen
Viikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum D122, 30-31.1.2008. 1 Tällä viikolla Sisältösuunnitelma: Lineaarinen regressio Pienimmän neliösumman
Lineaarisen ohjelman määritelmä. Joonas Vanninen
Lineaarisen ohjelman määritelmä Joonas Vanninen Sisältö Yleinen optimointitehtävä Kombinatorinen tehtävä Optimointiongelman tapaus Naapurusto Paikallinen ja globaali optimi Konveksi optimointitehtävä Lineaarinen
Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia.
1 Luokittelijan suorituskyvyn optimointi Tässä luvussa käsitellään optimaalisten piirteiden valintaa, luokittelijan optimointia ja luokittelijan suorituskyvyn arviointia. A. Piirteen valinnan menetelmiä
Diskriminanttianalyysi I
Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi
2 Osittaisderivaattojen sovelluksia
2 Osittaisderivaattojen sovelluksia 2.1 Ääriarvot Yhden muuttujan funktiolla f(x) on lokaali maksimiarvo (lokaali minimiarvo) pisteessä a, jos f(x) f(a) (f(x) f(a)) kaikilla x:n arvoilla riittävän lähellä
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
Kokonaislukuoptimointi
Kokonaislukuoptimointi Algebrallisen geometrian sovelluksia Sisältö Taustaa algebrallisesta geometriasta Gröbnerin kanta Buchbergerin algoritmi Kokonaislukuoptimointi Käypyysongelma Algoritmi ratkaisun
Kahden suoran leikkauspiste ja välinen kulma (suoraparvia)
Kahden suoran leikkauspiste ja välinen kulma (suoraparvia) Piste x 0, y 0 on suoralla, jos sen koordinaatit toteuttavat suoran yhtälön. Esimerkki Olkoon suora 2x + y + 8 = 0 y = 2x 8. Piste 5,2 ei ole
Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =
Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen
Yhden faktorin malli: n kpl sijoituskohteita, joiden tuotot ovat r i, i =, 2,..., n. Olkoon f satunnaismuuttuja ja oletetaan, että tuotot voidaan selittää yhtälön r i = a i + b i f + e i avulla, missä
Luento 11: Rajoitusehdot. Ulkopistemenetelmät
Luento 11: Rajoitusehdot. Ulkopistemenetelmät ja sisäpistemenetelmät Lagrangen välttämättömien ehtojen ratkaiseminen Newtonin menetelmällä Jos tehtävässä on vain yhtälörajoituksia, voidaan minimipistekandidaatteja
Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 12 Kirsi Valjus Jyväskylän yliopisto Luento 12 () Numeeriset menetelmät 25.4.2013 1 / 33 Luennon 2 sisältö Tavallisten differentiaaliyhtälöiden numeriikasta Rungen
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja
Ensimmäisen ja toisen kertaluvun differentiaaliyhtälöistä
1 MAT-1345 LAAJA MATEMATIIKKA 5 Tampereen teknillinen yliopisto Risto Silvennoinen Kevät 9 Ensimmäisen ja toisen kertaluvun differentiaaliyhtälöistä Yksi tavallisimmista luonnontieteissä ja tekniikassa
Luento 6: Monitavoitteinen optimointi
Luento 6: Monitavoitteinen optimointi Monitavoitteisessa optimointitehtävässä on useita optimoitavia kohdefunktioita eli ns kriteereitä: f,,f m Esimerkki ortfolion eli arvopaperijoukon optimoinnissa: f
Yhtälöryhmät 1/6 Sisältö ESITIEDOT: yhtälöt
Yhtälöryhmät 1/6 Sisältö Yhtälöryhmä Yhtälöryhmässä on useita yhtälöitä ja yleensä myös useita tuntemattomia. Tavoitteena on löytää tuntemattomille sellaiset arvot, että kaikki yhtälöt toteutuvat samanaikaisesti.
TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)
JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.
Duaalisuus kokonaislukuoptimoinnissa. Mat , Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki
Duaalisuus kokonaislukuoptimoinnissa Mat-2.4191, Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki Sisältö Duaalisuus binäärisissä optimointitehtävissä Lagrangen duaalisuus Lagrangen
, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1).
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 017 Harjoitus 4 Ratkaisuehdotukset 4.1. Osoita, että tasa-arvojoukko S F (0), F : R 3 R, F (x) = 3x 1 x 3 + e x + x e x 3, on säännöllinen
1 Komparatiivinen statiikka ja implisiittifunktiolause
Taloustieteen matemaattiset menetelmät 27 materiaali 4 Komparatiivinen statiikka ja implisiittifunktiolause. Johdanto Jo opiskeltu antaa nyt valmiu tutkia taloudellisia malleja Kiinnostava malli voi olla
Insinöörimatematiikka D, laskuharjoituksien esimerkkiratkaisut
Insinöörimatematiikka D, 29.3.2016 4. laskuharjoituksien esimerkkiratkaisut 1. Olkoon u (4,0,4,2) ja v ( 1,1,3,5) vektoreita vektoriavaruudessa R 4. Annetun sisätulon (x,y) indusoima normi on x (x,x) ja
Harjoitus 8: Excel - Optimointi
Harjoitus 8: Excel - Optimointi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Lineaarisen optimointimallin muodostaminen
Luento 9: Yhtälörajoitukset optimoinnissa
Luento 9: Yhtälörajoitukset optimoinnissa Lagrangen kerroin Oletetaan aluksi, että f, g : R R. Merkitään (x 1, x ) := (x, y) ja johdetaan Lagrangen kerroin λ tehtävälle min f(x, y) s.t. g(x, y) = 0 Olkoon
2.2.1 Ratkaiseminen arvausta sovittamalla
2.2.1 Ratkaiseminen arvausta sovittamalla Esimerkki: lomitusjärjestäminen (edellä) Yleistys: Ratkaistava T (1) c T (n) g(t (1),..., T (n 1), n) missä g on n ensimmäisen parametrin suhteen kasvava. (Ratkaisu
y x1 σ t 1 = c y x 1 σ t 1 = y x 2 σ t 2 y x 2 x 1 y = σ(t 2 t 1 ) x 2 x 1 y t 2 t 1
1. Tarkastellaan funktiota missä σ C ja y (y 1,..., y n ) R n. u : R n R C, u(x, t) e i(y x σt), (a) Miksi funktiota u(x, t) voidaan kutsua tasoaalloksi, jonka aaltorintama on kohtisuorassa vektorin y
VILLE SIRKIÄ VÄRÄHTELYPERUSTAINEN VAURIONTUNNISTUSKOMPO- NENTTI JA MITTALAITEKOHTAINEN KALIBROINTI. Diplomityö
VILLE SIRKIÄ VÄRÄHTELYPERUSTAINEN VAURIONTUNNISTUSKOMPO- NENTTI JA MITTALAITEKOHTAINEN KALIBROINTI Diplomityö Tarkastaja: Prof. Tommi Mikkonen Tarkastaja ja aihe hyväksytty Tieto- ja sähkötekniikan tiedekuntaneuvoston
12. Hessen matriisi. Ääriarvoteoriaa
179 12. Hessen matriisi. Ääriarvoteoriaa Tarkastelemme tässä luvussa useamman muuttujan (eli vektorimuuttujan) n reaaliarvoisia unktioita : R R. Edellisessä luvussa todettiin, että riittävän säännöllisellä
Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi.
Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi. Konveksisuus Muista. + αd, α 0, on pisteessä R n alkava puolisuora, joka on vektorin d suuntainen. Samoin 2
Monitavoiteoptimointi
Monitavoiteoptimointi Useita erilaisia tavoitteita, eli useita objektifunktioita Tavoitteet yleensä ristiriitaisia ja yhteismitattomia Optimaalisuus tarkoittaa yleensä eri asiaa kuin yksitavoitteisessa
1 Kertaus. Lineaarinen optimointitehtävä on muotoa:
1 Kertaus Lineaarinen optimointitehtävä on muotoa: min c 1 x 1 + c 2 x 2 + + c n x n kun a 11 x 1 + a 12 x 2 + + a 1n x n b 1 a 21 x 1 + a 22 x 2 + + a 2n x n b 2 (11) a m1 x 1 + a m2 x 2 + + a mn x n
Kasvilajien tunnistaminen tukivektorikoneen avulla
Kasvilajien tunnistaminen tukivektorikoneen avulla TURUN YLIOPISTO Informaatioteknologian laitos Tietojenkäsittelytiede Pro gradu -tutkielma Joulukuu 2006 Jussi Toivonen TURUN YLIOPISTO Informaatioteknologian
Malliratkaisut Demot
Malliratkaisut Demot 3.2.27 Tehtävä. Valmisohjelmistolla voidaan ratkaista tehtävä min c T x s. t. Ax b x, missä x, c ja b R n ja A R m n. Muunnetaan tehtävä max x + 2x 2 + 3x 3 + x s. t. x + 3x 2 + 2x
4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
Insinöörimatematiikka D, laskuharjoituksien esimerkkiratkaisut
Insinöörimatematiikka D, 406 6 laskuharjoituksien esimerkkiratkaisut Ratkaistaan differentiaaliyhtälö y = y () Tässä = d dy eli kyseessä on lineaarinen kertaluvun differentiaaliyhtälö: Yhtälön () homogenisoidulle
Luento 6: Monitavoiteoptimointi
Luento 6: Monitavoiteoptimointi Monitavoiteoptimointitehtävässä on useita optimoitavia kohdefunktioita eli ns kriteereitä: f 1,, f m Esimerkiksi opiskelija haluaa oppia mahdollisimman hyvin ja paljon mahdollisimman
Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi.
Luento 12: Duaalitehtävä. Tarkennuksia Lagrangen kertoimen tulkintaan. Hajautettu optimointi. Konveksisuus Muista x + αd, α 0, on pisteestä x R n alkava puolisuora, joka on vektorin d suuntainen. Samoin
Harjoitus 7: vastausvihjeet
Taloustieteen matemaattiset menetelmät 31C01100 Kevät 2017 Topi Hokkanen topi.hokkanen@aalto.fi Harjoitus 7: vastausvihjeet 1. (Epäyhtälörajoitteet) Olkoon f (x, y) = 6x + 4y ja g (x, y) = x 2 + y 2 2.
2 Pistejoukko koordinaatistossa
Pistejoukko koordinaatistossa Ennakkotehtävät 1. a) Esimerkiksi: b) Pisteet sijaitsevat pystysuoralla suoralla, joka leikkaa x-akselin kohdassa x =. c) Yhtälö on x =. d) Sijoitetaan joitain ehdon toteuttavia
1 Sisätulo- ja normiavaruudet
1 Sisätulo- ja normiavaruudet 1.1 Sisätuloavaruus Määritelmä 1. Olkoon V reaalinen vektoriavaruus. Kuvaus : V V R on reaalinen sisätulo eli pistetulo, jos (a) v w = w v (symmetrisyys); (b) v + u w = v
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. marraskuuta 2007 Antti Rasila () TodB 30. marraskuuta 2007 1 / 19 1 Lineaarinen regressiomalli ja suurimman uskottavuuden menetelmä Minimin löytäminen
802320A LINEAARIALGEBRA OSA II
802320A LINEAARIALGEBRA OSA II Tapani Matala-aho MATEMATIIKKA/LUTK/OULUN YLIOPISTO SYKSY 2016 LINEAARIALGEBRA 1 / 64 Sisätuloavaruus Määritelmä 1 Olkoon V reaalinen vektoriavaruus. Kuvaus on reaalinen
. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että
y = 3x2 y 2 + sin(2x). x = ex y + e y2 y = ex y + 2xye y2
Matematiikan ja tilastotieteen osasto/hy Differentiaaliyhtälöt I Laskuharjoitus 2 mallit Kevät 219 Tehtävä 1. Laske osittaisderivaatat f x = f/x ja f y = f/, kun f = f(x, y) on funktio a) x 2 y 3 + y sin(2x),
r = r f + r M r f (Todistus kirjassa sivulla 177 tai luennon 6 kalvoissa sivulla 6.) yhtälöön saadaan ns. CAPM:n hinnoittelun peruskaava Q P
Markkinaportfolio on koostuu kaikista markkinoilla olevista riskipitoisista sijoituskohteista siten, että sijoituskohteiden osuudet (so. painot) markkinaportfoliossa vastaavat kohteiden markkina-arvojen
13. Ratkaisu. Kirjoitetaan tehtävän DY hieman eri muodossa: = 1 + y x + ( y ) 2 (y )
MATEMATIIKAN JA TILASTOTIETEEN LAITOS Differentiaaliyhtälöt, kesä 00 Tehtävät 3-8 / Ratkaisuehdotuksia (RT).6.00 3. Ratkaisu. Kirjoitetaan tehtävän DY hieman eri muodossa: y = + y + y = + y + ( y ) (y
1. NEUROVERKKOMENETELMÄT
1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia
Talousmatematiikan perusteet: Luento 15. Rajoitettu optimointi Lagrangen menetelmä Lagrangen kerroin ja varjohinta
Talousmatematiikan perusteet: Luento 15 Rajoitettu optimointi Lagrangen menetelmä Lagrangen kerroin ja varjohinta Viime luennolla Tarkastelimme usean muuttujan funktioiden rajoittamatonta optimointia:
Numeeriset menetelmät
Numeeriset menetelmät Luento 2 To 8.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 2 To 8.9.2011 p. 1/33 p. 1/33 Lukujen tallennus Kiintoluvut (integer) tarkka esitys aritmeettiset operaatiot
Tampere University of Technology
Tampere University of Technology EDE- Introduction to Finite Element Method. Exercise 3 Autumn 3.. Solve the deflection curve v(x) exactly for the beam shown y,v q v = q z, xxxx x E I z Integroidaan yhtälö
KKT: log p i v 1 + v 2 x i = 0, i = 1,...,n.
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-2.139 Optimointioppi Kimmo Berg 7. harjoitus - ratkaisut 1. Oletetaan aluksi, että epäyhtälöt eivät ole aktiivisia p i > 0. Tässä tapauksess KKTehdot
1 Rajoitettu optimointi I
Taloustieteen mat.menetelmät 2017 materiaali II-1 1 Rajoitettu optimointi I 1.1 Tarvittavaa osaamista Matriisit ja vektorit, matriisien de niittisyys Derivointi (mm. ketjusääntö, Taylorin kehitelmä) Implisiittifunktiolause
1. Etsi seuraavien funktioiden kriittiset pisteet ja tutki niiden laatu: (a.) f(x,y) = 20x 2 +10xy +5y 2 (b.) f(x,y) = 4x 2 2y 2 xy +x+2y +100
HARJOITUS, RATKAISUEHDOTUKSET, YLE 07.. Etsi seuraavien funktioiden kriittiset pisteet ja tutki niiden laatu: (a.) f(x,y) = 0x +0xy +5y (b.) f(x,y) = 4x y xy +x+y +00 (a.) Funktion kriittiset pisteet ratkaisevat
Mediaanisuodattimet. Tähän asti käsitellyt suodattimet ovat olleet lineaarisia. Niille on tyypillistä, että. niiden ominaisuudet tunnetaan hyvin
Mediaanisuodattimet Tähän asti käsitellyt suodattimet ovat olleet lineaarisia. Niille on tyypillistä, että niiden ominaisuudet tunnetaan hyvin niiden analysointiin on olemassa vakiintuneita menetelmiä
2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio
x = x 2 = 5/2 x 3 = 2 eli Ratkaisu on siis x = (x x 2 x 3 ) = ( 5/2 2) (Tarkista sijoittamalla!) 5/2 2 Tämä piste on alkuperäisten tasojen ainoa leikkauspiste Se on myös piste/vektori jonka matriisi A
Ville Turunen: Mat Matematiikan peruskurssi P1 1. välikokeen alueen teoriatiivistelmä 2007
Ville Turunen: Mat-1.1410 Matematiikan peruskurssi P1 1. välikokeen alueen teoriatiivistelmä 2007 Materiaali: kirjat [Adams R. A. Adams: Calculus, a complete course (6th edition), [Lay D. C. Lay: Linear
k=0 saanto jokaisen kolmannen asteen polynomin. Tukipisteet on talloin valittu
LIS AYKSI A kirjaan Reaalimuuttujan analyysi 1.6. Numeerinen integrointi: Gaussin kaavat Edella kasitellyt numeerisen integroinnin kaavat eli kvadratuurikaavat Riemannin summa, puolisuunnikassaanto ja
Referenssipiste- ja referenssisuuntamenetelmät
Referenssipiste- ja referenssisuuntamenetelmät Optimointiopin seminaari - Kevät 2000 / 1 Esitelmän sisältö Menetelmien ideat Menetelmien soveltaminen Menetelmien ominaisuuksia Optimointiopin seminaari
3 Toisen kertaluvun lineaariset differentiaaliyhtälöt
3 Toisen kertaluvun lineaariset differentiaaliyhtälöt 3.1 Homogeeniset lineaariset differentiaaliyhtälöt Toisen kertaluvun differentiaaliyhtälö on lineaarinen, jos se voidaan kirjoittaa muotoon Jos r(x)
Differentiaali- ja integraalilaskenta 2 Laskuharjoitus 4 / vko 40
Differentiaali- ja integraalilaskenta 2 Laskuharjoitus 4 / vko 40 Alkuviikolla harjoitustehtäviä lasketaan harjoitustilaisuudessa. Loppuviikolla näiden harjoitustehtävien tulee olla ratkaistuina harjoituksiin
Optimaalisuusehdot. Yleinen minimointitehtävä (NLP): min f(x) kun g i (x) 0 h j (x) = 0
Optimaalisuusehdot Yleinen minimointitehtävä (NLP): min f(x) kun g i (x) 0 h j (x) = 0 i = 1,..., m j = 1,..., l missä f : R n R, g i : R n R kaikilla i = 1,..., m, ja h j : R n R kaikilla j = 1,..., l
Virhearviointi. Fysiikassa on tärkeää tietää tulosten tarkkuus.
Virhearviointi Fysiikassa on tärkeää tietää tulosten tarkkuus. Virhelajit A. Tilastolliset virheet= satunnaisvirheet, joita voi arvioida tilastollisin menetelmin B. Systemaattiset virheet = virheet, joita
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään
Mat Dynaaminen optimointi, mallivastaukset, kierros Johdetaan ensiksi välttämättömät ehdot diskreettiaikaiselle optimisäätötehtävälle.
Mat-2.148 Dynaaminen optimointi, mallivastaukset, kierros 9 1. Johdetaan ensiksi välttämättömät ehdot diskreettiaikaiselle optimisäätötehtävälle. Tilayhtälö on x k+1 = f k (x k, u k ), k = 1,..., N 1 alkuehdolla
EETU KUUSISTO PÄÄN ASENNON TUNNISTUS KUVASTA. Kandidaatintyö
EETU KUUSISTO PÄÄN ASENNON TUNNISTUS KUVASTA Kandidaatintyö Tarkastaja: Yliopistonlehtori Heikki Huttunen Jätetty tarkastettavaksi 17.5.2015 i TIIVISTELMÄ EETU KUUSISTO: Pään asennon tunnistus kuvasta
Luento 2: Optimointitehtävän graafinen ratkaiseminen. LP-malli.
Luento : Optimointitehtävän graafinen ratkaiseminen. LP-malli. LP-malli simerkki: Maalifirma Sateenkaari valmistaa ulko- ja sisämaalia raaka-aineista M ja M. Sisämaalin maksimikysyntä on tonnia/päivä.
Johdatus materiaalimalleihin
Johdatus materiaalimalleihin 2 kotitehtäväsarja - kimmoisat materiaalimallit Tehtävä Erään epälineaarisen kimmoisen isotrooppisen aineen konstitutiivinen yhtälö on σ = f(i ε )I + Ge () jossa venymätensorin
Insinöörimatematiikka D
Insinöörimatematiikka D M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Matematiikan ja tilastotieteen laitos Turun yliopisto 2015 M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Luentokalvot
Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 6 Kirsi Valjus Jyväskylän yliopisto Luento 6 () Numeeriset menetelmät 4.4.2013 1 / 33 Luennon 6 sisältö Interpolointi ja approksimointi Polynomi-interpolaatio: Vandermonden
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 2. luento 10.11.2017 Keinotekoiset neuroverkot Neuroverkko koostuu syöte- ja ulostulokerroksesta
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 7, Kevät 2018 Tehtävä 8 on tällä kertaa pakollinen. Aloittakaapa siitä. 1. Kun tässä tehtävässä sanotaan sopii mahdollisimman hyvin, sillä tarkoitetaan
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ
MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ 24.9.2019 HYVÄN VASTAUKSEN PIIRTEITÄ Alustavat hyvän vastauksen piirteet on suuntaa-antava kuvaus kokeen tehtäviin odotetuista vastauksista ja tarkoitettu ensisijaisesti
b 1. b m ) + ( 2b Ax) + (b b)
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-9 Optimointioppi Kimmo Berg 5 harjoitus - ratkaisut min Ax b (vertaa PNS-tehtävät) a x + + a n x n a) Ax b = a m x + + a mn x n = x a a m }{{}
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
Matematiikan perusteet taloustieteilij oille I
Matematiikan perusteet taloustieteilijöille I Harjoitukset syksy 2006 1. Laskeskele ja sieventele a) 3 27 b) 27 2 3 c) 27 1 3 d) x 2 4 (x 8 3 ) 3 y 8 e) (x 3) 2 f) (x 3)(x +3) g) 3 3 (2x i + 1) kun, x
Talousmatematiikan perusteet: Luento 14. Rajoitettu optimointi Lagrangen menetelmä: yksi yhtälörajoitus Lagrangen menetelmä: monta yhtälörajoitusta
Talousmatematiikan perusteet: Luento 14 Rajoitettu optimointi Lagrangen menetelmä: yksi yhtälörajoitus Lagrangen menetelmä: monta yhtälörajoitusta Viime luennolla Tarkastelimme usean muuttujan funktioiden
Kuva 1: Funktion f tasa-arvokäyriä. Ratkaisu. Suurin kasvunopeus on gradientin suuntaan. 6x 0,2
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 018 Harjoitus Ratkaisuehdotukset Tehtävä 1. Olkoon f : R R f(x 1, x ) = x 1 + x Olkoon C R. Määritä tasa-arvojoukko Sf(C) = {(x 1, x
MATEMATIIKKA. Matematiikkaa pintakäsittelijöille. Ongelmanratkaisu. Isto Jokinen 2017
MATEMATIIKKA Matematiikkaa pintakäsittelijöille Ongelmanratkaisu Isto Jokinen 2017 SISÄLTÖ 1. Matemaattisten ongelmien ratkaisu laskukaavoilla 2. Tekijäyhtälöt 3. Laskukaavojen yhdistäminen 4. Yhtälöiden
Matematiikan ja tilastotieteen laitos Reaalianalyysi I Harjoitus Malliratkaisut (Sauli Lindberg)
Matematiikan ja tilastotieteen laitos Reaalianalyysi I Harjoitus 4 9.4.-23.4.200 Malliratkaisut (Sauli Lindberg). Näytä, että Lusinin lauseessa voidaan luopua oletuksesta m(a)
Avainsanojen poimiminen Eeva Ahonen
Avainsanojen poimiminen 5.10.2004 Eeva Ahonen Sisältö Avainsanat Menetelmät C4.5 päätöspuut GenEx algoritmi Bayes malli Testit Tulokset Avainsanat Tiivistä tietoa dokumentin sisällöstä ihmislukijalle hakukoneelle
Insinöörimatematiikka D
Insinöörimatematiikka D M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Matematiikan ja tilastotieteen laitos Turun yliopisto 2015 M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Luentokalvot
f(x, y) = x 2 y 2 f(0, t) = t 2 < 0 < t 2 = f(t, 0) kaikilla t 0.
Ääriarvon laatu Jatkuvasti derivoituvan funktion f lokaali ääriarvokohta (x 0, y 0 ) on aina kriittinen piste (ts. f x (x, y) = f y (x, y) = 0, kun x = x 0 ja y = y 0 ), mutta kriittinen piste ei ole aina
Lineaarinen toisen kertaluvun yhtälö
Lineaarinen toisen kertaluvun yhtälö Keijo Ruotsalainen Mathematics Division Lineaarinen toisen kertaluvun differentiaaliyhtälö Toisen kertaluvun täydellinen lineaarinen yhtälö muotoa p 2 (x)y + p 1 (x)y
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila
1 Bayesin teoreeman käyttö luokittelijana
1 Bayesin teoreeman käyttö luokittelijana Bayesin kaavan mukaan merkityksen kontekstille c ehdollistettu todennäkköisyys voidaan määrittää alla olevan yhtälön perusteella: P ( c) = P (c )P ( ) P (c) (1)
Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35
Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen
Osakesalkun optimointi
Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit 3 3.1 Optimointiongelmat........................ 4 4 Epäsileän