Logistinen regressio, separoivat hypertasot



Samankaltaiset tiedostot
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Lineaariset luokittelumallit: regressio ja erotteluanalyysi

Diskriminanttianalyysi I

Sovellettu todennäköisyyslaskenta B

Puumenetelmät. Topi Sikanen. S ysteemianalyysin. Laboratorio Aalto-yliopiston teknillinen korkeakoulu

Sovellettu todennäköisyyslaskenta B

Viikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen

Vastepintamenetelmä. Kuusinen/Heliövaara 1

805306A Johdatus monimuuttujamenetelmiin, 5 op

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Keskeiset tulokset heikko duaalisuus (duaaliaukko, 6.2.1) vahva duaalisuus (6.2.4) satulapisteominaisuus (6.2.5) yhteys KKT ehtoihin (6.2.

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

805306A Johdatus monimuuttujamenetelmiin, 5 op

Este- ja sakkofunktiomenetelmät

Polaarisatelliittidataan perustuva lumentunnistusalgoritmi (valmiin työn esittely)

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat

Aki Taanila YHDEN SELITTÄJÄN REGRESSIO

1. LINEAARISET LUOKITTIMET

1. LINEAARISET LUOKITTIMET (jatkoa)

805306A Johdatus monimuuttujamenetelmiin, 5 op

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Identifiointiprosessi

Sovellettu todennäköisyyslaskenta B

Koska ovat negatiiviset. Keskihajontoja ei pystytä laskemaan mutta pätee ¾.

Load

Mat Tilastollisen analyysin perusteet, kevät 2007

Yleistetyistä lineaarisista malleista

edellyttää valintaa takaisinpanolla Aritmeettinen keskiarvo Jos, ½ Ò muodostavat satunnaisotoksen :n jakaumasta niin Otosvarianssi Ë ¾

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

1. Tutkitaan tavallista kahden selittäjän regressiomallia

Sovellettu todennäköisyyslaskenta B

Vastepintamenetelmä. Heliövaara 1

TEKNILLINEN TIEDEKUNTA, MATEMATIIKAN JAOS

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Mat Tilastollisen analyysin perusteet, kevät 2007

Maximum likelihood-estimointi Alkeet

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Todennäköisyyden ominaisuuksia

Gaussiset prosessit derivaattahavainnoilla regressio-ongelmassa (valmiin työn esittely)

Matematiikan perusteet taloustieteilijöille II Harjoituksia kevät ja B = Olkoon A = a) A + B b) AB c) BA d) A 2 e) A T f) A T B g) 3A

2. Uskottavuus ja informaatio

Paikannuksen matematiikka MAT

Optimaalisuusehdot. Yleinen minimointitehtävä (NLP): min f(x) kun g i (x) 0 h j (x) = 0

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

Gripenberg. MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta

0 kun x < 0, 1/3 kun 0 x < 1/4, 7/11 kun 1/4 x < 6/7, 1 kun x 1, 1 kun x 6/7,

2. Teoriaharjoitukset

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH

Kimppu-suodatus-menetelmä

Numeeriset menetelmät

Mallipohjainen klusterointi

Kohdeyleisö: toisen vuoden teekkari

Harjoitus 7: NCSS - Tilastollinen analyysi

ja B = 2 1 a) A + B, b) AB, c) BA, d) A 2, e) A T, f) A T B, g) 3A (e) A =

Lohkoasetelmat. Kuusinen/Heliövaara 1

Kokonaislukuoptiomointi Leikkaustasomenetelmät

pitkittäisaineistoissa

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

Korrelaatiokertoinen määrittely 165

1. Tilastollinen malli??

Kirjallisuuskatsaus sisäpistemenetelmiin ja niiden soveltamiseen eri optimointiluokille (valmiin työn esittely)

Matematiikan tukikurssi

ja B = 2 1 a) A + B, b) AB, c) BA, d) A 2, e) A T, f) A T B, g) 3A (e)

Regressioanalyysi. Kuusinen/Heliövaara 1

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Erityiskysymyksiä yleisen lineaarisen mallin soveltamisessa

(b) Vedonlyöntikertoimet syytetyn ihonvärin eri luokissa

Identifiointiprosessi

MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 8: Newtonin iteraatio. Taso- ja avaruusintegraalit

Johdatus tekoälyn taustalla olevaan matematiikkaan

Vastepintamenetelmä. Vilkkumaa / Kuusinen 1

Kuinka määritellään 2 3?

Johdatus regressioanalyysiin. Heliövaara 1

Tilastotieteen aihehakemisto

ABHELSINKI UNIVERSITY OF TECHNOLOGY

Numeeriset menetelmät

pitkittäisaineistoissa

Luento 10: Optimointitehtävien numeerinen ratkaiseminen; optimointi ilman rajoitusehtoja

Funktiojonot ja funktiotermiset sarjat Funktiojono ja funktioterminen sarja Pisteittäinen ja tasainen suppeneminen

Talousmatematiikan perusteet: Luento 12. Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Lohkoasetelmat. Heliövaara 1

Tilastollisen analyysin perusteet Luento 7: Lineaarinen regressio

Likimääräisratkaisut ja regularisaatio

Dierentiaaliyhtälöistä

Dynaamiset regressiomallit

Tenttiin valmentavia harjoituksia

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

Luento 11: Rajoitusehdot. Ulkopistemenetelmät

Väliestimointi (jatkoa) Heliövaara 1

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

031021P Tilastomatematiikka (5 op) viikko 6

OPETUSSUUNNITELMALOMAKE

Vastausehdotukset analyysin sivuainekurssin syksyn välikokeeseen

Transkriptio:

Logistinen regressio, separoivat hypertasot Topi Sikanen

Logistinen regressio Aineisto jakautunut K luokkaan K=2 tärkeä erikoistapaus Halutaan mallintaa luokkien vedonlyöntikertoimia (odds) havaintojen x lineaarisilla funktioilla Nimittäjän valinta mielivaltainen

Logistinen regressio Yksinkertaisella laskutoimituksella saadaan luokkien todennäköisyyksiksi

Logistinen regressio: mallin sovitus Malli sovitetaan yleensä suurimman uskottavuuden menetelmällä Jos aineisto täysin separoituva, ei yksikäsitteistä ratkaisua. Ratkaistaan, esim newtonin menetelmällä. Iteratiivinen painotettu pienimmän neliösumman menetelmä Myös muita vaihtoehtoja on.

Logistinen regressio: mallin sovitus kun K=2 Iteratiivinen painotettu pienimmän neliösumman menetelmä kahden luokan tapauksessa ˆ β uusi = X T WX ( ) 1 X T z ( ) W = diag( p ˆ i p ˆ i 1 ) z = X ˆ β vanha + W 1 ( y p ˆ ) p ˆ = p ˆ 1, p ˆ 2,, ˆ p i = Pr X = x i ; ˆ [ ] T, ˆ p N ( β vanha )

Logistinen regressio: Mallin tulkinta Jos malli on oikea estimaatit ˆ β suppenevat todellisiin arvoihinsa ˆ β Normaalijakautunut β ˆ ~ N β, X T WX Painotettu jäännösneliösumma on Pearsonin χ 2 - testisuure. Mallin valinnassa voidaan käyttää tavallisen lineaarisesta regression apuvälineitä, esim. Waldin testiä. ( ) 1 ( )

Logistinen regressio: esimerkki Sydänkohtausriskin mallintaminen Aineisto käsittelee Etelä-Afrikkalaisia valkoihoisia 16-64 vuotiaita miehiä Vastemuuttujana sydänkohtauksen esiintyminen kyselyajankohtana

Logistinen regressio: esimerkki

Logistinen regressio: Esimerkin tulkinta Esim. Tupakan poltto mitataan kilogrammoina eliniässä. Jos elämän aikans poltetaan 1 kg tupakkaa enemmän, kasvaa sydänkohtuasriski kertaiseksi tai 8.3% Yllättävät tulokset: ylipaino ja verenpaine eivät merkitseviä Johtuu multikollineaarisuudesta

L 1 Regularisoitu logistinen regressio Maximoidaan sakotettu versio uskottavuusfunktiosta Muuttujat standardoidaan kuten lasso menetelmässä. Vakiotermiä ei sakoteta Voidaan käyttää apuna mallin valinnassa. Auttaa myös jos aineisto täysin separoituva

L 1 Regularisoitu logistinen regressio

Logistinen regressio vai LDA? LDA ja logistinen regressio sovittavat saman mallin Logistinen regressio tekee datasta vähemmän oletuksia Jos luokkien jakaumat gaussisia, on LDA tehokkaampi Logistinen regressio on robustimpi poikkeavien havaintojen suhteen

Separoivat hypertasot Etsitään lineaarista funktiota joka jakaa havaintoaineiston kahteen luokkaan y i = 1 ja y i = 1 Hypertason yhtälö Luokitin y i = sign β 0 + β Τ x x 0 ( ) ( )

Separoivat hypertasot

Perseptroni algoritmi 1/2 Minimoi väärin luokiteltujen pisteiden M etäisyyttä päätösrajasta ( ) = y i ( x i β + β 0 ) D β, β 0 i M M väärin luokiteltujen havaintojen joukko Jos luokiteltu väärin, niin ja päinvatoin jos

Perseptroni algoritmi 2/2 Stokastinen gradienttimenetelmä Käydään väärinluokitellut pisteet läpi mielivaltaisessa järjestyksessä ρ on oppimisnpeusparametri Jos luokat separoituvia, suppenee äärellisellä määrällä askelia

Perseptroni algoritmin ongelmia 1. Jos havainnot ovat separoituvia, ratkaisu ei ole yksikäsitteinen 2. Jos havainnot eivät ole separoituvia, algoritmi ei suppene. 3. Suppeneminen saattaa olla hidasta. 4. Vaikea tietää onko kyse kohdasta 2 vai 3

Optimaalinen separoiva hypertaso Pyrkii maksimoimaan havaintojen etäisyyden päätösrajasta min 1 β 2 2 β,β 0 s.e y ( Tβ x + β ) 1, i = 1, 2,, N i i 0

Optimaalinen separoiva hypertaso: tukivektorit Ratkaistaan maksimoimalla Wolfen duaali KKT Ehdot: β = Ν ι=1 α ι y i x i Ν 0 = α ι y i, α ι 0 ι=1 α i y i x i Tβ [ ( + β ) 0 1] = 0 i

Optimaalinen separoiva hypertaso β β Tukivektorit 1 β βx + β 0 ( )

Optimaalinen separoiva hypertaso: etuja Yksikäsitteinen ratkaisu Parempi luokittelutulos testiaineistolla perseptroni algoritmiin verrattuna Keskittyy pisteisiin jotka lähellä päätösrajaa Samoin kuin logistinen regressio Jos data gaussista on LDA jälleen tehokkaampi

Entä jos aineisto ei ole separoituva? Jos aineisto ei ole separoituva, optimaalista hypertasoa ei löydy Kantamuunnoksilla voidaan yrittää saattaa aineisto separoituvaksi Ongelmana ylisovitus Käytetään tukivektorikoneita

Kotitehtävä Käytetään klassista Iris -aineistoa, johon on kerätty terälehtien (Petal) ja verholehtien (Sepal) pituuksia ja leveyksiä Tehtävänä on tunnistaa lajike Setosa mittausten perusteella käyttäen 1. Logistista regressiota (Matlab funktio glmfit) 2. Separoivaa hypertasoa (esim. perseptroni) Vertaile tuloksia