SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5

Koko: px
Aloita esitys sivulta:

Download "SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5"

Transkriptio

1 SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 1/38

2 Bayesin päätösteoria Bayesin päätösteoria muodostaa luokituksen teorian selkärangan. Se kertoo miten suunnitella paras mahdollinen luokitin kun hahmontunnistusongelman kaikki tilastolliset piirteet ovat tunnetut. Teoria on suhteellisen itsestäänselvien asioiden formalisointi, ja se muodostaa vankan pohjan luokittimien myöhemmälle tarkastelulle. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 2/38

3 Notaatiosta Jatkossa olemme hieman huolettomampia notaation kanssa. Emme esimerkiksi indeksoi satunnaismuuttujan tiheysfunktiota satunnaismuuttujan symbolilla. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 3/38

4 Kalaesimerkki Tehtävänä erottaa kaksi eri kalalajia toisistaan: 1. Meriahven 2. Lohi SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 4/38

5 Kalaesimerkki Tehtävänä erottaa kaksi eri kalalajia toisistaan: 1. Meriahven 2. Lohi Mittaamme liukuhihnaa pitkin tulevasta kalasta (tai sen kuvasta) piirrevektorin. Merkitään tätä x:llä. Tehtävänä x:n perusteella sijoittaa kala jompaan kumpaan luokkaan: ω = ω 1 (meriahven) tai ω = ω 2 (lohi). SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 4/38

6 Kalaesimerkki Tehtävänä erottaa kaksi eri kalalajia toisistaan: 1. Meriahven 2. Lohi Mittaamme liukuhihnaa pitkin tulevasta kalasta (tai sen kuvasta) piirrevektorin. Merkitään tätä x:llä. Tehtävänä x:n perusteella sijoittaa kala jompaan kumpaan luokkaan: ω = ω 1 (meriahven) tai ω = ω 2 (lohi). Tilastollisesti tarkastelemme satunnaismuuttujaparia (X, ω), jossa X kuvaa piirrevektoria ja ω todellista luokkaa. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 4/38

7 Kalaesimerkki Yritämme siis pitää luokitusvirheen minimissään. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 5/38

8 Kalaesimerkki Yritämme siis pitää luokitusvirheen minimissään. Tarkastellaan tilannetta ennen kuin piirrevektori on mitattu ja oletetaan että meressä on enemmän meriahvenia kuin lohia, ts. P(ω 1 ) > P(ω 2 ). Jos luokitus olisi tehtävä pelkästään tämän tiedon perusteella, miten edettäisiin? SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 5/38

9 Kalaesimerkki Yritämme siis pitää luokitusvirheen minimissään. Tarkastellaan tilannetta ennen kuin piirrevektori on mitattu ja oletetaan että meressä on enemmän meriahvenia kuin lohia, ts. P(ω 1 ) > P(ω 2 ). Jos luokitus olisi tehtävä pelkästään tämän tiedon perusteella, miten edettäisiin? Koska meressä on enemmän meriahvenia virheen minimoimiseksi sanoisimme, että kyseessä on meriahven, eli päätössääntönä: Luokitus on ω 1 jos P(ω 1 ) > P(ω 2 ) ja muutoin ω 2. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 5/38

10 Kalaesimerkki Yritämme siis pitää luokitusvirheen minimissään. Tarkastellaan tilannetta ennen kuin piirrevektori on mitattu ja oletetaan että meressä on enemmän meriahvenia kuin lohia, ts. P(ω 1 ) > P(ω 2 ). Jos luokitus olisi tehtävä pelkästään tämän tiedon perusteella, miten edettäisiin? Koska meressä on enemmän meriahvenia virheen minimoimiseksi sanoisimme, että kyseessä on meriahven, eli päätössääntönä: Luokitus on ω 1 jos P(ω 1 ) > P(ω 2 ) ja muutoin ω 2. Järkevämpää on tietenkin ottaa sekä piirrevektorit, että prioritodennäköisyydet huomioon. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 5/38

11 Kalaesimerkki Nyt meillä on piirrevektori x mitattuna. x 1 on kalan pituus ja x 2 sen valoisuuslukema. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 6/38

12 Kalaesimerkki Nyt meillä on piirrevektori x mitattuna. x 1 on kalan pituus ja x 2 sen valoisuuslukema. Tunnemme prioritodennäköisyydet P(ω 1 ),P(ω 2 ) ja luokkatodennäköisyydet p(x ω 1 ) ja p(x ω 2 ). SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 6/38

13 Kalaesimerkki Nyt meillä on piirrevektori x mitattuna. x 1 on kalan pituus ja x 2 sen valoisuuslukema. Tunnemme prioritodennäköisyydet P(ω 1 ),P(ω 2 ) ja luokkatodennäköisyydet p(x ω 1 ) ja p(x ω 2 ). Näiden perusteella voimme laskea posterior-todennäköisyydet: P(ω j x) = p(x ω j)p(ω j ). p(x) SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 6/38

14 Kalaesimerkki Päätämme hihnalla olevan kalan luokan sen perusteella kumman luokan todennäköisyys sen jälkeen kun olemme mitanneet piirrevektorin on suurempi. Ts. luokitus on ω 1 jos P(ω 1 x) > P(ω 2 x) ja muulloin se on ω 2. P(ω j x) lasketaan Bayesin säännöstä: P(ω j x) = p(x ω j)p(ω j ) p(x). Tämä on Bayesin (minimivirhe) päätössääntö. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 7/38

15 Terminologiaa Luokat ω 1,...,ω c Piirreavaruus F (yleensä R d ) Luokitin eli päätössääntö on funktio α : F {ω 1,ω 2,...,ω c }. Luokitin jakaa siis piirreavaruuden osiin luokkien kesken. (Tällä luennolla) oletamme, että p(x ω i ) ja P(ω i ) tunnetaan. Bayesin minimivirheluokitin on päätössääntö, joka minimoi luokitusvirheen. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 8/38

16 Luokitusvirhe Koska luokitusongelma on luonteeltaan tilastollinen, niin myös luokitusvirhe on tilastollinen käsite. Riittää myös tarkastella piirrevektoria x yleisesti (eikä kaikkia sen esittämiä kohteita erikseen) SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 9/38

17 Luokitusvirhe Koska luokitusongelma on luonteeltaan tilastollinen, niin myös luokitusvirhe on tilastollinen käsite. Riittää myös tarkastella piirrevektoria x yleisesti (eikä kaikkia sen esittämiä kohteita erikseen) Luokittimen α luokitusvirhe E(α) = E(α(x) x)p(x)dx = F F [1 P(α(x) x)]p(x)dx, jossa siis P(α(x) x) on todennäköisyys että α luokittaa x:n oikein. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 9/38

18 Luokitusvirhe P(α(x) x) = p(x α(x))p(α(x)) p(x) SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 10/38

19 Luokitusvirhe P(α(x) x) = p(x α(x))p(α(x)) p(x) Joten E(α) = 1 F p(x α(x))p(α(x))dx = 1 F p(x,α(x))dx Luokittimen α luokitusvirhe on siis yhtä suuri kuin tapahtuman {(x, α(x))} komplementin todennäköisyys. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 10/38

20 Luokitusvirhe Päätösalueiden avulla c E(α) = [1 p(x ω i )P(ω i )]dx R i i=1 = 1 c i=1 R i p(x ω i )P(ω i )dx. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 11/38

21 Bayesin minimivirheluokitin Bayesin minimivirheluokitin määritellään α Bayes (x) = arg max P(ω i x). ω i,i=1,...,c SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 12/38

22 Bayesin minimivirheluokitin Bayesin minimivirheluokitin määritellään α Bayes (x) = arg max P(ω i x). ω i,i=1,...,c Bayesin minimivirheluokitin siis valitsee luokista ω 1,...,ω c luokan jonka posterior todennäköisyys on suurin kun on havaittu x SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 12/38

23 Bayesin minimivirheluokitin Bayesin minimivirheluokitin määritellään α Bayes (x) = arg max P(ω i x). ω i,i=1,...,c Bayesin minimivirheluokitin siis valitsee luokista ω 1,...,ω c luokan jonka posterior todennäköisyys on suurin kun on havaittu x Tämä minimoi luokitusvirheen E(α). SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 12/38

24 Bayesin minimivirheluokitin Bayesin kaavasta α Bayes (x) = arg max ωi,i=1,...,c p(x ω i)p(ω i ) p(x) SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 13/38

25 Bayesin minimivirheluokitin Bayesin kaavasta α Bayes (x) = arg max ωi,i=1,...,c p(x ω i)p(ω i ) p(x) p(x) sama kaikille luokille. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 13/38

26 Bayesin minimivirheluokitin Bayesin kaavasta α Bayes (x) = arg max ωi,i=1,...,c p(x ω i)p(ω i ) p(x) p(x) sama kaikille luokille. α Bayes (x) = arg max ωi,i=1,...,c p(x ω i )P(ω i ) SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 13/38

27 Bayesin minimivirheluokitin Bayesin kaavasta α Bayes (x) = arg max ωi,i=1,...,c p(x ω i)p(ω i ) p(x) p(x) sama kaikille luokille. α Bayes (x) = arg max ωi,i=1,...,c p(x ω i )P(ω i ) Käytännössä: Laske P(ω i )p(x ω i ) kaikille luokille. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 13/38

28 Bayesin minimivirheluokitin Bayesin kaavasta α Bayes (x) = arg max ωi,i=1,...,c p(x ω i)p(ω i ) p(x) p(x) sama kaikille luokille. α Bayes (x) = arg max ωi,i=1,...,c p(x ω i )P(ω i ) Käytännössä: Laske P(ω i )p(x ω i ) kaikille luokille. Sijoita x (tai sitä vastaava kohde) luokkaan jolle P(ω i )p(x ω i ) on suurin. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 13/38

29 Bayesin minimiriskiluokitin Oletetaan, että on a toimenpidettä joista tehtävänä valita sopivin. Merkitään toimenpiteitä α 1,...,α a. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 14/38

30 Bayesin minimiriskiluokitin Oletetaan, että on a toimenpidettä joista tehtävänä valita sopivin. Merkitään toimenpiteitä α 1,...,α a. Toimenpiteet liitetään luokitukseen tappiofunktion (engl. loss function) λ avulla. Sen arvo λ(α i ω j ) kuvaa toimenpiteestä α i aiheutuvaa tappiota kun todellinen luokka on ω j. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 14/38

31 Bayesin minimiriskiluokitin Oletetaan, että on a toimenpidettä joista tehtävänä valita sopivin. Merkitään toimenpiteitä α 1,...,α a. Toimenpiteet liitetään luokitukseen tappiofunktion (engl. loss function) λ avulla. Sen arvo λ(α i ω j ) kuvaa toimenpiteestä α i aiheutuvaa tappiota kun todellinen luokka on ω j. Päätössäännöt ovat nyt kuvauksia α piirreavaruudesta toimenpiteiden joukolle. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 14/38

32 Bayesin minimiriskiluokitin Ehdollinen tappio eli ehdollinen riski R(α i x) = c j=1 λ(α i ω j )P(ω j x), joka toimenpiteestä α i seuraa kun havaittu piirrevektori on x. Bayesin minimiriskiluokitin yksinkertaisesti laskee ehdolliset riskit jokaiselle toimenpiteelle ja valitsee toimenpiteen, jonka ehdollinen riski on pienin. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 15/38

33 Bayesin minimiriskiluokitin Samaan tapaan kuin Bayes luokitin myös Bayesin minimiriskiluokitin takaa optimaalisen luokitustuloksen. Se nimittäin minimoi kokonaisriskin R total (α) = R(α(x) x)p(x)dx, päätössääntöjen α suhteen. Bayesin minimiriskiluokitin hyödyllinen kun eri toimenpiteillä eri kustannukset SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 16/38

34 Roskapostiesimerkki Tuleva sähköpostiviesti kuuluu joko normaalipostiluokkaan ω 1 tai roskapostiluokkaan ω 2. On kaksi toimenpidettä α 1 (pidä sähköpostiviesti inboxissa) ja α 2 (viesti menee /dev/null:n). Koskapa normaalin viestin menettäminen on (yleensä) noin kolme kertaa tuskallisempaa kuin roskapostin saaminen inboxiin, valitsemme tappiofunktion λ(α 1 ω 1 ) = 0 λ(α 1 ω 2 ) = 1 λ(α 2 ω 1 ) = 3 λ(α 2 ω 2 ) = 0. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 17/38

35 Roskapostiesimerkki Tiedetään, että P(ω 1 ) = 0.4,P(ω 2 ) = 0.6 ja olemme viestin piirrevektorista laskeneet p(x ω 1 ) = 0.35,p(x ω 2 ) = Huomaa, että yleisesti EI päde c i=1 p(x ω i) = 1. Laskemme ensin posterior todennäköisyydet kummallekin luokalle: P(ω 1 x) = = 0.264; P(ω 2 x) = SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 18/38

36 Roskapostiesimerkki Bayesin minimiriskiluokitusta varten laskemme lisäksi ehdollisen riskin kummallekin toimenpiteelle. Ne ovat R(α 1 x) = = 0.736, R(α 2 x) = = Eli siis Bayes luokitin on sitä mieltä, että meili on roskapostia, mutta minimiriskiluokitin silti antaa sen sujahtaa inboxiin koska virheluokituksen tappio on tässä tapauksessa pienempi. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 19/38

37 Erotinfunktiot Bayes luokitinta käsitellessämme huomasimme, että sama luokitin voidaan esittää useammalla eri tavalla. Yleisesti luokitin määritellään usein apufunktioiden, ns. erotinfunktioiden avulla. Jokaisella luokalla ω i on oma erotinfunktionsa g i (x), joka ottaa syötteekseen piirrevektorin x. Luokitin asettaa sitten piirrevektorin x luokkaan ω i jos kaikille i j g i (x) > g j (x). SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 20/38

38 Erotinfunktiot Figure 2.5 from Duda, Hart, Stork: Pattern Classification, Wiley, 2001 SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 21/38

39 Erotinfunktiot Esim. Bayes luokittimelle: g i (x) = P(ω i x),i = 1,...,c tai g i (x) = p(x ω i )P(ω i ),i = 1,...,c. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 22/38

40 Erotinfunktiot Sama luokitin voidaan siis esittää useiden erilaisten erotinfunktioiden avulla: Tulos: Olkoon f : R R monotonisesti kasvava, ts.f(x) < f(y) aina kun x < y. Tällöin erotinfunktiot ja g i (x),i = 1,...,c f(g i (x)),i = 1,...,c määrittelevät saman luokittimen. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 23/38

41 Lineaariset erotinfunktiot Myöhemmin olemme kiinnostuneita erityisesti muotoa g i (x) = wi T x + w i0 olevista erotinfunktioista. Näitä kutsutaan lineaarisiksi erotinfunktioiksi. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 24/38

42 Kaksi luokkaa Kun luokkia on vain kaksi, luokitin on kätevää esittää yhden ja ainoan erotinfunktion avulla g(x) = g 1 (x) g 2 (x). Tällöin, jos g(x) > 0, niin x sijoitetaan luokkaan ω 1 ja muutoin x sijoitetaan luokkaan ω 2. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 25/38

43 Päätösalueet ja päätöspinnat Päätösalueet voidaan esittää erotinfunktioiden avulla näppärästi: R i = {x : g i (x) > g j (x) i j}. Päätösalueiden rajapintoja, ts. joukkoja R ij = {x : g i (x) = g j (x),g k (x) < g i (x) k i,j}. kutsutaan päätöspinnoiksi. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 26/38

44 Päätösalueet ja päätöspinnat Figure 2.6 from Duda, Hart, Stork: Pattern Classification, Wiley, 2001 SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 27/38

45 Päätösalue-esimerkki Kahden luokan luokitusongelma. P(ω 1 ) = 0.6,P(ω 2 ) = 0.4 ja p(x ω 1 ) = 1 2π exp[ 0.5x 2 ] ja p(x ω 2 ) = 1 2π exp[ 0.5(x 1) 2 ]. Tehtävänä etsiä päätösalueet Bayes luokittimelle. Päätösalue R 1 on niiden x:ien joukko joille P(ω 1 x) > P(ω 2 x). Päätösalue R 2 on niiden x:ien joukko joille P(ω 2 x) > P(ω 1 x). Päätöspinta on x:ien joukko jolle P(ω 2 x) = P(ω 1 x). SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 28/38

46 Päätösalue-esimerkki class 1 class Luokkatiheysfunktiot SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 29/38

47 Päätösalue-esimerkki Päätöspinta: P(ω 1 x) = P(ω 2 x) p(x ω 1 )P(ω 1 ) = p(x ω 2 )P(ω 2 ), missä käytettiin Bayesin sääntöä ja kerrottiin p(x):llä. p(x ω 1 )P(ω 1 ) = p(x ω 2 )P(ω 2 ) ln[p(x ω 1 )P(ω 1 )] = ln[p(x ω 2 )P(ω 2 )]. (x/2) 2 + ln 0.6 = ((x 1)/2) 2 + ln 0.4 x 2 4 ln 0.6 = x 2 2x ln 0.4 x = ln 0.6 ln R 1 = {x : x < x }, R 2 = {x : x > x }. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 30/38

48 Päätösalue-esimerkki Class 1 decision region class 1 class 2 Class 2 decision region P(ω 1 x) ja P(ω 2 x) ja päätösalueet SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 31/38

49 Normaalijakauma Yksi piirre: (d = 1) missä σ > 0. p(x) = 1 2πσ exp[ 1 2 (x µ σ )2 ], SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 32/38

50 Normaalijakauma Yksi piirre: (d = 1) missä σ > 0. Monta piirrettä: p(x) = 1 2πσ exp[ 1 2 (x µ σ )2 ], p(x) = 1 (2π) d/2 det(σ) exp[ 1 2 (x µ)t Σ 1 (x µ)], x,µ ovat d-paikkaisia vektoreita and Σ on d d positiividefiniitti matriisi. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 32/38

51 Erotinfunktiot normaalijakaumalle Erotinfunktiot g i (x) = p normal (x µ i, Σ i )P(ω i ). Logaritmi oikeasta puolesta: g i (x) = 1 2 (x µ i) T Σ 1 i (x µ i ) d 2 ln 2π 1 2 ln det(σ i)+ln P(ω i ). SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 33/38

52 Tapaus 1 Σ i = σ 2 I Siis piirteet riippumattomia ja jokaisella piirteellä sama varianssi. Nyt voidaan kirjoittaa g i (x) = x µ i 2 2σ 2 + ln P(ω i ). Avaamalla (Euklidinen) normi saadaan: g i (x) = 1 2σ 2 (x T x 2µ T i x + µt i µ i) + ln P(ω i ). Koska x T x sama kaikille luokille voidaan sekin tiputtaa: g i (x) = 1 σ 2(µT i x 1 2 µt i µ i ) + ln P(ω i ). SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 34/38

53 Tapaus 1 Σ i = σ 2 I Erotinfunktiot g i (x) = 1 σ 2(µT i x 1 2 µt i µ i ) + ln P(ω i ) lineaarisia. Joten luokitin lineaarinen. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 35/38

54 Pienimmän etäisyyden luokitin Pienimmän etäisyyden luokitin on edellisen erikoistapaus kun P(ω i ) = 1 c. Piirrevektori x sijoitetaan luokkaan, jonka keskiarvovektori on lähinnä x:ää. Pienimmän etäisyyden luokitin on lineaarine luokitin. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 36/38

55 Tapaus 2: Σ i = Σ Sallimme nyt tilastollisesti riippuvat piirteet. Luokkien kovarianssimatriisit kuitenkin samoja. Luokiti lineaarinen myös tässä tapauksessa: g i (x) = wi T x + w i0, missä ja w i = Σ 1 µ i w i0 = 1 2 µt i Σ 1 µ i + ln P(ω i ). SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 37/38

56 Tapaus 3: Σ i mielivaltainen Nyt emme oleta mitään ylimääräistä luokkatiheysfunktioista. Tässä tapauksessa erotinfunktioita g i (x) = 1 2 (x µ i) T Σ 1 i (x µ i ) d 2 ln 2π 1 2 ln det(σ i)+ln P(ω i ). ei voida paljoa sieventää, vain termi d 2 jättää pois. ln 2π voidaan Nämä luokittimet ovat huomattavasti monimutkaisempi kuin lineaariset luokittimet. SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja 5 p. 38/38

1. TILASTOLLINEN HAHMONTUNNISTUS

1. TILASTOLLINEN HAHMONTUNNISTUS 1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,

Lisätiedot

SGN-2500: Johdatus hahmontunnistukseen. Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos

SGN-2500: Johdatus hahmontunnistukseen. Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos SGN-2500: Johdatus hahmontunnistukseen Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos 2006-2008 4. maaliskuuta 2009 ii Esipuhe Tämä moniste on syntynyt vuosina 2003 ja 2004 TTY:llä

Lisätiedot

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.

P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx. Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin

Lisätiedot

luokittelu on mahdollisimman tehokasta Esimerkkejä hahmontunnistussovelluksista: Satelliittikuvien tulkinta Tekstin tunnistus

luokittelu on mahdollisimman tehokasta Esimerkkejä hahmontunnistussovelluksista: Satelliittikuvien tulkinta Tekstin tunnistus 6. HAHMONTUNNISTUKSEN PERUSTEITA 6.1. Johdanto Hahmontunnistus on tieteenala, jossa luokitellaan joitakin kohteita niistä tehtyjen havaintojen perusteella luokkiin Esimerkki: käsinkirjoitettujen numeroiden,

Lisätiedot

2. Bayesin päätösteoria

2. Bayesin päätösteoria 13 / 99 2. Bayesin päätösteoria 2.1. Johdanto Bayesin päätösteorian (Bayesian decision theory) avulla on mahdollista johtaa optimaalisia tilastollisia luokittelijoita. Perustuu todennäköisyyslaskentaan

Lisätiedot

E. Oja ja H. Mannila Datasta Tietoon: Luku 6

E. Oja ja H. Mannila Datasta Tietoon: Luku 6 6. HAHMONTUNNISTUKSEN PERUSTEITA 6.1. Johdanto Hahmontunnistus on tieteenala, jossa luokitellaan joitakin kohteita niistä tehtyjen havaintojen perusteella luokkiin Esimerkki: käsinkirjoitettujen numeroiden,

Lisätiedot

1. LINEAARISET LUOKITTIMET

1. LINEAARISET LUOKITTIMET 1. LINEAARISET LUOKITTIMET Edellisillä luennoilla tarkasteltiin luokitteluongelmaa tnjakaumien avulla ja esiteltiin menetelmiä, miten tarvittavat tnjakaumat voidaan estimoida. Tavoitteena oli löytää päätössääntö,

Lisätiedot

4.0.2 Kuinka hyvä ennuste on?

4.0.2 Kuinka hyvä ennuste on? Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 7

Inversio-ongelmien laskennallinen peruskurssi Luento 7 Inversio-ongelmien laskennallinen peruskurssi Luento 7 Kevät 2012 1 Tilastolliset inversio-ongelmat Tilastollinen ionversio perustuu seuraaviin periaatteisiin: 1. Kaikki mallissa olevat muuttujat mallinnetaan

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Inversio-ongelmien laskennallinen peruskurssi Luento 2 Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +

Lisätiedot

MAIJA MÄKELÄ KERROKSEN TUNNISTUS WLAN-DATAAN PERUSTUEN. Kandidaatintyö

MAIJA MÄKELÄ KERROKSEN TUNNISTUS WLAN-DATAAN PERUSTUEN. Kandidaatintyö MAIJA MÄKELÄ KERROKSEN TUNNISTUS WLAN-DATAAN PERUSTUEN Kandidaatintyö Tarkastaja: Simo Ali-Löytty Palautettu 24.8.2013 I TIIVISTELMÄ TAMPEREEN TEKNILLINEN YLIOPISTO Teknis-luonnontieteellinen koulutusohjelma

Lisätiedot

Luku 6. Hahmontunnistuksen perusteita

Luku 6. Hahmontunnistuksen perusteita 1 / 54 Luku 6. Hahmontunnistuksen perusteita T-61.2010 Datasta tietoon, syksy 2011 professori Erkki Oja Tietojenkäsittelytieteen laitos, Aalto-yliopisto 17.11.2011 2 / 54 Tämän luvun sisältö Tämä luku

Lisätiedot

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8. HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..

Lisätiedot

Todennäköisyyden ominaisuuksia

Todennäköisyyden ominaisuuksia Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset

Lisätiedot

SGN-2500: Johdatus hahmontunnistukseen. Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos 2006-2012

SGN-2500: Johdatus hahmontunnistukseen. Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos 2006-2012 SGN-2500: Johdatus hahmontunnistukseen Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos 2006-2012 24. helmikuuta 2012 ii Esipuhe Tämä moniste on syntynyt vuosina 2003 ja 2004 TTY:llä

Lisätiedot

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI 1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia

Lisätiedot

Mat Sovellettu todennäköisyyslasku A

Mat Sovellettu todennäköisyyslasku A TKK / Systeemianalyysin laboratorio Nordlund Mat-.090 Sovellettu todennäköisyyslasku A Harjoitus 7 (vko 44/003) (Aihe: odotusarvon ja varianssin ominaisuuksia, satunnaismuuttujien lineaarikombinaatioita,

Lisätiedot

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu 1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. marraskuuta 2007 Antti Rasila () TodB 30. marraskuuta 2007 1 / 19 1 Lineaarinen regressiomalli ja suurimman uskottavuuden menetelmä Minimin löytäminen

Lisätiedot

Moniulotteisia todennäköisyysjakaumia

Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

8.1 Ehdolliset jakaumat

8.1 Ehdolliset jakaumat 8 Ehdollinen jakauma Tämän kappaleen tärkeitä käsitteitä: Ehdollinen jakauma; ehdollinen ptnf/tf. Kertolaskusääntö eli ketjusääntö yhteisjakauman esittämiseksi. Ehdollinen odotusarvo ja ehdollinen varianssi.

Lisätiedot

Mallipohjainen klusterointi

Mallipohjainen klusterointi Mallipohjainen klusterointi Marko Salmenkivi Johdatus koneoppimiseen, syksy 2008 Luentorunko perjantaille 5.12.2008 Johdattelua mallipohjaiseen klusterointiin, erityisesti gaussisiin sekoitemalleihin Uskottavuusfunktio

Lisätiedot

1. Tilastollinen malli??

1. Tilastollinen malli?? 1. Tilastollinen malli?? https://fi.wikipedia.org/wiki/tilastollinen_malli https://en.wikipedia.org/wiki/statistical_model http://projecteuclid.org/euclid.aos/1035844977 Tilastollinen malli?? Numeerinen

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Tilastollinen testaus. Vilkkumaa / Kuusinen 1 Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää

Lisätiedot

Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3

Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3 Aiheet: Satunnaisvektorit ja moniulotteiset jakaumat Tilastollinen riippuvuus ja lineaarinen korrelaatio Satunnaisvektorit ja moniulotteiset

Lisätiedot

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI

1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI 1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia

Lisätiedot

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2 HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 208 Harjoitus 4 Ratkaisuehdotuksia Tehtäväsarja I. Satunnaismuuttuja U Exp(2) ja V = U/(3 + U). Laske f V käyttämällä muuttujanvaihtotekniikkaa.

Lisätiedot

HY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät 2017 Harjoitus 1 Ratkaisuehdotuksia Tehtäväsarja I

HY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät 2017 Harjoitus 1 Ratkaisuehdotuksia Tehtäväsarja I HY / Matematiikan ja tilastotieteen laitos Tilastollinen päättely II, kevät 2017 Harjoitus 1 Ratkaisuehdotuksia Tehtäväsarja I Tehtävä 1 on klassikko. 1. Tässä tehtävässä tapahtumat A ja B eivät välttämättä

Lisätiedot

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL Mallin arviointi ja valinta Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL Sisältö Otoksen ennustevirheen estimointi AIC - Akaiken informaatiokriteeri mallin valintaan Parametrimäärän

Lisätiedot

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka

Lisätiedot

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x

1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X Y Bin(Y, θ) Y Poi(λ) λ y. f X (x) (λθ)x HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 017 Harjoitus 5 Ratkaisuehdotuksia Tehtäväsarja I 1. Jatketaan luentojen esimerkkiä 8.3. Oletetaan kuten esimerkissä X

Lisätiedot

Luokittelumenetelmän evaluointimenetelmien vertailu pienten aineistojen tapauksessa simulointikokein

Luokittelumenetelmän evaluointimenetelmien vertailu pienten aineistojen tapauksessa simulointikokein Tilastotieteen pro gradu -tutkielma Luokittelumenetelmän evaluointimenetelmien vertailu pienten aineistojen tapauksessa simulointikokein Lasse Moisio Jyväskylän yliopisto Matematiikan ja tilastotieteen

Lisätiedot

Todennäköisyyslaskenta IIa, syyslokakuu 2019 / Hytönen 2. laskuharjoitus, ratkaisuehdotukset

Todennäköisyyslaskenta IIa, syyslokakuu 2019 / Hytönen 2. laskuharjoitus, ratkaisuehdotukset Todennäköisyyslaskenta IIa, syyslokakuu 019 / Hytönen. laskuharjoitus, ratkaisuehdotukset 1. Kurssilla on 0 opiskelijaa, näiden joukossa Jutta, Jyrki, Ilkka ja Alex. Opettaja aikoo valita umpimähkään opiskelijan

Lisätiedot

Tilastollinen aineisto Luottamusväli

Tilastollinen aineisto Luottamusväli Tilastollinen aineisto Luottamusväli Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Tilastollinen aineisto p.1/20 Johdanto Kokeellisessa tutkimuksessa tutkittavien suureiden

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =

Lisätiedot

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B Tilastollinen päättömyys, kevät 7 Harjoitus 6B Heikki Korpela 8. helmikuuta 7 Tehtävä. Monisteen teht. 6... Olkoot Y,..., Y 5 Nµ, σ, ja merkitään S 5 i Y i Y /4. Näytä, että S/σ on saranasuure eli sen

Lisätiedot

Osakesalkun optimointi

Osakesalkun optimointi Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit 3 3.1 Optimointiongelmat........................ 4 4 Epäsileän

Lisätiedot

JATKUVAT JAKAUMAT Laplace-muunnos (Laplace-Stieltjes-muunnos)

JATKUVAT JAKAUMAT Laplace-muunnos (Laplace-Stieltjes-muunnos) J. Virtamo 38.3143 Jonoteoria / Jatkuvat jakaumat 1 JATKUVAT JAKAUMAT Laplace-muunnos (Laplace-Stieltjes-muunnos) Määritelmä Ei-negatiivisen satunnaismuuttujan X 0, jonka tiheysfunktio on f(x), Laplace-muunnos

Lisätiedot

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen Yhden faktorin malli: n kpl sijoituskohteita, joiden tuotot ovat r i, i =, 2,..., n. Olkoon f satunnaismuuttuja ja oletetaan, että tuotot voidaan selittää yhtälön r i = a i + b i f + e i avulla, missä

Lisätiedot

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi

Lisätiedot

Lineaariset luokittelumallit: regressio ja erotteluanalyysi

Lineaariset luokittelumallit: regressio ja erotteluanalyysi Lineaariset luokittelumallit: regressio ja erotteluanalyysi Aira Hast Johdanto Tarkastellaan menetelmiä, joissa luokittelu tehdään lineaaristen menetelmien avulla. Avaruus jaetaan päätösrajojen avulla

Lisätiedot

Tilastollisen analyysin perusteet Luento 6: Korrelaatio ja riippuvuus tilastotieteessä

Tilastollisen analyysin perusteet Luento 6: Korrelaatio ja riippuvuus tilastotieteessä Tilastollisen analyysin perusteet Luento 6: Korrelaatio ja riippuvuus tilastotieteessä Sisältö Riippumattomuus Jos P(A B) = P(A)P(B), niin tapahtumat A ja B ovat toisistaan riippumattomia. (Keskustelimme

Lisätiedot

Moniulotteiset satunnaismuuttujat ja jakaumat

Moniulotteiset satunnaismuuttujat ja jakaumat Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat KE (2014) 1 Moniulotteiset satunnaismuuttujat ja todennäköisyysjakaumat >> Kaksiulotteiset

Lisätiedot

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:

Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: 4. Tyhjentyvyys Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: Voidaanko päätelmät perustaa johonkin tunnuslukuun t = t(y) koko aineiston y sijasta? Mitä

Lisätiedot

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat

Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat 1 Tukivektoriluokittelija Tukivektorikoneeseen (support vector machine) perustuva luoikittelija on tilastollisen koneoppimisen teoriaan perustuva lineaarinen luokittelija. Perusajatus on sovittaa kahden

Lisätiedot

Generointi yksinkertaisista diskreeteistä jakaumista

Generointi yksinkertaisista diskreeteistä jakaumista S-38.148 Tietoverkkojen simulointi / Satunnaismuuttujien generointi 1(18) Generointi yksinkertaisista diskreeteistä jakaumista Seuraavassa U, U 1,..., U n tarkoittavat riippumattomia U(0,1)-jakautuneita

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35 Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen

Lisätiedot

Maximum likelihood-estimointi Alkeet

Maximum likelihood-estimointi Alkeet Maximum likelihood-estimointi Alkeet Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Maximum likelihood-estimointi p.1/20 Maximum Likelihood-estimointi satunnaismuuttujan X

Lisätiedot

Tämän luvun sisältö. Luku 6. Hahmontunnistuksen perusteita. Luokittelu (2) Luokittelu

Tämän luvun sisältö. Luku 6. Hahmontunnistuksen perusteita. Luokittelu (2) Luokittelu Tämän luvun sisältö Luku 6. T-6. Datasta tietoon, syksy professori Erkki Oja Tietojenkäsittelytieteen laitos, Aalto-yliopisto 7.. Tämä luku käydään kahdella luennolla: ensimmäisellä luokittelu ja toisella

Lisätiedot

Johdatus todennäköisyyslaskentaan Moniulotteiset satunnaismuuttujat ja todennäköisyysjakaumat. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Moniulotteiset satunnaismuuttujat ja todennäköisyysjakaumat. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Moniulotteiset satunnaismuuttujat ja todennäköisyysjakaumat TKK (c) Ilkka Mellin (2005) 1 Moniulotteiset satunnaismuuttujat ja todennäköisyysjakaumat Kaksiulotteiset todennäköisyysjakaumat

Lisätiedot

Tilastollinen hahmontunnistus

Tilastollinen hahmontunnistus Tilastollinen hahmontunnistus Lasse Holmström Matemaattisten tieteiden laitos Oulun yliopisto Kevät 2010 päätöspinta luokka 1 luokka 2 A 1 A 2 Sisältö 1 Mitä on hahmontunnistus? 1 2 Matemaattisia apuneuvoja

Lisätiedot

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio. Määritelmä 4.3. Estimaattoria X(Y ) nimitetään lineaariseksi projektioksi, jos X on lineaarinen kuvaus ja E[(X X(Y )) Y] 0 }{{} virhetermi Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi

Lisätiedot

Tilastomatematiikka Kevät 2008

Tilastomatematiikka Kevät 2008 Tilastomatematiikka Kevät 2008 Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Tilastomatematiikka p.1/19 4.3 Varianssi Satunnaismuuttuja on neliöintegroituva, jos odotusarvo

Lisätiedot

KKT: log p i v 1 + v 2 x i = 0, i = 1,...,n.

KKT: log p i v 1 + v 2 x i = 0, i = 1,...,n. TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-2.139 Optimointioppi Kimmo Berg 7. harjoitus - ratkaisut 1. Oletetaan aluksi, että epäyhtälöt eivät ole aktiivisia p i > 0. Tässä tapauksess KKTehdot

Lisätiedot

30A02000 Tilastotieteen perusteet

30A02000 Tilastotieteen perusteet 30A02000 Tilastotieteen perusteet Kertaus 1. välikokeeseen Lauri Viitasaari Tieto- ja palvelujohtamisen laitos Kauppatieteiden korkeakoulu Aalto-yliopisto Syksy 2019 Periodi I-II Sisältö Välikokeesta Joukko-oppi

Lisätiedot

Tutkimustiedonhallinnan peruskurssi

Tutkimustiedonhallinnan peruskurssi Tutkimustiedonhallinnan peruskurssi Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo hannu.toivonen, marko.salmenkivi, inkeri.verkamo@cs.helsinki.fi Helsingin yliopisto Hannu Toivonen, Marko Salmenkivi,

Lisätiedot

Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle /

Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle / MS-A8 Differentiaali- ja integraalilaskenta, V/7 Differentiaali- ja integraalilaskenta Ratkaisut 5. viikolle / 9..5. Integroimismenetelmät Tehtävä : Laske osittaisintegroinnin avulla a) π x sin(x) dx,

Lisätiedot

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme? TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä

Lisätiedot

Estimointi. Vilkkumaa / Kuusinen 1

Estimointi. Vilkkumaa / Kuusinen 1 Estimointi Vilkkumaa / Kuusinen 1 Motivointi Tilastollisessa tutkimuksessa oletetaan jonkin jakauman generoineen tutkimuksen kohteena olevaa ilmiötä koskevat havainnot Tämän mallina käytettävän todennäköisyysjakauman

Lisätiedot

MS-A0107 Differentiaali- ja integraalilaskenta 1 (CHEM)

MS-A0107 Differentiaali- ja integraalilaskenta 1 (CHEM) MS-A17 Differentiaali- ja integraalilaskenta 1 CHEM) Laskuharjoitus 4lv, kevät 16 1. Tehtävä: Laske cos x dx a) osittaisintegroinnilla, b) soveltamalla sopivaa trigonometrian kaavaa. Ratkaisu: a) Osittaisintegroinnin

Lisätiedot

, c) x = 0 tai x = 2. = x 3. 9 = 2 3, = eli kun x = 5 tai x = 1. Näistä

, c) x = 0 tai x = 2. = x 3. 9 = 2 3, = eli kun x = 5 tai x = 1. Näistä Pitkä matematiikka 8.9.0, ratkaisut:. a) ( x + x ) = ( + x + x ) 6x + 6x = + 6x + 6x x = x =. b) Jos x > 0, on x = + x x = + x. Tällä ei ole ratkaisua. Jos x 0, on x = + x x = + x x =. c) x = x ( x) =

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Momenttiemäfunktio ja karakteristinen funktio Ilkka Mellin Todennäköisyyslaskenta Osa : Satunnaismuuttujat ja todennäköisyysjakaumat Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (7) 1 Momenttiemäfunktio ja karakteristinen funktio

Lisätiedot

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on HY, MTO / Matemaattisten tieteiden kandiohjelma Tilastollinen päättely II, kevät 018 Harjoitus B Ratkaisuehdotuksia Tehtäväsarja I 1 (Monisteen tehtävä 14) Olkoon f Y (y; θ) tilastollinen malli, jonka

Lisätiedot

4.2.2 Uskottavuusfunktio f Y (y 0 X = x)

4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Kuva 4.6: Elektroniikassa esiintyvän lämpökohinan periaate. Lämpökohinaa ε mallinnetaan additiivisella häiriöllä y = Mx + ε. 4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Tarkastellaan tilastollista inversio-ongelmaa,

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat

Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat Ilkka Mellin Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat TKK (c) Ilkka Mellin (2006) 1 Moniulotteiset satunnaismuuttujat ja

Lisätiedot

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1 T-61.281 Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti 10.2.2004, 8:30-10:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:

Lisätiedot

Diskreettiaikainen dynaaminen optimointi

Diskreettiaikainen dynaaminen optimointi Diskreettiaikainen dynaaminen optimointi Usean kauden tapaus 2 kauden yleistys Ääretön loppuaika Optimaalinen pysäytys Optimointiopin seminaari - Syksy 2000 / Ongelma t 0 x 0 t- t T x t- + x t + x T u

Lisätiedot

Kun datasta halutaan muodostaa malleja, ne ovat yleensä tilastollisia (esim. regressio, luokittelu, ryhmittely...) F(x 0 ) = P(x x 0 ) (1)

Kun datasta halutaan muodostaa malleja, ne ovat yleensä tilastollisia (esim. regressio, luokittelu, ryhmittely...) F(x 0 ) = P(x x 0 ) (1) 5. ESTIMOINTITEORIAN PERUSTEITA 5.1. Perusjakaumat 1-ulotteisina Kun datasta halutaan muodostaa malleja, ne ovat yleensä tilastollisia (esim. regressio, luokittelu, ryhmittely...) Siksi tarvitaan todennäköisyyslaskentaa

Lisätiedot

Väliestimointi (jatkoa) Heliövaara 1

Väliestimointi (jatkoa) Heliövaara 1 Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2

Lisätiedot

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,

Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1, Todennäköisyyslaskenta, 2. kurssikoe 7.2.22 Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu.. Satunnaismuuttujien X ja Y yhteistiheysfunktio on

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 18. lokakuuta 2007 Antti Rasila () TodB 18. lokakuuta 2007 1 / 19 1 Tilastollinen aineisto 2 Tilastollinen malli Yksinkertainen satunnaisotos 3 Otostunnusluvut

Lisätiedot

T Luonnollisten kielten tilastollinen käsittely

T Luonnollisten kielten tilastollinen käsittely T-61.281 Luonnollisten kielten tilastollinen käsittely Vastaukset 3, ti 11.2.2003, 16:15-18:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:

Lisätiedot

2. Teoriaharjoitukset

2. Teoriaharjoitukset 2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien

Lisätiedot

1 Bayesin teoreeman käyttö luokittelijana

1 Bayesin teoreeman käyttö luokittelijana 1 Bayesin teoreeman käyttö luokittelijana Bayesin kaavan mukaan merkityksen kontekstille c ehdollistettu todennäkköisyys voidaan määrittää alla olevan yhtälön perusteella: P ( c) = P (c )P ( ) P (c) (1)

Lisätiedot

8.1 Ehdolliset jakaumat

8.1 Ehdolliset jakaumat 8 Ehdollinen jakauma Tämän kappaleen tärkeitä käsitteitä: Ehdollinen jakauma; ehdollinen ptnf/tf. Kertolaskusääntö eli ketjusääntö yhteisjakauman esittämiseksi. Ehdollinen odotusarvo ja ehdollinen varianssi.

Lisätiedot

4.1. Olkoon X mielivaltainen positiivinen satunnaismuuttuja, jonka odotusarvo on

4.1. Olkoon X mielivaltainen positiivinen satunnaismuuttuja, jonka odotusarvo on Mat-2.090 Sovellettu todennäköisyyslasku A / Ratkaisut Aiheet: Avainsanat: Otanta Poisson- Jakaumien tunnusluvut Diskreetit jakaumat Binomijakauma, Diskreetti tasainen jakauma, Geometrinen jakauma, Hypergeometrinen

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille

Lisätiedot

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen MAT-200 Todennäköisyyslaskenta Tentti 29.04.20 / Kimmo Vattulainen Funktiolaskin sallittu.. a) Pelaajat A ja B heittävät noppaa vuorotellen ja pelin voittaa se, joka saa ensimmäiseksi kuutosen. A aloittaa

Lisätiedot

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Momenttiemäfunktio ja karakteristinen funktio TKK (c) Ilkka Mellin (5) 1 Momenttiemäfunktio ja karakteristinen funktio Momenttiemäfunktio Diskreettien jakaumien momenttiemäfunktioita

Lisätiedot

Todennäköisyyslaskun kertaus. Heliövaara 1

Todennäköisyyslaskun kertaus. Heliövaara 1 Todennäköisyyslaskun kertaus Heliövaara 1 Satunnaismuuttujat ja todennäköisyysjakaumat Heliövaara 2 Stunnaismuuttujat ja todennäköisyysjakaumat Jos satunnaisilmiötä halutaan mallintaa matemaattisesti,

Lisätiedot

Todennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset

Todennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset Todennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset 1. Olkoon X satunnaismuuttuja, ja olkoot a R \ {0}, b R ja Y = ax + b. (a) Olkoon X diskreetti ja f sen pistetodennäköisyysfunktio.

Lisätiedot

x 4 e 2x dx Γ(r) = x r 1 e x dx (1)

x 4 e 2x dx Γ(r) = x r 1 e x dx (1) HY / Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta IIA, syksy 217 217 Harjoitus 6 Ratkaisuehdotuksia Tehtäväsarja I 1. Laske numeeriset arvot seuraaville integraaleille: x 4 e 2x dx ja 1

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 8 To 29.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 8 To 29.9.2011 p. 1/36 p. 1/36 Interpolointi kuutiosplinillä Osavälit: I i = [t i 1,t i ], i = 1,2,...,n

Lisätiedot

1. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden heittojen lukumäärä, joilla tuli 1, 2, 3 tai 4.

1. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden heittojen lukumäärä, joilla tuli 1, 2, 3 tai 4. HY / Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta II, syksy 206 Kurssikoe 28.0.206 Ratkaisuehdotuksia. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden

Lisätiedot

Olkoon R S otosavaruuksien R ja S karteesinen tulo: Satunnaismuuttujien X ja Y järjestetty pari (X, Y) määrittelee kaksiulotteisen satunnaismuuttujan:

Olkoon R S otosavaruuksien R ja S karteesinen tulo: Satunnaismuuttujien X ja Y järjestetty pari (X, Y) määrittelee kaksiulotteisen satunnaismuuttujan: Mat-.6 Sovellettu todennäköisslaskenta B Mat-.6 Sovellettu todennäköisslaskenta B / Ratkaisut Aiheet: Moniulotteiset satunnaismuuttujat ja todennäköissjakaumat Moniulotteisia jakaumia Avainsanat: Diskreetti

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 2 Lisää osamurtoja Tutkitaan jälleen rationaalifunktion P(x)/Q(x) integrointia. Aiemmin käsittelimme tapauksen, jossa nimittäjä voidaan esittää muodossa Q(x) = a(x x

Lisätiedot

LIITE 1 VIRHEEN ARVIOINNISTA

LIITE 1 VIRHEEN ARVIOINNISTA Oulun yliopisto Fysiikan opetuslaboratorio Fysiikan laboratoriotyöt 1 1 LIITE 1 VIRHEEN RVIOINNIST Mihin tarvitset virheen arviointia? Mittaustuloksiin sisältyy aina virhettä, vaikka mittauslaite olisi

Lisätiedot

Harjoitus 2: Matlab - Statistical Toolbox

Harjoitus 2: Matlab - Statistical Toolbox Harjoitus 2: Matlab - Statistical Toolbox Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen tavoitteet Satunnaismuuttujat ja todennäköisyysjakaumat

Lisätiedot

Suodatus ja näytteistys, kertaus

Suodatus ja näytteistys, kertaus ELEC-C7230 Tietoliikenteen siirtomenetelmät Luento 6: Kantataajuusvastaanotin AWGN-kanavassa II: Signaaliavaruuden vastaanotin a Olav Tirkkonen Aalto, Tietoliikenne- ja tietoverkkotekniikan laitos a [10.6.3-10.6.6;

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin

Lisätiedot

Harha mallin arvioinnissa

Harha mallin arvioinnissa Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö

Lisätiedot

5. laskuharjoituskierros, vko 8, ratkaisut

5. laskuharjoituskierros, vko 8, ratkaisut Mat-.09 Sovellettu todennäköisyyslasku, kevät -05 5. laskuharjoituskierros, vko 8, ratkaisut D. Eräässä maata kiertävällä radalla olevassa satelliitissa on ilmaisin, jonka elinikä X yksikkönä vuosi noudattaa

Lisätiedot

1 Rajoittamaton optimointi

1 Rajoittamaton optimointi Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y

Lisätiedot