1. Markov-mallit. 1.1 Näkyvät Markov-mallit (Markov-ketjut)
|
|
- Kaisa Hakola
- 8 vuotta sitten
- Katselukertoja:
Transkriptio
1 1. Markov-mallit 1.1 Näkyvät Markov-mallit (Markov-ketjut) Olkoon X jono satunnaismuuttujia X = (X 1,..., X t ), ja olkoon satunnaismuuttujien arvot joukosta S = {s 1,..., s N }. Jono on ns. Markovin ketju, jos se täyttää seuraavat Markov-ominaisuudet. 1. Äärellinen horisontti: P (X t+1 = s k X 1,..., X t ) = P (X t+1 = s k X t ) (1) 2. Aikariippumattomuus (stationaarisuus): P (X 2 = s k X 1 = s j ) = P (X t+1 = s k X t = s j ), t, k, j (2) Satunnaismuuttujat peräkkäisinä ajanhetkinä saavat siis olla toisistaan riippuvaisia. Yleisessä (ei-markov) tapauksessa todennäköisyydet voivat riippua
2 koko (äärettömästä) historiasta, eli siitä miten tämänhetkiseen tilaan tultiin. Markov-mallit sopivat mallintamaan satunnaisilmiöitä, jotka suurinpiirtein täyttävät edellä mainitut Markov-ominaisuudet. Esimerkkejä satunnaisilmiöistä: Nopan silmäluku: aikariippumaton, ei riipu edellisitä heitoista Suomenkielisessä lauseessa esiintyvät kirjaimet: jokseenkin aikariippumaton, riippuu vahvasti historiasta (voidaan kuitenkin mallintaa Markovmalleilla) Säätila tunnin välein (aurinkoista, pilvistä, vesisadetta, lumisadetta): hyvin aikariippuvainen, riippuu myös historiasta Nokian päivittäinen pörssikurssi: hyvin aikariippuvainen, riippuu historiasta 2
3 Markov-mallin taulukkomuotoesitys Markov-malli voidaan esittää tilojen (havaintojen) joukkona S, ja tilasiirtymämatriisina A. Esimerkiksi S = {a, e, i, h, t, p} ja matriisin A alkiot a ij = P (X t+1 = s j X t = s i ): a i,j a e i h t p a e i h t p Lisäksi määriteltävä tilojen aloitustodennäköisyydet: esim. ylimääräisen alkutilan s 0 avulla josta tilasiirtymätn muihin tiloihin taulukossa. 3
4 Esittäminen probabilistisena äärellisenä tila-automaattina Äärellinen tila-automaatti eli Finite-State-Automaton, FSA: tilat piirretään ympyröinä, tilasiirtymät kaarina. Painotettu tai probabilistinen automaatti: jokaisella kaarella tn, ja yksittäisestä tilasta ulosmenevien kaarien tn:ien summa =1. Markov-malli voidaan esittää tila-automaattina. Havainnot voivat olla joko kaarissa tai tiloissa. 0.6 b b / 0.6 c / 1.0 c / 0.9 a c c / 0.4 a / 0.1 4
5 Tilajonon todennäköisyys: P (X 1... X T ) = P (X 1 )P (X 2 X 1 )P (X 3 X 1 X 2 )... P (X T X 1... X T 1 (3) ) = P (X 1 )P (X 2 X 1 )P (X 3 X 2 )... P (X T X T 1 ) (4) T 1 = π X1 a XtXt+1 (5) t=1 jossa a XtXt+1 on siirtymätodennäköisyys tilasta hetkellä t tilaan hetkellä t+1 (katsotaan tn:t taulukosta tai tilakoneen kaarista) ja π X1 on tilan X 1 aloitustodennäköisyys. N-grammimalli Markov-mallina: Kirjoitetussa tekstissä sanojen (tai kirjainten) todennäköisyydet riippuvat vahvasti edellisistä sanoista (tai kirjaimista). Kasvattamalla tilojen määrää ja esittämällä pidempiä historioita kullakin tilalla voidaan Markov-ominaisuudet täyttää paremmin. 5 Esim. tri-grammimallissa P (w 3 w 1 w 2 ) tilojen joukko S on kaikkien 2- grammien joukko S = {w 1 w 1, w 1 w 2,... w 1 w N, w 2 w 1,... w 2 w N,...}
6 Rajallisen pituiset historiat voidaan aina esittää äärellisenä joukkona tiloja, jolloin 1. Markov-oletus täyttyy. Markov-mallit erotellaan historian pituuden m mukaan, ja puhutaan m:nnen asteen Markov-mallista. ngrammimalli on siis n 1:nnen asteen näkyvä Markov-malli. Malli voi olla hyödyllinen, vaikka sen satunnaisesti tuottamat havainnot eivät olisikaan järkeviä (demo). 6
7 1.2 Piilo-Markov-Mallit Joskus on hyödyllistä mallintaa satunnaisprosessia niin, ettei havainnoista tehdä suoraan Markov-ketjun tiloja. Sen sijaan ajatellaan, että piilossa olevat tilat tuottavat havaintoja, ja kukin tila tuottaa havaintoja erilaisesta jakaumasta. Piilo-Markov-malli (Hidden Markov Model, HMM, kätketty Markovmalli Tilat: S = {s 1,... s N } Tilasiirtymätodennäköisyydet: A = {a ij }, 1 i, j N Havainnot: {o 1... o t } Havaintotodennäköisyydet kussakin tilasiirtymässä: B = {b ijk } Ero näkyvään Markov-malliin: Vaikka havaintojono tunnetaan, tilajono ei yksikäsitteisesti tunnettu (kuitenkin tunnetaan tilajonoen tn-jakauma). 7
8 Esimerkkejä: Havaintona puolison kommentit ja tekemiset: Havainnot: Paiskoo ovia, Hauska kuulla!, Lähdetäänkö leffaan?, Miksei kukaan ole tyhjentänyt roskista?, laittaa ruokaa, Hienoa!, mykkäkoulu Kätketyt tilat: Iloinen, neutraali, ärsyyntynyt Havaintona luennoitsijan tuottama puhe: Havainnot: äänisignaalin taajuusjakauma eri ajanhetkillä Kätketyt tilat: äänteet joita puhuja yrittää tuottaa HMM on erityisen hyödyllinen, jos on paljon erilaisia havaintoja, jotka oleellisesti liittyvät samanlaiseen tilaan. Näkyvä Markov-malli joutuisi mallintamaan siirtymät kaikkien havaintojen välillä erikseen. 8
9 HMM:n variantteja mukana nollatransitioita: jotkin tilasiirtymät eivät emittoi mitään (merkitään esim. epsilonilla ɛ) arc-emission-hmm: havainnot emittoidaan kaarista: b ijk state-emission-hmm: havainnot emittoidaan tiloista: b ik 9
10 1.3 HMM-mallin käyttäminen Havaintojonon tuottaminen Jos HMM-malli on annettu, havaintojonojen tuottaminen siitä on triviaalia, seuraavasti: t:=1 Arvotaan alkutila X 1 tilojen aloitustn:ien perusteella: P (s i ) = π i while (1) Jos ollaan tilassa i, arvotaan tilasiirtymä s i s j tn:llä a ij Arvotaan siirtymässä ij havainto o t =k tn:llä b ijk end 10
11 Havaintojonon tn:n laskeminen Jos on annettuna tietty havaintojono O = o 1... o t ja malli µ = (A, B, Π), miten saadaan tehokkaasti laskettua havaintojonon O todennäköisyys mallissa, P (O µ)? Suoraviivainen, tehoton ratkaisu: summataan havaintojonon tn kaikkien tilajonoen yli (edellyttää (2T +1)N T kertolaskua, jossa T havaintojonon pituus) P (O X, µ) = T P (o t X t, X t+1, µ) (6) t=1 P (O µ) = X P (O, X µ) = X P (O X, µ)p (X µ) (7) = π X1 X 1...X T +1 t=1 T a XtXt+1b Xt,Xt+1,o t (8) Huomattavasti tehokkaampi ratkaisu saadaan dynaamisella ohjelmoinnilla 11
12 kun huomataan että sekvensseillä on yhteisiä alisekvenssejä, ja lasketaan tn:t kunkin alijonon osalta vain kerran, eli Forward-algoritmi: (eteenpäinlaskenta) Kulkien hilaa askeleittain eteenpäin, kerätään tilakohtaisiin apuparametreihin α i (t) todennäköisyys olla tilassa i ensimmäisen t:n havainnon jälkeen: α i (t) = P (o 1 o 2... o t 1, X t = i µ) Initialisoi tilojen alkutodennäköisyyksillä: α i (1) = π i Induktioaskel: summaa i:n tulokaarista saapuva tn-masssa: α i (t + 1) = N i=1 α i(t)a ij b ijot Lopuksi: P (O µ) = N i=1 α i(t + 1) 12
13 Tila (i) S1 S2 S3 t= Apuparametri α i (t) kussakin hilapisteessä. Huom: Backward-algoritmi (taaksepäinlaskenta) samoin mutta ajassa päinvastaiseen suuntaan. Eteenpäinlaskenta α i (t) ja taaksepäinlaskenta β i (t) voidaan myös yhdistää missä kohdassa aikajanaa tahansa. P (O µ) = N α i (t)β i (t), jossa 1 t T + 1 (9) i=1 13
14 Dekoodaus eli todennäköisimmän tilajonon etsiminen Tehtävä: etsi tilajono joka parhaiten selittää havaintojonon O. Eräs mahdollinen tulkinta: maksimoidaan oikeinarvattujen tilojen lukumäärä. Kuitenkin tämä saattaa johtaa hyvin epätodennäköisiin tilasekvensseihin. Siksi toinen tulkinta: etsitään todennäköisin tilajono joka on tuottanut havaintojonon. Viterbi-algoritmi (Tunnetaan myös nimillä DP alignment, Dynamic Time Warping, one-pass decoding) etsii havainnoille todennäköisimmän kokonaisen tilajonon tehokkaasti Tallettaa jokaiseen hilapisteeseen siihenastisen todennäköisimmän polun: δ j (t) = max P (X i... X t 1, o 1... o t 1, X t = j µ) (10) X 1...Xt 1 14
15 Initialisoi tilojen alkutodennäköisyyksillä: δ j (1) = π j Induktioaskel: valitse edellinen tila josta tulee suurin jonon tn: talleta tn: δ j (t + 1) = max 1 i N δ i (t)a ij b ijot talleta pointteri ko. tilaan: φ j (t + 1) = arg max 1 i N δ i (t)a ij b ijot Lopuksi: Lue hilaa lopusta taaksepäin seuraten φ j :n talletamia kaaria ja kerää todennäköisin tilajono. Tasatilanteet voidaan ratkaista arpomalla. Keskeinen ero forward-algoritmiin: todennäköisyyksien summan sijaan talletetaan maksimi-tn. Joskus yhden parhaan jonon sijaan halutaan n parasta jonoä (n-bestlist). Tällöin talletetaan jokaisessa hilapisteessä m < n parasta tn:ää ja tilaa. Viterbi tietyssä mielessä approksimaatio forward-algoritmille. Se ei laske havainnon tn:ää, vaan selvittää todennäköisimmän tilajonon ja sen tn:n. 15
16 1.4 Parametrien estimointi Jos annettuna tietty havaintojono O (opetusdata), etsitään HMM-mallin parametreille µ = A, B, π arvot jotka uskottavimmin selittävät havainnot. Sovelletaan MLE-estimointia: Ei analyyttistä ratkaisua. arg max P (O opetusdata µ) (11) µ Baum-Welch eli forward-backward-algoritmi Iteratiivinen optimointimenetelmä, EM-algoritmin sovellus. Periaate: vuorotellaan seuraavia kahta askelta: 1. Pidä mallin parametrit vakiona, laske P (O µ) ja kerää tiedot siitä miten O:n tn-massa jakautui mallin hilaan (eli miten monta kertaa kuljettiin mitäkin reittiä) 2. Uudelleenestimoi mallin parametrit µ ˆµ siten että O olisi mahdollisimman todennäköinen 16
17 Taatusti joka kierroksella P (O ˆµ) P (O µ) (kuten EM yleensäkin) Malli voidaan initialisoida satunnaisesti tai jollain nopealla raa-alla menetelmällä Iteroidaan kunnes datan tn ei enää muutu merkittävästi. Löytää lokaalin maksimin, ei välttämättä globaalia (kustannusfunktio on suuren joukon parametrejä luultavasti epälineaarinen funktio). Parametrien estimaatit sanallisesti: ˆbijk = ˆπ i = odotettu frekvenssi tilassa i hetkellä t = 1 odotettu transitioiden lkm tilasta i tilaan j â ij = odotettu transitioiden lkm tilasta i odotettu transitioiden lkm tilasta i tilaan j kun havainto oli k odotettu transitioiden lkm tilasta i tilaan j 17
18 Käytännön implementointi sekä joitain ongelmia Ongelma: Kerrotaan paljon hyvin pieniä tn:iä keskenään ylivuotoongelmia. Viterbissä vain kertolaskua ja max-operaatiota voidaan toteuttaa kokonaan logaritmoituna, jolloin kertolaskut summia. Baum-Welchissä: voidaan käyttää skaalauskertomia joita kasvatetaan ajan t funktiona. Ongelma: Parametrien suuri määrä tarvitaan paljon dataa TAI oletetaan että osa parametreistä jaetaan verkon eri osien kesken ( parameter tying : sidottuja tiloja tai sidottuja tilasiirtymiä) oletetaan että verkossa on rakenteisia nollia, ts. rakenteellisesti mahdottomia tilasiirtymiä 18
19 Estimointialgoritmi löytää lokaalin maksimin, ei globaalia Parametrien fiksu initialisointi Erityisen tärkeää initialisoida havaintotn:t B = b ijk Puheentunnistuksessa Viterbiä käytetään usein approksimaationa myös mallien opetuksessa. Etsitään mallin antama paras polku opetusnäytteisiin, ja päivitetään siirtymä- ja emissio-todennäköisyydet pelkästään parhaan polun mukaan. Tätä toistetaan useita kertoja. 19
20 1.5 Soveltaminen puheentunnistukseen Äännemallit Tyypillisesti jokaiselle ääntelle tehdään oma 3-tilainen HMM. Havainnot ovat puhesignaalin spektristä laskettuja piirteitä. a1 a2 a3 /a/ a1 a2 a3 t1 t2 t3 /t/ t1 t2 t3 Mallien parametrien opettamiseen tarvitaan käytännössä useita tunteja puhetta ja transkriptio puheesta. 20
21 Jos opetusdataa on kymmeniä tai satoja tunteja, voidaan kullekin ääntelle opettaa useampia malleja. Opetetaan erimerkiksi erillisiä malleja äänteelle /a/ riippuen edellisestä ja seuraavasta äänteestä: /a/ jota edeltää /k/ tai /a/ jota edeltää /t/ ja seuraa /u/. Äännemalleja yhdistelemällä voidaan rakentaa isompi HMM, joka vastaa kokonaista sanaa. Vastaavasti voidaan koota yhdeksi isoksi HMM:ksi kaikki sanat, jotka halutaan tunnistaa. Yhdellä sanalla voi olla monta ääntämisvaihtoehtoa. 21
22 ja j1 j1 j2 j2 j3 j3 a1 a1 a2 a2 a3 a3 o1 o2 o3 n1 n2 n3 on o1 o2 o3 n1 n2 n3 22
23 Yksinkertainen Viterbi-tunnistus Kun tunnistimen HMM-verkko on rakennettu, voidaan Viterbi-algoritmilla voidaan etsiä tilajono, joka selittää parhaiten tunnistettavan puhesignaalin. Tilajono kertoo sekä parhaan sanajonon, että signaalin segmentoinnin sanoiksi. Huomioita: Etsii todennäköisimmän tilajonon, mikä ei ole sama asia kuin joka ajanhetken todennäköisin tila. Toimii käytännössä hyvin. Kukin tilajono vastaa jotain sanojen lausuntavaihtoehtoa. Löytää siis todennäköisimmän lausuntavaihtoehdon. Isoilla sanastoilla verkossa on tiloja niin paljon, ettei täydellistä Viterbihakua voida tehdä. Joka ajanhetkellä epätodennäköisimmät polut karsitaan ja toivotaan ettei tästä aiheudu virheitä. 23
24 Tunnistus N-grammimallin kanssa Viterbi-algoritmin tehokkuus perustuu oletukseen, että siirtymätodennäköisyydet eivät riipu edellisistä tiloista. Siksi jokaiseen tilaan tarvitsi tallentaan tieto ainoastaan parhaasta polusta siihen asti. N-grammimallissa sanan todennäköisyys riippuu edellisistä sanoista, joten tilojen siirtymätodennäköisyydet riippuvat pitkälle menneisyyteen. Ongelmaan on kaksi ratkaisua: Laajennetaan HMM-verkkoa niin, että tila määrää yksikäsitteisesti sanahistorian. Tällöin voidaan käyttää perus Viterbi-algoritmia, mutta verkoista tulee helposti todella suuria. Viime vuosina tämä lähestymistapa on yleistynyt, kun on kehitetty menetelmiä, joilla isoja verkkoja voidaan rakentaa ja minimoida tehokkaasti. Ei laajenneta HMM-verkkoa, mutta tunnistuksen aikana tiloihin talletetaan paras polku jokaista aktiivista sanahistoriaa kohden. Näin itse HMM-verkon koko pysyy kohtuullisena, mutta hakualgoritmi on raskaampi. 24
25 N-grammimallin yksiköiden valinta Puheentunnistimien N-grammikielimallit rakennetaan usein kokonaisten sanojen yli. Suomen kielessä tästä aiheutuu kuitenkin ongelmia, jos tunnistustehtävän sanastoa ei haluta rajoittaa (vapaa sanelu, radiouutisten tunnistus): Tarvittava sanasto kasvaa helposti kohtuuttoman suureksi, jotta kaikki yleiset yhdyssanat ja taivutusmuodot saataisiin mukaan. Suurella sanastolla mallin todennäköisyyksiä ei saada estimoitua luotettavasti, kun monista sanayhdistelmistä on vähän näytteitä. Luonnollinen ratkaisu on pilkkoa sanat lyhyempiin paloihin ja rakentaa N- grammimalli palojen yli. Mitä pienempiin paloihin sanat jaetaan, sitä vähemmällä määrällä paloja selvitään ja sitä luotettavammat estimaatit todennäköisyyksille saadaan. Toisaalta lyhyemmät palat vaativat korkeamman asteen mallin, jotta historia yltää yhtä pitkälle kuin sanoilla. 25
26 Sanat voidaan pilkkoa monella tavalla: Kirjaimet: Yksiköitä todella vähän. Tarvittaisiin kuitenkin todella korkea asteluku, jotta malli antaisi hyviä tuloksia. Käytännössä niin isoa mallia on vaikea opettaa. Tavut: Yksiköitä vähän. Toimivat puheentunnistuksessa hyvin. Vieraskieliset sanat vaativat erikoiskäsittelyn. Kieliriippuva. Kielioppiin perustuvat morfeemit: Suomen kielelle on olemassa valmiita tietokoneohjelmia. Yksiköitä tulee aika paljon, mutta toimivat puheentunnistuksessa hyvin. Vieraskieliset sanat vaativat erikoiskäsittelyn. Kieliriippuva. Tilastolliset morfit (Morfessor): Yksiköiden määrään voidaan vaikuttaa. Toimivat puheentunnistuksessa erittäin hyvin. Käsittelee vieraskieliset sanat siinä kuin muutkin. Ohjaamaton menetelmä, jota on sovellettu suomen lisäksi menestyksekkäästi myös turkin- ja vironkieliseen tunnistukseen. 26
27 Morfessor-algoritmi Morfessor-algoritmi (Creutz ja Lagus, 2002) etsii ohjaamattomasti tehokkaan pilkonnan sanoille. Algoritmille syötetään iso tekstiaineisto, ja algoritmi etsii morfit, joilla saadaan minimoitua itse morfiston että morfeilla koodatun tekstiaineiston yhteinen koodauspituus. Pitkillä morfeilla aineisto voidaan koodata tiiviimmin, mutta toisaalta pitkiä morfeja tarvitaan enemmän ja niiden koodaamiseen menee enemmän tilaa. Projektin kotisivulla on demo, jolla voi kokeilla miten eri sanat pilkkoutuvat: Muita HMM:ien sovelluksia sanaluokkien taggaus geenisekvenssien analyysi 27
Luonnollisen kielen tilastollinen käsittely. T (3 ov) L. Kevät 2004 Timo Honkela ja Kris- ta Lagus
Luonnollisen kielen tilastollinen käsittely T-61.281 (3 ov) L Kevät 2004 Timo Honkela ja Kris- Luennot: ta Lagus Laskuharjoitukset: Vesa Siivola 1. Markov-mallit........................ 3 1.1 Näkyvät Markov-mallit...............
9. N-grammi-kielimallit
9. N-grammi-kielimallit 9.1 Tilastollinen mallinnus 1. Otetaan dataa (generoitu tuntemattomasta tn-jakaumasta) 2. Tehdään estimaatti jakaumasta datan perusteella 3. Tehdään päätelmiä uudesta datasta jakaumaestimaatin
Esimerkki: Tietoliikennekytkin
Esimerkki: Tietoliikennekytkin Tämä Mathematica - notebook sisältää luennolla 2A (2..26) käsitellyn esimerkin laskut. Esimerkin kuvailu Tarkastellaan yksinkertaista mallia tietoliikennekytkimelle. Kytkimeen
T Luonnollisten kielten tilastollinen käsittely Vastaukset 11, ke , 12:15 14:00 Puheentunnistus ja kielimallien evaluointi Versio 1.
T-61.020 Luonnollisten kielten tilastollinen käsittely Vastaukset 11, ke 18.4.2007, 12:1 14:00 Puheentunnistus ja kielimallien evaluointi Versio 1.0 1. Käytämme siis jälleen viterbi-algoritmia todennäköisimmän
Dynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Tilastolliset aikasarjat voidaan jakaa kahteen
Algoritmit 2. Luento 13 Ti Timo Männikkö
Algoritmit 2 Luento 13 Ti 30.4.2019 Timo Männikkö Luento 13 Simuloitu jäähdytys Merkkijonon sovitus Horspoolin algoritmi Ositus ja rekursio Rekursion toteutus Algoritmit 2 Kevät 2019 Luento 13 Ti 30.4.2019
1 + b t (i, j). Olkoon b t (i, j) todennäköisyys, että B t (i, j) = 1. Siis operaation access(j) odotusarvoinen kustannus ajanhetkellä t olisi.
Algoritmien DP ja MF vertaileminen tapahtuu suoraviivaisesti kirjoittamalla kummankin leskimääräinen kustannus eksplisiittisesti todennäköisyyksien avulla. Lause T MF ave = 1 + 2 1 i
1. TILASTOLLINEN HAHMONTUNNISTUS
1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,
MS-A0004/A0006 Matriisilaskenta
4. MS-A4/A6 Matriisilaskenta 4. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto..25 Tarkastellaan neliömatriiseja. Kun matriisilla kerrotaan vektoria, vektorin
VALTIOTIETEELLINEN TIEDEKUNTA TILASTOTIETEEN VALINTAKOE Ratkaisut ja arvostelu < X 170
VALTIOTIETEELLINEN TIEDEKUNTA TILASTOTIETEEN VALINTAKOE 4.6.2013 Ratkaisut ja arvostelu 1.1 Satunnaismuuttuja X noudattaa normaalijakaumaa a) b) c) d) N(170, 10 2 ). Tällöin P (165 < X < 175) on likimain
Informaation arvo. Ohjelmistotekniikan laitos OHJ-2550 Tekoäly, kevät
259 Informaation arvo Öljykenttään myydään porausoikeuksia, palstoja on n kappaletta, mutta vain yhdessä niistä on C euron edestä öljyä Yhden palstan hinta on C/n euroa Seismologi tarjoaa yritykselle tutkimustietoa
Mallipohjainen klusterointi
Mallipohjainen klusterointi Marko Salmenkivi Johdatus koneoppimiseen, syksy 2008 Luentorunko perjantaille 5.12.2008 Johdattelua mallipohjaiseen klusterointiin, erityisesti gaussisiin sekoitemalleihin Uskottavuusfunktio
Väliestimointi (jatkoa) Heliövaara 1
Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 16. marraskuuta 2007 Antti Rasila () TodB 16. marraskuuta 2007 1 / 15 1 Epäparametrisia testejä χ 2 -yhteensopivuustesti Homogeenisuuden testaaminen Antti
Tilastollinen testaus. Vilkkumaa / Kuusinen 1
Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 3. marraskuuta 2007 Antti Rasila () TodB 3. marraskuuta 2007 1 / 18 1 Varianssin luottamusväli, jatkoa 2 Bernoulli-jakauman odotusarvon luottamusväli 3
(b) Tarkista integroimalla, että kyseessä on todella tiheysfunktio.
Todennäköisyyslaskenta I, kesä 7 Harjoitus 4 Ratkaisuehdotuksia. Satunnaismuuttujalla X on ns. kaksipuolinen eksponenttijakauma eli Laplacen jakauma: sen tiheysfunktio on fx = e x. a Piirrä tiheysfunktio.
Estimointi. Vilkkumaa / Kuusinen 1
Estimointi Vilkkumaa / Kuusinen 1 Motivointi Tilastollisessa tutkimuksessa oletetaan jonkin jakauman generoineen tutkimuksen kohteena olevaa ilmiötä koskevat havainnot Tämän mallina käytettävän todennäköisyysjakauman
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Tilastollisen merkitsevyyden testaus Osa II Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista
Tilastollinen aineisto Luottamusväli
Tilastollinen aineisto Luottamusväli Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Tilastollinen aineisto p.1/20 Johdanto Kokeellisessa tutkimuksessa tutkittavien suureiden
TIEA241 Automaatit ja kieliopit, kesä Antti-Juhani Kaijanaho. 29. toukokuuta 2013
TIEA241 Automaatit ja kieliopit, kesä 2013 Antti-Juhani Kaijanaho TIETOTEKNIIKAN LAITOS 29. toukokuuta 2013 Sisällys Chomskyn hierarkia (ja muutakin) kieli LL(k) LR(1) kontekstiton kontekstinen rekursiivisesti
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
Epädeterministisen Turingin koneen N laskentaa syötteellä x on usein hyödyllistä ajatella laskentapuuna
Epädeterministisen Turingin koneen N laskentaa syötteellä x on usein hyödyllistä ajatella laskentapuuna. q 0 x solmuina laskennan mahdolliset tilanteet juurena alkutilanne lehtinä tilanteet joista ei siirtymää,
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3. luento 17.11.2017 Neuroverkon opettaminen (ohjattu oppiminen) Neuroverkkoa opetetaan syöte-tavoite-pareilla
Tarkastelemme ensin konkreettista esimerkkiä ja johdamme sitten yleisen säännön, joilla voidaan tietyissä tapauksissa todeta kielen ei-säännöllisyys.
Ei-säännöllisiä kieliä [Sipser luku 1.4] Osoitamme, että joitain kieliä ei voi tunnistaa äärellisellä automaatilla. Tulos ei sinänsä ole erityisen yllättävä, koska äärellinen automaatti on äärimmäisen
Äärellisten automaattien ja säännöllisten kielten ekvivalenssi
Äärellisten automaattien ja säännöllisten kielten ekvivalenssi Osoitamme seuraavan keskeisen tuloksen: Lause 1.8: [Sipser Thm. 1.54] Kieli on säännöllinen, jos ja vain jos jokin säännöllinen lauseke esittää
Erilaisia Markov-ketjuja
MS-C2 Stokastiset prosessit Syksy 207 3A Erilaisia Markov-ketjuja Tuntitehtävät 3A Lepakoiden rengastaja (tai kuponkien keräilijä) Lepakkoluolassa on lepakkoa, joista jokainen lentää luolasta ulos joka
TIEA241 Automaatit ja kieliopit, syksy Antti-Juhani Kaijanaho. 16. marraskuuta 2015
ja ja TIEA241 Automaatit ja kieliopit, syksy 2015 Antti-Juhani Kaijanaho NFA:ksi TIETOTEKNIIKAN LAITOS 16. marraskuuta 2015 Sisällys ja NFA:ksi NFA:ksi Kohti säännöllisiä lausekkeita ja Nämä tiedetään:
Markov-kustannusmallit ja kulkuajat
2B Markov-kustannusmallit ja kulkuajat Tämän harjoituksen tavoitteena on oppia laskemaan Markov-kustannusmallien kustannuskertymiä ja -vauhteja, ketjujen odotettuja kulkuaikoja sekä todennäköisyyksiä osua
Osa 2: Otokset, otosjakaumat ja estimointi
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin
Sanaluokkajäsennystä rinnakkaisilla transduktoreilla
Sanaluokkajäsennystä rinnakkaisilla transduktoreilla Nykykielten laitos FIN-CLARIN-seminaarissa 4. marraskuuta 2010 Sanaluokkajäsennys Mr. Gelbert also has fun with language. NNP NNP RB VBZ NN IN NN. Sanaluokkajäsennin
Tutkimustiedonhallinnan peruskurssi
Tutkimustiedonhallinnan peruskurssi Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo hannu.toivonen, marko.salmenkivi, inkeri.verkamo@cs.helsinki.fi Helsingin yliopisto Hannu Toivonen, Marko Salmenkivi,
Bayesin pelit. Kalle Siukola. MS-E2142 Optimointiopin seminaari: Peliteoria ja tekoäly
Bayesin pelit Kalle Siukola MS-E2142 Optimointiopin seminaari: Peliteoria ja tekoäly 12.10.2016 Toistetun pelin esittäminen automaatin avulla Ekstensiivisen muodon puu on tehoton esitystapa, jos peliä
Algoritmit 1. Luento 13 Ti 23.2.2016. Timo Männikkö
Algoritmit 1 Luento 13 Ti 23.2.2016 Timo Männikkö Luento 13 Suunnittelumenetelmät Taulukointi Kapsäkkiongelma Ahne menetelmä Verkon lyhimmät polut Dijkstran menetelmä Verkon lyhin virittävä puu Kruskalin
Luku 6. Dynaaminen ohjelmointi. 6.1 Funktion muisti
Luku 6 Dynaaminen ohjelmointi Dynaamisessa ohjelmoinnissa on ideana jakaa ongelman ratkaisu pienempiin osaongelmiin, jotka voidaan ratkaista toisistaan riippumattomasti. Jokaisen osaongelman ratkaisu tallennetaan
Kevät 2003 Timo Honkela ja Kris- ta Lagus
Luonnollisen kielen tilastollinen käsittely T-61.281 (3 ov) L Kevät 2003 Timo Honkela ja Kris- Luennot: ta Lagus Laskuharjoitukset: Vesa Siivola Luentokalvot: Krista Lagus (päivityksiä: Timo Honkela) 8.
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo
isomeerejä yhteensä yhdeksän kappaletta.
Tehtävä 2 : 1 Esitetään aluksi eräitä havaintoja. Jokaisella n Z + symbolilla H (n) merkitään kaikkien niiden verkkojen joukkoa, jotka vastaavat jotakin tehtävänannon ehtojen mukaista alkaanin hiiliketjua
Todennäköisyyden ominaisuuksia
Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset
Graafit ja verkot. Joukko solmuja ja joukko järjestämättömiä solmupareja. eli haaroja. Joukko solmuja ja joukko järjestettyjä solmupareja eli kaaria
Graafit ja verkot Suuntamaton graafi: eli haaroja Joukko solmuja ja joukko järjestämättömiä solmupareja Suunnattu graafi: Joukko solmuja ja joukko järjestettyjä solmupareja eli kaaria Haaran päätesolmut:
Numeeriset menetelmät
Numeeriset menetelmät Luento 3 Ti 13.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 3 Ti 13.9.2011 p. 1/37 p. 1/37 Epälineaariset yhtälöt Newtonin menetelmä: x n+1 = x n f(x n) f (x n ) Sekanttimenetelmä:
A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä.
Esimerkki otteluvoiton todennäköisyys A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Yksittäisessä pelissä A voittaa todennäköisyydellä p ja B todennäköisyydellä q =
Relevanttien sivujen etsintä verkosta: satunnaiskulut verkossa Linkkikeskukset ja auktoriteetit (hubs and authorities) -algoritmi
Kurssin loppuosa Diskreettejä menetelmiä laajojen 0-1 datajoukkojen analyysiin Kattavat joukot ja niiden etsintä tasoittaisella algoritmilla Relevanttien sivujen etsintä verkosta: satunnaiskulut verkossa
Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 6 Kirsi Valjus Jyväskylän yliopisto Luento 6 () Numeeriset menetelmät 4.4.2013 1 / 33 Luennon 6 sisältö Interpolointi ja approksimointi Polynomi-interpolaatio: Vandermonden
Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35
Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen
l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on
HY, MTO / Matemaattisten tieteiden kandiohjelma Tilastollinen päättely II, kevät 018 Harjoitus B Ratkaisuehdotuksia Tehtäväsarja I 1 (Monisteen tehtävä 14) Olkoon f Y (y; θ) tilastollinen malli, jonka
Martingaalit ja informaatioprosessit
6A Martingaalit ja informaatioprosessit Tämän harjoituksen tavoitteena on oppia tunnistamaan, milloin satunnaisprosessi on martingaali annetun informaatioprosessin suhteen ja milloin satunnaishetki on
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin
Kevät 2003 Timo Honkela ja Kris- ta Lagus
Luonnollisen kielen tilastollinen käsittely T-61.281 (3 ov) L Kevät 2003 Timo Honkela ja Kris- Luennot: ta Lagus Laskuharjoitukset: Vesa Siivola Luentokalvot: Krista Lagus ja Timo Honkela 10. Probabilistinen
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi
Käytetään satunnaismuuttujaa samoin kuin tilastotieteen puolella:
8.1 Satunnaismuuttuja Käytetään satunnaismuuttujaa samoin kuin tilastotieteen puolella: Esim. Nopanheitossa (d6) satunnaismuuttuja X kertoo silmäluvun arvon. a) listaa kaikki satunnaismuuttujan arvot b)
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2006) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin
Todennäköisyyslaskenta I, kesä 2017 Helsingin yliopisto/avoin Yliopisto Harjoitus 1, ratkaisuehdotukset
Todennäköisyyslaskenta I, kesä 207 Helsingin yliopisto/avoin Yliopisto Harjoitus, ratkaisuehdotukset. Kokeet ja Ω:n hahmottaminen. Mitä tarkoittaa todennäköisyys on? Olkoon satunnaiskokeena yhden nopan
Se mistä tilasta aloitetaan, merkitään tyhjästä tulevalla nuolella. Yllä olevassa esimerkissä aloitustila on A.
Tehtävä. Tämä tehtävä on aineistotehtävä, jossa esitetään ensin tehtävän teoria. Sen jälkeen esitetään neljä kysymystä, joissa tätä teoriaa pitää soveltaa. Mitään aikaisempaa tehtävän aihepiirin tuntemusta
(b) Onko hyvä idea laske pinta-alan odotusarvo lähetmällä oletuksesta, että keppi katkeaa katkaisukohdan odotusarvon kohdalla?
6.10.2006 1. Keppi, jonka pituus on m, taitetaan kahtia täysin satunnaisesti valitusta kohdasta ja muodostetaan kolmio, jonka kateetteina ovat syntyneet palaset. Kolmion pinta-ala on satunnaismuuttuja.
2. Jatkoa HT 4.5:teen ja edelliseen tehtavään: Määrää X:n kertymäfunktio F (x) ja laske sen avulla todennäköisyydet
Tilastotieteen jatkokurssi Sosiaalitieteiden laitos Harjoitus 5 (viikko 9) Ratkaisuehdotuksia (Laura Tuohilampi). Jatkoa HT 4.5:teen. Määrää E(X) ja D (X). E(X) = 5X p i x i =0.8 0+0.39 +0.4 +0.4 3+0.04
Martingaalit ja informaatioprosessit
4A Martingaalit ja informaatioprosessit Tämän harjoituksen tavoitteena on tutustua satunnaisvektorin informaation suhteen lasketun ehdollisen odotusarvon käsitteeseen sekä oppia tunnistamaan, milloin annettu
Batch means -menetelmä
S-38.148 Tietoverkkojen simulointi / Tulosten keruu ja analyysi 1(9) Batch means -menetelmä Batch means -menetelmää käytetään hyvin yleisesti Simulointi suoritetaan tässä yhtenä pitkänä ajona olkoon simuloinnin
Yhteydettömän kieliopin jäsennysongelma
Yhteydettömän kieliopin jäsennysongelma Yhteydettömän kieliopin jäsennysongelmalla tarkoitetaan laskentaongelmaa Annettu: yhteydetön kielioppi G, merkkijono w Kysymys: päteekö w L(G). Ongelma voidaan periaatteessa
STOKASTISET PROSESSIT Peruskäsitteitä
J. Virtamo 38.3143 Jonoteoria / Stokastiset prosessit 1 STOKASTISET PROSESSIT Peruskäsitteitä Usein tarkasteltava järjestelmä kehittyy ajan mukana ja meitä kiinnostaa sen dynaaminen, yleensä satunnaisuutta
Mat Sovellettu todennäköisyyslasku A
TKK / Systeemianalyysin laboratorio Nordlund Mat-.090 Sovellettu todennäköisyyslasku A Harjoitus 7 (vko 44/003) (Aihe: odotusarvon ja varianssin ominaisuuksia, satunnaismuuttujien lineaarikombinaatioita,
Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:
4. Tyhjentyvyys Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: Voidaanko päätelmät perustaa johonkin tunnuslukuun t = t(y) koko aineiston y sijasta? Mitä
3. laskuharjoituskierros, vko 6, ratkaisut
Mat-.9 Sovellettu todennäköisyyslasku, kevät - eliövaara, Palo, Mellin. laskuharjoituskierros, vko 6, ratkaisut D. Uurnassa A on 4 valkoista ja 6 mustaa kuulaa ja uurnassa B on 6 valkoista ja 4 mustaa
Liikenneongelmien aikaskaalahierarkia
J. Virtamo 38.3141 Teleliikenneteoria / HOL-esto 1 Liikenneongelmien aikaskaalahierarkia AIKASKAALAHIERARKIA Kiinnostavat aikaskaalat kattavat laajan alueen, yli 13 dekadia! Eri aikaskaaloissa esiintyvät
Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1
Tilastotieteen kertaus Vilkkumaa / Kuusinen 1 Motivointi Reaalimaailman ilmiöihin liittyy tyypillisesti satunnaisuutta ja epävarmuutta Ilmiöihin liittyvien havaintojen ajatellaan usein olevan peräisin
Numeeriset menetelmät
Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma
Algoritmit 1. Luento 9 Ti Timo Männikkö
Algoritmit 1 Luento 9 Ti 7.2.2017 Timo Männikkö Luento 9 Graafit ja verkot Kaaritaulukko, bittimatriisi, pituusmatriisi Verkon lyhimmät polut Floydin menetelmä Lähtevien ja tulevien kaarien listat Forward
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4B Bayesläinen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy
Johdatus verkkoteoriaan 4. luento
Johdatus verkkoteoriaan 4. luento 28.11.17 Viikolla 46 läpikäydyt käsitteet Viikolla 47 läpikäydyt käsitteet Verkko eli graafi, tasoverkko, solmut, välit, alueet, suunnatut verkot, isomorfiset verkot,
Markov-ketjut pitkällä aikavälillä
2A Markov-ketjut pitkällä aikavälillä Tämän harjoituksen tavoitteena on oppia lukemaan siirtymämatriisista tai siirtymäkaaviosta, milloin Markov-ketju on yhtenäinen ja jaksoton; oppia tunnistamaan, milloin
Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 12 Kirsi Valjus Jyväskylän yliopisto Luento 12 () Numeeriset menetelmät 25.4.2013 1 / 33 Luennon 2 sisältö Tavallisten differentiaaliyhtälöiden numeriikasta Rungen
Konsensusongelma hajautetuissa järjestelmissä. Niko Välimäki Hajautetut algoritmit -seminaari
Konsensusongelma hajautetuissa järjestelmissä Niko Välimäki 30.11.2007 Hajautetut algoritmit -seminaari Konsensusongelma Päätöksen muodostaminen hajautetussa järjestelmässä Prosessien välinen viestintä
Turingin koneen laajennuksia
Turingin koneen laajennuksia Turingin koneen määritelmään voidaan tehdä erilaisia muutoksia siten että edelleen voidaan tunnistaa tasan sama luokka kieliä. Moniuraiset Turingin koneet: nauha jakautuu k
Algoritmit 1. Luento 1 Ti Timo Männikkö
Algoritmit 1 Luento 1 Ti 10.1.2017 Timo Männikkö Luento 1 Algoritmi Algoritmin toteutus Ongelman ratkaiseminen Algoritmin tehokkuus Algoritmin suoritusaika Algoritmin analysointi Algoritmit 1 Kevät 2017
T Luonnollisen kielen tilastollinen käsittely Vastaukset 5, ti , 8:30-10:00 N-grammikielimallit, Versio 1.1
T-6.28 Luonnollisen kielen tilastollinen käsittely Vastaukset 5, ti 24.2.2004, 8:30-0:00 N-grammikielimallit, Versio.. Alla on erään henkilön ja tilaston estimaatit sille, miten todennäköistä on, että
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI Ohjaamattomassa oppimisessa on tavoitteena muodostaa hahmoista ryhmiä, klustereita, joiden sisällä hahmot ovat jossain mielessä samankaltaisia ja joiden välillä
Funktioiden approksimointi ja interpolointi
Funktioiden approksimointi ja interpolointi Keijo Ruotsalainen Division of Mathematics interpolaatio-ongelma 8 Eksponenttifunktion exp(x) interpolointi 3.5 Funktion e^{0.25x} \sin(x) interpolointi 7 3
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään
Königsbergin sillat. Königsberg 1700-luvulla. Leonhard Euler ( )
Königsbergin sillat 1700-luvun Königsbergin (nykyisen Kaliningradin) läpi virtasi joki, jonka ylitti seitsemän siltaa. Sanotaan, että kaupungin asukkaat yrittivät löytää reittiä, joka lähtisi heidän kotoaan,
4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
ICS-C2000 Tietojenkäsittelyteoria Kevät 2016
ICS-C2000 Tietojenkäsittelyteoria Kevät 206 Kierros 0, 2. 24. maaliskuuta Huom! Perjantaina 25. maaliskuuta ei ole laskareita (pitkäperjantai), käykää vapaasti valitsemassanne ryhmässä aiemmin viikolla.
Tietotekniikan valintakoe
Jyväskylän yliopisto Tietotekniikan laitos Tietotekniikan valintakoe 2..22 Vastaa kahteen seuraavista kolmesta tehtävästä. Kukin tehtävä arvostellaan kokonaislukuasteikolla - 25. Jos vastaat useampaan
Keskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6)
Mat-.3 Koesuunnittelu ja tilastolliset mallit kevät Keskipisteen lisääminen k -faktorikokeeseen (ks. Montgomery 9-6) Esim (Montg. ex. 9-, 6-): Tutkitaan kemiallisen prosessin saannon Y riippuvuutta faktoreista
Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..
Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
klusteroi data haluttuun määrään klustereita tee n-gram -mallit klustereista (tasoitus) estimoi sekoitteiden painokertoimet λ k
/DXU6HWVRH /DXU6HWVRH#KXWI 5XP0,\HUDG0DU2VWHGRUI0RGHJ/RJ'VWDH'HHGHH /DJXDJH7R0[WXUHV9HUVXV'\DP&DKH0RGHV,7UDV VHHKDGDXGRURHVVJ-DXDU\ $KHVHRWHPDGHD.l\WlW l.rhhvdwxrvd
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 18 1 Kertausta: momenttimenetelmä ja suurimman uskottavuuden menetelmä 2 Tilastollinen
Tilastollinen päättömyys, kevät 2017 Harjoitus 6B
Tilastollinen päättömyys, kevät 7 Harjoitus 6B Heikki Korpela 8. helmikuuta 7 Tehtävä. Monisteen teht. 6... Olkoot Y,..., Y 5 Nµ, σ, ja merkitään S 5 i Y i Y /4. Näytä, että S/σ on saranasuure eli sen
Lohkoasetelmat. Vilkkumaa / Kuusinen 1
Lohkoasetelmat Vilkkumaa / Kuusinen 1 Motivointi 1/3 Kaksisuuntaisella varianssianalyysilla voidaan tutkia kahden tekijän A ja B vaikutusta sekä niiden yhdysvaikutusta tutkimuksen kohteeseen Kaksisuuntaisessa
Tilastollisia peruskäsitteitä ja Monte Carlo
Tilastollisia peruskäsitteitä ja Monte Carlo Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo Tutkimustiedonhallinnan peruskurssi Tilastollisia peruskäsitteitä ja Monte Carlo 1/13 Kevät 2003 Tilastollisia
Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1
Todennäköisyyslaskun kertaus Vilkkumaa / Kuusinen 1 Satunnaismuuttujat ja todennäköisyysjakaumat Vilkkumaa / Kuusinen 2 Motivointi Kokeellisessa tutkimuksessa tutkittaviin ilmiöihin liittyvien havaintojen
11. laskuharjoituskierros, vko 15, ratkaisut
11. laskuharjoituskierros vko 15 ratkaisut D1. Geiger-mittari laskee radioaktiivisen aineen emissioiden lukumääriä. Emissioiden lukumäärä on lyhyellä aikavälillä satunnaismuuttuja jonka voidaan olettaa
ABHELSINKI UNIVERSITY OF TECHNOLOGY
Satunnaismuuttujat ja todennäköisyysjakaumat Mitä tänään? Jos satunnaisilmiötä halutaan mallintaa matemaattisesti, on ilmiön tulosvaihtoehdot kuvattava numeerisessa muodossa. Tämä tapahtuu liittämällä
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 20. syyskuuta 2007 Antti Rasila () TodB 20. syyskuuta 2007 1 / 17 1 Kolmogorovin aksioomat σ-algebra Tapahtuman todennäköisyys 2 Satunnaismuuttujat Todennäköisyysjakauma
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Viikko 2 Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden
MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Frekventistiset vs. bayeslaiset menetelmät Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto