Luonnollisen kielen tilastollinen käsittely. T (3 ov) L. Kevät Luentokalvot: Krista Lagus ja Timo Honkela
|
|
- Albert Kivelä
- 9 vuotta sitten
- Katselukertoja:
Transkriptio
1 Luonnollisen kielen tilastollinen käsittely T (3 ov) L Kevät 2005 Luennot: Laskuharjoitukset: Krista Lagus Sami Virpioja Luentokalvot: Krista Lagus ja Timo Honkela
2 12. Sananmerkitysten yksikäsitteistäminen (word sense disambiguation, WSD) Eri oppimisperiaatteista Menetelmien onnistumisen mittaaminen Ohjattu disambiguointi Sanakirjapohjainen disambiguointi Ohjaamaton merkitysten keksiminen konteksteja ryhmittelemällä
3 12. Sananmerkitysten yksikäsitteistäminen (word sense disambiguation, WSD) Ongelman määrittely: Oletetaan sana w, jolle olemassa k erillistä merkitystä s 1... s k. Tehtävänä on päätellä yksittäisen esiintymän osalta mikä merkitys on kyseessä. Kyse on siis hahmontunnistuksesta tai luokittelusta. Esim. englannin shake. 3
4 Shake esimerkkejä käyttökonteksteista What at the end of forty years, eh? Here he < tag >shook< / > the bag again They ll just make you over in the studio. Martha < tag >shook< / > her head and tossed the letter on to the table : Mr Olejnik, a production director of a printing company at Leighton Buzzard, was driving home from work. Mr Olejnik, 34, who was not injured in the accident but badly < tag >shaken< / >, said: I was doing about 50mph and already slowing down as I approached a roundabout when without warning a pack of hounds rushed out of the hedge at the side of the road and crossed the road straight in front of my car. (Esimerkit Senseval-testiaineistosta) 4
5 Hyödyllisiä aineistotyyppejä Sense-tagged -korpus: aineisto, johon on jokaisen sanan w esiintymän kohdalle tagattu kyseisen esiintymän merkitys s i. Esim. Senseval (englanninkielinen). Sanakirjat ja tesaurukset, ks. esim. sana shake Kaksikielinen linjattu tai kohdistettu aineisto: sama aineisto molemmilla kielillä, johon on merkitty toisiaan vastaavat kohdat, esim. sana tai lause kerrallaan. Yksikielinen aineisto, jossa on siemeneksi sense-tagattu (merkitysmerkitty?) pieni osa sanan esiintymistä Yksikielinen aineisto, jossa paljon sanan esiintymiä kontekstissa Korpukset voivat myös olla syntaktisesti tagattuja (sanaluokat jne) tai sisältää pelkän tekstin. 5
6 Esim: omatekoinen 2-kielinen kohdistettu aineisto What at the end of forty years, eh? Here he shook the bag again. Entä 40 vuoden päästä, häh? Hän ravisteli taas pussia. They ll just make you over in the studio. Martha shook her head and tossed the letter on to the table. He vain laittavat sinut kuntoon studiolla. Martha pudisteli päätään ja viskasi kirjeen pöydälle. (Suomenkieliset lauseet ovat tässä omatekoisia) Aitoja kohdistettuja aineistoja: esim. EU:n asetusten tekstit virallisille kielille, monikielisten valtioiden viralliset tekstit jne. 6
7 12.1 Eri oppimisperiaatteista Tunnistusmenetelmät voidaan jakaa ryhmiin mm. oppimisperiaatteen mukaan: Ohjaamaton (unsupervised) oppiminen Vahvistettu (reinforced) oppiminen Ohjattu (supervised) oppiminen Seuraavaksi tarkastellaan tarkemmin ohjaamatonta ja ohjattua oppimista. 7
8 Ohjaamaton oppiminen Hahmojen luokkia ei tiedetä etukäteen Tavoitteena on muodostaa hahmoista ryhmiä, joiden sisällä hahmot ovat samankaltaisia ja joiden välillä on selkeitä eroja (klusterointi) Optimoitava funktio on klusteroinnin onnistumista kuvaava mitta Aina ei tiedetä edes ryhmien lukumäärää Tehtävänä tällöin word sense discovery merkitysten keksiminen tai löytäminen aineistoista. 8
9 Ohjattu oppiminen Hahmojen luokat tunnetaan etukäteen Tavoitteena on muodostaa kuvaus piirreavaruudesta luokka-avaruuteen Optimoitava funktio perustuu kuvauksessa tapahtuviin virheisiin, ts. pyritään minimoimaan tapahtuvien luokitteluvirheiden todennäköisyys tai, mikäli virheisiin liittyy toisistaan poikkeavia kustannuksia, virheiden kokonaiskustannuksen odotusarvo. 9
10 Bootstrapping Luonnollisen kielen aineistoilla relevanttia on lisäksi ns. bootstrap -oppiminen: Pieni osa aineistosta on luokiteltua, jonka avulla päästään alkuun. Tämän jälkeen oppiminen tapahtuu ohjaamattomasti. 10
11 12.2 Menetelmien onnistumisen mittaaminen Keinotekoinen data: pseudosanat Menetelmiä voidaan kehittää ja testata keinotekoisella datalla, jonka ominaisuudet varmasti tunnetaan. Esim. korvataan kaikki sanojen banaani ja ovi esiintymät pseudosanalla banaaniovi. Mitataan, kuinka hyvin onnistutaan tunnistamaan kutakin banaaniovea vastaava oikea sana. Kyseessä on helppo, halpa ja nopea tuottaa laajoja testiaineistoja, joissa tunnetaan sekä disambiguoimaton data että alkuperäinen - oikea - data, joka menetelmän pitäisi löytää. 11
12 Onnistumisen laskennalliset ylä- ja alarajat Mikäli yhteisiä testiaineistoja ei ole, pelkkä numeerinen tulos ei riitä menetelmie onnistumisen mittaamiseen: jotkut ongelmat ovat luonnostaan vaikeampia kuin toiset. Pyritään siksi hahmottamaan ongelman vaikeus: Yläraja ground truth : paras mahdollinen tulos. Usein käytetään mittana ihmisen suoriutumista samasta tehtävästä (harvoin 100%). Ylärajan määritys tärkeää esim. jos verrataan menetelmien suoriutumista rajallisen mittaisella kontekstilla. Harvoin 100% esimerkiksi, jos ikkuna kovin kapea. Alaraja, baseline : yksinkertaisin mahdollinen perusmenetelmä. Esim. luokan valinta satunnaisesti tai luokan taustafrekvenssin perusteella. 12
13 12.3 Ohjattu disambiguointi Käytetään notaatiota: w monimerkityksinen sana s 1... s K sanan eri merkitykset (senses) c 1... c I sanan w kontekstit korpuksessa v 1... v J piirrejoukko (esim. joukko sanoja), jota käytetään disambiguoinn Seuraavaksi esitellään joitain ohjatun oppimisen lähestymistapoja, joita on sovellettu merkitysten disambiguointiongelmaan. Piirteiden valinta Yleisesti piirrejoukko vaikuttaa suuresti luokittelun onnistumismahdollisuuksiin. Hyvä piirrejoukko on riippuvainen käytetyn luokittimen (tai mallin) ominaisuuksista, eli piirrejoukon valintaa ja mallinnusta ei voida täysin erottaa toisistaan. 13
14 Esimerkkejä mahdollisista piirteistä tietyn sanan esiintyminen jonkin etäisyyden päässä disambiguoitavasta sanasta, esim. etäisyys(w, avasi ) < 3 tiettyjen kahden sanan esiintyminen kontekstissa yhdessä tietyn sanaluokan tai morfologisen luokan esiintymisfrekvenssi kontekstiikkunassa (jos data on POS- tai morfol. tagattua) tietyn sanan tai sanaluokan esiintyminen tietyssä täsmällisessä positiossa suhteessa disambiguoitavaan sanaan (esim. edeltävänä sanana) tieto jonkin semanttisen muuttujan, esim. keskustelunaihe, arvosta jokin ylläolevien funktio tai yhdistelmä 14
15 Bayesläinen luokitin Luokitin ei tee piirrevalintaa, vain yhdistää evidenssin eri piirteistä Valitaan piirteiksi joukko sanoja Luokitin soveltaa Bayesin päätössääntöä valitessaan luokan, ts. minimoi luokitteluvirheen todennäköisyyttä: P (s k c) = P (c s k)p (s k ) P (c) P (s k ) on merkityksen s k prioritodennäköisyys, eli tn jos emme tiedä kontekstista mitään. (1) 15
16 Bayesläinen luokitin: todennäköisimmän luokan valinta Jos tehtävänä on vain valita todennäköisin luokka, voidaan jättää kontekstin c todennäköisyys P (c) (joka ei riipu luokasta) laskuissa huomiotta: valitaan merkitys s jos s = arg max s k P (s k c) (2) = P (c s k )P (s k ) arg max s k P (c) (3) = arg max P (c s k )P (s k ) s k (4) = arg max[log P (c s k ) + log P (s k )] s k (5) 16
17 Estimointiongelma Käytännön hankaluus: kontekstin piirteiden ehdollisen yhteistnjakauman P (c s k ) luotettava estimointi tietylle merkitykselle edellyttäisi, että meillä olisi datajoukko, jossa jokainen merkitys esiintyisi kaikissa periaatteessa mahdollisissa konteksteissaan, mieluiten useita kertoja. Ratkaisu: helpotetaan estimointia tekemällä sopivia yksinkertaistavia oletuksia (Naive Bayes, Naïve Bayes) 17
18 Naive Bayes -luokitin Naive Bayes -oletuksessa lähdetään siitä, että kukin piirre vaikuttaa luokitukseen toisista piirteistä riippumattomasti: P (c s k ) = P (v 1,..., v J s k ) = v j inc P (v j s k ) (6) Sama graafisesti: Tässä yksinkertaistetussa mallissa (jota kutsutaan myös bag of words - malliksi) sanojen järjestyksellä kontekstissa ei ole merkitystä, ja sama sana voi esiintyä kontekstissa useita kertoja. 18
19 Naive Bayes -luokitin, jatkoa Sovellettaessa edelliseen päätössääntöön (kaava 5) saadaan Naive Bayes päätössääntö: Valitaan s jos s = arg max[log P (s k ) + log P (v j s k )] (7) s k v j inc Näistä P (v j s k ):lle ja P (s k ):lle lasketaan ML-estimaatit luokitellusta opetusdatajoukosta: P (v j s k ) = C(v j, s k ) C(s k ) P (s k ) = C(s k) C(w) jossa C(... ) tarkoittaa lukumäärää opetusdatajoukossa 19
20 Naive Bayes -luokitin, jatkoa Kuuden substantiivin duty, drug, land, language, position, sentence luokituksessa kun aineistona oli Hansard-korpus saatiin 90% tunnistustulos (Church, Gale & Yarowsky, 1992). Esimerkkejä drug -sanan merkityksille sovelletuista piirteistä: Merkitys medication illegal substance Piirteet ko. merkitykselle prices, prescription, patent, increase, consumer, pharmaceutical abuse, paraphernalia, illicit, alcohol, cocaine, traffickers 20
21 Naive Bayes -luokitin, yhteenveto Naive Bayes-luokitin on yksinkertainen ja melko robusti; antaa kohtuullisia tuloksia monenlaisissa ongelmissa. Naive Bayes -ongelma: epärealistiset riippumattomuusoletukset ML-estimoinnin ongelma: käyttää kaikki piirteet, ts. ei kykene tekemään piirrevalintaa 21
22 Eräs informaatioteoreettinen lähestymistapa Edellisessä mallissa käytettiin kaikki kontekstin sanat estimoinnissa. Nyt päinvastainen lähestymistapa: valitaan yksittäinen mahdollisimman hyvä indikaattori, jonka arvo voidaan selvittää kustakin kontekstista kullekin merkitykselle. Esimerkki: Ranskan prendre -sanan merkitykset tehdä päätös (prendre une decision ja ottaa mitta (prendre une mesure, luotettava indikaattori olisi verbin objektina oleva sana. Disambiguoitava sana: w = prendre Valitaan piirrejoukoksi (indikaattoriksi) esim. objektipositiossa olevat sanat V = {mesure, note, exemple, décision, parole} Käännösten joukko: K = {take, make, rise, speak} 22
23 Menetelmän kuvaus Maksimoidaan yhteisinformaatio piirteen ja merkityksen välillä. Muistellaan yhteisinformaation kaavaa: I(X; Y ) = x X p(x, y) p(x, y) log p(x)p(y) y Y partitiointi = jonkin joukon jako osajoukkoihin. 23
24 Flip-Flop -algoritmi Voidaan käyttää merkitysten etsimiseen kun tiedetään disambiguoitavan sanan käännösvasteet toisella kielellä. K= käännösten joukko, V = piirteiden joukko Valitse V :lle satunnaisesti jokin partitiointi Y Toista, kunnes parannus ei ole enää suuri: 1. Etsi K:lle partitiointi X siten, että I(X; Y ) maksimoituu 2. Etsi V :lle partitiointi Y siten, että I(X; Y ) maksimoituu Esim. jos partitioidaan vain kahteen ryhmään: Käännettävä sana: prendre Mahdolliset käännökset K = {take, rise, make, speak} Objektiposition piirteet V = {mesure, note, exemple, décision, parole} 24
25 Esimerkki Data: prendre une mesure : take measure, prendre notes : take notes, prendre exemple : take an example prendre une decision : make a decision prendre la parole : rise to speak Paras partitiointi: X 1 = {take}, X 2 = {rise, make, speak} Y 1 = {mesure, note, exemple}, Y 2 = {decision, parole} 25
26 Kommentteja flip-flop -algoritmia koskien Jos tehdään täyshaku eli kokeillaan kaikki partitioinnit kummallekin joukolle, K ja V, menee exponentiaalinen aika Flip-Flop-algoritmi kuitenkin vie lineaarisen ajan Toistetaan Flip-Flop-algoritmi eri indikaattorelle (objekti, määre, edellinen sana, jne); valitaan indikaattori, joka maksimoi yhteisinformaation 26
27 Kommentteja flip-flop -algoritmia koskien, jatkoa Huom. Käännöksistä saadut labelit eivät välttämättä sanan eri merkityksiä vaan osaksi saman merkityksen eri ilmenemismuotoja (ks. sananmuotojen variaatio, esim. cent viitatessaan merkitykseen senttimetri voisi ilmetä suomeksi muodoissa ( cm, sentti ). Partitioidessaan myös eri labelien joukon S algoritmi itse asiassa ryhmittelee nämä eri muodot pienemmäksi joukoksi merkityksiä. Kääntämisen kannalta katsottuna tehtävä on siis ohjatun oppimisen tehtävä. Merkitysten etsimisen (esim. niiden oikea lukumäärä) ja disambiguoinnin kannalta taas ohjaamatonta oppimista. 27
28 12.4 Sanakirjapohjainen disambiguointi Sanakirjamerkitysmäärittelyihin perustuva menetelmä Notaatio ja piirteet: sanan kuvaus symboli eri merkitykset niiden määritelmät tulkittava sana w s 1... s K D 1... D K w:n kontekstin sana j v j s j1... s jl D j1... D jl Piirrejoukko: E vj = j i D ji eli ei välitetä kontekstin sanojen monimerkityksisyyksistä (yhdistetään määritelmät sanan w piirteitä laskettaessa). Valintakriteeri: s = arg max s k (Dk, E vj ) Huom: Tämä on matemaattisesti sama kuin vektoriavaruusmenetelmä binääriarvoisilla, normalisoimattomilla vektoreilla. Myös paremmat samankaltaisuusmitat mahdollisia (piirteiden painotus ja vektorien pituuksien normalisoin- 28
29 ti). 29
30 Sanojen semanttisiin aiheluokkiin perustuva menetelmä (kirjassa nimellä thesaurus-based disambiguation ) Pohjana yleinen semanttinen luokitus (thesauruksessa, mm. Roget, tai muuten, mm. Longman) Luokat t aihealueita (topics), esim. { urheilu, sota, musiikki, kalastaminen,... } score= monellako kontekstin sanalla löytyy yhteinen luokka sananmerkityksen s k kanssa, ts. tässäkään ei käytetä normalisointeja tai painotuksia tai todennäköisyyksiä score(s k ) = v j in c δ(t(s k ), v j ) δ(t(s k ), v j ) = 1 joss t(s k ) on jokin v j :n luokista 30
31 Sanojen semanttisiin aiheluokkiin perustuva menetelmä, jatkoa Olet. että kukin merkitys s k kuuluu täsmälleen yhteen luokista Sanan luokkien joukko on sen eri merkitysten luokkien unioni ts. ei yritä disambiguoida kontekstisanojen merkityksiä Jättää hyödyntämättä sanat, joita ei etukäteen sem. luokiteltu (esim. uudet sanat, jonain aikakautena kuuluisat henkilönnimet Navratilova, Jeltsin jne., jotka voisivat olla oikein hyviäkin piirteitä) 31
32 Yarowskyn adaptiivinen versio edellisestä Lähtee liikkeelle annetusta semanttisesta luokittelusta ja parantaa sitä luokittelemalla myös uudet sanat niiden kontekstien luokkatiedon perusteella (bootstrapping) Yarowskyn kokeissa konteksti = 100 sanan ikkuna Soveltaa Naive Bayes -oletusta eli oletetaan piirteiden vaikutus riippumattomiksi: P (t l c i ) = P (c i t l ) P (c i ) P (t l) v in c = i P (v t l ) v in c i P (v) P (t l) Käytetään suurehkoa kynnysarvoa α hyväksymään luokka vain, jos se on riittävän todennäköinen tälle kontekstille (eli jos P (t l c i ) > α, suuri α). 32
33 Yarowskyn algoritmi 1. Luokittele kontekstit sanojen luokkien perusteella päivitä P (t l c i ) kaikille c i päivitä t(c i ) = {c i : n luokat, joille P > α} 2. Luokittele sanat kontekstien luokkien perusteella V j = {kontekstit, joissa piirre v j } T l = {kontekstit, joilla luokkana t l } päivitä P (v j t l ) = V j Tl päivitä P (t l ) = l j V j Tl V j Tl j V j Tl 33
34 3. Disambiguoi moniselitteinen sana w s = arg max P (t(s k ), v j ) s k v j in c = arg max P (t(s k ))P (v j t(s k )) s k v j in c = arg max[log P (t(s k )) + log P (v j t(s k ))] s k v j in c 34
35 Yarowskyn algoritmi, jatkoa uusille sanoille: estimoidaan luokat vanhoille sanoille: päivitetään luokat salliiko algoritmi vanhan sanan luokan poistumisen? (kirjassa ei kerrota...) muuten toimitaan todennäköisyyksillä, mutta kontekstien ja piirteiden luokitus on kova. menetelmällä on saatu hyviä tuloksia testidatalla topic-lähestymistapa toimii hyvin silloin, kun merkitys aihealuekohtainen. Kuitenkaan kaikilla sanoilla merkitykset eivät riipu aihealueista huonoja tuloksia. 35
36 Topikkeja voidaan löytää myös ohjaamattomasti Yarowskyn algoritmi oletti tekstejä ja niille tunnetut aihealueet. Edellä kuvatut asiat voidaan kuitenkin tehdä myös ohjaamattomasti sekä probablistisella mallinnuksella että esim, ICA:lla. 36
37 2-kielisen aineiston käännöksiä hyödyntävä menetelmä tarvitaan: 2-kielinen sanakirja + toisen kielen korpus käännetään sana kaikilla eri tavoilla (kaikilla eri merkityksillä) käännetään sanan kontekstipiirre (yhdistetään eri käännökset joukoksi sanoja) tarkastellaan käännösparien keskinäisiä frekvenssejä toisen kielen korpuksessa. Mikäli jokin vaihtoehto on riittävän todennäköinen, valitaan sen sisältämä tulkinta (testataan merkitsevyys, ja valitaan vain mikäli p > esim. 90%). yleistyy suoraviivaisesti monen piirteen tutkimiselle 37
38 Esimerkki: Englannin interest-sanan disambiguointi kun käytössä on saksankielinen korpus ja englanti-saksa sanakirja. Merkitys 1 Merkitys 2 Määritelmä legal share attention, concern Sanan käännös Beteiligung Interesse Lisäksi tarvitaan tieto että konteksti jossa disambiguoitava sana esiintyy on show interest. Algoritmin kulku tälle tapaukselle: 1. Käännä kontekstin sana show saksaksi > zeigen 2. Etsi saksan korpuksesta kaikki yhteenesiintymät zeigen + Interesse ja zeigen + Beteiligung, laske määrät. 3. Huomattavasti yleisempi näistä on zeigen Interesse, joten valitaan disambiguoiduksi merkitykseksi Merkitys 2. Jos kontekstin sana on monitulkintainen, ei pyritä disambiguoimaan sitä, 38
39 vaan summataan eri tulkintavaihtoehdoilla saadut luvut yhteen ko. merkityksen yhteisluvuksi. Vastaavasti toimitaan jos halutaan käyttää montaa kontekstin piirrettä. Huom. tällaisenaan menetelmä ei huomioi kontekstin eri sanojen (tai niiden eri merkitysten) erilaisia prioritodennäköisyyksiä, mikä saattaa johtaa vääriin tuloksiin yksittäistapauksissa, eli saatetaan preferoida prioritn:ltään suurempaa kontekstia. Jos tämän tekisi ihan kunnolla, pitäisi esiintymislukumäärien sijaan tarkastella priori- ja posterioritodennäköisyyksien eroja. Menetelmä on kuitenkin muokattavissa tällaiseksi. Samaan tähtää tuo edellisellä kalvolla mainittu merkitysevyyden testaus. 39
40 Yksi merkitys per aihe, yksi merkitys per kollokaatio Sanakirjapohjaiset menetelmät tarkastelivat jokaista sananesiintymää erillisenä Kuitenkin esiintymien välillä keskinäisiä riippuvuuksia Oletus 1: Yksi merkitys per aihe: sanalla yleensä yksi merkitys läpi koko dokumentin Oletus 2: Yksi merkitys per kollokaatio: sanan merkitys riippuu vahvasti aivan lähikontekstin sanoista, mukaanlukien sanojen järjestys ja sanaluokkatieto (ts. usein toisistaan täysin erilliset merkitykset ovat eri syntaktisessa ja/tai semanttisessa roolissa ympäristön suhteen) 40
41 Yarowskyn algoritmin ongelmia NB:n tekemä piirteiden riippumattomuusoletus. Vaihdetaan siksi mallia: valitaan 1 paras piirre ja käytetään vain sen mukanaantuoma evidenssi. (Kolmas vaihtoehto olisi mallittaa oikeasti piirteiden yhteisvaikutus) 41
42 Yarowskyn (toinen) algoritmi 1. Sovella oletusta 1: sovella sanakirjamenetelmää tai bootstrappaystä merkitysten valintaan, mutta nyt vain parasta diskriminoivaa kontekstin piirrettä käyttäen 2. Sovella oletusta 2: äänestetään sanan merkitys dokumentin sisällä kaikille samaksi Yarowsky: 2-vaihe parantaa tuloksia 27%. Lopulliset tulokset luokkaa 90%- 96%. 42
43 12.5 Ohjaamaton merkitysten keksiminen konteksteja ryhmittelemällä Edelläkuvatut menetelmät tarvitsevat leksikaalisia resursseja: sanakirjoja tai (pieniä) merkityksin tagattuja aineistoja jokaiselle monimerkityksisen sanan eri merkitykselle Aina sellaisia ei ole, esim. erikoistermien tai uusien merkitysten ilmaantuessa. Jos disambiguoinnilla tarkoitetaan merkitysten taggausta, täysin ohjaamattomasti ei voida disambiguoida. Voidaan kuitenkin klusteroida sanan esiintymät, ja toivoa/olettaa että kukin klusteri vastaa sanan yhtä merkitystä. Hyvä tai huono puoli: ryhmittely voi olla tarkempaa kuin esim. sanakirjoissa. Menetelmiä esim. EM-algoritmi, k-means, SOM, hierarkkiset klusterointimenetelmät,... 43
44 EM-algoritmi disambiguoinnissa Seuraavassa esitellään EM (Expectation Maximation) -algoritmin käyttö disambiguonnissa. Esitetyissä kaavoissa K on eri merkitysten lukumäärä. c 1,..., c i,..., c I ovat monitulkintaisen sanan konteksteja korpuksessa. v 1,..., v j,..., v J ovat sanoja, joita käytetään piirteinä disambiguoinnissa. 44
45 EM-algoritmi disambiguoinnissa, alustusvaihe Alusta mallin µ parametrit satunnaisesti. Parametrit ovat P (v j s k ), 1 j J, 1 k K ja P (s k ), 1 k K. Laske log-likelihoodin arvo korpuksesta C annettuna malli µ. Arvo saadaan kertomalla keskenään yksittäisten kontekstien c i todennäköisyyd P (c i ), missä P (c i ) = K k=1 P (c i s k )P (s k ): l(c µ) = log I K i=1 k=1 P (c i s k )P (s k ) = I K i=1 k=1 P (c i s k )P (s k ) 45
46 EM-algoritmi disambiguoinnissa, EM-osuus Niin kauan kuin I(C µ):n arvo kasvaa, toistetaan E- ja M-askeleita. E-askel: Kun 1 j J, 1 k K, estimoidaan h ik eli posterioritodennäköisyys sille, että s k on kontekstin c i :n generoinut merkitys h ik = P (c i s k ) K k=1 P (c i s k ) Jotta P (c i s k ) saadaan lasketuksi, tehdään Naive Bayes -oletus: P (c i s k ) = v j c j P (v j s k ) 46
47 EM-algoritmi disambiguoinnissa, M-askel M-askel: Estimoidaan uudelleen parametrit P (v j s k ) ja P (s k ) käyttämällä MLestimointia: P (v j s k ) = I i=1 c i :v j c i h ik Z j Kaavassa c i :v j c i laskee summan kaikkien sellaisten kontekstien yli, joissa kontekstin sana v j esiintyy. Z j = K I k=1 i=1 c i :v j c i h ik on normalisointivakio. Lasketaan uudelleen merkitysten todennäköisyydet seuraavasti: P (s k ) = I i=1 h ik K I k=1 i=1 h ik = I i=1 h ik I 47
48 Huomioita EM-algoritmista Algoritmi on herkkä alustukselle. l(c µ) paranee joka kierroksella Mitä suurempi määrä luokkia (merkityksiä), sen parempi l(c µ). Ongelmana on siis ylioppiminen (jos soveltaa sellaisenaan eri luokkamäärien vertailuun). 48
49 Paluu lähtökuoppiin Joissain tilanteissa on OK epäonnistua. Esim. sanaleikit, In AI, much of the I is in the beholder Vrt. Beauty is in the eye of the beholder (kauneus on katsojan silmässä) Hypoteesi (Kilgariff): On tavallista että useat merkityksistä yhtäaikaa läsnä: For better or for worse, this would bring competition to the licenced trade competition - competitors vs. competition - the act of competing Mahdollinen selitys: ihmiset eivät disambiguoi sanoja vaan tulkitsevat lauseita ja tekstejä. Jos kaksi sananmerkitystä johtavat samaan lauseen tulkintaan, sananmerkityksiä ei ole tarpeen eritellä. 49
50 Disambiguointiongelmia esim. systemaattinen polysemia (tekemisen akti vs. osallistujat/yhteisö) pisteen merkitys (lauseen loppu vs. muu) erisnimi vai yleisnimi Brown, Bush etu- vai sukunimi Pentti Jaakko 50
51 Muita menetelmiä Muita ohjatun oppimisen menetelmiä: knn valitaan k lähintä luokiteltua esimerkkiä, ja luokitellaan tämä esimerkki enemmistöäänestyksellä. Sopii hyvin harvalle datalle Edellyttää ainoastaan samankaltaisuuden määrittelyn + mittauksen lähimpiin samankaltaisiin (kompleksisuus O(Nd) jossa N datan määrä ja d dimensio) Muita ohjaamattoman oppimisen menetelmiä Klusterointimenetelmiä: K-means (Schütze soveltanut merkitysten ryhmittelyyn), SOM, hierarkkiset klusterointimenetelmät, erilaiset samankaltaisuusmitat 51
52 Menetelmien vertailua Senseval-projekti: laaja WSD-menetelmien vertailu yhteisellä datalla aineisto + evaluoinnit webissä Kriittinen kommentti lähtökohtaoletuksesta Alussa määriteltiin ongelma tähän tapaan: oletetaan sana w, jolle olemassa k erillistä merkitystä s 1... s k. Kuitenkin on kyseenalaista, voidaanko sanojen eri merkityksiä jäännöksettömäs tarkastella pistemäisinä, diskreetteinä oliona. 52
8. Sananmerkitysten yksikäsitteistäminen (word sense disambiguation, WSD)
8. Sananmerkitysten yksikäsitteistäminen (word sense disambiguation, WSD) Ongelman määrittely: Oletetaan sana w, jolle olemassa k erillistä merkitystä s 1... s k. Tehtävänä on päätellä yksittäisen esiintymän
Luonnollisen kielen tilastollinen käsittely. T (3 ov) L. Kevät ta Lagus. Luentokalvot: Krista Lagus ja Timo Honkela
Luonnollisen kielen tilastollinen käsittely T-61.281 (3 ov) L Kevät 2003 Luennot: ta Lagus Laskuharjoitukset: Timo Honkela and Kri Vesa Siivola Luentokalvot: Krista Lagus ja Timo Honkela 12. Sananmerkitysten
T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1
T-61.281 Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti 10.2.2004, 8:30-10:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:
T Luonnollisten kielten tilastollinen käsittely
T-61.281 Luonnollisten kielten tilastollinen käsittely Vastaukset 3, ti 11.2.2003, 16:15-18:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:
805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista
1. TILASTOLLINEN HAHMONTUNNISTUS
1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
jens 1 matti Etäisyydet 1: 1.1 2: 1.4 3: 1.8 4: 2.0 5: 3.0 6: 3.6 7: 4.0 zetor
T-1.81 Luonnollisten kielten tilastollinen käsittely Vastaukset 11, ti 8.4., 1:1-18: Klusterointi, Konekääntäminen. Versio 1. 1. Kuvaan 1 on piirretty klusteroinnit käyttäen annettuja algoritmeja. Sanojen
TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)
JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4B Bayesläinen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy
f(n) = Ω(g(n)) jos ja vain jos g(n) = O(f(n))
Määritelmä: on O(g(n)), jos on olemassa vakioarvot n 0 > 0 ja c > 0 siten, että c g(n) kun n > n 0 O eli iso-o tai ordo ilmaisee asymptoottisen ylärajan resurssivaatimusten kasvun suuruusluokalle Samankaltaisia
Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi
Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 5.-7.11.2008. 1 Tällä viikolla Sisältösuunnitelma: Ennustamisstrategioista Koneoppimismenetelmiä: k-nn (luokittelu
30A02000 Tilastotieteen perusteet
30A02000 Tilastotieteen perusteet Kertaus 1. välikokeeseen Lauri Viitasaari Tieto- ja palvelujohtamisen laitos Kauppatieteiden korkeakoulu Aalto-yliopisto Syksy 2019 Periodi I-II Sisältö Välikokeesta Joukko-oppi
Johdatus tekoälyyn. Luento 6.10.2011: Koneoppiminen. Patrik Hoyer. [ Kysykää ja kommentoikaa luennon aikana! ]
Johdatus tekoälyyn Luento 6.10.2011: Koneoppiminen Patrik Hoyer [ Kysykää ja kommentoikaa luennon aikana! ] Koneoppiminen? Määritelmä: kone = tietokone, tietokoneohjelma oppiminen = ongelmanratkaisukyvyn
Avainsanojen poimiminen Eeva Ahonen
Avainsanojen poimiminen 5.10.2004 Eeva Ahonen Sisältö Avainsanat Menetelmät C4.5 päätöspuut GenEx algoritmi Bayes malli Testit Tulokset Avainsanat Tiivistä tietoa dokumentin sisällöstä ihmislukijalle hakukoneelle
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia
1 Bayesin teoreeman käyttö luokittelijana
1 Bayesin teoreeman käyttö luokittelijana Bayesin kaavan mukaan merkityksen kontekstille c ehdollistettu todennäkköisyys voidaan määrittää alla olevan yhtälön perusteella: P ( c) = P (c )P ( ) P (c) (1)
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI Ohjaamattomassa oppimisessa on tavoitteena muodostaa hahmoista ryhmiä, klustereita, joiden sisällä hahmot ovat jossain mielessä samankaltaisia ja joiden välillä
Aineistoista. Laadulliset menetelmät: miksi tarpeen? Haastattelut, fokusryhmät, havainnointi, historiantutkimus, miksei videointikin
Aineistoista 11.2.09 IK Laadulliset menetelmät: miksi tarpeen? Haastattelut, fokusryhmät, havainnointi, historiantutkimus, miksei videointikin Muotoilussa kehittyneet menetelmät, lähinnä luotaimet Havainnointi:
Viikko 1: Johdantoa Matti Kääriäinen matti.kaariainen@cs.helsinki.fi
Viikko 1: Johdantoa Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 29-31.10.2008. 1 Tällä viikolla 1. Käytännön järjestelyistä 2. Kurssin sisällöstä ja aikataulusta 3. Johdantoa Mitä koneoppiminen
Tilastollinen testaus. Vilkkumaa / Kuusinen 1
Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 5B Bayesläiset piste- ja väliestimaatit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
Algoritmit 1. Luento 3 Ti Timo Männikkö
Algoritmit 1 Luento 3 Ti 17.1.2017 Timo Männikkö Luento 3 Algoritmin analysointi Rekursio Lomituslajittelu Aikavaativuus Tietorakenteet Pino Algoritmit 1 Kevät 2017 Luento 3 Ti 17.1.2017 2/27 Algoritmien
Bayesilainen päätöksenteko / Bayesian decision theory
Bayesilainen päätöksenteko / Bayesian decision theory Todennäköisyysteoria voidaan perustella ilman päätösteoriaa, mutta vasta päätösteorian avulla siitä on oikeasti hyötyä Todennäköisyyteoriassa tavoitteena
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia
Mallipohjainen klusterointi
Mallipohjainen klusterointi Marko Salmenkivi Johdatus koneoppimiseen, syksy 2008 Luentorunko perjantaille 5.12.2008 Johdattelua mallipohjaiseen klusterointiin, erityisesti gaussisiin sekoitemalleihin Uskottavuusfunktio
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja
Esimerkkejä vaativuusluokista
Esimerkkejä vaativuusluokista Seuraaville kalvoille on poimittu joitain esimerkkejä havainnollistamaan algoritmien aikavaativuusluokkia. Esimerkit on valittu melko mielivaltaisesti laitoksella tehtävään
Algoritmit 2. Luento 13 Ti Timo Männikkö
Algoritmit 2 Luento 13 Ti 30.4.2019 Timo Männikkö Luento 13 Simuloitu jäähdytys Merkkijonon sovitus Horspoolin algoritmi Ositus ja rekursio Rekursion toteutus Algoritmit 2 Kevät 2019 Luento 13 Ti 30.4.2019
Harjoitus 7: NCSS - Tilastollinen analyysi
Harjoitus 7: NCSS - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tilastollinen testaus Testaukseen
805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos K:n lähimmän naapurin menetelmä (K-Nearest neighbours) Tarkastellaan aluksi pientä (n = 9) kurjenmiekka-aineistoa, joka on seuraava:
Relevanttien sivujen etsintä verkosta: satunnaiskulut verkossa Linkkikeskukset ja auktoriteetit (hubs and authorities) -algoritmi
Kurssin loppuosa Diskreettejä menetelmiä laajojen 0-1 datajoukkojen analyysiin Kattavat joukot ja niiden etsintä tasoittaisella algoritmilla Relevanttien sivujen etsintä verkosta: satunnaiskulut verkossa
= true C = true) θ i2. = true C = false) Näiden arvot löydetään kuten edellä Kun verkko on opetettu, niin havainto [x 1
35 Naiivi Bayes Luokkamuuttua C o Bayes-verko uuri a attribuutit X i ovat se lehtiä Naiivi oletus o, että attribuutit ovat ehdollisesti riippumattomia toisistaa aettua luokka Ku käytössä o Boole muuttuat,
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi
Väliestimointi (jatkoa) Heliövaara 1
Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).
Luonnollisen kielen tilastollinen käsittely. T-61.281 (3 ov) L. Luento 2, 21.1.2003. Luentokalvot: Krista Lagus ja Timo Honkela
Luonnollisen kielen tilastollinen käsittely T-61.281 (3 ov) L Luento 2, 21.1.2003 Luennot: Laskuharjoitukset: Timo Honkela Vesa Siivola Luentokalvot: Krista Lagus ja Timo Honkela 0.1 Laskuharjoitukset
T Luonnollisten kielten tilastollinen käsittely Vastaukset 10, ti , 8:30-10:00 Sanojen merkitysten erottelu, Versio 1.
T-6.28 Luonnollisten kielten tilastollinen käsittely Vastaukset 0, ti 30.3.2004, 8:30-0:00 Sanojen merkitysten erottelu, Versio.0 Varsinaiset laskaritehtävät. loitetaan ayesin kaavasta: P( c) = P(c )P(
Järvitesti Ympäristöteknologia T571SA 7.5.2013
Hans Laihia Mika Tuukkanen 1 LASKENNALLISET JA TILASTOLLISET MENETELMÄT Järvitesti Ympäristöteknologia T571SA 7.5.2013 Sarkola Eino JÄRVITESTI Johdanto Järvien kuntoa tutkitaan monenlaisilla eri menetelmillä.
T Luonnollisen kielen tilastollinen käsittely Vastaukset 5, ti , 8:30-10:00 N-grammikielimallit, Versio 1.1
T-6.28 Luonnollisen kielen tilastollinen käsittely Vastaukset 5, ti 24.2.2004, 8:30-0:00 N-grammikielimallit, Versio.. Alla on erään henkilön ja tilaston estimaatit sille, miten todennäköistä on, että
Tiedonlouhinta rakenteisista dokumenteista (seminaarityö)
Tiedonlouhinta rakenteisista dokumenteista (seminaarityö) Miika Nurminen (minurmin@jyu.fi) Jyväskylän yliopisto Tietotekniikan laitos Kalvot ja seminaarityö verkossa: http://users.jyu.fi/~minurmin/gradusem/
Tutkimustiedonhallinnan peruskurssi
Tutkimustiedonhallinnan peruskurssi Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo hannu.toivonen, marko.salmenkivi, inkeri.verkamo@cs.helsinki.fi Helsingin yliopisto Hannu Toivonen, Marko Salmenkivi,
ABHELSINKI UNIVERSITY OF TECHNOLOGY
Tilastollinen testaus Tilastollinen testaus Tilastollisessa testauksessa tutkitaan tutkimuskohteita koskevien oletusten tai väitteiden paikkansapitävyyttä havaintojen avulla. Testattavat oletukset tai
5. Kontekstitieto ja yhteisesiintyminen
5. Kontekstitieto ja yhteisesiintyminen Kontekstin tärkeys kielen tulkinnassa: esimerkiksi monitulkintaisuudet ( Aloitin alusta, Alusta kovalevy!, Näin monta alusta, Minä näin monta alusta ) Chomskyn hierarkia
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 6A Tilastolliset luottamusvälit Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016,
T Luonnollisen kielen tilastollinen käsittely Vastaukset 8, ti , 8:30-10:00 Tilastolliset yhteydettömät kieliopit, Versio 1.
T-61.281 Luonnollisen kielen tilastollinen käsittely astaukset 8, ti 16.3.2004, 8:30-10:00 Tilastolliset yhteydettömät kielioit, ersio 1.0 1. Jäsennysuun todennäköisyys lasketaan aloittelemalla se säännöstön
pitkittäisaineistoissa
Puuttuvan tiedon käsittelystä p. 1/18 Puuttuvan tiedon käsittelystä pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto Puuttuvan tiedon
Mat Sovellettu todennäköisyyslasku A
Mat-2.090 Sovellettu todennäköisyyslasku A / Ratkaisut Aiheet: Avainsanat: Klassinen todennäköisyys ja kombinatoriikka Todennäköisyyden aksioomat Kokonaistodennäköisyys ja Bayesin kaava Bayesin kaava,
Tämän luvun sisältö. Luku 6. Hahmontunnistuksen perusteita. Luokittelu (2) Luokittelu
Tämän luvun sisältö Luku 6. T-6. Datasta tietoon, syksy professori Erkki Oja Tietojenkäsittelytieteen laitos, Aalto-yliopisto 7.. Tämä luku käydään kahdella luennolla: ensimmäisellä luokittelu ja toisella
Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1
Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 18 1 Kertausta: momenttimenetelmä ja suurimman uskottavuuden menetelmä 2 Tilastollinen
Lukujonon raja-arvo 1/7 Sisältö ESITIEDOT: lukujonot
Lukujonon raja-arvo 1/7 Sisältö Esimerkki lukujonon raja-arvosta Lukujonossa a 1,a 2,a 3,... (jossa on äärettömän monta termiä) voivat luvut lähestyä jotakin arvoa, kun jonossa edetään yhä pidemmälle.
+ 3 2 5 } {{ } + 2 2 2 5 2. 2 kertaa jotain
Jaollisuustestejä (matematiikan mestariluokka, 7.11.2009, ohjattujen harjoitusten lopputuloslappu) Huom! Nämä eivät tietenkään ole ainoita jaollisuussääntöjä; ovatpahan vain hyödyllisiä ja ainakin osittain
1. JOHDANTO. 1.1 Johdattelevia esimerkkejä. 1. Kuinka monta ihmishahmoa näet kuvassa?
1. JOHDANTO 1.1 Johdattelevia esimerkkejä 1. Kuinka monta ihmishahmoa näet kuvassa? 1 2. Ovatko viivat yhdensuuntaisia? 2 3. Mitä erikoista on spiraalissa? 3 4. Onko risteyskohdissa mustia vai valkoisia
Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:
4. Tyhjentyvyys Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: Voidaanko päätelmät perustaa johonkin tunnuslukuun t = t(y) koko aineiston y sijasta? Mitä
Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016
Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.
T Luonnollisten kielten tilastollinen käsittely Vastaukset 11, ke , 12:15 14:00 Puheentunnistus ja kielimallien evaluointi Versio 1.
T-61.020 Luonnollisten kielten tilastollinen käsittely Vastaukset 11, ke 18.4.2007, 12:1 14:00 Puheentunnistus ja kielimallien evaluointi Versio 1.0 1. Käytämme siis jälleen viterbi-algoritmia todennäköisimmän
P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu
1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)
1. Tilastollinen konekääntäminen
1. Tilastollinen konekääntäminen Automaattinen kielenkääntäminen on eräs pitkäaikaisimmista kieliteknologian tavoitteista. Konekääntäminen (machine translation) on kuitenkin hyvin vaikea ongelma. Nykyisten
pitkittäisaineistoissa
Puuttuvan tiedon ongelma p. 1/18 Puuttuvan tiedon ongelma pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto mtl.uta.fi/tilasto/sekamallit/puupitkit.pdf
Tietorakenteet ja algoritmit - syksy 2015 1
Tietorakenteet ja algoritmit - syksy 2015 1 Tietorakenteet ja algoritmit - syksy 2015 2 Tietorakenteet ja algoritmit Johdanto Ari Korhonen Tietorakenteet ja algoritmit - syksy 2015 1. JOHDANTO 1.1 Määritelmiä
Matematiikan johdantokurssi, syksy 2016 Harjoitus 11, ratkaisuista
Matematiikan johdantokurssi, syksy 06 Harjoitus, ratkaisuista. Valitse seuraaville säännöille mahdollisimman laajat lähtöjoukot ja sopivat maalijoukot niin, että syntyy kahden muuttujan funktiot (ks. monisteen
Lineaarikuvauksen R n R m matriisi
Lineaarikuvauksen R n R m matriisi Lauseessa 21 osoitettiin, että jokaista m n -matriisia A vastaa lineaarikuvaus L A : R n R m, jolla L A ( v) = A v kaikilla v R n. Osoitetaan seuraavaksi käänteinen tulos:
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS KUINKA RIKASTUA NAIVI BAYES FROM: "MARGARETTA NITA" SUBJECT: SPECIAL OFFER : VIAGRA ON SALE AT $1.38!!! X-BOGOSITY: YES, TESTS=BOGOFILTER, SPAMICITY=0.99993752,
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 14. syyskuuta 2007 Antti Rasila () TodB 14. syyskuuta 2007 1 / 21 1 Kokonaistodennäköisyys ja Bayesin kaava Otosavaruuden ositus Kokonaistodennäköisyyden
1. Liikkuvat määreet
1. Liikkuvat määreet Väitelauseen perussanajärjestys: SPOTPA (subj. + pred. + obj. + tapa + paikka + aika) Suora sanajärjestys = subjekti on ennen predikaattia tekijä tekeminen Alasääntö 1: Liikkuvat määreet
Logistinen regressio, separoivat hypertasot
Logistinen regressio, separoivat hypertasot Topi Sikanen Logistinen regressio Aineisto jakautunut K luokkaan K=2 tärkeä erikoistapaus Halutaan mallintaa luokkien vedonlyöntikertoimia (odds) havaintojen
Tilastollisia peruskäsitteitä ja Monte Carlo
Tilastollisia peruskäsitteitä ja Monte Carlo Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo Tutkimustiedonhallinnan peruskurssi Tilastollisia peruskäsitteitä ja Monte Carlo 1/13 Kevät 2003 Tilastollisia
TILASTOLLINEN OPPIMINEN
301 TILASTOLLINEN OPPIMINEN Salmiakki- ja hedelmämakeisia on pakattu samanlaisiin käärepapereihin suurissa säkeissä, joissa on seuraavat sekoitussuhteet h 1 : 100% salmiakkia h 2 : 75% salmiakkia + 25%
Tietotekniikan valintakoe
Jyväskylän yliopisto Tietotekniikan laitos Tietotekniikan valintakoe 2..22 Vastaa kahteen seuraavista kolmesta tehtävästä. Kukin tehtävä arvostellaan kokonaislukuasteikolla - 25. Jos vastaat useampaan
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2006) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin
Luonnollisten kielten tilastollinen käsittely. T-61.281 (3 ov) L. Kevät 2002
Luonnollisten kielten tilastollinen käsittely T-61.281 (3 ov) L Kevät 2002 Luennot: Laskuharjoitukset: Krista Lagus Vesa Siivola 1. YLEISTÄ KURSSISTA.................... 1 1.1 Kurssin suorittaminen................
MTTTP5, luento Otossuureita ja niiden jakaumia (jatkuu)
21.11.2017/1 MTTTP5, luento 21.11.2017 Otossuureita ja niiden jakaumia (jatkuu) 4) Olkoot X 1, X 2,..., X n satunnaisotos (, ):sta ja Y 1, Y 2,..., Y m satunnaisotos (, ):sta sekä otokset riippumattomia.
Osakesalkun optimointi
Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit 3 3.1 Optimointiongelmat........................ 4 4 Epäsileän
MTTTA1 Tilastomenetelmien perusteet 5 op Luento , osa 1. 1 Kokonaisuudet johon opintojakso kuuluu
5.3.2018/1 MTTTA1 Tilastomenetelmien perusteet 5 op Luento 5.3.2018, osa 1 1 Kokonaisuudet johon opintojakso kuuluu https://www10.uta.fi/opas/opintojakso.htm?rid=14600 &idx=1&uilang=fi&lang=fi&lvv=2017
Tilaston esittäminen frekvenssitaulukossa ja graafisesti. Keskiluvut luokittelemattomalle ja luokitellulle aineistolle: moodi, mediaani, keskiarvo.
Kertaus Tilaston esittäminen frekvenssitaulukossa ja graafisesti. Luokiteltu aineisto. Keskiluvut luokittelemattomalle ja luokitellulle aineistolle: moodi, mediaani, keskiarvo. Hajontaluvut luokittelemattomalle
klusteroi data haluttuun määrään klustereita tee n-gram -mallit klustereista (tasoitus) estimoi sekoitteiden painokertoimet λ k
/DXU6HWVRH /DXU6HWVRH#KXWI 5XP0,\HUDG0DU2VWHGRUI0RGHJ/RJ'VWDH'HHGHH /DJXDJH7R0[WXUHV9HUVXV'\DP&DKH0RGHV,7UDV VHHKDGDXGRURHVVJ-DXDU\ $KHVHRWHPDGHD.l\WlW l.rhhvdwxrvd
Yhdyssana suomen kielessä ja puheessa
Yhdyssana suomen kielessä ja puheessa Tommi Nieminen Jyväskylän yliopisto Anna Lantee Tampereen yliopisto 37. Kielitieteen päivät Helsingissä 20. 22.5.2010 Yhdyssanan ortografian historia yhdyssanan käsite
Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden
1.12.2006 1. Satunnaisjakauman tiheysfunktio on Ü µ Üe Ü, kun Ü ja kun Ü. Määritä parametrin estimaattori momenttimenetelmällä ja suurimman uskottavuuden menetelmällä. Ratkaisu: Jotta kyseessä todella
Algoritmit 2. Luento 11 Ti Timo Männikkö
Algoritmit 2 Luento 11 Ti 24.4.2018 Timo Männikkö Luento 11 Rajoitehaku Kapsäkkiongelma Kauppamatkustajan ongelma Paikallinen etsintä Lyhin virittävä puu Vaihtoalgoritmit Algoritmit 2 Kevät 2018 Luento
805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista
Kevät 2003 Luennot: Timo Honkela, Krista Lagus Laskuharjoitukset: Vesa Siivola
Luonnollisen kielen tilastollinen käsittely T-61.281 (3 ov) L Kevät 2003 Luennot: Timo Honkela, Krista Lagus Laskuharjoitukset: Vesa Siivola Luentokalvot: Krista Lagus ja Timo Honkela 13. Klusterointi..........................
Tietorakenteet ja algoritmit Johdanto Lauri Malmi / Ari Korhonen
Tietorakenteet ja algoritmit Johdanto Lauri Malmi / Ari 1 1. JOHDANTO 1.1 Määritelmiä 1.2 Tietorakenteen ja algoritmin valinta 1.3 Algoritmit ja tiedon määrä 1.4 Tietorakenteet ja toiminnot 1.5 Esimerkki:
TIEA241 Automaatit ja kieliopit, syksy Antti-Juhani Kaijanaho. 16. marraskuuta 2015
ja ja TIEA241 Automaatit ja kieliopit, syksy 2015 Antti-Juhani Kaijanaho NFA:ksi TIETOTEKNIIKAN LAITOS 16. marraskuuta 2015 Sisällys ja NFA:ksi NFA:ksi Kohti säännöllisiä lausekkeita ja Nämä tiedetään:
Jos nollahypoteesi pitää paikkansa on F-testisuuren jakautunut Fisherin F-jakauman mukaan
17.11.2006 1. Kahdesta kohteesta (A ja K) kerättiin maanäytteitä ja näistä mitattiin SiO -pitoisuus. Tulokset (otoskoot ja otosten tunnusluvut): A K 10 16 Ü 64.94 57.06 9.0 7.29 Oletetaan mittaustulosten
Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?
TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen TKK (c) Ilkka Mellin (2004) 2 Mitä opimme? 1/4 Tilastollisen tutkimuksen tavoitteena on tehdä johtopäätöksiä prosesseista, jotka generoivat reaalimaailman
2.1. Tehtävänä on osoittaa induktiolla, että kaikille n N pätee n = 1 n(n + 1). (1)
Approbatur 3, demo, ratkaisut Sovitaan, että 0 ei ole luonnollinen luku. Tällöin oletusta n 0 ei tarvitse toistaa alla olevissa ratkaisuissa. Se, pidetäänkö nollaa luonnollisena lukuna vai ei, vaihtelee
6. laskuharjoitusten vastaukset (viikot 10 11)
6. laskuharjoitusten vastaukset (viikot 10 11) 1. a) Sivun 102 hypergeometrisen jakauman määritelmästä saadaan µ µ 13 39 13! 13 12 11 10 9 µ 0! 8! 1! 2 2! 2 1 0 49 48! 47!! 14440 120 31187200 120 1287
Harha mallin arvioinnissa
Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö
Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.
Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +
2 k -faktorikokeet. Vilkkumaa / Kuusinen 1
2 k -faktorikokeet Vilkkumaa / Kuusinen 1 Motivointi 2 k -faktorikoe on k-suuntaisen varianssianalyysin erikoistapaus, jossa kaikilla tekijöillä on vain kaksi tasoa, matala (-) ja korkea (+). 2 k -faktorikoetta
Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL
Mallin arviointi ja valinta Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL Sisältö Otoksen ennustevirheen estimointi AIC - Akaiken informaatiokriteeri mallin valintaan Parametrimäärän
A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä.
Esimerkki otteluvoiton todennäköisyys A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Yksittäisessä pelissä A voittaa todennäköisyydellä p ja B todennäköisyydellä q =
(b) Tarkista integroimalla, että kyseessä on todella tiheysfunktio.
Todennäköisyyslaskenta I, kesä 7 Harjoitus 4 Ratkaisuehdotuksia. Satunnaismuuttujalla X on ns. kaksipuolinen eksponenttijakauma eli Laplacen jakauma: sen tiheysfunktio on fx = e x. a Piirrä tiheysfunktio.
Tuloperiaate. Oletetaan, että eräs valintaprosessi voidaan jakaa peräkkäisiin vaiheisiin, joita on k kappaletta
Tuloperiaate Oletetaan, että eräs valintaprosessi voidaan jakaa peräkkäisiin vaiheisiin, joita on k kappaletta ja 1. vaiheessa valinta voidaan tehdä n 1 tavalla,. vaiheessa valinta voidaan tehdä n tavalla,
Johdatus tn-laskentaan perjantai 17.2.2012
Johdatus tn-laskentaan perjantai 17.2.2012 Kahden diskreetin muuttujan yhteisjakauma On olemassa myös monen muuttujan yhteisjakauma, ja jatkuvien muuttujien yhteisjakauma (jota ei käsitellä tällä kurssilla;
Laskennallinen data-analyysi II
Laskennallinen data-analyysi II Ella Bingham, ella.bingham@cs.helsinki.fi Kevät 2008 Muuttujien valinta Kalvot perustuvat Saara Hyvösen kalvoihin 2007 Laskennallinen data-analyysi II, kevät 2008, Helsingin
Etsintä verkosta (Searching from the Web) T Datasta tietoon Heikki Mannila, Jouni Seppänen
Etsintä verkosta (Searching from the Web) T-61.2010 Datasta tietoon Heikki Mannila, Jouni Seppänen 12.12.2007 Webin lyhyt historia http://info.cern.ch/proposal.html http://browser.arachne.cz/screen/
Satunnaisalgoritmit. Topi Paavilainen. Laskennan teorian opintopiiri HELSINGIN YLIOPISTO Tietojenkäsittelytieteen laitos
Satunnaisalgoritmit Topi Paavilainen Laskennan teorian opintopiiri HELSINGIN YLIOPISTO Tietojenkäsittelytieteen laitos Helsinki, 23. helmikuuta 2014 1 Johdanto Satunnaisalgoritmit ovat algoritmeja, joiden
Diskreetin matematiikan perusteet Laskuharjoitus 2 / vko 9
Diskreetin matematiikan perusteet Laskuharjoitus 2 / vko 9 Tuntitehtävät 9-10 lasketaan alkuviikon harjoituksissa ja tuntitehtävät 13-14 loppuviikon harjoituksissa. Kotitehtävät 11-12 tarkastetaan loppuviikon