Viikko 1: Johdantoa Matti Kääriäinen
|
|
- Aili Virtanen
- 9 vuotta sitten
- Katselukertoja:
Transkriptio
1 Viikko 1: Johdantoa Matti Kääriäinen Exactum C222,
2 Tällä viikolla 1. Käytännön järjestelyistä 2. Kurssin sisällöstä ja aikataulusta 3. Johdantoa Mitä koneoppiminen on? Ohjatun oppimisen tehtävistä ja oppimisen mallintamisesta 2
3 Käytännön järjestelyistä Kurssi koostuu Luennoista Laskuharjoituksista (1/3 kokonaispisteistä) Kurssikokeesta (2/3 kokonaispisteistä) Kurssilla ei ole oppikirjaa, kurssimateriaalina on Luennot Laskuharjoitukset Luentokalvot Kurssin verkkosivulla mainittu muu materiaali (jos sellaista ilmaantuu) 3
4 Viikkoaikataulu Luennot salissa C222, ke ja pe Laskuharjoitukset salissa C221, ke (Mika Urtela) Ensimmäiset harjoitukset pakolliset, poikkeuksellisesti mikroluokassa B221 Viikkoaikataulutavoite: Tehtävät verkkosivulla harjoituksia edeltävän viikon perjantai-iltaan mennessä Viikon luentokalvot verkossa viimeistään samaan aikaan harjoitustehtävien kanssa 4
5 Kurssin sisällöstä 1. Ohjattu oppiminen (Matti) Johdanto-osuus: Minkälaisista ongelmista ohjatussa oppimisessa ollaan kiinnostuneita Miten oppimistehtävä voidaan määritellä täsmällisesti Esimerkkejä koneoppimismenetelmistä joilla oppimistehtäviä voidaan ratkaista k-nn, Naive Bayes, lineaariset menetelmät, päätös- ja regressiopuut Miten valita oikea menetelmä: testaus ja ristiinvalidointi 2. Ohjaamaton oppiminen (Marko) Ryvästystä (eli klusterointia) 5
6 Esitiedoista ja-taidoista Matematiikka: Perustietoja todennäköisyyslaskennasta (ja tilastotieteestä), lineaarialgebrasta, ja analyysistä. Tietojenkäsittelytiede: Pitää osata kirjoittaa yksinkertaisia ohjelmia ja käyttää laitoksen tietotekniikkaympäristöä. Matlabia opetellaan alusta lähtien, ei esitaitovaatimuksia. Ensimmäisten viikkojen harjoituksissa palautellaan mieliin matematiikkaa Matlabin opettelun yhteydessä 6
7 Laskennallinen data-analyysi Laaja alue, missä rajat? hahmontunnistus, koneoppiminen, tilastotiede, signaalinkäsittely, merkkijonomenetelmät, tiedon tiivistäminen,... Tällä kurssilla rajaudutaan käsittelemään koneoppimista, erityisesti ohjatun ja ohjaamattoman oppimisen perusteita. Kurssin lähestymistapa on vahvasti tilastollinen, muut lähestymistavat (esim. online-oppiminen, palauteoppiminen,... ) jäävät muille kursseille 7
8 Ohjattu oppiminen Tavoitteena oppia ennustamaan datan perusteella. ennustaa esittää (taikuuteen perustuva t. järkiperäinen) arvio tulevaisuudesta, laatia ennuste, povata. (MOT Kielitoimiston sanakirja 1.0) predict (engl.) latinankielisistä sanoista præ=ennen, dicere=sanoa Tällä kurssilla ennustamisella tarkoitetaan jonkin (kalliin, työlään, hitaan,... ) vaihtoehtoisen menetelmän tuottaman oikean tuloksen ennustamista, ei yleensä tulevaisuuden ennustamista. 8
9 Esimerkki 1: merkkien tunnistaminen Syöte: Merkin kuva (esim. n n harmaasävykuva) Ennuste: Merkin symboliesitys (esim. ASCII-koodi) Tappiofunktio: 0/1-tappio: tappio on 0, jos ennuste on sama kuin totuus, muuten 1. Tyypillinen esimerkki luokitteluongelmasta: Tavoitteena ennustaa, mihin annetuista luokista syötteenä saatu tapaus kuuluu. 9
10 Esimerkki 2: asunnon hinnan ennustaminen Syöte: asuntoa kuvaavia tietoja (pinta-ala, huoneiden lukumäärä, kunto, osoite,... ) Ennuste: asunnon euromääräinen hinta Tappiofunktio: neliövirhe: tappio on ennusteen ja toteutuneen hinnan erotuksen neliö (?) Tyypillinen esimerkki regressio-ongelmasta: Tavoitteena ennustaa syötteeseen liittyvä (jatkuva-arvoinen) luku 10
11 Esimerkki 3: luonnollisen kielen kääntäminen Syöte: pätkä tekstiä espanjaksi Ennuste: syötetekstin käännös englanniksi Tappiofunktio: mitta, joka kuvaa sitä kuinka paljon ennustettu käännös poikkeaa ammattikääntäjän tuottamasta käännöksestä Esimerkki rakenteisesta oppimisesta: Tavoitteena ennustaa syötteeseen liittyvä rakenne (tässä sanajono) 11
12 Kohti ennustusongelman formalisointia Ennustusongelma sisältää seuraavat komponentit: Syötteen tyyppi: miten ennustusongelman tapaukset kuvataan Ennusteen tyyppi: minkälaisia ennusteita ennustaja saa tuottaa Tappiofunktio: funktio, joka annettuna ennuste ja totuus kertoo, kuinka paljon ennuste meni pieleen. Ennustaja on ohjelma, joka tuottaa syötteen perusteella ennusteen. Tappiofunktio on ennustusongelman olennainen komponentti: Sen avulla voidaan mitata ennusteen hyvyyttä, kun ennustajaa sovelletaan syötteeseen johon liittyvä oikea tulos tunnetaan. 12
13 Ennustaminen datasta Mistä ennustaja tulee? Käsin ohjelmointi voi olla mahdollista, mutta usein hankalaa ja työlästä. Ohjelmointivaivaa voidaan toisinaan vähentää ja/tai ennustustarkkuutta parantaa oppimalla ennustaja datasta. Koneoppimisparadigma (ennustajien oppimisessa): Ennustajan sijaan suunnitellaan koneoppimismenetelmä eli ohjelma, joka tuottaa datasta ennustajan. 13
14 Koneoppimisprosessi Idealisoitu versio ennustajan oppimisesta: Muotoillaan tosimaailman ongelma ennustusongelmaksi (syöte, ennusteen tyyppi, tappiofunktio) Kerätään ennustusongelmaan liittyvää dataa, joka ohjatussa oppimisessa koostuu (syöte, oikea ennuste )-pareista Valitaan/suunnitellaan ennustusongelmaan ja dataan sopiva koneoppimismenetelmä Annetaan koneoppimismenetelmän tuottaa datasta ennustaja. Testataan ennustajaa (käytännössä) HUOM: Ylläoleva on vain koneoppimisen vesiputousmalli ts. rankka yksinkertaistus todellisuudesta. 14
15 Esimerkki 1: merkkien tunnistaminen Data: Kerätään edustava joukko dokumentteja, joissa esiintyvät merkit haluttaisiin tunnistaa automaattisesti. Valitaan dokumenteista satunnaisesti otos merkkejä, ja tunnistutetaan ne ihmisillä. Muunnetaan merkkien kuvat ja ihmisten antamat luokitukset (harmaasävykuva vektorina, merkin ASCII-koodi)-formaattiin. 15
16 Esimerkki 2: asunnon hinnan ennustaminen Data: Tietoja (lähiaikoina) toteutuneista asuntokaupoista (esim. kiinteistönvälittäjien tietokannoista) Muunnetaan tiedot (asuntoa kuvaava piirrevektori, toteutunut kauppahinta) -pareiksi. Sopivia piirteitä esim. asunnon pinta-ala, sijainti, rakennusvuosi, huoneiden lukumäärä, kunto, onko putkiremontti tehty,... 16
17 Esimerkki 3: luonnollisen kielen kääntäminen Data: Kaksikielinen korpus, joka koostuu espanjankielisistä lauseista ja niiden englanninkielisistä käännöksistä Eristetään datasta piirteitä, joiden avulla se voidaan luontevasti kuvata: Piirteet esim. bifraaseja eli (fraasi, fraasin käännös)-pareja Piirrekuvaus: luetellaan, mitkä bifraasit lauseparissa esiintyy Käytännössä lisäksi käytetään yksikielistä kohdekielen korpusta, josta pyritään oppimaan tuottamaan sujuvaa kohdekieltä 17
18 Ohjattu vs. ohjaamaton oppiminen Ohjatussa oppimisessa opetusdata koostuu (syöte, oikea ennuste )-pareista. Ennustajien oppiminen on yleensä ainakin osin ohjattua, tällä kurssilla kokonaan. Tällä kurssilla: lähinnä luokittelua ja regressiota, muut ohjatun oppimisen tehtävät (rakenteinen oppiminen,... ) jäävät muille kursseille Ohjaamattomassa oppimisessa data koostuu tyypillisesti pelkistä syötteistä, ja tavoitteena on yleensä jokin muu kuin ennustaminen. Tällä kurssilla: lähinnä ryvästystä Ohjaamattomaan oppimiseen palataan kurssin lopulla, seuraavassa ohjattua. 18
19 Kertausta ja notaatiota Toistaiseksi on opittu intuitiivisella tasolla mistä ennustamisessa on kyse Seuraavaksi täsmennetään jo opittua, ja esitellään jatkossa käytettävää notaatiota 19
20 Syötteet Merkitään joukkoa josta syötteet tulevat symbolilla X. Esimerkkejä: X = R d (jatkuva tapaus) X koostuu piirrevektoreista, joissa on d jatkuva-arvoista komponenttia. X = D 1 D d, missä D i :t ovat äärellisiä joukkoja (diskreetti tapaus) X koostuu piirrevektoreista, joissa on d diskreettiä komponenttia. X = X 1 X d, missä kukin X i = R tai äärellinen (jatkuvan ja diskreetin sekoitus) Tällä kurssilla koneoppimismenetelmät käsittelevät aina piirrevektorimuotoista dataa. 20
21 Syrjähyppy: Datan esiprosessointi Kuten esimerkeistä 1-3 jo nähtiin, yleensä syötteet eivät ole valmiiksi koneoppimiseen soveltuvassa piirrevektorimuodossa. Siksi syötteet pitää esiprosessoida: Valitaan syötteitä kuvaavia piirteitä, jotka on helppo laskea (tai muuten mitata) Normalisoidaan piirteet sopivasti oppimisen helpottamiseksi Yritetään valita piirrevektoriin vain oppimisen kannalta olennaisia piirteitä,... Datan esiprosessointi on monimutkainen taiteenlaji ja käytännössä tärkeä koneoppimisen välivaihe, joka sivuutetaan tällä kurssilla syötteiden oletetaan siis olevan valmiiksi piirrevektorimuodossa. 21
22 Oikeat vastaukset ja ennusteet Merkitään symbolilla Y joukkoa, johon syötteisiin liittyvät oikeat vastaukset kuuluvat. Luokittelussa Y on äärellinen, regressiossa Y = R. Merkitään sallittujen ennusteiden joukkoa symbolilla Y. Yleensä Y = Y, mutta ei aina toisinaan esim. ennustetaan oikean y:n sijaan oikean y:n todennäköisyysjakaumaa. 22
23 Tappiofunktio Tappiofunktio on kuvaus L: Y Y R +. Esimerkkejä tappiofunktioista (oletetaan Y = Y) Luokittelussa tappiofunktiona on usein 0/1-tappio L 0/1 : L 0/1 (y, y ) = 0, jos y = y, ja 1 muuten Regressiossa tappiofunktiona käytetään usein neliövirhettä L 2 : L 2 (y, y ) = (y y ) 2 23
24 Data ja ennustaja Ohjatussa oppimisessa opetusdata on joukko missä (x i, y i ) X Y. Ennustaja on kuvaus f : X Y S = {(x i, y i ) i = 1,...,n}, Ennustajan syötteellä x X antaman ennusteen f(x) Y tappio on L(y, f(x)). Ennuste on hyvä, jos sen tappio on pieni. Mutta koska ennustaja on hyvä? 24
25 Puuttuva linkki Toistaiseksi seuraavat kysymykset on sivuutettu: Mistä koneoppimismenetelmälle annettava opetusdata tulee? Mistä koneoppimismenetelmän tuottamalle ennustajalle annettavat syötteet tulevat? Miten nämä liittyvät toisiinsa? Oikeat vastaukset tietysti riippuvat ratkaistavana olevasta oppimisongelmasta. Kysymykset on sivuutettu, koska niihin on vaikea vastata yleispätevää oikeaa vastausta tuskin on olemassa Seuraavassa esitettävä tilastollinen koneoppimisen malli tarjoaa kuitenkin useisiin tilanteisiin tyydyttävästi sopivan vastauksen 25
26 Oppimisen malli Mallinnetaan opittavaa ilmiötä joukon X Y todennäköisyysjakaumalla D (jota ei tunneta). Koneoppimismenetelmälle annettava opetusdata S = {(x i, y i ) i = 1,...,n} on otos jakaumasta D: (x i, y i ) D, (x i, y i ) riippumattomia Opetusesimerkit ovat siis riippumattomia realisaatioita satunnaismuuttujasta (X, Y ) D. Opitulle ennustajalle annettavat syötteet (ja niihin liittyvät oikeat vastaukset ) tulevat samasta jakaumasta D nekin ovat riippumattomia realisaatioita satunnaismuutujasta (X, Y ) D Näitä mallinnusoletuksia yhdessä kutsutaan iid-oletukseksi (independent and identically distributed). 26
27 Nappi-intuitio oppimismallille Jakauma D on läpinäkymättömässä laatikossa, jossa on nappi. Kun nappia painaa, laatikko sylkee ulos D:n mukaan jakautuneen (syöte, oikea vastaus )-parin (x, y) X Y. Riippumattomuus tarkoittaa, että napin painallukset eivät vaikuta toisiinsa. Opetusdata generoidaan painamalla nappia n kertaa. Data annetaan koneoppimismenetelmälle, joka tulostaa ennustajan f. Ennustajaa f testattaessa painellaan samaa nappia, mutta ennustajalle näytetään laatikon sylkäisemästä (x, y):stä vain x. Ennustaja antaa ennusteen f(x), ja kärsii tappion L(y, f(x)). 27
28 Pohdintaa oppimismallista Opetusdatan ja testiesimerkkien taustalla olevaa ilmiötä mallinnetaan samalla todennäköisyysjakaumalla D maailma ei siis muutu oppimisen ja testaamisen välissä/aikana Koska opetusdata on otos D:stä, koneoppija saa sen kautta tietoa D:n ominaisuuksista ja sitä kautta mahdollisuuden ennustaa hyvin testivaiheessa, koska iid-oletuksen nojalla myös testidata on otos D:stä Taustatieto opittavasta ilmiöstä tai ilmiöstä tehdyt lisäoletukset voidaan sisällyttää malliin oletuksina jakaumasta D 28
29 Jakauman D esittäminen paloissa Olkoon D joukon X Y jakauma, ja (X, Y ) sen mukaan jakautunut satunnaismuuttuja. Marginaalijakaumat: D X : pelkän X:n jakauma D Y : pelkän Y :n jakauma Ehdolliset jakaumat: D Y X=x : Y :n jakauma, kun X = x D X Y =y : X:n jakauma, kun Y = y Yhteisjakauma voidaan ajatella näiden tuloksi/sekoitteeksi: D X,Y = D X Y D Y tai symmetrisesti D X,Y = D Y X D X 29
30 Jakauman D palojen tulkinta Marginaalijakauma D X : pelkkien syötteiden x X jakauma, josta opitun ennustajan syötteet tulevat Marginaalijakauma D Y : pelkkien oikeiden vastausten y Y jakauma Ehdollinen jakauma D Y X=x : kun tiedetään syötteen olevan x, miten oikea vastaus y on jakautunut? Ehdollinen jakauma D X Y =y : niiden syötteiden jakauma, joille oikea vastaus on y. 30
31 Konkreettinen esimerkki jakaumasta D Tarkastellaan tilannetta, jossa X = [0, 3] [0, 3], Y = {punainen, sininen} Kyseessä siis luokittelutehtävä Seuraavien sivujen kuvat esittävät joukon X Y todennäköisyysjakaumaa D ensin yhteisjakaumana, ja sitten paloiteltuna 31
32 Yhteisjakauma D Koko jakauma D. Kuvaajan korkeus kuvaa sitä, kuinka tyypillinen syöte on. Väri kuvaa todennäköisyyttä kuulua punaiseen luokkaan. Tiheys syötteiden joukossa X x1 0 0 x2 32
33 Syötteidenjakauma D X Syötteiden jakauma joukossa X = [0, 3] [0, 3]. Jakauma kuvaa sitä minkälaiset syötteet ovat tyypillisiä sekä opetusdatassa että ennustajan tulevissa syötteissä. Jakauman D X tiheys x1 0 0 x2 33
34 Luokkienehdollinenjakauma D Y X Todennäköisyys, että luokka on punainen kussakin syöteavaruuden pisteessä (muuten luokka on sininen ). Tässä jakaumassa ei ole lainkaan tietoa syötteiden jakaumasta joukossa X. P(Y=punainen X) x x
35 Jakauma D X Y =sininen Syötteiden jakauma luokalle sininen. Jakauman D X Y=sininen tiheys x1 0 0 x2 35
36 Jakauma D X Y =punainen Syötteiden jakauma luokalle punainen. Jakauman D X Y=punainen tiheys x1 0 0 x2 36
37 Ennustajan oppimistehtävä Koneoppimismenetelmän tehtävä voidaan nyt määritellä: Tulosta opetusdatan avulla ennustaja f, jonka odotusarvoinen tappio E (x,y) D [L(y, f(x))] on (suurella todennäköisyydellä) pieni. Idea: Jos iid-oletus pitää paikkaansa, ennustajan f todellisen tappion odotusarvo testiesimerkeillä on E (x,y) D [L(y, f(x)]. Määritelmän mukaan tavoitteena on siis pieni tappio testiesimerkeillä eli juuri se mitä halutaankin! 37
38 Pohdintaa oppimistehtävästä Koneoppija voi yrittää oppia opetusdatan avulla approksimaation koko jakaumasta D (generatiivinen oppiminen) tai vain ennustamaan hyvin (diskriminatiivinen oppiminen). Koska jakaumaa D ei tunneta, koneoppija ei voi laskea ennustajien odotusarvoista tappiota suoraan. Koneoppiminen ei siis ole vain odotusarvoisen tappion minimointia. Pieni odotusarvoinen tappio on jossain mielessä armelias hyvyysmitta koneoppijalle hyvien ennusteiden antaminen epätodennäköisille x X on vaikeaa, mutta näiden vaikutus otusarvoiseen tappioon on pieni. Oppimistehtävässä voi onnistua parhaimmillaankin voin suurella todennäköisyydellä, sillä opetusdata on satunnaisotos. 38
39 Parasennustaja Jos jakauma D tunnetaan, paras ennustaja f voidaan ainakin periaatteessa ratkaista suoraan kaavalla f (x) = arg min y Y E y DY X=x [L(y, y )]. Mutta koska jakaumaa D ei tunneta, koneoppija ei voi suoraan soveltaa yo kaavaa ennustajan löytämäseen. Tämänjakahdenseuraavankalvonkaavojaeitarvitsemuistaaulkoa,pelkästään ymmärtää. 39
40 Paras ennustaja: Luokittelu Luokittelutapauksessa parasta ennustajaa f sanotaan Bayes-luokittelijaksi. Ennustaja f määräytyy kaavasta f (x) = arg max y Y P y DY X=x (y = y). Paras ennustaja f ennustaa siis kullekin x X sille todennäköisintä luokkaa. 40
41 Paras ennustaja: Regressio Regressiotapauksessa (tappiofunktiolla L 2 ) paras ennustaja f määräytyy kaavasta f (x) = E y DY X=x [y]. Paras ennustaja ennustaa siis kullekin x X siihen liittyvän y:n odotusarvoa, so. jakauman D Y X=x odotusarvoa. Parasta ennustajaa kutsutaankin y:n ehdolliseksi odotusarvoksi ehdolla x. 41
42 Väistämätön tappio Parhaankaan ennustajan tappio ei välttämättä ole pieni Esimerkiksi luokittelutapauksessa on mahdollista, että D Y X=x on tasainen jakauma joukossa Y kaikilla x X Tällöin parhaankin luokittelijan (Bayes-luokittelijan) odotusarvoinen 0/1-tappio on 1 1/ Y Yleensä tietysti ollaan kiinnostuneita tapauksista, joissa D Y X=x keskittyy (useimmiten) vain pieneen Y:n osajoukkoon, ja pienen odotusarvon saavuttaminen on ainakin periaatteessa mahdollista 42
Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi
Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 5.-7.11.2008. 1 Tällä viikolla Sisältösuunnitelma: Ennustamisstrategioista Koneoppimismenetelmiä: k-nn (luokittelu
Johdatus tekoälyyn. Luento 6.10.2011: Koneoppiminen. Patrik Hoyer. [ Kysykää ja kommentoikaa luennon aikana! ]
Johdatus tekoälyyn Luento 6.10.2011: Koneoppiminen Patrik Hoyer [ Kysykää ja kommentoikaa luennon aikana! ] Koneoppiminen? Määritelmä: kone = tietokone, tietokoneohjelma oppiminen = ongelmanratkaisukyvyn
Johdatus tn-laskentaan perjantai 17.2.2012
Johdatus tn-laskentaan perjantai 17.2.2012 Kahden diskreetin muuttujan yhteisjakauma On olemassa myös monen muuttujan yhteisjakauma, ja jatkuvien muuttujien yhteisjakauma (jota ei käsitellä tällä kurssilla;
TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)
JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.
MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen
MAT-5 Todennäköisyyslaskenta Tentti.. / Kimmo Vattulainen Vastaa jokainen tehtävä eri paperille. Funktiolaskin sallittu.. a) P A). ja P A B).6. Mitä on P A B), kun A ja B ovat riippumattomia b) Satunnaismuuttujan
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
Tutkimustiedonhallinnan peruskurssi
Tutkimustiedonhallinnan peruskurssi Hannu Toivonen, Marko Salmenkivi, Inkeri Verkamo hannu.toivonen, marko.salmenkivi, inkeri.verkamo@cs.helsinki.fi Helsingin yliopisto Hannu Toivonen, Marko Salmenkivi,
Tilastollinen testaus. Vilkkumaa / Kuusinen 1
Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää
Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,
Todennäköisyyslaskenta, 2. kurssikoe 7.2.22 Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu.. Satunnaismuuttujien X ja Y yhteistiheysfunktio on
Todennäköisyyden ominaisuuksia
Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset
FUNKTIONAALIANALYYSIN PERUSKURSSI 1. 0. Johdanto
FUNKTIONAALIANALYYSIN PERUSKURSSI 1. Johdanto Funktionaalianalyysissa tutkitaan muun muassa ääretönulotteisten vektoriavaruuksien, ja erityisesti täydellisten normiavaruuksien eli Banach avaruuksien ominaisuuksia.
4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa. Luentokuulustelujen esimerkkivastauksia. Pertti Palo. 30.
FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa Luentokuulustelujen esimerkkivastauksia Pertti Palo 30. marraskuuta 2012 Saatteeksi Näiden vastausten ei ole tarkoitus olla malleja vaan esimerkkejä.
Testejä suhdeasteikollisille muuttujille
Ilkka Mellin Tilastolliset menetelmät Osa 3: Tilastolliset testit Testejä suhdeasteikollisille muuttujille TKK (c) Ilkka Mellin (007) 1 Testejä suhdeasteikollisille muuttujille >> Testit normaalijakauman
P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu
1. Tyhjentävä tunnusluku (sucient statistics ) Olkoon (P(X = x θ) : θ Θ) todennäköisyysmalli havainnolle X. Datan funktio T (X ) on Tyhjentävä tunnusluku jos ehdollinen todennäköisyys (ehdollinen tiheysfunktio)
1. TILASTOLLINEN HAHMONTUNNISTUS
1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 2A Satunnaismuuttujan odotusarvo Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016,
Harha mallin arvioinnissa
Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö
Testit järjestysasteikollisille muuttujille
Ilkka Mellin Tilastolliset menetelmät Osa 3: Tilastolliset testit Testit järjestysasteikollisille muuttujille TKK (c) Ilkka Mellin (2007) 1 Testit järjestysasteikollisille muuttujille >> Järjestysasteikollisten
Oppijan saama palaute määrää oppimisen tyypin
281 5. KONEOPPIMINEN Älykäs agentti voi joutua oppimaan mm. seuraavia seikkoja: Kuvaus nykytilan ehdoilta suoraan toiminnolle Maailman relevanttien ominaisuuksien päätteleminen havaintojonoista Maailman
MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 2A Satunnaismuuttujan odotusarvo Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Lukuvuosi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A050 Todennäköisyyslaskennan ja tilastotieteen peruskurssi B Satunnaismuuttujat ja todennäköisyysjakaumat Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto
Väliestimointi (jatkoa) Heliövaara 1
Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).
Luento KERTAUSTA Kaksiulotteinen jakauma Pisteparvi, Toyota Avensis -farmariautoja
1 Luento 23.9.2014 KERTAUSTA Kaksiulotteinen jakauma Pisteparvi, Toyota Avensis -farmariautoja 2 Ristiintaulukko Esim. Toyota Avensis farmariautoja, nelikenttä (2x2-taulukko) 3 Esim. 5.2.6. Markkinointisuunnitelma
Dynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Tilastolliset aikasarjat voidaan jakaa kahteen
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 4. lokakuuta 2007 Antti Rasila () TodB 4. lokakuuta 2007 1 / 17 1 Moniulotteiset todennäköisyysjakaumat Johdanto Kaksiulotteiset satunnaismuuttujat Kaksiulotteisen
Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä
Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä arvon Sisältö arvon Bootstrap-luottamusvälit arvon arvon Oletetaan, että meillä on n kappaletta (x 1, y 1 ),
Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1
Tilastotieteen kertaus Vilkkumaa / Kuusinen 1 Motivointi Reaalimaailman ilmiöihin liittyy tyypillisesti satunnaisuutta ja epävarmuutta Ilmiöihin liittyvien havaintojen ajatellaan usein olevan peräisin
Avainsanojen poimiminen Eeva Ahonen
Avainsanojen poimiminen 5.10.2004 Eeva Ahonen Sisältö Avainsanat Menetelmät C4.5 päätöspuut GenEx algoritmi Bayes malli Testit Tulokset Avainsanat Tiivistä tietoa dokumentin sisällöstä ihmislukijalle hakukoneelle
Älykäs datan tuonti kuljetusongelman optimoinnissa. Antoine Kalmbach
Älykäs datan tuonti kuljetusongelman optimoinnissa Antoine Kalmbach ane@iki.fi Sisällys Taustaa Kuljetusongelma Datan tuominen vaikeaa Teoriaa Tiedostojen väliset linkit Mikä sarake on mikäkin? Ratkaisutoteutus
Inversio-ongelmien laskennallinen peruskurssi Luento 7
Inversio-ongelmien laskennallinen peruskurssi Luento 7 Kevät 2012 1 Tilastolliset inversio-ongelmat Tilastollinen ionversio perustuu seuraaviin periaatteisiin: 1. Kaikki mallissa olevat muuttujat mallinnetaan
Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka
Mat Sovellettu todennäköisyyslasku A. Moniulotteiset jakaumat. Avainsanat:
Mat-.9 Sovellettu todennäköisyyslasku A Mat-.9 Sovellettu todennäköisyyslasku A / Ratkaisut Aiheet: Avainsanat: Moniulotteiset jakaumat Diskreetti jakauma, Ehdollinen jakauma, Ehdollinen odotusarvo, Jatkuva
Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä:
4. Tyhjentyvyys Tässä luvussa mietimme, kuinka paljon aineistossa on tarpeellista tietoa Sivuamme kysymyksiä: Voidaanko päätelmät perustaa johonkin tunnuslukuun t = t(y) koko aineiston y sijasta? Mitä
MTTTA1 Tilastomenetelmien perusteet 5 op Luento , osa 1. 1 Kokonaisuudet johon opintojakso kuuluu
5.3.2018/1 MTTTA1 Tilastomenetelmien perusteet 5 op Luento 5.3.2018, osa 1 1 Kokonaisuudet johon opintojakso kuuluu https://www10.uta.fi/opas/opintojakso.htm?rid=14600 &idx=1&uilang=fi&lang=fi&lvv=2017
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin
9. Tila-avaruusmallit
9. Tila-avaruusmallit Aikasarjan stokastinen malli ja aikasarjasta tehdyt havainnot voidaan esittää joustavassa ja monipuolisessa muodossa ns. tila-avaruusmallina. Useat aikasarjat edustavat dynaamisia
MTTTA1 Tilastomenetelmien perusteet 5 op Luento Kokonaisuudet johon opintojakso kuuluu
10.1.2019/1 MTTTA1 Tilastomenetelmien perusteet 5 op Luento 10.1.2019 1 Kokonaisuudet johon opintojakso kuuluu https://www10.uta.fi/opas/opintojakso.htm?rid=14600 &idx=1&uilang=fi&lang=fi&lvv=2018 10.1.2019/2
30A02000 Tilastotieteen perusteet
30A02000 Tilastotieteen perusteet Kertaus 1. välikokeeseen Lauri Viitasaari Tieto- ja palvelujohtamisen laitos Kauppatieteiden korkeakoulu Aalto-yliopisto Syksy 2019 Periodi I-II Sisältö Välikokeesta Joukko-oppi
Luento 9: Yhtälörajoitukset optimoinnissa
Luento 9: Yhtälörajoitukset optimoinnissa Lagrangen kerroin Oletetaan aluksi, että f, g : R R. Merkitään (x 1, x ) := (x, y) ja johdetaan Lagrangen kerroin λ tehtävälle min f(x, y) s.t. g(x, y) = 0 Olkoon
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja
Jatkuvat satunnaismuuttujat
Jatkuvat satunnaismuuttujat Satunnaismuuttuja on jatkuva jos se voi ainakin periaatteessa saada kaikkia mahdollisia reaalilukuarvoja ainakin tietyltä väliltä. Täytyy ymmärtää, että tällä ei ole mitään
Laskennallinen data-analyysi II
Laskennallinen data-analyysi II Patrik Hoyer Epävarmuuden mallintaminen 16 17.4.2008 LDA II, osa 3: epävarmuuden mallintaminen Luennot (16.4 ja 17.4) - ongelma, menetelmät, esimerkkejä (kalvot verkossa
Mat Tilastollisen analyysin perusteet, kevät 2007
Mat-.14 Tilastollisen analyysin perusteet, kevät 7 7. luento: Tarina yhden selittään lineaarisesta regressiomallista atkuu Kai Virtanen 1 Luennolla 6 opittua Kuvataan havainnot (y, x ) yhden selittään
1 + b t (i, j). Olkoon b t (i, j) todennäköisyys, että B t (i, j) = 1. Siis operaation access(j) odotusarvoinen kustannus ajanhetkellä t olisi.
Algoritmien DP ja MF vertaileminen tapahtuu suoraviivaisesti kirjoittamalla kummankin leskimääräinen kustannus eksplisiittisesti todennäköisyyksien avulla. Lause T MF ave = 1 + 2 1 i
Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1
Todennäköisyyslaskun kertaus Vilkkumaa / Kuusinen 1 Satunnaismuuttujat ja todennäköisyysjakaumat Vilkkumaa / Kuusinen 2 Motivointi Kokeellisessa tutkimuksessa tutkittaviin ilmiöihin liittyvien havaintojen
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
3.7 Todennäköisyysjakaumia
MAB5: Todennäköisyyden lähtökohdat 4 Luvussa 3 Tunnusluvut perehdyimme jo jakauman käsitteeseen yleensä ja normaalijakaumaan vähän tarkemmin. Lähdetään nyt tutustumaan binomijakaumaan ja otetaan sen jälkeen
Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1
Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:
MS-C2128 Ennustaminen ja Aikasarja-analyysi, 5 op Esittely
MS-C2128 Ennustaminen ja Aikasarja-analyysi, 5 op Esittely Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2017 Aikataulu ja suoritustapa (Katso MyCourses) Luennot
4.2.2 Uskottavuusfunktio f Y (y 0 X = x)
Kuva 4.6: Elektroniikassa esiintyvän lämpökohinan periaate. Lämpökohinaa ε mallinnetaan additiivisella häiriöllä y = Mx + ε. 4.2.2 Uskottavuusfunktio f Y (y 0 X = x) Tarkastellaan tilastollista inversio-ongelmaa,
MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi
MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi Antti Rasila Aalto-yliopisto Syksy 2015 Antti Rasila (Aalto-yliopisto) MS-A0202 Syksy 2015 1
TKK @ Ilkka Mellin (2008) 1/5
Mat-1.2620 Sovellettu todennäköisyyslaskenta B / Tehtävät Demo-tehtävät: 1, 3, 6, 7 Pistetehtävät: 2, 4, 5, 9 Ylimääräiset tehtävät: 8, 10, 11 Aiheet: Moniulotteiset jakaumat Avainsanat: Diskreetti jakauma,
Oppimistavoitematriisi
Oppimistavoitematriisi Lineaarialgebra ja matriisilaskenta I Esitiedot Arvosanaan 1 2 riittävät Arvosanaan 3 4 riittävät Arvosanaan 5 riittävät Yhtälöryhmät (YR) Osaan ratkaista ensimmäisen asteen yhtälöitä
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 18 1 Kertausta: momenttimenetelmä ja suurimman uskottavuuden menetelmä 2 Tilastollinen
r = 0.221 n = 121 Tilastollista testausta varten määritetään aluksi hypoteesit.
A. r = 0. n = Tilastollista testausta varten määritetään aluksi hypoteesit. H 0 : Korrelaatiokerroin on nolla. H : Korrelaatiokerroin on nollasta poikkeava. Tarkastetaan oletukset: - Kirjoittavat väittävät
Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Tehtävät -5 perustuvat monisteen kappaleisiin..7 ja tehtävä 6 kappaleeseen.8..
Moniulotteiset satunnaismuuttujat ja jakaumat
Todennäköisyyslaskenta Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat Moniulotteiset satunnaismuuttujat ja jakaumat KE (2014) 1 Moniulotteiset satunnaismuuttujat ja todennäköisyysjakaumat >> Kaksiulotteiset
Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:
8 Kanta Tässä luvussa tarkastellaan aliavaruuden virittäjävektoreita, jotka muodostavat lineaarisesti riippumattoman jonon. Merkintöjen helpottamiseksi oletetaan luvussa koko ajan, että W on vektoreiden
Dynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt
TUTKIMUSAINEISTON ANALYYSI. LTKY012 Timo Törmäkangas
TUTKIMUSAINEISTON ANALYYSI LTKY012 Timo Törmäkangas LUENNOT Luento Paikka Vko Päivä Pvm Klo 1 L 304 8 Pe 21.2. 08:15-10:00 2 L 304 9 To 27.2. 12:15-14:00 3 L 304 9 Pe 28.2. 08:15-10:00 4 L 304 10 Ke 5.3.
TODENNÄKÖISYYSLASKUN KERTAUS Peruskäsitteitä
J. Virtamo 38.3143 Jonoteoria / Todennäköisyyslaskenta 1 TODENNÄKÖISYYSLASKUN KERTAUS Peruskäsitteitä Otosavaruus S S on satunnaiskokeen E kaikkien mahdollisten alkeistapahtumien e joukko. Esim. 1. Noppaa
Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3
Todennäköisyyslaskennan ja tilastotieteen peruskurssi Esimerkkikokoelma 3 Aiheet: Satunnaisvektorit ja moniulotteiset jakaumat Tilastollinen riippuvuus ja lineaarinen korrelaatio Satunnaisvektorit ja moniulotteiset
2. Viikko. CDH: luvut (s ). Matematiikka on fysiikan kieli ja differentiaaliyhtälöt sen yleisin murre.
2. Viikko Keskeiset asiat ja tavoitteet: 1. Peruskäsitteet: kertaluku, lineaarisuus, homogeenisuus. 2. Separoituvan diff. yhtälön ratkaisu, 3. Lineaarisen 1. kl yhtälön ratkaisu, CDH: luvut 19.1.-19.4.
1. Tilastollinen malli??
1. Tilastollinen malli?? https://fi.wikipedia.org/wiki/tilastollinen_malli https://en.wikipedia.org/wiki/statistical_model http://projecteuclid.org/euclid.aos/1035844977 Tilastollinen malli?? Numeerinen
Vapaus. Määritelmä. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee:
Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +
MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen
MAT-25 Todennäköisyyslaskenta Tentti 12.4.216 / Kimmo Vattulainen Funktiolaskin sallittu. Palauta kaavakokoelma 1. a) Pelaajat A ja B heittävät noppaa vuorotellen ja pelin voittaa se, joka saa ensimmäiseksi
Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?
TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen TKK (c) Ilkka Mellin (2004) 2 Mitä opimme? 1/4 Tilastollisen tutkimuksen tavoitteena on tehdä johtopäätöksiä prosesseista, jotka generoivat reaalimaailman
4. laskuharjoituskierros, vko 7, ratkaisut
4. laskuharjoituskierros, vko 7, ratkaisut D1. Kone valmistaa kuulalaakerin kuulia, joiden halkaisija vaihtelee satunnaisesti. Halkaisijan on oltava tiettyjen rajojen sisällä, jotta kuula olisi käyttökelpoinen.
Ilkka Mellin Tilastolliset menetelmät. Osa 3: Tilastolliset testit. Tilastollinen testaus. TKK (c) Ilkka Mellin (2007) 1
Ilkka Mellin Tilastolliset menetelmät Osa 3: Tilastolliset testit Tilastollinen testaus TKK (c) Ilkka Mellin (2007) 1 Tilastolliset testit >> Tilastollinen testaus Tilastolliset hypoteesit Tilastolliset
Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?
TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä
Reaalifunktioista 1 / 17. Reaalifunktioista
säilyy 1 / 17 säilyy Jos A, B R, niin funktiota f : A B sanotaan (yhden muuttujan) reaalifunktioksi. Tällöin karteesinen tulo A B on (aiempia esimerkkejä luonnollisemmalla tavalla) xy-tason osajoukko,
Osakesalkun optimointi
Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit 3 3.1 Optimointiongelmat........................ 4 4 Epäsileän
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4B Bayesläinen tilastollinen päättely Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy
Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016
Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.
1 2 x2 + 1 dx. (2p) x + 2dx. Kummankin integraalin laskeminen oikein (vastaukset 12 ja 20 ) antaa erikseen (2p) (integraalifunktiot
Helsingin yliopisto, Itä-Suomen yliopisto, Jyväskylän yliopisto, Oulun yliopisto, Tampereen yliopisto ja Turun yliopisto Matematiikan valintakoe (Ratkaisut ja pisteytys) 500 Kustakin tehtävästä saa maksimissaan
Sovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 21. syyskuuta 2007 Antti Rasila () TodB 21. syyskuuta 2007 1 / 19 1 Satunnaismuuttujien riippumattomuus 2 Jakauman tunnusluvut Odotusarvo Odotusarvon ominaisuuksia
P (X B) = f X (x)dx. xf X (x)dx. g(x)f X (x)dx.
Yhteenveto: Satunnaisvektorit ovat kuvauksia tn-avaruudelta seillaiselle avaruudelle, johon sisältyy satunnaisvektorin kaikki mahdolliset reaalisaatiot. Satunnaisvektorin realisaatio eli otos on jokin
Tilastollisen analyysin perusteet Luento 3: Epäparametriset tilastolliset testit
Tilastollisen analyysin perusteet Luento 3: Epäparametriset tilastolliset testit s t ja t kahden Sisältö t ja t t ja t kahden kahden t ja t kahden t ja t Tällä luennolla käsitellään epäparametrisia eli
OPETUSSUUNNITELMALOMAKE
OPETUSSUUNNITELMALOMAKE Tällä lomakkeella dokumentoit opintojaksoasi koskevaa opetussuunnitelmatyötä. Lomake on suunniteltu niin, että se palvelisi myös Oodia varten tehtävää tiedonkeruuta. Voit siis dokumentoida
Yleistetyistä lineaarisista malleista
Yleistetyistä lineaarisista malleista Tilastotiede käytännön tutkimuksessa -kurssi, kesä 2001 Reijo Sund Klassinen lineaarinen malli y = Xb + e eli E(Y) = m, jossa m = Xb Satunnaiskomponentti: Y:n komponentit
OPETUSSUUNNITELMALOMAKE
OPETUSSUUNNITELMALOMAKE Tällä lomakkeella dokumentoit opintojaksoasi koskevaa opetussuunnitelmatyötä. Lomake on suunniteltu niin, että se palvelisi myös Oodia varten tehtävää tiedonkeruuta. Voit siis dokumentoida
Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
Ratkaisuehdotukset LH 7 / vko 47
MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [
Juuri 10 Tehtävien ratkaisut Kustannusosakeyhtiö Otava päivitetty
Juuri 0 Tehtävien ratkaisut Kustannusosakeyhtiö Otava päivitetty 9..08 Kertaus K. a) Alapaineiden pienin arvo on ja suurin arvo 74, joten vaihteluväli on [, 74]. b) Alapaineiden keskiarvo on 6676870774
Matematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 1 1 Matemaattisesta päättelystä Matemaattisen analyysin kurssin (kuten minkä tahansa matematiikan kurssin) seuraamista helpottaa huomattavasti, jos opiskelija ymmärtää
Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat. TKK (c) Ilkka Mellin (2004) 1
Johdatus todennäköisyyslaskentaan Satunnaismuuttujien muunnokset ja niiden jakaumat TKK (c) Ilkka Mellin (2004) 1 Satunnaismuuttujien muunnokset ja niiden jakaumat Satunnaismuuttujien muunnosten jakaumat
Harjoitus 2: Matlab - Statistical Toolbox
Harjoitus 2: Matlab - Statistical Toolbox Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen tavoitteet Satunnaismuuttujat ja todennäköisyysjakaumat
Matemaattinen tilastotiede. Erkki Liski Matematiikan, Tilastotieteen ja Filosofian Laitos Tampereen Yliopisto
Matemaattinen tilastotiede Erkki Liski Matematiikan, Tilastotieteen ja Filosofian Laitos Tampereen Yliopisto Alkusanat Tämä moniste perustuu vuosina 2002-2004 pitämiini matemaattisen tilastotieteen luentoihin
Matematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 9 1 Implisiittinen derivointi Tarkastellaan nyt yhtälöä F(x, y) = c, jossa x ja y ovat muuttujia ja c on vakio Esimerkki tällaisesta yhtälöstä on x 2 y 5 + 5xy = 14
Otanta ilman takaisinpanoa
Otanta ilman takaisinpanoa Populaatio, jossa N alkiota (palloa, ihmistä tms.), kahdenlaisia ( valkoinen, musta ) Poimitaan umpimähkään (= symmetrisesti) n-osajoukko eli otos Merkitään tapahtuma A k = otoksessa
ABHELSINKI UNIVERSITY OF TECHNOLOGY
Tilastollinen testaus Tilastollinen testaus Tilastollisessa testauksessa tutkitaan tutkimuskohteita koskevien oletusten tai väitteiden paikkansapitävyyttä havaintojen avulla. Testattavat oletukset tai
k S P[ X µ kσ] 1 k 2.
HY, MTL / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIb, syksy 28 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I Osa tämän viikon tehtävistä ovat varsin haastavia, joten ei todellakaan
Johdatus tn-laskentaan torstai 16.2.2012
Johdatus tn-laskentaan torstai 16.2.2012 Muunnoksen jakauma (ei pelkkä odotusarvo ja hajonta) Satunnaismuuttujien summa; Tas ja N Vakiokerroin (ax) ja vakiolisäys (X+b) Yleinen muunnos: neulanheittoesimerkki
(b) Onko hyvä idea laske pinta-alan odotusarvo lähetmällä oletuksesta, että keppi katkeaa katkaisukohdan odotusarvon kohdalla?
6.10.2006 1. Keppi, jonka pituus on m, taitetaan kahtia täysin satunnaisesti valitusta kohdasta ja muodostetaan kolmio, jonka kateetteina ovat syntyneet palaset. Kolmion pinta-ala on satunnaismuuttuja.
Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos
Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Vesanen MS-A0205/6 Differentiaali- ja integraalilaskenta 2, kevät 2017 Laskuharjoitus 4A (Vastaukset) alkuviikolla
Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.
Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +
Matematiikan kotitehtävä 2, MAA 10 Todennäköisyys ja tilastot
Matematiikan kotitehtävä 2, MAA 10 Todennäköisyys ja tilastot Sievin lukio Tehtävien ratkaisut tulee olla esim. Libre officen -writer ohjelmalla tehtyjä. Liitä vastauksiisi kuvia GeoGebrasta ja esim. TI-nSpire
SGN-2500: Johdatus hahmontunnistukseen. Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos 2006-2012
SGN-2500: Johdatus hahmontunnistukseen Jussi Tohka Tampereen teknillinen yliopisto Signaalinkäsittelyn laitos 2006-2012 24. helmikuuta 2012 ii Esipuhe Tämä moniste on syntynyt vuosina 2003 ja 2004 TTY:llä
+ 3 2 5 } {{ } + 2 2 2 5 2. 2 kertaa jotain
Jaollisuustestejä (matematiikan mestariluokka, 7.11.2009, ohjattujen harjoitusten lopputuloslappu) Huom! Nämä eivät tietenkään ole ainoita jaollisuussääntöjä; ovatpahan vain hyödyllisiä ja ainakin osittain