Laskennallinen data-analyysi II
|
|
- Asta Halonen
- 6 vuotta sitten
- Katselukertoja:
Transkriptio
1 Laskennallinen data-analyysi II Saara Hyvönen, Kevät 2007 Muuttujien valinta Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto
2 Korkeiden ulottuvuuksien kirous Opitaan yksi- ja kaksiulotteisen tasajakautuneen datan jakauma näytteistä jakamalla akselit 100:n osaan ja laskemalla osumat kussakin laatikossa: n=100000, 1D n=100000, 2D Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 1
3 keskimääräinen neliöllinen etäisyys tasajakaumasta näytteiden määrä n yksiulotteinen kaksiulotteinen Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 2
4 Korkeiden ulottuvuuksien kirous korkeaulotteisilla avaruuksilla monia epäintuitiivisia ominaisuuksia edellisessä esimerkissä, jos halutaan saavuttaa sama estimointitarkkuus kahdessa kuin yhdessä ulottuvuudessa, tarvitaan satakertainen määrä näytevektoreita oppimiseen jos lisätään dimensioiden määrää, niin samaan tarkkuuteen tarvittavien näytevektorien määrä kasvaa eksponentiaalisesti! Korkeaulotteinen data aiheuttaa ongelmia! Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 3
5 Halutaan siis vähentää dimensioita, mutta miten? Kaksi peruslähestymistapaa: heitetään muuttujia pois, tai muodostetaan uusia muuttujia. Tarkemmin sanoen, voidaan joko muodostaa uusia muuttujia vain datan perusteella, oppimistehtävästä riippumatta (filter), tai valita uudet muuttujat oppimistehtävän avulla (wrapper). Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 4
6 (Lineaariset) piilomuuttujamallit Yksinkertaisimmillaan voidaan ajatella, että m n datamatriisi A, missä rivit ovat pisteitä ja sarakkeet ovat muuttujia, esitetään k:n piilomuuttujan avulla kahden matriisin tulona: A m n = D m k V k n, missä matriisin V rivit ovat latentit muuttujat ja matriisi D antaa datapisteet latenttien muuttujien avulla lausuttuna. Siis V:n rivit = uudet kantavektorit, ja D = pisteiden koordinaatit uudessa kannassa. Piilomuuttujat = uudet kantavektorit voivat olla vaikkapa (oikeanpuoleiset) singulaarivektorit, tai pääkomponentit. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 5
7 Kertausta Singulaariarvohajotelma (SVD): Jokainen m n matriisi A, m n, voidaan kirjoittaa singulaariarvohajotelman avulla muotoon A = U ( ) Σ V T, 0 missä U R m m ja V R n n ovat ortogonaaliset, ja Σ R n n on diagonaalimatriisi, jonka diagonaalialkiot ovat singulaariarvot σ 1 σ 2... σ n 0. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 6
8 Kertausta 2-normin mielessä paras astetta k oleva approksimaatio matriisille saadaan singulaariarvohajotelmaa käyttämällä: A k = U k Σ k V T k, missä U k, V k koostuvat ksta ensimmäisestä vasemman- ja oikeanpuoleisesta singulaarivektorista ja Σ k :n diagonaalialkiot ovat k suurinta singulaariarvoa. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 7
9 Edellisestä seuraa, että Matriisin A paras approksimaatio jonka aste (rank) on yksi on A k = U 1 Σ 1 V T 1 = σ 1 u 1 v T 1. Jos σ 1 σ 2... σ j > σ j+1 = 0 = σ j+2 =... = σ m, niin min rank(b) j A B 2 = A A j 2 = σ j+1 = 0. Matriisin A aste on nollasta poikkeavien singulaariarvojen lukumäärä! Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 8
10 Esimerkki (SVD): asiakas \ viikonpäivä Ke To Pe La Su ABC Oy CDE Ky FGH Yhtymä NOP Oy Virtanen Jokinen Laine Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 9
11 = ( ) ( ) Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 10
12 Lisää kertausta Pääkomponenttianalyysi on sukua SVD:lle: pääkomponentit ovat keskitetyn datamatriisin oikeanpuoleiset singulaarivektorit. Pääkomponentit valitaan siten, että datan varianssista selittyy suurin osa. Ensimmäinen pääkomponentti on se vektori, jolle projisoidun datan varianssi on suurin. Laskemalla datamatriisille SVD tai PCA ja approksimoimalla matriisia muutaman ensimmäisen singulaarivektorin/pääkomponentin avulla kompressoidaan dataa ja poistetaan kohinaa. Nyt voidaan klusteroida/luokitella/tms uutta dataa. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 11
13 SVD/PCA esikäsittelynä Ilmaistaan datamatriisi A (rivit pisteitä, sarakkeet muuttujia) uudessa singulaarivektorien tai pääkomponenttien V määrittämässä kannassa: A m n = D m k V k n. Nyt matriisin D rivit ovat pisteiden koordinaatit uudessa kannassa: siis kohdellaan näitä pisteinä, ja klusteroidaan/luokitellaan niitä! Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 12
14 Esimerkki: spatiaalisen datan analysointi Data: Suomen murteet, noin sanaa, 500 kuntaa. Kunta-sana-matriisi A: A(j, i) = { 1 jos sana i esiintyy kunnassa j 0 muutoin. lasketaan SVD ja klusteroidaan sitten käyttäen 30 singulaarivektoria SVD:n laskeminen vie aikansa, mutta tämän jälkeen kaikki nopeaa Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 13
15 Esimerkki: spatiaalisen datan analysointi Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 14
16 Siis mitä klusteroitiin? Lasketaan datamatriisille A singulaariarvohajotelma: A k = U k Σ k V T k, (ensimmäiset k singulaariarvoa/vektoria riittää). Singulaarivektorit V k antavat uuden kannan, ja datan koordinaatit uudessa kannassa on D = U k Σ k. Jokainen matriisin D rivi vastaa kuntaa, eli klusteroidaan siis rivit (esim. k-means). Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 15
17 Esimerkki: ilmakehädata Data: 1500 päivää, kymmeniä muuttujia (lämpötila, tuulen suunta ja nopeus, UV-säteilyn määrä, hiilidioksidikonsentraatio etc.) Visualisointi esim. 60-ulotteisessa avaruudessa on haastavaa! Sen sijaan, tee pääkomponenttianalyysi ja projisoi data kahden ensimmäisen komponentin määrittämään tasoon. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 16
18 30 Days projected in the plane defined by the 1st two principal components, colored per month nd principal component st principal component 1 Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 17
19 Mutta oikeasti ei ollakaan kiinnostuneita vuodenajasta, vaan meillä onkin luokittelutehtävä: erota spontaanin hiukkasmuodostuksen päivät sellaisista, jolloin kyseistä ilmiötä ei havaita. Tässä pääkomponentit eivät ole kovin hyviä: Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 18
20 30 Days projected in the plane defined by the first two principal component, colored according to particle formation nd principal component st principal component Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 19
21 Toisaalta: päivät kyllä erottuvat melko hyvin, kun katsoo oikealla tavalla RH logarithm of condensation sink Mutta miten nuo oikeat muuttujat löytyvät? Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 20
22 Askeltavat menetelmät Eteenpäin askeltava muuttujanvalinta (forward stepwise selection of variables) - valitaan muuttujat ahneesti: Lasketaan luokitteluvirhe jokaiselle muuttujalle erikseen. Valitaan se muuttuja, jolla luokitteluvirhe pienin. Tämän jälkeen joka askeleella lisätään se muuttuja, joka yhdessä jo valittujen muuttujien kanssa antaa pienimmän luokitteluvirheen. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 21
23 Ilmakehäesimerkissä valitut muuttujat: Muuttujavalinnan tulokset kahdelle erilliselle valintatapahtumalla sekä luokitteluvirhe (%). Alussa valitut muuttujat samat, sen jälkeen vaihtelua. Virhekään ei enää pienene samaa vauhtia. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 22
24 Ilmakehäesimerkissä valitut muuttujat: Set 1 Set 2 variable error variable error RH high mean 17.8 RH high mean 17.5 logcs mean 12.1 logcs mean 12.4 T high std 12.3 SO 2 high std 12.0 logcs std 11.8 momflux std 11.1 CO 2 high mean 11.1 O 3 high std 11.0 O 3 high std 10.8 SWS std 10.7 RH high std 10.6 O 3 high mean 10.7 WS high mean 10.5 SO 2 high mean 10.8 Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 23
25 Ilmakehäesimerkissä valitut muuttujat: Jos tehdään ensin PCA, ja askelletaan sitten, on virhe tämännäköinen: #of P C Error Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 24
26 Askeltavat menetelmät Huomaa, että askeltava menetelmä ei ole sidottu luokittelutehtäviin; se soveltuu mihin tahansa ohjatun oppimisen tehtävään, esimerkiksi regressioon. Tarvitaan vain virhe-estimaatti. Yleisesti ottaen eteenpäin askeltava muuttujanvalinta (forward stepwise selection of variables) toimii valitsemalla muuttujat ahneesti: 1. Lasketaan virhe-estimaatti jokaiselle muuttujalle erikseen. 2. Valitaan se muuttuja, jolla virhe pienin. 3. Tämän jälkeen joka askeleella lisätään se muuttuja, joka yhdessä jo valittujen muuttujien kanssa antaa pienimmän virhe-estimaatin. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 25
27 Askeltavat menetelmät Taaksepäin askeltava muuttujanvalinta (backwards stepwise selection of variables) toimii tietysti päinvastoin: Liikkeelle lähdetään ottamalla mukaan kaikki muuttujat. Joka askeleella lasketaan virhe-estimaatit jättämällä pois jäljellä olevista muuttujista yksi kerrallaan. Valitaan pois jätettävä muuttuja siten, että jäljellä olevan muuttujajoukon antama virhe pienin. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 26
28 Miksi? Jos ollaan kiinnostuneita luokittelusta, ei muuttujanvalintaan usein kannata käyttää esim. maksimaalista varianssia! miksei sitten käytetä koko dataa? hitaus, ylisovitus, tulkittavuus Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 27
29 Virheen estimointi Jos ensin käytetään koko datajoukko oppimiseen, ja sitten estimoidaan oppimisvirhettä samassa datajoukossa, on virhe-estimaatti usein liian optimistinen. Ylisovitus koituu helposti ongelmaksi. Käypä ratkaisu tähän on jakaa data kahteen osaan, treenijoukkoon ja validointijoukkoon: malli sovitetaan treenijoukossa; virhe estimoidaan validointijoukossa. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 28
30 Virheen estimointi Jos näin sovitetaan monta mallia, voi malli ylisovittua validointijoukkoon. Tällöin voidaan jakaa data kolmeen osaan: malli sovitetaan treenijoukossa, virhe estimoidaan validointijoukossa, se malli jonka virhe on pienin valitaan, ja valitun mallin virhe estimoidaan testijoukossa. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 29
31 train validate test Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 30
32 Mutta mitä jos dataa on vähän? Virheen estimointi Halutaan käyttää paljon dataa mallin muodostamiseen, jotta saadaan hyvä malli. Mutta jos validointijoukko on pieni, antaa se melko kohinaisen estimaatin virheelle. Ratkaisuna tähän: ristiinvalidointi! Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 31
33 Ristiinvalidointi Jaetaan datajoukko S:n yhtä suureen osaan. Käytetään näistä S 1 kpl mallin muodostamiseen ja 1 kpl virheen estimointiin. Tämä toistetaan S kertaa siten, että kukin joukko vuorollaan on validointijoukkona. Lopullinen virhe-estimaatti on näiden S:n virhe-estimaatin keskiarvo. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 32
34 train train train test 1st round train train test train 2nd round train test train train 3rd round test train train train 4th round Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 33
35 Leave one out Ristiinvalidoinnissa jaetaan datajoukko S:n yhtä suureen osaan ja käytetään näistä S 1 kpl mallin muodostamiseen ja 1 kpl virheen estimointiin. Tämä toistetaan S kertaa siten, että kukin joukko vuorollaan on validointijoukkona, ja lasketaan virheiden keskiarvo. Jos S=pisteiden lukumäärä datajoukossa, on kyseessä leave one outmenetelmä: yhtä pistettä vuorollaan käytetään validointiin ja loppuja mallin sovitukseen. Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 34
36 Ristiinvalidointi Ristiinvalidoinnissa jaetaan datajoukko S:n yhtä suureen osaan ja käytetään näistä S 1 kpl mallin muodostamiseen ja 1 kpl virheen estimointiin - mutta miten S kannattaa valita? Jos S=pisteiden lukumäärä datajoukossa, on treenijoukko joka kierroksella suuri eli opitaan hyvin, mutta virheen estimoimiseen jää vain yksi piste per kierros. Jos S on pienehkö, ja dataa muutenkin vähän, voi virhearvio olla aika pessimistinen. Yleinen käytäntö: S = 5 (fivefold cross-validation) tai 10 (tenfold crossvalidation). Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 35
37 Projektityö Wisconsin breast cancer data set Tehtävä: luokittele data annettuun kahteen luokkaan käyttäen (a) koko dataa (b) eteenpäin askeltavaa muuttujavalintaa (c) PCA + (b). Käytä virheen estimoimiseen ristiinvalidointia. Vertaa eri kohdissa saatuja luokitteluvirheitä. Montako muuttujaa valitset? Voit myös katsoa mitkä pääkomponentteja. Löytyykö niille tulkinta? Mitä esim. 1. pc kertoo? Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto 36
Laskennallinen data-analyysi II
Laskennallinen data-analyysi II Ella Bingham, ella.bingham@cs.helsinki.fi Kevät 2008 Muuttujien valinta Kalvot perustuvat Saara Hyvösen kalvoihin 2007 Laskennallinen data-analyysi II, kevät 2008, Helsingin
LisätiedotLaskennallinen data-analyysi II
Laskennallinen data-analyysi II Saara Hyvönen, Saara.Hyvonen@cs.helsinki.fi Kevät 2007 Ulottuvuuksien vähentäminen, SVD, PCA Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto visualisointi
LisätiedotLaskennallinen data-analyysi II
Laskennallinen data-analyysi II Ella Bingham, ella.bingham@cs.helsinki.fi Kevät 2008 Ulottuvuuksien vähentäminen, SVD, PCA Kalvot perustuvat Saara Hyvösen kalvoihin 2007 Laskennallinen data-analyysi II,
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 4
Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa
LisätiedotMS-A0003/A Matriisilaskenta Laskuharjoitus 6
MS-A3/A - Matriisilaskenta Laskuharjoitus 6 Ratkaisuehdotelmia. Diagonalisointi on hajotelma A SΛS, jossa diagonaalimatriisi Λ sisältää matriisin A ominaisarvot ja matriisin S sarakkeet ovat näitä ominaisarvoja
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 3
Inversio-ongelmien laskennallinen peruskurssi Luento 3 Kevät 2011 1 Singulaariarvohajotelma (Singular Value Decomposition, SVD) Olkoon A R m n matriisi 1. Tällöin A voidaan esittää muodossa A = UΣV T,
LisätiedotPaikkatiedon käsittely 11. Suuren mittakaavan
HELSINGIN YLIOPISTO HELSINGFORS UNIVERSITET UNIVERSITY OF HELSINKI Paikkatiedon käsittely 11. Suuren mittakaavan ilmiöt Antti Leino antti.leino@cs.helsinki.fi 19.2.2007 Tietojenkäsittelytieteen laitos
Lisätiedot1 Kannat ja kannanvaihto
1 Kannat ja kannanvaihto 1.1 Koordinaattivektori Oletetaan, että V on K-vektoriavaruus, jolla on kanta S = (v 1, v 2,..., v n ). Avaruuden V vektori v voidaan kirjoittaa kannan vektorien lineaarikombinaationa:
LisätiedotYhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
LisätiedotPuumenetelmät. Topi Sikanen. S ysteemianalyysin. Laboratorio Aalto-yliopiston teknillinen korkeakoulu
Puumenetelmät Topi Sikanen Puumenetelmät Periaate: Hajota ja hallitse Jaetaan havaintoavaruus alueisiin. Sovitetaan kuhunkin alueeseen yksinkertainen malli (esim. vakio) Tarkastellaan kolmea mallia Luokittelu-
LisätiedotIdentifiointiprosessi
Alustavia kokeita Identifiointiprosessi Koesuunnittelu, identifiointikoe Mittaustulosten / datan esikäsittely Ei-parametriset menetelmät: - Transientti-, korrelaatio-, taajuus-, Fourier- ja spektraalianalyysi
LisätiedotRatkaisuehdotukset LH 8 / vko 47
Ratkaisuehdotukset LH 8 / vko 47 Tehtävä 1: Olkoot A R n n matriisi, jonka singulaariarvohajotelma on A [ ] [ ] Σ U 1 U r 0 [V1 ] T 2 V 0 0 2 Jossa Σ r on kääntyvä matriisi, [ U 1 U 2 ] ja [ V1 V 2 ] ovat
LisätiedotLineaarialgebra ja matriisilaskenta II Syksy 2009 Laskuharjoitus 1 ( ) Ratkaisuehdotuksia Vesa Ala-Mattila
Lineaarialgebra ja matriisilaskenta II Syksy 29 Laskuharjoitus (9. - 3..29) Ratkaisuehdotuksia Vesa Ala-Mattila Tehtävä. Olkoon V vektoriavaruus. Todistettava: jos U V ja W V ovat V :n aliavaruuksia, niin
Lisätiedot2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio
x = x 2 = 5/2 x 3 = 2 eli Ratkaisu on siis x = (x x 2 x 3 ) = ( 5/2 2) (Tarkista sijoittamalla!) 5/2 2 Tämä piste on alkuperäisten tasojen ainoa leikkauspiste Se on myös piste/vektori jonka matriisi A
LisätiedotVektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on
13 Pistetulo Avaruuksissa R 2 ja R 3 on totuttu puhumaan vektorien pituuksista ja vektoreiden välisistä kulmista. Kuten tavallista, näiden käsitteiden yleistäminen korkeampiulotteisiin avaruuksiin ei onnistu
LisätiedotKannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:
8 Kanta Tässä luvussa tarkastellaan aliavaruuden virittäjävektoreita, jotka muodostavat lineaarisesti riippumattoman jonon. Merkintöjen helpottamiseksi oletetaan luvussa koko ajan, että W on vektoreiden
LisätiedotEsimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).
Esimerkki 9 Esimerkissä 6 miniminormiratkaisu on (ˆx, ˆx (, 0 Seuraavaksi näytetään, että miniminormiratkaisuun siirtyminen poistaa likimääräisongelman epäyksikäsitteisyyden (mutta lisääntyvän ratkaisun
LisätiedotMS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45
MS-A0003/A0005 Matriisilaskenta Laskuharjoitus / vko 5 Tehtävä 1 (L): Hahmottele kompleksitasoon ne pisteet, jotka toteuttavat a) z 3 =, b) z + 3 i < 3, c) 1/z >. Yleisesti: ehto z = R, z C muodostaa kompleksitasoon
Lisätiedot1 Singulaariarvohajoitelma
1 Singulaariarvohajoitelma Tähän mennessä on tutkittu yhtälöryhmän Ax = y ratkaisuja ja törmätty tapauksiin joissa yhtälöryhmällä on yksikäsitteinen ratkaisu ("helppo"tapaus) yhtälöryhmällä on ääretön
LisätiedotOrtogonaalisen kannan etsiminen
Ortogonaalisen kannan etsiminen Lause 94 (Gramin-Schmidtin menetelmä) Oletetaan, että B = ( v 1,..., v n ) on sisätuloavaruuden V kanta. Merkitään V k = span( v 1,..., v k ) ja w 1 = v 1 w 2 = v 2 v 2,
Lisätiedot6. Tietokoneharjoitukset
6. Tietokoneharjoitukset 6.1 Tiedostossa Const.txt on eräällä Yhdysvaltalaisella asuinalueella aloitettujen rakennusurakoiden määrä kuukausittain, aikavälillä 1966-1974. Urakoiden määrä on skaalattu asuinalueen
LisätiedotTässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. eli matriisissa on 200 riviä (havainnot) ja 7 saraketta (mittaus-arvot)
R-ohjelman käyttö data-analyysissä Panu Somervuo 2014 Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. 0) käynnistetään R-ohjelma Huom.1 allaolevissa ohjeissa '>' merkki on R:n
LisätiedotRatkaisuehdotukset LH 7 / vko 47
MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [
LisätiedotMS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 2
Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +
LisätiedotMS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi
LisätiedotRegressioanalyysi. Vilkkumaa / Kuusinen 1
Regressioanalyysi Vilkkumaa / Kuusinen 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Halutaan selittää selitettävän muuttujan havaittujen arvojen vaihtelua selittävien muuttujien havaittujen
LisätiedotYhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =
LisätiedotMatriisihajotelmat. MS-A0007 Matriisilaskenta. 5.1 Diagonalisointi. 5.1 Diagonalisointi
MS-A0007 Matriisilaskenta 5. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 25.11.2015 Laskentaongelmissa käsiteltävät matriisit ovat tyypillisesti valtavia.
LisätiedotVapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.
Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +
LisätiedotYhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1
Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia Heliövaara 1 Regressiokertoimien PNS-estimaattorit Määritellään havaintojen x j ja y j, j = 1, 2,...,n
LisätiedotKanta ja Kannan-vaihto
ja Kannan-vaihto 1 Olkoon L vektoriavaruus. Äärellinen joukko L:n vektoreita V = { v 1, v 2,..., v n } on kanta, jos (1) Jokainen L:n vektori voidaan lausua v-vektoreiden lineaarikombinaationa. (Ts. Span(V
LisätiedotSuorista ja tasoista LaMa 1 syksyllä 2009
Viidennen viikon luennot Suorista ja tasoista LaMa 1 syksyllä 2009 Perustuu kirjan Poole: Linear Algebra lukuihin I.3 - I.4 Esko Turunen esko.turunen@tut.fi Aluksi hiukan 2 ja 3 ulotteisen reaaliavaruuden
LisätiedotSovellusohjelmointi Matlab-ympäristössä: Vertaisverkon koneiden klusterointi
Sovellusohjelmointi Matlab-ympäristössä: Vertaisverkon koneiden klusterointi 28.4.2013 Annemari Auvinen (annauvi@st.jyu.fi) Anu Niemi (anniemi@st.jyu.fi) 1 Sisällysluettelo 1 JOHDANTO... 2 2 KÄYTETYT MENETELMÄT...
LisätiedotPaikannuksen matematiikka MAT
TA M P E R E U N I V E R S I T Y O F T E C H N O L O G Y M a t h e m a t i c s Paikannuksen matematiikka MAT-45800 4..008. p.1/4 Käytännön järjestelyt Kotisivu: http://math.tut.fi/courses/mat-45800/ Luennot:
LisätiedotKohdeyleisö: toisen vuoden teekkari
Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y
LisätiedotInsinöörimatematiikka D
Insinöörimatematiikka D M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Matematiikan ja tilastotieteen laitos Turun yliopisto 2015 M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Luentokalvot
LisätiedotUSEAN MUUTTUJAN REGRESSIOMALLIT JA NIIDEN ANA- LYYSI
TEORIA USEAN MUUTTUJAN REGRESSIOMALLIT JA NIIDEN ANA- LYYSI Regressiomalleilla kuvataan tilanteita, jossa suureen y arvot riippuvat joukosta ns selittäviä muuttujia x 1, x 2,..., x p oletetun funktiomuotoisen
LisätiedotOrtogonaalinen ja ortonormaali kanta
Ortogonaalinen ja ortonormaali kanta Määritelmä Kantaa ( w 1,..., w k ) kutsutaan ortogonaaliseksi, jos sen vektorit ovat kohtisuorassa toisiaan vastaan eli w i w j = 0 kaikilla i, j {1, 2,..., k}, missä
LisätiedotMS-A0003/A0005 Matriisilaskenta Laskuharjoitus 3 /
MS-A3/A5 Matriisilaskenta, II/27 MS-A3/A5 Matriisilaskenta Laskuharjoitus 3 / 3. 7..27 Tehtävä (L): Etsi kaikki yhtälön Ax = b ratkaisut, kun 3 5 4 A = 3 2 4 ja b = 6 8 7 4. Ratkaisu : Koetetaan ratkaista
LisätiedotOrtogonaaliset matriisit, määritelmä 1
, määritelmä 1 Määritelmä (a). Neliömatriisi Q on ortogonaalinen, jos Q T Q = I. Määritelmästä voidaan antaa samaa tarkoittavat, mutta erilaiselta näyttävät muodot: Määritelmä (b). n n neliömatriisi Q,
LisätiedotTilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio
Tilastollisen analyysin perusteet Luento 9: lineaarinen lineaarinen Sisältö lineaarinen lineaarinen lineaarinen Lineaarinen Oletetaan, että meillä on n kappaletta (x 1, y 1 ), (x 2, y 2 )..., (x n, y n
LisätiedotVisualisointi kansanedustajista neljässä eri ulottuvuudessa
Visualisointi kansanedustajista neljässä eri ulottuvuudessa Jaakko Talonen talonen.dm@gmail.com Johdanto Helsingin Sanomat julkaisi eduskuntavaalien 2011 vaalikoneensa avoimena tietona. Vaalikoneen tietojen
LisätiedotLuento 3: 3D katselu. Sisältö
Tietokonegrafiikan perusteet T-.43 3 op Luento 3: 3D katselu Lauri Savioja Janne Kontkanen /27 3D katselu / Sisältö Kertaus: koordinaattimuunnokset ja homogeeniset koordinaatit Näkymänmuodostus Kameran
LisätiedotMallipohjainen klusterointi
Mallipohjainen klusterointi Marko Salmenkivi Johdatus koneoppimiseen, syksy 2008 Luentorunko perjantaille 5.12.2008 Johdattelua mallipohjaiseen klusterointiin, erityisesti gaussisiin sekoitemalleihin Uskottavuusfunktio
LisätiedotMatriisilaskenta Luento 12: Vektoriavaruuden kannan olemassaolo
Matriisilaskenta Luento 12: Vektoriavaruuden kannan olemassaolo Antti Rasila 2016 Vektoriavaruuden kannan olemassaolo Jos {v 1, v 2,..., v k } on äärellisulotteisen vektoriavaruuden V lineaarisesti riippumaton
LisätiedotLaskuharjoitus 9, tehtävä 6
Aalto-yliopiston perustieteiden korkeakoulu Jouni Pousi Systeemianalyysin laboratorio Mat-2.4129 Systeemien identifiointi Laskuharjoitus 9, tehtävä 6 Tämä ohje sisältää vaihtoehtoisen tavan laskuharjoituksen
LisätiedotRegressioanalyysi. Kuusinen/Heliövaara 1
Regressioanalyysi Kuusinen/Heliövaara 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Oletetaan, että haluamme selittää jonkin selitettävän muuttujan havaittujen arvojen vaihtelun joidenkin
LisätiedotMS-A0003/A0005 Matriisilaskenta Malliratkaisut 5 / vko 48
MS-A3/A5 Matriisilaskenta Malliratkaisut 5 / vko 48 Tehtävä (L): a) Onko 4 3 sitä vastaava ominaisarvo? b) Onko λ = 3 matriisin matriisin 2 2 3 2 3 7 9 4 5 2 4 4 ominaisvektori? Jos on, mikä on ominaisarvo?
LisätiedotNäistä standardoiduista arvoista laskettu keskiarvo on nolla ja varianssi 1, näin on standardoidulle muuttujalle aina.
[MTTTP1] TILASTOTIETEEN JOHDANTOKURSSI, Syksy 2017 http://www.uta.fi/sis/mtt/mtttp1/syksy_2017.html HARJOITUS 3 viikko 40 Joitain ratkaisuja 1. Suoritetaan standardointi. Standardoidut arvot ovat z 1 =
LisätiedotLaskennallinen data-analyysi II
Laskennallinen data-analyysi II Patrik Hoyer Epävarmuuden mallintaminen 16 17.4.2008 LDA II, osa 3: epävarmuuden mallintaminen Luennot (16.4 ja 17.4) - ongelma, menetelmät, esimerkkejä (kalvot verkossa
LisätiedotHarha mallin arvioinnissa
Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö
LisätiedotLineaarialgebra ja matriisilaskenta I
Lineaarialgebra ja matriisilaskenta I 13.6.2013 HY / Avoin yliopisto Jokke Häsä, 1/12 Käytännön asioita Kesäkuun tentti: ke 19.6. klo 17-20, päärakennuksen sali 1. Anna palautetta kurssisivulle ilmestyvällä
LisätiedotInsinöörimatematiikka D
Insinöörimatematiikka D M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Matematiikan ja tilastotieteen laitos Turun yliopisto 2015 M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Luentokalvot
LisätiedotMS-C1340 Lineaarialgebra ja differentiaaliyhtälöt
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 14 R. Kangaslampi matriisiteoriaa Matriisinormi
Lisätiedot2.8. Kannanvaihto R n :ssä
28 Kannanvaihto R n :ssä Seuraavassa kantavektoreiden { x, x 2,, x n } järjestystä ei saa vaihtaa Vektorit ovat pystyvektoreita ( x x 2 x n ) on vektoreiden x, x 2,, x n muodostama matriisi, missä vektorit
LisätiedotInsinöörimatematiikka D
Insinöörimatematiikka D Mika Hirvensalo mikhirve@utu.fi Matematiikan ja tilastotieteen laitos Turun yliopisto 2014 Mika Hirvensalo mikhirve@utu.fi Luentokalvot 3 1 of 16 Kertausta Lineaarinen riippuvuus
LisätiedotMitä murteita Suomessa onkaan?
HELSINGIN YLIOPISTO HELSINGFORS UNIVERSITET UNIVERSITY OF HELSINKI Mitä murteita Suomessa onkaan? Antti Leino antti.leino@cs.helsinki.fi 9. syyskuuta 2006 Tietojenkäsittelytieteen laitos Kotimaisten kielten
LisätiedotLuento 5: Suurten lineaaristen yhtälöryhmien ratkaiseminen iteratiivisilla menetelmillä
Luento 5: Suurten lineaaristen yhtälöryhmien ratkaiseminen iteratiivisilla menetelmillä Matriisit voivat olla kooltaan niin suuria, että LU-hajotelman laskeminen ei ole järkevä tapa ratkaista lineaarista
Lisätiedot2. Teoriaharjoitukset
2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien
LisätiedotDiskriminanttianalyysi I
Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi
LisätiedotNäistä standardoiduista arvoista laskettu keskiarvo on nolla ja varianssi 1, näin on standardoidulle muuttujalle aina.
[MTTTP1] TILASTOTIETEEN JOHDANTOKURSSI, kevät 2019 https://coursepages.uta.fi/mtttp1/kevat-2019/ HARJOITUS 3 Joitain ratkaisuja 1. x =(8+9+6+7+10)/5 = 8, s 2 = ((8 8) 2 + (9 8) 2 +(6 8) 2 + (7 8) 2 ) +
LisätiedotAiheet. Kvadraattinen yhtälöryhmä. Kvadraattinen homogeeninen YR. Vapaa tai sidottu matriisi. Vapauden tutkiminen. Yhteenvetoa.
Yhtälöryhmän ratkaisujen lukumäärä, L8 Esimerkki kvadraattinen Haluamme ratkaista n 4x + y z = x + y + z = 5 x + y + z = 4 4 x 4 + y x y z = + z 5 4 = 5 4 Esimerkki kvadraattinen Yhtälöryhmä on kvadraattinen,
LisätiedotViikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi
Viikko 2: Ensimmäiset ennustajat Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum C222, 5.-7.11.2008. 1 Tällä viikolla Sisältösuunnitelma: Ennustamisstrategioista Koneoppimismenetelmiä: k-nn (luokittelu
LisätiedotVektoreiden virittämä aliavaruus
Vektoreiden virittämä aliavaruus Määritelmä Oletetaan, että v 1, v 2,... v k R n. Näiden vektoreiden virittämä aliavaruus span( v 1, v 2,... v k ) tarkoittaa kyseisten vektoreiden kaikkien lineaarikombinaatioiden
Lisätiedot805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016)
805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016) Tavoitteet (teoria): Hahmottaa aikasarjan klassiset komponentit ideaalisessa tilanteessa. Ymmärtää viivekuvauksen vaikutus trendiin. ARCH-prosessin
LisätiedotHarjoitukset 4 : Paneelidata (Palautus )
31C99904, Capstone: Ekonometria ja data-analyysi TA : markku.siikanen(a)aalto.fi & tuuli.vanhapelto(a)aalto.fi Harjoitukset 4 : Paneelidata (Palautus 7.3.2017) Tämän harjoituskerran tarkoitus on perehtyä
LisätiedotT Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1
T-61.281 Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti 10.2.2004, 8:30-10:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:
Lisätiedot4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
LisätiedotRatkaisuehdotukset LH 3 / alkuvko 45
Ratkaisuehdotukset LH 3 / alkuvko 45 Tehtävä : Olkoot A, B, X R n n, a, b R n ja jokin vektorinormi. Kätetään vektorinormia vastaavasta operaattorinormista samaa merkintää. Nätä, että. a + b a b, 2. A
LisätiedotRyhmäfaktorianalyysi neurotiedesovelluksissa (Valmiin työn esittely) Sami Remes Ohjaaja: TkT Arto Klami Valvoja: Prof.
Ryhmäfaktorianalyysi neurotiedesovelluksissa (Valmiin työn esittely) Sami Remes 11.06.2012 Ohjaaja: TkT Arto Klami Valvoja: Prof. Harri Ehtamo Työn saa tallentaa ja julkistaa Aalto-yliopiston avoimilla
LisätiedotSPSS-pikaohje. Jukka Jauhiainen OAMK / Tekniikan yksikkö
SPSS-pikaohje Jukka Jauhiainen OAMK / Tekniikan yksikkö SPSS on ohjelmisto tilastollisten aineistojen analysointiin. Hyvinvointiteknologian ATK-luokassa on asennettuna SPSS versio 13.. Huom! Ainakin joissakin
LisätiedotLineaarialgebra ja matriisilaskenta I
Lineaarialgebra ja matriisilaskenta I 29.5.2013 HY / Avoin yliopisto Jokke Häsä, 1/26 Kertausta: Kanta Määritelmä Oletetaan, että w 1, w 2,..., w k W. Vektorijono ( w 1, w 2,..., w k ) on aliavaruuden
LisätiedotSeuraavassa taulukossa on annettu mittojen määritelmät ja sijoitettu luvut. = 40% = 67% 6 = 0.06% = 99.92% 6+2 = 0.
T-6.28 Luonnollisen kielen tilastollinen käsittely Vastaukset, ti 7.2.200, 8:30-0:00 Tiedon haku, Versio.0. Muutetaan tehtävässä annettu taulukko sellaiseen muotoon, joka paremmin sopii ensimmäisten mittojen
LisätiedotSisätuloavaruudet. 4. lokakuuta 2006
Sisätuloavaruudet 4. lokakuuta 2006 Tässä esityksessä vektoriavaruudet V ja W ovat kompleksisia ja äärellisulotteisia. Käydään ensin lyhyesti läpi määritelmiä ja perustuloksia. Merkitään L(V, W ) :llä
LisätiedotLineaarialgebra, kertausta aiheita
Lineaarialgebra, kertausta aiheita Matriisitulo käänteismatriisi determinantin kehittäminen determinantin ominaisuudet adjungaatti ja Cramerin kaavat yhtälöryhmän eri esitystavat Gauss-Jordan -algoritmi
LisätiedotJohdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 5. luento.2.27 Lineaarialgebraa - Miksi? Neuroverkon parametreihin liittyvät kaavat annetaan monesti
LisätiedotPoikkeavuuksien havainnointi (palvelinlokeista)
Poikkeavuuksien havainnointi (palvelinlokeista) TIES326 Tietoturva 2.11.2011 Antti Juvonen Sisältö IDS-järjestelmistä Datan kerääminen ja esiprosessointi Analysointi Esimerkki Lokidatan rakenne Esikäsittely,
LisätiedotKoodausteoria, Kesä 2014
Koodausteoria, Kesä 2014 Topi Törmä Matemaattisten tieteiden laitos 3. Lineaariset koodit Topi Törmä Matemaattisten tieteiden laitos 2 / 22 3.1 Lineaarisen koodin määrittely Olkoon F äärellinen kunta.
LisätiedotT Luonnollisten kielten tilastollinen käsittely
T-61.281 Luonnollisten kielten tilastollinen käsittely Vastaukset 3, ti 11.2.2003, 16:15-18:00 Kollokaatiot, Versio 1.1 1. Lasketaan ensin tulokset sanaparille valkoinen, talo käsin: Frekvenssimenetelmä:
LisätiedotLineaarialgebra ja matriisilaskenta I, HY Kurssikoe Ratkaisuehdotus. 1. (35 pistettä)
Lineaarialgebra ja matriisilaskenta I, HY Kurssikoe 26.10.2017 Ratkaisuehdotus 1. (35 pistettä) (a) Seuraavat matriisit on saatu eräistä yhtälöryhmistä alkeisrivitoimituksilla. Kuinka monta ratkaisua yhtälöryhmällä
Lisätiedot805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016)
805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016) Tavoitteet (teoria): Hallita multinormaalijakauman määritelmä. Ymmärtää likelihood-funktion ja todennäköisyystiheysfunktion ero. Oppia kirjoittamaan
Lisätiedot805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Faktorianalyysi (Factor analysis) Faktorianalyysi jaetaan perinteisesti kahteen osaan Eksploratiiviseen (explorative factor analysis)
Lisätiedotklusteroi data haluttuun määrään klustereita tee n-gram -mallit klustereista (tasoitus) estimoi sekoitteiden painokertoimet λ k
/DXU6HWVRH /DXU6HWVRH#KXWI 5XP0,\HUDG0DU2VWHGRUI0RGHJ/RJ'VWDH'HHGHH /DJXDJH7R0[WXUHV9HUVXV'\DP&DKH0RGHV,7UDV VHHKDGDXGRURHVVJ-DXDU\ $KHVHRWHPDGHD.l\WlW l.rhhvdwxrvd
LisätiedotLineaariset luokittelumallit: regressio ja erotteluanalyysi
Lineaariset luokittelumallit: regressio ja erotteluanalyysi Aira Hast Johdanto Tarkastellaan menetelmiä, joissa luokittelu tehdään lineaaristen menetelmien avulla. Avaruus jaetaan päätösrajojen avulla
Lisätiedot805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016)
805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016) Tavoitteet (teoria): Hallita autokovarianssifunktion ominaisuuksien tarkastelu. Osata laskea autokovarianssifunktion spektriiheysfunktio. Tavoitteet
LisätiedotMetsämuuronen: Tilastollisen kuvauksen perusteet ESIPUHE... 4 SISÄLLYSLUETTELO... 6 1. METODOLOGIAN PERUSTEIDEN KERTAUSTA... 8 2. AINEISTO...
Sisällysluettelo ESIPUHE... 4 ALKUSANAT E-KIRJA VERSIOON... SISÄLLYSLUETTELO... 6 1. METODOLOGIAN PERUSTEIDEN KERTAUSTA... 8 1.1 KESKEISTEN KÄSITTEIDEN KERTAUSTA...9 1.2 AIHEESEEN PEREHTYMINEN...9 1.3
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 7 8
Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Kevät 2011 1 Iteratiivisista menetelmistä Tähän mennessä on tarkasteltu niin sanottuja suoria menetelmiä, joissa (likimääräinen) ratkaisu saadaan
LisätiedotMääritelmä Olkoon T i L (V i, W i ), 1 i m. Yksikäsitteisen lineaarikuvauksen h L (V 1 V 2 V m, W 1 W 2 W m )
Määritelmä 519 Olkoon T i L V i, W i, 1 i m Yksikäsitteisen lineaarikuvauksen h L V 1 V 2 V m, W 1 W 2 W m h v 1 v 2 v m T 1 v 1 T 2 v 2 T m v m 514 sanotaan olevan kuvausten T 1,, T m indusoima ja sitä
LisätiedotOhjelmistoradio tehtävät 4. P1: Ekvalisointi ja demodulaatio. OFDM-symbolien generoiminen
Ohjelmistoradio tehtävät 4 P: Ekvalisointi ja demodulaatio Tässä tehtävässä dekoodata OFDM data joka on sijotetty synknonontisignaalin lälkeen. Synkronointisignaali on sama kuin edellisessä laskutehtävässä.
Lisätiedot3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä
3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a 21
LisätiedotMS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 3B Tilastolliset datajoukot Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016,
LisätiedotNumeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35
Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen
LisätiedotTalousmatematiikan perusteet: Luento 14. Rajoittamaton optimointi Hessen matriisi Ominaisarvot Ääriarvon laadun tarkastelu
Talousmatematiikan perusteet: Luento 14 Rajoittamaton optimointi Hessen matriisi Ominaisarvot Ääriarvon laadun tarkastelu Luennolla 6 Tarkastelimme yhden muuttujan funktion f(x) rajoittamatonta optimointia
LisätiedotLineaarikuvauksen R n R m matriisi
Lineaarikuvauksen R n R m matriisi Lauseessa 21 osoitettiin, että jokaista m n -matriisia A vastaa lineaarikuvaus L A : R n R m, jolla L A ( v) = A v kaikilla v R n. Osoitetaan seuraavaksi käänteinen tulos:
LisätiedotPikalajittelu: valitaan ns. pivot-alkio esim. pivot = oikeanpuoleisin
Pikalajittelu: valitaan ns. pivot-alkio esim. pivot = oikeanpuoleisin jaetaan muut alkiot kahteen ryhmään: L: alkiot, jotka eivät suurempia kuin pivot G : alkiot, jotka suurempia kuin pivot 6 1 4 3 7 2
LisätiedotLisätehtäviä ratkaisuineen luentomonisteen lukuun 6 liittyen., jos otoskeskiarvo on suurempi kuin 13,96. Mikä on testissä käytetty α:n arvo?
MTTTP5, kevät 2016 15.2.2016/RL Lisätehtäviä ratkaisuineen luentomonisteen lukuun 6 liittyen 1. Valitaan 25 alkion satunnaisotos jakaumasta N(µ, 25). Olkoon H 0 : µ = 12. Hylätään H 0, jos otoskeskiarvo
LisätiedotMS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi
MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 3B Tilastolliset datajoukot Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Lukuvuosi 2016
Lisätiedot3x + y + 2z = 5 e) 2x + 3y 2z = 3 x 2y + 4z = 1. x + y 2z + u + 3v = 1 b) 2x y + 2z + 2u + 6v = 2 3x + 2y 4z 3u 9v = 3. { 2x y = k 4x + 2y = h
HARJOITUSTEHTÄVIÄ 1. Anna seuraavien yhtälöryhmien kerroinmatriisit ja täydennetyt kerroinmatriisit sekä ratkaise yhtälöryhmät Gaussin eliminointimenetelmällä. { 2x + y = 11 2x y = 5 2x y + z = 2 a) b)
LisätiedotSallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu. f(x, y) = k x y, kun 0 < y < x < 1,
Todennäköisyyslaskenta, 2. kurssikoe 7.2.22 Sallitut apuvälineet: MAOL-taulukot, kirjoitusvälineet, laskin sekä itse laadittu, A4-kokoinen lunttilappu.. Satunnaismuuttujien X ja Y yhteistiheysfunktio on
Lisätiedot