26. syyskuuta Sisältö 1

Koko: px
Aloita esitys sivulta:

Download "26. syyskuuta Sisältö 1"

Transkriptio

1 MONIMUUTTUJAMENELMÄT YHTEISÖEKOLOGIASSA Jari Oksanen 26. syyskuuta 2004 Sisältö Sisältö 1 1 Ordinaatio: perusmenetelmät Pääkomponenttianalyysi Lajiavaruus ja näyteala-avaruus Pääkomponenttirotaatio Etäisyys, varianssi ja korrelaatio Ominaisarvot ja ominaisvektorit Aineiston aproksimointi: singulaariarvohajotelma ja biplot Pääkomponenttianalyysin tyypit Tulosten esitys Algoritmi Korrespondenssianalyysi Vastinkeskiarvot ja painotetut keskiarvot Geometrinen tulkinta Optimaalinen pisteytys Tulosten esitys Ominaisarvo Moniulotteinen pisteytys Metrinen pisteytys ja pääkoordinaattianalyysi Epämetrinen pisteytys Ekologinen etäisyys Tulosten esitys ja tulkinta Gradienttimalli ja ordinaatio Gradienttianalyysi Lajivasteen muoto Ordinointimenetelmien oletukset Pääkomponenttianalyysi ja lajiavaruus Korrespondenssianalyysi ja liian optimaalinen ratkaisu

2 2 Sisältö Epämetrinen moniulotteinen pisteytys Kaareutumisen välttäminen Oikaistu korrespondenssianalyysi Oikaisu Uudelleenskaalaus Harvinaisten lajien vaimentaminen Kokonaisvaikutus Väliaskeletäisyydet Menetelmien vertailu Simulointien tulokset Muut suositukset Ympäristötekijät ja ordinointi 41

3 LUKU 1 ORDINAATIO: PERUSMENETELMÄT Hyvin suunnitellussa ekologisessa kokeessa tutkija on miettinyt etukäteen, mitä hän todella tutkii. Hän on harkinnut tarkoin kiinnostuksen kohdetta parhaiten kuvaavat muuttujat sekä tarvittavat kokeelliset manipulaatiot. Tällaisen kokeen analyysi on melkoisen suoraviivaista ja helppoa: koesuunnittelu on jo tehty lineaarista mallia varten ja aineisto analysoidaan etukäteen päätetyllä tavalla. Sangen usein näkee kuitenkin ekologin tutkivan huomattavasti hankalammin analysoitavia ongelmia. Joskus vaikuttaa, että tutkijalle itselleen ei ole aivan selvä mitä hän tutkii vaan hän kerää suuren joukon erilaisia muuttujia. Usein tutkimus on myös havainnoivaa, jolloin tutkijalle ei ole etukäteen selvää, mitkä ovat tärkeitä ekologisia selittäjiä. Erityisen räikeästi tämä näkyy yhteisöekologisessa tutkimuksessa, missä tutkija ei useinkaan etukäteen harkitse, mitkä ovat keskeisiä vastemuuttujia. Sen sijaan hän katsoo luonnosta, mitä muuttujia lajeja sillä on tarjottavana. Näin syntyy luonnostaan hyvin moniulotteinen aineisto, josta on tavattoman vaikea saada yleiskuvaa. Saattaa olla, että aineiston takana on suppea määrä selittäviä tekijöitä, mutta niiden löytäminen lajimassasta on hankalaa. Molekyyligeneetikolla saattaa olla suuri joukko mittauksia geeniekspressiosta, ja hän haluaa löytää tietyissä stressitilanteissa aktivoituvat geenit. Ympäristöbiologi on saattanut mitata suuren joukon kasvin responssiparametreja ja hän haluaa selvittää, mitkä niistä kuvaavat kasvin altistumista ympäristöstresseille. Kemometrikko on saattanut mitata suuren joukon kemiallisia parametreja, ja haluaa selvittää, mitkä yhdisteet ovat peräisin tietyistä lähteistä. Kaikki nämä tilanteet ovat tyypillisesti hankalia monimuuttuja-aineistoja, joiden tulkintaan on käytettävä monimuuttujamenetelmiä. Mikäli aineisto on moniulotteinen, on käytettävä monimuuttujamenetelmiä aineiston tarkasteluun. Lähtökohtana on siis aineiston luonne: jos tutkija kerää hankalasti hahmottuvan joukon muuttujia, hän joutuu turvautumaan monimuuttujamenetelmiin. Yleensä ei kannata pyrkiä monimuuttujaiseen analyysiin, sillä sen hallinta ja ymmärtäminen on usein hyvin hankalaa. Sangen usein siihen vain ajaudutaan ja tällöin on syytä yrittää ymmärtää, mitä on tekemässä. Ekologien käyttämät monimuuttujamenetelmät jaetaan kahteen pääryhmään: Ordinaatiomenetelmät, jotka pyrkivät esittämään alkujaan moniulotteisen aineiston harvempiulotteisena kuvana, jonka toivotaan jollain tapaa heijastavan vain muutamaa tärkeää aineiston rakennetta selittävää tekijää. Alkuperäisten muuttujien ja lajien sijaan kuvaus ja ymmärtäminen perustuu saadun ordinaatiodiagrammin päävaihtelusuuntiin. 3

4 4 Ordinaatio: perusmenetelmät Kuva 1.1: Lajiavaruudessa kukin laji on toisia lajeja kohtisuoraan oleva akseli ja näytealan sijainti määräytyy lajin runsauden mukaan näytealalla. Anome.la Eunovene Staa.gra Pinninte Luokittelumenetelmät, jotka ryhmittelevät aineiston vain muutamaan sisäisesti yhtenäiseen ja keskenään erilaiseen luokkaan. Alkuperäisten muuttujien ja lajien sijaan kuvaus ja ymmärtäminen perustuu näiden muutaman luokan kuvaukseen. Ordinaatiomenetelmät voidaan karkeasti jakaa kahteen ryhmään: Ominaisvektorimenetelmät, joista suosituimmat ovat pääkomponenttianalyysi (PCA) ja korrespondenssianalyysi (CA) variantteineen. Ne ovat geometrisia menetelmiä, jotka vain ja ainoastaan kiertävät alkuperäisen aineiston keskipisteensä varassa siten, että katsoja näkee sen rakenteesta mahdollisimman suuren osan. Kartoitusmenetelmät, joista suosituin on moniulotteinen skaalaus (MDS). Kartoitusmenetelmät pyrkivät graafiseen esitykseen, joissa pisteiden välimatkat kuvaavat mahdollisimman hyvin niiden samanlaisuutta tai erilaisuutta. 1.1 Pääkomponenttianalyysi Lajiavaruus ja näyteala-avaruus Yhteisöekologinen aineisto muodostuu yleensä matriisista, jonka riveinä ( havaintoina ) ovat näytealat ja sarakkeina ( muuttujina ) lajit. Tämä matriisi on mahdollista esittää graafisesti siten, että kutakin lajia käytetään akselina ja lajin runsaus näytealalla määrittää näytealan sijainnin kyseisellä akselilla. Täydellistä esitystä varten kukin laji on esitettävä kaikkia muita kohtisuoraan olevana akselina. Matriisi määrittää moniulotteisen hyperavaruuden, jota kutsutaan lajiavaruudeksi. Vaihtoehtoisesti voimme esittää kaikki lajit pisteinä avaruudessa, jonka akseleina ovat näytealat eli näyteala-avaruuden. Ominaisvektorimenetelmät, kuten pääkomponenttianalyysi, operoivat juuri tällaisilla laji- tai näyteala-avaruuksilla. Lajiavaruus on liian moniulotteinen, jotta sitä pystyisi normaali ihminen edes tajuamaan saati sitten piirtämään. Käytännössä on mahdollista piirtää akselit eli lajit pareittain kaksiulotteisiksi diagrammeiksi (kuva 1.1). Tuloksena on luonnollisestikin suuri määrä diagrammeja, joista valtaosa on melko epäinformatiivisina. Jos akseleina käytetään kahta harvinaista lajia, suurin osa näytealoista sijaitsee pakkautuneena origoon ja vain jokunen näyteala erottuu massasta. Toiset lajit taas näyttävät informatiivisilta: ne erottelevat näytealat hyvin toisistaan. Pääkomponenttianalyysi on menetelmä, joka pyrkii löytämään sellaisen katseen kulman, josta näytealapisteet erottuvat toisistaan mah-

5 1.1. Pääkomponenttianalyysi 5 dollisimman hyvin. Se pyrkii valitsemaan sellaisen suunnan, josta informatiivisten lajien akselit näkyvät mahdollisimman pitkinä ja epäinformatiivisten lyhyempinä eli antamaan informatiivisille lajisuunnille suuremman painon kuin epäinformatiivisille. Pääkomponenttianalyysi ei enää käytä yksittäisiä lajeja akseleina. Sen sijaan se käyttää synteettisiä, lajeista johdettuja akseleita, jotka on laadittu siten, että näytealat toisistaan hyvin erottelevilla lajeilla on suuri vaikutus näiden synteettisten akselien muodostumiseen. Pääkomponenttianalyysin synteettisiä akseleita sanotaan pääkomponenteiksi. Pääkomponenttianalyysin tavoitteet voidaan ilmaista kahdella vaihtoehtoisella tavalla: 1. Ensimmäinen pääkomponentti selittää suurimman mahdollisen osan aineiston vaihtelusta. Toinen ja sitä seuraavat pääkomponentit selittävät suurimman mahdollisen osan aineiston vielä selittämättömästä vaihtelusta ja lisäksi ne ovat kohtisuorassa kaikkia edellisiä pääkomponentteja vastaan. 2. Pääkomponenttianalyysi pyrkii sijoittamaan alkuperäiseen lajiavaruuteen (tai vaihtoehtoisesti näyteala-avaruuteen) aliavaruuden, kuten suoran tai tason, joka on mahdollisimman lähellä kaikkia avaruuden pisteitä. Nämä kaksi tavoitetta johtavat samaan tulokseen, sillä aliavaruus joka on mahdollisimman lähellä kaikkia pisteitä selittää suurimman mahdollisen osan pisteiden vaihtelusta. Pääkomponenttianalyysi on vain aineiston rotaatio. Sen ulottuvuuksien lukumäärä on sama kuin alkuperäisen aineiston, eli esimerkiksi sama kuin lajien lukumäärä. Kaikki pääkomponentit yhdessä esittävät alkuperäisen aineiston tarkkaan ja jäännöksettä. Pääkomponentit on kuitenkin järjestetty siten, että ensimmäiset pääkomponentit ovat tärkeimpiä eli toistavat lajien sijainnin alkuperäisessä lajiavaruudessa mahdollisimman tarkkaan. Viimeisillä pääkomponenteilla on vain vähäinen vaikutus pisteisiin. Näin ollen voimme rajoittua vain ensimmäisten pääkomponenttien esittämiseen ja jättää myöhemmät pääkomponentit huomiotta. Ordinoinnin ideana on pelkistää alkuperäinen, moniulotteinen aineisto niukempiulotteisiksi. Katsomissuunnan valitsmella pääkomponenttianalyysi löytää tärkeimmät vaihtelusuunnat. Voimme siis keskittyä vain pariin ensimmäiseen pääkomponenttiin ja yrittää tulkita niiden esittämä aineiston rakenne. Sen tulisi olla suuri osa aineiston koko rakenteesta. Jälkimmäiset pääkomponentit esittävät mahdollisesti vain aineiston satunnaisvaihtelua, ns. hälyä, ja ne voidaan jättää huomiotta Pääkomponenttirotaatio Edellisessä luvussa näimme, että pääkomponenttianalyysi vain rotatoi aineistoa ja etsii sen suunnan, josta katsottuna aineisto näyttäytyy meille mahdollisimman aitona ja alkuperäisenä. Tässä luvussa katsomme lapsellista pikkuesimerkkiä, joka näyttää kuinka tämä käytännössä tapahtuu. Esimerkkiaineistoimme on vain kaksiulotteinen: [ ] Tällaista leikkiaineistoa ei tietenkään oikeasti kannata analysoida pääkomponettianalyysilla, sillä senhän pystyy jo alkujaan esittämään kaksiulotteisessa kuvassa (kuva 1.2). Sen avulla on kuitenkin helppo nähdä, miten pääkomponenttianalyysi itse asiassa toimii.

6 6 Ordinaatio: perusmenetelmät A B Kuva 1.2: A. Pääkomponenttianalyysissa siirretään aluksi origo havaintojen painopisteeseen ja sitten kierretään origon varassa akselistoa niin että ensimmäinen akseli selittää mahdollisimman paljon aineiston vaihtelusta. B. Automaattisesti laskettu pääkomponenttianalyysi saattaa esittää akselit alkuperäiseen aineistoon nähden peilikuvina Pääkomponenttianalyysi rotatoi eli kiertää akselistoa aineiston painopisteen varassa. Meidän on siis ensin keskitettävä aineisto tuohon pisteeseen. Toinen pääkomponenttianalyysin tavoitteista oli sijoittaa alkuperäiseen avaruuteen aliavaruus, joka on mahdollisimman lähellä kaikkia pisteitä. Pienin tällainen aliavaruus on piste, ja kaikkia pisteitä lähinnä oleva piste on keskipiste. Kummallakin ajattelutavalla päädymme siihen, että meidän on keskistettävä havainnot ennen seuraavaa askelta. Rivien keskiarvot ovat 6.1 ja 3.6, joten keskistämisen jälkeen esimerkkimme on [ Olemme puhuneet vaihtelun selittämisestä pääkomponenttianalyysissa kertomatta, mitä oikein tarkoitamme tuolla vaihtelulla. Pääkomponenttianalyysi laskee vaihtelun pisteiden neliöityjen etäisyyksien summana painopisteestä. Keskistämisen jälkeen pystymme arvioimaan tuon vaihtelun, joka ensimmäiselle rivlle on 48.9 ja toiselle Kokonaisvaihtelu on näiden summa eli Kokonaisvaihtelun laskeminen yksinkertaisesti neliösummana perustuu jo muinaisten kreikkalaisten tuntemiin suorakulmaisiin kolmioihin: akselit ovat kateetteja ja pisteen etäisyys keskipisteestä on hypotenuusa. Ensimmäinen pääkomponetti pyrkii selittämään suurimman mahdolllisen osan kokonaisvaihtelusta. Tämä tarkoittaa, että se rotatoi aineiston siten, että ensimmäiselle akselille laskettu koordinaattien neliöiden summa on suurin mahdollinen. Tässä tapauksessa paras ratkaisu saadaan kiertämällä akselistoa 28.3 myötäpäivään (kuva 1.2). Tällöin uusiksi koordinaateiksi tulee: [ Akseleitten neliöiden summat ovat nyt ja Näiden lukujen summa on sama 69.3 kuin alkujaankin, mutta nyt ensimmäinen summa on paljon suurempi kuin toinen. Itse asiassa ensimmäisen summan osuus on 87.3 % koko aineiston vaihtelusta. Emme menetä paljonkaan informaatiota, jos tarkastelemme ainoastaan ensimmäistä pääkomponenttia. Usein sanotaan, että ensimmäinen pääkomponentti selittää 87.3 % aineiston vaihtelusta. Käytimme esimerkissämme suoria neliösummia. Olisimme aivan yhtä hyvin voineet jakaa neliösummat havaintojen lukumäärällä (tai lukumäärällä miinus yksi), jolloin olisimme käyttäneet variansseja. Tämä olisi vaikuttanut tulosten suhteelliseen skaalaukseen, mutta se ei olisi vaikuttanut mitenkään lopulliseen konfiguraation ja selitysasteisiin. ] ]

7 1.1. Pääkomponenttianalyysi 7 Vaihtelun selittämisen sijaan voimme yhtä hyvin puhua varianssin selittämisestä pääkomponenttianalyysissa. Nyt pitäisi olla myös ilmeistä, että pääkomponenttianalyysin kaksi tavoitetta (sivu 5) ovat identtisiä: kun maksimoimme vaihtelun ensimmäisellä akselilla, minimoimme akselin ja pisteiden etäisyyden. Tämä seuraa suoraan siitä, että kokonaisvaihtelu on vakio ja pisteen projektio pääkomponentille on suorakulmainen, eli jälleen sovellamme suorakulmaisten kolmioiden sivujen suhdetta Etäisyys, varianssi ja korrelaatio Tarkastelimme edellä pääkomponenttianalyysia puhtaasti graafisena menetelmänä; tällaisena se on usein paras nähdäkin. Emme puuttuneet mitenkään laskutekniikkaan, eli siihen, kuinka tiesimme että akselistoa on käännettävä juuri Tässä oppaassa emme juurikaan puutu algoritmeihin, vaan tämän jätämme numeerisen matematiikan oppikirjoihin (huomattakoon että matriisimatematiikan oppikirjojen esittämät algoritmit näyttävät kauniilta kirjoitettuina, mutta ovat usein erittäin huonoja ohjelmoinnin malleja). Tarkastelemme kuitenkin hieman sitä perustaa, millä tietokoneohjelmat pääkomponenttianalyysin ratkaisevat. Tietokone (sen paremmin kuin Mac) ei luonnollisestikaan hahmota pääkomponenttianalyysia graafisena tehtävänä, vaan se ratkaisee ongelman numeerisesti. Tätä varten meidän on jollain tapaa kerrottava ohjelmalle, mikä on pisteiden alkuperäinen graafinen konfiguraatio, jotta ohjelma osaisi etsiä sopivan rotaation. Lähtöaineistona on matriisi, jossa x i j on lajin i runsaus paikassa j. Luontainen tapa kertoa koneelle pisteiden konfiguraatio on antaa pisteiden väliset etäisyydet alkuperäisten koordinaattien sijaan. S ulotteisessa lajiavaruudessa näytealojen j ja k välinen neliöity etäisyys d 2 on (kuva 1.3): Näin laskettu etäisyys d on lyhyin eli suora etäisyys kahden pisteen välillä eukleidisessa avaruudessa eli siinä avaruudessa, joka muistuttaa meidän arkiavaruuttamme. Tämän takia d 2 on nimeltään neliöity eukleidinen etäisyys, mutta neliöity etäisyys on suunnilleen yhtä yksiselitteinen nimi. Erotus x i j x ik lajiakselilla i on jälleen suorakulmaisen kolmion kateetin pituus, joten d 2 jk on vastaava hypotenuusa (joskin sivuja i voi tällä kertaa olla enemmän kuin kaksi). Vaihtoehtoinen tapa kuvata pisteiden sijaintia painopisteen (origon) suhteen on käyttää kahta mittaa: origosta pisteeseen j piirretyn janan pituutta s j sekä kahteen pisteeseen ( j ja k) piirrettyjen janojen välistä kulmaa θ jk (kuva 1.3. Mikäli kaksi pistettä on samassa suunnassa, kulma θ on kapea, ja mikäli pisteet ovat lisäksi lähes yhtä kaukana, d 2 jk = S i=1(x i j x ik ) 2 (1.1) θ jk s j j Kuva 1.3: Pisteiden konfiguraation pystyy esittämään numeerisesti käyttämällä joko pisteiden välisiä etäisyyksiä d jk tai pisteiden etäisyyttä origosta s j,s k sekä pisteiden välistä kulmaa θ jk origosta katsottuna. ovat pisteet lähellä toisiaan. Tarvittavat suureet ovat: Jälkimmäisen yh- tälön (kaava 1.3) tulisi näyttää tutulta: keskistetyillä luvuilla se on tavallisen (eli Pearsonin) korrelaatiokertoimen kaava. Nyt olemme siis löytäneet graafisen tulkinnan korrelaatiokertoimelle: se on lajiavaruudessa olevien pisteiden katsomiskulman kosini. Myös edellinen kaava (1.2) on tuttu: yksinkertainen neliösumma. Mainitsimme jo edellä, että neliösummien sijaan voimme käyttää variansseja, joten voimme antaa pääkomponenttianalyysin laskevalle ohjelmille varianssseja sisältävän matriisin, jolloin ohjelma osaa laskea kokonaisvaihtelun ja kunkin pisteen painon analyysissa. Lisäksi meidän on annettava tieto pisteiden katsomiskulmien eroista eli parametrista θ. Itse asiassa kulma θ sisältyy kovarianssiin s jk = s j s k cosθ jk Jos siis annamme ohjelmalle matriisin, jossa lävistäjäelementteinä ovat varianssit ja muina elementteinä kovarianssit, pääkomponenttianalyysi saa tarvitsemansa tiedot pisteiden konfiguraatiosta. s 2 j = cosθ jk = S i=1 d jk s k x 2 i j (1.2) i x i j x ik i x 2 i j i x 2 ik k (1.3)

8 8 Ordinaatio: perusmenetelmät Usein mainitaan myös, että pääkomponenttianalyysin voi tehdä korrelaatiomatriisista. Myös tälle on graafinen tulkinta: alkuperäisen lajiavaruuden sijaan käytetään sellaista avaruutta, jossa kunkin lajin varianssi on skaalattu yksikön mittaisiksi. Näytealajanojen välinen kulma (kaava 1.3) on tietystikin korrelaatiokerroin ja kaikki varianssit (kaava 1.2) ovat 1. Tällöin kovarianssi varianssimatriisi korvautuu korrelaatiomatriisilla, jonka lävistäjinä on muuttujan korrelaatio itsensä kanssa eli itse asiassa normitetun muuttujan varianssi, joka määritelmän mukaan on 1. Tietokoneohjelmien kuvauksessa painotetaan usein teknistä puolta eli analyysin tekemistä korrelaatioiden tai kovarianssien kautta. Tällöin menetelmä mystifioituu salaperäiseksi matriisialgebraksi (jollei suorastaan matriisihepreaksi). Kyseessä on kuitenkin vain tapa välittää sokealle koneelle graafinen informaatio: pääkomponentti on perimmiltään graafinen menetelmä, missä akselistoa kierretään siten, että mahdollisimman paljon aineiston rakenteesta näkyy ensimmäisiä pääkomponentteja katsottaessa Ominaisarvot ja ominaisvektorit Pääkomponenttianalyysi ratkaistaan usein yksinkertaisena ominaisarvotehtävänä. Tätä varten lasketaan alkuperäisestä matriisista symmetrinen ristitulomatriisi, useimmiten kovarianssi varianssi- tai korrelaatiomatriisi. Tästä matriisista lasketaan ominaisarvot ja vastaavat ominaisvektorit. Leikkiesimerkissämme käytämme pientä 2 10 matriisia josta laskemme 2 2 ristitulomatriisin [ ] Olisimme tietysti voineet käyttää myös variansseja, kuten tietokoneohjelmat yleensä tekevät. Tämä olisi kuitenkin vaikuttanut vain tulostemme skaalaan ja suoria ristituloja käytettäessä säilytimme alkuperäisen asteikon tuloksissa. Koska pienempi dimensioluku on 2, saamme kaksi ominaisarvoa: λ 1 = ja λ 2 = Näiden summa on sama kuin ristitulomatriisin lävistäjien summa: = = Kaikkien ominaisarvojen summa on sama kuin ristitulomatriisin lävistäjäelementtien summa. Kovarianssimatriisia käytettäessä summa on aineiston kokonaisvarianssi ja korrelaatiomatriisia käytettäessä havaintojen lukumäärä. Akselin selitysaste saadaan jakamalla kyseinen ominaisarvo kaikkien ominaisarvojen summalla. Näihin ominaisarvoihin liittyvät ominaisvektorit ovat: [ ] Näitä sanotaan latauksiksi. Tällä kertaa lataukset on skaalattu siten, että niiden neliöiden summa riveittäin on 1. Itse asiassa matriisimme on ns. ortogonaalinen rotaatiomatriisi: kun sillä kerrotaan alkuperäinen havaintomatriisi, se itse asiassa vain rotatoituu. Rotaatiokulman saamme selville tästä matriisista: cos = sin = Tarkkaavainen lukija lienee huomannut, että ensimmäisessä termissä vaihdoin kertoimen etumerkin: taulukossa kerroin oli mikä merkitsee rotaatiota eli hieman pitemmälle. Pääkomponenttianalyysi ei näet tiedä mitään akselien alkuperäisestä suunnasta, ja akselit saattavat yhtä hyvin olla peilikuvia (kuva 1.2). Akselien etumerkit voivat vaihdella jopa samalla ohjelmalla eri analyysikerroilla ja ainakin eri ohjelmien

9 1.1. Pääkomponenttianalyysi 9 välillä. Analyysitulosten etumerkkeihin ei todellakaan kannata kiinnitä mitään huomiota, sillä niillä ei ole merkitystä vaan akseli = akseli. Lopulliset pääkomponenttipisteet saadaan kertomalla keskistetyllä havaintomatriisilla rotaatiotmatriisimme, jolloin saamme halutun lopputuloksen (matriisi sivulla 6) tosin tällä kertaa vastakkaismerkkisenä. Nämä pääkomponenttipisteet on tällä kertaa skaalattu niin, että niiden neliöiden summa on ominaisarvo. Tällöin ne esittävät suoraan pisteiden alkuperäisen konfiguraation Aineiston aproksimointi: singulaariarvohajotelma ja biplot Pääkomponenttianalyysin avulla on mahdollista saada ordinointipisteet sekä näytealoille että lajeille yhtaikaa. Toinen näistä pisteryhmistä on skaalattu yleensä akselin ominaisarvon mukaan, toisen ryhmän skaalaukseen taas ominaisarvot eivät vaikuta, vaan yleensä arvojen neliöiden summa on sama (1) kaikilla akseleilla. Tällaisella kahtalaisella skaalauksella on näet mahdollista saada pienimmän neliösumman aproksimaatio alkuperäiselle havaintoaineistolle pääkomponenttianalyysin tulosten perusteella. Olettakaamme että akselilla m raakapisteet sekä sarakkeille (v jm ) että riveille (u im ) on skaalattu yksikön mittaisiksi eli j v 2 jm = 1 ja i u 2 im = 1 ja akselin ominaisarvo on λ m. Tällöin saamme ensimmäisen M akselin perusteella alkuperäisen havainnon x i j pienimmän neliösumman M asteisen likiarvon x (M) i j kaavalla 1.4 Lauseke määrittelee singulaariarvo- hajotelman, jossa tosin usein käytetään singulaariarvoja η ominaisarvojen sijaan, mutta näiden suhde on yksinkertaisesti η 2 m = λ m. Voimme aproksimoida lineaarisesti aineistoamme esittämällä tuloksissa normitetut näyteala ja lajiskoorit sekä vastaavat ominaisarvot tai singulaariarvot. Tavallisesti ominaisarvot yhdistetään joko laji- tai näytealapisteisiin. Voimme esittää tulokset seuraavilla vaihtoehtoisilla tavoilla: Ominaisarvon vaikutuksen pystyy yhdistämään joko lajeihin tai näytealoihin. Jos se yhdistetään lajipisteisiin, lajien konfiguraatio on oikea, eli lajiakselien pituus diagrammissa vastaa akselin pituutta. Vastaavasti näytealakonfiguraatio on oikea jos ominaisarvot yhdistetään näytealapisteisiin. Vastaavasti toinen pistejoukko on normitettu eli pisteiden neliöity etäisyys origosta on riippumaton ominaisarvosta. Näin ne eivät kuvaa akselien tärkeyttä. Yhdessä ominaisarvolla painotettujen ordinointipisteiden kanssa ne kuitenkin antavat pienimmänneliösumman estimaatin alkuperäisistä havainnoista (kaava 1.4). Joskus tutkija haluaa suhteuttaa sekä näytealat että lajit ominaisarvoihin, mutta silloin tulokset eivät enää aproksimoi alkuperäistä havaintoaineistoa. Biplot on alkuperäisen aineiston graafinen aproksimaatio: sekä lajipisteet että näytealapisteet esitetään yhtaikaa samassa diagrammissa. Jompi kumpi pisteistä suhteutetaan ominaisarvoon, jolloin sille esitetään oikea konfiguraatio. Tutkija joutuu harkitsemaan, haluaako hän esittää lajit vai näytealat oikein. Tämä riippuu tavoitteista. Sangen tavallista on suuremman huomion keskittäminen näytealojen ordinointiin, jolloin ominaisarvoilla painotus tehdään näytealoille Pääkomponenttianalyysin tyypit Comp x (M) i j = x i + 5VALKE M m=1 u im λ 1/2 m v jm λm 1/2 u im v jm u im λ 1/2 m v jm (1.4) AU010B 3KATTIL Meld.lac 93KANKT Anome.la Cymbgrac Peroheri 49AHVEN Cymbamce Navimedi Steninte Tabefloc Navr.ten Surideli EunolunaMeld.lir Staa.gra Neia.amp Navihoef Tabequad AU010A Eunovene 581MAKI 14ILEHM Comp.1 11MYLLY Fragvire 39IKIVI 26YLIMM 37HANKA Anoms.br 25MVALK Frr.saxo 35ISOH Frusrho Olemme esittäneet pääkomponenttianalyysin alkuperäisen aineiston rotaationa. Akseleiden numeeriset arvot määräytyvät siis alkuperäisten lukujen asteikosta. Hyvin monet ohjelmat tekevät kuitenkin pääkomponenttianalyysin ristitulomatriisin kautta, jolloin yhteys alkuperäisten muuttujien asteikon ja pääkomponenttien välillä saattaa hämärtyä. Geo- Kuva 1.4: Biplot on graafinen aproksimaatio alkuperäiselle havaintoaineistolle: sekä lajit että näytealat esitetään samassa diagrammissa (ja usein aika vaikealukuinen).

10 10 Ordinaatio: perusmenetelmät metrinen suhde kuitenkin säilyy, mutta meidän on muunnettava lajiavaruutta ennen analyysia. Joitain kirjallisuudessa usein esiintyviä pääkomponenttianalyysin tyyppejä ovat: Keskistämätön: Origon siirto jätetään tekemättä ja rotaatio tehdään alkuperäisen origon varassa. Alkuperäisessä origossa kaikkien lajien runsaus on nolla eli analyysin origo on tyhjä näyteala. Ensimmäinen pääkomponentti tulee todennäköisesti kulkemaan tyhjästä näytealasta sentroidiin eli ensimmäinen pääkomponentti yrittää toteuttaa keskistämisen. Toinen keskistämätön pääkomponentti muistuttaa usein hyvin paljon keskistetyn analyysin ensimmäistä pääkomponenttia. Keskistämätöntä analyysia näkee silloin tällöin käytettävän ja sille esitettävän erilaisia perusteita. Yleensä kyse on kuitenkin harhautuneen mielen sekavista unelmista. Standardisoitu pääkomponenttianalyysi tehdään korrelaatiomatriisista. Geometrisesti siirretään origo keskustaan ja sen jälkeen siirretään kaikki pisteet yksikön päähän origosta eli hyperpallon pinnalle. Pisteiden katsomiskulmat θ jk (kaava 1.3) säilyvät muuttumattomina eli pisteet sijaitsevat origosta katsoen samalla nuolella. Niitä siirretään kuitenkin nuolta pitkin siten, että kaikki ovat samalla etäisyydellä origosta. Huomattakoon, että keskistäminen ja standardisointi on tehtävä aina lajeille. Ekologit käyttävät yleensä keskistettyä ja standardisoimatonta pääkomponenttianalyysia. Tämä on mahdollista yhteisöaineistossa, sillä kaikkien lajien runsaudet on mitattu vertailukelpoisella asteikolla. Muunlaisissa aineistoissa standardisointi eli korrelaatioden käyttö on usein välttämätöntä, sillä muuttujat on mitattu eri asteikolla. Yksikkömuutokset vaikuttavat silloin sekä kovariansseihin että variansseihin ja näin ollen myös analyysin tuloksiin. Esimerkiksi kemiallisia mittauksia analysoitaessa korrelaatioiden käyttö on välttämätöntä Tulosten esitys Pääkomponenttianalyysin tulokset antava pienimmän neliösumman estimaatin analyysissä käytetylle aineistolle. Esimerkissämme aineiston kokonaisvaihtelu on Kahden ensimmäisen pääkomponentin ominaisarvot ovat λ 1 = ,λ 2 = eli 32.8 % ja 26.5 % aineiston kokonaisvaihtelusta. Seuraavan akselin ominaisarvo on jo selvästi alhaisempi (λ 3 = ) ja kaksi ensimmäistä akselia selittää jo 59.3 % kokonaisvaihtelusta, mikä on ekologisessa aineistossa melko suuri selitysosuus. Näytealojen ordinointipisteet ensimmäisille komponenteille ja ensimmäisille näytealoille ovat: Comp.1 Comp.2 Comp.3 Comp.4 14ILEHM MAKI ISOHA VALKE MYLLY Nämä pisteet on tällä kertaa skaalattu ominaisarvoilla, joten ne esittävät pisteiden oikean konfiguraation (kuva 1.5). Yksi järvistä, kirkasvetinen 95VALKE näyttää poikkeavan kaikista muista. Järvet näyttävät asettuvan

11 1.1. Pääkomponenttianalyysi 11 ph Väri Kuva 1.5: Järvien pääkompononttiordinaatio. Osakuvissa on esitetty järvien happamuus sekä väri (Pt). kaarelle. 95VALKE on yksin vasemmassa sakarassa. Lähes yhtä äärimmäinen on hapan ja tummavetinen järvi oikeass sakarassa. Akseleja sinällään ei kannattane tarkastella, vaan näyttää, että on parempi seurata kaarta eli hevosenkenkää. Vastaavasti muutaman ensimmäisen lajin ordinointipisteet ovat: Comp.1 Comp.2 Comp.3 Comp.4 Anome.la Anoms.br Cymbamce Cymbgrac Eunoluna Lajipisteitä ei ole tällä kertaa skaalattu ominaisarvojen mukaan, vaan kaikkien komponenttien latausten neliöiden summa on 1. Lajipisteet eivät siis ole suhteessa akselien tärkeyteen eikä niiden perusteella piirretty kuva esitä lajien oikeata konfiguraatiota. Yhdessä näytealapisteiden kanssa ne kuitenkin esittävät aineiston graafisen aproksimaation eli biplotin (kuva 1.4). Näytealojen ja lajien ordinointipisteiden avulla voimme laskea myös pienimmän neliösumman estimaatin alkuperäisestä havaintoaineistosta. Ensimmäisen järven ensimmäiset lajit ovat: Anome.la Anoms.br Cymbamce Cymbgrac Eunoluna 14ILEHM Näistä voimme ottaa tarkastelun kohteeksi ensimmäisen lajin, jonka runsaus on x 11 = Ilman pääkomponenttianalyysia sen runsauden voi olettaa olevan sama kuin koko aineiston keskiarvo lajille, eli tässä tapauksessa x 1 = Lajimme on siis keskimääräistä niukempi ensimmäisessä järvessä. Kaava 1.4 avulla voimme laskea sen odotetun runsauden ensimmäisen pääkomponentin perusteella: x (1) 11 = ( ) = Ominaisarvot sisältyivät jo näytealapisteisiin, joten niitä ei tarvinnut kirjoittaa näkyviin. Ensimmäinen pääkomponentti korjasi odotettua runsautta havaittuun suuntaan, muttei kovin paljon. Ero havaitun ja ennustetun runsauden välillä on vielä melko suuri. Itse asiassa neljän ensimmäisen pääkomponentin mukaan ennustetut arvot eivät muutu kovin = Vasta yhdeksännel- paljon: x (2) 11 = 0.226, x(3) 11 = , x(4) 11 lä komponentilla tapahtuu ratkaiseva paraneminen ( x (9) 11 = ). Kyseistä havaintoarvoa ei siis pysty kovin hyvin ennustamaan parin ensimmäisen pääkomponentin perusteella. Koska kaksi ensimmäistä pääkomponenttia kuitenkin selittää yli puolet aineiston vaihtelusta, monia

12 12 Ordinaatio: perusmenetelmät muita havaintoarvoja pystytään ilmeisestikin esittämään paljon paremmin. Pääkomponenttianalyysi on rotaatio keskipisteen varassa, joten keskipiste eli origo on syytä aina piirtää kuvaan. Origolla on erityinen merkitys: se on oletustilanne, johon kaikkia paikkoja ja lajeja verrataan. Keskistäminen tehdään lajeittain, joten kullekin lajille origo esittää lajin keskimääräistä runsautta. Paitsi pisteinä, ordinoinnin tulokset esitetään usein myös nuolina (kuva 1.4). Nuolen pituus osoittaa, kuinka voimakkaasti laji lisääntyy keskirunsaudestaan eli origosta ja nuolen suunta osoittaa, sen suunnan ordinointiavaruudessa, johon lajin runsastuminen on voimakkainta. Biplotissa voimme arvioida lajin runsauden näytealalla projisoimalla näytealapisteen lajinuolelle: mitä lähempänä origoa projektio on, sitä lähempänä yleiskeskiarvoaaan arvioimme lajin runsauden näytealalla olevan. Tämä projektio on tietenkin vain pienimmän neliösumman estimaatti: lajin runsaus voi poiketa paljonkin projektiosta. Näytealoille origo osoittaa tilanteen, missä kukin laji esiintyy keskimääräisellä runsaudellaan. Mitä kauempana näytealapiste on origosta, sitä enemmän näytealan arvioidaan poikkeavan keskimääräisestä. Tämän takia myös näytealat voidaan esittää nuolina origosta. Origossa siis kaikki lajit esiintyvät, mutta useimmat lajit hyvin niukkina. Tämä on tietystikin luonnonvastainen tilanne, sillä on hyvin epätodennäköistä että tällainen näyteala on olemassa. Origon ympäristön voi siis olettaa olevan tyhjä: kaikki näytealat poikkeavat mielettömästä oletuksesta. Mikäli origon lähellä on näyteala, se tietysti saattaa olla keskimääräinen. Koska keskimääräisyys pääkomponenttianalyysin mielessä on melko epätodennäköinen tila, on todennäköisempää, että origon lähellä oleva näyteala on vain huonosti ordinoitu ja sen esittäminen vaatisi useamman pääkomponentin käyttöä. Näytealapisteisiin pätee siis sama kuin lajipisteisiin: etäisyys origosta kuvaa, kuinka voimakkaasti tämän ordinoinnin perusteella näyteala poikkeaa keskimääräisestä ja suunta osoittaa voimakkainta gradienttia ordinointikuvassa. Nämä tulkinnat tulevat vielä selkeämmiksi jos käytämme korrelaatioita kovarienssien sijaan. Tällöin kaikkien lajien varianssit ovat alkujaan yhtä pitkät. Pisteet sijaitsevat siis alkujaan yksikkösäteisen hyperpallon pinnalla. Pääkomponenttianalyysi projisoi tämän hyperpallon niukkaulotteiseen ordinointikuvaan. Mikäli tämä projektio onnistui eli kaikki pisteet on selitetty hyvin ja selitysaste on korkea, kaikki pisteet ovat lähellä yksikkösäteistä ympyrää. Origo on siis täysin tyhjä. Standardisoimattomassa eli kovariansseja ja variansseja käyttävässä pääkomponenttianalyysissa pisteiden alkuperäinen etäisyys origosta vaihtelee, joten onnistuneessakaan analyysissa ei ole selkeää ympyrää vaikka origon lähistö yleensä onkin tyhjä. Origon lähellä on tällöin sellaisia pisteitä, joiden alkuperäinen etäisyys origosta oli lyhyt, sekä niiden seassa mahdollisesti huonosti selitettyjä pisteitä. Origokeskeisyytensä takia pääkomponenttianalyysia ei tulisi tarkastella akseleittain vaan pikemminkin pitäisi katsoa suuntia ja etäisyyksiä origosta. Pisteiden välistä samanlaisuutta kuvaa pikemminkin pisteiden välinen katsomiskulma kuin pisteiden välimatka. Pisteen etäisyys origosta taas kertoo, kuinka poikkeava piste on keskimääräisestä tilanteesta. Jos etäisyys origosta on liki yhtä pitkä kuin alkuperäisessä lajiavaruudessa, piste on myös hyvin selitetty Algoritmi Vaikka lupasinkin jättää algoritmit numeerisen matematiikan kirjoihin, esittelen kuitenkin yksinkertaisen mutta numeerisesti surkean ta-

13 1.2. Korrespondenssianalyysi 13 van laskea singulaariarvohajotelma eli yhtaikainen pääkomponenttianalyysi sekä lajeille että näytealoille. Tätä algoritmia ei todellakaan pidä käyttää edes omissa testiohjelmissa, mutta esitän sen, koska se on niin yksinkertainen, että mystiikka pääkomponenttianalyysin ympäriltä saattaa hieman karista. Yksinkertaisin algoritmi tunnetaan nimellä potenssimenetelmä. 1. Aloitamme mielivaltaisella vektorilla u 2. Normitamme vektoron u siten että i u 2 i = Laskemme kullekin sarakkeelle vektorin v painotettuna summana v j = i u i x i j. 4. Jos vektori v on samanlainen kuin edellisellä kierroksella, lopetamme: olemme löytäneet ensimmäiset ominaisvektorit u ja v. 5. Muuten laskemme työvektorista u uuden vektorin v jälleen lajimatriisin riveillä painotettuna summana u i = j v j x i j. 6. Jatkamme askelesta 2 eli normitamme vektorin v. Painotetut summat pystyy esittämään myös matriisin ja vektorin toistuvana kertolaskuna. Menetelmän nimi johtuu siitä, että itse asiassa kerromme aloitusvektorimme matriisin korkeahkolla potenssilla. Teorian mukaan tällöin saamme tulosvektoriksi aina ensimmäisen ominaisvektorin. Tästä johtuu myös, että siirtymämatriisit johtavat aina vakaaseen tilajakaumaan, joka voidaan arvioida siirtymämatriisin ensimmäisenä ominaisvektorina. Menetelmä on näin helppo vain ensimmäiselle ominaisvektorille. Myöhempiä ominaisvektoreita arvioidassamme, joudumme ortogonalisoimaan ne edellisiin nähden. Katsokaamme leikkiesimerkkiämme, ja siinä nimenomaan 10 saraketta, joille olemme jo laskeneet tuloksen. Aluksi meidän on keskistettävä matriisi eli vähennettävä siitä keskiarvot. Sen jälkeen annamme kahdelle rivillemme mielivaltaiset kertoimet 1, 1, joista normituksen jälkeen tulee 0.707, Sitten tulokset kertolaskuista: Konvergenssi on hyvin nopea ja viimeistään tässä vaiheessa voimme olla tyytyväisiä, kahden desimaalin tarkkuudella. Normituksen jälkeen rivivektorin alkiot ovat 0.881, eli samat kuin pääkomponenttianalyysin lataukset aiemmin. Sen sijaan sarakapisteitä ei ole normitettu ja niiden neliöiden summa antaa ensimmäisen ominaisarvon λ 1 = c 2 i = Kaikki tämä tapahtui laskemalla vain painotettuja summia. Voisiko mikään ordinointimenetelmä olla helpompi laskea käsin kuin pääkomponenttianalyysi? 1.2 Korrespondenssianalyysi Korrespondenssianalyysi johdannaisineen on varmaankin suosituin ordinointimenetelmä. Korrespondenssianalyysi on ominaisvektorimenetelmä, aivan kuten pääkomponenttianalyysi. Se käyttää kuitenkin toisenlaista metriikkaa eli tapaa mitata pisteiden etäisyys. Tämä pieni ero on usein ratkaiseva kasvillisuusaineistojen analyysissa, ja niinpä korrespondenssianalyysi on yleensä paljon pääkomponenttianalyysia parempi vaihtoehto.

14 14 Ordinaatio: perusmenetelmät Korrespondenssianalyysi on keksitty itsenäisesti lukuisia kertoja ja niinpä se myös tunnetaan lukuisilla nimillä. Kasvillisuusekologiassa se keksittiin itsenäisesti nimellä vastinkeskiarvo-ordinointi vuonna Korrespondenssianalyysin tavoitteet voidaan määritellä ainakin kolmella eri tavalla, jotka kaikki johtavat samaan lopulliseen malliin: 1. Vastinkeskiarvo-ordinointi: Näytealojen ordinointipisteet ovat lajipisteiden painotettuja keskiarvoja ja samanaikaisesti lajipisteet ovat näytealapisteiden painotettuja keskiarvoja. 2. Korrespondenssianalyysi: Painotettu pääkomponenttianalyysi χ 2 metriikalla. 3. Optimaalinen skaalaus: Näytealalla esiintyvien lajien ordinointipisteiden painotettu varianssi on minimoitu ja samalla niiden näytealojen ordinointipisteiden painotettu varianssi, joilla laji esiintyy on minimoitu. Nämä eivät itse asiassa ole vaihtoehtoisia vaan toisiaan täydentäviä määritelmiä: kukin painottaa voimakkaammin jotain korrespondenssianalyysin ominaisuutta, mutta muiden tavoitteiden painotukset eivät häviä. Vaikka haluaisimme keskittyä vastinkeskiarvo-ominaisuuksiin, säilyvät myös pääkomponenttianalyysin ominaisuudet. Lajin runsaus Gradientti Kuva 1.6: Ideaalimallissa lajeilla on yksihuippuiset, symmetriset vasteet ekologisella gradientilla. dienttipisteissä j (kaava 1.5). Jos lajivasteet todellakin ovat symmetri- siä ja havaintopisteitä on tasaisesti huipun kummallakin puolella, näin saadut estimaatit ũ voivat olla hyvin lähellä todellisia optimeita u. Lajin painotettu keskiarvo on lajioptimin estimaatti. Voimme toki käyttää kaavaa 1.5 myös käänteisesti: jos tunnemme lajioptimit u, voimme laskea gradienttiarvon estimaatin g lajioptimien runsauksilla painotettuna keskiarvona. Painotettuja keskiarvoja laskettiin aluksi molempiin suuntiin: sekä lajeille että näytealoille. Pian kuitenkin huomattiin, että jos aloitamme mistä tahansa gradienttiarvoista g ja sovellamme toistuvasti kaavoja ũ g, g ũ, sovellamme itse asiassa potenssimenetelmää (luku 1.1.8) korrespondenssianalyysin laskemiseksi. Aiemmin pääkomponenttianalyysin yhteydessä esittämämme algoritmi tarvitsee vain pari muutosta: ũ = N j=1 x i jg j N j=1 x i j Vastinkeskiarvot ja painotetut keskiarvot (1.5) Ekologit olettavat yleensä, että lajien vaste ympäristötekijään on unimodaalinen: lajin vastekäyrässä ekologisella gradientilla on yksi huippu ja tästä huipusta kumpaankiin suuntaan laji niukkenee (kuva 1.6). Sitä gradienttiarvoa, missä huippu sijaitsee, sanotaan lajin optimiksi gradientilla. Mikäli lajien vasteet ovat yksihuippuisia, tavalliset lineaariset menetelmät, kuten lineaarinen regressio, eivät sovi lajivasteiden analysointiin. Sen sijaan tavattoman yksinkertainen painotettu keskiarvo on usein hyvin käyttökelpoinen. Painotetussa keskiarvossa arvioidaan optimin u sijainti gradientilla g käyttämällä painoina lajien runsausarvoja x gra- 1. Myöhempiä laskuja helpottamaan laskemme alukis rivisummat x i+ = j x i j sekä sarakesummat x + j = i x i j ; nämä ovat itse asiassa painotettujen keskiarvojen jakajia eli painojen summia. 2. Aloitamme mielivaltaisella vektorilla u 3. Normitamme vektorin u siten että painotettu summa i x i+ u 2 i = Laskemme kullekin sarakkeelle vektorin v painotettuna keskiarvona v j = i u i x i j /x + j.

15 1.2. Korrespondenssianalyysi 15 ph Väri vastinkeskiarvo vastinkeskiarvo Kuva 1.7: Ensimmäinen vastinkeskiarvoakseli ja tärkeäksi arvellut ympäristämuuttujat piileväaineistossa 5. Jos vektori v on samanlainen kuin edellisellä kierroksella, lopetamme: olemme löytäneet ensimmäiset ominaisvektorit u ja v. 6. Muuten laskemme työvektorista v uuden vektorin u jälleen lajimatriisin riveillä painotettuna keskiarvona u i = j v j x i j /x i+. 7. Jatkamme askelesta 3 eli normitamme vektorin u. Tärkein muutos oli, että painotettujen summien sijaan käytimme painotettuja keskiarvoja. Myös normitus oli hieman toisenlainen olisimme kuitenkin voineet käyttää myös alkuperäistä normitusta ilman painoja, mutta silloin emme olisi saaneet ominaisarvoa yhtä helposti: nyt λ 1 = c j v 2 j. Normitus tehdään sen takia, että toistettaessa iterointisyklejä, vektorien skaala muuttuu. Korrespondenssianalyysin tapauksessa vaihteluväli supistuu joka askelella ja normitus palauttaa alkuperäisen vaihteluvälin. Pääkomponenttianalyysissa vaihteluväli myös muuttuu, mutta se voi myös laajeta supistumisen sijaan. Tämä johtaisi ennen pitkään numeerisiin ongelmiin ja joka tapauksessa ongelmiin esitystekniikassa, joten jonkinlainen normitus on tehtävä. Yleensä keskiarvojen vaihteluväli on paljon suppeampi kuin niiden lukujen vaihteluväli, joista ne on laskettu. Niinpä myös painotetut keskiarvot supistuvat tekijöihinsä verrattuna. Akselin ominaisarvo mittaa painotettujen keskiarvojen vaihteluvälin supistumista. Korrespondenssinalyysi voidaan siis tehdä laskemalla toistuvasti painotettuja keskiarvoja. Koska painotetut keskiarvot voivat aproksimoida lajien optimien sijaintia tai toisaalta gradienttiarvoja, korrespondenssianalyysi ihannetilanteessa estimoi samoja parametria. Voidaan ajatella, että Korrespondenssianalyysin akselit ovat aineistosta löydettyjä gradientteja. Näytealapisteet ovat arvioita näytealojen sijainnista näillä gradienteilla. Lajipisteet ovat arvioita lajien optimeista näillä gradienteilla. Jos vielä onnistumme tulkitsemaan nämä gradientit, voimme selittää aineiston rakenteen ja päävaihtelusuunnat muutaman gradientin perusteella. Piileväaineistossamme konvergenssi on tällä kertaa hyvin hidasta ja tarvitaan ainakin 20 iteraatiokierrosta, jotta päästään stabiiliin lopputulokseen. Näyttää kuitenkin, että ensimmäinen ordinointiakseli tuntuu yllättävän hyvin löytävän tärkeiksi arvellut ympäristömuuttujat vaikka sillä ei ollutkaan niistä mitään tietoa, vaan ordinointi pohjautui vain lajistoon (kuva 1.7).

16 16 Ordinaatio: perusmenetelmät Geometrinen tulkinta Geometrisena menetelmänä korrespondenssianalyysi on χ 2 metriikkaa käyttävä painotettu pääkomponenttianalyysi. χ 2 metriikka tarkoittaa, että reunasummien perusteella arvioidaan kunkin lajin odotusarvo näytealalla, ja havaittua runsautta verrataan tähän odotusarvoon χ 2 tapaan. Kullekin näytealalle lasketaan odotettu lajiprofiili, joka kertoo mikä on kunkin lajin osuus näytealan kokonaisrunsaudesta. Tämä profiili lasketaan lajien runsausarvojen summista koko aineistossa. Vastaavasti kullekin lajille lasketaan odotettu näytealaprofiili eli lajin runsausarvojen odotetaan jakautuvan näytealoilla samassa suhteissa kuin näytealojen runsausarvojen summat. Nämäkin saadaan reunasummina. Näiden reunasummien perusteella lasketaan odotusrunsaudet: jos lajin suhteellinen osuus on kaikista lajeista on r i ja paikan suhteellinen osuus kaikista paikoista on c j niin odotettu runsaus on ˆx i j = r i c j. Tämä antaa meille odotusarvon, jota voimme käyttää χ 2 laskemisessa. Korrespondenssianalyysi ei kuitenkaan ole yksioikoinen pääkomponenttianalyysi erikoisesti muunnetulle lajiavaruudelle vaan se on painotettu pääkomponenttianalyysi. Reunasummia r i ja c j käytetään myös suoraan painottamaan pisteitä. Tämän perusteella saamme yksinkertaisen algoritmin korrespondenssianalyysille: 1. Alkuvalmisteluna jaa matriisin kaikki alkiot matriisin kokonaissummalla: A i j = x i j / i j x i j. Laske tämän jälkeen reunasummat x i+ ja x + j muunnetusta matriisista. Tällöin kaikki luvut ovat suhteellisia eli i x i+ = j x + j = i j A i j = Laske alkioiden poikkeama reunasummien mukaisesta odotusarvosta ja jaa se odotusarvon neliöjuurella χ i j = A i j x i+ x + j xi+ x + j (1.6) Tämä on itse asiassa χ 2 kaaavan yksittäisen elementin neliöjuuri eli tästä matriisista laskettu ristitulomatriisi antaisi meille χ 2 matriisin. 3. Tee matriisille χ singulaariarvohajotelma χ (M) i j = m u im λm 1/2 v jm. Tästä saadaan tulokseksi ominaisarvot λ sekä normitetut ominaisvektorit riveille ja sarakkeille u ja v. 4. Painota ominaisvektorit reunasummilla, jolloin tulokseksi saadaan korrespodenssianalyysin ordinointipisteet f i = u i 1/xi+ ja g j = v j 1/x+ j. Korrespondenssianalyysin ytimessä on siis sama singulaariarvohajotelma kuin pääkomponenttianalyysissa, mutta sekä sitä ennen että sen jälkeen aineistolle tehdään muunnoksia. Esimuunnokset takaavat χ 2 metriikan, jälkimuunnokset painotetun pääkomponenttianalyysin. Yhdessä ne takaavat saman tuloksen kuin painotetut keskiarvot. Painotetut keskiarvot tuottivat saman tuloksen huomattavasti helpommin. Pääkomponenttianalyysin yhteydessä näimme, että singulaariarvohajotelman pystyy arvioimaan painotettuina summina. Korrespondenssianalyysi taas pystytään suoraan arvioimaan painotettuina keskiarvoina: singulaariarvohajotelman esi- ja jälkistandardointi sisältyvät keskiarvojen laskemiseen. Tässä esitetty algoritmi on numeerisesti luotettavampi kuin painotetut keskiarvot. Singulaariarvohajotelmaa ei kuitenkaan pidä mennä laskemaan painotettuina summina, vaan juuri sitä varten on olemassa erittäin luotettavia ja tarkkoja algoritmeja. Niitä ei pidä

17 1.2. Korrespondenssianalyysi 17 mennä kirjoittamaan itse uudelleen vaan ne löytyvät lukuisista luotettavista numeerisista aliohjelmakirjastoista läpeensä testattuina ja erittäin vakaina versioina. Koska laskenta pohjautuu singulaariarvohajotelmaan, ensimmäiset m korrespondenssianalyysia antavat alkuperäisen havaintomatriisin X m asteisen aproksimaation. Tällä kertaa se ei kuitenkaan ole pienimmän neliösumman aproksimaatio kuten pääkomponenttianalyysisä vaan χ 2 kriteerin minimoima aproksimaatio. Toistaiseksi säästän teidät kuitenkin laskukaavalta... Singulaariarvohajotelman laskemat ominaisvektorit ovat normitettuja siten että i u 2 i = j v 2 j = 1 ja lisäksi i u i = j v j = 0. Painotetuille korrespondenssianalyysin pisteille f i ja g i tämä ei enää suoraan päde, vaan niissä on myös painot r i ja c j otettava huomioon. Korrespondenssianalyysin pisteet eivät kuitenkaan suoraan ota huomioon akselin tärkeyttä eli ominaisarvoa. Voimme jälleen yhdistää ominaisarvon jompaan kumpaan pisteryhmään. Tavallisessa korrespondenssianalyysissa on ollut tavallista, että näytealoista halutaan esittää todellinen konfiguraatio, eli akselit halutaan skaalata ominaisarvoilla. Tällöin lajit esitetään skaalamattomina. Tuloksissa esitetään siis pisteet λ 1/2 m g im ja f im. Näinkin laadittu kuva on eräänlainen biplot, mutta tällä kertaa χ 2 biplot pienimmän neliösumman biplotin sijaan. Etenkin ekologian ulkopuolella käytetään myös symmetristä biplottia, missä sekä muuttujat että havainnot on skaalattu kertoimella λ 1/4 m (kuva 1.8). Geometrisesta tulkinnasta tuo ilmi erään kiusallisen seikan: harvinaiset lajit näyttävät usein äärimmäisiltä korrespondenssianalyysissa. Tämä johtuu siitä, että lajin havaittua runsautta verrataan sen odotettuun runsauteen eli profiiliin joka lasketaan reunasummasta. Vaikka lajin reunasumma koostuisi vain yhdestä ainoasta esiintymästä, profiili olettaa että summa on jakautunut näytealoille niiden kokonaissummien perusteella. Harvinaisen lajin oletetaan siis esiintyvän niukkana joka ruudulla. χ 2 laskuissa taas jakajana on odotusprofiili eli pieni runsaus. Siinä ruudussa, missä laji todella esiintyy ero havaitun runsauden ja vähäisen odotusarvon välillä on suuri ja lisäksi jakajana on vähäinen odotusarvo. Jos tällaisen laji ordinointi onnistuu, se on kaukana origosta eli näyttää äärimmäiseltä. Toisaalta tällaisella lajilla ei välttämättä ole kovin suurta painoa ordinoinnissa: korrespondenssianalyysi on toki painotettu pääkomponenttianalyysi. Harvinaiset lajit ovat siis usein äärimmäisiä mutteivät välttämättä vaikuttavia Bar.lyc Bet.pub Hyl.spl Vac.myr Pti.cil Led.pal Dic.pol Pol.com Des.fle Cla.bot Ple.sch Dic.sp Nep.arc Pol.jun Dic.fus Cla.unc Cet.isl Cla.chl Poh.nut Pin.syl Cla.sp Emp.nig Vac.vit Pel.aph Cla.cor Cla.fim Cla.gra Cla.def Cla.cri Cla.coc Cet.eri Dip.mon Cla.ran Pol.pil Cla.arb Cla.ama Cal.vul Vac.uli Ich.eri Ste.sp Cla.cer Cla.phy Cla.ste Cet.niv Kuva 1.8: Lajit ja näytealat esitettynä samassa korrespondenssianalyysin biplotissa, tällä kertaa symmetrisesti skaalattuina Optimaalinen pisteytys Optimaalisessa pisteytyksessä kaikkia tietyllä näytealalla esiintyvät lajit ovat toistensa kaltaisia. Niiden ordinointipisteiden pitäisi olla mahdollisimman lähellä toisiaan ja myös paikan ordinointpisteitä. Tämän likeisyyden pitäisi myös olla painotettua: mitä runsaampi laji paikalla on, sitä tärkeämpää on, että sen ordinointipisteet ovat lähellä muita lajeja ja lähellä paikan ordinointipistettä. Samanaikaisesti vaaditaan myös, että kaikkien niiden paikkojen, joissa laji esiintyy, on oltava ordinointipisteiltään mahdollisimman likeisiä. Myös tämä vaatimus on painotettu: niiden paikkojen pisteet ovat tärkeämpiä, joissa laji on runsaimmillaan. Optimaalista pisteytystä haetaan varianssianalyysin kautta. Paitsi painotettu keskiarvo, kullekin paikalle voidaan laskea painotettu varianssi. Paikan sisäinen painotettu varianssi kuvaa paikan sisävaihtelua. Vastaavasti reunasummista laskettu painotettu varianssi kuvaa kaikkien paikkojen kokonaisvaihtelua. Näiden erotus kuvaa paikkojen välivaihtelua.

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on 13 Pistetulo Avaruuksissa R 2 ja R 3 on totuttu puhumaan vektorien pituuksista ja vektoreiden välisistä kulmista. Kuten tavallista, näiden käsitteiden yleistäminen korkeampiulotteisiin avaruuksiin ei onnistu

Lisätiedot

Diskriminanttianalyysi I

Diskriminanttianalyysi I Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi

Lisätiedot

9. Vektorit. 9.1 Skalaarit ja vektorit. 9.2 Vektorit tasossa

9. Vektorit. 9.1 Skalaarit ja vektorit. 9.2 Vektorit tasossa 9. Vektorit 9.1 Skalaarit ja vektorit Skalaari on koon tai määrän mitta. Tyypillinen esimerkki skalaarista on massa. Lukumäärä on toinen hyvä esimerkki skalaarista. Vektorilla on taas suuruus ja suunta.

Lisätiedot

Moniulotteisia todennäköisyysjakaumia

Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 4

Inversio-ongelmien laskennallinen peruskurssi Luento 4 Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa

Lisätiedot

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

MAB3 - Harjoitustehtävien ratkaisut:

MAB3 - Harjoitustehtävien ratkaisut: MAB - Harjoitustehtävien ratkaisut: Funktio. Piirretään koordinaatistoakselit ja sijoitetaan pisteet:. a) Funktioiden nollakohdat löydetään etsimällä kuvaajien ja - akselin leikkauspisteitä. Funktiolla

Lisätiedot

5.3 Suoran ja toisen asteen käyrän yhteiset pisteet

5.3 Suoran ja toisen asteen käyrän yhteiset pisteet .3 Suoran ja toisen asteen käyrän yhteiset pisteet Tämän asian taustana on ratkaista sellainen yhtälöpari, missä yhtälöistä toinen on ensiasteinen ja toinen toista astetta. Tällainen pari ratkeaa aina

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2

Lisätiedot

Lineaarialgebra ja matriisilaskenta I, HY Kurssikoe Ratkaisuehdotus. 1. (35 pistettä)

Lineaarialgebra ja matriisilaskenta I, HY Kurssikoe Ratkaisuehdotus. 1. (35 pistettä) Lineaarialgebra ja matriisilaskenta I, HY Kurssikoe 26.10.2017 Ratkaisuehdotus 1. (35 pistettä) (a) Seuraavat matriisit on saatu eräistä yhtälöryhmistä alkeisrivitoimituksilla. Kuinka monta ratkaisua yhtälöryhmällä

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016

Lisätiedot

MS-A0003/A0005 Matriisilaskenta Malliratkaisut 5 / vko 48

MS-A0003/A0005 Matriisilaskenta Malliratkaisut 5 / vko 48 MS-A3/A5 Matriisilaskenta Malliratkaisut 5 / vko 48 Tehtävä (L): a) Onko 4 3 sitä vastaava ominaisarvo? b) Onko λ = 3 matriisin matriisin 2 2 3 2 3 7 9 4 5 2 4 4 ominaisvektori? Jos on, mikä on ominaisarvo?

Lisätiedot

Koska ovat negatiiviset. Keskihajontoja ei pystytä laskemaan mutta pätee ¾.

Koska ovat negatiiviset. Keskihajontoja ei pystytä laskemaan mutta pätee ¾. 24.11.2006 1. Oletetaan, että kaksiulotteinen satunnaismuuttuja µ noudattaa kaksiulotteista normaalijakaumaa. Oletetaan lisäksi, että satunnaismuuttujan regressiofunktio satunnaismuuttujan suhteen on ݵ

Lisätiedot

Oppimistavoitematriisi

Oppimistavoitematriisi Oppimistavoitematriisi Lineaarialgebra ja matriisilaskenta I Arvosanaan 1 2 riittävät Arvosanaan 5 riittävät Yhtälöryhmät (YR) Osaan ratkaista ensimmäisen asteen yhtälöitä ja yhtälöpareja Osaan muokata

Lisätiedot

Lineaarikuvausten. Lineaarikuvaus. Lineaarikuvauksia. Ydin. Matriisin ydin. aiheita. Aiheet. Lineaarikuvaus. Lineaarikuvauksen matriisi

Lineaarikuvausten. Lineaarikuvaus. Lineaarikuvauksia. Ydin. Matriisin ydin. aiheita. Aiheet. Lineaarikuvaus. Lineaarikuvauksen matriisi Lineaarikuvaukset aiheita ten ten 1 Matematiikassa sana lineaarinen liitetään kahden lineaariavaruuden väliseen kuvaukseen. ten Määritelmä Olkoon (L, +, ) ja (M, ˆ+, ˆ ) reaalisia lineaariavaruuksia, ja

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 4 Jatkuvuus Jatkuvan funktion määritelmä Tarkastellaan funktiota f x) jossakin tietyssä pisteessä x 0. Tämä funktio on tässä pisteessä joko jatkuva tai epäjatkuva. Jatkuvuuden

Lisätiedot

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme? TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =

Lisätiedot

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45 MS-A0003/A0005 Matriisilaskenta Laskuharjoitus / vko 5 Tehtävä 1 (L): Hahmottele kompleksitasoon ne pisteet, jotka toteuttavat a) z 3 =, b) z + 3 i < 3, c) 1/z >. Yleisesti: ehto z = R, z C muodostaa kompleksitasoon

Lisätiedot

1 Rajoittamaton optimointi

1 Rajoittamaton optimointi Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y

Lisätiedot

Ratkaisuehdotukset LH 7 / vko 47

Ratkaisuehdotukset LH 7 / vko 47 MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [

Lisätiedot

A = a b B = c d. d e f. g h i determinantti on det(c) = a(ei fh) b(di fg) + c(dh eg). Matriisin determinanttia voi merkitä myös pystyviivojen avulla:

A = a b B = c d. d e f. g h i determinantti on det(c) = a(ei fh) b(di fg) + c(dh eg). Matriisin determinanttia voi merkitä myös pystyviivojen avulla: 11 Determinantti Neliömatriisille voidaan laskea luku, joka kertoo muun muassa, onko matriisi kääntyvä vai ei Tätä lukua kutsutaan matriisin determinantiksi Determinantilla on muitakin sovelluksia, mutta

Lisätiedot

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio Tilastollisen analyysin perusteet Luento 9: lineaarinen lineaarinen Sisältö lineaarinen lineaarinen lineaarinen Lineaarinen Oletetaan, että meillä on n kappaletta (x 1, y 1 ), (x 2, y 2 )..., (x n, y n

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35 Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen

Lisätiedot

Harjoitusten 5 vastaukset

Harjoitusten 5 vastaukset Harjoitusten 5 vastaukset 1. a) Regressiossa (1 ) selitettävänä on y jaselittäjinävakiojax matriisin muuttujat. Regressiossa (1*) selitettävänä on y:n poikkeamat keskiarvostaan ja selittäjinä X matriisin

Lisätiedot

Insinöörimatematiikka D

Insinöörimatematiikka D Insinöörimatematiikka D M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Matematiikan ja tilastotieteen laitos Turun yliopisto 2015 M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Luentokalvot

Lisätiedot

Harjoitus 9: Excel - Tilastollinen analyysi

Harjoitus 9: Excel - Tilastollinen analyysi Harjoitus 9: Excel - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen regressioanalyysiin

Lisätiedot

Regressioanalyysi. Kuusinen/Heliövaara 1

Regressioanalyysi. Kuusinen/Heliövaara 1 Regressioanalyysi Kuusinen/Heliövaara 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Oletetaan, että haluamme selittää jonkin selitettävän muuttujan havaittujen arvojen vaihtelun joidenkin

Lisätiedot

BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 4, Syksy 2016

BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 4, Syksy 2016 BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 4, Syksy 2016 1. Hahmottele karkeasti funktion f : R R 2 piirtämällä sen arvoja muutamilla eri muuttujan arvoilla kaksiulotteiseen koordinaatistoon

Lisätiedot

MAB3 - Harjoitustehtävien ratkaisut:

MAB3 - Harjoitustehtävien ratkaisut: MAB3 - Harjoitustehtävien ratkaisut: 1 Funktio 1.1 Piirretään koordinaatistoakselit ja sijoitetaan pisteet: 1 1. a) Funktioiden nollakohdat löydetään etsimällä kuvaajien ja - akselin leikkauspisteitä.

Lisätiedot

Näihin harjoitustehtäviin liittyvä teoria löytyy Adamsista: Ad6, Ad5, 4: 12.8, ; Ad3: 13.8,

Näihin harjoitustehtäviin liittyvä teoria löytyy Adamsista: Ad6, Ad5, 4: 12.8, ; Ad3: 13.8, TKK, Matematiikan laitos Gripenberg/Harhanen Mat-1.432 Matematiikan peruskurssi K2 Harjoitus 4, (A=alku-, L=loppuviikko, T= taulutehtävä, P= palautettava tehtävä, W= verkkotehtävä ) 12 16.2.2007, viikko

Lisätiedot

Vektoreiden virittämä aliavaruus

Vektoreiden virittämä aliavaruus Vektoreiden virittämä aliavaruus Määritelmä Oletetaan, että v 1, v 2,... v k R n. Näiden vektoreiden virittämä aliavaruus span( v 1, v 2,... v k ) tarkoittaa kyseisten vektoreiden kaikkien lineaarikombinaatioiden

Lisätiedot

Solmu 3/2001 Solmu 3/2001. Kevään 2001 ylioppilaskirjoitusten pitkän matematiikan kokeessa oli seuraava tehtävä:

Solmu 3/2001 Solmu 3/2001. Kevään 2001 ylioppilaskirjoitusten pitkän matematiikan kokeessa oli seuraava tehtävä: Frégier n lause Simo K. Kivelä Kevään 2001 ylioppilaskirjoitusten pitkän matematiikan kokeessa oli seuraava tehtävä: Suorakulmaisen kolmion kaikki kärjet sijaitsevat paraabelilla y = x 2 ; suoran kulman

Lisätiedot

Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0).

Esimerkki 19. Esimerkissä 16 miniminormiratkaisu on (ˆx 1, ˆx 2 ) = (1, 0). Esimerkki 9 Esimerkissä 6 miniminormiratkaisu on (ˆx, ˆx (, 0 Seuraavaksi näytetään, että miniminormiratkaisuun siirtyminen poistaa likimääräisongelman epäyksikäsitteisyyden (mutta lisääntyvän ratkaisun

Lisätiedot

763306A JOHDATUS SUHTEELLISUUSTEORIAAN 2 Ratkaisut 1 Kevät y' P. α φ

763306A JOHDATUS SUHTEELLISUUSTEORIAAN 2 Ratkaisut 1 Kevät y' P. α φ 76336A JOHDATUS SUHTEELLISUUSTEORIAAN 2 Ratkaisut 1 Kevät 217 1. Koordinaatiston muunnosmatriisi (a) y' P r α φ ' Tarkastellaan, mitä annettu muunnos = cos φ + y sin φ, y = sin φ + y cos φ, (1a) (1b) tekee

Lisätiedot

Ortogonaalisen kannan etsiminen

Ortogonaalisen kannan etsiminen Ortogonaalisen kannan etsiminen Lause 94 (Gramin-Schmidtin menetelmä) Oletetaan, että B = ( v 1,..., v n ) on sisätuloavaruuden V kanta. Merkitään V k = span( v 1,..., v k ) ja w 1 = v 1 w 2 = v 2 v 2,

Lisätiedot

Oppimistavoitematriisi

Oppimistavoitematriisi Oppimistavoitematriisi Lineaarialgebra ja matriisilaskenta I Esitiedot Arvosanaan 1 2 riittävät Arvosanaan 3 4 riittävät Arvosanaan 5 riittävät Yhtälöryhmät (YR) Osaan ratkaista ensimmäisen asteen yhtälöitä

Lisätiedot

Ominaisvektoreiden lineaarinen riippumattomuus

Ominaisvektoreiden lineaarinen riippumattomuus Ominaisvektoreiden lineaarinen riippumattomuus Lause 17 Oletetaan, että A on n n -matriisi. Oletetaan, että λ 1,..., λ m ovat matriisin A eri ominaisarvoja, ja oletetaan, että v 1,..., v m ovat jotkin

Lisätiedot

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Regressioanalyysi. Vilkkumaa / Kuusinen 1 Regressioanalyysi Vilkkumaa / Kuusinen 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Halutaan selittää selitettävän muuttujan havaittujen arvojen vaihtelua selittävien muuttujien havaittujen

Lisätiedot

Osoita, että kaikki paraabelit ovat yhdenmuotoisia etsimällä skaalauskuvaus, joka vie paraabelin y = ax 2 paraabelille y = bx 2. VASTAUS: , b = 2 2

Osoita, että kaikki paraabelit ovat yhdenmuotoisia etsimällä skaalauskuvaus, joka vie paraabelin y = ax 2 paraabelille y = bx 2. VASTAUS: , b = 2 2 8. Geometriset kuvaukset 8.1. Euklidiset kuvaukset 344. Esitä muodossa x = Ax + b se avaruuden E 3 peilauskuvaus, jonka symmetriatasona on x 1 3x + x 3 = 6. A = 1 3 6 6 3, b = 1 1 18. 3 6 6 345. Tason

Lisätiedot

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos: 8 Kanta Tässä luvussa tarkastellaan aliavaruuden virittäjävektoreita, jotka muodostavat lineaarisesti riippumattoman jonon. Merkintöjen helpottamiseksi oletetaan luvussa koko ajan, että W on vektoreiden

Lisätiedot

Järvi 1 Valkjärvi. Järvi 2 Sysijärvi

Järvi 1 Valkjärvi. Järvi 2 Sysijärvi Tilastotiedettä Tilastotieteessä kerätään tietoja yksittäisistä asioista, ominaisuuksista tai tapahtumista. Näin saatua tietoa käsitellään tilastotieteen menetelmin ja saatuja tuloksia voidaan käyttää

Lisätiedot

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka

Lisätiedot

1 Kannat ja kannanvaihto

1 Kannat ja kannanvaihto 1 Kannat ja kannanvaihto 1.1 Koordinaattivektori Oletetaan, että V on K-vektoriavaruus, jolla on kanta S = (v 1, v 2,..., v n ). Avaruuden V vektori v voidaan kirjoittaa kannan vektorien lineaarikombinaationa:

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28 Numeeriset menetelmät TIEA381 Luento 5 Kirsi Valjus Jyväskylän yliopisto Luento 5 () Numeeriset menetelmät 3.4.2013 1 / 28 Luennon 5 sisältö Luku 4: Ominaisarvotehtävistä Potenssiinkorotusmenetelmä QR-menetelmä

Lisätiedot

Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio:

Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio: Inversio-ongelmista Craig, Brown: Inverse problems in astronomy, Adam Hilger 1986. Havaitaan oppositiossa olevaa asteroidia. Pyörimisestä huolimatta sen kirkkaus ei muutu. Projisoitu pinta-ala pysyy ilmeisesti

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Inversio-ongelmien laskennallinen peruskurssi Luento 2 Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt QR-hajotelma ja pienimmän neliösumman menetelmä Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto PNS-ongelma PNS-ongelma

Lisätiedot

Otannasta ja mittaamisesta

Otannasta ja mittaamisesta Otannasta ja mittaamisesta Tilastotiede käytännön tutkimuksessa - kurssi, kesä 2001 Reijo Sund Aineistot Kvantitatiivisen tutkimuksen aineistoksi kelpaa periaatteessa kaikki havaintoihin perustuva informaatio,

Lisätiedot

Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.

Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0. Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +

Lisätiedot

Kolmannen ja neljännen asteen yhtälöistä

Kolmannen ja neljännen asteen yhtälöistä Solmu /019 7 Kolmannen neljännen asteen yhtälöistä Esa V. Vesalainen Matematik och statistik, Åbo Akademi Tämän pienen artikkelin tarkoituksena on satuilla hieman algebrallisista yhtälöistä. Erityisesti

Lisätiedot

c) Määritä paraabelin yhtälö, kun tiedetään, että sen huippu on y-akselilla korkeudella 6 ja sen nollakohdat ovat x-akselin kohdissa x=-2 ja x=2.

c) Määritä paraabelin yhtälö, kun tiedetään, että sen huippu on y-akselilla korkeudella 6 ja sen nollakohdat ovat x-akselin kohdissa x=-2 ja x=2. MAA4 Koe 5.5.01 Jussi Tyni Kaikkiin tehtäviin ratkaisujen välivaiheet näkyviin! Ota kokeesta poistuessasi tämä paperi mukaasi! Tee konseptiin pisteytysruudukko! Muista kirjata nimesi ja ryhmäsi. Valitse

Lisätiedot

Kompleksiluvut., 15. kesäkuuta /57

Kompleksiluvut., 15. kesäkuuta /57 Kompleksiluvut, 15. kesäkuuta 2017 1/57 Miksi kompleksilukuja? Reaaliluvut lukusuoran pisteet: Tiedetään, että 7 1 0 x 2 = 0 x = 0 1 7 x 2 = 1 x = 1 x = 1 x 2 = 7 x = 7 x = 7 x 2 = 1 ei ratkaisua reaalilukujen

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt ja pienimmän neliösumman menetelmä Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi QR ja PNS PNS-ongelma

Lisätiedot

Kanta ja Kannan-vaihto

Kanta ja Kannan-vaihto ja Kannan-vaihto 1 Olkoon L vektoriavaruus. Äärellinen joukko L:n vektoreita V = { v 1, v 2,..., v n } on kanta, jos (1) Jokainen L:n vektori voidaan lausua v-vektoreiden lineaarikombinaationa. (Ts. Span(V

Lisätiedot

805306A Johdatus monimuuttujamenetelmiin, 5 op

805306A Johdatus monimuuttujamenetelmiin, 5 op monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista

Lisätiedot

MS-A0003/A0005 Matriisilaskenta Malliratkaisut 4 / vko 47

MS-A0003/A0005 Matriisilaskenta Malliratkaisut 4 / vko 47 MS-A3/A5 Matriisilaskenta Malliratkaisut 4 / vko 47 Tehtävä 1 (L): Oletetaan, että AB = AC, kun B ja C ovat m n-matriiseja. a) Näytä, että jos A on kääntyvä, niin B = C. b) Seuraako yhtälöstä AB = AC yhtälö

Lisätiedot

802320A LINEAARIALGEBRA OSA II

802320A LINEAARIALGEBRA OSA II 802320A LINEAARIALGEBRA OSA II Tapani Matala-aho MATEMATIIKKA/LUTK/OULUN YLIOPISTO SYKSY 2016 LINEAARIALGEBRA 1 / 64 Sisätuloavaruus Määritelmä 1 Olkoon V reaalinen vektoriavaruus. Kuvaus on reaalinen

Lisätiedot

Matematiikan tukikurssi, kurssikerta 3

Matematiikan tukikurssi, kurssikerta 3 Matematiikan tukikurssi, kurssikerta 3 1 Epäyhtälöitä Aivan aluksi lienee syytä esittää luvun itseisarvon määritelmä: { x kun x 0 x = x kun x < 0 Siispä esimerkiksi 10 = 10 ja 10 = 10. Seuraavaksi listaus

Lisätiedot

Aki Taanila YHDEN SELITTÄJÄN REGRESSIO

Aki Taanila YHDEN SELITTÄJÄN REGRESSIO Aki Taanila YHDEN SELITTÄJÄN REGRESSIO 26.4.2011 SISÄLLYS JOHDANTO... 1 LINEAARINEN MALLI... 1 Selityskerroin... 3 Excelin funktioita... 4 EKSPONENTIAALINEN MALLI... 4 MALLIN KÄYTTÄMINEN ENNUSTAMISEEN...

Lisätiedot

Ortogonaaliset matriisit, määritelmä 1

Ortogonaaliset matriisit, määritelmä 1 , määritelmä 1 Määritelmä (a). Neliömatriisi Q on ortogonaalinen, jos Q T Q = I. Määritelmästä voidaan antaa samaa tarkoittavat, mutta erilaiselta näyttävät muodot: Määritelmä (b). n n neliömatriisi Q,

Lisätiedot

Jatkuvat satunnaismuuttujat

Jatkuvat satunnaismuuttujat Jatkuvat satunnaismuuttujat Satunnaismuuttuja on jatkuva jos se voi ainakin periaatteessa saada kaikkia mahdollisia reaalilukuarvoja ainakin tietyltä väliltä. Täytyy ymmärtää, että tällä ei ole mitään

Lisätiedot

KJR-C1001 Statiikka ja dynamiikka. Luento Susanna Hurme

KJR-C1001 Statiikka ja dynamiikka. Luento Susanna Hurme KJR-C1001 Statiikka ja dynamiikka Luento 24.2.2016 Susanna Hurme Päivän aihe: Voiman momentin käsite (Kirjan luvut 4.1-4.6) Mikä on voiman momentti? Määritetään momentti skalaari- ja vektorimuodossa Opitaan

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille

Lisätiedot

1 Sisätulo- ja normiavaruudet

1 Sisätulo- ja normiavaruudet 1 Sisätulo- ja normiavaruudet 1.1 Sisätuloavaruus Määritelmä 1. Olkoon V reaalinen vektoriavaruus. Kuvaus : V V R on reaalinen sisätulo eli pistetulo, jos (a) v w = w v (symmetrisyys); (b) v + u w = v

Lisätiedot

Tekijä Pitkä matematiikka

Tekijä Pitkä matematiikka K1 Tekijä Pitkä matematiikka 5 7..017 a) 1 1 + 1 = 4 + 1 = 3 = 3 4 4 4 4 4 4 b) 1 1 1 = 4 6 3 = 5 = 5 3 4 1 1 1 1 1 K a) Koska 3 = 9 < 10, niin 3 10 < 0. 3 10 = (3 10 ) = 10 3 b) Koska π 3,14, niin π

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma

Lisätiedot

Lineaarialgebra ja matriisilaskenta I

Lineaarialgebra ja matriisilaskenta I Lineaarialgebra ja matriisilaskenta I 13.6.2013 HY / Avoin yliopisto Jokke Häsä, 1/12 Käytännön asioita Kesäkuun tentti: ke 19.6. klo 17-20, päärakennuksen sali 1. Anna palautetta kurssisivulle ilmestyvällä

Lisätiedot

Tampereen yliopisto Tietokonegrafiikka 2013 Tietojenkäsittelytiede Harjoitus

Tampereen yliopisto Tietokonegrafiikka 2013 Tietojenkäsittelytiede Harjoitus Tampereen yliopisto Tietokonegrafiikka 2013 Tietojenkäsittelytiede Harjoitus 2 7.2.2013 1. Matematiikan lukiokurssissa on esitetty, että ylöspäin aukeavan paraabelin f(x) = ax 2 +bx+c,a > 0,minimikohtasaadaan,kunf

Lisätiedot

Harjoitus 7: NCSS - Tilastollinen analyysi

Harjoitus 7: NCSS - Tilastollinen analyysi Harjoitus 7: NCSS - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tilastollinen testaus Testaukseen

Lisätiedot

Matemaattisen analyysin tukikurssi

Matemaattisen analyysin tukikurssi Matemaattisen analyysin tukikurssi 12. Kurssikerta Petrus Mikkola 5.12.2016 Tämän kerran asiat Sini-ja kosifunktio Yksikköympyrä Tangentti- ja kotangenttifunktio Trigonometristen funktioiden ominaisuuksia

Lisätiedot

z 1+i (a) f (z) = 3z 4 5z 3 + 2z (b) f (z) = z 4z + 1 f (z) = 12z 3 15z 2 + 2

z 1+i (a) f (z) = 3z 4 5z 3 + 2z (b) f (z) = z 4z + 1 f (z) = 12z 3 15z 2 + 2 BM20A5700 - Integraauunnokset Harjoitus 2 1. Laske seuraavat raja-arvot. -kohta ratkeaa, kun pistät sekä yläkerran että alakerran muotoon (z z 1 )(z z 2 ), missä siis z 1 ja z 2 ovat näiden lausekkeiden

Lisätiedot

Insinöörimatematiikka D, laskuharjoituksien esimerkkiratkaisut

Insinöörimatematiikka D, laskuharjoituksien esimerkkiratkaisut Insinöörimatematiikka D, 29.3.2016 4. laskuharjoituksien esimerkkiratkaisut 1. Olkoon u (4,0,4,2) ja v ( 1,1,3,5) vektoreita vektoriavaruudessa R 4. Annetun sisätulon (x,y) indusoima normi on x (x,x) ja

Lisätiedot

Laskennallinen data-analyysi II

Laskennallinen data-analyysi II Laskennallinen data-analyysi II Saara Hyvönen, Saara.Hyvonen@cs.helsinki.fi Kevät 2007 Ulottuvuuksien vähentäminen, SVD, PCA Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto visualisointi

Lisätiedot

Ristitulolle saadaan toinen muistisääntö determinantin avulla. Vektoreiden v ja w ristitulo saadaan laskemalla determinantti

Ristitulolle saadaan toinen muistisääntö determinantin avulla. Vektoreiden v ja w ristitulo saadaan laskemalla determinantti 14 Ristitulo Avaruuden R 3 vektoreille voidaan määritellä pistetulon lisäksi niin kutsuttu ristitulo. Pistetulosta poiketen ristitulon tulos ei ole reaaliluku vaan avaruuden R 3 vektori. Ristitulosta on

Lisätiedot

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Tilastollinen testaus. Vilkkumaa / Kuusinen 1 Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 2 Lisää osamurtoja Tutkitaan jälleen rationaalifunktion P(x)/Q(x) integrointia. Aiemmin käsittelimme tapauksen, jossa nimittäjä voidaan esittää muodossa Q(x) = a(x x

Lisätiedot

Kohdeyleisö: toisen vuoden teekkari

Kohdeyleisö: toisen vuoden teekkari Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y

Lisätiedot

Paikannuksen matematiikka MAT

Paikannuksen matematiikka MAT TA M P E R E U N I V E R S I T Y O F T E C H N O L O G Y M a t h e m a t i c s Paikannuksen matematiikka MAT-45800 4..008. p.1/4 Käytännön järjestelyt Kotisivu: http://math.tut.fi/courses/mat-45800/ Luennot:

Lisätiedot

TA7, Ekonometrian johdantokurssi HARJOITUS 4 1 RATKAISUEHDOTUKSET

TA7, Ekonometrian johdantokurssi HARJOITUS 4 1 RATKAISUEHDOTUKSET TA7, Ekonometrian johdantokurssi HARJOITUS 4 1 RATKAISUEHDOTUKSET 16..015 1. a Poliisivoimien suuruuden lisäksi piirikuntien rikostilastoihin vaikuttaa monet muutkin tekijät. Esimerkiksi asukkaiden keskimääräinen

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 6 1 Korkolaskentaa Oletetaan, että korkoaste on r Jos esimerkiksi r = 0, 02, niin korko on 2 prosenttia Tätä korkoastetta käytettään diskonttaamaan tulevia tuloja ja

Lisätiedot

LIITE 1 VIRHEEN ARVIOINNISTA

LIITE 1 VIRHEEN ARVIOINNISTA 1 LIITE 1 VIRHEEN ARVIOINNISTA Mihin tarvitset virheen arviointia? Mittaustulokset ovat aina todellisten luonnonvakioiden ja tutkimuskohdetta kuvaavien suureiden likiarvoja, vaikka mittauslaite olisi miten

Lisätiedot

A-osa. Ratkaise kaikki tämän osan tehtävät. Tehtävät arvostellaan pistein 0-6. Taulukkokirjaa saa käyttää apuna, laskinta ei.

A-osa. Ratkaise kaikki tämän osan tehtävät. Tehtävät arvostellaan pistein 0-6. Taulukkokirjaa saa käyttää apuna, laskinta ei. PITKÄ MATEMATIIKKA PRELIMINÄÄRIKOE 7..07 NIMI: A-osa. Ratkaise kaikki tämän osan tehtävät. Tehtävät arvostellaan pistein 0-. Taulukkokirjaa saa käyttää apuna, laskinta ei.. Valitse oikea vaihtoehto ja

Lisätiedot

Ominaisarvoon 4 liittyvät ominaisvektorit ovat yhtälön Ax = 4x eli yhtälöryhmän x 1 + 2x 2 + x 3 = 4x 1 3x 2 + x 3 = 4x 2 5x 2 x 3 = 4x 3.

Ominaisarvoon 4 liittyvät ominaisvektorit ovat yhtälön Ax = 4x eli yhtälöryhmän x 1 + 2x 2 + x 3 = 4x 1 3x 2 + x 3 = 4x 2 5x 2 x 3 = 4x 3. Matematiikan ja tilastotieteen laitos Lineaarialgebra ja matriisilaskenta II Ylimääräinen harjoitus 6 Ratkaisut A:n karakteristinen funktio p A on λ p A (λ) det(a λi ) 0 λ ( λ) 0 5 λ λ 5 λ ( λ) (( λ) (

Lisätiedot

Kvantitatiiviset menetelmät

Kvantitatiiviset menetelmät Kvantitatiiviset menetelmät HUOM! Tentti pidetään tiistaina.. klo 6-8 Vuorikadulla V0 ls Muuttujien muunnokset Usein empiirisen analyysin yhteydessä tulee tarve muuttaa aineiston muuttujia Esim. syntymävuoden

Lisätiedot

Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt

Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt TKK (c) Ilkka Mellin (005) Koesuunnittelu TKK (c) Ilkka Mellin (005) : Mitä opimme? Tarkastelemme tässä luvussa seuraavaa kysymystä: Miten varianssianalyysissa tutkitaan yhden tekijän vaikutusta vastemuuttujaan,

Lisätiedot

Tämän luvun tarkoituksena on antaa perustaidot kompleksiluvuilla laskemiseen sekä niiden geometriseen tulkintaan. { (a, b) a, b œ R }

Tämän luvun tarkoituksena on antaa perustaidot kompleksiluvuilla laskemiseen sekä niiden geometriseen tulkintaan. { (a, b) a, b œ R } 7 Kompleksiluvut Tämän luvun tarkoituksena on antaa perustaidot kompleksiluvuilla laskemiseen sekä niiden geometriseen tulkintaan. 7.1 Kompleksilukujen määritelmä Määritelmä 7.1.1. Kompleksilukujen joukko

Lisätiedot

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen Yhden faktorin malli: n kpl sijoituskohteita, joiden tuotot ovat r i, i =, 2,..., n. Olkoon f satunnaismuuttuja ja oletetaan, että tuotot voidaan selittää yhtälön r i = a i + b i f + e i avulla, missä

Lisätiedot

MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ

MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ 24.9.2019 HYVÄN VASTAUKSEN PIIRTEITÄ Alustavat hyvän vastauksen piirteet on suuntaa-antava kuvaus kokeen tehtäviin odotetuista vastauksista ja tarkoitettu ensisijaisesti

Lisätiedot

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi. Viikko 3. Kaksiulotteiset satunnaismuuttujat

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi. Viikko 3. Kaksiulotteiset satunnaismuuttujat .9. Kaksiulotteiset satunnaismuuttujat MS-A Todennäköisslaskennan ja tilastotieteen peruskurssi Viikko Moniulotteiset satunnaismuuttujat sekä niiden jakaumat ja tunnusluvut; Moniulotteisia jakaumia Usein

Lisätiedot

Kaksirivisen matriisin determinantille käytämme myös merkintää. a 11 a 12 a 21 a 22. = a 11a 22 a 12 a 21. (5.1) kaksirivine

Kaksirivisen matriisin determinantille käytämme myös merkintää. a 11 a 12 a 21 a 22. = a 11a 22 a 12 a 21. (5.1) kaksirivine Vaasan yliopiston julkaisuja 97 5 DETERMINANTIT Ch:Determ Sec:DetDef 5.1 Determinantti Tämä kappale jakautuu kolmeen alakappaleeseen. Ensimmäisessä alakappaleessa määrittelemme kaksi- ja kolmiriviset determinantit.

Lisätiedot

Matematiikka B2 - Avoin yliopisto

Matematiikka B2 - Avoin yliopisto 6. elokuuta 2012 Opetusjärjestelyt Luennot 9:15-11:30 Harjoitukset 12:30-15:00 Tentti Kurssin sisältö (1/2) Matriisit Laskutoimitukset Lineaariset yhtälöryhmät Gaussin eliminointi Lineaarinen riippumattomuus

Lisätiedot

Ominaisarvo-hajoitelma ja diagonalisointi

Ominaisarvo-hajoitelma ja diagonalisointi Ominaisarvo-hajoitelma ja a 1 Lause 1: Jos reaalisella n n matriisilla A on n eri suurta reaalista ominaisarvoa λ 1,λ 2,...,λ n, λ i λ j, kun i j, niin vastaavat ominaisvektorit x 1, x 2,..., x n muodostavat

Lisätiedot

Tekijä Pitkä matematiikka Pisteen (x, y) etäisyys pisteestä (0, 2) on ( x 0) Pisteen (x, y) etäisyys x-akselista, eli suorasta y = 0 on y.

Tekijä Pitkä matematiikka Pisteen (x, y) etäisyys pisteestä (0, 2) on ( x 0) Pisteen (x, y) etäisyys x-akselista, eli suorasta y = 0 on y. Tekijä Pitkä matematiikka 5 7..017 37 Pisteen (x, y) etäisyys pisteestä (0, ) on ( x 0) + ( y ). Pisteen (x, y) etäisyys x-akselista, eli suorasta y = 0 on y. Merkitään etäisyydet yhtä suuriksi ja ratkaistaan

Lisätiedot

Kuvaus. Määritelmä. LM2, Kesä /160

Kuvaus. Määritelmä. LM2, Kesä /160 Kuvaus Määritelmä Oletetaan, että X ja Y ovat joukkoja. Kuvaus eli funktio joukosta X joukkoon Y on sääntö, joka liittää jokaiseen joukon X alkioon täsmälleen yhden alkion, joka kuuluu joukkoon Y. Merkintä

Lisätiedot

2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio

2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio x = x 2 = 5/2 x 3 = 2 eli Ratkaisu on siis x = (x x 2 x 3 ) = ( 5/2 2) (Tarkista sijoittamalla!) 5/2 2 Tämä piste on alkuperäisten tasojen ainoa leikkauspiste Se on myös piste/vektori jonka matriisi A

Lisätiedot

Matriisit ovat matlabin perustietotyyppejä. Yksinkertaisimmillaan voimme esitellä ja tallentaa 1x1 vektorin seuraavasti: >> a = 9.81 a = 9.

Matriisit ovat matlabin perustietotyyppejä. Yksinkertaisimmillaan voimme esitellä ja tallentaa 1x1 vektorin seuraavasti: >> a = 9.81 a = 9. Python linkit: Python tutoriaali: http://docs.python.org/2/tutorial/ Numpy&Scipy ohjeet: http://docs.scipy.org/doc/ Matlabin alkeet (Pääasiassa Deni Seitzin tekstiä) Matriisit ovat matlabin perustietotyyppejä.

Lisätiedot

Lineaarialgebra II, MATH.1240 Matti laaksonen, Lassi Lilleberg

Lineaarialgebra II, MATH.1240 Matti laaksonen, Lassi Lilleberg Vaasan yliopisto, syksy 218 Lineaarialgebra II, MATH124 Matti laaksonen, Lassi Lilleberg Tentti T1, 284218 Ratkaise 4 tehtävää Kokeessa saa käyttää laskinta (myös graafista ja CAS-laskinta), mutta ei taulukkokirjaa

Lisätiedot

LIITE 1 VIRHEEN ARVIOINNISTA

LIITE 1 VIRHEEN ARVIOINNISTA Oulun yliopisto Fysiikan opetuslaboratorio Fysiikan laboratoriotyöt 1 1 LIITE 1 VIRHEEN RVIOINNIST Mihin tarvitset virheen arviointia? Mittaustuloksiin sisältyy aina virhettä, vaikka mittauslaite olisi

Lisätiedot