PLS-REGRESSIO KEMOMETRIAN KALIBROINTIONGELMASSA

Koko: px
Aloita esitys sivulta:

Download "PLS-REGRESSIO KEMOMETRIAN KALIBROINTIONGELMASSA"

Transkriptio

1 AB Mat-.08 Sovelletun matematiikan erikoistyöt PLS-REGRESSIO KEMOMETRIAN KALIBROINTIONGELMASSA Teppo-Heikki Saari, 58096R 9. helmikuuta 008 TEKNILLINEN KORKEAKOULU Teknillisen fysiikan ja matematiikan osasto Systeemianalyysin laboratorio

2 Sisältö Johdanto. Yhden muuttujan kalibrointi Usean muuttujan kalibrointi Klassinen suora ja epäsuora kalibrointi Käänteinen kalibrointi Kalibrointimenetelmistä 7. Pääkomponenttianalyysi ja -regressio Yleistä Datan esikäsittely Pääkomponenttien määrääminen Pääkomponenttiregressio (PCR) Pääkomponenttimenetelmän edut kalibroinnissa Pääkomponenttimenetelmän haittoja Osittainen pienimmän neliösumman menetelmä (PLS) Yleistä Datan esikäsittely PLS-regressiomalli Osittaisen pienimmän neliösumman regressiomallin tulkinta Geometrinen tulkinta PLS-regressioalgoritmi Mallin validointi Puuttuvat havainnot Osittaisen pienimmän neliösumman menetelmän haittoja ja etuja PLS:n yhteydet muihin monimuuttujamenetelmiin... Sovellus bensiinin oktaaniluvun määritykseen 4. Data Tulokset

3 4 Pohdinnat 4 Kirjallisuutta 5

4 Luku Johdanto Kemometria on tieteenala, jonka tutkimuskohteena on tilastollisten ja matemaattisten metodien, sekä myös metodien, joiden pohjana on matemaattinen logiikka, soveltaminen kemiaan. [4] On myös väitetty, että oikeanlaisen analyyttisen kemian täytyisi sisältää myös kemometrinen lähestymistapa, ja että näin tekemällä saavutetaan huomattavia etuja. [] Kemometria on tieteenalana ollut vahvassa kasvussa kolmisenkymmentä vuotta, ja eräs sen tärkeimpiä ongelmia on kalibrointi. Kalibrointi viittaa prosessiin, jossa määritetään suhteet mittausinstrumentin ulostulojen/vasteiden ja konsentraatioiden välille. Kalibraatio yleisesti viittaa myös usein mittainstrumentin ulostulon tai indikaattorin säätämiseen siten, että indikaattori vastaa tiettyä mittastandardia tietyllä tarkkuudella. [0] Kalibrointia tarvitaan silloin kun työläs tai kallis mutta tarkka mittaus halutaan korvata halvalla ja nopealla mutta epäsuoralla tai vähemmän tarkalla mittauksella. [9] Kemometrisestä kalibroinnista voidaan erotella monenlaisia osa-alueita: kohinan vähentäminen mittauksissa, häiriötekijöiden käsittely, eksploratorinen datan käsittely sekä mahdollisten poikkeavien havaintojen minimointi. Lisäksi myös koesuunnittelulla on erittäin suuri painoarvo. [0, ] Tämän työn tarkoituksena on tarkastella kemometrian kalibrointiongelmaa sekä sen erilaisia ratkaisuja sovellettujen regressiomallien avulla. Ensimmäisessä kappaleessa tarkastellaan yksi- ja moniulotteista kemometrian kalibrointiongelmaa, toisessa kappaleessa tutustutaan tarkemmin yleisimpiin kalibrointimenetelmiin, kolmannessa kappaleessa sovelletaan pääkomponenttiregressiota sekä PLS-regressiota bensiinin oktaaniluvun määritykseen. Viimeisessä kappaleessa on hieman pohdintaa aiheeseen liittyen.

5 . Yhden muuttujan kalibrointi Kalibrointi voidaan suorittaa sekä yhdelle että monelle muuttujalle. Yhden muuttujan kalibroinnissa datasta valikoituu kaikkein käyttökelpoisin muuttuja, joka kuvaa datan vaihtelua parhaiten. Monissa kemiallisissa tutkimuksissa halutaan selvittää yhden tai useamman ainesosan konsentraatiot mittaamalla systeemin ominaisuuksia. Tässä voidaan käyttää hyväksi Beer-Lambertin lakia elektromagneettiselle säteilylle, joka antaa yhteyden absorboituneen säteilyn aallonpituuden ja konsentraation välille: I(λ) I 0 (λ) = e ɛ λcl (.) jossa I(λ) on valon intensiteetti aallonpituudella λ, joka läpäisee näytteen, jonka paksuus on l. I 0 (λ) on tulevan valon intensiteetti aallonpituudella λ, ɛ λ on moolinen häviämiskerroin (molar extinction coefficient), eli absoptiivisuus moolia kohden, ja c on aineen konsentraatio. Systeemin kalibrointi tapahtuu mittaamalla sarja näytteitä valon absorptiosta kun aineen konsentraatio on tunnettu: [ ] I0 (λ) log = α λ = ɛcl (.) I(λ) missä α on absorption määrä tietyllä aallonpituudella. [] Jos oletetaan, että mittausvirheet ovat odotusarvoltaan nolla ja korreloimattomia, voidaan mitattuihin arvoihin sovittaa lineaarinen funktio tavallisen pienimmän neliösumman menetelmän (OLS) avulla. Mallin osat ovat tällöin [6] ˆ Malli: y i = B + Ax i + e yi = E(y i ) + e yi (.) ˆ Estimaatti: ˆ Residuaali: ŷ i = ˆB + Âx i (.4) d yi = y i ŷ i = y i ˆB Âx i (.5) jossa E(y i ) on y i :n odotusarvo. Yleinen neliösummakriteeri ilmaistaan neliövirhesummana m m SSD = [(y i ŷ i )/σ i ] = (d yi /σ i ) (.6) i= jossa σ i on keskihajonta havaintopisteelle i ja m on kalibrointimittausten määrä. Tehtävänä on siis minimoida neliövirhesummaa.6. Kriteeri muuttuu mikäli jokin seuraavista ehdoista täyttyy: [6] i=

6 . Virheet esiintyvät vain mitatuissa arvoissa y: Aσ x σ y (.7) ja lisäksi jos virheet σ y ovat vakioita useissa kalibrointipisteissä (homoskedastisuus): σ y = σ y =... = σ yh = σ y (.8) tai ilmaistuna näiden estimaateilla, jolloin täytyy ottaa huomioon virheen tilastollinen riski α s y = s y =... = s yn = s y (.9) Mikäli virheet ovat homoskedastisia ja x:n virheet voidaan jättää huomiotta, saadaan pienimmän neliösumman minimoitavaksi kriteeriksi m SSD = d yi (.0) i=. Mikäli mittausvirheet σ y vaihtelevat (σ x edelleen pieni verrattuna mittausvirheisiin), täytyy olettaa heteroskedastisuus, ja minimoitava kriteeri on muotoa.6.. Yleisessä tapauksessa molemmat muuttujat sisältävät virhettä, ja tällöin yhtälö.7 ei päde, virhe on muotoa σ i = σ yi + A σ xi (.) jolloin summa d x+y täytyy minimoida ortogonaalisesti regressiosuoran suhteen, eikä koordinaattiakselin suuntaisesti. Yhtälön.7 mukaan virheet mittauksissa ovat häviävän pieniä ja konsentraatiot ovat täten todellisia. Tämän ehdon täyttyessä kalibrointifunktioksi tulee y = B x + A x x + e y (.) jonka parametrit A x ja B x saadaan estimoitua normaalisella pienimmän neliösumman algoritmilla homoskedastisessa tapauksessa:  x = Q xy /Q xx (.) ˆB x = ( y  x x ) /m (.4) Q xx = j Q yy = j Q xy = j (x j x) (.5) (y j ȳ) (.6) (x j x) (y j ȳ) (.7)

7 Korrelaatiokertoimella yllämainitussa regressiossa ei ole merkitystä, sillä arvot x eivät ole satunnaismuuttujia kalibroinnissa (x:n virhe on merkityksetön). Koska yhden muuttujan kalibrointi suoritetaan yhden muuttujan lineaarisella regressiolla, datan tarvitsee täyttää joitakin oletuksia, jotka ovat [] ˆ Selektiivisyys: yhden muuttujan kalibraatiomalli voi tarjota tarkkoja tuloksia vain silloin, kun mitattuun signaaliin ei vaikuta mikään muu lähde. Toisin sanoen vain tutkimuksen kohteena olevan analyytin tulisi vaikuttaa mittaustuloksiin. Yhden muuttujan signaalista on vaikea tarkistaa ovatko tulokset oikeita, ja tulosten oikeellisuus jää uskonvaraiseksi. ˆ Lineaarisuus: analyytin konsentraation ja signaalin välillä täytyy olla lineaarinen riippuvuus. Tämä on selvää kun käytetään lineaarisia menetelmiä.. Usean muuttujan kalibrointi.. Klassinen suora ja epäsuora kalibrointi Kun näytteessä on enemmän kuin yhtä ainetta, ongelma tulee vaikeammaksi sillä systeemissä useat eri aineet saattavat absorboida samalla aallonpituudella. Tietyllä aallonpituudella useiden eri aineiden seoksen absorptio kiinnitetyn matkan l yli voidaan tulkita yksittäisten ainesosien absorptioiden painotettuna summana, kun useaa absorboivaa ainesosaa mitataan m eri taajuudella: p y j (λ i ) = ɛ (λ i )c j l + ɛ(λ i )c j l ɛ p (λ i )c pj l = ɛ k (λ i )c kj l (.8) k= jossa i on indeksi aallonpituuksille,..., m, j on indeksi näytteille,.., j ja komponenttien määrä, joka siis tulee määrittää ongelmassa, on p. Yhtälö.8 saadaan kirjoitettua matriisimuotoon: Y = XA (.9) jossa Y on n m-matriisi, joka sisältää riippuvat muuttujat absorptiot m eri aallonpituudella tai vasteet m eri sensorille; X on n p-matriisi, joka sisältää riippumattomat muuttujat konsentraatiot n eri ainesosalle; ja A on p m-matriisi, joka sisältää kalibrointikertoimet (nk. herkkyysmatriisi). 4

8 n on kalibrointistandardien lukumäärä (seokset), joka on sama kuin mittausten lukumäärä. [7] Klassista kalibrointia voidaan käyttää vain kun kaikki ainesosat, jotka vaikuttavat spekrin muotoon ovat tunnettuja. Lisäksi voimassa on rajoite, joka kieltää ainesosien reaktiot toisten ainesosien tai analyyttien välillä, sekä näiden vaikutukset (esim. lämpötilanmuutokset). Konsentraatioiden estimaatit saadaan pienimmän neliösumman menetelmällä: ˆX = YA +, missä A + on yleistetty Moore-Penrosen m p- pseudoinverssimatriisi A + = (A T A) A T (.0) Mikäli puhtaan ainesosan spektriä ei voida mitata suoraan, kalibraatiodata voidaan keskittää (ts. poistaa keskiarvot: y i ȳ, x i x). Vaikka puhtaan ainesosan spektriä ei voisikaan suoraa mitata, voidaan A-matriisi estimoida epäsuorasti spektristä olettaen että kaikki ainesosat analyytistä tunnetaan: Â = (X T X) X T Y (.) Tämän jälkeen analyyttisten arvojen estimointi toimii samalla tavalla pienimmän neliösumman estimaatteina: [7] ˆX = YÂ T (.) Kalibrointiongelman ratkaisemiseen on yhden komponentin tapauksessa käytetty tavallista lineaarista regressiota, joka toimiikin erittäin hyvin. Usean komponentin tapauksessa ongelmaksi muodostuvat kollineaarisuus, vierekkäisten aallonpituuksien korrelaatio ja mittausvirheet. [] Näiden tekijöiden välttämiseksi käytetään yleensä biasoituja regressiometodeja, joita yleisesti kutsutaan usean muuttujan kalibrointimenetelmiksi. Suoraa kalibrointia voidaan käyttää kun kalibrointikertoimet ovat tunnettuja, muutoin käytetään hyväksi epäsuoraa kalibrointia. Epäsuorassa kalibroinnissa kalibrointikertoimet lasketaan kokeellisesti määritettyjen spektrikonsentraatio-relaatioiden avulla... Käänteinen kalibrointi Kuten jo aiemmin on todettu, klassinen suora tai epäsuora kalibrointi tapahtuu pienimmän neliösumman menetelmällä. Analyyttiset arvot x oletetaan (mittaus)virheettömiksi, tai ainakin erittäin pieniksi verrattuna y:n virheisiin. Lisäksi systeemin kaikkien ainesosien täytyy olla tunnettuja ja mukana kalibroinnissa. Mikäli näitä ehtoja ei ole täytetty, joudutaan käyttämään käänteistä kalibrointia. [7] 5

9 Käänteisessä kalibroinnissa analyyttiset arvot x (konsentraatiot) regressoidaan mitatuille (spektrin) arvoille y. Vaikka pienimmän neliösumman virheettömysvaatimusta rikotaankin, sillä mittaukset y eivät ole virheettömiä, voidaan silti osoittaa Monte Carlo -simuloinneilla, että käänteisen kalibroinnin konsentraatio = f(mittaus) tuottamat ennusteet ovat tarkempia kuin klassisen kalibroinnin mittaus = f(konsentraatio) tuottamat ennusteet. [5] Tämä pätee erityisesti monen muuttujan kalibroinnissa. [7] Käänteistä kalibraatiomallia kutsutaan usein myös m n P-matriisimalliksi: X = YP. Matriisin P alkiot ovat kalibraatiokertoimia, jotka voidaan estimoida: ˆP = Y + X = (Y T Y) Y T X (.) Tuntematon näyte voidaan analysoida (ts. selvittää konsentraatiot) sen mitatusta spektristä y: ˆx = yˆp (.4) On epäedullista, että kalibraatiokertoimet, eli matriisin P alkiot, eivät omaa minkäänlaista fysikaalista merkitystä sillä ne eivät heijasta yksittäisen ainesosan spektriä. Lisäksi voi esiintyä multikollineaarisuuksia jotka tekevät matriisin Y kääntämisestä vaikeaa. Toisaalta käytettäessä latenttimuuttujia alkuperäisten muuttujien tilalla, voidaan käyttää pehmeitä mallinnusmetodeja, jotka perustuvat käänteiseen kalibrointiin jossa analyyttiset arvot regressoidaan spektraalidatalle: X = YB (.5) jossa B on kalibrointikertoimien m n-matriisi. Toisin kuten P-matriisin kanssa, kaikkia spektrin Y dimensioita ei käytetä, vaan ainoastaan ne, jotka on havaittu tärkeiksi tiettyjen pääkomponenttien suhteen. Tällöin B- matriisin kertoimien estimointi voidaan suorittaa pääkomponenttiregression (PCR) tai osittaisen pienimmän neliösumman regression (PLS) avulla. 6

10 Luku Kalibrointimenetelmistä. Pääkomponenttianalyysi ja -regressio Pääkomponenttiregressio (PCR) on kaksiosainen menetelmä spektroskooppidatan kalibrointiongelman ratkaisemiseksi. Ensimmäisessä osassa datalle suoritetaan pääkomponenttianalyysi (PCA). Mitatut muuttujat, esim. spektrin absorptiot eri aallonpituuksilla, muunnetaan uusiksi muuttujiksi, esim. latenttimuuttujien pääkomponenttipisteiksi. Tätä vaihetta seuraa monen muuttujan lineaarinen regressiovaihe (MLR), jossa PCA:n tuottamat pääkomponenttipisteet liitetään yhteen analyyttisten arvojen (konsentraatioiden) kanssa lineaarisella mallilla... Yleistä Pääkomponenttianalyysi kuuluu dimensionvähennystekniikoihin, ja menetelmän tarkoituksena on löytää havaitusta datasta pienempi määrä ilmiön takana piileviä oikeita satunnaismuuttujia, jotka selittävät havaitut tulokset (niiden varianssin) mahdollisimman hyvin perustuen datan kovarianssitai korrelaatiomatriisiin. Pääkomponenttianalyysi suorittaa koordinaattiakselien ortogonaalisen kierron siten, että havaintopisteiden varianssi on mahdollisimman suuri ensimmäisen akselin suhteen, ja jäännösvarianssi on aina suurin mahdollinen seuraavan seuraavan koordinaattiakselin suhteen. Uudet muuttujat ovat täysin korreloimattomia, ja kukin uusi koordinaattiakseli on lineaarikombinaatio alkuperäisistä muuttujista. 7

11 .. Datan esikäsittely Ennen pääkomponenttien etsimistä dataa yleensä esikäsitellään. Tämä tarkoittaa datan nollakeskiarvoistamista poistamalla siitä keskiarvo. Eräs yleisimmistä metodeista on tehdä datasta sarakekeskeistä, eli vähentää jokaisesta alkiosta kyseisen sarakkeen keskiarvo, joka vastaa siis kyseistä spektrin aallonpituutta. Tämä on yleinen menettely kun kalibrointitehtävä liittyy spektroskoopilla saatuihin arvoihin, ja se on kyseisessä tapauksessa yleensä myöskin ainoa tarvittava. [5] Toinen tapa esikäsitellä dataa on suorittaa autoskaalaus, jossa sarakekeskistyksen lisäksi jokainen alkio jaetaan vastaavan sarakkeen keskihajonnalla, jolloin sarakkeiden varianssiksi tulee. Tämäntyyppistä skaalausta voidaan käyttää kun tutkitaan muuttujien suhteellista tärkeyttä, mutta sitä ei suositella yleisesti käytettäväksi, sillä se lisää kohinan määrää tietyillä alueilla... Pääkomponenttien määrääminen Pääkomponentit voidaan ratkaista singulaariarvohajotelmalla (SVD), ominaisarvohajotelmalla (EVD) tai tähän tarkoitukseen käytettävillä sekventiaalisilla algoritmeilla kuten NIPALS tai POWER. Tarkastelkaamme tässä ominaisarvohajotelmaa. Olkoon x = (x, x,..., x p ) satunnaisvektori, jolle pätee E(x) = 0 ja Cov(x) = Σ. Kovarianssimatriisi Σ on ei-negatiivisesti definiitti: Σ 0. Nollaodotusarvo ei ole rajoittava, sillä aina voidaan määritellä satunnaisvektori, jonka odotusarvo on nolla ts. datasta vähennetään keskiarvo. Tehtävänä on etsiä edellä määritellyn satunnaisvektorin x alkioiden lineaarikombinaatio β T x = p i= β i x i, jonka varianssi on suurin mahdollinen. Varianssi D (β T x) toteuttaa tällöin normeerausehdon β T x = β T β =. Voidaan osoittaa, että max D (β T x) = β β T T Σβ = λ (.) β= jossa λ on kovarianssimatriisin Σ suurin ominaisarvo ja β kovarianssimatriisin Σ suurinta ominaisarvoa vastaava ominaisvektori. Yhtälö. pätee myös seuraaville pääkomponenteille, mutta tällöin yhtälölle täytyy asettaa lisärajoitusehto, jossa jokainen seuraava ominaisvektori on kohtisuorassa edellisiä vektoreita vastaan. Itse pääkomponenttivektoria merkitään y = β T x. Pääkomponenttianalyysin tulokset esitetään yleensä p r pääkomponenttimatriisissa: F r = [ λ β λ β... ] λ r β r = B r Λ / r, jota kutsutaan yleisesti myös latausmatriisiksi. Pääkomponenttipisteet 8

12 saadaan kertomalla havaintovektoreita x pääkomponentteja vastaavilla ominaisvektoreilla: y j = ˆB T r x j, jossa ˆB r on kovarianssimatriisin ˆΣ r suurinta ominaisarvoa vastaavien ominaisvektoreiden muodostama p r-matriisi...4 Pääkomponenttiregressio (PCR) Pääkomponenttiregressio on käänteinen kalibrointimenetelmä, ja kalibrointi suoritetaankin luvussa.. kerrotulla tavalla. Pääkomponenttianalyysi antaa uudet latenttimuuttujat X:n singulaariarvohajotelmalla: X = UΛP T = TP T (.) jossa X on riippumattomien muuttujien eli konsentraatioiden n p- matriisi, jonka sarakkeet ovat konsentraatioita eri aallonpituuksilla. U on painottamattomien (normalisoitujen) pääkomponenttipisteiden n p- matriisi ja T (kokoa n p) sisältää painotetut (normalisoimattomat) pääkomponenttipisteet. Nämä matriisit edustavat mittauksia uudessa latenttimuuttujien muodostamassa koordinaatistossa. Pääkomponenttipistematriisilla on seuraavat ominaisuudet: []. Rivien lukumäärä on yhtä suuri kuin alkuperäisessä datamatriisissa, joka on yleensä näytteiden lukumäärä.. Sarakkeiden lukumäärä on yhtä suuri kuin merkitsevien tekijöiden lukumäärä datassa, ja se voi olla mikä tahansa ykköstä suurempi kokonaisluku. Ideaalitapauksessa sarakkeiden lukumäärä on alkuperäisen datajoukon ainesosien lukumäärä, mutta kohina ja spektrin samankaltaisuus yhdessä vääristävät lukumäärää. Jokainen sarake vastaa pääkomponenttia.. Jokaisen sarakkeen alkion neliöiden summa liittyy matriisin ominaisarvoon. Mitä suurempi ominaisarvo, sitä suurempi merkitys on pääkomponentilla. Pääkomponentit ratkaistaan tärkeysjärjestyksessä. P on p p-latausmatriisi, jonka sarakkeet sisältävät pääkomponentit. Matriisin P alkiot ovat alkuperäisten muuttujien ja ominaisvektorien välisiä latauksia (painokertoimia). Λ on p p-diagonaalimatriisi, joka sisältää singulaariarvot λ i, jotka ovat kovarianssimatriisin (X T 0 X 0 ) ominaisarvojen neliöjuuria. Edellä matriisi X 0 on esikäsitelty keskistämällä alkuperäisestä datamatriisista X. [5] Latausmatriisilla on seuraavat ominaisuudet: 9

13 . Sarakkeiden lukumäärä on yhtä suuri kuin alkuperäisen datamatriisin sarakkeiden lukumäärä, joka on yleensä aallonpituuksien tai havaitsijoiden lukumäärä.. Rivien lukumäärä on yhtä suuri kuin merkitsevien tekijöiden lukumäärä datassa. Jokainen rivi vastaa pääkomponenttia.. Jokaisen sarakkeen alkioiden neliösumma on. HUOM! Matemaattisesti menetelmän johtamisessa tehdään useasti oletus, että n p. Koska spektroskopiassa yleensä mittauksia on vähemmän kuin aallonpituuksia eli n < p, joudutaan yhtälön. dimensioita muuttamaan siten, että size(x) = n p, size(u) = (n ) (n ), size(λ) = (n ) (n ), size(p) = p (n ) ja size(t) = n (n ). Edellä operaattori size() kuvaa matriisin/vektorin kokoa. Tämä johtuu datasta, sillä siitä on mahdollista saada vain n pääkomponenttia kun n < p. [5] Kun PCA on suoritettu, muodostetaan lineaarinen malli Y = Tb + e (.) jolla on ratkaisu ˆb = ( T T T ) T T Y (.4) Uudelle näytteelle saadaan ennusteteina pääkomponenttipisteet (konsentraatiot) käyttämällä kalibrointidatasta saatuja kertoimia ˆx = yˆb (.5) jossa size(x) = (n ), size(y) = p ja size(ˆb) = p (n ). [5]..5 Pääkomponenttimenetelmän edut kalibroinnissa Eräs usean muuttujan kalibroinnissa saavutettava etu on kohinan vähentyminen. Tällöin käytetään yleensä pääkomponenttianalyysia tai vastaavaa korrelaatio-/kovarianssimatriisia hyväksikäyttävää menetelmää, mikä paljastaa datasta suurimman pääkomponentin, eli latenttimuuttujan, joka selittää suurimman osan datan vaihtelusta. Lisäksi data on ortogonaalista, jolloin matriisien kääntäminen ei enää tuota vaikeuksia. Pääkomponenttianalyysia käytettäessä kalibraatiomalli jakautuu tällöin kolmeen osaan: [] ˆ lataukset kertovat yleisesti kaikkien mittausten muodon 0

14 ˆ pääkomponenttipisteet ovat näytekohtaista informaatiota ˆ residuaalit ovat se osa mittauksista joka eroaa yleisestä muodosta Ideaalitapauksessa residuaalit ovat mittauskohinaa. Mallia kutsutaan myös yksikomponenttiseksi, sillä pääkomponenttipistevektoria kohti on vain yksi latausvektori. Malli, eli lataukset ja pääkomponenttipisteet, määritellään painotettuna keskiarvona kaikkien alkuperäisten muuttujien yli. Painot on annettu latausvektorissa, joka kuvaa minkälaista informaatiota näytteet sisältävät. Pääkomponenttipisteitä hyväksikäyttäviä kalibraatiomalleja kutsutaan pääkomponenttiregressiomalleiksi. [] Ennustettaessa uuden näytteen haluttujen analyyttien konsentraatioita näytteestä mitataan sekoiteprofiili (spektri). Kalibrointivaiheessa saaduista latausvektoreista voidaan laskea uuden näytteen lataukset ja pääkomponenttipisteet. Nämä syötetään sen jälkeen regressioyhtälöön ja näin ollaan saatu konsentraatioiden estimaatit. Pääkomponenttiregression tuottama data on hyväksikäytettävissä myös muilla tavoin kuin pelkästään konsentraatioiden estimoinnissa. [] Esimerkiksi latauksia tutkimalla voidaan selvittää mikäli jotkin mitatut muuttujat eivät käyttäydy osotetulla tavalla, esimerkiksi tilanteessa, jossa sensori on vioittunut. Äärimmäinen pääkomponenttipisteen arvo viittaa äärimmäiseen näytteeseen, mahdollisesti poikkeavaan havaintoon. Pääkomponenttipisteistä saadaan selville myös mallin toimivuus, ja tiedolla voidaan myös yrittää parantaa mallia. Lisäksi voidaan tutkia eri mittausten eroavaisuuksia, esimerkiksi pistediagrammien avulla. Kaikki nämä ja muut visualisointikeinot auttavat ymmärtämään miksi malli toimii tai miksi se ei toimi...6 Pääkomponenttimenetelmän haittoja PCR on metodi, jotka perustuu pienimmän neliösumman menetelmään ja tästä syystä se on herkkä poikkeaville havainnoille. Poikkeavia havaintoja on monenlaisia, mallin poikkeavia havaintoja, X:n ja y:n poikkeavia havaintoja sekä näiden kombinaatioita. Ennen mallin luontia ei voida tietää mitkä havainnot ovat mallin suhteen poikkeavia, mutta X:n ja y:n suhteen näitä voidaan tarkastella. X:n suhteen poikkeavien havaintojen etsimiseen voidaan käyttää esimerkiksi Grubbsin tai Dixonin testejä. [5]

15 . Osittainen pienimmän neliösumman menetelmä (PLS).. Yleistä PLS-regressio on usean muuttujan lineaarisen regression (MLR) yleistys, joka kykenee, toisin kuten MLR, analysoimaan voimakkaasti kollineaarista ja kohinaista dataa sekä useita X- ja Y-muuttujia sisältäviä malleja. [] PLS on painotettu regressiometodi, jota käytetään tiivistämään prediktorien (n kpl) datamatriisi X = [x, x,..., x p ] A kappaleen latenttimuuttujajoukoksi tai faktoripisteiksi, jossa A p. Kalibrointiongelmassa PLS pyrkii siis ennustamaan vastemuuttujat Y prediktorien X avulla. Painotettujen regressiomenetelmien etuja on että ne eivät edellytä aallonpituuksien valintaa ennen kalibrointiregressiovektorin määritystä. Tällöin menetelmät sallivat käyttää enemmän aallonpituuksia kuin näytteitä on, ja ne tarjoavat edun signaalin keskiarvoistuksen muodossa, joka vähentää virheitä mitatuissa vasteissa. [0] Monesti puhutaan PLS:stä sekä PLS:sta. Tämä tarkoittaa vain vastemuuttujan Y kokoa. PLS:n tapauksessa Y on vektori, PLS taas tarkoittaa, että kalibroitavana on useampia vastemuuttujia, ja Y on matriisi. Algoritmi toimii edelleen kuitenkin samalla tavalla molemmissa tapauksissa. Seuraavissa PLS:ää käsittelevissä kappaleissa käytän seuraavanlaista notaatiota:

16 a A i N k m X Y b m B c a C E F p a P R r a R Q t a T u a U w a W komponenttien indeksi (mallin dimensiot), a =,,..., A mallin komponenttien kokonaislukumäärä havaintojen/tapausten indeksi, i =,,..., N havaintojen lukumäärä X-muuttujien indeksi, k =,,..., K Y-muuttujien indeksi, m =,,..., M prediktorimuuttujien N K-matriisi vastemuuttujien N M-matriisi Y:n m:s K -regressiokerroinvektrori kaikkien Y:den K M-regressiokerroinmatriisi komponentin a PLSR Y-painot Y-painojen M A-matriisi, c a ovat tämän sarakkeet X-residuaalien N K-matriisi Y-residuaalien N M-matriiisi komponentin a PLSR X-lataukset K A-latausmatriisi, p a ovat tämän sarakkeet korrelaatiokerroin eli selitysaste, kuinka paljon Y -muuttujien vaihtelua on selitetty PLSR-painot jotka on muunnettu komponenteista riippumattomiksi muunnettujen painojen K A-matriisi, jonka sarakkeet ovat r a ristivalidoitu R, kuinka hyvin Y-muuttujia on ennustettu komponentin a X-komponenttipisteet N A-komponenttipistematriisi, jonka sarakkeet ovat t a komponentin a Y-komponenttipisteet N A-komponenttipistematriisi, jonka sarakkeet ovat u a komponentin a PLSR X-painot X-painojen K A-matriisi, jonka sarakkeet ovat w a.. Datan esikäsittely Ennen analyysiä X- ja Y-muuttujat usein ajetaan muunnoksen läpi, jotta niiden jakaumista tulisi symmetrisempiä. Muuttujat, joiden vaihtelu on useita dekadeja muunnetaan usein logaritmisesti. Projektiometodien, kuten PLSR, tulokset riippuvat datan skaalauksesta. Standardi menettelytapa on ollut (i) skaalata jokaisen muuttujan varianssi ykkösen suuruiseksi jakamalla jokainen muuttuja keskihajonnallaan, sekä (ii) keskittää muuttujat vähentämällä niistä keskiarvonsa. Tämä vastaa jokaiselle muuttujalle saman painon antamista (prioritärkeys). []

17 .. PLS-regressiomalli PLS etsii annetusta datasta pienemmän määrän uusia muuttujia t a, a =,,...,A. Sekä X että Y oletetaan ainakin osittain olevan mallinnettu samoilla latenttimuuttujilla. Muuttujien t a oletetaan olevan ortogonaalisia. Ne estimoidaan alkuperäisten muuttujien x k lineaarikombinaatioina, joiden painokertoimet ovat r ka, a =,,...,A t ia = k r ka X ik (.6) joka voidaan esittää matriisimuodossa T = XR (.7) PLS-regression kaksi pääyhtälöä ovat matriisien X ja Y latenttimuuttujien avulla ilmaistut hajotelmat: X ik = a t ia p ak + e ik, (.8) ja y im = a c ma t ia + f im, (.9) jotka ovat matriisimuodossa ilmaistuna sekä X = TP T + E (.0) Y = TC T + F (.) Oheisissa yhtälöissä matriisit P ja C ovat latausmatriiseja. Vastemuuttujamatriisille Y on olemassa vielä oma relaationsa, jonka avulla se voidaan hajoittaa Y-latausmatriisin C avulla: y im = a u ia c am + g im, (.) joka on matriisimuodossa Y = UC T + G (.) Ottamalla huomioon yhtälö.6, saadaan yhtälö.9 näyttämään regressiomallilta: y im c ma r ka x ik + f im = b mk x ik + f im (.4) a k k 4

18 joka voidaan esittää matriisimuodossa Y = XRC T + F = XB + F (.5) PLS-regression regressiokertoimet b mk voidaan kirjoittaa b mk = a c ma r ka (.6) matriisimuodossa B = RC T (.7) Yhtälössä. u ia on Y-matriisin PLS-komponenttipisteet ja c am (monesti merkitään myös q:lla) Y-matriisin lataukset. Vastaavasti yhtälössä.8 p ak on X-matriisin lataukset ja t ia X-matriisin PLS-komponenttipisteet. Lataukset tässäkin pyrkivät selittämään selittävän muuttujan variaatioita. X- komponentit pyrkivät selittämään variaatioita eri aallonpituuksien välillä. Yhtälössä.7 esiintyy muunnettujen X-painojen matriisi R. Alempana määritelty PLS-algoritmi laskee ainoastaan painot W. Muunnetut painot saadaan alkuperäisistä seuraavasti: R = W(P T W) (.8) Kun kertoimet B on määritetty, on mahdollista estimoida uuden näytteen konsentraatiot, kun näytteelle on mitattu spektri x (vaakavektori): ŷ = xb (.9) Regressiokertoimet B tulkitaan usein virheellisesti Y:ssä ilmaistujen ainesosien spektriprofiiliksi. Kertoimet B ovat kuitenkin Y-matriisiin liittyvät regressiokertoimet, eivätkä ne liity matriisiin X. Suora PLS PLS-malli on mahdollista järjestää uudelleen niin, että malli ennustaakin Y:tä X:n sijaan. [8] Yhtälö.5 voidaan uudelleenjärjestää: Y F = XB (.0) ja kertomalla molemmat puolet (B T B) B T :llä, saadaan (Y F)(B T B) B T = XB(B T B) B T (.) Korvaamalla XB(B T B) B T = X E, saadaan (Y F)(B T B) B T = X E (.) 5

19 ja kun määritellään K T = (B T B) B T sekä Ŷ = (Y F), saadaan josta lopulta siirtelemällä termejä saadaan ŶK T = X E (.) X = ŶKT + E (.4) Tästä nähdään, että epäsuorat kalibrointimenetelmät, kuten PLS, kykenevät ennustamaan myös puhtaiden ainesosien spektriprofiileja suoran kalibroinnin tavoin...4 Osittaisen pienimmän neliösumman regressiomallin tulkinta Eräs PLS-regression tulkinta on, että se muodostaa uudet x-muuttujat t a vanhojen x:ien lineaarikombinaationa, ja tämän jälkeen malli käyttää näitä uusia muuttujia ennustamaan Y:tä. Uusia muuttujia muodostetaan vain sellainen määrä, joka on ennustamisessa merkitsevä. Kaikki mallin osat, t, u, w (ja r), p ja c määrittyvät allakuvatun algoritmin perusteella. PLS-regressiomallin tulkinnan kannalta tärkeät muuttujat ovat PLS-komponenttipisteet t ja u, jotka sisältävät informaatiota annetun ongelman ja mallin suhteen. Painot w a (tai r a ) sekä c a kuvaavat kuinka muuttujat muodostavat kvantitatiivisen relaation X:n ja Y:n välille. Suuret painokertoimien arvot kertovat mitkä X-muuttujat ovat tärkeitä, sekä mitkä X-muuttujat sisältävät samaa informaatiota (samanlaiset kertoimet). [] Residuaalit ovat datan se osa, jota malli ei selitä, ja siksi ne ovatkin tärkeitä tutkimuskohteita. Suuret Y-residuaalit viittaavat siihen, että malli on huono, ja normaalipaperikuvat ovat hyvä keino selvittää poikkeavien havaintojen olemassaolo T:n ja Y:n välillä. X:n residuaaleja ei käytetä hyväksi Y:n mallintamisessa, vaikka X-residuaaleista saakin selville poikkeavat havainnot X-avaruudessa, eli molekyylit joiden rakenne ei sovi malliin sekä prosessin osat jotka eroavat normaaleista prosessioperaatioista. PLS-regressiomallin tulkintaan on olemassa muutamia ohjeita: [] ˆ Hanki hyvä tuntemus käsiteltävästä ongelmasta etenkin mitkä vastemuuttujat Y ovat tarkasteltavana mittauksissa ja mallissa, sekä mitä prediktoreja X tulisi mitata ja varioida. Mikäli X-muuttujien koeolosuhteita voidaan muuttaa, on hyvä käyttää hyväksi koesuunnittelua X-matriisin konstruoinnissa. ˆ Hanki hyvää dataa niin prediktoreista kuin vasteista. Monen muuttujat Y:t tarjoavat huomattavasti enemmän informaatiota, sillä ne voidaan 6

20 kaikki analysoida erikseen pääkomponenttianalyysillä. Tämä antaa kuvan systemaattisesta variaatiosta Y:n sisällä, mitkä Y-muuttujat tulisi analysoida yhdessä jne. ˆ Ensimmäinen tieto mallista on sen asteluku A, ts. kuinka monta merkitsevää komponenttia mallissa on. Komponenttien lukumäärä antaa alarajan sille lukumäärälle vaikutuksia, jotka aiheuttavat muutoksia tarkasteltavassa systeemissä. Latenttimuuttujien käsitteen voidaan nähdä olevan yhtäläinen em. vaikutusten kanssa. ˆ Mallin sovitteen hyvyys saadaan selitysasteesta R sekä Q (ristivalidoitu R ). Usean Y-muuttujan tapauksessa on mahdollista määrittää R m ja Q m jokaiselle y m. Selitysasteet R antavat ylärajan sille kuinka hyvin malli selittää dataa ja ennustaa uusia havaintoja, Q antaa vastaavan alarajan. ˆ (u, t)-kuvaajat mallin ensimmäisen kahden tai kolmen dimension suhteen paljastavat datan kaarevuuden, ryhmät sekä poikkeavat havainnot. ˆ (t, t)-kuvaajista on mahdollista nähdä datan homogeenisuudet, ryhmät ja muut ilmiöt. (r, c)-kuvaajat antavat näistä löytyville ilmiöille tulkinnan. ˆ Etenkin spektroskopiassa käytetty datan visualisointitapa on piirtää lataukset p a aallonpituuden funktiona, jolloin saadaan jokaisen komponentin spektri esiin. Latauksia käytetään alkuperäisten muuttujien ja PLS-komponenttipisteiden välisen suhteen tulkinnassa. ˆ Latauksia erikseen tarkasteltaessa positiiviset piikit kuvaajassa aiheutuvat yleensä tarkasteltavan komponentin spektripiikeistä, kun taas negatiiviset piikit vastaavat häiriökomponentteja. [] ˆ Jos esiintyy ongelmia, ts. pieniä R :n tai Q :n arvoja, poikkeavia havaintoja, ryhmiä tai kaarevuuksia PLS-komponenttipisteiden kuvaajissa, ongelma kannattaa yrittää korjata. Residuaalien kuvaajista (normaalipaperikuvat, DModX, DModY) saattaa löytyä lisäinformaatiota ongelman aiheuttajasta. Yksittäiset poikkeavat havainnot tulee tarkastaa datan paikkansapitävyyden varmistamiseksi, ja jos tämä ei auta, poistaa analyysistä (kuitenkin vain jos ne eivät ole kiinnostavia). (u, t)-kuvaajan kaarevuutta voidaan korjata muuntamalla data esim. logaritmisesti tai lisäämällä malliin neliöllisiä tai kuutiollisia termejä. 7

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Regressioanalyysi. Vilkkumaa / Kuusinen 1 Regressioanalyysi Vilkkumaa / Kuusinen 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Halutaan selittää selitettävän muuttujan havaittujen arvojen vaihtelua selittävien muuttujien havaittujen

Lisätiedot

Harjoitus 9: Excel - Tilastollinen analyysi

Harjoitus 9: Excel - Tilastollinen analyysi Harjoitus 9: Excel - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen regressioanalyysiin

Lisätiedot

Mat Tilastollisen analyysin perusteet, kevät 2007

Mat Tilastollisen analyysin perusteet, kevät 2007 Mat-.104 Tilastollisen analyysin perusteet, kevät 007 8. luento: Usean selittäjän lineaarinen regressiomalli Kai Virtanen 1 Usean selittäjän lineaarinen regressiomalli Selitettävän muuttujan havaittujen

Lisätiedot

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä arvon Sisältö arvon Bootstrap-luottamusvälit arvon arvon Oletetaan, että meillä on n kappaletta (x 1, y 1 ),

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2

Lisätiedot

Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu JMP:llä

Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu JMP:llä Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi Esimerkit laskettu JMP:llä Antti Hyttinen Tampereen teknillinen yliopisto 29.12.2003 ii Ohjelmien

Lisätiedot

Aki Taanila YHDEN SELITTÄJÄN REGRESSIO

Aki Taanila YHDEN SELITTÄJÄN REGRESSIO Aki Taanila YHDEN SELITTÄJÄN REGRESSIO 26.4.2011 SISÄLLYS JOHDANTO... 1 LINEAARINEN MALLI... 1 Selityskerroin... 3 Excelin funktioita... 4 EKSPONENTIAALINEN MALLI... 4 MALLIN KÄYTTÄMINEN ENNUSTAMISEEN...

Lisätiedot

Moniulotteisia todennäköisyysjakaumia

Moniulotteisia todennäköisyysjakaumia Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35 Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016

Lisätiedot

Vastepintamenetelmä. Kuusinen/Heliövaara 1

Vastepintamenetelmä. Kuusinen/Heliövaara 1 Vastepintamenetelmä Kuusinen/Heliövaara 1 Vastepintamenetelmä Vastepintamenetelmässä pyritään vasteen riippuvuutta siihen vaikuttavista tekijöistä approksimoimaan tekijöiden polynomimuotoisella funktiolla,

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin

Lisätiedot

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä 3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a 21

Lisätiedot

Kohdeyleisö: toisen vuoden teekkari

Kohdeyleisö: toisen vuoden teekkari Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y

Lisätiedot

2. Teoriaharjoitukset

2. Teoriaharjoitukset 2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien

Lisätiedot

4.0.2 Kuinka hyvä ennuste on?

4.0.2 Kuinka hyvä ennuste on? Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki

Lisätiedot

Dynaamiset regressiomallit

Dynaamiset regressiomallit MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt

Lisätiedot

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä 1 3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a

Lisätiedot

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?

Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme? TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Inversio-ongelmien laskennallinen peruskurssi Luento 2 Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +

Lisätiedot

Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.

Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0. Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt ja pienimmän neliösumman menetelmä Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi QR ja PNS PNS-ongelma

Lisätiedot

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1

Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1 Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt QR-hajotelma ja pienimmän neliösumman menetelmä Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto PNS-ongelma PNS-ongelma

Lisätiedot

Diskriminanttianalyysi I

Diskriminanttianalyysi I Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi

Lisätiedot

Laskennallinen data-analyysi II

Laskennallinen data-analyysi II Laskennallinen data-analyysi II Saara Hyvönen, Saara.Hyvonen@cs.helsinki.fi Kevät 2007 Ulottuvuuksien vähentäminen, SVD, PCA Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto visualisointi

Lisätiedot

Lineaariset luokittelumallit: regressio ja erotteluanalyysi

Lineaariset luokittelumallit: regressio ja erotteluanalyysi Lineaariset luokittelumallit: regressio ja erotteluanalyysi Aira Hast Johdanto Tarkastellaan menetelmiä, joissa luokittelu tehdään lineaaristen menetelmien avulla. Avaruus jaetaan päätösrajojen avulla

Lisätiedot

Korrelaatiokertoinen määrittely 165

Korrelaatiokertoinen määrittely 165 kertoinen määrittely 165 Olkoot X ja Y välimatka- tai suhdeasteikollisia satunnaismuuttujia. Havaintoaineistona on n:n suuruisesta otoksesta mitatut muuttuja-arvoparit (x 1, y 1 ), (x 2, y 2 ),..., (x

Lisätiedot

Kokonaislukuoptiomointi Leikkaustasomenetelmät

Kokonaislukuoptiomointi Leikkaustasomenetelmät Kokonaislukuoptiomointi Leikkaustasomenetelmät Systeemianalyysin Laboratorio 19.3.2008 Sisällys Leikkaustasomenetelmät yleisesti Leikkaustasomenetelmät generoivilla kokonaislukujoukoilla Gomoryn leikkaavat

Lisätiedot

Otannasta ja mittaamisesta

Otannasta ja mittaamisesta Otannasta ja mittaamisesta Tilastotiede käytännön tutkimuksessa - kurssi, kesä 2001 Reijo Sund Aineistot Kvantitatiivisen tutkimuksen aineistoksi kelpaa periaatteessa kaikki havaintoihin perustuva informaatio,

Lisätiedot

MS-A0004/A0006 Matriisilaskenta

MS-A0004/A0006 Matriisilaskenta 4. MS-A4/A6 Matriisilaskenta 4. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto..25 Tarkastellaan neliömatriiseja. Kun matriisilla kerrotaan vektoria, vektorin

Lisätiedot

Harjoitusten 5 vastaukset

Harjoitusten 5 vastaukset Harjoitusten 5 vastaukset 1. a) Regressiossa (1 ) selitettävänä on y jaselittäjinävakiojax matriisin muuttujat. Regressiossa (1*) selitettävänä on y:n poikkeamat keskiarvostaan ja selittäjinä X matriisin

Lisätiedot

Talousmatematiikan perusteet: Luento 10. Lineaarikuvaus Matriisin aste Determinantti Käänteismatriisi

Talousmatematiikan perusteet: Luento 10. Lineaarikuvaus Matriisin aste Determinantti Käänteismatriisi Talousmatematiikan perusteet: Luento 10 Lineaarikuvaus Matriisin aste Determinantti Käänteismatriisi Lineaarikuvaus Esim. Yritys tekee elintarviketeollisuuden käyttämää puolivalmistetta, jossa käytetään

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 16. marraskuuta 2007 Antti Rasila () TodB 16. marraskuuta 2007 1 / 15 1 Epäparametrisia testejä χ 2 -yhteensopivuustesti Homogeenisuuden testaaminen Antti

Lisätiedot

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme? TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen TKK (c) Ilkka Mellin (2004) 2 Mitä opimme? 1/4 Tilastollisen tutkimuksen tavoitteena on tehdä johtopäätöksiä prosesseista, jotka generoivat reaalimaailman

Lisätiedot

2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio

2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio x = x 2 = 5/2 x 3 = 2 eli Ratkaisu on siis x = (x x 2 x 3 ) = ( 5/2 2) (Tarkista sijoittamalla!) 5/2 2 Tämä piste on alkuperäisten tasojen ainoa leikkauspiste Se on myös piste/vektori jonka matriisi A

Lisätiedot

pitkittäisaineistoissa

pitkittäisaineistoissa Puuttuvan tiedon ongelma p. 1/18 Puuttuvan tiedon ongelma pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto mtl.uta.fi/tilasto/sekamallit/puupitkit.pdf

Lisätiedot

Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. eli matriisissa on 200 riviä (havainnot) ja 7 saraketta (mittaus-arvot)

Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. eli matriisissa on 200 riviä (havainnot) ja 7 saraketta (mittaus-arvot) R-ohjelman käyttö data-analyysissä Panu Somervuo 2014 Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. 0) käynnistetään R-ohjelma Huom.1 allaolevissa ohjeissa '>' merkki on R:n

Lisätiedot

Identifiointiprosessi

Identifiointiprosessi Alustavia kokeita Identifiointiprosessi Koesuunnittelu, identifiointikoe Mittaustulosten / datan esikäsittely Ei-parametriset menetelmät: - Transientti-, korrelaatio-, taajuus-, Fourier- ja spektraalianalyysi

Lisätiedot

Harha mallin arvioinnissa

Harha mallin arvioinnissa Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö

Lisätiedot

MAIDON PROTEIININ MÄÄRÄN SELVITTÄMINEN (OSA 1)

MAIDON PROTEIININ MÄÄRÄN SELVITTÄMINEN (OSA 1) MAIDON PROTEIININ MÄÄRÄN SELVITTÄMINEN (OSA 1) Johdanto Maito on tärkeä eläinproteiinin lähde monille ihmisille. Maidon laatu ja sen sisältämät proteiinit riippuvat useista tekijöistä ja esimerkiksi meijereiden

Lisätiedot

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos: 8 Kanta Tässä luvussa tarkastellaan aliavaruuden virittäjävektoreita, jotka muodostavat lineaarisesti riippumattoman jonon. Merkintöjen helpottamiseksi oletetaan luvussa koko ajan, että W on vektoreiden

Lisätiedot

xi = yi = 586 Korrelaatiokerroin r: SS xy = x i y i ( x i ) ( y i )/n = SS xx = x 2 i ( x i ) 2 /n =

xi = yi = 586 Korrelaatiokerroin r: SS xy = x i y i ( x i ) ( y i )/n = SS xx = x 2 i ( x i ) 2 /n = 1. Tutkitaan paperin ominaispainon X(kg/dm 3 ) ja puhkaisulujuuden Y (m 2 ) välistä korrelaatiota. Tiettyä laatua olevasta paperierästä on otettu satunnaisesti 10 arkkia ja määritetty jokaisesta arkista

Lisätiedot

Identifiointiprosessi

Identifiointiprosessi Alustavia kokeita Identifiointiprosessi Koesuunnittelu, identifiointikoe Mittaustulosten / datan esikäsittely Ei-parametriset menetelmät: - Transientti-, korrelaatio-, taajuus-, Fourier- ja spektraalianalyysi

Lisätiedot

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1 Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:

Lisätiedot

2.5. Matriisin avaruudet ja tunnusluvut

2.5. Matriisin avaruudet ja tunnusluvut 2.5. Matriisin avaruudet ja tunnusluvut m n-matriisi A Lineaarikuvaus A : V Z, missä V ja Z ovat sopivasti valittuja, dim V = n, dim Z = m (yleensä V = R n tai C n ja Z = R m tai C m ) Kuva-avaruus ja

Lisätiedot

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2004) 1

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2004) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2004) 2 Estimointi:

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 9 1 Implisiittinen derivointi Tarkastellaan nyt yhtälöä F(x, y) = c, jossa x ja y ovat muuttujia ja c on vakio Esimerkki tällaisesta yhtälöstä on x 2 y 5 + 5xy = 14

Lisätiedot

Testejä suhdeasteikollisille muuttujille

Testejä suhdeasteikollisille muuttujille Ilkka Mellin Tilastolliset menetelmät Osa 3: Tilastolliset testit Testejä suhdeasteikollisille muuttujille TKK (c) Ilkka Mellin (007) 1 Testejä suhdeasteikollisille muuttujille >> Testit normaalijakauman

Lisätiedot

Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt

Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt TKK (c) Ilkka Mellin (005) Koesuunnittelu TKK (c) Ilkka Mellin (005) : Mitä opimme? Tarkastelemme tässä luvussa seuraavaa kysymystä: Miten varianssianalyysissa tutkitaan yhden tekijän vaikutusta vastemuuttujaan,

Lisätiedot

1 Ominaisarvot ja ominaisvektorit

1 Ominaisarvot ja ominaisvektorit 1 Ominaisarvot ja ominaisvektorit Olkoon A = [a jk ] n n matriisi. Tarkastellaan vektoriyhtälöä Ax = λx, (1) 1 missä λ on luku. Sellaista λ:n arvoa, jolla yhtälöllä on ratkaisu x 0, kutsutaan matriisin

Lisätiedot

1 Kannat ja kannanvaihto

1 Kannat ja kannanvaihto 1 Kannat ja kannanvaihto 1.1 Koordinaattivektori Oletetaan, että V on K-vektoriavaruus, jolla on kanta S = (v 1, v 2,..., v n ). Avaruuden V vektori v voidaan kirjoittaa kannan vektorien lineaarikombinaationa:

Lisätiedot

Laskennallinen data-analyysi II

Laskennallinen data-analyysi II Laskennallinen data-analyysi II Saara Hyvönen, Saara.Hyvonen@cs.helsinki.fi Kevät 2007 Muuttujien valinta Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto Korkeiden ulottuvuuksien kirous

Lisätiedot

Vektoreiden virittämä aliavaruus

Vektoreiden virittämä aliavaruus Vektoreiden virittämä aliavaruus Määritelmä Oletetaan, että v 1, v 2,... v k R n. Näiden vektoreiden virittämä aliavaruus span( v 1, v 2,... v k ) tarkoittaa kyseisten vektoreiden kaikkien lineaarikombinaatioiden

Lisätiedot

Laskennallinen data-analyysi II

Laskennallinen data-analyysi II Laskennallinen data-analyysi II Ella Bingham, ella.bingham@cs.helsinki.fi Kevät 2008 Muuttujien valinta Kalvot perustuvat Saara Hyvösen kalvoihin 2007 Laskennallinen data-analyysi II, kevät 2008, Helsingin

Lisätiedot

Ilkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2007) 1

Ilkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2007) 1 Ilkka Mellin Tilastolliset menetelmät Osa 4: Lineaarinen regressioanalyysi Yleinen lineaarinen malli TKK (c) Ilkka Mellin (2007) 1 Yleinen lineaarinen malli >> Usean selittäjän lineaarinen regressiomalli

Lisätiedot

1. PÄÄTTELY YHDEN SELITTÄJÄN LINEAARISESTA REGRESSIOMALLISTA

1. PÄÄTTELY YHDEN SELITTÄJÄN LINEAARISESTA REGRESSIOMALLISTA Mat-2.104 Tilastollisen analyysin perusteet / Ratkaisut Aiheet: Avainsanat Päättely yhden selittäjän lineaarisesta regressiomallista Ennustaminen, Ennuste, Ennusteen luottamusväli, Estimaatti, Estimaattori,

Lisätiedot

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on 13 Pistetulo Avaruuksissa R 2 ja R 3 on totuttu puhumaan vektorien pituuksista ja vektoreiden välisistä kulmista. Kuten tavallista, näiden käsitteiden yleistäminen korkeampiulotteisiin avaruuksiin ei onnistu

Lisätiedot

Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio:

Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio: Inversio-ongelmista Craig, Brown: Inverse problems in astronomy, Adam Hilger 1986. Havaitaan oppositiossa olevaa asteroidia. Pyörimisestä huolimatta sen kirkkaus ei muutu. Projisoitu pinta-ala pysyy ilmeisesti

Lisätiedot

Vapaus. Määritelmä. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee:

Vapaus. Määritelmä. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 4 To 15.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 4 To 15.9.2011 p. 1/38 p. 1/38 Lineaarinen yhtälöryhmä Lineaarinen yhtälöryhmä matriisimuodossa Ax = b

Lisätiedot

Johdatus lukuteoriaan Harjoitus 2 syksy 2008 Eemeli Blåsten. Ratkaisuehdotelma

Johdatus lukuteoriaan Harjoitus 2 syksy 2008 Eemeli Blåsten. Ratkaisuehdotelma Johdatus lukuteoriaan Harjoitus 2 syksy 2008 Eemeli Blåsten Ratkaisuehdotelma Tehtävä 1 1. Etsi lukujen 4655 ja 12075 suurin yhteinen tekijä ja lausu se kyseisten lukujen lineaarikombinaationa ilman laskimen

Lisätiedot

5 Ominaisarvot ja ominaisvektorit

5 Ominaisarvot ja ominaisvektorit 5 Ominaisarvot ja ominaisvektorit Olkoon A = [a jk ] n n matriisi. Tarkastellaan vektoriyhtälöä Ax = λx, (1) missä λ on luku. Sellaista λ:n arvoa, jolla yhtälöllä on ratkaisu x 0, kutsutaan matriisin A

Lisätiedot

Testit laatueroasteikollisille muuttujille

Testit laatueroasteikollisille muuttujille Ilkka Mellin Tilastolliset menetelmät Osa 3: Tilastolliset testit Testit laatueroasteikollisille muuttujille TKK (c) Ilkka Mellin (2007) 1 Testit laatueroasteikollisille muuttujille >> Laatueroasteikollisten

Lisätiedot

110. 111. 112. 113. 114. 4. Matriisit ja vektorit. 4.1. Matriisin käsite. 4.2. Matriisialgebra. Olkoon A = , B = Laske A + B, 5 14 9, 1 3 3

110. 111. 112. 113. 114. 4. Matriisit ja vektorit. 4.1. Matriisin käsite. 4.2. Matriisialgebra. Olkoon A = , B = Laske A + B, 5 14 9, 1 3 3 4 Matriisit ja vektorit 4 Matriisin käsite 42 Matriisialgebra 0 2 2 0, B = 2 2 4 6 2 Laske A + B, 2 A + B, AB ja BA A + B = 2 4 6 5, 2 A + B = 5 9 6 5 4 9, 4 7 6 AB = 0 0 0 6 0 0 0, B 22 2 2 0 0 0 6 5

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 14 R. Kangaslampi matriisiteoriaa Matriisinormi

Lisätiedot

Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2017 Insinöörivalinnan matematiikan koe , Ratkaisut (Sarja A)

Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2017 Insinöörivalinnan matematiikan koe , Ratkaisut (Sarja A) Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 017 Insinöörivalinnan matematiikan koe 30..017, Ratkaisut (Sarja A) 1. a) Lukujen 9, 0, 3 ja x keskiarvo on. Määritä x. (1 p.) b) Mitkä reaaliluvut

Lisätiedot

Liittomatriisi. Liittomatriisi. Määritelmä 16 Olkoon A 2 M(n, n). Matriisin A liittomatriisi on cof A 2 M(n, n), missä. 1) i+j det A ij.

Liittomatriisi. Liittomatriisi. Määritelmä 16 Olkoon A 2 M(n, n). Matriisin A liittomatriisi on cof A 2 M(n, n), missä. 1) i+j det A ij. Liittomatriisi Määritelmä 16 Olkoon A 2 M(n, n). Matriisin A liittomatriisi on cof A 2 M(n, n), missä (cof A) ij =( 1) i+j det A ij kaikilla i, j = 1,...,n. Huomautus 8 Olkoon A 2 M(n, n). Tällöin kaikilla

Lisätiedot

Todennäköisyyden ominaisuuksia

Todennäköisyyden ominaisuuksia Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset

Lisätiedot

031021P Tilastomatematiikka (5 op) viikko 6

031021P Tilastomatematiikka (5 op) viikko 6 031021P Tilastomatematiikka (5 op) viikko 6 Jukka Kemppainen Mathematics Division Odotusarvojen erotuksen testi, hajonnat σ 1 σ 2 tuntemattomia Oletetaan jälleen, että X ja Y ovat normaalijakautuneita.

Lisätiedot

1. Tutkitaan regressiomallia Y i = β 0 + β 1 X i + u i ja oletetaan, että tavanomaiset

1. Tutkitaan regressiomallia Y i = β 0 + β 1 X i + u i ja oletetaan, että tavanomaiset TA7, Ekonometrian johdantokurssi HARJOITUS 7 RATKAISUEHDOTUKSET 16.3.2015 1. Tutkitaan regressiomallia Y i = β 0 + X i + u i ja oletetaan, että tavanomaiset regressiomallin oletukset pätevät (Key Concept

Lisätiedot

Ville Turunen: Mat Matematiikan peruskurssi P1 1. välikokeen alueen teoriatiivistelmä 2007

Ville Turunen: Mat Matematiikan peruskurssi P1 1. välikokeen alueen teoriatiivistelmä 2007 Ville Turunen: Mat-1.1410 Matematiikan peruskurssi P1 1. välikokeen alueen teoriatiivistelmä 2007 Materiaali: kirjat [Adams R. A. Adams: Calculus, a complete course (6th edition), [Lay D. C. Lay: Linear

Lisätiedot

Männyn laaturajojen integrointi runkokäyrän ennustamisessa. Laura Koskela Tampereen yliopisto 9.6.2003

Männyn laaturajojen integrointi runkokäyrän ennustamisessa. Laura Koskela Tampereen yliopisto 9.6.2003 Männyn laaturajojen integrointi runkokäyrän ennustamisessa Laura Koskela Tampereen yliopisto 9.6.2003 Johdantoa Pohjoismaisen käytännön mukaan rungot katkaistaan tukeiksi jo metsässä. Katkonnan ohjauksessa

Lisätiedot

Erityiskysymyksiä yleisen lineaarisen mallin soveltamisessa

Erityiskysymyksiä yleisen lineaarisen mallin soveltamisessa Ilkka Mellin Tilastolliset menetelmät Osa 4: Lineaarinen regressioanalyysi Erityiskysymyksiä yleisen lineaarisen mallin soveltamisessa TKK (c) Ilkka Mellin (2007) 1 Erityiskysymyksiä yleisen lineaarisen

Lisätiedot

Johdatus regressioanalyysiin

Johdatus regressioanalyysiin Ilkka Mellin Tilastolliset menetelmät Osa 4: Lineaarinen regressioanalyysi Johdatus regressioanalyysiin TKK (c) Ilkka Mellin (2007) 1 Johdatus regressioanalyysiin >> Regressioanalyysin lähtökohdat ja tavoitteet

Lisätiedot

Aalto-yliopisto, Matematiikan ja systeemianalyysin laitos /Malmivuori MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi,

Aalto-yliopisto, Matematiikan ja systeemianalyysin laitos /Malmivuori MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi, Aalto-yliopisto, Matematiikan ja systeemianalyysin laitos /Malmivuori MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi, kesä 2016 Laskuharjoitus 5, Kotitehtävien palautus laskuharjoitusten

Lisätiedot

Matriisien tulo. Matriisit ja lineaarinen yhtälöryhmä

Matriisien tulo. Matriisit ja lineaarinen yhtälöryhmä Matriisien tulo Lause Olkoot A, B ja C matriiseja ja R Tällöin (a) A(B + C) =AB + AC, (b) (A + B)C = AC + BC, (c) A(BC) =(AB)C, (d) ( A)B = A( B) = (AB), aina, kun kyseiset laskutoimitukset on määritelty

Lisätiedot

Talousmatematiikan perusteet: Luento 8. Vektoreista ja matriiseista Vektorien peruslaskutoimitukset Lineaarinen riippumattomuus Vektorien sisätulo

Talousmatematiikan perusteet: Luento 8. Vektoreista ja matriiseista Vektorien peruslaskutoimitukset Lineaarinen riippumattomuus Vektorien sisätulo Talousmatematiikan perusteet: Luento 8 Vektoreista ja matriiseista Vektorien peruslaskutoimitukset Lineaarinen riippumattomuus Vektorien sisätulo Motivointi Esim. Herkkumatikka maksaa 50 /kg. Paljonko

Lisätiedot

54. Tehdään yhden selittäjän lineaarinen regressioanalyysi, kun selittäjänä on määrällinen muuttuja (ja selitettävä myös):

54. Tehdään yhden selittäjän lineaarinen regressioanalyysi, kun selittäjänä on määrällinen muuttuja (ja selitettävä myös): Tilastollinen tietojenkäsittely / SPSS Harjoitus 5 Tarkastellaan ensin aineistoa KUNNAT. Kyseessähän on siis kokonaistutkimusaineisto, joten tilastollisia testejä ja niiden merkitsevyystarkasteluja ei

Lisätiedot

Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja

Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja 7 NELIÖMATRIISIN DIAGONALISOINTI. Ortogonaaliset matriisit Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja A - = A T () Muistutus: Kokoa n olevien vektorien

Lisätiedot

Laskuharjoitus 9, tehtävä 6

Laskuharjoitus 9, tehtävä 6 Aalto-yliopiston perustieteiden korkeakoulu Jouni Pousi Systeemianalyysin laboratorio Mat-2.4129 Systeemien identifiointi Laskuharjoitus 9, tehtävä 6 Tämä ohje sisältää vaihtoehtoisen tavan laskuharjoituksen

Lisätiedot

Pienimmän neliösumman menetelmä (PNS)

Pienimmän neliösumman menetelmä (PNS) neliösumman Perusongelman kuvaus 1 Tarkastellaan neljää pitkää aikasarjaa q 1 = (q 11,q 21,...,q 10,1 ) T, q 2 = (q 12,q 22,...,q 10,2 ) T, q 3 = (q 13,q 23,...,q 10,3 ) T, ja p 1 = (p 11,p 21,...,p 10,1

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisihajotelmat: Schur ja Jordan Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi Matriisihajotelmat:

Lisätiedot

pitkittäisaineistoissa

pitkittäisaineistoissa Puuttuvan tiedon käsittelystä p. 1/18 Puuttuvan tiedon käsittelystä pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto Puuttuvan tiedon

Lisätiedot

Ortogonaaliset matriisit, määritelmä 1

Ortogonaaliset matriisit, määritelmä 1 , määritelmä 1 Määritelmä (a). Neliömatriisi Q on ortogonaalinen, jos Q T Q = I. Määritelmästä voidaan antaa samaa tarkoittavat, mutta erilaiselta näyttävät muodot: Määritelmä (b). n n neliömatriisi Q,

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo

Lisätiedot

ax + y + 2z = 0 2x + y + az = b 2. Kuvassa alla on esitetty nesteen virtaus eräässä putkistossa.

ax + y + 2z = 0 2x + y + az = b 2. Kuvassa alla on esitetty nesteen virtaus eräässä putkistossa. BM20A5800 Funktiot, lineaarialgebra ja vektorit Harjoitus 7, Syksy 206 Tutkitaan yhtälöryhmää x + y + z 0 2x + y + az b ax + y + 2z 0 (a) Jos a 0 ja b 0 niin mikä on yhtälöryhmän ratkaisu? Tulkitse ratkaisu

Lisätiedot

3.2.2 Tikhonovin regularisaatio

3.2.2 Tikhonovin regularisaatio 3 Tikhonovin regularisaatio Olkoon x 0 R n tuntematon, M R m n teoriamatriisi ja y Mx + ε R m (316 annettu data Häiriöherkässä ongelmassa pienimmän neliösumman miniminormiratkaisu x M + y Q N (M x + M

Lisätiedot

w + x + y + z =4, wx + wy + wz + xy + xz + yz =2, wxy + wxz + wyz + xyz = 4, wxyz = 1.

w + x + y + z =4, wx + wy + wz + xy + xz + yz =2, wxy + wxz + wyz + xyz = 4, wxyz = 1. Kotitehtävät, tammikuu 2011 Vaikeampi sarja 1. Ratkaise yhtälöryhmä w + x + y + z =4, wx + wy + wz + xy + xz + yz =2, wxy + wxz + wyz + xyz = 4, wxyz = 1. Ratkaisu. Yhtälöryhmän ratkaisut (w, x, y, z)

Lisätiedot

805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016)

805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016) 805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016) Tavoitteet (teoria): Hahmottaa aikasarjan klassiset komponentit ideaalisessa tilanteessa. Ymmärtää viivekuvauksen vaikutus trendiin. ARCH-prosessin

Lisätiedot

Paikannuksen matematiikka MAT

Paikannuksen matematiikka MAT TA M P E R E U N I V E R S I T Y O F T E C H N O L O G Y M a t h e m a t i c s Paikannuksen matematiikka MAT-45800 4..008. p.1/4 Käytännön järjestelyt Kotisivu: http://math.tut.fi/courses/mat-45800/ Luennot:

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila

Lisätiedot

4. Tietokoneharjoitukset

4. Tietokoneharjoitukset 4. Tietokoneharjoitukset Demotehtävät 4.1 Tarkastellaan seuraavia aikasarjoja. Tiedosto (.txt) Muuttuja Kuvaus Havaintoväli Aikasarjan pituus INTEL Intel_Close Intelin osakekurssi Pörssipäivä n = 20 Intel_Volume

Lisätiedot

Pienimmän neliösumman menetelmä (PNS)

Pienimmän neliösumman menetelmä (PNS) neliösumman Perusongelman kuvaus 1 Tarkastellaan neljää pitkää aikasarjaa q 1 = (q 11,q 21,...,q 10,1 ) T, q 2 = (q 12,q 22,...,q 10,2 ) T, q 3 = (q 13,q 23,...,q 10,3 ) T, ja p 1 = (p 11,p 21,...,p 10,1

Lisätiedot

Osa 2: Otokset, otosjakaumat ja estimointi

Osa 2: Otokset, otosjakaumat ja estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

Ortogonaalisen kannan etsiminen

Ortogonaalisen kannan etsiminen Ortogonaalisen kannan etsiminen Lause 94 (Gramin-Schmidtin menetelmä) Oletetaan, että B = ( v 1,..., v n ) on sisätuloavaruuden V kanta. Merkitään V k = span( v 1,..., v k ) ja w 1 = v 1 w 2 = v 2 v 2,

Lisätiedot

Matematiikka B2 - Avoin yliopisto

Matematiikka B2 - Avoin yliopisto 6. elokuuta 2012 Opetusjärjestelyt Luennot 9:15-11:30 Harjoitukset 12:30-15:00 Tentti Kurssin sisältö (1/2) Matriisit Laskutoimitukset Lineaariset yhtälöryhmät Gaussin eliminointi Lineaarinen riippumattomuus

Lisätiedot

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi

Lisätiedot

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45 MS-A0003/A0005 Matriisilaskenta Laskuharjoitus / vko 5 Tehtävä 1 (L): Hahmottele kompleksitasoon ne pisteet, jotka toteuttavat a) z 3 =, b) z + 3 i < 3, c) 1/z >. Yleisesti: ehto z = R, z C muodostaa kompleksitasoon

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 6 To 22.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 6 To 22.9.2011 p. 1/38 p. 1/38 Ominaisarvotehtävät Monet sovellukset johtavat ominaisarvotehtäviin Yksi

Lisätiedot