PLS-REGRESSIO KEMOMETRIAN KALIBROINTIONGELMASSA

Koko: px
Aloita esitys sivulta:

Download "PLS-REGRESSIO KEMOMETRIAN KALIBROINTIONGELMASSA"

Transkriptio

1 AB Mat-.08 Sovelletun matematiikan erikoistyöt PLS-REGRESSIO KEMOMETRIAN KALIBROINTIONGELMASSA Teppo-Heikki Saari, 58096R 9. helmikuuta 008 TEKNILLINEN KORKEAKOULU Teknillisen fysiikan ja matematiikan osasto Systeemianalyysin laboratorio

2 Sisältö Johdanto. Yhden muuttujan kalibrointi Usean muuttujan kalibrointi Klassinen suora ja epäsuora kalibrointi Käänteinen kalibrointi Kalibrointimenetelmistä 7. Pääkomponenttianalyysi ja -regressio Yleistä Datan esikäsittely Pääkomponenttien määrääminen Pääkomponenttiregressio (PCR) Pääkomponenttimenetelmän edut kalibroinnissa Pääkomponenttimenetelmän haittoja Osittainen pienimmän neliösumman menetelmä (PLS) Yleistä Datan esikäsittely PLS-regressiomalli Osittaisen pienimmän neliösumman regressiomallin tulkinta Geometrinen tulkinta PLS-regressioalgoritmi Mallin validointi Puuttuvat havainnot Osittaisen pienimmän neliösumman menetelmän haittoja ja etuja PLS:n yhteydet muihin monimuuttujamenetelmiin... Sovellus bensiinin oktaaniluvun määritykseen 4. Data Tulokset

3 4 Pohdinnat 4 Kirjallisuutta 5

4 Luku Johdanto Kemometria on tieteenala, jonka tutkimuskohteena on tilastollisten ja matemaattisten metodien, sekä myös metodien, joiden pohjana on matemaattinen logiikka, soveltaminen kemiaan. [4] On myös väitetty, että oikeanlaisen analyyttisen kemian täytyisi sisältää myös kemometrinen lähestymistapa, ja että näin tekemällä saavutetaan huomattavia etuja. [] Kemometria on tieteenalana ollut vahvassa kasvussa kolmisenkymmentä vuotta, ja eräs sen tärkeimpiä ongelmia on kalibrointi. Kalibrointi viittaa prosessiin, jossa määritetään suhteet mittausinstrumentin ulostulojen/vasteiden ja konsentraatioiden välille. Kalibraatio yleisesti viittaa myös usein mittainstrumentin ulostulon tai indikaattorin säätämiseen siten, että indikaattori vastaa tiettyä mittastandardia tietyllä tarkkuudella. [0] Kalibrointia tarvitaan silloin kun työläs tai kallis mutta tarkka mittaus halutaan korvata halvalla ja nopealla mutta epäsuoralla tai vähemmän tarkalla mittauksella. [9] Kemometrisestä kalibroinnista voidaan erotella monenlaisia osa-alueita: kohinan vähentäminen mittauksissa, häiriötekijöiden käsittely, eksploratorinen datan käsittely sekä mahdollisten poikkeavien havaintojen minimointi. Lisäksi myös koesuunnittelulla on erittäin suuri painoarvo. [0, ] Tämän työn tarkoituksena on tarkastella kemometrian kalibrointiongelmaa sekä sen erilaisia ratkaisuja sovellettujen regressiomallien avulla. Ensimmäisessä kappaleessa tarkastellaan yksi- ja moniulotteista kemometrian kalibrointiongelmaa, toisessa kappaleessa tutustutaan tarkemmin yleisimpiin kalibrointimenetelmiin, kolmannessa kappaleessa sovelletaan pääkomponenttiregressiota sekä PLS-regressiota bensiinin oktaaniluvun määritykseen. Viimeisessä kappaleessa on hieman pohdintaa aiheeseen liittyen.

5 . Yhden muuttujan kalibrointi Kalibrointi voidaan suorittaa sekä yhdelle että monelle muuttujalle. Yhden muuttujan kalibroinnissa datasta valikoituu kaikkein käyttökelpoisin muuttuja, joka kuvaa datan vaihtelua parhaiten. Monissa kemiallisissa tutkimuksissa halutaan selvittää yhden tai useamman ainesosan konsentraatiot mittaamalla systeemin ominaisuuksia. Tässä voidaan käyttää hyväksi Beer-Lambertin lakia elektromagneettiselle säteilylle, joka antaa yhteyden absorboituneen säteilyn aallonpituuden ja konsentraation välille: I(λ) I 0 (λ) = e ɛ λcl (.) jossa I(λ) on valon intensiteetti aallonpituudella λ, joka läpäisee näytteen, jonka paksuus on l. I 0 (λ) on tulevan valon intensiteetti aallonpituudella λ, ɛ λ on moolinen häviämiskerroin (molar extinction coefficient), eli absoptiivisuus moolia kohden, ja c on aineen konsentraatio. Systeemin kalibrointi tapahtuu mittaamalla sarja näytteitä valon absorptiosta kun aineen konsentraatio on tunnettu: [ ] I0 (λ) log = α λ = ɛcl (.) I(λ) missä α on absorption määrä tietyllä aallonpituudella. [] Jos oletetaan, että mittausvirheet ovat odotusarvoltaan nolla ja korreloimattomia, voidaan mitattuihin arvoihin sovittaa lineaarinen funktio tavallisen pienimmän neliösumman menetelmän (OLS) avulla. Mallin osat ovat tällöin [6] ˆ Malli: y i = B + Ax i + e yi = E(y i ) + e yi (.) ˆ Estimaatti: ˆ Residuaali: ŷ i = ˆB + Âx i (.4) d yi = y i ŷ i = y i ˆB Âx i (.5) jossa E(y i ) on y i :n odotusarvo. Yleinen neliösummakriteeri ilmaistaan neliövirhesummana m m SSD = [(y i ŷ i )/σ i ] = (d yi /σ i ) (.6) i= jossa σ i on keskihajonta havaintopisteelle i ja m on kalibrointimittausten määrä. Tehtävänä on siis minimoida neliövirhesummaa.6. Kriteeri muuttuu mikäli jokin seuraavista ehdoista täyttyy: [6] i=

6 . Virheet esiintyvät vain mitatuissa arvoissa y: Aσ x σ y (.7) ja lisäksi jos virheet σ y ovat vakioita useissa kalibrointipisteissä (homoskedastisuus): σ y = σ y =... = σ yh = σ y (.8) tai ilmaistuna näiden estimaateilla, jolloin täytyy ottaa huomioon virheen tilastollinen riski α s y = s y =... = s yn = s y (.9) Mikäli virheet ovat homoskedastisia ja x:n virheet voidaan jättää huomiotta, saadaan pienimmän neliösumman minimoitavaksi kriteeriksi m SSD = d yi (.0) i=. Mikäli mittausvirheet σ y vaihtelevat (σ x edelleen pieni verrattuna mittausvirheisiin), täytyy olettaa heteroskedastisuus, ja minimoitava kriteeri on muotoa.6.. Yleisessä tapauksessa molemmat muuttujat sisältävät virhettä, ja tällöin yhtälö.7 ei päde, virhe on muotoa σ i = σ yi + A σ xi (.) jolloin summa d x+y täytyy minimoida ortogonaalisesti regressiosuoran suhteen, eikä koordinaattiakselin suuntaisesti. Yhtälön.7 mukaan virheet mittauksissa ovat häviävän pieniä ja konsentraatiot ovat täten todellisia. Tämän ehdon täyttyessä kalibrointifunktioksi tulee y = B x + A x x + e y (.) jonka parametrit A x ja B x saadaan estimoitua normaalisella pienimmän neliösumman algoritmilla homoskedastisessa tapauksessa:  x = Q xy /Q xx (.) ˆB x = ( y  x x ) /m (.4) Q xx = j Q yy = j Q xy = j (x j x) (.5) (y j ȳ) (.6) (x j x) (y j ȳ) (.7)

7 Korrelaatiokertoimella yllämainitussa regressiossa ei ole merkitystä, sillä arvot x eivät ole satunnaismuuttujia kalibroinnissa (x:n virhe on merkityksetön). Koska yhden muuttujan kalibrointi suoritetaan yhden muuttujan lineaarisella regressiolla, datan tarvitsee täyttää joitakin oletuksia, jotka ovat [] ˆ Selektiivisyys: yhden muuttujan kalibraatiomalli voi tarjota tarkkoja tuloksia vain silloin, kun mitattuun signaaliin ei vaikuta mikään muu lähde. Toisin sanoen vain tutkimuksen kohteena olevan analyytin tulisi vaikuttaa mittaustuloksiin. Yhden muuttujan signaalista on vaikea tarkistaa ovatko tulokset oikeita, ja tulosten oikeellisuus jää uskonvaraiseksi. ˆ Lineaarisuus: analyytin konsentraation ja signaalin välillä täytyy olla lineaarinen riippuvuus. Tämä on selvää kun käytetään lineaarisia menetelmiä.. Usean muuttujan kalibrointi.. Klassinen suora ja epäsuora kalibrointi Kun näytteessä on enemmän kuin yhtä ainetta, ongelma tulee vaikeammaksi sillä systeemissä useat eri aineet saattavat absorboida samalla aallonpituudella. Tietyllä aallonpituudella useiden eri aineiden seoksen absorptio kiinnitetyn matkan l yli voidaan tulkita yksittäisten ainesosien absorptioiden painotettuna summana, kun useaa absorboivaa ainesosaa mitataan m eri taajuudella: p y j (λ i ) = ɛ (λ i )c j l + ɛ(λ i )c j l ɛ p (λ i )c pj l = ɛ k (λ i )c kj l (.8) k= jossa i on indeksi aallonpituuksille,..., m, j on indeksi näytteille,.., j ja komponenttien määrä, joka siis tulee määrittää ongelmassa, on p. Yhtälö.8 saadaan kirjoitettua matriisimuotoon: Y = XA (.9) jossa Y on n m-matriisi, joka sisältää riippuvat muuttujat absorptiot m eri aallonpituudella tai vasteet m eri sensorille; X on n p-matriisi, joka sisältää riippumattomat muuttujat konsentraatiot n eri ainesosalle; ja A on p m-matriisi, joka sisältää kalibrointikertoimet (nk. herkkyysmatriisi). 4

8 n on kalibrointistandardien lukumäärä (seokset), joka on sama kuin mittausten lukumäärä. [7] Klassista kalibrointia voidaan käyttää vain kun kaikki ainesosat, jotka vaikuttavat spekrin muotoon ovat tunnettuja. Lisäksi voimassa on rajoite, joka kieltää ainesosien reaktiot toisten ainesosien tai analyyttien välillä, sekä näiden vaikutukset (esim. lämpötilanmuutokset). Konsentraatioiden estimaatit saadaan pienimmän neliösumman menetelmällä: ˆX = YA +, missä A + on yleistetty Moore-Penrosen m p- pseudoinverssimatriisi A + = (A T A) A T (.0) Mikäli puhtaan ainesosan spektriä ei voida mitata suoraan, kalibraatiodata voidaan keskittää (ts. poistaa keskiarvot: y i ȳ, x i x). Vaikka puhtaan ainesosan spektriä ei voisikaan suoraa mitata, voidaan A-matriisi estimoida epäsuorasti spektristä olettaen että kaikki ainesosat analyytistä tunnetaan: Â = (X T X) X T Y (.) Tämän jälkeen analyyttisten arvojen estimointi toimii samalla tavalla pienimmän neliösumman estimaatteina: [7] ˆX = YÂ T (.) Kalibrointiongelman ratkaisemiseen on yhden komponentin tapauksessa käytetty tavallista lineaarista regressiota, joka toimiikin erittäin hyvin. Usean komponentin tapauksessa ongelmaksi muodostuvat kollineaarisuus, vierekkäisten aallonpituuksien korrelaatio ja mittausvirheet. [] Näiden tekijöiden välttämiseksi käytetään yleensä biasoituja regressiometodeja, joita yleisesti kutsutaan usean muuttujan kalibrointimenetelmiksi. Suoraa kalibrointia voidaan käyttää kun kalibrointikertoimet ovat tunnettuja, muutoin käytetään hyväksi epäsuoraa kalibrointia. Epäsuorassa kalibroinnissa kalibrointikertoimet lasketaan kokeellisesti määritettyjen spektrikonsentraatio-relaatioiden avulla... Käänteinen kalibrointi Kuten jo aiemmin on todettu, klassinen suora tai epäsuora kalibrointi tapahtuu pienimmän neliösumman menetelmällä. Analyyttiset arvot x oletetaan (mittaus)virheettömiksi, tai ainakin erittäin pieniksi verrattuna y:n virheisiin. Lisäksi systeemin kaikkien ainesosien täytyy olla tunnettuja ja mukana kalibroinnissa. Mikäli näitä ehtoja ei ole täytetty, joudutaan käyttämään käänteistä kalibrointia. [7] 5

9 Käänteisessä kalibroinnissa analyyttiset arvot x (konsentraatiot) regressoidaan mitatuille (spektrin) arvoille y. Vaikka pienimmän neliösumman virheettömysvaatimusta rikotaankin, sillä mittaukset y eivät ole virheettömiä, voidaan silti osoittaa Monte Carlo -simuloinneilla, että käänteisen kalibroinnin konsentraatio = f(mittaus) tuottamat ennusteet ovat tarkempia kuin klassisen kalibroinnin mittaus = f(konsentraatio) tuottamat ennusteet. [5] Tämä pätee erityisesti monen muuttujan kalibroinnissa. [7] Käänteistä kalibraatiomallia kutsutaan usein myös m n P-matriisimalliksi: X = YP. Matriisin P alkiot ovat kalibraatiokertoimia, jotka voidaan estimoida: ˆP = Y + X = (Y T Y) Y T X (.) Tuntematon näyte voidaan analysoida (ts. selvittää konsentraatiot) sen mitatusta spektristä y: ˆx = yˆp (.4) On epäedullista, että kalibraatiokertoimet, eli matriisin P alkiot, eivät omaa minkäänlaista fysikaalista merkitystä sillä ne eivät heijasta yksittäisen ainesosan spektriä. Lisäksi voi esiintyä multikollineaarisuuksia jotka tekevät matriisin Y kääntämisestä vaikeaa. Toisaalta käytettäessä latenttimuuttujia alkuperäisten muuttujien tilalla, voidaan käyttää pehmeitä mallinnusmetodeja, jotka perustuvat käänteiseen kalibrointiin jossa analyyttiset arvot regressoidaan spektraalidatalle: X = YB (.5) jossa B on kalibrointikertoimien m n-matriisi. Toisin kuten P-matriisin kanssa, kaikkia spektrin Y dimensioita ei käytetä, vaan ainoastaan ne, jotka on havaittu tärkeiksi tiettyjen pääkomponenttien suhteen. Tällöin B- matriisin kertoimien estimointi voidaan suorittaa pääkomponenttiregression (PCR) tai osittaisen pienimmän neliösumman regression (PLS) avulla. 6

10 Luku Kalibrointimenetelmistä. Pääkomponenttianalyysi ja -regressio Pääkomponenttiregressio (PCR) on kaksiosainen menetelmä spektroskooppidatan kalibrointiongelman ratkaisemiseksi. Ensimmäisessä osassa datalle suoritetaan pääkomponenttianalyysi (PCA). Mitatut muuttujat, esim. spektrin absorptiot eri aallonpituuksilla, muunnetaan uusiksi muuttujiksi, esim. latenttimuuttujien pääkomponenttipisteiksi. Tätä vaihetta seuraa monen muuttujan lineaarinen regressiovaihe (MLR), jossa PCA:n tuottamat pääkomponenttipisteet liitetään yhteen analyyttisten arvojen (konsentraatioiden) kanssa lineaarisella mallilla... Yleistä Pääkomponenttianalyysi kuuluu dimensionvähennystekniikoihin, ja menetelmän tarkoituksena on löytää havaitusta datasta pienempi määrä ilmiön takana piileviä oikeita satunnaismuuttujia, jotka selittävät havaitut tulokset (niiden varianssin) mahdollisimman hyvin perustuen datan kovarianssitai korrelaatiomatriisiin. Pääkomponenttianalyysi suorittaa koordinaattiakselien ortogonaalisen kierron siten, että havaintopisteiden varianssi on mahdollisimman suuri ensimmäisen akselin suhteen, ja jäännösvarianssi on aina suurin mahdollinen seuraavan seuraavan koordinaattiakselin suhteen. Uudet muuttujat ovat täysin korreloimattomia, ja kukin uusi koordinaattiakseli on lineaarikombinaatio alkuperäisistä muuttujista. 7

11 .. Datan esikäsittely Ennen pääkomponenttien etsimistä dataa yleensä esikäsitellään. Tämä tarkoittaa datan nollakeskiarvoistamista poistamalla siitä keskiarvo. Eräs yleisimmistä metodeista on tehdä datasta sarakekeskeistä, eli vähentää jokaisesta alkiosta kyseisen sarakkeen keskiarvo, joka vastaa siis kyseistä spektrin aallonpituutta. Tämä on yleinen menettely kun kalibrointitehtävä liittyy spektroskoopilla saatuihin arvoihin, ja se on kyseisessä tapauksessa yleensä myöskin ainoa tarvittava. [5] Toinen tapa esikäsitellä dataa on suorittaa autoskaalaus, jossa sarakekeskistyksen lisäksi jokainen alkio jaetaan vastaavan sarakkeen keskihajonnalla, jolloin sarakkeiden varianssiksi tulee. Tämäntyyppistä skaalausta voidaan käyttää kun tutkitaan muuttujien suhteellista tärkeyttä, mutta sitä ei suositella yleisesti käytettäväksi, sillä se lisää kohinan määrää tietyillä alueilla... Pääkomponenttien määrääminen Pääkomponentit voidaan ratkaista singulaariarvohajotelmalla (SVD), ominaisarvohajotelmalla (EVD) tai tähän tarkoitukseen käytettävillä sekventiaalisilla algoritmeilla kuten NIPALS tai POWER. Tarkastelkaamme tässä ominaisarvohajotelmaa. Olkoon x = (x, x,..., x p ) satunnaisvektori, jolle pätee E(x) = 0 ja Cov(x) = Σ. Kovarianssimatriisi Σ on ei-negatiivisesti definiitti: Σ 0. Nollaodotusarvo ei ole rajoittava, sillä aina voidaan määritellä satunnaisvektori, jonka odotusarvo on nolla ts. datasta vähennetään keskiarvo. Tehtävänä on etsiä edellä määritellyn satunnaisvektorin x alkioiden lineaarikombinaatio β T x = p i= β i x i, jonka varianssi on suurin mahdollinen. Varianssi D (β T x) toteuttaa tällöin normeerausehdon β T x = β T β =. Voidaan osoittaa, että max D (β T x) = β β T T Σβ = λ (.) β= jossa λ on kovarianssimatriisin Σ suurin ominaisarvo ja β kovarianssimatriisin Σ suurinta ominaisarvoa vastaava ominaisvektori. Yhtälö. pätee myös seuraaville pääkomponenteille, mutta tällöin yhtälölle täytyy asettaa lisärajoitusehto, jossa jokainen seuraava ominaisvektori on kohtisuorassa edellisiä vektoreita vastaan. Itse pääkomponenttivektoria merkitään y = β T x. Pääkomponenttianalyysin tulokset esitetään yleensä p r pääkomponenttimatriisissa: F r = [ λ β λ β... ] λ r β r = B r Λ / r, jota kutsutaan yleisesti myös latausmatriisiksi. Pääkomponenttipisteet 8

12 saadaan kertomalla havaintovektoreita x pääkomponentteja vastaavilla ominaisvektoreilla: y j = ˆB T r x j, jossa ˆB r on kovarianssimatriisin ˆΣ r suurinta ominaisarvoa vastaavien ominaisvektoreiden muodostama p r-matriisi...4 Pääkomponenttiregressio (PCR) Pääkomponenttiregressio on käänteinen kalibrointimenetelmä, ja kalibrointi suoritetaankin luvussa.. kerrotulla tavalla. Pääkomponenttianalyysi antaa uudet latenttimuuttujat X:n singulaariarvohajotelmalla: X = UΛP T = TP T (.) jossa X on riippumattomien muuttujien eli konsentraatioiden n p- matriisi, jonka sarakkeet ovat konsentraatioita eri aallonpituuksilla. U on painottamattomien (normalisoitujen) pääkomponenttipisteiden n p- matriisi ja T (kokoa n p) sisältää painotetut (normalisoimattomat) pääkomponenttipisteet. Nämä matriisit edustavat mittauksia uudessa latenttimuuttujien muodostamassa koordinaatistossa. Pääkomponenttipistematriisilla on seuraavat ominaisuudet: []. Rivien lukumäärä on yhtä suuri kuin alkuperäisessä datamatriisissa, joka on yleensä näytteiden lukumäärä.. Sarakkeiden lukumäärä on yhtä suuri kuin merkitsevien tekijöiden lukumäärä datassa, ja se voi olla mikä tahansa ykköstä suurempi kokonaisluku. Ideaalitapauksessa sarakkeiden lukumäärä on alkuperäisen datajoukon ainesosien lukumäärä, mutta kohina ja spektrin samankaltaisuus yhdessä vääristävät lukumäärää. Jokainen sarake vastaa pääkomponenttia.. Jokaisen sarakkeen alkion neliöiden summa liittyy matriisin ominaisarvoon. Mitä suurempi ominaisarvo, sitä suurempi merkitys on pääkomponentilla. Pääkomponentit ratkaistaan tärkeysjärjestyksessä. P on p p-latausmatriisi, jonka sarakkeet sisältävät pääkomponentit. Matriisin P alkiot ovat alkuperäisten muuttujien ja ominaisvektorien välisiä latauksia (painokertoimia). Λ on p p-diagonaalimatriisi, joka sisältää singulaariarvot λ i, jotka ovat kovarianssimatriisin (X T 0 X 0 ) ominaisarvojen neliöjuuria. Edellä matriisi X 0 on esikäsitelty keskistämällä alkuperäisestä datamatriisista X. [5] Latausmatriisilla on seuraavat ominaisuudet: 9

13 . Sarakkeiden lukumäärä on yhtä suuri kuin alkuperäisen datamatriisin sarakkeiden lukumäärä, joka on yleensä aallonpituuksien tai havaitsijoiden lukumäärä.. Rivien lukumäärä on yhtä suuri kuin merkitsevien tekijöiden lukumäärä datassa. Jokainen rivi vastaa pääkomponenttia.. Jokaisen sarakkeen alkioiden neliösumma on. HUOM! Matemaattisesti menetelmän johtamisessa tehdään useasti oletus, että n p. Koska spektroskopiassa yleensä mittauksia on vähemmän kuin aallonpituuksia eli n < p, joudutaan yhtälön. dimensioita muuttamaan siten, että size(x) = n p, size(u) = (n ) (n ), size(λ) = (n ) (n ), size(p) = p (n ) ja size(t) = n (n ). Edellä operaattori size() kuvaa matriisin/vektorin kokoa. Tämä johtuu datasta, sillä siitä on mahdollista saada vain n pääkomponenttia kun n < p. [5] Kun PCA on suoritettu, muodostetaan lineaarinen malli Y = Tb + e (.) jolla on ratkaisu ˆb = ( T T T ) T T Y (.4) Uudelle näytteelle saadaan ennusteteina pääkomponenttipisteet (konsentraatiot) käyttämällä kalibrointidatasta saatuja kertoimia ˆx = yˆb (.5) jossa size(x) = (n ), size(y) = p ja size(ˆb) = p (n ). [5]..5 Pääkomponenttimenetelmän edut kalibroinnissa Eräs usean muuttujan kalibroinnissa saavutettava etu on kohinan vähentyminen. Tällöin käytetään yleensä pääkomponenttianalyysia tai vastaavaa korrelaatio-/kovarianssimatriisia hyväksikäyttävää menetelmää, mikä paljastaa datasta suurimman pääkomponentin, eli latenttimuuttujan, joka selittää suurimman osan datan vaihtelusta. Lisäksi data on ortogonaalista, jolloin matriisien kääntäminen ei enää tuota vaikeuksia. Pääkomponenttianalyysia käytettäessä kalibraatiomalli jakautuu tällöin kolmeen osaan: [] ˆ lataukset kertovat yleisesti kaikkien mittausten muodon 0

14 ˆ pääkomponenttipisteet ovat näytekohtaista informaatiota ˆ residuaalit ovat se osa mittauksista joka eroaa yleisestä muodosta Ideaalitapauksessa residuaalit ovat mittauskohinaa. Mallia kutsutaan myös yksikomponenttiseksi, sillä pääkomponenttipistevektoria kohti on vain yksi latausvektori. Malli, eli lataukset ja pääkomponenttipisteet, määritellään painotettuna keskiarvona kaikkien alkuperäisten muuttujien yli. Painot on annettu latausvektorissa, joka kuvaa minkälaista informaatiota näytteet sisältävät. Pääkomponenttipisteitä hyväksikäyttäviä kalibraatiomalleja kutsutaan pääkomponenttiregressiomalleiksi. [] Ennustettaessa uuden näytteen haluttujen analyyttien konsentraatioita näytteestä mitataan sekoiteprofiili (spektri). Kalibrointivaiheessa saaduista latausvektoreista voidaan laskea uuden näytteen lataukset ja pääkomponenttipisteet. Nämä syötetään sen jälkeen regressioyhtälöön ja näin ollaan saatu konsentraatioiden estimaatit. Pääkomponenttiregression tuottama data on hyväksikäytettävissä myös muilla tavoin kuin pelkästään konsentraatioiden estimoinnissa. [] Esimerkiksi latauksia tutkimalla voidaan selvittää mikäli jotkin mitatut muuttujat eivät käyttäydy osotetulla tavalla, esimerkiksi tilanteessa, jossa sensori on vioittunut. Äärimmäinen pääkomponenttipisteen arvo viittaa äärimmäiseen näytteeseen, mahdollisesti poikkeavaan havaintoon. Pääkomponenttipisteistä saadaan selville myös mallin toimivuus, ja tiedolla voidaan myös yrittää parantaa mallia. Lisäksi voidaan tutkia eri mittausten eroavaisuuksia, esimerkiksi pistediagrammien avulla. Kaikki nämä ja muut visualisointikeinot auttavat ymmärtämään miksi malli toimii tai miksi se ei toimi...6 Pääkomponenttimenetelmän haittoja PCR on metodi, jotka perustuu pienimmän neliösumman menetelmään ja tästä syystä se on herkkä poikkeaville havainnoille. Poikkeavia havaintoja on monenlaisia, mallin poikkeavia havaintoja, X:n ja y:n poikkeavia havaintoja sekä näiden kombinaatioita. Ennen mallin luontia ei voida tietää mitkä havainnot ovat mallin suhteen poikkeavia, mutta X:n ja y:n suhteen näitä voidaan tarkastella. X:n suhteen poikkeavien havaintojen etsimiseen voidaan käyttää esimerkiksi Grubbsin tai Dixonin testejä. [5]

15 . Osittainen pienimmän neliösumman menetelmä (PLS).. Yleistä PLS-regressio on usean muuttujan lineaarisen regression (MLR) yleistys, joka kykenee, toisin kuten MLR, analysoimaan voimakkaasti kollineaarista ja kohinaista dataa sekä useita X- ja Y-muuttujia sisältäviä malleja. [] PLS on painotettu regressiometodi, jota käytetään tiivistämään prediktorien (n kpl) datamatriisi X = [x, x,..., x p ] A kappaleen latenttimuuttujajoukoksi tai faktoripisteiksi, jossa A p. Kalibrointiongelmassa PLS pyrkii siis ennustamaan vastemuuttujat Y prediktorien X avulla. Painotettujen regressiomenetelmien etuja on että ne eivät edellytä aallonpituuksien valintaa ennen kalibrointiregressiovektorin määritystä. Tällöin menetelmät sallivat käyttää enemmän aallonpituuksia kuin näytteitä on, ja ne tarjoavat edun signaalin keskiarvoistuksen muodossa, joka vähentää virheitä mitatuissa vasteissa. [0] Monesti puhutaan PLS:stä sekä PLS:sta. Tämä tarkoittaa vain vastemuuttujan Y kokoa. PLS:n tapauksessa Y on vektori, PLS taas tarkoittaa, että kalibroitavana on useampia vastemuuttujia, ja Y on matriisi. Algoritmi toimii edelleen kuitenkin samalla tavalla molemmissa tapauksissa. Seuraavissa PLS:ää käsittelevissä kappaleissa käytän seuraavanlaista notaatiota:

16 a A i N k m X Y b m B c a C E F p a P R r a R Q t a T u a U w a W komponenttien indeksi (mallin dimensiot), a =,,..., A mallin komponenttien kokonaislukumäärä havaintojen/tapausten indeksi, i =,,..., N havaintojen lukumäärä X-muuttujien indeksi, k =,,..., K Y-muuttujien indeksi, m =,,..., M prediktorimuuttujien N K-matriisi vastemuuttujien N M-matriisi Y:n m:s K -regressiokerroinvektrori kaikkien Y:den K M-regressiokerroinmatriisi komponentin a PLSR Y-painot Y-painojen M A-matriisi, c a ovat tämän sarakkeet X-residuaalien N K-matriisi Y-residuaalien N M-matriiisi komponentin a PLSR X-lataukset K A-latausmatriisi, p a ovat tämän sarakkeet korrelaatiokerroin eli selitysaste, kuinka paljon Y -muuttujien vaihtelua on selitetty PLSR-painot jotka on muunnettu komponenteista riippumattomiksi muunnettujen painojen K A-matriisi, jonka sarakkeet ovat r a ristivalidoitu R, kuinka hyvin Y-muuttujia on ennustettu komponentin a X-komponenttipisteet N A-komponenttipistematriisi, jonka sarakkeet ovat t a komponentin a Y-komponenttipisteet N A-komponenttipistematriisi, jonka sarakkeet ovat u a komponentin a PLSR X-painot X-painojen K A-matriisi, jonka sarakkeet ovat w a.. Datan esikäsittely Ennen analyysiä X- ja Y-muuttujat usein ajetaan muunnoksen läpi, jotta niiden jakaumista tulisi symmetrisempiä. Muuttujat, joiden vaihtelu on useita dekadeja muunnetaan usein logaritmisesti. Projektiometodien, kuten PLSR, tulokset riippuvat datan skaalauksesta. Standardi menettelytapa on ollut (i) skaalata jokaisen muuttujan varianssi ykkösen suuruiseksi jakamalla jokainen muuttuja keskihajonnallaan, sekä (ii) keskittää muuttujat vähentämällä niistä keskiarvonsa. Tämä vastaa jokaiselle muuttujalle saman painon antamista (prioritärkeys). []

17 .. PLS-regressiomalli PLS etsii annetusta datasta pienemmän määrän uusia muuttujia t a, a =,,...,A. Sekä X että Y oletetaan ainakin osittain olevan mallinnettu samoilla latenttimuuttujilla. Muuttujien t a oletetaan olevan ortogonaalisia. Ne estimoidaan alkuperäisten muuttujien x k lineaarikombinaatioina, joiden painokertoimet ovat r ka, a =,,...,A t ia = k r ka X ik (.6) joka voidaan esittää matriisimuodossa T = XR (.7) PLS-regression kaksi pääyhtälöä ovat matriisien X ja Y latenttimuuttujien avulla ilmaistut hajotelmat: X ik = a t ia p ak + e ik, (.8) ja y im = a c ma t ia + f im, (.9) jotka ovat matriisimuodossa ilmaistuna sekä X = TP T + E (.0) Y = TC T + F (.) Oheisissa yhtälöissä matriisit P ja C ovat latausmatriiseja. Vastemuuttujamatriisille Y on olemassa vielä oma relaationsa, jonka avulla se voidaan hajoittaa Y-latausmatriisin C avulla: y im = a u ia c am + g im, (.) joka on matriisimuodossa Y = UC T + G (.) Ottamalla huomioon yhtälö.6, saadaan yhtälö.9 näyttämään regressiomallilta: y im c ma r ka x ik + f im = b mk x ik + f im (.4) a k k 4

18 joka voidaan esittää matriisimuodossa Y = XRC T + F = XB + F (.5) PLS-regression regressiokertoimet b mk voidaan kirjoittaa b mk = a c ma r ka (.6) matriisimuodossa B = RC T (.7) Yhtälössä. u ia on Y-matriisin PLS-komponenttipisteet ja c am (monesti merkitään myös q:lla) Y-matriisin lataukset. Vastaavasti yhtälössä.8 p ak on X-matriisin lataukset ja t ia X-matriisin PLS-komponenttipisteet. Lataukset tässäkin pyrkivät selittämään selittävän muuttujan variaatioita. X- komponentit pyrkivät selittämään variaatioita eri aallonpituuksien välillä. Yhtälössä.7 esiintyy muunnettujen X-painojen matriisi R. Alempana määritelty PLS-algoritmi laskee ainoastaan painot W. Muunnetut painot saadaan alkuperäisistä seuraavasti: R = W(P T W) (.8) Kun kertoimet B on määritetty, on mahdollista estimoida uuden näytteen konsentraatiot, kun näytteelle on mitattu spektri x (vaakavektori): ŷ = xb (.9) Regressiokertoimet B tulkitaan usein virheellisesti Y:ssä ilmaistujen ainesosien spektriprofiiliksi. Kertoimet B ovat kuitenkin Y-matriisiin liittyvät regressiokertoimet, eivätkä ne liity matriisiin X. Suora PLS PLS-malli on mahdollista järjestää uudelleen niin, että malli ennustaakin Y:tä X:n sijaan. [8] Yhtälö.5 voidaan uudelleenjärjestää: Y F = XB (.0) ja kertomalla molemmat puolet (B T B) B T :llä, saadaan (Y F)(B T B) B T = XB(B T B) B T (.) Korvaamalla XB(B T B) B T = X E, saadaan (Y F)(B T B) B T = X E (.) 5

19 ja kun määritellään K T = (B T B) B T sekä Ŷ = (Y F), saadaan josta lopulta siirtelemällä termejä saadaan ŶK T = X E (.) X = ŶKT + E (.4) Tästä nähdään, että epäsuorat kalibrointimenetelmät, kuten PLS, kykenevät ennustamaan myös puhtaiden ainesosien spektriprofiileja suoran kalibroinnin tavoin...4 Osittaisen pienimmän neliösumman regressiomallin tulkinta Eräs PLS-regression tulkinta on, että se muodostaa uudet x-muuttujat t a vanhojen x:ien lineaarikombinaationa, ja tämän jälkeen malli käyttää näitä uusia muuttujia ennustamaan Y:tä. Uusia muuttujia muodostetaan vain sellainen määrä, joka on ennustamisessa merkitsevä. Kaikki mallin osat, t, u, w (ja r), p ja c määrittyvät allakuvatun algoritmin perusteella. PLS-regressiomallin tulkinnan kannalta tärkeät muuttujat ovat PLS-komponenttipisteet t ja u, jotka sisältävät informaatiota annetun ongelman ja mallin suhteen. Painot w a (tai r a ) sekä c a kuvaavat kuinka muuttujat muodostavat kvantitatiivisen relaation X:n ja Y:n välille. Suuret painokertoimien arvot kertovat mitkä X-muuttujat ovat tärkeitä, sekä mitkä X-muuttujat sisältävät samaa informaatiota (samanlaiset kertoimet). [] Residuaalit ovat datan se osa, jota malli ei selitä, ja siksi ne ovatkin tärkeitä tutkimuskohteita. Suuret Y-residuaalit viittaavat siihen, että malli on huono, ja normaalipaperikuvat ovat hyvä keino selvittää poikkeavien havaintojen olemassaolo T:n ja Y:n välillä. X:n residuaaleja ei käytetä hyväksi Y:n mallintamisessa, vaikka X-residuaaleista saakin selville poikkeavat havainnot X-avaruudessa, eli molekyylit joiden rakenne ei sovi malliin sekä prosessin osat jotka eroavat normaaleista prosessioperaatioista. PLS-regressiomallin tulkintaan on olemassa muutamia ohjeita: [] ˆ Hanki hyvä tuntemus käsiteltävästä ongelmasta etenkin mitkä vastemuuttujat Y ovat tarkasteltavana mittauksissa ja mallissa, sekä mitä prediktoreja X tulisi mitata ja varioida. Mikäli X-muuttujien koeolosuhteita voidaan muuttaa, on hyvä käyttää hyväksi koesuunnittelua X-matriisin konstruoinnissa. ˆ Hanki hyvää dataa niin prediktoreista kuin vasteista. Monen muuttujat Y:t tarjoavat huomattavasti enemmän informaatiota, sillä ne voidaan 6

20 kaikki analysoida erikseen pääkomponenttianalyysillä. Tämä antaa kuvan systemaattisesta variaatiosta Y:n sisällä, mitkä Y-muuttujat tulisi analysoida yhdessä jne. ˆ Ensimmäinen tieto mallista on sen asteluku A, ts. kuinka monta merkitsevää komponenttia mallissa on. Komponenttien lukumäärä antaa alarajan sille lukumäärälle vaikutuksia, jotka aiheuttavat muutoksia tarkasteltavassa systeemissä. Latenttimuuttujien käsitteen voidaan nähdä olevan yhtäläinen em. vaikutusten kanssa. ˆ Mallin sovitteen hyvyys saadaan selitysasteesta R sekä Q (ristivalidoitu R ). Usean Y-muuttujan tapauksessa on mahdollista määrittää R m ja Q m jokaiselle y m. Selitysasteet R antavat ylärajan sille kuinka hyvin malli selittää dataa ja ennustaa uusia havaintoja, Q antaa vastaavan alarajan. ˆ (u, t)-kuvaajat mallin ensimmäisen kahden tai kolmen dimension suhteen paljastavat datan kaarevuuden, ryhmät sekä poikkeavat havainnot. ˆ (t, t)-kuvaajista on mahdollista nähdä datan homogeenisuudet, ryhmät ja muut ilmiöt. (r, c)-kuvaajat antavat näistä löytyville ilmiöille tulkinnan. ˆ Etenkin spektroskopiassa käytetty datan visualisointitapa on piirtää lataukset p a aallonpituuden funktiona, jolloin saadaan jokaisen komponentin spektri esiin. Latauksia käytetään alkuperäisten muuttujien ja PLS-komponenttipisteiden välisen suhteen tulkinnassa. ˆ Latauksia erikseen tarkasteltaessa positiiviset piikit kuvaajassa aiheutuvat yleensä tarkasteltavan komponentin spektripiikeistä, kun taas negatiiviset piikit vastaavat häiriökomponentteja. [] ˆ Jos esiintyy ongelmia, ts. pieniä R :n tai Q :n arvoja, poikkeavia havaintoja, ryhmiä tai kaarevuuksia PLS-komponenttipisteiden kuvaajissa, ongelma kannattaa yrittää korjata. Residuaalien kuvaajista (normaalipaperikuvat, DModX, DModY) saattaa löytyä lisäinformaatiota ongelman aiheuttajasta. Yksittäiset poikkeavat havainnot tulee tarkastaa datan paikkansapitävyyden varmistamiseksi, ja jos tämä ei auta, poistaa analyysistä (kuitenkin vain jos ne eivät ole kiinnostavia). (u, t)-kuvaajan kaarevuutta voidaan korjata muuntamalla data esim. logaritmisesti tai lisäämällä malliin neliöllisiä tai kuutiollisia termejä. 7

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Regressioanalyysi. Vilkkumaa / Kuusinen 1 Regressioanalyysi Vilkkumaa / Kuusinen 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Halutaan selittää selitettävän muuttujan havaittujen arvojen vaihtelua selittävien muuttujien havaittujen

Lisätiedot

Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu JMP:llä

Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu JMP:llä Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi Esimerkit laskettu JMP:llä Antti Hyttinen Tampereen teknillinen yliopisto 29.12.2003 ii Ohjelmien

Lisätiedot

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä arvon Sisältö arvon Bootstrap-luottamusvälit arvon arvon Oletetaan, että meillä on n kappaletta (x 1, y 1 ),

Lisätiedot

Mat Tilastollisen analyysin perusteet, kevät 2007

Mat Tilastollisen analyysin perusteet, kevät 2007 Mat-.104 Tilastollisen analyysin perusteet, kevät 007 8. luento: Usean selittäjän lineaarinen regressiomalli Kai Virtanen 1 Usean selittäjän lineaarinen regressiomalli Selitettävän muuttujan havaittujen

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35 Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin

Lisätiedot

Vastepintamenetelmä. Kuusinen/Heliövaara 1

Vastepintamenetelmä. Kuusinen/Heliövaara 1 Vastepintamenetelmä Kuusinen/Heliövaara 1 Vastepintamenetelmä Vastepintamenetelmässä pyritään vasteen riippuvuutta siihen vaikuttavista tekijöistä approksimoimaan tekijöiden polynomimuotoisella funktiolla,

Lisätiedot

4.0.2 Kuinka hyvä ennuste on?

4.0.2 Kuinka hyvä ennuste on? Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki

Lisätiedot

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä

3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä 1 3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Inversio-ongelmien laskennallinen peruskurssi Luento 2 Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +

Lisätiedot

Kohdeyleisö: toisen vuoden teekkari

Kohdeyleisö: toisen vuoden teekkari Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y

Lisätiedot

Kokonaislukuoptiomointi Leikkaustasomenetelmät

Kokonaislukuoptiomointi Leikkaustasomenetelmät Kokonaislukuoptiomointi Leikkaustasomenetelmät Systeemianalyysin Laboratorio 19.3.2008 Sisällys Leikkaustasomenetelmät yleisesti Leikkaustasomenetelmät generoivilla kokonaislukujoukoilla Gomoryn leikkaavat

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt ja pienimmän neliösumman menetelmä Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi QR ja PNS PNS-ongelma

Lisätiedot

Diskriminanttianalyysi I

Diskriminanttianalyysi I Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi

Lisätiedot

Otannasta ja mittaamisesta

Otannasta ja mittaamisesta Otannasta ja mittaamisesta Tilastotiede käytännön tutkimuksessa - kurssi, kesä 2001 Reijo Sund Aineistot Kvantitatiivisen tutkimuksen aineistoksi kelpaa periaatteessa kaikki havaintoihin perustuva informaatio,

Lisätiedot

Lineaariset luokittelumallit: regressio ja erotteluanalyysi

Lineaariset luokittelumallit: regressio ja erotteluanalyysi Lineaariset luokittelumallit: regressio ja erotteluanalyysi Aira Hast Johdanto Tarkastellaan menetelmiä, joissa luokittelu tehdään lineaaristen menetelmien avulla. Avaruus jaetaan päätösrajojen avulla

Lisätiedot

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme? TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen TKK (c) Ilkka Mellin (2004) 2 Mitä opimme? 1/4 Tilastollisen tutkimuksen tavoitteena on tehdä johtopäätöksiä prosesseista, jotka generoivat reaalimaailman

Lisätiedot

MS-A0004/A0006 Matriisilaskenta

MS-A0004/A0006 Matriisilaskenta 4. MS-A4/A6 Matriisilaskenta 4. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto..25 Tarkastellaan neliömatriiseja. Kun matriisilla kerrotaan vektoria, vektorin

Lisätiedot

Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. eli matriisissa on 200 riviä (havainnot) ja 7 saraketta (mittaus-arvot)

Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. eli matriisissa on 200 riviä (havainnot) ja 7 saraketta (mittaus-arvot) R-ohjelman käyttö data-analyysissä Panu Somervuo 2014 Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. 0) käynnistetään R-ohjelma Huom.1 allaolevissa ohjeissa '>' merkki on R:n

Lisätiedot

Testejä suhdeasteikollisille muuttujille

Testejä suhdeasteikollisille muuttujille Ilkka Mellin Tilastolliset menetelmät Osa 3: Tilastolliset testit Testejä suhdeasteikollisille muuttujille TKK (c) Ilkka Mellin (007) 1 Testejä suhdeasteikollisille muuttujille >> Testit normaalijakauman

Lisätiedot

Korrelaatiokertoinen määrittely 165

Korrelaatiokertoinen määrittely 165 kertoinen määrittely 165 Olkoot X ja Y välimatka- tai suhdeasteikollisia satunnaismuuttujia. Havaintoaineistona on n:n suuruisesta otoksesta mitatut muuttuja-arvoparit (x 1, y 1 ), (x 2, y 2 ),..., (x

Lisätiedot

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos: 8 Kanta Tässä luvussa tarkastellaan aliavaruuden virittäjävektoreita, jotka muodostavat lineaarisesti riippumattoman jonon. Merkintöjen helpottamiseksi oletetaan luvussa koko ajan, että W on vektoreiden

Lisätiedot

Testit laatueroasteikollisille muuttujille

Testit laatueroasteikollisille muuttujille Ilkka Mellin Tilastolliset menetelmät Osa 3: Tilastolliset testit Testit laatueroasteikollisille muuttujille TKK (c) Ilkka Mellin (2007) 1 Testit laatueroasteikollisille muuttujille >> Laatueroasteikollisten

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 9 1 Implisiittinen derivointi Tarkastellaan nyt yhtälöä F(x, y) = c, jossa x ja y ovat muuttujia ja c on vakio Esimerkki tällaisesta yhtälöstä on x 2 y 5 + 5xy = 14

Lisätiedot

Johdatus lukuteoriaan Harjoitus 2 syksy 2008 Eemeli Blåsten. Ratkaisuehdotelma

Johdatus lukuteoriaan Harjoitus 2 syksy 2008 Eemeli Blåsten. Ratkaisuehdotelma Johdatus lukuteoriaan Harjoitus 2 syksy 2008 Eemeli Blåsten Ratkaisuehdotelma Tehtävä 1 1. Etsi lukujen 4655 ja 12075 suurin yhteinen tekijä ja lausu se kyseisten lukujen lineaarikombinaationa ilman laskimen

Lisätiedot

Identifiointiprosessi

Identifiointiprosessi Alustavia kokeita Identifiointiprosessi Koesuunnittelu, identifiointikoe Mittaustulosten / datan esikäsittely Ei-parametriset menetelmät: - Transientti-, korrelaatio-, taajuus-, Fourier- ja spektraalianalyysi

Lisätiedot

Harha mallin arvioinnissa

Harha mallin arvioinnissa Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö

Lisätiedot

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on

Vektorien pistetulo on aina reaaliluku. Esimerkiksi vektorien v = (3, 2, 0) ja w = (1, 2, 3) pistetulo on 13 Pistetulo Avaruuksissa R 2 ja R 3 on totuttu puhumaan vektorien pituuksista ja vektoreiden välisistä kulmista. Kuten tavallista, näiden käsitteiden yleistäminen korkeampiulotteisiin avaruuksiin ei onnistu

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 14 R. Kangaslampi matriisiteoriaa Matriisinormi

Lisätiedot

Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt

Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt TKK (c) Ilkka Mellin (005) Koesuunnittelu TKK (c) Ilkka Mellin (005) : Mitä opimme? Tarkastelemme tässä luvussa seuraavaa kysymystä: Miten varianssianalyysissa tutkitaan yhden tekijän vaikutusta vastemuuttujaan,

Lisätiedot

xi = yi = 586 Korrelaatiokerroin r: SS xy = x i y i ( x i ) ( y i )/n = SS xx = x 2 i ( x i ) 2 /n =

xi = yi = 586 Korrelaatiokerroin r: SS xy = x i y i ( x i ) ( y i )/n = SS xx = x 2 i ( x i ) 2 /n = 1. Tutkitaan paperin ominaispainon X(kg/dm 3 ) ja puhkaisulujuuden Y (m 2 ) välistä korrelaatiota. Tiettyä laatua olevasta paperierästä on otettu satunnaisesti 10 arkkia ja määritetty jokaisesta arkista

Lisätiedot

Männyn laaturajojen integrointi runkokäyrän ennustamisessa. Laura Koskela Tampereen yliopisto 9.6.2003

Männyn laaturajojen integrointi runkokäyrän ennustamisessa. Laura Koskela Tampereen yliopisto 9.6.2003 Männyn laaturajojen integrointi runkokäyrän ennustamisessa Laura Koskela Tampereen yliopisto 9.6.2003 Johdantoa Pohjoismaisen käytännön mukaan rungot katkaistaan tukeiksi jo metsässä. Katkonnan ohjauksessa

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo

Lisätiedot

1 Ominaisarvot ja ominaisvektorit

1 Ominaisarvot ja ominaisvektorit 1 Ominaisarvot ja ominaisvektorit Olkoon A = [a jk ] n n matriisi. Tarkastellaan vektoriyhtälöä Ax = λx, (1) 1 missä λ on luku. Sellaista λ:n arvoa, jolla yhtälöllä on ratkaisu x 0, kutsutaan matriisin

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 4 Jatkuvuus Jatkuvan funktion määritelmä Tarkastellaan funktiota f x) jossakin tietyssä pisteessä x 0. Tämä funktio on tässä pisteessä joko jatkuva tai epäjatkuva. Jatkuvuuden

Lisätiedot

Harjoitus 7: NCSS - Tilastollinen analyysi

Harjoitus 7: NCSS - Tilastollinen analyysi Harjoitus 7: NCSS - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tilastollinen testaus Testaukseen

Lisätiedot

110. 111. 112. 113. 114. 4. Matriisit ja vektorit. 4.1. Matriisin käsite. 4.2. Matriisialgebra. Olkoon A = , B = Laske A + B, 5 14 9, 1 3 3

110. 111. 112. 113. 114. 4. Matriisit ja vektorit. 4.1. Matriisin käsite. 4.2. Matriisialgebra. Olkoon A = , B = Laske A + B, 5 14 9, 1 3 3 4 Matriisit ja vektorit 4 Matriisin käsite 42 Matriisialgebra 0 2 2 0, B = 2 2 4 6 2 Laske A + B, 2 A + B, AB ja BA A + B = 2 4 6 5, 2 A + B = 5 9 6 5 4 9, 4 7 6 AB = 0 0 0 6 0 0 0, B 22 2 2 0 0 0 6 5

Lisätiedot

Matriisien tulo. Matriisit ja lineaarinen yhtälöryhmä

Matriisien tulo. Matriisit ja lineaarinen yhtälöryhmä Matriisien tulo Lause Olkoot A, B ja C matriiseja ja R Tällöin (a) A(B + C) =AB + AC, (b) (A + B)C = AC + BC, (c) A(BC) =(AB)C, (d) ( A)B = A( B) = (AB), aina, kun kyseiset laskutoimitukset on määritelty

Lisätiedot

Ville Turunen: Mat Matematiikan peruskurssi P1 1. välikokeen alueen teoriatiivistelmä 2007

Ville Turunen: Mat Matematiikan peruskurssi P1 1. välikokeen alueen teoriatiivistelmä 2007 Ville Turunen: Mat-1.1410 Matematiikan peruskurssi P1 1. välikokeen alueen teoriatiivistelmä 2007 Materiaali: kirjat [Adams R. A. Adams: Calculus, a complete course (6th edition), [Lay D. C. Lay: Linear

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 4 To 15.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 4 To 15.9.2011 p. 1/38 p. 1/38 Lineaarinen yhtälöryhmä Lineaarinen yhtälöryhmä matriisimuodossa Ax = b

Lisätiedot

Liittomatriisi. Liittomatriisi. Määritelmä 16 Olkoon A 2 M(n, n). Matriisin A liittomatriisi on cof A 2 M(n, n), missä. 1) i+j det A ij.

Liittomatriisi. Liittomatriisi. Määritelmä 16 Olkoon A 2 M(n, n). Matriisin A liittomatriisi on cof A 2 M(n, n), missä. 1) i+j det A ij. Liittomatriisi Määritelmä 16 Olkoon A 2 M(n, n). Matriisin A liittomatriisi on cof A 2 M(n, n), missä (cof A) ij =( 1) i+j det A ij kaikilla i, j = 1,...,n. Huomautus 8 Olkoon A 2 M(n, n). Tällöin kaikilla

Lisätiedot

pitkittäisaineistoissa

pitkittäisaineistoissa Puuttuvan tiedon käsittelystä p. 1/18 Puuttuvan tiedon käsittelystä pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto Puuttuvan tiedon

Lisätiedot

54. Tehdään yhden selittäjän lineaarinen regressioanalyysi, kun selittäjänä on määrällinen muuttuja (ja selitettävä myös):

54. Tehdään yhden selittäjän lineaarinen regressioanalyysi, kun selittäjänä on määrällinen muuttuja (ja selitettävä myös): Tilastollinen tietojenkäsittely / SPSS Harjoitus 5 Tarkastellaan ensin aineistoa KUNNAT. Kyseessähän on siis kokonaistutkimusaineisto, joten tilastollisia testejä ja niiden merkitsevyystarkasteluja ei

Lisätiedot

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45

MS-A0003/A0005 Matriisilaskenta Laskuharjoitus 2 / vko 45 MS-A0003/A0005 Matriisilaskenta Laskuharjoitus / vko 5 Tehtävä 1 (L): Hahmottele kompleksitasoon ne pisteet, jotka toteuttavat a) z 3 =, b) z + 3 i < 3, c) 1/z >. Yleisesti: ehto z = R, z C muodostaa kompleksitasoon

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 15 1 Tilastollisia testejä Z-testi Normaalijakauman odotusarvon testaus, keskihajonta tunnetaan

Lisätiedot

Aalto-yliopisto, Matematiikan ja systeemianalyysin laitos /Malmivuori MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi,

Aalto-yliopisto, Matematiikan ja systeemianalyysin laitos /Malmivuori MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi, Aalto-yliopisto, Matematiikan ja systeemianalyysin laitos /Malmivuori MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi, kesä 2016 Laskuharjoitus 5, Kotitehtävien palautus laskuharjoitusten

Lisätiedot

Todennäköisyyden ominaisuuksia

Todennäköisyyden ominaisuuksia Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset

Lisätiedot

Insinöörimatematiikka D

Insinöörimatematiikka D Insinöörimatematiikka D M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Matematiikan ja tilastotieteen laitos Turun yliopisto 2015 M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi Luentokalvot

Lisätiedot

Osa 2: Otokset, otosjakaumat ja estimointi

Osa 2: Otokset, otosjakaumat ja estimointi Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2007) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila

Lisätiedot

5 Ominaisarvot ja ominaisvektorit

5 Ominaisarvot ja ominaisvektorit 5 Ominaisarvot ja ominaisvektorit Olkoon A = [a jk ] n n matriisi. Tarkastellaan vektoriyhtälöä Ax = λx, (1) missä λ on luku. Sellaista λ:n arvoa, jolla yhtälöllä on ratkaisu x 0, kutsutaan matriisin A

Lisätiedot

Pienimmän neliösumman menetelmä (PNS)

Pienimmän neliösumman menetelmä (PNS) neliösumman Perusongelman kuvaus 1 Tarkastellaan neljää pitkää aikasarjaa q 1 = (q 11,q 21,...,q 10,1 ) T, q 2 = (q 12,q 22,...,q 10,2 ) T, q 3 = (q 13,q 23,...,q 10,3 ) T, ja p 1 = (p 11,p 21,...,p 10,1

Lisätiedot

1. PÄÄTTELY YHDEN SELITTÄJÄN LINEAARISESTA REGRESSIOMALLISTA

1. PÄÄTTELY YHDEN SELITTÄJÄN LINEAARISESTA REGRESSIOMALLISTA Mat-2.104 Tilastollisen analyysin perusteet / Ratkaisut Aiheet: Avainsanat Päättely yhden selittäjän lineaarisesta regressiomallista Ennustaminen, Ennuste, Ennusteen luottamusväli, Estimaatti, Estimaattori,

Lisätiedot

Pienimmän neliösumman menetelmä (PNS)

Pienimmän neliösumman menetelmä (PNS) neliösumman Perusongelman kuvaus 1 Tarkastellaan neljää pitkää aikasarjaa q 1 = (q 11,q 21,...,q 10,1 ) T, q 2 = (q 12,q 22,...,q 10,2 ) T, q 3 = (q 13,q 23,...,q 10,3 ) T, ja p 1 = (p 11,p 21,...,p 10,1

Lisätiedot

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 4A Parametrien estimointi Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016, periodi

Lisätiedot

Ilkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2007) 1

Ilkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2007) 1 Ilkka Mellin Tilastolliset menetelmät Osa 4: Lineaarinen regressioanalyysi Yleinen lineaarinen malli TKK (c) Ilkka Mellin (2007) 1 Yleinen lineaarinen malli >> Usean selittäjän lineaarinen regressiomalli

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 6 To 22.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 6 To 22.9.2011 p. 1/38 p. 1/38 Ominaisarvotehtävät Monet sovellukset johtavat ominaisarvotehtäviin Yksi

Lisätiedot

Paikannuksen matematiikka MAT

Paikannuksen matematiikka MAT TA M P E R E U N I V E R S I T Y O F T E C H N O L O G Y M a t h e m a t i c s Paikannuksen matematiikka MAT-45800 4..008. p.1/4 Käytännön järjestelyt Kotisivu: http://math.tut.fi/courses/mat-45800/ Luennot:

Lisätiedot

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016 Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.

Lisätiedot

3.2.2 Tikhonovin regularisaatio

3.2.2 Tikhonovin regularisaatio 3 Tikhonovin regularisaatio Olkoon x 0 R n tuntematon, M R m n teoriamatriisi ja y Mx + ε R m (316 annettu data Häiriöherkässä ongelmassa pienimmän neliösumman miniminormiratkaisu x M + y Q N (M x + M

Lisätiedot

Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja

Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja 7 NELIÖMATRIISIN DIAGONALISOINTI. Ortogonaaliset matriisit Neliömatriisi A on ortogonaalinen (eli ortogonaalimatriisi), jos sen alkiot ovat reaalisia ja A - = A T () Muistutus: Kokoa n olevien vektorien

Lisätiedot

Maksimit ja minimit 1/5 Sisältö ESITIEDOT: reaalifunktiot, derivaatta

Maksimit ja minimit 1/5 Sisältö ESITIEDOT: reaalifunktiot, derivaatta Maksimit ja minimit 1/5 Sisältö Funktion kasvavuus ja vähenevyys; paikalliset ääriarvot Jos derivoituvan reaalifunktion f derivaatta tietyssä pisteessä on positiivinen, f (x 0 ) > 0, niin funktion tangentti

Lisätiedot

031021P Tilastomatematiikka (5 op) viikko 6

031021P Tilastomatematiikka (5 op) viikko 6 031021P Tilastomatematiikka (5 op) viikko 6 Jukka Kemppainen Mathematics Division Odotusarvojen erotuksen testi, hajonnat σ 1 σ 2 tuntemattomia Oletetaan jälleen, että X ja Y ovat normaalijakautuneita.

Lisätiedot

MAB3 - Harjoitustehtävien ratkaisut:

MAB3 - Harjoitustehtävien ratkaisut: MAB - Harjoitustehtävien ratkaisut: Funktio. Piirretään koordinaatistoakselit ja sijoitetaan pisteet:. a) Funktioiden nollakohdat löydetään etsimällä kuvaajien ja - akselin leikkauspisteitä. Funktiolla

Lisätiedot

Matematiikan tukikurssi, kurssikerta 3

Matematiikan tukikurssi, kurssikerta 3 Matematiikan tukikurssi, kurssikerta 3 1 Epäyhtälöitä Aivan aluksi lienee syytä esittää luvun itseisarvon määritelmä: { x kun x 0 x = x kun x < 0 Siispä esimerkiksi 10 = 10 ja 10 = 10. Seuraavaksi listaus

Lisätiedot

Yhtälöryhmät 1/6 Sisältö ESITIEDOT: yhtälöt

Yhtälöryhmät 1/6 Sisältö ESITIEDOT: yhtälöt Yhtälöryhmät 1/6 Sisältö Yhtälöryhmä Yhtälöryhmässä on useita yhtälöitä ja yleensä myös useita tuntemattomia. Tavoitteena on löytää tuntemattomille sellaiset arvot, että kaikki yhtälöt toteutuvat samanaikaisesti.

Lisätiedot

Johdatus regressioanalyysiin

Johdatus regressioanalyysiin Ilkka Mellin Tilastolliset menetelmät Osa 4: Lineaarinen regressioanalyysi Johdatus regressioanalyysiin TKK (c) Ilkka Mellin (2007) 1 Johdatus regressioanalyysiin >> Regressioanalyysin lähtökohdat ja tavoitteet

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisihajotelmat: Schur ja Jordan Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi Matriisihajotelmat:

Lisätiedot

FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa. 6. luento. Pertti Palo

FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa. 6. luento. Pertti Palo FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa 6. luento Pertti Palo 1.11.2012 Käytännön asioita Harjoitustöiden palautus sittenkin sähköpostilla. PalautusDL:n jälkeen tiistaina netistä löytyy

Lisätiedot

Simplex-algoritmi. T Informaatiotekniikan seminaari , Susanna Moisala

Simplex-algoritmi. T Informaatiotekniikan seminaari , Susanna Moisala Simplex-algoritmi T-6.5 Informaatiotekniikan seminaari..8, Susanna Moisala Sisältö Simplex-algoritmi Lähtökohdat Miten ongelmasta muodostetaan ns. Simplextaulukko Miten haetaan käypä aloitusratkaisu Mitä

Lisätiedot

ABHELSINKI UNIVERSITY OF TECHNOLOGY

ABHELSINKI UNIVERSITY OF TECHNOLOGY Tilastollinen testaus Tilastollinen testaus Tilastollisessa testauksessa tutkitaan tutkimuskohteita koskevien oletusten tai väitteiden paikkansapitävyyttä havaintojen avulla. Testattavat oletukset tai

Lisätiedot

ẋ(t) = s x (t) + f x y(t) u x x(t) ẏ(t) = s y (t) + f y x(t) u y y(t),

ẋ(t) = s x (t) + f x y(t) u x x(t) ẏ(t) = s y (t) + f y x(t) u y y(t), Aalto-yliopiston Perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Mat-2.4129 Systeemien Identifiointi 1. harjoituksen ratkaisut 1. Tarkastellaan maita X ja Y. Olkoon näiden varustelutaso

Lisätiedot

Tilastollisen analyysin perusteet Luento 11: Epäparametrinen vastine ANOVAlle

Tilastollisen analyysin perusteet Luento 11: Epäparametrinen vastine ANOVAlle Tilastollisen analyysin perusteet Luento 11: Epäparametrinen vastine ANOVAlle - Sisältö - - - Varianssianalyysi Varianssianalyysissä (ANOVA) testataan oletusta normaalijakautuneiden otosten odotusarvojen

Lisätiedot

Kemometriasta. Matti Hotokka Fysikaalisen kemian laitos Åbo Akademi Http://www.abo.fi/~mhotokka

Kemometriasta. Matti Hotokka Fysikaalisen kemian laitos Åbo Akademi Http://www.abo.fi/~mhotokka Kemometriasta Matti Hotokka Fysikaalisen kemian laitos Åbo Akademi Http://www.abo.fi/~mhotokka Mistä puhutaan? Määritelmiä Määritys, rinnakkaismääritys Mittaustuloksen luotettavuus Kalibrointi Mittausten

Lisätiedot

Matriisilaskenta Luento 12: Vektoriavaruuden kannan olemassaolo

Matriisilaskenta Luento 12: Vektoriavaruuden kannan olemassaolo Matriisilaskenta Luento 12: Vektoriavaruuden kannan olemassaolo Antti Rasila 2016 Vektoriavaruuden kannan olemassaolo Jos {v 1, v 2,..., v k } on äärellisulotteisen vektoriavaruuden V lineaarisesti riippumaton

Lisätiedot

Pienimmän Neliösumman menetelmä (PNS)

Pienimmän Neliösumman menetelmä (PNS) neliösumman Perusongelman kuvaus 1 Tarkastellaan neljää pitkää aikasarjaa q 1 = (q 11,q 21,...,q 10,1 ) T, q 2 = (q 12,q 22,...,q 10,2 ) T, q 3 = (q 13,q 23,...,q 10,3 ) T, ja p 1 = (p 11,p 21,...,p 10,1

Lisätiedot

Lineaarialgebra ja differentiaaliyhtälöt Laskuharjoitus 1 / vko 44

Lineaarialgebra ja differentiaaliyhtälöt Laskuharjoitus 1 / vko 44 Lineaarialgebra ja differentiaaliyhtälöt Laskuharjoitus 1 / vko 44 Tehtävät 1-3 lasketaan alkuviikon harjoituksissa, verkkotehtävien dl on lauantaina aamuyöllä. Tehtävät 4 ja 5 lasketaan loppuviikon harjoituksissa.

Lisätiedot

Maximum likelihood-estimointi Alkeet

Maximum likelihood-estimointi Alkeet Maximum likelihood-estimointi Alkeet Keijo Ruotsalainen Oulun yliopisto, Teknillinen tiedekunta Matematiikan jaos Maximum likelihood-estimointi p.1/20 Maximum Likelihood-estimointi satunnaismuuttujan X

Lisätiedot

Martingaalit ja informaatioprosessit

Martingaalit ja informaatioprosessit 4A Martingaalit ja informaatioprosessit Tämän harjoituksen tavoitteena on tutustua satunnaisvektorin informaation suhteen lasketun ehdollisen odotusarvon käsitteeseen sekä oppia tunnistamaan, milloin annettu

Lisätiedot

Mittausjärjestelmän kalibrointi ja mittausepävarmuus

Mittausjärjestelmän kalibrointi ja mittausepävarmuus Mittausjärjestelmän kalibrointi ja mittausepävarmuus Kalibrointi kalibroinnin merkitys kansainvälinen ja kansallinen mittanormaalijärjestelmä kalibroinnin määritelmä mittausjärjestelmän kalibrointivaihtoehdot

Lisätiedot

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1 TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että

Lisätiedot

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi 3B Tilastolliset datajoukot Lasse Leskelä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Lukuvuosi 2016

Lisätiedot

Tilastollisen analyysin perusteet Luento 2: Tilastolliset testit

Tilastollisen analyysin perusteet Luento 2: Tilastolliset testit Tilastollisen analyysin perusteet Luento 2: Tilastolliset testit Sisältö Tilastollisia testejä tehdään jatkuvasti lukemattomilla aloilla. Meitä saattaa kiinnostaa esimerkiksi se, että onko miesten ja

Lisätiedot

Ominaisvektoreiden lineaarinen riippumattomuus

Ominaisvektoreiden lineaarinen riippumattomuus Ominaisvektoreiden lineaarinen riippumattomuus Lause 17 Oletetaan, että A on n n -matriisi. Oletetaan, että λ 1,..., λ m ovat matriisin A eri ominaisarvoja, ja oletetaan, että v 1,..., v m ovat jotkin

Lisätiedot

1 Singulaariarvohajoitelma

1 Singulaariarvohajoitelma 1 Singulaariarvohajoitelma Tähän mennessä on tutkittu yhtälöryhmän Ax = y ratkaisuja ja törmätty tapauksiin joissa yhtälöryhmällä on yksikäsitteinen ratkaisu ("helppo"tapaus) yhtälöryhmällä on ääretön

Lisätiedot

A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä.

A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Esimerkki otteluvoiton todennäköisyys A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Yksittäisessä pelissä A voittaa todennäköisyydellä p ja B todennäköisyydellä q =

Lisätiedot

9. laskuharjoituskierros, vko 12-13, ratkaisut

9. laskuharjoituskierros, vko 12-13, ratkaisut 9. laskuharjoituskierros, vko 12-13, ratkaisut D1. Olkoot X i, i = 1, 2,..., n riippumattomia, samaa eksponenttijakaumaa noudattavia satunnaismuuttujia, joiden odotusarvo E(X i = β, toisin sanoen X i :t

Lisätiedot

Lineaarialgebra ja differentiaaliyhtälöt Harjoitus 4 / Ratkaisut

Lineaarialgebra ja differentiaaliyhtälöt Harjoitus 4 / Ratkaisut MS-C34 Lineaarialgebra ja differentiaaliyhtälöt, IV/26 Lineaarialgebra ja differentiaaliyhtälöt Harjoitus 4 / t Alkuviikon tuntitehtävä Hahmottele matriisia A ( 2 6 3 vastaava vektorikenttä Matriisia A

Lisätiedot

2 Osittaisderivaattojen sovelluksia

2 Osittaisderivaattojen sovelluksia 2 Osittaisderivaattojen sovelluksia 2.1 Ääriarvot Yhden muuttujan funktiolla f(x) on lokaali maksimiarvo (lokaali minimiarvo) pisteessä a, jos f(x) f(a) (f(x) f(a)) kaikilla x:n arvoilla riittävän lähellä

Lisätiedot

Matriisilaskenta, LH4, 2004, ratkaisut 1. Hae seuraavien R 4 :n aliavaruuksien dimensiot, jotka sisältävät vain

Matriisilaskenta, LH4, 2004, ratkaisut 1. Hae seuraavien R 4 :n aliavaruuksien dimensiot, jotka sisältävät vain Matriisilaskenta LH4 24 ratkaisut 1 Hae seuraavien R 4 :n aliavaruuksien dimensiot jotka sisältävät vain a) Kaikki muotoa (a b c d) olevat vektorit joilla d a + b b) Kaikki muotoa (a b c d) olevat vektorit

Lisätiedot

031021P Tilastomatematiikka (5 op) viikko 6

031021P Tilastomatematiikka (5 op) viikko 6 031021P Tilastomatematiikka (5 op) viikko 6 Jukka Kemppainen Mathematics Division Satunnaismuuttujien välinen riippuvuus Kokeellisen tutkimuksen keskeinen tehtävä on selvittää mitattavien muuttujien välisiä

Lisätiedot

Insinöörimatematiikka D

Insinöörimatematiikka D Insinöörimatematiikka D M. Hirvensalo mikhirve@utu.fi V. Junnila viljun@utu.fi A. Lepistö alepisto@utu.fi Matematiikan ja tilastotieteen laitos Turun yliopisto 2016 M. Hirvensalo V. Junnila A. Lepistö

Lisätiedot

1 Määrittelyjä ja aputuloksia

1 Määrittelyjä ja aputuloksia 1 Määrittelyjä ja aputuloksia 1.1 Supremum ja infimum Aluksi kerrataan pienimmän ylärajan (supremum) ja suurimman alarajan (infimum) perusominaisuuksia ja esitetään muutamia myöhemmissä todistuksissa tarvittavia

Lisätiedot

LIITE 1 VIRHEEN ARVIOINNISTA

LIITE 1 VIRHEEN ARVIOINNISTA 1 Mihin tarvitset virheen arviointia? Mittaustuloksiin sisältyy aina virhettä, vaikka mittauslaite olisi miten uudenaikainen tai kallis tahansa ja mittaaja olisi alansa huippututkija Tästä johtuen mittaustuloksista

Lisätiedot

Tilastollisen analyysin perusteet Luento 3: Epäparametriset tilastolliset testit

Tilastollisen analyysin perusteet Luento 3: Epäparametriset tilastolliset testit Tilastollisen analyysin perusteet Luento 3: Epäparametriset tilastolliset testit s t ja t kahden Sisältö t ja t t ja t kahden kahden t ja t kahden t ja t Tällä luennolla käsitellään epäparametrisia eli

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Lineaarikuvaukset Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 16 R. Kangaslampi Vektoriavaruudet Lineaarikuvaus

Lisätiedot

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1 Tilastotieteen kertaus Vilkkumaa / Kuusinen 1 Motivointi Reaalimaailman ilmiöihin liittyy tyypillisesti satunnaisuutta ja epävarmuutta Ilmiöihin liittyvien havaintojen ajatellaan usein olevan peräisin

Lisätiedot

Kaksisuuntainen varianssianalyysi. Heliövaara 1

Kaksisuuntainen varianssianalyysi. Heliövaara 1 Kaksisuuntainen varianssianalyysi Heliövaara 1 Kaksi- tai useampisuuntainen varianssianalyysi Kaksi- tai useampisuuntaisessa varianssianalyysissa perusjoukko on jaettu ryhmiin kahden tai useamman tekijän

Lisätiedot

Mittausepävarmuuden laskeminen

Mittausepävarmuuden laskeminen Mittausepävarmuuden laskeminen Mittausepävarmuuden laskemisesta on useita standardeja ja suosituksia Yleisimmin hyväksytty on International Organization for Standardization (ISO): Guide to the epression

Lisätiedot

1 Matriisit ja lineaariset yhtälöryhmät

1 Matriisit ja lineaariset yhtälöryhmät 1 Matriisit ja lineaariset yhtälöryhmät 11 Yhtälöryhmä matriisimuodossa m n-matriisi sisältää mn kpl reaali- tai kompleksilukuja, jotka on asetetettu suorakaiteen muotoiseksi kaavioksi: a 11 a 12 a 1n

Lisätiedot