PLS-REGRESSIO KEMOMETRIAN KALIBROINTIONGELMASSA
|
|
- Arto Lahtinen
- 8 vuotta sitten
- Katselukertoja:
Transkriptio
1 AB Mat-.08 Sovelletun matematiikan erikoistyöt PLS-REGRESSIO KEMOMETRIAN KALIBROINTIONGELMASSA Teppo-Heikki Saari, 58096R 9. helmikuuta 008 TEKNILLINEN KORKEAKOULU Teknillisen fysiikan ja matematiikan osasto Systeemianalyysin laboratorio
2 Sisältö Johdanto. Yhden muuttujan kalibrointi Usean muuttujan kalibrointi Klassinen suora ja epäsuora kalibrointi Käänteinen kalibrointi Kalibrointimenetelmistä 7. Pääkomponenttianalyysi ja -regressio Yleistä Datan esikäsittely Pääkomponenttien määrääminen Pääkomponenttiregressio (PCR) Pääkomponenttimenetelmän edut kalibroinnissa Pääkomponenttimenetelmän haittoja Osittainen pienimmän neliösumman menetelmä (PLS) Yleistä Datan esikäsittely PLS-regressiomalli Osittaisen pienimmän neliösumman regressiomallin tulkinta Geometrinen tulkinta PLS-regressioalgoritmi Mallin validointi Puuttuvat havainnot Osittaisen pienimmän neliösumman menetelmän haittoja ja etuja PLS:n yhteydet muihin monimuuttujamenetelmiin... Sovellus bensiinin oktaaniluvun määritykseen 4. Data Tulokset
3 4 Pohdinnat 4 Kirjallisuutta 5
4 Luku Johdanto Kemometria on tieteenala, jonka tutkimuskohteena on tilastollisten ja matemaattisten metodien, sekä myös metodien, joiden pohjana on matemaattinen logiikka, soveltaminen kemiaan. [4] On myös väitetty, että oikeanlaisen analyyttisen kemian täytyisi sisältää myös kemometrinen lähestymistapa, ja että näin tekemällä saavutetaan huomattavia etuja. [] Kemometria on tieteenalana ollut vahvassa kasvussa kolmisenkymmentä vuotta, ja eräs sen tärkeimpiä ongelmia on kalibrointi. Kalibrointi viittaa prosessiin, jossa määritetään suhteet mittausinstrumentin ulostulojen/vasteiden ja konsentraatioiden välille. Kalibraatio yleisesti viittaa myös usein mittainstrumentin ulostulon tai indikaattorin säätämiseen siten, että indikaattori vastaa tiettyä mittastandardia tietyllä tarkkuudella. [0] Kalibrointia tarvitaan silloin kun työläs tai kallis mutta tarkka mittaus halutaan korvata halvalla ja nopealla mutta epäsuoralla tai vähemmän tarkalla mittauksella. [9] Kemometrisestä kalibroinnista voidaan erotella monenlaisia osa-alueita: kohinan vähentäminen mittauksissa, häiriötekijöiden käsittely, eksploratorinen datan käsittely sekä mahdollisten poikkeavien havaintojen minimointi. Lisäksi myös koesuunnittelulla on erittäin suuri painoarvo. [0, ] Tämän työn tarkoituksena on tarkastella kemometrian kalibrointiongelmaa sekä sen erilaisia ratkaisuja sovellettujen regressiomallien avulla. Ensimmäisessä kappaleessa tarkastellaan yksi- ja moniulotteista kemometrian kalibrointiongelmaa, toisessa kappaleessa tutustutaan tarkemmin yleisimpiin kalibrointimenetelmiin, kolmannessa kappaleessa sovelletaan pääkomponenttiregressiota sekä PLS-regressiota bensiinin oktaaniluvun määritykseen. Viimeisessä kappaleessa on hieman pohdintaa aiheeseen liittyen.
5 . Yhden muuttujan kalibrointi Kalibrointi voidaan suorittaa sekä yhdelle että monelle muuttujalle. Yhden muuttujan kalibroinnissa datasta valikoituu kaikkein käyttökelpoisin muuttuja, joka kuvaa datan vaihtelua parhaiten. Monissa kemiallisissa tutkimuksissa halutaan selvittää yhden tai useamman ainesosan konsentraatiot mittaamalla systeemin ominaisuuksia. Tässä voidaan käyttää hyväksi Beer-Lambertin lakia elektromagneettiselle säteilylle, joka antaa yhteyden absorboituneen säteilyn aallonpituuden ja konsentraation välille: I(λ) I 0 (λ) = e ɛ λcl (.) jossa I(λ) on valon intensiteetti aallonpituudella λ, joka läpäisee näytteen, jonka paksuus on l. I 0 (λ) on tulevan valon intensiteetti aallonpituudella λ, ɛ λ on moolinen häviämiskerroin (molar extinction coefficient), eli absoptiivisuus moolia kohden, ja c on aineen konsentraatio. Systeemin kalibrointi tapahtuu mittaamalla sarja näytteitä valon absorptiosta kun aineen konsentraatio on tunnettu: [ ] I0 (λ) log = α λ = ɛcl (.) I(λ) missä α on absorption määrä tietyllä aallonpituudella. [] Jos oletetaan, että mittausvirheet ovat odotusarvoltaan nolla ja korreloimattomia, voidaan mitattuihin arvoihin sovittaa lineaarinen funktio tavallisen pienimmän neliösumman menetelmän (OLS) avulla. Mallin osat ovat tällöin [6] ˆ Malli: y i = B + Ax i + e yi = E(y i ) + e yi (.) ˆ Estimaatti: ˆ Residuaali: ŷ i = ˆB + Âx i (.4) d yi = y i ŷ i = y i ˆB Âx i (.5) jossa E(y i ) on y i :n odotusarvo. Yleinen neliösummakriteeri ilmaistaan neliövirhesummana m m SSD = [(y i ŷ i )/σ i ] = (d yi /σ i ) (.6) i= jossa σ i on keskihajonta havaintopisteelle i ja m on kalibrointimittausten määrä. Tehtävänä on siis minimoida neliövirhesummaa.6. Kriteeri muuttuu mikäli jokin seuraavista ehdoista täyttyy: [6] i=
6 . Virheet esiintyvät vain mitatuissa arvoissa y: Aσ x σ y (.7) ja lisäksi jos virheet σ y ovat vakioita useissa kalibrointipisteissä (homoskedastisuus): σ y = σ y =... = σ yh = σ y (.8) tai ilmaistuna näiden estimaateilla, jolloin täytyy ottaa huomioon virheen tilastollinen riski α s y = s y =... = s yn = s y (.9) Mikäli virheet ovat homoskedastisia ja x:n virheet voidaan jättää huomiotta, saadaan pienimmän neliösumman minimoitavaksi kriteeriksi m SSD = d yi (.0) i=. Mikäli mittausvirheet σ y vaihtelevat (σ x edelleen pieni verrattuna mittausvirheisiin), täytyy olettaa heteroskedastisuus, ja minimoitava kriteeri on muotoa.6.. Yleisessä tapauksessa molemmat muuttujat sisältävät virhettä, ja tällöin yhtälö.7 ei päde, virhe on muotoa σ i = σ yi + A σ xi (.) jolloin summa d x+y täytyy minimoida ortogonaalisesti regressiosuoran suhteen, eikä koordinaattiakselin suuntaisesti. Yhtälön.7 mukaan virheet mittauksissa ovat häviävän pieniä ja konsentraatiot ovat täten todellisia. Tämän ehdon täyttyessä kalibrointifunktioksi tulee y = B x + A x x + e y (.) jonka parametrit A x ja B x saadaan estimoitua normaalisella pienimmän neliösumman algoritmilla homoskedastisessa tapauksessa:  x = Q xy /Q xx (.) ˆB x = ( y  x x ) /m (.4) Q xx = j Q yy = j Q xy = j (x j x) (.5) (y j ȳ) (.6) (x j x) (y j ȳ) (.7)
7 Korrelaatiokertoimella yllämainitussa regressiossa ei ole merkitystä, sillä arvot x eivät ole satunnaismuuttujia kalibroinnissa (x:n virhe on merkityksetön). Koska yhden muuttujan kalibrointi suoritetaan yhden muuttujan lineaarisella regressiolla, datan tarvitsee täyttää joitakin oletuksia, jotka ovat [] ˆ Selektiivisyys: yhden muuttujan kalibraatiomalli voi tarjota tarkkoja tuloksia vain silloin, kun mitattuun signaaliin ei vaikuta mikään muu lähde. Toisin sanoen vain tutkimuksen kohteena olevan analyytin tulisi vaikuttaa mittaustuloksiin. Yhden muuttujan signaalista on vaikea tarkistaa ovatko tulokset oikeita, ja tulosten oikeellisuus jää uskonvaraiseksi. ˆ Lineaarisuus: analyytin konsentraation ja signaalin välillä täytyy olla lineaarinen riippuvuus. Tämä on selvää kun käytetään lineaarisia menetelmiä.. Usean muuttujan kalibrointi.. Klassinen suora ja epäsuora kalibrointi Kun näytteessä on enemmän kuin yhtä ainetta, ongelma tulee vaikeammaksi sillä systeemissä useat eri aineet saattavat absorboida samalla aallonpituudella. Tietyllä aallonpituudella useiden eri aineiden seoksen absorptio kiinnitetyn matkan l yli voidaan tulkita yksittäisten ainesosien absorptioiden painotettuna summana, kun useaa absorboivaa ainesosaa mitataan m eri taajuudella: p y j (λ i ) = ɛ (λ i )c j l + ɛ(λ i )c j l ɛ p (λ i )c pj l = ɛ k (λ i )c kj l (.8) k= jossa i on indeksi aallonpituuksille,..., m, j on indeksi näytteille,.., j ja komponenttien määrä, joka siis tulee määrittää ongelmassa, on p. Yhtälö.8 saadaan kirjoitettua matriisimuotoon: Y = XA (.9) jossa Y on n m-matriisi, joka sisältää riippuvat muuttujat absorptiot m eri aallonpituudella tai vasteet m eri sensorille; X on n p-matriisi, joka sisältää riippumattomat muuttujat konsentraatiot n eri ainesosalle; ja A on p m-matriisi, joka sisältää kalibrointikertoimet (nk. herkkyysmatriisi). 4
8 n on kalibrointistandardien lukumäärä (seokset), joka on sama kuin mittausten lukumäärä. [7] Klassista kalibrointia voidaan käyttää vain kun kaikki ainesosat, jotka vaikuttavat spekrin muotoon ovat tunnettuja. Lisäksi voimassa on rajoite, joka kieltää ainesosien reaktiot toisten ainesosien tai analyyttien välillä, sekä näiden vaikutukset (esim. lämpötilanmuutokset). Konsentraatioiden estimaatit saadaan pienimmän neliösumman menetelmällä: ˆX = YA +, missä A + on yleistetty Moore-Penrosen m p- pseudoinverssimatriisi A + = (A T A) A T (.0) Mikäli puhtaan ainesosan spektriä ei voida mitata suoraan, kalibraatiodata voidaan keskittää (ts. poistaa keskiarvot: y i ȳ, x i x). Vaikka puhtaan ainesosan spektriä ei voisikaan suoraa mitata, voidaan A-matriisi estimoida epäsuorasti spektristä olettaen että kaikki ainesosat analyytistä tunnetaan: Â = (X T X) X T Y (.) Tämän jälkeen analyyttisten arvojen estimointi toimii samalla tavalla pienimmän neliösumman estimaatteina: [7] ˆX = YÂ T (.) Kalibrointiongelman ratkaisemiseen on yhden komponentin tapauksessa käytetty tavallista lineaarista regressiota, joka toimiikin erittäin hyvin. Usean komponentin tapauksessa ongelmaksi muodostuvat kollineaarisuus, vierekkäisten aallonpituuksien korrelaatio ja mittausvirheet. [] Näiden tekijöiden välttämiseksi käytetään yleensä biasoituja regressiometodeja, joita yleisesti kutsutaan usean muuttujan kalibrointimenetelmiksi. Suoraa kalibrointia voidaan käyttää kun kalibrointikertoimet ovat tunnettuja, muutoin käytetään hyväksi epäsuoraa kalibrointia. Epäsuorassa kalibroinnissa kalibrointikertoimet lasketaan kokeellisesti määritettyjen spektrikonsentraatio-relaatioiden avulla... Käänteinen kalibrointi Kuten jo aiemmin on todettu, klassinen suora tai epäsuora kalibrointi tapahtuu pienimmän neliösumman menetelmällä. Analyyttiset arvot x oletetaan (mittaus)virheettömiksi, tai ainakin erittäin pieniksi verrattuna y:n virheisiin. Lisäksi systeemin kaikkien ainesosien täytyy olla tunnettuja ja mukana kalibroinnissa. Mikäli näitä ehtoja ei ole täytetty, joudutaan käyttämään käänteistä kalibrointia. [7] 5
9 Käänteisessä kalibroinnissa analyyttiset arvot x (konsentraatiot) regressoidaan mitatuille (spektrin) arvoille y. Vaikka pienimmän neliösumman virheettömysvaatimusta rikotaankin, sillä mittaukset y eivät ole virheettömiä, voidaan silti osoittaa Monte Carlo -simuloinneilla, että käänteisen kalibroinnin konsentraatio = f(mittaus) tuottamat ennusteet ovat tarkempia kuin klassisen kalibroinnin mittaus = f(konsentraatio) tuottamat ennusteet. [5] Tämä pätee erityisesti monen muuttujan kalibroinnissa. [7] Käänteistä kalibraatiomallia kutsutaan usein myös m n P-matriisimalliksi: X = YP. Matriisin P alkiot ovat kalibraatiokertoimia, jotka voidaan estimoida: ˆP = Y + X = (Y T Y) Y T X (.) Tuntematon näyte voidaan analysoida (ts. selvittää konsentraatiot) sen mitatusta spektristä y: ˆx = yˆp (.4) On epäedullista, että kalibraatiokertoimet, eli matriisin P alkiot, eivät omaa minkäänlaista fysikaalista merkitystä sillä ne eivät heijasta yksittäisen ainesosan spektriä. Lisäksi voi esiintyä multikollineaarisuuksia jotka tekevät matriisin Y kääntämisestä vaikeaa. Toisaalta käytettäessä latenttimuuttujia alkuperäisten muuttujien tilalla, voidaan käyttää pehmeitä mallinnusmetodeja, jotka perustuvat käänteiseen kalibrointiin jossa analyyttiset arvot regressoidaan spektraalidatalle: X = YB (.5) jossa B on kalibrointikertoimien m n-matriisi. Toisin kuten P-matriisin kanssa, kaikkia spektrin Y dimensioita ei käytetä, vaan ainoastaan ne, jotka on havaittu tärkeiksi tiettyjen pääkomponenttien suhteen. Tällöin B- matriisin kertoimien estimointi voidaan suorittaa pääkomponenttiregression (PCR) tai osittaisen pienimmän neliösumman regression (PLS) avulla. 6
10 Luku Kalibrointimenetelmistä. Pääkomponenttianalyysi ja -regressio Pääkomponenttiregressio (PCR) on kaksiosainen menetelmä spektroskooppidatan kalibrointiongelman ratkaisemiseksi. Ensimmäisessä osassa datalle suoritetaan pääkomponenttianalyysi (PCA). Mitatut muuttujat, esim. spektrin absorptiot eri aallonpituuksilla, muunnetaan uusiksi muuttujiksi, esim. latenttimuuttujien pääkomponenttipisteiksi. Tätä vaihetta seuraa monen muuttujan lineaarinen regressiovaihe (MLR), jossa PCA:n tuottamat pääkomponenttipisteet liitetään yhteen analyyttisten arvojen (konsentraatioiden) kanssa lineaarisella mallilla... Yleistä Pääkomponenttianalyysi kuuluu dimensionvähennystekniikoihin, ja menetelmän tarkoituksena on löytää havaitusta datasta pienempi määrä ilmiön takana piileviä oikeita satunnaismuuttujia, jotka selittävät havaitut tulokset (niiden varianssin) mahdollisimman hyvin perustuen datan kovarianssitai korrelaatiomatriisiin. Pääkomponenttianalyysi suorittaa koordinaattiakselien ortogonaalisen kierron siten, että havaintopisteiden varianssi on mahdollisimman suuri ensimmäisen akselin suhteen, ja jäännösvarianssi on aina suurin mahdollinen seuraavan seuraavan koordinaattiakselin suhteen. Uudet muuttujat ovat täysin korreloimattomia, ja kukin uusi koordinaattiakseli on lineaarikombinaatio alkuperäisistä muuttujista. 7
11 .. Datan esikäsittely Ennen pääkomponenttien etsimistä dataa yleensä esikäsitellään. Tämä tarkoittaa datan nollakeskiarvoistamista poistamalla siitä keskiarvo. Eräs yleisimmistä metodeista on tehdä datasta sarakekeskeistä, eli vähentää jokaisesta alkiosta kyseisen sarakkeen keskiarvo, joka vastaa siis kyseistä spektrin aallonpituutta. Tämä on yleinen menettely kun kalibrointitehtävä liittyy spektroskoopilla saatuihin arvoihin, ja se on kyseisessä tapauksessa yleensä myöskin ainoa tarvittava. [5] Toinen tapa esikäsitellä dataa on suorittaa autoskaalaus, jossa sarakekeskistyksen lisäksi jokainen alkio jaetaan vastaavan sarakkeen keskihajonnalla, jolloin sarakkeiden varianssiksi tulee. Tämäntyyppistä skaalausta voidaan käyttää kun tutkitaan muuttujien suhteellista tärkeyttä, mutta sitä ei suositella yleisesti käytettäväksi, sillä se lisää kohinan määrää tietyillä alueilla... Pääkomponenttien määrääminen Pääkomponentit voidaan ratkaista singulaariarvohajotelmalla (SVD), ominaisarvohajotelmalla (EVD) tai tähän tarkoitukseen käytettävillä sekventiaalisilla algoritmeilla kuten NIPALS tai POWER. Tarkastelkaamme tässä ominaisarvohajotelmaa. Olkoon x = (x, x,..., x p ) satunnaisvektori, jolle pätee E(x) = 0 ja Cov(x) = Σ. Kovarianssimatriisi Σ on ei-negatiivisesti definiitti: Σ 0. Nollaodotusarvo ei ole rajoittava, sillä aina voidaan määritellä satunnaisvektori, jonka odotusarvo on nolla ts. datasta vähennetään keskiarvo. Tehtävänä on etsiä edellä määritellyn satunnaisvektorin x alkioiden lineaarikombinaatio β T x = p i= β i x i, jonka varianssi on suurin mahdollinen. Varianssi D (β T x) toteuttaa tällöin normeerausehdon β T x = β T β =. Voidaan osoittaa, että max D (β T x) = β β T T Σβ = λ (.) β= jossa λ on kovarianssimatriisin Σ suurin ominaisarvo ja β kovarianssimatriisin Σ suurinta ominaisarvoa vastaava ominaisvektori. Yhtälö. pätee myös seuraaville pääkomponenteille, mutta tällöin yhtälölle täytyy asettaa lisärajoitusehto, jossa jokainen seuraava ominaisvektori on kohtisuorassa edellisiä vektoreita vastaan. Itse pääkomponenttivektoria merkitään y = β T x. Pääkomponenttianalyysin tulokset esitetään yleensä p r pääkomponenttimatriisissa: F r = [ λ β λ β... ] λ r β r = B r Λ / r, jota kutsutaan yleisesti myös latausmatriisiksi. Pääkomponenttipisteet 8
12 saadaan kertomalla havaintovektoreita x pääkomponentteja vastaavilla ominaisvektoreilla: y j = ˆB T r x j, jossa ˆB r on kovarianssimatriisin ˆΣ r suurinta ominaisarvoa vastaavien ominaisvektoreiden muodostama p r-matriisi...4 Pääkomponenttiregressio (PCR) Pääkomponenttiregressio on käänteinen kalibrointimenetelmä, ja kalibrointi suoritetaankin luvussa.. kerrotulla tavalla. Pääkomponenttianalyysi antaa uudet latenttimuuttujat X:n singulaariarvohajotelmalla: X = UΛP T = TP T (.) jossa X on riippumattomien muuttujien eli konsentraatioiden n p- matriisi, jonka sarakkeet ovat konsentraatioita eri aallonpituuksilla. U on painottamattomien (normalisoitujen) pääkomponenttipisteiden n p- matriisi ja T (kokoa n p) sisältää painotetut (normalisoimattomat) pääkomponenttipisteet. Nämä matriisit edustavat mittauksia uudessa latenttimuuttujien muodostamassa koordinaatistossa. Pääkomponenttipistematriisilla on seuraavat ominaisuudet: []. Rivien lukumäärä on yhtä suuri kuin alkuperäisessä datamatriisissa, joka on yleensä näytteiden lukumäärä.. Sarakkeiden lukumäärä on yhtä suuri kuin merkitsevien tekijöiden lukumäärä datassa, ja se voi olla mikä tahansa ykköstä suurempi kokonaisluku. Ideaalitapauksessa sarakkeiden lukumäärä on alkuperäisen datajoukon ainesosien lukumäärä, mutta kohina ja spektrin samankaltaisuus yhdessä vääristävät lukumäärää. Jokainen sarake vastaa pääkomponenttia.. Jokaisen sarakkeen alkion neliöiden summa liittyy matriisin ominaisarvoon. Mitä suurempi ominaisarvo, sitä suurempi merkitys on pääkomponentilla. Pääkomponentit ratkaistaan tärkeysjärjestyksessä. P on p p-latausmatriisi, jonka sarakkeet sisältävät pääkomponentit. Matriisin P alkiot ovat alkuperäisten muuttujien ja ominaisvektorien välisiä latauksia (painokertoimia). Λ on p p-diagonaalimatriisi, joka sisältää singulaariarvot λ i, jotka ovat kovarianssimatriisin (X T 0 X 0 ) ominaisarvojen neliöjuuria. Edellä matriisi X 0 on esikäsitelty keskistämällä alkuperäisestä datamatriisista X. [5] Latausmatriisilla on seuraavat ominaisuudet: 9
13 . Sarakkeiden lukumäärä on yhtä suuri kuin alkuperäisen datamatriisin sarakkeiden lukumäärä, joka on yleensä aallonpituuksien tai havaitsijoiden lukumäärä.. Rivien lukumäärä on yhtä suuri kuin merkitsevien tekijöiden lukumäärä datassa. Jokainen rivi vastaa pääkomponenttia.. Jokaisen sarakkeen alkioiden neliösumma on. HUOM! Matemaattisesti menetelmän johtamisessa tehdään useasti oletus, että n p. Koska spektroskopiassa yleensä mittauksia on vähemmän kuin aallonpituuksia eli n < p, joudutaan yhtälön. dimensioita muuttamaan siten, että size(x) = n p, size(u) = (n ) (n ), size(λ) = (n ) (n ), size(p) = p (n ) ja size(t) = n (n ). Edellä operaattori size() kuvaa matriisin/vektorin kokoa. Tämä johtuu datasta, sillä siitä on mahdollista saada vain n pääkomponenttia kun n < p. [5] Kun PCA on suoritettu, muodostetaan lineaarinen malli Y = Tb + e (.) jolla on ratkaisu ˆb = ( T T T ) T T Y (.4) Uudelle näytteelle saadaan ennusteteina pääkomponenttipisteet (konsentraatiot) käyttämällä kalibrointidatasta saatuja kertoimia ˆx = yˆb (.5) jossa size(x) = (n ), size(y) = p ja size(ˆb) = p (n ). [5]..5 Pääkomponenttimenetelmän edut kalibroinnissa Eräs usean muuttujan kalibroinnissa saavutettava etu on kohinan vähentyminen. Tällöin käytetään yleensä pääkomponenttianalyysia tai vastaavaa korrelaatio-/kovarianssimatriisia hyväksikäyttävää menetelmää, mikä paljastaa datasta suurimman pääkomponentin, eli latenttimuuttujan, joka selittää suurimman osan datan vaihtelusta. Lisäksi data on ortogonaalista, jolloin matriisien kääntäminen ei enää tuota vaikeuksia. Pääkomponenttianalyysia käytettäessä kalibraatiomalli jakautuu tällöin kolmeen osaan: [] ˆ lataukset kertovat yleisesti kaikkien mittausten muodon 0
14 ˆ pääkomponenttipisteet ovat näytekohtaista informaatiota ˆ residuaalit ovat se osa mittauksista joka eroaa yleisestä muodosta Ideaalitapauksessa residuaalit ovat mittauskohinaa. Mallia kutsutaan myös yksikomponenttiseksi, sillä pääkomponenttipistevektoria kohti on vain yksi latausvektori. Malli, eli lataukset ja pääkomponenttipisteet, määritellään painotettuna keskiarvona kaikkien alkuperäisten muuttujien yli. Painot on annettu latausvektorissa, joka kuvaa minkälaista informaatiota näytteet sisältävät. Pääkomponenttipisteitä hyväksikäyttäviä kalibraatiomalleja kutsutaan pääkomponenttiregressiomalleiksi. [] Ennustettaessa uuden näytteen haluttujen analyyttien konsentraatioita näytteestä mitataan sekoiteprofiili (spektri). Kalibrointivaiheessa saaduista latausvektoreista voidaan laskea uuden näytteen lataukset ja pääkomponenttipisteet. Nämä syötetään sen jälkeen regressioyhtälöön ja näin ollaan saatu konsentraatioiden estimaatit. Pääkomponenttiregression tuottama data on hyväksikäytettävissä myös muilla tavoin kuin pelkästään konsentraatioiden estimoinnissa. [] Esimerkiksi latauksia tutkimalla voidaan selvittää mikäli jotkin mitatut muuttujat eivät käyttäydy osotetulla tavalla, esimerkiksi tilanteessa, jossa sensori on vioittunut. Äärimmäinen pääkomponenttipisteen arvo viittaa äärimmäiseen näytteeseen, mahdollisesti poikkeavaan havaintoon. Pääkomponenttipisteistä saadaan selville myös mallin toimivuus, ja tiedolla voidaan myös yrittää parantaa mallia. Lisäksi voidaan tutkia eri mittausten eroavaisuuksia, esimerkiksi pistediagrammien avulla. Kaikki nämä ja muut visualisointikeinot auttavat ymmärtämään miksi malli toimii tai miksi se ei toimi...6 Pääkomponenttimenetelmän haittoja PCR on metodi, jotka perustuu pienimmän neliösumman menetelmään ja tästä syystä se on herkkä poikkeaville havainnoille. Poikkeavia havaintoja on monenlaisia, mallin poikkeavia havaintoja, X:n ja y:n poikkeavia havaintoja sekä näiden kombinaatioita. Ennen mallin luontia ei voida tietää mitkä havainnot ovat mallin suhteen poikkeavia, mutta X:n ja y:n suhteen näitä voidaan tarkastella. X:n suhteen poikkeavien havaintojen etsimiseen voidaan käyttää esimerkiksi Grubbsin tai Dixonin testejä. [5]
15 . Osittainen pienimmän neliösumman menetelmä (PLS).. Yleistä PLS-regressio on usean muuttujan lineaarisen regression (MLR) yleistys, joka kykenee, toisin kuten MLR, analysoimaan voimakkaasti kollineaarista ja kohinaista dataa sekä useita X- ja Y-muuttujia sisältäviä malleja. [] PLS on painotettu regressiometodi, jota käytetään tiivistämään prediktorien (n kpl) datamatriisi X = [x, x,..., x p ] A kappaleen latenttimuuttujajoukoksi tai faktoripisteiksi, jossa A p. Kalibrointiongelmassa PLS pyrkii siis ennustamaan vastemuuttujat Y prediktorien X avulla. Painotettujen regressiomenetelmien etuja on että ne eivät edellytä aallonpituuksien valintaa ennen kalibrointiregressiovektorin määritystä. Tällöin menetelmät sallivat käyttää enemmän aallonpituuksia kuin näytteitä on, ja ne tarjoavat edun signaalin keskiarvoistuksen muodossa, joka vähentää virheitä mitatuissa vasteissa. [0] Monesti puhutaan PLS:stä sekä PLS:sta. Tämä tarkoittaa vain vastemuuttujan Y kokoa. PLS:n tapauksessa Y on vektori, PLS taas tarkoittaa, että kalibroitavana on useampia vastemuuttujia, ja Y on matriisi. Algoritmi toimii edelleen kuitenkin samalla tavalla molemmissa tapauksissa. Seuraavissa PLS:ää käsittelevissä kappaleissa käytän seuraavanlaista notaatiota:
16 a A i N k m X Y b m B c a C E F p a P R r a R Q t a T u a U w a W komponenttien indeksi (mallin dimensiot), a =,,..., A mallin komponenttien kokonaislukumäärä havaintojen/tapausten indeksi, i =,,..., N havaintojen lukumäärä X-muuttujien indeksi, k =,,..., K Y-muuttujien indeksi, m =,,..., M prediktorimuuttujien N K-matriisi vastemuuttujien N M-matriisi Y:n m:s K -regressiokerroinvektrori kaikkien Y:den K M-regressiokerroinmatriisi komponentin a PLSR Y-painot Y-painojen M A-matriisi, c a ovat tämän sarakkeet X-residuaalien N K-matriisi Y-residuaalien N M-matriiisi komponentin a PLSR X-lataukset K A-latausmatriisi, p a ovat tämän sarakkeet korrelaatiokerroin eli selitysaste, kuinka paljon Y -muuttujien vaihtelua on selitetty PLSR-painot jotka on muunnettu komponenteista riippumattomiksi muunnettujen painojen K A-matriisi, jonka sarakkeet ovat r a ristivalidoitu R, kuinka hyvin Y-muuttujia on ennustettu komponentin a X-komponenttipisteet N A-komponenttipistematriisi, jonka sarakkeet ovat t a komponentin a Y-komponenttipisteet N A-komponenttipistematriisi, jonka sarakkeet ovat u a komponentin a PLSR X-painot X-painojen K A-matriisi, jonka sarakkeet ovat w a.. Datan esikäsittely Ennen analyysiä X- ja Y-muuttujat usein ajetaan muunnoksen läpi, jotta niiden jakaumista tulisi symmetrisempiä. Muuttujat, joiden vaihtelu on useita dekadeja muunnetaan usein logaritmisesti. Projektiometodien, kuten PLSR, tulokset riippuvat datan skaalauksesta. Standardi menettelytapa on ollut (i) skaalata jokaisen muuttujan varianssi ykkösen suuruiseksi jakamalla jokainen muuttuja keskihajonnallaan, sekä (ii) keskittää muuttujat vähentämällä niistä keskiarvonsa. Tämä vastaa jokaiselle muuttujalle saman painon antamista (prioritärkeys). []
17 .. PLS-regressiomalli PLS etsii annetusta datasta pienemmän määrän uusia muuttujia t a, a =,,...,A. Sekä X että Y oletetaan ainakin osittain olevan mallinnettu samoilla latenttimuuttujilla. Muuttujien t a oletetaan olevan ortogonaalisia. Ne estimoidaan alkuperäisten muuttujien x k lineaarikombinaatioina, joiden painokertoimet ovat r ka, a =,,...,A t ia = k r ka X ik (.6) joka voidaan esittää matriisimuodossa T = XR (.7) PLS-regression kaksi pääyhtälöä ovat matriisien X ja Y latenttimuuttujien avulla ilmaistut hajotelmat: X ik = a t ia p ak + e ik, (.8) ja y im = a c ma t ia + f im, (.9) jotka ovat matriisimuodossa ilmaistuna sekä X = TP T + E (.0) Y = TC T + F (.) Oheisissa yhtälöissä matriisit P ja C ovat latausmatriiseja. Vastemuuttujamatriisille Y on olemassa vielä oma relaationsa, jonka avulla se voidaan hajoittaa Y-latausmatriisin C avulla: y im = a u ia c am + g im, (.) joka on matriisimuodossa Y = UC T + G (.) Ottamalla huomioon yhtälö.6, saadaan yhtälö.9 näyttämään regressiomallilta: y im c ma r ka x ik + f im = b mk x ik + f im (.4) a k k 4
18 joka voidaan esittää matriisimuodossa Y = XRC T + F = XB + F (.5) PLS-regression regressiokertoimet b mk voidaan kirjoittaa b mk = a c ma r ka (.6) matriisimuodossa B = RC T (.7) Yhtälössä. u ia on Y-matriisin PLS-komponenttipisteet ja c am (monesti merkitään myös q:lla) Y-matriisin lataukset. Vastaavasti yhtälössä.8 p ak on X-matriisin lataukset ja t ia X-matriisin PLS-komponenttipisteet. Lataukset tässäkin pyrkivät selittämään selittävän muuttujan variaatioita. X- komponentit pyrkivät selittämään variaatioita eri aallonpituuksien välillä. Yhtälössä.7 esiintyy muunnettujen X-painojen matriisi R. Alempana määritelty PLS-algoritmi laskee ainoastaan painot W. Muunnetut painot saadaan alkuperäisistä seuraavasti: R = W(P T W) (.8) Kun kertoimet B on määritetty, on mahdollista estimoida uuden näytteen konsentraatiot, kun näytteelle on mitattu spektri x (vaakavektori): ŷ = xb (.9) Regressiokertoimet B tulkitaan usein virheellisesti Y:ssä ilmaistujen ainesosien spektriprofiiliksi. Kertoimet B ovat kuitenkin Y-matriisiin liittyvät regressiokertoimet, eivätkä ne liity matriisiin X. Suora PLS PLS-malli on mahdollista järjestää uudelleen niin, että malli ennustaakin Y:tä X:n sijaan. [8] Yhtälö.5 voidaan uudelleenjärjestää: Y F = XB (.0) ja kertomalla molemmat puolet (B T B) B T :llä, saadaan (Y F)(B T B) B T = XB(B T B) B T (.) Korvaamalla XB(B T B) B T = X E, saadaan (Y F)(B T B) B T = X E (.) 5
19 ja kun määritellään K T = (B T B) B T sekä Ŷ = (Y F), saadaan josta lopulta siirtelemällä termejä saadaan ŶK T = X E (.) X = ŶKT + E (.4) Tästä nähdään, että epäsuorat kalibrointimenetelmät, kuten PLS, kykenevät ennustamaan myös puhtaiden ainesosien spektriprofiileja suoran kalibroinnin tavoin...4 Osittaisen pienimmän neliösumman regressiomallin tulkinta Eräs PLS-regression tulkinta on, että se muodostaa uudet x-muuttujat t a vanhojen x:ien lineaarikombinaationa, ja tämän jälkeen malli käyttää näitä uusia muuttujia ennustamaan Y:tä. Uusia muuttujia muodostetaan vain sellainen määrä, joka on ennustamisessa merkitsevä. Kaikki mallin osat, t, u, w (ja r), p ja c määrittyvät allakuvatun algoritmin perusteella. PLS-regressiomallin tulkinnan kannalta tärkeät muuttujat ovat PLS-komponenttipisteet t ja u, jotka sisältävät informaatiota annetun ongelman ja mallin suhteen. Painot w a (tai r a ) sekä c a kuvaavat kuinka muuttujat muodostavat kvantitatiivisen relaation X:n ja Y:n välille. Suuret painokertoimien arvot kertovat mitkä X-muuttujat ovat tärkeitä, sekä mitkä X-muuttujat sisältävät samaa informaatiota (samanlaiset kertoimet). [] Residuaalit ovat datan se osa, jota malli ei selitä, ja siksi ne ovatkin tärkeitä tutkimuskohteita. Suuret Y-residuaalit viittaavat siihen, että malli on huono, ja normaalipaperikuvat ovat hyvä keino selvittää poikkeavien havaintojen olemassaolo T:n ja Y:n välillä. X:n residuaaleja ei käytetä hyväksi Y:n mallintamisessa, vaikka X-residuaaleista saakin selville poikkeavat havainnot X-avaruudessa, eli molekyylit joiden rakenne ei sovi malliin sekä prosessin osat jotka eroavat normaaleista prosessioperaatioista. PLS-regressiomallin tulkintaan on olemassa muutamia ohjeita: [] ˆ Hanki hyvä tuntemus käsiteltävästä ongelmasta etenkin mitkä vastemuuttujat Y ovat tarkasteltavana mittauksissa ja mallissa, sekä mitä prediktoreja X tulisi mitata ja varioida. Mikäli X-muuttujien koeolosuhteita voidaan muuttaa, on hyvä käyttää hyväksi koesuunnittelua X-matriisin konstruoinnissa. ˆ Hanki hyvää dataa niin prediktoreista kuin vasteista. Monen muuttujat Y:t tarjoavat huomattavasti enemmän informaatiota, sillä ne voidaan 6
20 kaikki analysoida erikseen pääkomponenttianalyysillä. Tämä antaa kuvan systemaattisesta variaatiosta Y:n sisällä, mitkä Y-muuttujat tulisi analysoida yhdessä jne. ˆ Ensimmäinen tieto mallista on sen asteluku A, ts. kuinka monta merkitsevää komponenttia mallissa on. Komponenttien lukumäärä antaa alarajan sille lukumäärälle vaikutuksia, jotka aiheuttavat muutoksia tarkasteltavassa systeemissä. Latenttimuuttujien käsitteen voidaan nähdä olevan yhtäläinen em. vaikutusten kanssa. ˆ Mallin sovitteen hyvyys saadaan selitysasteesta R sekä Q (ristivalidoitu R ). Usean Y-muuttujan tapauksessa on mahdollista määrittää R m ja Q m jokaiselle y m. Selitysasteet R antavat ylärajan sille kuinka hyvin malli selittää dataa ja ennustaa uusia havaintoja, Q antaa vastaavan alarajan. ˆ (u, t)-kuvaajat mallin ensimmäisen kahden tai kolmen dimension suhteen paljastavat datan kaarevuuden, ryhmät sekä poikkeavat havainnot. ˆ (t, t)-kuvaajista on mahdollista nähdä datan homogeenisuudet, ryhmät ja muut ilmiöt. (r, c)-kuvaajat antavat näistä löytyville ilmiöille tulkinnan. ˆ Etenkin spektroskopiassa käytetty datan visualisointitapa on piirtää lataukset p a aallonpituuden funktiona, jolloin saadaan jokaisen komponentin spektri esiin. Latauksia käytetään alkuperäisten muuttujien ja PLS-komponenttipisteiden välisen suhteen tulkinnassa. ˆ Latauksia erikseen tarkasteltaessa positiiviset piikit kuvaajassa aiheutuvat yleensä tarkasteltavan komponentin spektripiikeistä, kun taas negatiiviset piikit vastaavat häiriökomponentteja. [] ˆ Jos esiintyy ongelmia, ts. pieniä R :n tai Q :n arvoja, poikkeavia havaintoja, ryhmiä tai kaarevuuksia PLS-komponenttipisteiden kuvaajissa, ongelma kannattaa yrittää korjata. Residuaalien kuvaajista (normaalipaperikuvat, DModX, DModY) saattaa löytyä lisäinformaatiota ongelman aiheuttajasta. Yksittäiset poikkeavat havainnot tulee tarkastaa datan paikkansapitävyyden varmistamiseksi, ja jos tämä ei auta, poistaa analyysistä (kuitenkin vain jos ne eivät ole kiinnostavia). (u, t)-kuvaajan kaarevuutta voidaan korjata muuntamalla data esim. logaritmisesti tai lisäämällä malliin neliöllisiä tai kuutiollisia termejä. 7
Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio
Tilastollisen analyysin perusteet Luento 9: lineaarinen lineaarinen Sisältö lineaarinen lineaarinen lineaarinen Lineaarinen Oletetaan, että meillä on n kappaletta (x 1, y 1 ), (x 2, y 2 )..., (x n, y n
LisätiedotRegressioanalyysi. Vilkkumaa / Kuusinen 1
Regressioanalyysi Vilkkumaa / Kuusinen 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Halutaan selittää selitettävän muuttujan havaittujen arvojen vaihtelua selittävien muuttujien havaittujen
LisätiedotRegressioanalyysi. Kuusinen/Heliövaara 1
Regressioanalyysi Kuusinen/Heliövaara 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Oletetaan, että haluamme selittää jonkin selitettävän muuttujan havaittujen arvojen vaihtelun joidenkin
LisätiedotTilastollisen analyysin perusteet Luento 7: Lineaarinen regressio
Tilastollisen analyysin perusteet Luento 7: Lineaarinen regressio Sisältö Regressioanalyysissä tavoitteena on tutkia yhden tai useamman selittävän muuttujan vaikutusta selitettävään muuttujaan. Sen avulla
LisätiedotHarjoitus 9: Excel - Tilastollinen analyysi
Harjoitus 9: Excel - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen regressioanalyysiin
LisätiedotMat Tilastollisen analyysin perusteet, kevät 2007
Mat-.104 Tilastollisen analyysin perusteet, kevät 007 8. luento: Usean selittäjän lineaarinen regressiomalli Kai Virtanen 1 Usean selittäjän lineaarinen regressiomalli Selitettävän muuttujan havaittujen
LisätiedotYhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =
LisätiedotTilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä
Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä arvon Sisältö arvon Bootstrap-luottamusvälit arvon arvon Oletetaan, että meillä on n kappaletta (x 1, y 1 ),
LisätiedotYhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 4
Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa
LisätiedotYleistetyistä lineaarisista malleista
Yleistetyistä lineaarisista malleista Tilastotiede käytännön tutkimuksessa -kurssi, kesä 2001 Reijo Sund Klassinen lineaarinen malli y = Xb + e eli E(Y) = m, jossa m = Xb Satunnaiskomponentti: Y:n komponentit
LisätiedotTilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu JMP:llä
Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi Esimerkit laskettu JMP:llä Antti Hyttinen Tampereen teknillinen yliopisto 29.12.2003 ii Ohjelmien
LisätiedotAki Taanila YHDEN SELITTÄJÄN REGRESSIO
Aki Taanila YHDEN SELITTÄJÄN REGRESSIO 26.4.2011 SISÄLLYS JOHDANTO... 1 LINEAARINEN MALLI... 1 Selityskerroin... 3 Excelin funktioita... 4 EKSPONENTIAALINEN MALLI... 4 MALLIN KÄYTTÄMINEN ENNUSTAMISEEN...
LisätiedotDynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Tilastolliset aikasarjat voidaan jakaa kahteen
LisätiedotMS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
Lisätiedot3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä
3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a 21
LisätiedotMat Tilastollisen analyysin perusteet, kevät 2007
Mat-.14 Tilastollisen analyysin perusteet, kevät 7 7. luento: Tarina yhden selittään lineaarisesta regressiomallista atkuu Kai Virtanen 1 Luennolla 6 opittua Kuvataan havainnot (y, x ) yhden selittään
LisätiedotKeskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6)
Mat-.3 Koesuunnittelu ja tilastolliset mallit kevät Keskipisteen lisääminen k -faktorikokeeseen (ks. Montgomery 9-6) Esim (Montg. ex. 9-, 6-): Tutkitaan kemiallisen prosessin saannon Y riippuvuutta faktoreista
LisätiedotMoniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (007) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
LisätiedotRatkaisuehdotukset LH 7 / vko 47
MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [
LisätiedotNumeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35
Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 2
Inversio-ongelmien laskennallinen peruskurssi Luento 2 Kevät 2012 1 Lineaarinen inversio-ongelma Määritelmä 1.1. Yleinen (reaaliarvoinen) lineaarinen inversio-ongelma voidaan esittää muodossa m = Ax +
LisätiedotIlkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia
Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (006) 1 Moniulotteisia todennäköisyysjakaumia >> Multinomijakauma Kaksiulotteinen
LisätiedotVastepintamenetelmä. Kuusinen/Heliövaara 1
Vastepintamenetelmä Kuusinen/Heliövaara 1 Vastepintamenetelmä Vastepintamenetelmässä pyritään vasteen riippuvuutta siihen vaikuttavista tekijöistä approksimoimaan tekijöiden polynomimuotoisella funktiolla,
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin
LisätiedotKohdeyleisö: toisen vuoden teekkari
Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y
Lisätiedot2. Teoriaharjoitukset
2. Teoriaharjoitukset Demotehtävät 2.1 Todista Gauss-Markovin lause. Ratkaisu. Oletetaan että luentokalvojen standardioletukset (i)-(v) ovat voimassa. Huomaa että Gauss-Markovin lause ei vaadi virhetermien
Lisätiedot4.0.2 Kuinka hyvä ennuste on?
Luonteva ennuste on käyttää yhtälöä (4.0.1), jolloin estimaattori on muotoa X t = c + φ 1 X t 1 + + φ p X t p ja estimointivirheen varianssi on σ 2. X t }{{} todellinen arvo Xt }{{} esimaattori = ε t Esimerkki
LisätiedotMS-A0003/A Matriisilaskenta Laskuharjoitus 6
MS-A3/A - Matriisilaskenta Laskuharjoitus 6 Ratkaisuehdotelmia. Diagonalisointi on hajotelma A SΛS, jossa diagonaalimatriisi Λ sisältää matriisin A ominaisarvot ja matriisin S sarakkeet ovat näitä ominaisarvoja
LisätiedotLikimääräisratkaisut ja regularisaatio
Luku 3 Likimääräisratkaisut ja regularisaatio Käytännön inversio-ongelmissa annettu data y ei aina ole tarkkaa, vaan sisältää häiriöitä. Tuntemattomasta x on annettu häiriöinen data y F (x + }{{}}{{} ε.
Lisätiedot3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä
1 3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a
LisätiedotVapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.
Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +
LisätiedotMS-C1340 Lineaarialgebra ja differentiaaliyhtälöt
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt ja pienimmän neliösumman menetelmä Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi QR ja PNS PNS-ongelma
LisätiedotJohdatus regressioanalyysiin. Heliövaara 1
Johdatus regressioanalyysiin Heliövaara 1 Regressioanalyysin idea Oletetaan, että haluamme selittää jonkin selitettävän muuttujan havaittujen arvojen vaihtelun selittävien muuttujien havaittujen arvojen
LisätiedotMoniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia. Moniulotteisia todennäköisyysjakaumia: Mitä opimme?
TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (4) Moniulotteisia todennäköisyysjakaumia: Mitä
LisätiedotDynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt
LisätiedotYhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1
Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia Heliövaara 1 Regressiokertoimien PNS-estimaattorit Määritellään havaintojen x j ja y j, j = 1, 2,...,n
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 7 8
Inversio-ongelmien laskennallinen peruskurssi Luento 7 8 Kevät 2011 1 Iteratiivisista menetelmistä Tähän mennessä on tarkasteltu niin sanottuja suoria menetelmiä, joissa (likimääräinen) ratkaisu saadaan
LisätiedotJohdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia. TKK (c) Ilkka Mellin (2005) 1
Johdatus todennäköisyyslaskentaan Moniulotteisia todennäköisyysjakaumia TKK (c) Ilkka Mellin (005) 1 Moniulotteisia todennäköisyysjakaumia Multinomijakauma Kaksiulotteinen normaalijakauma TKK (c) Ilkka
LisätiedotMS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt QR-hajotelma ja pienimmän neliösumman menetelmä Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto PNS-ongelma PNS-ongelma
LisätiedotLineaarialgebra ja matriisilaskenta II Syksy 2009 Laskuharjoitus 1 ( ) Ratkaisuehdotuksia Vesa Ala-Mattila
Lineaarialgebra ja matriisilaskenta II Syksy 29 Laskuharjoitus (9. - 3..29) Ratkaisuehdotuksia Vesa Ala-Mattila Tehtävä. Olkoon V vektoriavaruus. Todistettava: jos U V ja W V ovat V :n aliavaruuksia, niin
LisätiedotOtannasta ja mittaamisesta
Otannasta ja mittaamisesta Tilastotiede käytännön tutkimuksessa - kurssi, kesä 2001 Reijo Sund Aineistot Kvantitatiivisen tutkimuksen aineistoksi kelpaa periaatteessa kaikki havaintoihin perustuva informaatio,
LisätiedotMittaustulosten tilastollinen käsittely
Mittaustulosten tilastollinen käsittely n kertaa toistetun mittauksen tulos lasketaan aritmeettisena keskiarvona n 1 x = x i n i= 1 Mittaustuloksen hajonnasta aiheutuvaa epävarmuutta kuvaa keskiarvon keskivirhe
LisätiedotLaskennallinen data-analyysi II
Laskennallinen data-analyysi II Saara Hyvönen, Saara.Hyvonen@cs.helsinki.fi Kevät 2007 Ulottuvuuksien vähentäminen, SVD, PCA Laskennallinen data-analyysi II, kevät 2007, Helsingin yliopisto visualisointi
LisätiedotKorrelaatiokertoinen määrittely 165
kertoinen määrittely 165 Olkoot X ja Y välimatka- tai suhdeasteikollisia satunnaismuuttujia. Havaintoaineistona on n:n suuruisesta otoksesta mitatut muuttuja-arvoparit (x 1, y 1 ), (x 2, y 2 ),..., (x
LisätiedotDiskriminanttianalyysi I
Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi
LisätiedotLineaariset luokittelumallit: regressio ja erotteluanalyysi
Lineaariset luokittelumallit: regressio ja erotteluanalyysi Aira Hast Johdanto Tarkastellaan menetelmiä, joissa luokittelu tehdään lineaaristen menetelmien avulla. Avaruus jaetaan päätösrajojen avulla
LisätiedotLineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus
Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus 1 / 51 Lineaarikombinaatio Johdattelua seuraavaan asiaan (ei tarkkoja määritelmiä): Millaisen kuvan muodostaa joukko {λv λ R, v R 3 }? Millaisen
Lisätiedot805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Faktorianalyysi (Factor analysis) Faktorianalyysi jaetaan perinteisesti kahteen osaan Eksploratiiviseen (explorative factor analysis)
LisätiedotMatriisi-vektori-kertolasku, lineaariset yhtälöryhmät
Matematiikan peruskurssi K3/P3, syksy 25 Kenrick Bingham 825 Toisen välikokeen alueen ydinasioita Alla on lueteltu joitakin koealueen ydinkäsitteitä, joiden on hyvä olla ensiksi selvillä kokeeseen valmistauduttaessa
LisätiedotMS-A0004/A0006 Matriisilaskenta
4. MS-A4/A6 Matriisilaskenta 4. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto..25 Tarkastellaan neliömatriiseja. Kun matriisilla kerrotaan vektoria, vektorin
LisätiedotKokonaislukuoptiomointi Leikkaustasomenetelmät
Kokonaislukuoptiomointi Leikkaustasomenetelmät Systeemianalyysin Laboratorio 19.3.2008 Sisällys Leikkaustasomenetelmät yleisesti Leikkaustasomenetelmät generoivilla kokonaislukujoukoilla Gomoryn leikkaavat
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 16. marraskuuta 2007 Antti Rasila () TodB 16. marraskuuta 2007 1 / 15 1 Epäparametrisia testejä χ 2 -yhteensopivuustesti Homogeenisuuden testaaminen Antti
LisätiedotHarjoitusten 5 vastaukset
Harjoitusten 5 vastaukset 1. a) Regressiossa (1 ) selitettävänä on y jaselittäjinävakiojax matriisin muuttujat. Regressiossa (1*) selitettävänä on y:n poikkeamat keskiarvostaan ja selittäjinä X matriisin
LisätiedotMAIDON PROTEIININ MÄÄRÄN SELVITTÄMINEN (OSA 1)
MAIDON PROTEIININ MÄÄRÄN SELVITTÄMINEN (OSA 1) Johdanto Maito on tärkeä eläinproteiinin lähde monille ihmisille. Maidon laatu ja sen sisältämät proteiinit riippuvat useista tekijöistä ja esimerkiksi meijereiden
LisätiedotEstimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?
TKK (c) Ilkka Mellin (2004) 1 Johdatus tilastotieteeseen TKK (c) Ilkka Mellin (2004) 2 Mitä opimme? 1/4 Tilastollisen tutkimuksen tavoitteena on tehdä johtopäätöksiä prosesseista, jotka generoivat reaalimaailman
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. marraskuuta 2007 Antti Rasila () TodB 30. marraskuuta 2007 1 / 19 1 Lineaarinen regressiomalli ja suurimman uskottavuuden menetelmä Minimin löytäminen
LisätiedotJohdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1
Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:
LisätiedotHarha mallin arvioinnissa
Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 3
Inversio-ongelmien laskennallinen peruskurssi Luento 3 Kevät 2011 1 Singulaariarvohajotelma (Singular Value Decomposition, SVD) Olkoon A R m n matriisi 1. Tällöin A voidaan esittää muodossa A = UΣV T,
LisätiedotTalousmatematiikan perusteet: Luento 10. Lineaarikuvaus Matriisin aste Determinantti Käänteismatriisi
Talousmatematiikan perusteet: Luento 10 Lineaarikuvaus Matriisin aste Determinantti Käänteismatriisi Lineaarikuvaus Esim. Yritys tekee elintarviketeollisuuden käyttämää puolivalmistetta, jossa käytetään
Lisätiedot2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio
x = x 2 = 5/2 x 3 = 2 eli Ratkaisu on siis x = (x x 2 x 3 ) = ( 5/2 2) (Tarkista sijoittamalla!) 5/2 2 Tämä piste on alkuperäisten tasojen ainoa leikkauspiste Se on myös piste/vektori jonka matriisi A
LisätiedotMS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
LisätiedotTestejä suhdeasteikollisille muuttujille
Ilkka Mellin Tilastolliset menetelmät Osa 3: Tilastolliset testit Testejä suhdeasteikollisille muuttujille TKK (c) Ilkka Mellin (007) 1 Testejä suhdeasteikollisille muuttujille >> Testit normaalijakauman
Lisätiedotpitkittäisaineistoissa
Puuttuvan tiedon ongelma p. 1/18 Puuttuvan tiedon ongelma pitkittäisaineistoissa Tapio Nummi tan@uta.fi Matematiikan, tilastotieteen ja filosofian laitos Tampereen yliopisto mtl.uta.fi/tilasto/sekamallit/puupitkit.pdf
Lisätiedot1 Kannat ja kannanvaihto
1 Kannat ja kannanvaihto 1.1 Koordinaattivektori Oletetaan, että V on K-vektoriavaruus, jolla on kanta S = (v 1, v 2,..., v n ). Avaruuden V vektori v voidaan kirjoittaa kannan vektorien lineaarikombinaationa:
LisätiedotKanta ja Kannan-vaihto
ja Kannan-vaihto 1 Olkoon L vektoriavaruus. Äärellinen joukko L:n vektoreita V = { v 1, v 2,..., v n } on kanta, jos (1) Jokainen L:n vektori voidaan lausua v-vektoreiden lineaarikombinaationa. (Ts. Span(V
Lisätiedot805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Lineaarinen erotteluanalyysi (LDA, Linear discriminant analysis) Erotteluanalyysin avulla pyritään muodostamaan selittävistä muuttujista
LisätiedotIdentifiointiprosessi
Alustavia kokeita Identifiointiprosessi Koesuunnittelu, identifiointikoe Mittaustulosten / datan esikäsittely Ei-parametriset menetelmät: - Transientti-, korrelaatio-, taajuus-, Fourier- ja spektraalianalyysi
LisätiedotIdentifiointiprosessi
Alustavia kokeita Identifiointiprosessi Koesuunnittelu, identifiointikoe Mittaustulosten / datan esikäsittely Ei-parametriset menetelmät: - Transientti-, korrelaatio-, taajuus-, Fourier- ja spektraalianalyysi
LisätiedotMS-A0003/A0005 Matriisilaskenta Laskuharjoitus 3 /
MS-A3/A5 Matriisilaskenta, II/27 MS-A3/A5 Matriisilaskenta Laskuharjoitus 3 / 3. 7..27 Tehtävä (L): Etsi kaikki yhtälön Ax = b ratkaisut, kun 3 5 4 A = 3 2 4 ja b = 6 8 7 4. Ratkaisu : Koetetaan ratkaista
LisätiedotMS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille
LisätiedotKannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:
8 Kanta Tässä luvussa tarkastellaan aliavaruuden virittäjävektoreita, jotka muodostavat lineaarisesti riippumattoman jonon. Merkintöjen helpottamiseksi oletetaan luvussa koko ajan, että W on vektoreiden
Lisätiedotxi = yi = 586 Korrelaatiokerroin r: SS xy = x i y i ( x i ) ( y i )/n = SS xx = x 2 i ( x i ) 2 /n =
1. Tutkitaan paperin ominaispainon X(kg/dm 3 ) ja puhkaisulujuuden Y (m 2 ) välistä korrelaatiota. Tiettyä laatua olevasta paperierästä on otettu satunnaisesti 10 arkkia ja määritetty jokaisesta arkista
LisätiedotTässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. eli matriisissa on 200 riviä (havainnot) ja 7 saraketta (mittaus-arvot)
R-ohjelman käyttö data-analyysissä Panu Somervuo 2014 Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. 0) käynnistetään R-ohjelma Huom.1 allaolevissa ohjeissa '>' merkki on R:n
Lisätiedot1 Ominaisarvot ja ominaisvektorit
1 Ominaisarvot ja ominaisvektorit Olkoon A = [a jk ] n n matriisi. Tarkastellaan vektoriyhtälöä Ax = λx, (1) 1 missä λ on luku. Sellaista λ:n arvoa, jolla yhtälöllä on ratkaisu x 0, kutsutaan matriisin
Lisätiedot2.5. Matriisin avaruudet ja tunnusluvut
2.5. Matriisin avaruudet ja tunnusluvut m n-matriisi A Lineaarikuvaus A : V Z, missä V ja Z ovat sopivasti valittuja, dim V = n, dim Z = m (yleensä V = R n tai C n ja Z = R m tai C m ) Kuva-avaruus ja
LisätiedotLaskennallinen data-analyysi II
Laskennallinen data-analyysi II Ella Bingham, ella.bingham@cs.helsinki.fi Kevät 2008 Muuttujien valinta Kalvot perustuvat Saara Hyvösen kalvoihin 2007 Laskennallinen data-analyysi II, kevät 2008, Helsingin
LisätiedotNumeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 12 Kirsi Valjus Jyväskylän yliopisto Luento 12 () Numeeriset menetelmät 25.4.2013 1 / 33 Luennon 2 sisältö Tavallisten differentiaaliyhtälöiden numeriikasta Rungen
LisätiedotLaskuharjoitus 9, tehtävä 6
Aalto-yliopiston perustieteiden korkeakoulu Jouni Pousi Systeemianalyysin laboratorio Mat-2.4129 Systeemien identifiointi Laskuharjoitus 9, tehtävä 6 Tämä ohje sisältää vaihtoehtoisen tavan laskuharjoituksen
LisätiedotEi välttämättä, se voi olla esimerkiksi Reuleaux n kolmio:
Inversio-ongelmista Craig, Brown: Inverse problems in astronomy, Adam Hilger 1986. Havaitaan oppositiossa olevaa asteroidia. Pyörimisestä huolimatta sen kirkkaus ei muutu. Projisoitu pinta-ala pysyy ilmeisesti
LisätiedotNumeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28
Numeeriset menetelmät TIEA381 Luento 5 Kirsi Valjus Jyväskylän yliopisto Luento 5 () Numeeriset menetelmät 3.4.2013 1 / 28 Luennon 5 sisältö Luku 4: Ominaisarvotehtävistä Potenssiinkorotusmenetelmä QR-menetelmä
LisätiedotVäliestimointi (jatkoa) Heliövaara 1
Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).
LisätiedotVapaus. Määritelmä. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee:
Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +
LisätiedotNumeeriset menetelmät
Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma
LisätiedotLatinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt
TKK (c) Ilkka Mellin (005) Koesuunnittelu TKK (c) Ilkka Mellin (005) : Mitä opimme? Tarkastelemme tässä luvussa seuraavaa kysymystä: Miten varianssianalyysissa tutkitaan yhden tekijän vaikutusta vastemuuttujaan,
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 9 1 Implisiittinen derivointi Tarkastellaan nyt yhtälöä F(x, y) = c, jossa x ja y ovat muuttujia ja c on vakio Esimerkki tällaisesta yhtälöstä on x 2 y 5 + 5xy = 14
LisätiedotABHELSINKI UNIVERSITY OF TECHNOLOGY
Johdatus regressioanalyysiin Regressioanalyysin idea Oletetaan, että haluamme selittää jonkin selitettävän muuttujan havaittujen arvojen vaihtelun selittävien muuttujien havaittujen arvojen vaihtelun avulla.
Lisätiedot7 Vapaus. 7.1 Vapauden määritelmä
7 Vapaus Kuten edellisen luvun lopussa mainittiin, seuraavaksi pyritään ratkaisemaan, onko annetussa aliavaruuden virittäjäjoukossa tarpeettomia vektoreita Jos tällaisia ei ole, virittäjäjoukkoa kutsutaan
LisätiedotIlkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2007) 1
Ilkka Mellin Tilastolliset menetelmät Osa 4: Lineaarinen regressioanalyysi Yleinen lineaarinen malli TKK (c) Ilkka Mellin (2007) 1 Yleinen lineaarinen malli >> Usean selittäjän lineaarinen regressiomalli
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. lokakuuta 2007 Antti Rasila () TodB 30. lokakuuta 2007 1 / 23 1 Otos ja otosjakaumat (jatkoa) Frekvenssi ja suhteellinen frekvenssi Frekvenssien odotusarvo
LisätiedotVektoreiden virittämä aliavaruus
Vektoreiden virittämä aliavaruus Määritelmä Oletetaan, että v 1, v 2,... v k R n. Näiden vektoreiden virittämä aliavaruus span( v 1, v 2,... v k ) tarkoittaa kyseisten vektoreiden kaikkien lineaarikombinaatioiden
LisätiedotIlkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi
Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi TKK (c) Ilkka Mellin (2006) 1 Estimointi >> Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin
LisätiedotMännyn laaturajojen integrointi runkokäyrän ennustamisessa. Laura Koskela Tampereen yliopisto 9.6.2003
Männyn laaturajojen integrointi runkokäyrän ennustamisessa Laura Koskela Tampereen yliopisto 9.6.2003 Johdantoa Pohjoismaisen käytännön mukaan rungot katkaistaan tukeiksi jo metsässä. Katkonnan ohjauksessa
LisätiedotJohdatus lukuteoriaan Harjoitus 2 syksy 2008 Eemeli Blåsten. Ratkaisuehdotelma
Johdatus lukuteoriaan Harjoitus 2 syksy 2008 Eemeli Blåsten Ratkaisuehdotelma Tehtävä 1 1. Etsi lukujen 4655 ja 12075 suurin yhteinen tekijä ja lausu se kyseisten lukujen lineaarikombinaationa ilman laskimen
Lisätiedot5 Ominaisarvot ja ominaisvektorit
5 Ominaisarvot ja ominaisvektorit Olkoon A = [a jk ] n n matriisi. Tarkastellaan vektoriyhtälöä Ax = λx, (1) missä λ on luku. Sellaista λ:n arvoa, jolla yhtälöllä on ratkaisu x 0, kutsutaan matriisin A
LisätiedotEpäyhtälöt ovat yksi matemaatikon voimakkaimmista
6 Epäyhtälöitä Epäyhtälöt ovat yksi matemaatikon voimakkaimmista työvälineistä. Yhtälö a = b kertoo sen, että kaksi ehkä näennäisesti erilaista asiaa ovat samoja. Epäyhtälö a b saattaa antaa keinon analysoida
LisätiedotLiittomatriisi. Liittomatriisi. Määritelmä 16 Olkoon A 2 M(n, n). Matriisin A liittomatriisi on cof A 2 M(n, n), missä. 1) i+j det A ij.
Liittomatriisi Määritelmä 16 Olkoon A 2 M(n, n). Matriisin A liittomatriisi on cof A 2 M(n, n), missä (cof A) ij =( 1) i+j det A ij kaikilla i, j = 1,...,n. Huomautus 8 Olkoon A 2 M(n, n). Tällöin kaikilla
LisätiedotLineaarialgebra ja matriisilaskenta I, HY Kurssikoe Ratkaisuehdotus. 1. (35 pistettä)
Lineaarialgebra ja matriisilaskenta I, HY Kurssikoe 26.10.2017 Ratkaisuehdotus 1. (35 pistettä) (a) Seuraavat matriisit on saatu eräistä yhtälöryhmistä alkeisrivitoimituksilla. Kuinka monta ratkaisua yhtälöryhmällä
Lisätiedot110. 111. 112. 113. 114. 4. Matriisit ja vektorit. 4.1. Matriisin käsite. 4.2. Matriisialgebra. Olkoon A = , B = Laske A + B, 5 14 9, 1 3 3
4 Matriisit ja vektorit 4 Matriisin käsite 42 Matriisialgebra 0 2 2 0, B = 2 2 4 6 2 Laske A + B, 2 A + B, AB ja BA A + B = 2 4 6 5, 2 A + B = 5 9 6 5 4 9, 4 7 6 AB = 0 0 0 6 0 0 0, B 22 2 2 0 0 0 6 5
Lisätiedot