Keskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6)

Samankaltaiset tiedostot
Vastepintamenetelmä. Vilkkumaa / Kuusinen 1

Vastepintamenetelmä. Kuusinen/Heliövaara 1

Vastepintamenetelmä. Heliövaara 1

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

Koesuunnittelu Vastepintamenetelmä. TKK (c) Ilkka Mellin (2005) 1

12. Hessen matriisi. Ääriarvoteoriaa

4.0.2 Kuinka hyvä ennuste on?

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33

Sovellettu todennäköisyyslaskenta B

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen

f(x 1, x 2 ) = x x 1 k 1 k 2 k 1, k 2 x 2 1, 0 1 f(1, 1)h 1 = h = h 2 1, 1 12 f(1, 1)h 1 h 2

Mat Tilastollisen analyysin perusteet, kevät 2007

Luento 8: Epälineaarinen optimointi

Regressioanalyysi. Vilkkumaa / Kuusinen 1

2 k -faktorikokeet. Vilkkumaa / Kuusinen 1

Regressioanalyysi. Kuusinen/Heliövaara 1

Harha mallin arvioinnissa

Maksimit ja minimit 1/5 Sisältö ESITIEDOT: reaalifunktiot, derivaatta

(0 desimaalia, 2 merkitsevää numeroa).

Luento 8: Epälineaarinen optimointi

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Kaksisuuntainen varianssianalyysi. Heliövaara 1

Luento 10: Optimointitehtävien numeerinen ratkaiseminen; optimointi ilman rajoitusehtoja

Taustatietoja ja perusteita

Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu JMP:llä

Lohkoasetelmat. Vilkkumaa / Kuusinen 1

2. Teoriaharjoitukset

LIITE 1 VIRHEEN ARVIOINNISTA

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

Dynaamiset regressiomallit

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1

Koesuunnittelu 2 k -faktorikokeet. TKK (c) Ilkka Mellin (2005) 1

Diskriminanttianalyysi I

Väliestimointi (jatkoa) Heliövaara 1

Tilastollinen testaus. Vilkkumaa / Kuusinen 1

Estimointi. Vilkkumaa / Kuusinen 1

Kaksisuuntaisen varianssianalyysin tilastollisessa malli voidaan esittää seuraavassa muodossa:

Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt

Osafaktorikokeet. Heliövaara 1

Talousmatematiikan perusteet: Luento 14. Rajoittamaton optimointi Hessen matriisi Ominaisarvot Ääriarvon laadun tarkastelu

3.2.2 Tikhonovin regularisaatio

Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1

Identifiointiprosessi

Antti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16

Matematiikan peruskurssi (MATY020) Harjoitus 10 to

Oletetaan ensin, että tangenttitaso on olemassa. Nyt pinnalla S on koordinaattiesitys ψ, jolle pätee että kaikilla x V U

Matematiikan tukikurssi

2 Osittaisderivaattojen sovelluksia

Numeeriset menetelmät

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos

LIITE 1 VIRHEEN ARVIOINNISTA

Matematiikan tukikurssi

Sovellettu todennäköisyyslaskenta B

Kaksisuuntainen varianssianalyysi. Vilkkumaa / Kuusinen 1

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos

Luento 9: Yhtälörajoitukset optimoinnissa

Ennustaminen ARMA malleilla ja Kalmanin suodin

6. Differentiaaliyhtälösysteemien laadullista teoriaa.

Mat Tilastollisen analyysin perusteet, kevät 2007

Derivaatta: funktion approksimaatio lineaarikuvauksella.

Talousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu

LIITE 1 VIRHEEN ARVIOINNISTA

f(x, y) = x 2 y 2 f(0, t) = t 2 < 0 < t 2 = f(t, 0) kaikilla t 0.

Sovellettu todennäköisyyslaskenta B

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

13. Taylorin polynomi; funktioiden approksimoinnista. Muodosta viidennen asteen Taylorin polynomi kehityskeskuksena origo funktiolle

17. Differentiaaliyhtälösysteemien laadullista teoriaa.

Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

MS-C1340 Lineaarialgebra ja

Osafaktorikokeet. Kurssipalautetta voi antaa Oodissa Kuusinen/Heliövaara 1

ABHELSINKI UNIVERSITY OF TECHNOLOGY

Talousmatematiikan perusteet: Luento 15. Rajoitettu optimointi Lagrangen menetelmä Lagrangen kerroin ja varjohinta

1 Rajoittamaton optimointi

DI matematiikan opettajaksi: Täydennyskurssi, kevät 2010 Luentorunkoa ja harjoituksia viikolle 11: ti klo 13:00-15:30

1. Tilastollinen malli??

r > y x z x = z y + y x z y + y x = r y x + y x = r

Sovellettu todennäköisyyslaskenta B

9. Tila-avaruusmallit

Matriisilaskenta, LH4, 2004, ratkaisut 1. Hae seuraavien R 4 :n aliavaruuksien dimensiot, jotka sisältävät vain

Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II

Identifiointiprosessi

Testejä suhdeasteikollisille muuttujille

Kuva 1: Funktion f tasa-arvokäyriä. Ratkaisu. Suurin kasvunopeus on gradientin suuntaan. 6x 0,2

Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35

4 (x 1)(y 3) (y 3) (x 1)(y 3)3 5 3

MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio.

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

Harjoitus 2: Matlab - Statistical Toolbox

Numeeriset menetelmät TIEA381. Luento 5. Kirsi Valjus. Jyväskylän yliopisto. Luento 5 () Numeeriset menetelmät / 28

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2018

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

Lause 4.2. Lineearinen pienimmän keskineliövirheen estimaattoi on lineaarinen projektio.

Numeeriset menetelmät

Numeeriset menetelmät

805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016)

Sovellettu todennäköisyyslaskenta B

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

Matriisilaskenta Laskuharjoitus 5 - Ratkaisut / vko 41

Transkriptio:

Mat-.3 Koesuunnittelu ja tilastolliset mallit kevät Keskipisteen lisääminen k -faktorikokeeseen (ks. Montgomery 9-6) Esim (Montg. ex. 9-, 6-): Tutkitaan kemiallisen prosessin saannon Y riippuvuutta faktoreista A = reaktioaika ja B = lämpötila. Faktoreille annetaan seuraavat arvot: A B alataso (-) 3 min o C ylätaso (+) min 6 o C Koesuunnitelmaan kuuluu siis = koetta (jos ei ole toistoja), ja tuloksista voidaan (yleiskeskiarvon µ lisäksi) estimoida parametrit α, β ja αβ, ts. päävaikutukset A ja B sekä yhdysvaikutus AB. Merkitsevyyden testausta ei voida tehdä, koska koevirheelle ei saada estimaattia. Lisätään koesuunnitelmaan n = koetta keskipisteessä (A=3 min, B= o C). Tällöin i) Keskipisteessä mitatuista arvoista y,,..., y, n saadaan varianssiestimaatti, ii) Merkitään Suuri poikkeama y y = keskipistearvojen y,,..., y, n keskiarvo, y = nurkkapistearvojen y(), ya, y b, y ab keskiarvo. y on merkki siitä, että Y:n riippuvuus faktoreista on epälineaarista (esiintyy kaarevuutta = curvature). Tulokset: A B Y () - - 39.3 a -.9 b -. ab..3..7..6 Keskipistearvoista saadaan n =, y =. 6 ja (poikkeamaneliösumma) ss =.7. Nurkkapistearvoista saadaan y =. sekä $α = Eff A / =.77 ja vastaavasti β $ =.3, ( αβ $ ) = -.. Olkoon y = kaikkien havaintojen keskiarvo. Kaikista havainnoista laskettu SS Tot = (y i - y ) hajoaa summaksi SS Tot = SS Mod + SS Err, missä SS Mod = = SS A + SS B + SS AB, ja SS Err hajoaa edelleen muotoon SS Err = SSE LoF +SSE pe, missä

Saadaan ANOVA-taulu SSE pe = ss = ss(keskipistearvot) (pe = pure error) SSE LoF = * y y ) + (vrt. kohta ii) yllä). df SS MS F A..87 erittän merkitsevä B. 9.83 merkitsevä AB..6 ei merkitsevä LoF.7.6 ei merkitsevä pe.7.3 Tot 8 3. Huom:. Keskipistehavainnoilla ei ole vaikutusta estimaattien $α, eikä SS Mod :n komponenttien laskemiseen (esim. SS A = *(Eff A /) jne).. Yo. tarkastelu yleistyy ilman oleellisia muutoksia tilanteeseen, jossa faktoreita on useampia. SS LoF :n yleinen lauseke on SS LoF = n n n + n (y y ), missä n = k n = nurkkapisteissä tehtyjen kokeiden lkm (k = faktorien lkm, n = nurkkapisteissä tehtyjen replikaattien lkm (tässä n = )). 3. Symbolin LoF sijasta käytetään tässä yhteydessä joskus symbolia pq (pure quadratic), siis esim. SS pq jne. Tämä viittaa. asteen regressiopolynomin puhtaasti neliöllisiin termeihin jotka ovat muotoa β ii x i (erotukseksi sekatermeistä β ij x i x j ); ks. jäljempää. Vastepintamenetelmä (RSM = response surface method) Siirrytään merkintöjen A, B, AB,, µ, α, β,... sijasta käyttämään merkintöjä x, x,, β, β, β, β,. Oletetaan, että vaste Y riippuu faktoreista x, x k, kaavan Y = f(x, x k ) + ε mukaisesti, missä ε on -keskiarvoinen satunnaissuure (siis f(x, x k ) = Y:n odotusarvo kohdassa (x, x k )). Pinta (oletetaan yksinkertaisuuden vuoksi k = ) on vastepinta. y = f(x, x )

Riittävän pienessä alueessa x x -tason origon ympärillä pintaa voidaan approksimoida. asteen polynomilla () y = f(x, x ) β + β x + β x tai, jos kaarevuus halutaan huomioida,. asteen polynomilla () y = f(x, x ) β + β x + β x + β x x + β x + β x. Esim. yllä olevassa esimerkissä saatiin. asteen polynomiapproksimaatio y =. +.77x +.3x, missä ξ 3 =, x ξ =, x ξ = reaktioaika, ξ = lämpötila.. asteen malli osoittautui riittäväksi pisteen (ξ, ξ ) = (3, ) läheisyydessä. Oletetaan, että halutaan maksimoida Y:n (odotus)arvo, ts. löytää funktion f maksimikohta. Voidaan käyttää seuraavanlaista strategiaa (vastaavasti tietenkin jos halutaan minimoida f):. Tehdään keskipisteellinen k -faktorikoe (keskipisteessä faktorien nykyiset arvot tai arvattu max-kohta tms.). kaarevuus ei merkitsevää. kaarevuus on merkitsevää 3.. f:ää approksimoidaan lineaarisella mallilla (). Maksimikohdan lähelle pääsemiseksi lähdetään vektorin ( β ˆ,..., ˆ βk ) (joka on estimaatti grad(f):lle) suuntaan. Edetään sopivaa askelpituutta käyttäen tehden joka askeleella yksi mittaus vasteesta Y. Kun Y lakkaa kasvamasta ja alkaa taas vähetä, palataan kohtaan. (keskipisteenä se piste josta saatiin suurin havainto). (Tämä on itse asiassa aivan tavanomainen gradienttimenetelmä.) 3. Ollaan lähellä maksimikohtaa. Tehdään lisää mittauksia (ks. jäljempää) ja sovitetaan. asteen malli () saadaan estimoitua maksimikohta. Esim: vaihe. esitetty edellä vaihe. (Seurataan edelleen Montgomeryn esimerkkiä) Lähtien pisteestä (ξ, ξ ) = = (3, ) siirrytään askeleittain s.e. askel = ( ξ, ξ ) = ( min, o C), ts. (likimain) vektorin ( β ˆ ˆ ) ( ˆ, β = α, βˆ) = (.77,.3) suuntaan. Mitataan Y joka askeleella; oletetaan, että saadaan 3

askel ξ ξ y 3. (=keskiarvo) 7. M M M M 9 8 73 77.6 8 7 8.3 max! 9 77 76. ξ 8 ξ 7 Asetetaan nyt x = ja x = sekä palataan kohtaan. ; oletetaan, että saadaan seuraavat tulokset: x x y - - 76.. asteen malli y = 78.97 +.x +.x - 78. sekä - 77. ANOVA : 79. df SS 79.9 Mod. 8.3 AB. 8. LoF=pq.68 79.7 pe. 79.8 Tot 8 kaarevuus (LoF) on merkitsevää (F-arvo =.) siirrytään kohtaan 3.. asteen polynomin sovitus (vaihe 3.) Täydennetään edellä esitettyä koesarjaa mittaamalla Y vielä pisteissä (x, x ) = = (±α, ) ja (, ± α), missä α > on sopivasti valittu; tavanomaisia arvoja ovat α = : uudet pisteet ovat alkuperäisten k koepisteen muodostaman k-ulotteisen kuution (tässä: neliö) tahkojen keskipisteet, α = n (ns. Box in koesuunnitelma): Voidaan osoittaa, että tällä α:n valinnalla (ja valitsemalla vielä keskipistekokeiden lkm n sopivasti) saadaan kiertosymmetrinen (rotatable) koesuunnitelma, mikä merkitsee, että Var( ŷ ) on vakio origokeskisillä pallopinnoilla. Valitaan Box in koe, ts. α = ; oletetaan että lisämittausten tulokset ovat x x y - 7.6 78. - 77. 78. (siis pisteessä (8, 7) ja sen ympärillä on nyt tehty kaikkiaan + + = 3 mittausta).. asteen regressiomallin () sovittaminen dataan antaa polynomin

y = 79.9 +.99x +.x +.x x -.377x -.x ja ANOVA-taulun df SS MS F Mod 8.6.6 6.63 LoF 3.7.9.73 pe..3 Tot 8.73 LoF on selvästi ei-merkitsevä, joten malli näyttää kuvaavan hyvin Y:n riippuvuutta faktoreista. (Huomaa, että kun nyt on sovitettu. asteen polynomi, LoF ei enää liity kaarevuuteen; malli selittää nyt kaarevuuden. Koska mittauspisteitä on 9 ja mallissa on 6 kerroinparametria, jää yksinkertaisesti 3 vapausastetta LoF:lle.) f f Estimoidaan maksimikohta (ehto = = ) : x x.99 -.377 x +.x =. +.x -. x =, mistä saadaan x =.389, x =.36 eli ξ = 86.9 (min), ξ = 76.3 ( o C). Yleensä stationaarinen piste (grad(f):n -kohta) voi olla maksimi- tai minimikohta tai ei kumpaakaan (satulapiste); stationaarisen pisteen luonne voidaan usein selvittää tutkimalla funktion f Hessin matriisia (jonka elementit ovat f:n. kertaluvun osittaisderivaatat laskettuina asianomaisessa pisteessä); tässä esimerkissä H f =. 7.,.. jonka ominaisarvot ovat λ = -.93 ja λ = -.83. Koska ominaisarvot ovat <, matriisi H f on negatiivisesti definiitti, joten löydetty piste on todella (lokaali) maksimikohta (tehtyjen mittausten valossa).