Load

Samankaltaiset tiedostot
Yleistetyistä lineaarisista malleista

Tilastollinen aineisto Luottamusväli

Regressioanalyysi. Kuusinen/Heliövaara 1

Johdatus todennäköisyyslaskentaan Normaalijakaumasta johdettuja jakaumia. TKK (c) Ilkka Mellin (2005) 1

Sovellettu todennäköisyyslaskenta B

Normaalijakaumasta johdettuja jakaumia

l (φ; y) = l(θ(φ); y) Toinen derivaatta saadaan tulon derivaatan laskusäännöllä Uudelleenparametroidun mallin Fisherin informaatio on

Lisää Diskreettejä jakaumia Lisää Jatkuvia jakaumia Normaalijakaumasta johdettuja jakaumia

Sovellettu todennäköisyyslaskenta B

Regressioanalyysi. Vilkkumaa / Kuusinen 1

Sovellettu todennäköisyyslaskenta B

MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Tilastotieteen kertaus. Kuusinen/Heliövaara 1

tilastotieteen kertaus

Residuaalit. Residuaalit. UK Ger Fra US Austria. Maat

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Tilastollisen analyysin perusteet Luento 7: Lineaarinen regressio

6. laskuharjoitusten vastaukset (viikot 10 11)

Sovellettu todennäköisyyslaskenta B

Estimointi. Vilkkumaa / Kuusinen 1

Sovellettu todennäköisyyslaskenta B

Yleistetyn lineaarisen mallin perusteita

MS-A0503 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

1. Tilastollinen malli??

5.7 Uskottavuusfunktioon perustuvia testejä II

2. Tietokoneharjoitukset

Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

Logistinen regressio, separoivat hypertasot

805306A Johdatus monimuuttujamenetelmiin, 5 op

Estimointi. Estimointi. Estimointi: Mitä opimme? 2/4. Estimointi: Mitä opimme? 1/4. Estimointi: Mitä opimme? 3/4. Estimointi: Mitä opimme?

Maximum likelihood-estimointi Alkeet

pitkittäisaineistoissa

Tilastotieteen kertaus. Vilkkumaa / Kuusinen 1

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

2. Jatkoa HT 4.5:teen ja edelliseen tehtavään: Määrää X:n kertymäfunktio F (x) ja laske sen avulla todennäköisyydet

Osa 2: Otokset, otosjakaumat ja estimointi

805306A Johdatus monimuuttujamenetelmiin, 5 op

Johdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1

Mallipohjainen klusterointi

Harjoitus 9: Excel - Tilastollinen analyysi

VALTIOTIETEELLINEN TIEDEKUNTA TILASTOTIETEEN VALINTAKOE Ratkaisut ja arvostelu < X 170

Ilkka Mellin Tilastolliset menetelmät Osa 2: Otokset, otosjakaumat ja estimointi Estimointi

Todennäköisyysjakaumia

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B

9. laskuharjoituskierros, vko 12-13, ratkaisut

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Gripenberg. MS-A0502 Todennäköisyyslaskennan ja tilastotieteen peruskurssi Tentti ja välikoeuusinta

MTTTP5, luento Otossuureita ja niiden jakaumia (jatkuu)

Väliestimointi (jatkoa) Heliövaara 1

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1

Lisätehtäviä ratkaisuineen luentomonisteen lukuun 6 liittyen., jos otoskeskiarvo on suurempi kuin 13,96. Mikä on testissä käytetty α:n arvo?

Mallin arviointi ja valinta. Ennustevirhe otoksen sisällä, parametrimäärän valinta, AIC, BIC ja MDL

Johdatus regressioanalyysiin. Heliövaara 1

Identifiointiprosessi

7.4 Normaalijakauma (kertausta ja täydennystä) Taulukosta P(Z 1,6449) = 0,05, P(Z -1,6449) = 0,05 P(Z 1,96) = 0,025, P(Z -1,96) = 0,025

Jos nollahypoteesi pitää paikkansa on F-testisuuren jakautunut Fisherin F-jakauman mukaan

11. laskuharjoituskierros, vko 15, ratkaisut

Tilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio

Jos nyt on saatu havaintoarvot Ü ½ Ü Ò niin suurimman uskottavuuden

Estimointi populaation tuntemattoman parametrin arviointia otossuureen avulla Otossuure satunnaisotoksen avulla määritelty funktio

Grafiikka, satunnaislukuja, jakaumia ja yleistettyjä lineaarisia malleja

χ = Mat Sovellettu todennäköisyyslasku 11. harjoitukset/ratkaisut

Jakaumien merkitys biologisissa havaintoaineistoissa: Löytyykö ratkaisu Yleistetyistä Lineaarisista (Seka)Malleista?

pitkittäisaineistoissa

edellyttää valintaa takaisinpanolla Aritmeettinen keskiarvo Jos, ½ Ò muodostavat satunnaisotoksen :n jakaumasta niin Otosvarianssi Ë ¾

Sovellettu todennäköisyyslaskenta B

Dynaamiset regressiomallit

Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. eli matriisissa on 200 riviä (havainnot) ja 7 saraketta (mittaus-arvot)

Johdatus tilastotieteeseen Väliestimointi. TKK (c) Ilkka Mellin (2005) 1

Testit järjestysasteikollisille muuttujille

Tilastollisen analyysin perusteet Luento 1: Lokaatio ja hajonta

Mat Tilastollisen analyysin perusteet, kevät 2007

Todennäköisyyden ominaisuuksia

/1. MTTTP1, luento Normaalijakauma (jatkoa) Olkoon Z ~ N(0, 1). Määritellään z siten, että P(Z > z ) =, graafisesti:

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen

Sovellettu todennäköisyyslaskenta B

2. Uskottavuus ja informaatio

/1. MTTTP1, luento Normaalijakauma (kertausta) Olkoon Z ~ N(0, 1). Määritellään z siten, että P(Z > z ) =, graafisesti:

Mat Tilastollisen analyysin perusteet, kevät 2007

A250A0050 Ekonometrian perusteet Tentti

Todennäköisyyslaskun kertaus. Vilkkumaa / Kuusinen 1

805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016)

Mat Tilastollisen analyysin perusteet, kevät 2007

T Luonnollisten kielten tilastollinen käsittely

H0: otos peräisin normaalijakaumasta H0: otos peräisin tasajakaumasta

TA7, Ekonometrian johdantokurssi HARJOITUS 4 1 RATKAISUEHDOTUKSET

Tilastollinen päättely II, kevät 2017 Harjoitus 2A

Identifiointiprosessi

Harjoitus 2: Matlab - Statistical Toolbox

Testejä suhdeasteikollisille muuttujille

Tilastollisen analyysin perusteet Luento 10: Johdatus varianssianalyysiin

Inversio-ongelmien laskennallinen peruskurssi Luento 2

1 Johdatus varianssianalyysiin

Jarkko Isotalo. Johdatus yleistettyihin lineaarisiin malleihin

Odotusarvoparien vertailu. Vilkkumaa / Kuusinen 1

Johdatus tilastotieteeseen Testit suhdeasteikollisille muuttujille. TKK (c) Ilkka Mellin (2004) 1

Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä

Tutkimusongelmia ja tilastollisia hypoteeseja: Perunalastupussien keskimääräinen paino? Nollahypoteesi Vaihtoehtoinen hypoteesi (yksisuuntainen)

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Transkriptio:

Tampereen yliopisto Tilastollinen mallintaminen Mikko Alivuotila ja Anne Puustelli Lentokoneiden rakennuksessa käytettävien metallinkiinnittimien puristuskestävyys Matematiikan, tilastotieteen ja filosofian laitos Tilastotiede Marraskuu 2000

1 Aineiston kuvaus Aineistomme on kirjasta 'Modelling Binary Data' (D. Collett, 1991) ja siinä tutkitaan lentokoneiden rakennuksessa käytettävien metallinkiinnittimien puristuskestävyyttä. Aineistossa on yhteensä 690 metallinkiinnitintä ja ne on testattu eri painekuormituksilla. Painekuormitus kasvaa 2500:sta 4300:aan 200:n yksikön (psi) välein, eli yhteensä havaintoja on tutkittu kymmenellä eri painekuormituksella. Aineistosta on pudotettu jokaisesta painekuormituksesta kaksi viimeistä nollaa pois mukavuussyistä. Aineisto on seuraava: Taulukko 1 Aineisto Kuormitus n r ( 100) p = r n 1 25 50 10 0.20 2 27 70 17 0.24 3 29 100 30 0.30 4 31 60 21 0.35 5 33 40 18 0.45 6 35 85 43 0.51 7 37 90 54 0.60 8 39 50 33 0.66 9 41 80 60 0.75 10 43 65 51 0.78 Aineistossa n = testattujen kiinnittimien lukumäärä kussakin kuormituksessa r = särkyneiden kiinnittimien lukumäärä kussakin kuormituksessa p = särkyneiden kiinnittimien lukumäärä verrattuna testattujen kiinnittimien lukumäärään Aineistossamme tutkittava muuttuja noudattaa binomijakaumaa; metallinkiinnitin joko kestää tai rikkoutuu. Kiinnostuksemme kohde on, vaikuttaako paineen vaihtelu metallinkiinnittimen rikkoutumiseen ja jos vaikuttaa, niin miten. Tätä tutkiaksemme meidän tulee rakentaa tilastollinen malli, joka kertoo miten kuormitus vaikuttaa todennäköisyyteen, että metallinkiinnitin 1

p 0.2 0.3 0.4 0.5 0.6 0.7 0.8 25 30 35 40 Load Kuva 1 Painekuormituksen vaikutus metallinkiinnittimen rikkoutumistodennäköisyyteen rikkoutuu. Tällaista mallia kutsutaan lineaariseksi todennäköisyysmalliksi. Piirretään ensin kuva, jossa x-akselilla on kuormitus ja y-akselilla todennäköisyys, että metallinkiinnitin rikkoutuu. Silmämääräisesti voimme nähdä, että matalalla paineella kiinnittimen rikkoutumisen todennäköisyys on pienempi verrattuna korkeisiin paineisiin. Todennäköisyys, että metallinkiinnitin rikkoutuu, voi saada arvoja nollasta yhteen, ja siitä syystä ei ole järkevää rakentaa lineaarista mallia. Lineaarisella mallilla todennäköisyydet saisivat arvoja [ 1; 1], joka ei ole tulkinnallisesti järkevää. Tästä syystä päätämme mallintaa aineistoa logistisella regressiomallilla. 2 Johdatus yleistettyihin lineaarisiin malleihin Logistinen regressiomalli kuuluu yleistettyjen lineaaristen mallien perheeseen. Yleistetyt lineaariset mallit muodostuvat kolmesta komponentista: satunnaiskomponentista, systemaattisesta komponentista ja linkkifunktiosta. Satunnaiskomponentissa määritetään selitettävä muuttuja Y i ja tämän to- 2

dennäköisyysjakauma. Systemaattisessa komponentissa määritetään, millaisella funktiolla x j :t selittävät selitettävää muuttujaa. Yksinkertaisin systemaattinen komponentti on muotoa ff + fi 1 x 1 + ::: + fi k x k : (1) Linkkifunktio määrittelee, miten μ = E(Y ) on yhteydessä selittäviin muuttujiin. Käytämme aineistomme analysoimisessa kolmea linkkifunktiota. Yleisin näistä on logit linkki, joka määritetään ψ! pi logit(p i )=log : (2) 1 p i Sulkujen sisällä oleva murtoluku on onnistumisen mahdollisuus (odds) ja logit linkki on siten logaritmi onnistumisen mahdollisuudesta. Koska p saa arvoja väliltä (0,1), on helppo nähdä, että kun p! 0, niin logit(p)! 1. Samoin, kun p! 1, niin logit(p)! 1. Logit(p) funktio on muodoltaan hiukan tangentti- käyrän muotoinen, jossa p saa x-akselilla arvot väliltä (0,1). Pisteessä p = 0:5 logit(p) = 0 ja funktio on symmetrinen tämän pisteen suhteen. Probit linkki määritellään seuraavasti 1 p 2ß Z ο 1 exp 1 2 u2 du = p; (3) missä U ο N(0; 1), ja siten p = P (u» ο). Standardoitua normaalijakaumaa merkitään usein Φ(ο), joten ο on sellainen, että Φ(ο) =p. Tällöin ο =Φ 1 (p), missä käänteisfunktio Φ 1 (p) on probit transformaatio p:lle. Myös probit(p) saa arvoja ( 1; 1) ja on symmetrinen pisteen p =0:5 suhteen. Kyseisessä pisteessä probit(p) = 0, koska normaalijakauman kertymäfunktio saavuttaa pisteen 0, kun p = 0:5. Logit ja probit linkit antavat hyvin samanlaisia tuloksia ja on erittäin harvinaista, että toisella linkillä malli olisi hyvä ja toisella huono. Komplementaarinen log-log linkki määritellään seuraavasti cloglog(p i )=log[log(1 p i )] (4) Myös tämä linkki transformoi todennäköisyydet välille ( 1; 1),mutta ei ole symmetrinen pisteen p = 0:5 suhteen kuten kaksi aiempaa linkkifunktiota ja cloglog(0:5) < 0. Pienillä p :n arvoilla komplementaarinen log-log linkki antaa lähes samat arvot kuin logit linkki. 3

3 Logistinen regressiomalli Oletetaan, että aineistossamme r i ο Bin(n i ;ß i ); (5) missä i = 1, :::, 10 ja r 1, :::, r 10 ovat riippumattomia. Mallinnetaan parametrien ß i riippuvuus kuormituksesta, jota merkitään x i.käytetään ensin logit linkkiä, jolloin malli on muotoa ßi log = logit(ß i )=ff + fix i : (6) 1 ß i Ratkaistaan yhtlöstä ß i :n ja saadaan ß i = exp (ff + fix i) 1+exp (ff + fix i ) : (7) Tämän avulla voimme siis määrittää ß i :t eri x i :n arvoilla, kun olemme estimoineet ff:n ja fi:n. Parametrien estimaatit johdetaan suurimman uskottavuuden menetelmällä. Olkoon k selittävien muuttujien lukumäärä. Uskottavuusfunktio on muotoa ψ! ny ni L(fi) = p y i y (1 p i i) n i y i (8) i i=1 Uskottavuusfunktion logaritmi on ( ψ! ) nx ni log L(fi) = log + y i log p i +(n i y i )log (1 p i ) y i=1 i ( ψ! ψ! ) nx ni pi = log + y i log + n i log (1 p i ) y i=1 i 1 p i ( ψ! ) nx ni = log + y i i n i log (1 + e i ) ; (9) y i missä j = kp j=0 i=1 fi j x ij ja x 0i = 1 kaikilla i:n arvoilla. Logaritmoidun uskottavuusfunktion osittaisderivaatta parametrin fi:n suhteen on @log L(fi) X X = yi x ji n i x jie i (1 + e i ) 1 ; (10) @fi j 4

missä j =0; 1, :::, k. Merkitsemällä tämä yhtälö nollaksi ja ratkaisemalla ^fi saadaan k+1 epälineaarista yhtälöä, joissa on tuntematon parametri ^fi j.näille yhtälöille on olemassa ainoastaan numeerinen ratkaisu. Yleisesti käytetty algoritmi ^fi suurimman uskottavuuden estimaattien ratkaisuun on Fisherin menetelmä (Fisher's method of Scoring), joka vastaa iteratiivista painotettua pienimmän neliösumman menetelmää. Fisherin menetelmä on sama kuin yleisesti käytetty Newton-Rapson algoritmi, mutta lähestyy ongelmaa informaatiomatriisin avulla. 4 Mallin hyvyys Mallin hyvyyttä mitataan devianssilla (D). Se saadaan estimoidun ja täyden mallin suurimman uskottavuuden suhteesta kaavalla D = 2 log (L c =L f ) ; (11) missä c viittaa estimoituun malliin ja f viittaa täyteen malliin. D saa suuria arvoja kun L c on suhteellisen pieni verrattuna L f :ään. Tällöin malli on huono. Kun L c lähenee L f :ää, saa D pieniä arvoja ja malli on tällöin hyvä. Havaintojen ollessa binomijakautuneita, devianssi lähenee asymptoottisesti χ 2 jakaumaa vapausastein n p, missän on havaintojen määrä ja p on mallissa olevien tuntemattomien parametrien määrä. Jatkuvien muuttujien tapauksessa, kun oletuksena on normaalijakuma, devianssi on jäännösneliösumma. Tässä tapauksessa devianssi on χ 2 :n monikerta, riippumatta otoskoosta. Yksittäisten havaintojen määrä vaikuttaa otoskoon suuruuden toteamiseen, ei niinkään eri binomitodennäköisyyksien määrä. Esimerkissämme metallikiinnittimien määrä ratkaisee, koska voidaan olettaa otoksen olevan tarpeeksi suuri χ 2 approksimointiin, eikä eri painekuomitusluokkien määrä. Eli vaikka luokkien määrä olisi pieni, devianssin jakaumaan voidaan käyttää χ 2 approksimointia, jos havaintojen määrä on riittävän suuri. "Riittävästä suuruudesta" voidaan sanoa, että se riippuu enemmän havaintojen määristä eri luokissa ja estimoitavista luokkatodennäköisyyksistä kuin havaintojen kokonaismäärästä. Erityistapauksessa, jossa binomijakautuneita havaintoja ei ole luokiteltu, devianssi ei ole edes approksimoiden χ 2 jakautunut. Sama ongelma esiintyy, jos joissakin luokissa on vain muutamia havaintoja tai mallin sovitteet ovat lähellä nollaa tai ykköstä. 5

Nyrkkisääntönä voidaan sanoa, että jos devianssi on pienempi kuin vapausasteensa tai lähellä sitä, malli on tyydyttävä. 5 Logistisen regressiomallin estimointi Estimoidaan logistinen regressiomalli komennolla ex6 <- glm(p ~ Load,weights=n,family=binomial) Tulokseksi saadaan Deviance Residuals: Min 1Q Median 3Q Max -0.29475-0.11129 0.04162 0.08847 0.35016 Coefficients: Estimate Std. Error z value Pr(> z ) (Intercept) -5.33971 0.54569-9.785 <2e-16 *** Load 0.15484 0.01575 9.829 <2e-16 *** --- Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1 (Dispersion parameter for binomial family taken to be 1) Null deviance: 112.83207 on 9 degrees of freedom Residual deviance: 0.37192 on 8 degrees of freedom AIC: 847.71 Number of Fisher Scoring iterations: 3 Logistiseksi regressiomalliksi saadaan logit (^p) = 5:340 + 0:1548Load (12) Tämän avulla voidaan määrittää kiinnittimen hajoamisen todennäköisyys eri painekuormituksilla. ^p i = exp ( 5:340 + 0:1548Load i) 1+exp ( 5:340 + 0:1548Load i ) (13) 6

Esimerkiksi kuormituksella 25 psi saadaan kiinnittimen hajoamisen todennäköisyydeksi ^p =0:1877. Tämä on hyvin lähellä havaittua arvoa kyseisellä kuormituksella, joka onp =0:20. Normaalijakaumaan perustuvalla testauksella voidaan todeta, että mallin selittäjän kerroin eroaa merkittävästi nollasta (p < 2e 16). Tämä merkitsee sitä, että kiinnittimen hajoamistodennäköisyyden ja kuormituksen välillä on merkittävä yhteys. Mallin devianssi on 0.3719 ja sen vapausasteet ovat 10 2 = 8. Testattaessa mallin hyvyyttä 0:5%:n riskitasolla verrataan devianssia χ 2 -jakauman taulukkoarvoon χ 2 8; 0:005 = 21:96. Taulukoitu arvo on huomattavasti suurempi kuin havaittu arvo, joten H 0 ='malli on hyvä' voidaan hyväksyä. Tämä tarkoittaa, että painekuormituksella voidaan estimoida kiinnittimen hajoamistodennäköisyys. 6 Vertailumallien estimointi Estimoidaan seuraavaksi probit regressiomalli, jotta voidaan vertailla eri linkkifunktioiden vaikutusta. Deviance Residuals: Min 1Q Median 3Q Max -0.33473-0.11319 0.01760 0.09600 0.36474 Coefficients: Estimate Std. Error z value Pr(> z ) (Intercept) -3.27121 0.32128-10.18 <2e-16 *** Load 0.09488 0.00928 10.23 <2e-16 *** --- Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1 (Dispersion parameter for binomial family taken to be 1) Null deviance: 112.83207 on 9 degrees of freedom Residual deviance: 0.43735 on 8 degrees of freedom AIC: 847.78 Number of Fisher Scoring iterations: 2 7

Probit regressiomalliksi saadaan probit(^p) = 3:271 + 0:949 Load (14) Mallin selittäjän kerroin eroaa merkittävästi nollasta (p < 2e 16), joka antaa saman päätelmän kuin edellisessä mallissa. Mallin devianssi on 0.4374 ja sen vapausasteet ovat 10 2 = 8. Tämä tarkoittaa, että painekuormituksella voidaan estimoida kiinnittimen hajoamistodennäköisyys myös probit regressiomallia käyttäen. Estimoidaan lopuksi komplementaarinen log-log malli. Deviance Residuals: Min 1Q Median 3Q Max -0.55154-0.16444-0.03201 0.19367 0.39434 Coefficients: Estimate Std. Error z value Pr(> z ) (Intercept) -4.19175 0.39453-10.63 <2e-16 *** Load 0.10941 0.01084 10.10 <2e-16 *** --- Signif. codes: 0 `***' 0.001 `**' 0.01 `*' 0.05 `.' 0.1 ` ' 1 (Dispersion parameter for binomial family taken to be 1) Null deviance: 112.8321 on 9 degrees of freedom Residual deviance: 0.6867 on 8 degrees of freedom AIC: 848.03 Number of Fisher Scoring iterations: 3 Komplementaariseksi log-log malliksi saadaan cloglog (^p) = 4:191 + 0:109 Load (15) Mallin selittäjän kerroin eroaa merkittävästi nollasta (p < 2e 16), joka antaa saman päätelmän kuin edellisessä mallissa. Mallin devianssi on 0.6867 ja sen vapausasteet ovat 10 2 = 8. Tämä tarkoittaa, että painekuormituksella voidaan estimoida kiinnittimen hajoamistodennäköisyys myös komplementaarista log-log mallia käyttäen. 8

7 Mallien vertailu Verrataan estimoituja malleja devianssin ja Akaiken informaatiokriteerin avulla. Vertailu on mahdollista, koska kaikissa malleissa on yhtä paljon estimoitavia parametreja. Malleja vertailtaessa haetaan pienintä AIC:n arvoa. Pienin arvo saadaan logistisella regressiomallista (847.71), mutta probit ja komplementaarinen log-log malli antavat lähes samat AIC:n arvot. Mallien devianssit ovat myös hyvin lähellä toisiaan ja parhaimmaksi malliksi osoittautuu jälleen logistinen regressiomalli pienimmällä devianssilla 0.37192. Tarkasteltaessa mallien parametrien estimaatteja huomaamme, että logistisella ja probit mallilla estimaattien suhde on sama. Siis ff 1 fi 1 = ff 2 fi 2 = 34:48 (16) Tämä seuraa linkkifunktioiden ominaisuuksista, joita olemme esitelleet kappaleessa 2. Komplementaarisen log-log mallin estimoitujen parametrien suhde sitävastoin ei ole sama edellisten mallien kanssa. Tämä johtuu siitä, että linkki ei ole symmetrinen pisteen p = 0:5 suhteen ja cloglog(0:5) < 0. Tästä syystä komplementaarisen log-log mallin parametrien suhde on pienempi kuin edellisten mallien. 9