Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu Matlabilla
|
|
- Karoliina Lahti
- 6 vuotta sitten
- Katselukertoja:
Transkriptio
1 Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi Esimerkit laskettu Matlabilla Antti Hyttinen Tampereen teknillinen yliopisto
2 ii Ohjelmien versiotietoja: MATLAB Version (R13) Statistics Toolbox Version 4.0 (R13) Operating System: Darwin 6.6 Darwin Kernel Version 6.6: Power Macintosh Java VM Version: Java with Apple Computer
3 Luku 1 Regressio 1.1 Matriisilaskentaa ja multinormaalijakauma Ei esimerkkiä. 1.2 Lineaarinen regressiomalli Ensin syötetään datamatriisi ja vastevektori. >> x1=[0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7] ; >> x2=[1,1,1,1,5,5,5,5,9,9,9,9] ; >> X=[ones(size(x1)),x1,x2]; >> y=[5.63,6.42,1.38,1.94,11.57,12.16,5.72,4.69,12.68,13.31,8.28,7.73] ; >> N=length(y); >> k=2; Parametrien estimaatit voidaan laskea suoraan kaavasta: >> C=inv(X *X) C = >> b=c*x *y b =
4 2 LUKU 1. REGRESSIO tai QR-hajotelmaa käyttäen Matlabin kenoviivaoperaattorin kautta: >> b=x\y b = Estimoidaan parametrien keskihajonnat: >> y_hat=x*b; >> r=y-y_hat; >> SSE=r *r SSE = >> s2=sse/(n-k-1) s2 = >> se=sqrt(diag(c)*s2) se = Ennustettu arvo tasoilla x 1 =0.5, x 2 =4ja ennusteen estimoitu keskihajonta: >> xi=[ 1; 0.5; 4 ]; >> y_hat=xi *b y_hat = >> se_y_hat=sqrt(s2*xi *C*xi) se_y_hat = Mallin ja datan visualisointia esimerkiksi näin:
5 1.2. LINEAARINEN REGRESSIOMALLI 3 >> I3=find(X(:,2)==0.3); >> I7=find(X(:,2)==0.7); >> x2=linspace(0,10) ; >> e=ones(size(x2)); >> X03=[e, 0.3*e, x2]; >> X07=[e, 0.7*e, x2]; >> plot(x(i3,3),y(i3), bo,x(i7,3),y(i7),... gx,x2, X03*b, b-,x2, X07*b, g-- ); >> xlabel( x_2 ); >> ylabel( y, Rotation,0); >> box off y x 2
6 4 LUKU 1. REGRESSIO 1.3 Hypoteesien testaaminen Luodaan datamatriisi ja vastevektori. >> x1=[0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7] ; >> x2=[1,1,1,1,5,5,5,5,9,9,9,9] ; >> X=[ones(size(x1)),x1,x2,x1.*x2,x2.ˆ2,x1.*x2.ˆ2] >> y=[5.63,6.42,1.38,1.94,11.57,12.16,5.72,4.69,12.68,13.31,8.28,7.73] ; >> N=length(y); >> k=5; Lasketaan parametrien estimaatit: >> b=x\y b = Estimoidaan virheen varianssi ja parametrien keskihajonnat: >> y_hat=x*b; >> r=y-y_hat; >> SSE=r *r SSE = >> s2=sse/(n-k-1) s2 = >> C=inv(X *X); >> se=sqrt(diag(c)*s2) se = Testataan faktorin x 1 x 2 2 tarpeellisuus. F- ja t -jakaumien kertymäfunktioiden arvot saadaan Statistics Toolboxin komennoilla fcdf ja tcdf.
7 1.3. HYPOTEESIEN TESTAAMINEN 5 >> a=[ ] ;d=0; >> F=1/s2*(a *b-d)ˆ2/(a *C*a) F = >> alpha_f=1-fcdf(f,1,n-k-1) alpha_f = >> t=(a *b-d)/sqrt(s2*a *C*a) t = >> alpha_t=2*(1-tcdf(t,n-k-1)) alpha_t = Koko mallin käyttökelpoisuuden testaus: >> A=[zeros(k,1),eye(k)];d=zeros(k,1); >> F=(N-k-1)/(5*SSE)*(A*b-d) *inv(a*c*a )*(A*b-d) F = >> alpha=1-fcdf(f,5,n-k-1) alpha = e-06 ANOVA-taulun vielä laskemattomat neliösummat: >> M=eye(N)-1/N*ones(N,N); >> SSR=y_hat *M*y_hat SSR = >> SST=SSE+SSR SST = ANOVA-taulun keskineliöt:
8 6 LUKU 1. REGRESSIO >> MSE=SSE/(N-k-1) MSE = >> MSR=SSR/k MSR = >> MST=SST/(N-1) MST = Vaihtoehtoisen kaavan käyttö F-suureen laskemisessa: >> F=MSR/MSE F = Determinaatiokerroin R 2 ja korjattu determinaatiokerroin R 2 A : >> R2=SSR/SST R2 = >> R2_A=1-MSE/MST R2_A = Valtaosa tuloksista saadaan myös komennolla regress. Vektorissa STATS on determinaatiokerroin R 2,kokomallin käyttökelpoisuuden F-testisuure ja merkitsevyys. >> [B,BINT,R,RINT,STATS]=regress(y,X);B,STATS B = STATS =
9 1.4. MALLIN EPÄSOPIVUUDEN TESTAUS TOISTOKOKEIN Mallin epäsopivuuden testaus toistokokein Matlabilla laskut suoritetaan näin. Ensin on kerrattu tarvittavat, jo kohdan 1.2 esimerkissäkin lasketut matriisit. >> x1=[0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7] ; >> x2=[1,1,1,1,5,5,5,5,9,9,9,9] ; >> X=[ones(size(x1)),x1,x2]; >> y=[5.63,6.42,1.38,1.94,11.57,12.16,5.72,4.69,12.68,13.31,8.28,7.73] ; >> N=length(y);k=2; >> b=x\y;y_hat=x*b;r=y-y_hat;sse=r *r SSE = >> MSE=SSE/(N-k-1) MSE = Sitten syötetään matriisi T ja tarkistetaan se. >> m=6; >> I=eye(m); >> T=I([1,1,2,2,3,3,4,4,5,5,6,6],:); >> X1=X([1:2:12],:); >> norm(x-t*x1) ans = 0 Mallin II residuaali: >> R=eye(N)-T*inv(T *T)*T ; >> rii=r*y; Neliösummat: >> SSPE=rII *rii SSPE = >> SSLOF=SSE-SSPE SSLOF =
10 8 LUKU 1. REGRESSIO Ja keskineliöt: >> MSPE=SSPE/(N-m) MSPE = >> MSLOF=SSLOF/(m-k-1) MSLOF = F-testisuure ja α: >> F=MSLOF/MSPE F = >> fcdf(f,m-k-1,n-m) ans = >> alpha=1-fcdf(f,m-k-1,n-m) alpha =
11 1.5. MALLIN RIITTÄVYYS Mallin riittävyys Järjestetään data uudelleen. >> N=12;k=2; >> x1=[0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7] ; >> x2=[1,1,1,1,5,5,5,5,9,9,9,9] ; >> y=[5.63,6.42,1.38,1.94,11.57,12.16,5.72,4.69,12.68,13.31,8.28,7.73] ; >> j=[12,9,3,10,4,7,2,11,8,6,1,5]; >> x1=x1(j);x2=x2(j);y=y(j); Sitten sovitetaan malli ja tarkistetaan ulkolaiset. >> X=[ones(size(x1)),x1,x2]; >> b=x\y;y_hat=x*b;r=y-y_hat;sse=r *r;mse=sse/(n-k-1); >> H=X*inv(X *X)*X ; >> e=1./sqrt(mse*(1-diag(h))).*r e = Viimeiseksi tekstin kaltaiset kuvat saadaan näin. Normaalitodennäköisyyskuvio saadaan suoraan Statistics Toolboxin komennolla normplot. >> plot(y_hat,r) >> plot(y_hat,r, o ) >> plot(1:12,r, o )
12 10 LUKU 1. REGRESSIO
13 Luku 2 KOESUUNNITTELUT 2.1 Datan muunnokset Aluksi määrityksiä: >> x1=[0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7] ; >> x2=[1,1,1,1,5,5,5,5,9,9,9,9] ; >> y=[5.63,6.42,1.38,1.94,11.57,12.16,5.72,4.69,12.68,13.31,8.28,7.73] ; >> N=length(y);k=2; >> X=[ones(size(x1)),x1,x2]; >> D=X(:,2:3); Standardoinnin keskiarvo saadaan helposti komennolla mean ja otoshajonta komennolla std: >> p_s=std(d) p_s = >> l_s=-mean(d)./p_s l_s = >> L_s=[1,l_s ;zeros(k,1),diag(1./p_s)] L_s = Standardoidaan datamatriisi: 11
14 12 LUKU 2. KOESUUNNITTELUT >> X_s=X*L_s X_s = Estimoidut parametrit ja niiden keskihajonnat: >> b_s=x_s\y b_s = >> C_s=inv(X_s *X_s) C_s = >> y_hat_s=x_s*b_s;r_s=y-y_hat_s;sse_s=r_s *r_s,s2_s=sse_s/(n-k-1) SSE_s = s2_s = >> se_s=sqrt(diag(c_s)*s2_s) se_s = Koodattaessa komennot max ja min ovat käteviä: >> p_c=(max(d) -min(d) )/2 p_c =
15 2.1. DATAN MUUNNOKSET 13 >> l_c=-1./p_c.*(min(d) +max(d) )./2 l_c = >> L_c=[1,l_c ;zeros(2,1),diag(1./p_c)] L_c = Koodataan datamatriisi: >> X_c=X*L_c X_c = Estimoidut parametrit ja niiden keskihajonnat: >> b_c=x_c\y b_c = >> C_c=inv(X_c *X_c) C_c = >> y_hat_c=x_c*b_c;r_c=y-y_hat_c;sse_c=r_c *r_c,s2_c=sse_c/(n-k-1) SSE_c = s2_c =
16 14 LUKU 2. KOESUUNNITTELUT >> se_c=sqrt(diag(c_c)*s2_c) se_c =
17 2.2. ORTOGONAALISUUS JA KIERTOSYMMETRISYYS Ortogonaalisuus ja kiertosymmetrisyys Kerrataan vanhat määritykset: >> x1=[0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7,0.3,0.3,0.7,0.7] ; >> x2=[1,1,1,1,5,5,5,5,9,9,9,9] ; >> y=[5.63,6.42,1.38,1.94,11.57,12.16,5.72,4.69,12.68,13.31,8.28,7.73] ; >> N=length(y);k=2; >> X=[ones(size(x1)),x1,x2];D=X(:,2:3); >> p_s=std(d) ;l_s=-mean(d)./p_s;l_s=[1,l_s ;zeros(k,1),diag(1./p_s)];... X_s=X*L_s;D_s=X_s(:,2:3); >> p_c=(max(d) -min(d) )/2;l_c=-1./p_c.*(min(D) +max(d) )./2;... L_c=[1,l_c ;zeros(2,1),diag(1./p_c)];x_c=x*l_c;d_c=x_c(:,2:3); Ortogonaalisuuden tarkistus: >> X *X ans = >> X_s *X_s ans = >> X_c *X_c ans = Kiertosymmetrisyyden ensimmäinen ehto: >>e=ones(n,1); >> e *D ans = 6 60 >> e *D_s ans = 1.0e-14 *
18 16 LUKU 2. KOESUUNNITTELUT >> e *D_c ans = 1.0e-14 * Kiertosymmetrisyyden toinen ehto: >> D_s *D_s ans = >> D_c *D_c ans =
19 2.3. SIMPLEX-KOE Simplex-koe Matlabilla Simplex-koe: >> k=3; >> W=[1,0,0,0;1,1,0,0;1,0,1,0;1,0,0,1] W = QR-hajotelma onnistuu komennolla qr: >> [Q,R]=qr(W) Q = R = Lopullinen datamatriisi: >> X=-sqrt(k+1)*Q X = Plackett-Burman-kokeen Hadamardin matriisin voi muodostaa suoraan käyttämällä Matlabin komentoa hadamard: >> k=9;n=24; >> H=hadamard(N); >> X=[ones(N,1),H(:,N/2+(1:k))] X =
20 18 LUKU 2. KOESUUNNITTELUT
21 2.4. KAHDEN TASON KOKEET Kahden tason kokeet Matlabilla kaikki mahdolliset arvot faktoreille x 1, x 2 ja x 3 saadaan Statistics Toolboxin funktiosta ff2n. >> f=2*ff2n(3)-1; f = Sitten datamatriisissa astetetaan x 4 = x 1 x 2 ja x 5 = x 1 x 3 : >> X=[ones(8,1) f f(:,1).*f(:,2) f(:,1).*f(:,3)] X =
22 20 LUKU 2. KOESUUNNITTELUT 2.5 Toisen kertaluvun regressiomalli Ei laskettu Matlabilla. 2.6 CCD-kokeet Suunnittelun 2. kertaluvun datamatriisin luonti Matlabilla. >> k=2;f=2ˆk; >> alpha=fˆ(1/4); >> n0=4-2*k+4*sqrt(f) n0 = 8 >> N=f+2*k+n0 N = 16 >> S=sqrt(1/N*(f+2*alphaˆ2)); >> x=1/s*[2*ff2n(k)-1;alpha*eye(k);-alpha*eye(k);zeros(n0,2)]; >> X=[ones(N,1) x x.ˆ2 x(:,1).*x(:,2)] X = Data on nyt kiertosymmetristä jaortogonaalista kuten momenttimatriisista käy ilmi. >> 1/N*X *X ans =
23 2.7. OPTIMAALISET KOKEET Seuraavalla scriptillä saadaan tekstissä ollut kuva, jossa näkyvät ennusteen varianssi origontoistojen määrään ja datavektorin ensimmäisen kertaluvun osan pituuden funktiona. k=2; f=2ˆk; alpha=fˆ(1/4); NvarYhat=[]; for n0=1:8 N=f+2*k+n0; S=sqrt((f+2*alphaˆ2)/N); x=[(2*ff2n(2)-1)/s;alpha*eye(2)/s;-alpha*eye(k)/s;zeros(n0,2)]; X=[ones(N,1) x x.ˆ2 x(:,1).*x(:,2)]; C=inv(X *X); npts=21; x1=0; x2=linspace(0,1.1,npts) ; [X1,X2]=meshgrid(x1,x2); e=ones(size(x1)); XI=[e X1(:) X2(:) X1(:).ˆ2 X2(:).ˆ2 X1(:).*X2(:)] ; NvarYhat(:,n0)=N*diag(XI *C*XI); end plot(x2,nvaryhat, b-, linewidth,2) set(gca, tickdir, out, PlotBoxAspectRatio,[8 5 1],... ytick,0:9, yticklabel,[ 0 ; ; ; ; ; ; ; ; ; 9 ],... xtick,0:1, fontname, Times, fontsize,14, position,[ ]) box off axis([ ]) text(0.1,9.1, {\it n}_0=1, fontname, Times, fontsize,16) text(0.1,5.1, {\it n}_0=2, fontname, Times, fontsize,16) text(0.1,3.8, {\it n}_0=3, fontname, Times, fontsize,16) text(0.1,1.7, {\it n}_0=8, fontname, Times, fontsize,16) xlabel( ({\it \xi}_1ˆ2+{\it \xi}_2ˆ2)ˆ{1/2}, fontname, Times, fontsize,18) ylabel([ {\it N} Var({\it y}) ; {\it \sigma }ˆ{2} ],... fontname, Times, fontsize,18,... rotation,0, horizontalalignment, right ); 2.7 Optimaaliset kokeet Ei laskettu Matlabilla.
24 22 LUKU 2. KOESUUNNITTELUT
25 Luku 3 VASTEEN OPTIMOINTI 3.1 Gradienttimenetelmä Matlabilla ensimmäinen askel suoritetaan seuraavasti. Ensin suunnitellaan täydellinen kahden tason koe. >> f=2*ff2n(2)-1;x1=f(:,1),x2=f(:,2) X1 = X2 = Palautetaan arvot koodatuista, jotta pystymme suorittamaan kokeet. >> x1=(90-70)*x1/2+80,x2=(90-30)*x2/2+60 x1 = x2 = Kokeet suoritetaan 2 kertaa(satunnaisessa järjestyksessä), ja vasteen arvot syötetään sisään. 23
26 24 LUKU 3. VASTEEN OPTIMOINTI >> j=[1,1,2,2,3,3,4,4]; >> kokeet=[x1(j),x2(j)] kokeet = >> y=[49.8,48.1,65.7,69.4,57.3,52.3,73.1,77.8] y = Sitten sovitetaan 1. kertaluvun malli. >> N=8;k=2; >> X=[ones(N,1),X1(j),X2(j)] X = >> C=inv(X *X);b=X\y b = Testataan mallin epäsopivuus toistokokein. >> y_hat=x*b;r=y-y_hat; >> SSE=r *r,mse=sse/(n-k-1),df=n-k-1 SSE =
27 3.1. GRADIENTTIMENETELMÄ 25 MSE = df = >> m=4;i=eye(2ˆk);t=[i(j,:)]; >> R=eye(N)-T*inv(T *T)*T ;rii=r*y; >> SSPE=rII *rii,mspe=sspe/(n-m),df=n-m SSPE = MSPE = df = >> SSLOF=SSE-SSPE,MSLOF=SSLOF/(m-k-1),df=m-k-1 SSLOF = MSLOF = df = >> F=MSLOF/MSPE F = >> alpha=1-fcdf(f,m-k-1,n-m) alpha = Seuraavaksi varianssianalyysi. >> M=eye(N)-1/N*ones(N); >> SSR=y_hat *M*y_hat,MSR=SSR/k,df=k SSR =
28 26 LUKU 3. VASTEEN OPTIMOINTI MSR = df = 2 >> SST=SSE+SSR,MST=SST/(N-1),df=N-1 SST = MST = df = 7 >> F=MSR/MSE F = >> alpha=1-fcdf(f,k,n-k-1) alpha = e-04 Faktorien tarpeellisuustestit. >> t1=(b(2)-0)/sqrt(mse*c(2,2)) t1 = >> alpha=2*(1-tcdf(t1,n-k-1)) alpha = >> t2=(b(3)-0)/sqrt(mse*c(3,3)) t2 = >> alpha=2*(1-tcdf(t2,n-k-1)) alpha = e-04 Sitten lasketaan viettosuunta ja valitaan askelpituus.
29 3.1. GRADIENTTIMENETELMÄ 27 >> n=1/norm(b(2:3))*b(2:3) n = >> delta=1.5/n(2) delta = Lasketaan suoritettavia kokeita. >> i=[1:4]; x1=80+10*i*n(1)*delta, x2=60+30*i*n(2)*delta x1 = x2 = Viimeiseksi suunnitellaan seuraavan vaiheen kokeet. >> f=2*ff2n(2)-1;x1=[f(:,1);0;0],x2=[f(:,2);0;0] X1 = X2 = >> x1=( )*x1/2+95.9,x2=( )*x2/2+195 x1 = x2 =
30 28 LUKU 3. VASTEEN OPTIMOINTI
31 3.2. ÄÄRIARVOTARKASTELU Ääriarvotarkastelu Suunnitellaan kokeet ja sovitetaan ensimmäisen kertaluvun malli. >> f=2*ff2n(2)-1;x1=[f(:,1);0;0];x2=[f(:,2);0;0]; >> x1=( )*x1/ ,x2=( )*x2/2+195 x1 = x2 = >> y=[93.6,91.7,92.5,92.9,96.2,97.0] ; >> N=length(x1);k=2; >> X=[ones(size(X1)),X1,X2]; >> b=x\y b = Epäsopivuuden testaus toistokokein. >> y_hat=x*b;r=y-y_hat; >> SSE=r *r,mse=sse/(n-k-1),df=n-k-1 SSE = MSE = df = >> m=5;i=eye(m);t=[i([1,2,3,4,5,5],:)]; >> R=eye(N)-T*inv(T *T)*T ;rii=r*y;
32 30 LUKU 3. VASTEEN OPTIMOINTI >> SSPE=rII *rii,mspe=sspe/(n-m),df=n-m SSPE = MSPE = df = 1 >> SSLOF=SSE-SSPE,MSLOF=SSLOF/(m-k-1),df=m-k-1 SSLOF = MSLOF = df = 2 >> F=MSLOF/MSPE F = >> alpha=1-fcdf(f,m-k-1,n-m) alpha = Varianssianalyysi. >> M=eye(N)-1/N*ones(N); >> SSR=y_hat *M*y_hat,MSR=SSR/k,df=k SSR = MSR = df = 2 >> SST=SSE+SSR,MST=SST/(N-1),df=N-1 SST =
33 3.2. ÄÄRIARVOTARKASTELU 31 MST = df = >> F=MSR/MSE F = >> alpha=1-fcdf(f,k,n-k-1) alpha = Lisäkokeet. >> X1l=[-sqrt(2);sqrt(2);0;0];X2l=[0;0;-sqrt(2);sqrt(2)]; >> x1l=( )*x1l/ ,x2l=( )*x2l/2+195 x1l = x2l = >> yl=[92.7;92.8;93.4;92.7]; Toisen asteen mallin sovitus. >> X1=[X1;X1l];X2=[X2;X2l];y=[y;yl]; >> N=length(X1);k=5; >> X=[ones(size(X1)),X1,X2,X1.ˆ2,X2.ˆ2,X1.*X2]; >> b=x\y b =
34 32 LUKU 3. VASTEEN OPTIMOINTI Mallin epäsopivuuden testaus. >> y_hat=x*b;r=y-y_hat; >> SSE=r *r,mse=sse/(n-k-1),df=n-k-1 SSE = MSE = df = >> m=9;i=eye(m);t=[i([1,2,3,4,5,5,6,7,8,9],:)]; >> R=eye(N)-T*inv(T *T)*T ;rii=r*y; >> SSPE=rII *rii,mspe=sspe/(n-m),df=n-m SSPE = MSPE = df = >> SSLOF=SSE-SSPE,MSLOF=SSLOF/(m-k-1),df=m-k-1 SSLOF = MSLOF = df = >> F=MSLOF/MSPE F = >> alpha=1-fcdf(f,m-k-1,n-m) alpha =
35 3.2. ÄÄRIARVOTARKASTELU Varianssianalyysi. >> M=eye(N)-1/N*ones(N); >> SSR=y_hat *M*y_hat,MSR=SSR/k,df=k SSR = MSR = df = >> SST=SSE+SSR,MST=SST/(N-1),df=N-1 SST = MST = df = >> F=MSR/MSE F = >> alpha=1-fcdf(f,k,n-k-1) alpha = Malli uuteen muotoon. >> E=[b(4),1/2*b(6);1/2*b(6),b(5)],b=b(1:3) E = b =
36 34 LUKU 3. VASTEEN OPTIMOINTI Kriittinen piste löytyy gradientin nollakohdasta, sen laatu nähdään E:n ominaisarvoista. >> z=-1/2*inv(e)*b(2:3) z = >> eig(e) ans = Kun puretaan koodaus, nähdään alkuperäisten faktorien tasot. Lasketaan myös maksimivaste. >> x1=( )*z(1)/ ,x2=( )*z(2)/2+195 x1 = x2 = >> y0=[1,z ]*b+z *E*z y0 = Kanonista muotoa varten tarvittava Schurin hajotelma saadaan Matlabin komennolla schur. >> [Q,LAMBDA]=schur(E) Q = LAMBDA = Tekstissäollut kuva piirretään seuraavalla scriptillä(alussa on toistettu jo lasketut laskut). f=2*ff2n(2)-1; X1=[f(:,1);0;0]; X2=[f(:,2);0;0]; y=[93.6,91.7,92.5,92.9,96.2,97.0] ; X1l=[-sqrt(2);sqrt(2);0;0]; X2l=[0;0;-sqrt(2);sqrt(2)];
37 3.2. ÄÄRIARVOTARKASTELU 35 yl=[92.7;92.8;93.4;92.7]; X1=[X1;X1l]; X2=[X2;X2l]; y=[y;yl]; N=length(X1); k=5; X=[ones(size(X1)),X1,X2,X1.ˆ2,X2.ˆ2,X1.*X2]; b=x\y; E=[b(4),1/2*b(6);1/2*b(6),b(5)]; bb=b(1:3); z=-1/2*inv(e)*bb(2:3); y0=[1,z ]*bb+z *E*z; [Q,LAMBDA]=schur(E); [xx_1,xx_2]=meshgrid(-2.0:0.05:2.0,-2.0:0.05:2.0); XX=[ones(size(xx_1(:))) xx_1(:) xx_2(:) xx_1(:).ˆ2 xx_2(:).ˆ2 xx_1(:).*xx_2(:)]; Y=reshape(XX*b,size(xx_1)); clf [C,H]=contour(xx_1,xx_2,Y,[78:3:96], b ); set(gca, PlotBoxAspectRatio,[1,1,1], XTick,[-2,-1,0,1,2], YTick,[-2,-1,0,1,2],... tickdir, out, fontname, Times, fontsize,16, linewidth,1); set(h, LineWidth,2); xlabel( {\it X}_1, fontname, Times, fontsize,20); ylabel( {\it X}_2, Rotation,0, fontname, Times, fontsize,20); hold on;plot(z(1),z(2), rx, markersize,12); hold on;plot(x1,x2, ko, markerfacecolor, k, markersize,12); q1=10*q(:,1);q2=10*q(:,2); q1x=[z(1)+q1(1),z(1)-q1(1)];q1y=[z(2)+q1(2),z(2)-q1(2)]; q2x=[z(1)+q2(1),z(1)-q2(1)];q2y=[z(2)+q2(2),z(2)-q2(2)]; hold on;plot(q1x,q1y, r--,q2x,q2y, r--, linewidth,2); box off HL=clabel(C,H, manual ); for i=1:length(hl),set(hl(i), fontsize,14, fontname, times );end
38 36 LUKU 3. VASTEEN OPTIMOINTI 3.3 Harjuanalyysi Matlabilla laskut menevät seuraavasti. >> b_breve=[0.93;0.38]; >> E=-1*[0.96,0.21;0.21,0.04]; >> d0=[0;0]; E:n kääntyvyys ja kriittinen piste. >> det(e) ans = >> z=-1/2*inv(e)*b_breve z = Schurin hajotelma ja vektori p. >> [Q,LAMBDA]=schur(E) Q = LAMBDA = >> p=q *(-1/2*b_breve-E*d0) p = Kuvan piirtäminen sujuu pääpiirteittäin näin. >> mu=linspace(0.01,0.5); >> r_inv=1./sqrt((lambda(1,1)-mu).ˆ(-2)*p(1)ˆ2+... (LAMBDA(2,2)-mu).ˆ(-2)*p(2)ˆ2); >> plot(mu,r_inv) Lasketaan vielä tarkemmat µ i :n arvot Matlabin komennolla fzero.ensin määritellään funktio, jolla on nollakohta paikassa, missä d i d 0 = i.
39 3.3. HARJUANALYYSI 37 >> f=inline(... 1./sqrt((lambda1-mu).ˆ(-2)*p1ˆ2+(lambda2-mu).ˆ(-2)*p2ˆ2)-r,... mu, lambda1, lambda2, p1, p2, r_inv ) f = Inline function: f(mu,lambda1,lambda2,p1,p2,r_inv) = 1./sqrt((lambda1-mu).ˆ(-2)*p1ˆ2 +(lambda2-mu).ˆ(-2)*p2ˆ2)-r_inv Laitetaan turha varoitus pois päältä, jonka jälkeen saadaan tarkemmat µ i :n arvot. fzero:n parametrit ovat järjestyksessä funktio, lähellä nollakohtaa oleva piste, tarkkuusehdot sisältävä matriisi (tässä tyhjä, eli käytetään oletuksia) ja loput f:n parametreista. >> warning off MATLAB:fzero:UndeterminedSyntax >> mu1=fzero(f,0.28,[],lambda(1,1),lambda(2,2),p(1),p(2),2) mu1 = >> mu2=fzero(f,0.10,[],lambda(1,1),lambda(2,2),p(1),p(2),1) mu2 = Lasketaan pisteet. >> d1=d0+inv(e-mu1*eye(2))*(-1/2*b_breve-e*d0) d1 = >> d2=d0+inv(e-mu2*eye(2))*(-1/2*b_breve-e*d0) d2 = Tarkastetaan vielä, että pisteet todella ovat halutulla etäisyydellä d 0 :sta. >> norm(d1-d0) ans = >> norm(d2-d0) ans = Lopulta tekstin mukavat kuvat tulostuvat suunnilleen seuraavalla scriptillä:
40 38 LUKU 3. VASTEEN OPTIMOINTI [X,Y]=meshgrid(-2:0.05:2,-2:0.05:2);%lasketaan vastepinnan arvoja Z=zeros(size(X)); for i=1:size(x,1), for j=1:size(x,2), d=[x(i,j);y(i,j)]; Z(i,j)=b_breve *d+d *E*d; end end r1=0.5; %lasketaan ympyrät x11=[-r1:0.01:r1] ;x12=[r1:-0.01:-r1] ;x1=[x11;x12]; y1=[sqrt(r1ˆ2-x11.ˆ2);-sqrt(r1ˆ2-x12.ˆ2)]; r2=1; x21=[-r2:0.01:r2] ;x22=[r2:-0.01:-r2] ;x2=[x21;x22]; y2=[sqrt(r2ˆ2-x21.ˆ2);-sqrt(r2ˆ2-x22.ˆ2)]; figure;[c,h]=contour(x,y,z);box off;%tasa-arvokäyräkuva set(gca, PlotBoxAspectRatio,[1,1,1], XTick,[-2:0.5:2], YTick,[-2:0.5:2],... tickdir, out, fontname, Times, fontsize,14, linewidth,1); set(h, LineWidth,2); hold on;plot(x1,y1, k, linewidth,2); hold on;plot(x2,y2, k, linewidth,2); xlabel( X_1, fontname, Times, fontsize,16); ylabel( X_2, Rotation,0, fontname, Times, fontsize,16); plot( [d0(1),d1(1),d2(1)],[d0(1),d1(2),d2(2)], ko,... markerfacecolor, k, markersize,9); figure;surfc(x,y,z);shading interp;hold on; %3dkuva plot3([d0(1),d1(1),d2(1)],[d0(1),d1(2),d2(2)],... [0,d1 *b_breve+d1 *E*d1,d2 *b_breve+d2 *E*d2], ko,... markerfacecolor, k, markersize,9); set(gca, PlotBoxAspectRatio,[1,1,1], XTick,[-2:1:2], YTick,[-2:1:2],... tickdir, out, fontname, Times, fontsize,14, linewidth,1); xlabel( X_1, fontname, Times, fontsize,16); ylabel( X_2, Rotation,0, fontname, Times, fontsize,16);
Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu JMP:llä
Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi Esimerkit laskettu JMP:llä Antti Hyttinen Tampereen teknillinen yliopisto 29.12.2003 ii Ohjelmien
LisätiedotTilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi ja vasteen optimointi
Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi ja vasteen optimointi Robert Piché ja Keijo Ruohonen Tampereen teknillinen yliopisto 200 Sisältö REGRESSIO Matriisilaskentaa
LisätiedotKeskipisteen lisääminen 2 k -faktorikokeeseen (ks. Montgomery 9-6)
Mat-.3 Koesuunnittelu ja tilastolliset mallit kevät Keskipisteen lisääminen k -faktorikokeeseen (ks. Montgomery 9-6) Esim (Montg. ex. 9-, 6-): Tutkitaan kemiallisen prosessin saannon Y riippuvuutta faktoreista
LisätiedotVastepintamenetelmä. Kuusinen/Heliövaara 1
Vastepintamenetelmä Kuusinen/Heliövaara 1 Vastepintamenetelmä Vastepintamenetelmässä pyritään vasteen riippuvuutta siihen vaikuttavista tekijöistä approksimoimaan tekijöiden polynomimuotoisella funktiolla,
LisätiedotVastepintamenetelmä. Heliövaara 1
Vastepintamenetelmä Kurssipalautteen antamisesta saa hyvityksenä yhden tenttipisteen. Palautelomakkeeseen tulee lähiaikoina linkki kurssin kotisivuille. Heliövaara 1 Vastepintamenetelmä Vastepintamenetelmässä
LisätiedotTILASTOLLINEN KOKEIDEN SUUNNITTELU JA OTANTA. Keijo Ruohonen
TILASTOLLINEN KOKEIDEN SUUNNITTELU JA OTANTA Keijo Ruohonen 2000 Sisältö I REGRESSIO Regressiomalli 2 2 Mallin estimointi ja käyttö 7 3 Varianssianalyysi (ANOVA) 2 4 Mallin epäsopivuuden testaus toistokokein
LisätiedotTässä dokumentissa on ensimmäisten harjoitusten malliratkaisut MATLABskripteinä. Voit kokeilla itse niiden ajamista ja toimintaa MATLABissa.
Laskuharjoitus 1A Mallit Tässä dokumentissa on ensimmäisten harjoitusten malliratkaisut MATLABskripteinä. Voit kokeilla itse niiden ajamista ja toimintaa MATLABissa. 1. tehtävä %% 1. % (i) % Vektorit luodaan
LisätiedotVastepintamenetelmä. Vilkkumaa / Kuusinen 1
Vastepintamenetelmä Vilkkumaa / Kuusinen 1 Motivointi Varianssianalyysissa tutkitaan tekijöiden vaikutusta vasteeseen siten, että tekijöiden tasot on ennalta valittu. - Esim. tutkitaan kemiallisen prosessin
LisätiedotRegressioanalyysi. Vilkkumaa / Kuusinen 1
Regressioanalyysi Vilkkumaa / Kuusinen 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Halutaan selittää selitettävän muuttujan havaittujen arvojen vaihtelua selittävien muuttujien havaittujen
LisätiedotKoesuunnittelu Vastepintamenetelmä. TKK (c) Ilkka Mellin (2005) 1
Koesuunnittelu Vastepintamenetelmä TKK (c) Ilkka Mellin (2005) 1 Vastepintamenetelmä Vastepintamenetelmä: Johdanto 2 k -faktorikokeet Vastefunktion kaarevuuden testaaminen 1. asteen vastepintamallin varianssianalyysihajotelma
LisätiedotVARIANSSIANALYYSI ANALYSIS OF VARIANCE
VARIANSSIANALYYSI ANALYSIS OF VARIANCE 1 Suomalaisten aikuisten pituusjakauma:.8.7.6.5.4.3.2.1 14 15 16 17 18 19 2 21 Jakauma ei ole normaali, sen olettaminen sellaiseksi johtaa virheellisiin päätelmiin.
LisätiedotLineaarialgebra ja differentiaaliyhtälöt Harjoitus 4 / Ratkaisut
MS-C34 Lineaarialgebra ja differentiaaliyhtälöt, IV/26 Lineaarialgebra ja differentiaaliyhtälöt Harjoitus 4 / t Alkuviikon tuntitehtävä Hahmottele matriisia A ( 2 6 3 vastaava vektorikenttä Matriisia A
LisätiedotMS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
LisätiedotHarha mallin arvioinnissa
Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö
LisätiedotRegressioanalyysi. Kuusinen/Heliövaara 1
Regressioanalyysi Kuusinen/Heliövaara 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Oletetaan, että haluamme selittää jonkin selitettävän muuttujan havaittujen arvojen vaihtelun joidenkin
LisätiedotLatinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt. Latinalaiset neliöt: Mitä opimme? Latinalaiset neliöt
TKK (c) Ilkka Mellin (005) Koesuunnittelu TKK (c) Ilkka Mellin (005) : Mitä opimme? Tarkastelemme tässä luvussa seuraavaa kysymystä: Miten varianssianalyysissa tutkitaan yhden tekijän vaikutusta vastemuuttujaan,
LisätiedotMat Tilastollisen analyysin perusteet, kevät 2007
Mat-.104 Tilastollisen analyysin perusteet, kevät 007 8. luento: Usean selittäjän lineaarinen regressiomalli Kai Virtanen 1 Usean selittäjän lineaarinen regressiomalli Selitettävän muuttujan havaittujen
LisätiedotTilastollisen analyysin perusteet Luento 9: Moniulotteinen lineaarinen. regressio
Tilastollisen analyysin perusteet Luento 9: lineaarinen lineaarinen Sisältö lineaarinen lineaarinen lineaarinen Lineaarinen Oletetaan, että meillä on n kappaletta (x 1, y 1 ), (x 2, y 2 )..., (x n, y n
Lisätiedot4.2 Useampi selittävä muuttuja (kertausta)
14.2.2019/1 MTTTA1 Tilastomenetelmien perusteet Luento 14.2.2019 4.2 Useampi selittävä muuttuja (kertausta) Selittäjien lukumäärä k (k-ra) = + + + + Malliin liittyvät oletukset i ~ N(0, 2 ) ja i:t ovat
Lisätiedotmlvektori 1. Muista, että Jacobin matriisi koostuu vektori- tai skalaariarvoisen funktion F ensimmäisistä
Aalto-yliopisto, Matematiikan ja Systeemianalyysin laitos mlvektori 1. Muista, että Jacobin matriisi koostuu vektori- tai skalaariarvoisen funktion F ensimmäisistä osittaisderivaatoista: y 1... J F =.
Lisätiedot805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016)
805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016) Tavoitteet (teoria): Hallita multinormaalijakauman määritelmä. Ymmärtää likelihood-funktion ja todennäköisyystiheysfunktion ero. Oppia kirjoittamaan
Lisätiedotxi = yi = 586 Korrelaatiokerroin r: SS xy = x i y i ( x i ) ( y i )/n = SS xx = x 2 i ( x i ) 2 /n =
1. Tutkitaan paperin ominaispainon X(kg/dm 3 ) ja puhkaisulujuuden Y (m 2 ) välistä korrelaatiota. Tiettyä laatua olevasta paperierästä on otettu satunnaisesti 10 arkkia ja määritetty jokaisesta arkista
LisätiedotLohkoasetelmat. Vilkkumaa / Kuusinen 1
Lohkoasetelmat Vilkkumaa / Kuusinen 1 Motivointi 1/3 Kaksisuuntaisella varianssianalyysilla voidaan tutkia kahden tekijän A ja B vaikutusta sekä niiden yhdysvaikutusta tutkimuksen kohteeseen Kaksisuuntaisessa
Lisätiedot805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016)
805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016) Tavoitteet (teoria): Hallita autokovarianssifunktion ominaisuuksien tarkastelu. Osata laskea autokovarianssifunktion spektriiheysfunktio. Tavoitteet
LisätiedotIdentifiointiprosessi
Alustavia kokeita Identifiointiprosessi Koesuunnittelu, identifiointikoe Mittaustulosten / datan esikäsittely Ei-parametriset menetelmät: - Transientti-, korrelaatio-, taajuus-, Fourier- ja spektraalianalyysi
LisätiedotUSEAN MUUTTUJAN REGRESSIOMALLIT JA NIIDEN ANA- LYYSI
TEORIA USEAN MUUTTUJAN REGRESSIOMALLIT JA NIIDEN ANA- LYYSI Regressiomalleilla kuvataan tilanteita, jossa suureen y arvot riippuvat joukosta ns selittäviä muuttujia x 1, x 2,..., x p oletetun funktiomuotoisen
LisätiedotELEC-C5210 Satunnaisprosessit tietoliikenteessä Harjoitus M1,
ELEC-C5210 Satunnaisprosessit tietoliikenteessä Harjoitus M1, 16.3.2017 1. Syntaksista, vektoreista ja matriiseista: Tehtävän eri kohdat on tehtävä järjestyksessä. Myöhemmissä kohdissa oletetaan, että
LisätiedotTodennäköisyyden ominaisuuksia
Todennäköisyyden ominaisuuksia 0 P(A) 1 (1) P(S) = 1 (2) A B = P(A B) = P(A) + P(B) (3) P(A) = 1 P(A) (4) P(A B) = P(A) + P(B) P(A B) (5) Tapahtuman todennäköisyys S = {e 1,..., e N }. N A = A. Kun alkeistapaukset
Lisätiedot805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016)
805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016) Tavoitteet (teoria): Hahmottaa aikasarjan klassiset komponentit ideaalisessa tilanteessa. Ymmärtää viivekuvauksen vaikutus trendiin. ARCH-prosessin
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 22. marraskuuta 2007 Antti Rasila () TodB 22. marraskuuta 2007 1 / 17 1 Epäparametrisia testejä (jatkoa) χ 2 -riippumattomuustesti 2 Johdatus regressioanalyysiin
LisätiedotMS-C2103 Koesuunnittelu ja tilastolliset mallit (5 op)
MS-C2103 Koesuunnittelu ja tilastolliset mallit (5 op) Aalto-yliopisto 2016 Käytannön järjestelyt Luennot: Luennot ma 4.1. (sali E) ja ti 5.1 klo 10-12 (sali C) Luennot 11.1.-10.2. ke 10-12 ja ma 10-12
LisätiedotMS-C2103 Koesuunnittelu ja tilastolliset mallit (5 op)
MS-C2103 Koesuunnittelu ja tilastolliset mallit (5 op) Aalto-yliopisto 2017 Todennäköisyyslaskennan kertaus Satunnaismuuttujat ja tn-jakaumat Tunnusluvut χ 2 -, F- ja t-jakauma Riippumattomuus Tilastotieteen
LisätiedotIdentifiointiprosessi
Alustavia kokeita Identifiointiprosessi Koesuunnittelu, identifiointikoe Mittaustulosten / datan esikäsittely Ei-parametriset menetelmät: - Transientti-, korrelaatio-, taajuus-, Fourier- ja spektraalianalyysi
Lisätiedot031021P Tilastomatematiikka (5 op) kertausta 2. vk:een
031021P Tilastomatematiikka (5 op) kertausta 2. vk:een Jukka Kemppainen Mathematics Division 2. välikokeeseen Toinen välikoe on la 5.4.2014 klo. 9.00-12.00 saleissa L1,L3 Koealue: luentojen luvut 7-11
LisätiedotMS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Jarmo Malinen Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto Kevät 2016 1 Perustuu
LisätiedotHarjoitusten 5 vastaukset
Harjoitusten 5 vastaukset 1. a) Regressiossa (1 ) selitettävänä on y jaselittäjinävakiojax matriisin muuttujat. Regressiossa (1*) selitettävänä on y:n poikkeamat keskiarvostaan ja selittäjinä X matriisin
LisätiedotHarjoitus 1: Matlab. Harjoitus 1: Matlab. Mat Sovelletun matematiikan tietokonetyöt 1. Syksy 2006
Harjoitus 1: Matlab Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen Matlab-ohjelmistoon Laskutoimitusten
Lisätiedot1. PÄÄTTELY YHDEN SELITTÄJÄN LINEAARISESTA REGRESSIOMALLISTA
Mat-2.104 Tilastollisen analyysin perusteet / Ratkaisut Aiheet: Avainsanat Päättely yhden selittäjän lineaarisesta regressiomallista Ennustaminen, Ennuste, Ennusteen luottamusväli, Estimaatti, Estimaattori,
LisätiedotDI matematiikan opettajaksi: Täydennyskurssi, kevät 2010 Luentorunkoa ja harjoituksia viikolle 13: ti klo 13:00-15:30 ja to 1.4.
DI matematiikan opettajaksi: Täydennyskurssi, kevät Luentorunkoa ja harjoituksia viikolle 3: ti 33 klo 3:-5:3 ja to 4 klo 9:5-: Käydään läpi differentiaaliyhtälöitä Määritelmä Olkoon A R n n (MatLab:ssa
LisätiedotLohkoasetelmat. Heliövaara 1
Lohkoasetelmat Heliövaara 1 Kiusatekijä Kaikissa kokeissa, kokeen tuloksiin voi vaikuttaa vaihtelu joka johtuu kiusatekijästä. Kiusatekijä on tekijä, jolla mahdollisesti on vaikutusta vastemuuttujan arvoon,
LisätiedotMS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
Lisätiedotpisteet Frekvenssi frekvenssi Yhteensä
806118P JOHDATUS TILASTOTIETEESEEN Loppukoe 15.3.2018 (Jari Päkkilä) 1. Kevään -17 Johdaus tilastotieteeseen -kurssin opiskelijoiden harjoitusaktiivisuudesta saatujen pisteiden frekvenssijakauma: Harjoitus-
LisätiedotMS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila
LisätiedotMatlabin perusteita Grafiikka
BL40A0000 SSKMO KH 1 Seuraavassa esityksessä oletuksena on, että Matlabia käytetään jossakin ikkunoivassa käyttöjärjestelmässä (PC/Win, Mac, X-Window System). Käytettäessä Matlabia verkon yli joko tekstipäätteeltä,
LisätiedotSAS/IML käyttö ekonometristen mallien tilastollisessa päättelyssä. Antti Suoperä 16.11.2009
SAS/IML käyttö ekonometristen mallien tilastollisessa päättelyssä Antti Suoperä 16.11.2009 SAS/IML käyttö ekonometristen mallien tilastollisessa päättelyssä: Matriisi ja vektori laskennan ohjelmisto edellyttää
LisätiedotLohkoasetelmat. Kuusinen/Heliövaara 1
Lohkoasetelmat Kuusinen/Heliövaara 1 Kiusatekijä Kaikissa kokeissa kokeen tuloksiin voi vaikuttaa vaihtelu, joka johtuu kiusatekijästä. Kiusatekijä on tekijä, jolla on mahdollisesti vaikutusta vastemuuttujan
LisätiedotDifferentiaali- ja integraalilaskenta 2 (CHEM) MS-A0207 Hakula/Vuojamo Kurssitentti, 12.2, 2018, arvosteluperusteet
ifferentiaali- ja integraalilaskenta 2 (CHEM) MS-A27 Hakula/Vuojamo Kurssitentti, 2.2, 28, arvosteluperusteet T Moniosaisten tehtävien osien painoarvo on sama ellei muuta ole erikseen osoitettu. Kokeessa
LisätiedotHarjoitus 7: NCSS - Tilastollinen analyysi
Harjoitus 7: NCSS - Tilastollinen analyysi Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tilastollinen testaus Testaukseen
LisätiedotRatkaisuehdotukset LH 7 / vko 47
MS-C34 Lineaarialgebra, II/7 Ratkaisuehdotukset LH 7 / vko 47 Tehtävä : Olkoot M R symmetrinen ja positiividefiniitti matriisi (i) Näytä, että m > ja m > (ii) Etsi Eliminaatiomatriisi E R siten, että [
LisätiedotKertausluento. Vilkkumaa / Kuusinen 1
Kertausluento Vilkkumaa / Kuusinen 1 Kokeellinen tutkimus Kokeellisessa tutkimuksessa on tavoitteena selvittää, miten erilaiset käsittelyt vaikuttavat tutkimuksen kohteisiin - Esim. miten lämpötila ja
LisätiedotTilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä
Tilastollisen analyysin perusteet Luento 8: Lineaarinen regressio, testejä ja luottamusvälejä arvon Sisältö arvon Bootstrap-luottamusvälit arvon arvon Oletetaan, että meillä on n kappaletta (x 1, y 1 ),
LisätiedotINFO / Matemaattinen Analyysi, k2016, L0
INFO / Matemaattinen Analyysi, k2016, L0 orms1010, Aikataulu 1 kevät 2016 ORMS1010 Matemaattinen analyysi, luennot Ke 14-16 Viikot 09-10 salissa F119 Ke 14-16 Viikot 11 salissa F140 Ke 14-16 Viikot 13-18
LisätiedotFoA5 Tilastollisen analyysin perusteet puheentutkimuksessa. 9. luento. Pertti Palo
FoA5 Tilastollisen analyysin perusteet puheentutkimuksessa 9. luento Pertti Palo 22.11.2012 Käytännön asioita Eihän kukaan paikallaolijoista tee 3 op kurssia? 2. seminaarin ilmoittautuminen. 2. harjoitustyön
LisätiedotLogistinen regressio, separoivat hypertasot
Logistinen regressio, separoivat hypertasot Topi Sikanen Logistinen regressio Aineisto jakautunut K luokkaan K=2 tärkeä erikoistapaus Halutaan mallintaa luokkien vedonlyöntikertoimia (odds) havaintojen
LisätiedotHarjoitus 3: Regressiomallit (Matlab)
Harjoitus 3: Regressiomallit (Matlab) SCI-C0200 Fysiikan ja matematiikan menetelmien studio SCI-C0200 Fysiikan ja matematiikan menetelmien studio 1 Harjoituksen aiheita Pienimmän neliösumman menetelmä
Lisätiedot1 Rajoittamaton optimointi
Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y
LisätiedotTieteellinen laskenta 2 Törmäykset
Tieteellinen laskenta 2 Törmäykset Aki Kutvonen Op.nmr 013185860 Sisällysluettelo Ohjelman tekninen dokumentti...3 Yleiskuvaus...3 Kääntöohje...3 Ohjelman yleinen rakenne...4 Esimerkkiajo ja käyttöohje...5
LisätiedotKaksisuuntainen varianssianalyysi. Heliövaara 1
Kaksisuuntainen varianssianalyysi Heliövaara 1 Kaksi- tai useampisuuntainen varianssianalyysi Kaksi- tai useampisuuntaisessa varianssianalyysissa perusjoukko on jaettu ryhmiin kahden tai useamman tekijän
LisätiedotKeskeiset tulokset heikko duaalisuus (duaaliaukko, 6.2.1) vahva duaalisuus (6.2.4) satulapisteominaisuus (6.2.5) yhteys KKT ehtoihin (6.2.
Duaalisuus Lagrangen duaalifunktio ja duaalitehtävä määrittely ja geometria max θ(u,v), missä θ(u,v)=inf x X ϕ(x,u,v) s.e u 0 Lagr. funktio ϕ(x,u,v)=f(x)+u T g(x)+v T h(x) Keskeiset tulokset heikko duaalisuus
LisätiedotMatriisit ovat matlabin perustietotyyppejä. Yksinkertaisimmillaan voimme esitellä ja tallentaa 1x1 vektorin seuraavasti: >> a = 9.81 a = 9.
Python linkit: Python tutoriaali: http://docs.python.org/2/tutorial/ Numpy&Scipy ohjeet: http://docs.scipy.org/doc/ Matlabin alkeet (Pääasiassa Deni Seitzin tekstiä) Matriisit ovat matlabin perustietotyyppejä.
LisätiedotKoesuunnittelu 2 k -faktorikokeet. TKK (c) Ilkka Mellin (2005) 1
Koesuunnittelu 2 k -faktorikokeet TKK (c) Ilkka Mellin (2005) 2 k -faktorikokeet 2 2 -faktorikokeet 2 3 -faktorikokeet 2 k -faktorikokeet TKK (c) Ilkka Mellin (2005) 2 2 k -faktorikokeet: Mitä opimme?
LisätiedotLisätehtäviä ratkaisuineen luentomonisteen lukuun 6 liittyen., jos otoskeskiarvo on suurempi kuin 13,96. Mikä on testissä käytetty α:n arvo?
MTTTP5, kevät 2016 15.2.2016/RL Lisätehtäviä ratkaisuineen luentomonisteen lukuun 6 liittyen 1. Valitaan 25 alkion satunnaisotos jakaumasta N(µ, 25). Olkoon H 0 : µ = 12. Hylätään H 0, jos otoskeskiarvo
LisätiedotKorrelaatiokertoinen määrittely 165
kertoinen määrittely 165 Olkoot X ja Y välimatka- tai suhdeasteikollisia satunnaismuuttujia. Havaintoaineistona on n:n suuruisesta otoksesta mitatut muuttuja-arvoparit (x 1, y 1 ), (x 2, y 2 ),..., (x
LisätiedotDiskriminanttianalyysi I
Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi
Lisätiedot. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että
LisätiedotLaskennallinen data-analyysi II
Laskennallinen data-analyysi II Ella Bingham, ella.bingham@cs.helsinki.fi Kevät 2008 Muuttujien valinta Kalvot perustuvat Saara Hyvösen kalvoihin 2007 Laskennallinen data-analyysi II, kevät 2008, Helsingin
LisätiedotKURSSIN TILASTOMATEMATIIKKA KAAVOJA
KURSSIN TILASTOMATEMATIIKKA KAAVOJA X = S = s = Otossuureita X i tai x = x i (otoskeskiarvo) (X i X) = (x i x) = Xi x i E(X) =µ, var(x) = σ X x tai, E(S )=σ (otosvariassi) Normaalijakautuee populaatio
Lisätiedot9. laskuharjoituskierros, vko 12-13, ratkaisut
9. laskuharjoituskierros, vko 12-13, ratkaisut D1. Olkoot X i, i = 1, 2,..., n riippumattomia, samaa eksponenttijakaumaa noudattavia satunnaismuuttujia, joiden odotusarvo E(X i = β, toisin sanoen X i :t
LisätiedotLaskuharjoitus 9, tehtävä 6
Aalto-yliopiston perustieteiden korkeakoulu Jouni Pousi Systeemianalyysin laboratorio Mat-2.4129 Systeemien identifiointi Laskuharjoitus 9, tehtävä 6 Tämä ohje sisältää vaihtoehtoisen tavan laskuharjoituksen
LisätiedotPienimmän neliösumman menetelmä
Pienimmän neliösumman menetelmä Keijo Ruotsalainen Division of Mathematics Funktion sovitus Datapisteet (x 1,...,x n ) Annettu data y i = f(x i )+η i, missä f(x) on tuntematon funktio ja η i mittaukseen
LisätiedotIlkka Mellin Tilastolliset menetelmät. Osa 4: Lineaarinen regressioanalyysi. Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2007) 1
Ilkka Mellin Tilastolliset menetelmät Osa 4: Lineaarinen regressioanalyysi Yleinen lineaarinen malli TKK (c) Ilkka Mellin (2007) 1 Yleinen lineaarinen malli >> Usean selittäjän lineaarinen regressiomalli
LisätiedotHarjoitus 9: Optimointi I (Matlab)
Harjoitus 9: Optimointi I (Matlab) MS-C2107 Sovelletun matematiikan tietokonetyöt MS-C2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Optimointimallin muodostaminen Optimointitehtävien
LisätiedotMS-C2103 Koesuunnittelu ja tilastolliset mallit (5 op)
MS-C2103 Koesuunnittelu ja tilastolliset mallit (5 op) Aalto-yliopisto 2017 Käytännön järjestelyt Luennot: Luennot maanantaisin (sali E) ja keskiviikkoisin (sali U4) klo 10-12 Luennoitsija: (lauri.viitasaari@aalto.fi)
LisätiedotEstimointi. Vilkkumaa / Kuusinen 1
Estimointi Vilkkumaa / Kuusinen 1 Motivointi Tilastollisessa tutkimuksessa oletetaan jonkin jakauman generoineen tutkimuksen kohteena olevaa ilmiötä koskevat havainnot Tämän mallina käytettävän todennäköisyysjakauman
LisätiedotToimittaja 1 2 3 Erä 1 2 3 4 1 2 3 4 1 2 3 4 1 2 2 1 1 0 1 0 2 2 1 3 1 3 0 4 2 4 0 3 4 0 1 2 0 4 1 0 3 2 2 2 0 2 2 1
Mat-.03 Koesuunnittelu ja tilastolliset mallit / Ratkaisut Aiheet: Avainsanat: Hierarkkiset koeasetelmat -faktorikokeet Vastepintamenetelmä Aritmeettinen keskiarvo, Estimaatti, Estimaattori, -testi, aktorikokeet,
LisätiedotHY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 2017 Harjoitus 1 Ratkaisuehdotukset. I.1. Todista Cauchyn-Schwarzin epäyhtälö
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 2017 Harjoitus 1 Ratkaisuehdotukset I.1. Todista Cauchyn-Schwarzin epäyhtälö kun x, y R. x y x y, Ratkaisu: Tiedetään, että x + ty 2
LisätiedotKonjugaattigradienttimenetelmä
Konjugaattigradienttimenetelmä Keijo Ruotsalainen Division of Mathematics Konjugaattigradienttimenetelmä Oletukset Matriisi A on symmetrinen: A T = A Positiivisesti definiitti: x T Ax > 0 kaikille x 0
LisätiedotKohdeyleisö: toisen vuoden teekkari
Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y
Lisätiedot806109P TILASTOTIETEEN PERUSMENETELMÄT I Hanna Heikkinen Esimerkkejä estimoinnista ja merkitsevyystestauksesta, syksy (1 α) = 99 1 α = 0.
806109P TILASTOTIETEEN PERUSMENETELMÄT I Hanna Heikkinen Esimerkkejä estimoinnista ja merkitsevyystestauksesta, syksy 2012 1. Olkoon (X 1,X 2,...,X 25 ) satunnaisotos normaalijakaumasta N(µ,3 2 ) eli µ
LisätiedotJohdatus varianssianalyysiin. Vilkkumaa / Kuusinen 1
Johdatus varianssianalyysiin Vilkkumaa / Kuusinen 1 Motivointi Luento 4: kahden riippumattoman otoksen odotusarvoja voidaan vertailla t-testillä H 0 : μ 1 = μ 2, T = ˉX 1 ˉX 2 s 2 1 + s2 2 n 1 n 2 a t(min[(n
LisätiedotMatemaattiset ohjelmistot A. Osa 2: MATLAB
Matemaattiset ohjelmistot 802364A Osa 2: MATLAB Mikko Orispää 30. lokakuuta 2013 Sisältö 1 MATLAB 2 1.1 Peruslaskutoimitukset......................... 2 1.2 Muuttujat................................ 3
LisätiedotLuottamisvälin avulla voidaan arvioida populaation tuntematonta parametria.
6.10.2016/1 MTTTP1, luento 6.10.2016 KERTAUSTA JA TÄYDENNYSTÄ Luottamisvälin avulla voidaan arvioida populaation tuntematonta parametria. Muodostetaan väli, joka peittää parametrin etukäteen valitulla
LisätiedotTilastollinen testaus. Vilkkumaa / Kuusinen 1
Tilastollinen testaus Vilkkumaa / Kuusinen 1 Motivointi Viime luennolla: havainnot generoineen jakauman muoto on usein tunnettu, mutta parametrit tulee estimoida Joskus parametreista on perusteltua esittää
LisätiedotMS-C1340 Lineaarialgebra ja differentiaaliyhtälöt
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisihajotelmat: Schur ja Jordan Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi Matriisihajotelmat:
LisätiedotKaksisuuntainen varianssianalyysi. Vilkkumaa / Kuusinen 1
Kaksisuuntainen varianssianalyysi Vilkkumaa / Kuusinen 1 Motivointi Luennot 6 ja 7: yksisuuntaisella varianssianalyysilla testataan ryhmäkohtaisten odotusarvojen yhtäsuuruutta, kun perusjoukko on jaettu
LisätiedotJohdatus tilastotieteeseen Yleinen lineaarinen malli. TKK (c) Ilkka Mellin (2004) 1
Johdatus tilastotieteeseen Yleinen lineaarinen malli TKK (c) Ilkka Mellin (2004) 1 Yleinen lineaarinen malli Usean selittäjän lineaarinen regressiomalli Yleisen lineaarisen mallin matriisisesitys Yleisen
Lisätiedot2 k -faktorikokeet. Vilkkumaa / Kuusinen 1
2 k -faktorikokeet Vilkkumaa / Kuusinen 1 Motivointi 2 k -faktorikoe on k-suuntaisen varianssianalyysin erikoistapaus, jossa kaikilla tekijöillä on vain kaksi tasoa, matala (-) ja korkea (+). 2 k -faktorikoetta
LisätiedotVäliestimointi (jatkoa) Heliövaara 1
Väliestimointi (jatkoa) Heliövaara 1 Bernoulli-jakauman odotusarvon luottamusväli 1/2 Olkoon havainnot X 1,..., X n yksinkertainen satunnaisotos Bernoulli-jakaumasta parametrilla p. Eli X Bernoulli(p).
LisätiedotEstimointi populaation tuntemattoman parametrin arviointia otossuureen avulla Otossuure satunnaisotoksen avulla määritelty funktio
17.11.2015/1 MTTTP5, luento 17.11.2015 Luku 5 Parametrien estimointi 5.1 Piste-estimointi Estimointi populaation tuntemattoman parametrin arviointia otossuureen avulla Otossuure satunnaisotoksen avulla
LisätiedotYhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia. Heliövaara 1
Yhden selittäjän lineaarinen regressiomalli (jatkoa) Ensi viikolla ei pidetä luentoa eikä harjoituksia Heliövaara 1 Regressiokertoimien PNS-estimaattorit Määritellään havaintojen x j ja y j, j = 1, 2,...,n
LisätiedotEsim Brand lkm keskiarvo keskihajonta A ,28 5,977 B ,06 3,866 C ,95 4,501
Esim. 2.1.1. Brand lkm keskiarvo keskihajonta A 10 251,28 5,977 B 10 261,06 3,866 C 10 269,95 4,501 y = 260, 76, n = 30 SS 1 = (n 1 1)s 2 1 = (10 1)5, 977 2 321, 52 SS 2 = (n 2 1)s 2 2 = (10 1)3, 8662
LisätiedotARMA(p, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma.
missä µ = c φ ja C j,k = Γj k) = σ 2 φj k φ 2. ARMAp, q)-prosessin tapauksessa maksimikohdan määrääminen on moniulotteinen epälineaarinen optimointiongelma. Käytännösssä optimointi tehdään numeerisesti
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. marraskuuta 2007 Antti Rasila () TodB 30. marraskuuta 2007 1 / 19 1 Lineaarinen regressiomalli ja suurimman uskottavuuden menetelmä Minimin löytäminen
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 9 1 Implisiittinen derivointi Tarkastellaan nyt yhtälöä F(x, y) = c, jossa x ja y ovat muuttujia ja c on vakio Esimerkki tällaisesta yhtälöstä on x 2 y 5 + 5xy = 14
LisätiedotYleinen lineaarinen malli eli usean selittäjän lineaarinen regressiomalli
MS-C2128 Ennustaminen ja aikasarja-analyysi 1. harjoitukset / Tehtävät Kotitehtävät: 2 Aiheet: Aluksi Yleinen lineaarinen malli eli usean selittäjän lineaarinen regressiomalli Tällä kurssilla käytetään
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 8. marraskuuta 2007 Antti Rasila () TodB 8. marraskuuta 2007 1 / 15 1 Tilastollisia testejä Z-testi Normaalijakauman odotusarvon testaus, keskihajonta tunnetaan
LisätiedotJohdatus tilastotieteeseen Estimointi. TKK (c) Ilkka Mellin (2005) 1
Johdatus tilastotieteeseen Estimointi TKK (c) Ilkka Mellin (2005) 1 Estimointi Todennäköisyysjakaumien parametrit ja niiden estimointi Hyvän estimaattorin ominaisuudet TKK (c) Ilkka Mellin (2005) 2 Estimointi:
LisätiedotHarjoitus 6 -- Ratkaisut
Harjoitus 6 -- Ratkaisut 1 Ei kommenttia. 2 Haetaan data tiedostosta. SetDirectory"homeofysjmattas" SetDirectory "c:documents and settingsmattasdesktopteachingatk2harjoitukseth06" netnfstuhome4ofysjmattas
LisätiedotLuento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään
LisätiedotSeuraavassa taulukossa on annettu mittojen määritelmät ja sijoitettu luvut. = 40% = 67% 6 = 0.06% = 99.92% 6+2 = 0.
T-6.28 Luonnollisen kielen tilastollinen käsittely Vastaukset, ti 7.2.200, 8:30-0:00 Tiedon haku, Versio.0. Muutetaan tehtävässä annettu taulukko sellaiseen muotoon, joka paremmin sopii ensimmäisten mittojen
Lisätiedot