T Neuraalilaskennan perusteet

Koko: px
Aloita esitys sivulta:

Download "T 61.3030 Neuraalilaskennan perusteet"

Transkriptio

1 T Neuraalilaskennan perusteet Harjoitustyö time series prediction Heikki Hyyti 60451P EST

2 Yleistä Harjoitustehtävässä piti Matlabin Neural Network Toolbox:n avulla luoda MLP feedforward verkko, ja opettaa se ennustamaan aikasarjaa. Tässä harjoitustyössä data oli annettu valmiina aikasarjana, Matlabin tiedostossa ts.mat. [1] Kuvassa 1 on esitetty koko aikasarja sekä lyhyt näyte mitattavasta aikasarjasta. Kuva 1: Tutkittava aikasarja ylemmässä kuvassa kokonaan ja alemmassa kuvassa lyhyeltä osalta. Aikasarjan esikäsittely Jotta Neural Network Toolbox:lla voitaisiin laskea aikasarjaa, pitää dataa käsitellä niin, että voimme yhtenä vektorina aina antaa neuroverkon syötteet x ja tarkistaa toivotun ulostulon t, joiden avulla verkko lasketaan backpropagation algoritmilla. Muutin aikasarjan ensin sellaiseen muotoon, että siinä on ensimmäisellä rivillä yhdellä viivästetty arvo, toisella rivillä kahdella viivästetty arvo ja niin edelleen. Lisäksi loin tavoitearvot oikeiden arvojen perusteella, niin että tavoitearvoksi verkolle tulee tämän hetkinen arvo. Tällöin edellisten N kpl arvojen perusteella verkko laskee nykyisen arvon. Käytin N arvoja 3, 5 ja 10. Lisäksi poistin ne aikasarjan arvot, joille en voinut tietää tarpeeksi edellisiä arvoja. (N ensimmäistä) Lisäksi aikasarja pitää jakaa testi ja harjoitusjoukkoihin. Jaoin joukot satunnaisessa järjestyksessä puoliksi. Satunnainen järjestys tallennettiin muistiin, jotta jälkeenpäin voitiin taas järjestää mittauspisteet oikeaan, alkuperäiseen, järjestykseen.

3 Laskenta Neural Network Toolbox:n avulla Seuraavaksi luotiin valmiiden työkalujen avulla MLP feedforward neuroverkko. Se toteutettiin Neural Network Toolbox:lla komennolla: net = newff(pr,[s1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF) Tässä komennossa PR on matriisi, jossa jokaista sisääntuloa vastaa minimi ja maksimiarvojen vektori. Seuraavaksi S1,S2, tarkoittavat piilokerrosten määrää ja neuronien määrää kullakin piilokerroksella niin, että S1 kertoo ensimmäisen piilokerroksen neuronien lukumäärän. Seuraavaksi aaltosulkeiden sisällä olevat TF1, TF2, tarkoittavat kuhunkin piilokerrokseen käytettävää siirtofunktiota. Käytin ensimmäisille piilokerroksille sigmoid funktiota ja viimeiselle lineaarista funktiota. Viimeiset kolme määritettä kertovat funktiolle käytettävät algoritmit ja metodit. BTF ilmaisee backpropagation algoritmin painokertoimien määritystavan. BLF taasen ilmaisee algoritmin bias kertoimien määritystavan ja PF ilmaisee virhefunktion laskentatavan. Käytin laskennassa eri funktioita, niin normaalia backpropagation algoritmia, kuin muunnelmaa, jossa mukaan on otettu momenttitermi kuin adaptiivisesti oppivaakin muunnelmaa. Havaitsin heti, että momenttitermi lisäsi oppimisnopeutta huimasti ja adaptiivisen oppimisen ja momenttitermin yhdistelmä toimi ehdottomasti parhaiten. Tulokset Laskin viisi erilaista kokonaisuutta erilaisella verkon rakenteella. Sain tuloksia, joista voi päätellä, että mitä enemmän verkossa on neuroneita (järkevään rajaan asti) ja mitä pitemmältä ajalta se aikasarjaa seuraa, sitä parempiin ennustustuloksiin päästiin. Seuraavassa on yksitellen esiteltynä jokainen viidestä testikerrasta. Tapaus 1 Ensimmäisenä testasin 5 aikaisemman arvon perusteella ennustamista. Neuroverkossani oli yksi piilokerros, jossa oli kymmenen neuronia. Piilokerroksen siirtofunktio oli sigmoidfunktio ja ulostulon siirtofunktio lineaarinen kerroin. Opetuksessa käytettiin normaalia backpropagation algoritmia ilman momenttia tai muuta apua. Suhteellisiksi virheiksi virheen ja oikean arvon varianssien osamääräksi sain testijoukolle , opetusjoukolle ja kokonaisvirheeksi Kuvasta 2 nähdään opetuksen edistyminen ja kuvasta 3 voi havaita kuinka hyvin järjestelmä opetuksen jälkeen osasi ennustaa aikasarjan tulevaa arvoa. Kuvassa 3 on oikea arvo merkitty vaalealla katkoviivoituksella ja ennustettu arvo tummalla viivalla. X merkitsee testausdatapistettä ja O opetusdatapistettä.

4 Kuva 2: Kuvassa on ensimmäisen testin opetuksen tapahtumat Kuva 3: Oikea ja ennustettu aikasarja sekä opetusnäytteiden ja testausnäytteiden sijainti aikasarjalla 100 ensimmäiseltä aika askeleelta. Tapaus 2 Toinen tapaus on pitkälti samanlainen kuin ensimmäinenkin, mutta vähensin tarkasteltavien menneiden aika askelten määrän kolmeen ja piilokerroksen neuronien määrän kuuteen. Muuten tilanne pysyi täysin samana. Tämän tapauksen opetus näkyy kuvassa 4 ja ennustavuus näkyy kuvassa 5. Kuvat on tehty samalla periaatteella jokaisessa tapauksessa. Suhteelliseksi virheeksi saatiin tässä tapauksessa testijoukolle , opetusjoukolle ja kokonaisvirheeksi Kuten kuvista huomataan, tapauksilla 1 ja 2 ei ole juurikaan eroa. Toisen tapauksen opetus kestää hieman kauemmin ja tulos on hieman huonompi, mutta ei mitään merkittäviä eroja.

5 Kuva 4: Toisen tapauksen verkon opetus Kuva 5: Toisen tapauksen aikasarjan ennustus ja oikea aikasarja piirrettynä samaan kuvaan mittauspisteiden kanssa. Tapaus 3 Tässä tapauksessa taas alettiin vertailla neuroverkon opetusmetodeja. Neuroverkko on muuten tehty täysin samalla tavalla kuin tapauksessa 2, mutta neuroverkkoon otettiin käyttöön momenttitermit ja adaptiivinen oppiminen neuronien painokertoimien määritykseen ja bias termien määritykseen momenttitermit. Tällöin oppiminen nopeutui erittäin paljon. Kuvasta 6 voidaan haita, että tapauksen 3 oppiminen on monikymmenkertaisesti nopeampaa, kuin tapauksen 2 oppiminen. Lisäksi kuvasta 7 voidaan taas havaita neuroverkon ennustavan hyvin aikasarjaa. Tässä tapauksessa suhteelliseksi virheeksi saatiin testijoukon osalta , opetusjoukon osalta ja kokonaisvirheeksi

6 Kuva 6: Kuvassa on kolmannen tapauksen erittäin nopea oppimisprosessi. Kuva 7: Kuvassa on kolmannen tapauksen ennustettu ja oikea aikasarja. Tapaus 4 Kaksi viimeistä tapausta käytettiin virheen minimoimiseen ja ennustettavuuden parantamiseen. Pienensin ensinnäkin tavoitevirheen kymmenesosaansa. Lisäksi mittasin aikasarjaa kymmenen edeltävän askeleen pituudelta ja käytin ensimmäisellä piilokerroksella 20 neuronia. Käytin laskentaan tehokkaimmaksi havaitsemaani momenttitermin ja adaptiivisen laskennan yhdistelmää. Näin virheen sai todella pieneksi ja se olisi varmasti vielä pienentynyt nykyisestäkin, jos vain olisin vaatinut pienemmän virhetason. Kuvissa 8 ja 9 on taas sama kuvapari, kuin edellisissäkin tapauksissa. Tässä tapauksessa suhteellisiksi virheiksi tuli testijoukolle , opetusjoukolle ja kokonaisvirheeksi

7 Kuva 8: Kuvassa on neljännen tapauksen hieman pidempi ja tarkempi opetus. Kuva 9: Kuvassa on neljännen tapauksen erittäin tarkka ennustavuus, joka on lähes joka puolella oikean viivan kanssa päällekkäin. Tapaus 5 Viimeisessä tapauksessa lisättiin verkkoon vielä toinen piilokerros, ja katsottiin vaikuttaisiko se mitenkään laskentatarkkuuteen tai nopeuteen. Pidin tapauksen 4 verkon muuten samana, mutta siirsin piilokerroksen 20 neuronia tasaisesti kahteen kerrokseen niin, että kumpaankin kerrokseen tuli 10 neuronia. Lisäksi havaitsin, että tarkan ennusteen saamiseen ei tarvita kovinkaan montaa edellistä arvoa, joten valitsin että 5 edellistä arvoa riittää. Tämän tapauksen kuvapari löytyy kuvista 10 ja 11. Suhteelliseksi virheeksi sain verkon testijoukolle , opetusjoukolle ja kokonaisvirheeksi Olisin tässäkin tapauksessa varmasti päässyt parempaan lopputulokseen jos olisin odottanut pitempään ja vaatinut pienemmän virhekriteerin.

8 Kuva 10: Tapauksen 5 verkon opetus. Tässä tapauksessa kaksi oli piilokerrosta. Kuva 11: Tapauksen 5 ennustettu aikasarja ja oikea aikasarja ovat jo aivan päällekkäin. Päätelmät ja johtopäätökset Harjoitustyöstä havaittiin, että tällaisen jaksollisesti toistuvan kuitenkin satunnaiselta vaikuttavankin datan ennustaminen onnistuu melko hyvin MLP neuroverkon avulla. Jos aikasarjaa ennustaa niin pitkältä ajalta, että kaikki toistuvat kuviot näkyvät neuroverkolle historiassa, voidaan lähes mitä tahansa pystyä ennustamaan. Näin olisi mahdollista ennustaa esimerkiksi pörssikursseja, jos historiaa laskee vain tarpeeksi pitkältä ajalta, jotta toistuvuudet voidaan havaita.

9 Harjoitustyöstä opittiin myös se, että momenttitermillä ja muilla kehittyneemmillä backpropagation algoritmin muunnoksilla voidaan saavuttaa erittäin paljon nopeampi verkon oppiminen. Tällöin varsinkin suurien verkkojen laskennassa säästetään paljon aikaa ja resursseja. Kolmas huomaamani asia oli se, että kun verkko näkee tarpeeksi historiaa, ei ole enää juurikaan hyötyä lisätä sille enempää tietoa, vaan pienelläkin tietomäärällä voidaan päästä riittävän hyvään lopputulokseen, kuten tapauksesta 2 ja 3 voimme havaita. Näissä tapauksissa seurasin vain 3 edellistä aikasarjan näytettä ja laskin sitä kuudella piilokerroksen neuronilla. Näin pienelläkin laskennalla päästiin erittäin hyvään lopputulokseen verkon kokoon ja laskentamäärään suhteutettuna. Lähdeluettelo 1. Neuraalilaskennan perusteiden kotisivut, harjoitustehtävä aikasarja. Viitattu: Saatavilla: /harjtyo/aikasarja/timeseries.shtml

10 Liitteet Liite 1: Laskentaan käytetty Matlab ohjelmointikoodi %% Neuraalilaskennan harjoitus % Heikki Hyyti 60451P % aikasarjan ennustus clear all; %% Ensiksi piirretään muutama mallikuva aikasarjadatasta, jota meillä on % load ts.mat; x = 1:length(ts); figure(1); subplot(2,1,1); plot(x,ts,'k'); title('ennustettava data, ts.mat'); xlabel('mittausnäytteet '); subplot(2,1,2); plot(x(100:200),ts(100:200),'k'); xlabel('mittausnäytteet '); %% Muutetaan mittausdata sellaiseen muotoon, että siinä on jokaisessa % sarakkeessa ensin 1 viivästetty, sitten 2 viivästetty jne. Mittausdata % kirjataan data_x matriisiin ja jokaisen oikea nollaviivästetty arvo % data_t vektoriin. % inputtien määrä eli aikaisempien arvojen määrä inputn = 5; for i = (inputn + 1):length(ts) for j = 1:inputN data_x(i inputn,j) = ts(i j); data_t(i inputn) = ts(i); end end %% jaetaan data satunnaisesti puoliksi harjoitus ja testijoukkoihin rind = randperm(length(data_x)); x_train=data_x(rind(1:floor(length(data_x)/2)),:); t_train=data_t(rind(1:floor(length(data_x)/2))); x_test=data_x(rind(floor(length(data_x)/2)+1:length(data_x)),:); t_test=data_t(rind(floor(length(data_x)/2)+1:length(data_x))); %% MLP verkko % net = newff(pr,[s1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF) % PR R x 2 matrix of min and max values for R input elements. % Si Size of ith layer, for Nl layers. % TFi Transfer function of ith layer, default = 'tansig'. % BTF Backpropagation network training function, default = 'traingdx'.

11 % BLF Backpropagation weight/bias learning function, default = 'learngdm'. % PF Performance function, default = 'mse'. % ensimmäisen kerroksen neuronien määrä N1 = 10; N2 = 10; % Rx2 min ja max arvot PR = [min(data_x)', max(data_x)']; net = newff(pr, [N1, N2, 1], {'tansig' 'tansig' 'purelin'},'traingdx','learngdm','mse'); %% alustetaan verkko pienillä satunnaisluvuilla % Piilokerroksen painot net.iw{1,1}=0.001*randn([n1 inputn]); % Output layer weights net.lw{2,1}=0.001*randn([n2 N1]); % Biases net.b{1,1}=0.001*randn([n1 1]); net.b{2,1}=0.001*randn([n2 1]); net.b{3,1}=0.001*randn; %% Opetetaan verkko % train(net,p,t,pi,ai,vv,tv) % net Neural Network. % P Network inputs. % T Network targets, default = zeros. % Pi Initial input delay conditions, default = zeros. % Ai Initial layer delay conditions, default = zeros. % VV Structure of validation vectors, default = []. % TV Structure of test vectors, default = []. net.trainparam.epochs = ; net.trainparam.goal = 0.001; [net,tr,y,e]=train(net,x_train',t_train); %% Testataan verkon toimintaa Y_test = sim(net, x_test'); Y_train = sim(net, x_train'); %% Kuvataan tulokset testausdatasta figure(2) % testidata ja harjoitusdata järjestettynä niin, että ensimmäisellä rivillä % on alkuperäinen indeksi, toisella rivillä testiarvo ja kolmannella % rivillä oikea arvo ja neljännellä rivillä virhe merkitään viidennelle

12 % riville nolla, jos kyseessä on harjoitusjoukko ja yksi jos kyseessä on % testijoukko, jotta ne voidaan myöhemmin erottaa toisistaan. YTE = [rind(floor(length(data_x)/2)+1:length(data_x))', Y_test', t_test', (Y_test t_test)', ones(length(y_test),1)]; YTR = [rind(1:floor(length(data_x)/2))', Y_train', t_train', (Y_train t_train)', zeros(length(y_train),1)]; Y_all = [YTE; YTR]; % järjestetään matriisi alkuperäisen indeksin mukaan Y_sort = sortrows(y_all,1); % lasketaan suhteellinen virhe, error = var(virhe) / var(oikea) error_test = var(yte(:,4))/var(yte(:,3)) error_train = var(ytr(:,4))/var(ytr(:,3)) error_all = var(y_sort(:,4))/var(y_sort(:,3)) % otetaan 100 ensimmäisen askeleen matkalta erikseen testidatan ja % harjoitusdatan pisteet piirtoa varten. index_tr = 1; index_te = 1; for i = 1:100 if Y_sort(i,5) == 0 plot_tr(index_tr,1:2) = [i, Y_sort(i,3)]; index_tr = index_tr + 1; else plot_te(index_te,1:2) = [i, Y_sort(i,3)]; index_te = index_te + 1; end end % Plotataan 100 askeleen pätkä dataa malliksi niin, että samassa kuvassa on % ennustettu ja oikea arvo. plot(1:100, Y_sort(1:100,3), ' g',1:100, Y_sort(1:100,2), ' k',... plot_tr(:,1), plot_tr(:,2), 'bo', plot_te(:,1), plot_te(:,2), 'bx'); legend('oikea','ennustettu', 'opetusdatapisteet', 'testausdatapisteet') title('näytteet , joita on ennustettu MLP verkolla');

13 Liite 2: kaikista eri mittauksista saatu mittauspöytäkirja // testi 1. // 5 askeleen ennustus 10 neuronilla. // net = newff(pr, [N1, 1], {'tansig' 'purelin'},'traingdm','learngd','mse'); error_test = error_train = error_all = // testi 2 // 3 askeleen ennustus 6 neuronilla // net = newff(pr, [N1, 1], {'tansig' 'purelin'},'traingdm','learngd','mse'); error_test = error_train = error_all = // testi 3 // 3 askeleen ennustus 6 neuronilla // net = newff(pr, [N1, 1], {'tansig' 'purelin'},'traingdx','learngdm','mse'); // erilaiset opetusmetodit siis (oppi 100x nopeammin) error_test = error_train = error_all = // testi 4 // oikein massiivinen testi // 10 askeleen ennustus 20 neuronilla ja tarkemmalla tarkkuusvaatimuksella. // net = newff(pr, [N1, 1], {'tansig' 'purelin'},'traingdx','learngdm','mse'); error_test = error_train = error_all = // testi 5 // lisää piilokerroksen neuroneita // 5 askeleen ennustus, kymmenen piiloneuronia kahdessa kerroksessa. (N1 = N2 = 10) // net = newff(pr, [N1, N2, 1], {'tansig' 'tansig' 'purelin'},'traingdx','learngdm','mse'); error_test = error_train = error_all =

ImageRecognition toteutus

ImageRecognition toteutus ImageRecognition toteutus Simo Korkolainen 27 kesäkuuta 2016 Projektin tarkoituksena on tehdä ohjelma, joka opettaa neuroverkon tunnistamaan kuvia backpropagation-algoritmin avulla Neuroverkon opetuksessa

Lisätiedot

S Laskennallinen Neurotiede

S Laskennallinen Neurotiede S-114.3812 Laskennallinen Neurotiede Laskuharjoitus 3 8.12.2006 Heikki Hyyti 60451P Tehtävä 2 Tehtävässä 2 piti tehdä 100 hermosolun assosiatiivinen Hopfield-muistiverkko. Verkko on rakennettu Matlab-ohjelmaan

Lisätiedot

Laskuharjoitus 9, tehtävä 6

Laskuharjoitus 9, tehtävä 6 Aalto-yliopiston perustieteiden korkeakoulu Jouni Pousi Systeemianalyysin laboratorio Mat-2.4129 Systeemien identifiointi Laskuharjoitus 9, tehtävä 6 Tämä ohje sisältää vaihtoehtoisen tavan laskuharjoituksen

Lisätiedot

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään

Lisätiedot

S-114.3812 Laskennallinen Neurotiede

S-114.3812 Laskennallinen Neurotiede S-114.3812 Laskennallinen Neurotiede Laskuharjoitus 2 4.12.2006 Heikki Hyyti 60451P Tehtävä 1 Tehtävässä 1 piti tehdä lineaarista suodatusta kuvalle. Lähtötietoina käytettiin kuvassa 1 näkyvää harmaasävyistä

Lisätiedot

Säätötekniikan matematiikan verkkokurssi, Matlab tehtäviä ja vastauksia 29.7.2002

Säätötekniikan matematiikan verkkokurssi, Matlab tehtäviä ja vastauksia 29.7.2002 Matlab tehtäviä 1. Muodosta seuraavasta differentiaaliyhtälöstä siirtofuntio. Tämä differentiaaliyhtälö saattaisi kuvata esimerkiksi yksinkertaista vaimennettua jousi-massa systeemiä, johon on liitetty

Lisätiedot

Matriisit ovat matlabin perustietotyyppejä. Yksinkertaisimmillaan voimme esitellä ja tallentaa 1x1 vektorin seuraavasti: >> a = 9.81 a = 9.

Matriisit ovat matlabin perustietotyyppejä. Yksinkertaisimmillaan voimme esitellä ja tallentaa 1x1 vektorin seuraavasti: >> a = 9.81 a = 9. Python linkit: Python tutoriaali: http://docs.python.org/2/tutorial/ Numpy&Scipy ohjeet: http://docs.scipy.org/doc/ Matlabin alkeet (Pääasiassa Deni Seitzin tekstiä) Matriisit ovat matlabin perustietotyyppejä.

Lisätiedot

Tässä dokumentissa on ensimmäisten harjoitusten malliratkaisut MATLABskripteinä. Voit kokeilla itse niiden ajamista ja toimintaa MATLABissa.

Tässä dokumentissa on ensimmäisten harjoitusten malliratkaisut MATLABskripteinä. Voit kokeilla itse niiden ajamista ja toimintaa MATLABissa. Laskuharjoitus 1A Mallit Tässä dokumentissa on ensimmäisten harjoitusten malliratkaisut MATLABskripteinä. Voit kokeilla itse niiden ajamista ja toimintaa MATLABissa. 1. tehtävä %% 1. % (i) % Vektorit luodaan

Lisätiedot

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1

. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1 TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että

Lisätiedot

Zeon PDF Driver Trial

Zeon PDF Driver Trial Matlab-harjoitus 2: Kuvaajien piirto, skriptit ja funktiot. Matlabohjelmoinnin perusteita Numeerinen integrointi trapezoidaalimenetelmällä voidaan tehdä komennolla trapz. Esimerkki: Vaimenevan eksponentiaalin

Lisätiedot

805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016)

805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016) 805324A (805679S) Aikasarja-analyysi Harjoitus 6 (2016) Tavoitteet (teoria): Hahmottaa aikasarjan klassiset komponentit ideaalisessa tilanteessa. Ymmärtää viivekuvauksen vaikutus trendiin. ARCH-prosessin

Lisätiedot

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä

Lisätiedot

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä

Lisätiedot

Harjoitus 1: Matlab. Harjoitus 1: Matlab. Mat Sovelletun matematiikan tietokonetyöt 1. Syksy 2006

Harjoitus 1: Matlab. Harjoitus 1: Matlab. Mat Sovelletun matematiikan tietokonetyöt 1. Syksy 2006 Harjoitus 1: Matlab Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen Matlab-ohjelmistoon Laskutoimitusten

Lisätiedot

Nopea kertolasku, Karatsuban algoritmi

Nopea kertolasku, Karatsuban algoritmi Nopea kertolasku, Karatsuban algoritmi Mikko Männikkö 16.8.2004 Lähde: ((Gathen and Gerhard 1999) luku II.8) Esityksen kulku Algoritmien analysointia (1), (2), (3), (4) Klassinen kertolasku Parempi tapa

Lisätiedot

Kognitiivinen mallintaminen. Nelli Salminen

Kognitiivinen mallintaminen. Nelli Salminen Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen

Lisätiedot

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö Tällä kerralla ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 19.2. Nelli Salminen nelli.salminen@helsinki.fi D433 vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko

Lisätiedot

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016 Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.

Lisätiedot

S-114.3812 Laskennallinen Neurotiede

S-114.3812 Laskennallinen Neurotiede S-114.381 Laskennallinen Neurotiede Projektityö 30.1.007 Heikki Hyyti 60451P Tehtävä 1: Virityskäyrästön laskeminen Luokitellaan neuroni ensin sen mukaan, miten se vastaa sinimuotoisiin syötteisiin. Syöte

Lisätiedot

T Hahmontunnistuksen perusteet

T Hahmontunnistuksen perusteet T 61.3020 Hahmontunnistuksen perusteet Harjoitustyö Käsin kirjoitettujen numeroiden tunnistus LVQ menetelmällä 30.3.2007 Heikki Hyyti 60451P hhyyti@cc.hut.fi Yleistä Harjoitustyössä piti tehdä käsinkirjoitettujen

Lisätiedot

Harha mallin arvioinnissa

Harha mallin arvioinnissa Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö

Lisätiedot

Tieteellinen laskenta 2 Törmäykset

Tieteellinen laskenta 2 Törmäykset Tieteellinen laskenta 2 Törmäykset Aki Kutvonen Op.nmr 013185860 Sisällysluettelo Ohjelman tekninen dokumentti...3 Yleiskuvaus...3 Kääntöohje...3 Ohjelman yleinen rakenne...4 Esimerkkiajo ja käyttöohje...5

Lisätiedot

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Nelli Salminen nelli.salminen@helsinki.fi D433 Neuraalimallinnuksen osuus neljä luentokertaa, muutokset alla olevaan suunnitelmaan todennäköisiä

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

T Luonnollisten kielten tilastollinen käsittely Vastaukset 11, ke , 12:15 14:00 Puheentunnistus ja kielimallien evaluointi Versio 1.

T Luonnollisten kielten tilastollinen käsittely Vastaukset 11, ke , 12:15 14:00 Puheentunnistus ja kielimallien evaluointi Versio 1. T-61.020 Luonnollisten kielten tilastollinen käsittely Vastaukset 11, ke 18.4.2007, 12:1 14:00 Puheentunnistus ja kielimallien evaluointi Versio 1.0 1. Käytämme siis jälleen viterbi-algoritmia todennäköisimmän

Lisätiedot

815338A Ohjelmointikielten periaatteet Harjoitus 3 vastaukset

815338A Ohjelmointikielten periaatteet Harjoitus 3 vastaukset 815338A Ohjelmointikielten periaatteet 2015-2016. Harjoitus 3 vastaukset Harjoituksen aiheena ovat imperatiivisten kielten muuttujiin liittyvät kysymykset. Tehtävä 1. Määritä muuttujien max_num, lista,

Lisätiedot

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.

Lisätiedot

A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä.

A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Esimerkki otteluvoiton todennäköisyys A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Yksittäisessä pelissä A voittaa todennäköisyydellä p ja B todennäköisyydellä q =

Lisätiedot

815338A Ohjelmointikielten periaatteet Harjoitus 6 Vastaukset

815338A Ohjelmointikielten periaatteet Harjoitus 6 Vastaukset 815338A Ohjelmointikielten periaatteet 2015-2016. Harjoitus 6 Vastaukset Harjoituksen aiheena on funktionaalinen ohjelmointi Scheme- ja Haskell-kielillä. Voit suorittaa ohjelmat osoitteessa https://ideone.com/

Lisätiedot

Mitä on konvoluutio? Tutustu kuvankäsittelyyn

Mitä on konvoluutio? Tutustu kuvankäsittelyyn Mitä on konvoluutio? Tutustu kuvankäsittelyyn Tieteenpäivät 2015, Työohje Sami Varjo Johdanto Digitaalinen signaalienkäsittely on tullut osaksi arkipäiväämme niin, ettemme yleensä edes huomaa sen olemassa

Lisätiedot

TL5503 DSK, laboraatiot (1.5 op) Suodatus 2 (ver 1.0) Jyrki Laitinen

TL5503 DSK, laboraatiot (1.5 op) Suodatus 2 (ver 1.0) Jyrki Laitinen TL5503 DSK, laboraatiot (1.5 op) Suodatus 2 (ver 1.0) Jyrki Laitinen TL5503 DSK, laboraatiot (1.5 op), K2005 1 Suorita oheisten ohjeiden mukaiset tehtävät Matlab-ohjelmistoa käyttäen. Kokoa erilliseen

Lisätiedot

Ohjelmoinnin peruskurssi Y1

Ohjelmoinnin peruskurssi Y1 Ohjelmoinnin peruskurssi Y1 CSE-A1111 30.9.2015 CSE-A1111 Ohjelmoinnin peruskurssi Y1 30.9.2015 1 / 27 Mahdollisuus antaa luentopalautetta Goblinissa vasemmassa reunassa olevassa valikossa on valinta Luentopalaute.

Lisätiedot

Yleistä. Nyt käsitellään vain taulukko (array), joka on saman tyyppisten muuttujien eli alkioiden (element) kokoelma.

Yleistä. Nyt käsitellään vain taulukko (array), joka on saman tyyppisten muuttujien eli alkioiden (element) kokoelma. 2. Taulukot 2.1 Sisältö Yleistä. Esittely ja luominen. Alkioiden käsittely. Kaksiulotteinen taulukko. Taulukko operaation parametrina. Taulukko ja HelloWorld-ohjelma. Taulukko paluuarvona. 2.2 Yleistä

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2

Lisätiedot

Rinnakkaistietokoneet luento S

Rinnakkaistietokoneet luento S Rinnakkaistietokoneet luento 2 521475S Tietokonealgoritmien rinnakkaisuuden analysointi Algoritmi on proseduuri, joka koostuu äärellisestä joukosta yksiselitteisiä sääntöjä jotka muodostavat operaatiosekvenssin,

Lisätiedot

MS-C1340 Lineaarialgebra ja

MS-C1340 Lineaarialgebra ja MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt QR-hajotelma ja pienimmän neliösumman menetelmä Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto PNS-ongelma PNS-ongelma

Lisätiedot

SIMULINK S-funktiot. SIMULINK S-funktiot

SIMULINK S-funktiot. SIMULINK S-funktiot S-funktio on ohjelmointikielellä (Matlab, C, Fortran) laadittu oma algoritmi tai dynaamisen järjestelmän kuvaus, jota voidaan käyttää Simulink-malleissa kuin mitä tahansa valmista lohkoa. S-funktion rakenne

Lisätiedot

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt ja pienimmän neliösumman menetelmä Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 18 R. Kangaslampi QR ja PNS PNS-ongelma

Lisätiedot

Matlab- ja Maple- ohjelmointi

Matlab- ja Maple- ohjelmointi Perusasioita 2. helmikuuta 2005 Matlab- ja Maple- ohjelmointi Yleistä losoaa ja erityisesti Numsym05-kurssin tarpeita palvellee parhaiten, jos esitän asian rinnakkain Maple:n ja Matlab:n kannalta. Ohjelmien

Lisätiedot

Integrointialgoritmit molekyylidynamiikassa

Integrointialgoritmit molekyylidynamiikassa Integrointialgoritmit molekyylidynamiikassa Markus Ovaska 28.11.2008 Esitelmän kulku MD-simulaatiot yleisesti Integrointialgoritmit: mitä integroidaan ja miten? Esimerkkejä eri algoritmeista Hyvän algoritmin

Lisätiedot

Tänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.)

Tänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.) Tänään ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 26.2. Nelli Salminen nelli.salminen@helsinki.fi D433 autoassosiaatio, attraktorin käsite esimerkkitapaus: kolme eri tapaa mallintaa kategorista

Lisätiedot

x j x k Tällöin L j (x k ) = 0, kun k j, ja L j (x j ) = 1. Alkuperäiselle interpolaatio-ongelmalle saadaan nyt ratkaisu

x j x k Tällöin L j (x k ) = 0, kun k j, ja L j (x j ) = 1. Alkuperäiselle interpolaatio-ongelmalle saadaan nyt ratkaisu 2 Interpolointi Olkoon annettuna n+1 eri pistettä x 0, x 1, x n R ja n+1 lukua y 0, y 1,, y n Interpoloinnissa etsitään funktiota P, joka annetuissa pisteissä x 0,, x n saa annetut arvot y 0,, y n, (21)

Lisätiedot

VAASAN YLIOPISTO TEKNILLINEN TIEDEKUNTA TIETOTEKNIIKAN LAITOS

VAASAN YLIOPISTO TEKNILLINEN TIEDEKUNTA TIETOTEKNIIKAN LAITOS VAASAN YLIOPISTO TEKNILLINEN TIEDEKUNTA TIETOTEKNIIKAN LAITOS Jyrki Kankaanpää AIKASARJAN MALLINTAMINEN MULTI-LAYER- PERCEPTRON -NEUROVERKOLLA KTM, tietotekniikka Pro Gradu tutkielma VAASA 2007 2 3 SISÄLLYSLUETTELO

Lisätiedot

Gap-filling methods for CH 4 data

Gap-filling methods for CH 4 data Gap-filling methods for CH 4 data Sigrid Dengel University of Helsinki Outline - Ecosystems known for CH 4 emissions; - Why is gap-filling of CH 4 data not as easy and straight forward as CO 2 ; - Gap-filling

Lisätiedot

MLP-hermoverkko ja sen soveltaminen kuvien luokitteluun

MLP-hermoverkko ja sen soveltaminen kuvien luokitteluun MLP-hermoverkko ja sen soveltaminen kuvien luokitteluun Konenäkö -kurssin 2008 vierailuluento Tietotekniikan laitos Jyväskylän yliopisto Konenäkö -kurssi, 25.9. ja 30.9.2008 Sisältö 1 Hermoverkon perusidea

Lisätiedot

Sisältö. 2. Taulukot. Yleistä. Yleistä

Sisältö. 2. Taulukot. Yleistä. Yleistä Sisältö 2. Taulukot Yleistä. Esittely ja luominen. Alkioiden käsittely. Kaksiulotteinen taulukko. Taulukko operaation parametrina. Taulukko ja HelloWorld-ohjelma. Taulukko paluuarvona. 2.1 2.2 Yleistä

Lisätiedot

Tieverkon kunnon stokastinen ennustemalli ja sen soveltaminen riskienhallintaan

Tieverkon kunnon stokastinen ennustemalli ja sen soveltaminen riskienhallintaan Mat 2.4177Operaatiotutkimuksenprojektityöseminaari Tieverkonkunnonstokastinenennustemallija sensoveltaminenriskienhallintaan Väliraportti 3/4/2009 Toimeksiantajat: PöyryInfraOy(PekkaMild) Tiehallinto(VesaMännistö)

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 4 To 15.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 4 To 15.9.2011 p. 1/38 p. 1/38 Lineaarinen yhtälöryhmä Lineaarinen yhtälöryhmä matriisimuodossa Ax = b

Lisätiedot

Vektoreiden virittämä aliavaruus

Vektoreiden virittämä aliavaruus Vektoreiden virittämä aliavaruus Määritelmä Oletetaan, että v 1, v 2,... v k R n. Näiden vektoreiden virittämä aliavaruus span( v 1, v 2,... v k ) tarkoittaa kyseisten vektoreiden kaikkien lineaarikombinaatioiden

Lisätiedot

Harjoitus 4 -- Ratkaisut

Harjoitus 4 -- Ratkaisut Harjoitus -- Ratkaisut 1 Ei kommenttia. Tutkittava funktio: In[15]:= f x : x 1 x Sin x ; Plot f x, x, 0, 3 Π, PlotRange All Out[159]= Luodaan tasavälinen pisteistö välille 0 x 3 Π. Tehdään se ensin kiinnitetyllä

Lisätiedot

Matlabin perusteita Grafiikka

Matlabin perusteita Grafiikka BL40A0000 SSKMO KH 1 Seuraavassa esityksessä oletuksena on, että Matlabia käytetään jossakin ikkunoivassa käyttöjärjestelmässä (PC/Win, Mac, X-Window System). Käytettäessä Matlabia verkon yli joko tekstipäätteeltä,

Lisätiedot

Mat-1.C Matemaattiset ohjelmistot

Mat-1.C Matemaattiset ohjelmistot Mat-.C Matemaattiset ohjelmistot Luento ma 9.3.0 $z; Error, (in rtable/product) invalid arguments.z; z C z C z3 3 C z4 4 C z5 5.Tr z ; z C z C z3 3 C z4 4 C z5 5 ; Error, (in rtable/power) eponentiation

Lisätiedot

Aineistoista. Laadulliset menetelmät: miksi tarpeen? Haastattelut, fokusryhmät, havainnointi, historiantutkimus, miksei videointikin

Aineistoista. Laadulliset menetelmät: miksi tarpeen? Haastattelut, fokusryhmät, havainnointi, historiantutkimus, miksei videointikin Aineistoista 11.2.09 IK Laadulliset menetelmät: miksi tarpeen? Haastattelut, fokusryhmät, havainnointi, historiantutkimus, miksei videointikin Muotoilussa kehittyneet menetelmät, lähinnä luotaimet Havainnointi:

Lisätiedot

Ohjelmistoradio tehtävät 4. P1: Ekvalisointi ja demodulaatio. OFDM-symbolien generoiminen

Ohjelmistoradio tehtävät 4. P1: Ekvalisointi ja demodulaatio. OFDM-symbolien generoiminen Ohjelmistoradio tehtävät 4 P: Ekvalisointi ja demodulaatio Tässä tehtävässä dekoodata OFDM data joka on sijotetty synknonontisignaalin lälkeen. Synkronointisignaali on sama kuin edellisessä laskutehtävässä.

Lisätiedot

Harjoitus 6 ( )

Harjoitus 6 ( ) Harjoitus 6 (30.4.2014) Tehtävä 1 Määritelmän (ks. luentomoniste s. 109) mukaan yleisen, muotoa min f(x) s.t. g(x) 0 h(x) = 0 x X (1) olevan optimointitehtävän Lagrangen duaali on max θ(u,v) s.t. u 0,

Lisätiedot

Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. eli matriisissa on 200 riviä (havainnot) ja 7 saraketta (mittaus-arvot)

Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. eli matriisissa on 200 riviä (havainnot) ja 7 saraketta (mittaus-arvot) R-ohjelman käyttö data-analyysissä Panu Somervuo 2014 Tässä harjoituksessa käydään läpi R-ohjelman käyttöä esimerkkidatan avulla. 0) käynnistetään R-ohjelma Huom.1 allaolevissa ohjeissa '>' merkki on R:n

Lisätiedot

Matriiseista. Emmi Koljonen

Matriiseista. Emmi Koljonen Matriiseista Emmi Koljonen 3. lokakuuta 22 Usein meillä on monta systeemiä kuvaavaa muuttujaa ja voimme kirjoittaa niiden välille riippuvaisuuksia, esim. piirin silmukoihin voidaan soveltaa silmukkavirtayhtälöitä.

Lisätiedot

Matriisien tulo. Matriisit ja lineaarinen yhtälöryhmä

Matriisien tulo. Matriisit ja lineaarinen yhtälöryhmä Matriisien tulo Lause Olkoot A, B ja C matriiseja ja R Tällöin (a) A(B + C) =AB + AC, (b) (A + B)C = AC + BC, (c) A(BC) =(AB)C, (d) ( A)B = A( B) = (AB), aina, kun kyseiset laskutoimitukset on määritelty

Lisätiedot

Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu JMP:llä

Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi. Esimerkit laskettu JMP:llä Tilastollinen vastepintamallinnus: kokeiden suunnittelu, regressiomallin analyysi, ja vasteen optimointi Esimerkit laskettu JMP:llä Antti Hyttinen Tampereen teknillinen yliopisto 29.12.2003 ii Ohjelmien

Lisätiedot

SGN Signaalinkäsittelyn perusteet Välikoe Heikki Huttunen

SGN Signaalinkäsittelyn perusteet Välikoe Heikki Huttunen SGN- Signaalinkäsittelyn perusteet Välikoe.5.4 Heikki Huttunen Tentissä ja välikokeessa saa käyttää vain tiedekunnan laskinta. Tenttikysymyksiä ei tarvitse palauttaa. Sivuilla -3 on. Sivuilla 4-5 on. Sivulla

Lisätiedot

linux linux: käyttäjän oikeudet + lisää ja - poistaa oikeuksia

linux linux: käyttäjän oikeudet + lisää ja - poistaa oikeuksia L6: linux linux linux: käyttäjän oikeudet Käyttäjällä, username, on käyttöoikeus rajattuun levytilaan du -h /home/username/ tulostaa käytetyn levytilan. Yhteenvedon antaa du -h /home/jetsu/ - -summarize

Lisätiedot

Tieto- ja tallennusrakenteet

Tieto- ja tallennusrakenteet Tieto- ja tallennusrakenteet Sisältö Tyyppi, abstrakti tietotyyppi, abstraktin tietotyypin toteutus Tallennusrakenteet Taulukko Linkitetty rakenne Abstraktit tietotyypit Lista (Puu) (Viimeisellä viikolla)

Lisätiedot

Sisältö. 22. Taulukot. Yleistä. Yleistä

Sisältö. 22. Taulukot. Yleistä. Yleistä Sisältö 22. Taulukot Yleistä. Esittely ja luominen. Alkioiden käsittely. Kaksiulotteinen taulukko. Taulukko metodin parametrina. Taulukko ja HelloWorld-ohjelma. Taulukko paluuarvona. 22.1 22.2 Yleistä

Lisätiedot

Määrittelydokumentti

Määrittelydokumentti Määrittelydokumentti Aineopintojen harjoitustyö: Tietorakenteet ja algoritmit (alkukesä) Sami Korhonen 014021868 sami.korhonen@helsinki. Tietojenkäsittelytieteen laitos Helsingin yliopisto 23. kesäkuuta

Lisätiedot

1. (a) Seuraava algoritmi tutkii, onko jokin luku taulukossa monta kertaa:

1. (a) Seuraava algoritmi tutkii, onko jokin luku taulukossa monta kertaa: Tietorakenteet, laskuharjoitus 10, ratkaisuja 1. (a) Seuraava algoritmi tutkii, onko jokin luku taulukossa monta kertaa: SamaLuku(T ) 2 for i = 1 to T.length 1 3 if T [i] == T [i + 1] 4 return True 5 return

Lisätiedot

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos:

Kannan vektorit siis virittävät aliavaruuden, ja lisäksi kanta on vapaa. Lauseesta 7.6 saadaan seuraava hyvin käyttökelpoinen tulos: 8 Kanta Tässä luvussa tarkastellaan aliavaruuden virittäjävektoreita, jotka muodostavat lineaarisesti riippumattoman jonon. Merkintöjen helpottamiseksi oletetaan luvussa koko ajan, että W on vektoreiden

Lisätiedot

Dynaamiset regressiomallit

Dynaamiset regressiomallit MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt

Lisätiedot

Moottorin kierrosnopeus Tämän harjoituksen jälkeen:

Moottorin kierrosnopeus Tämän harjoituksen jälkeen: Moottorin kierrosnopeus Tämän harjoituksen jälkeen: osaat määrittää moottorin kierrosnopeuden pulssianturin ja Counter-sisääntulon avulla, osaat siirtää manuaalisesti mittaustiedoston LabVIEW:sta MATLABiin,

Lisätiedot

1 PID-taajuusvastesuunnittelun esimerkki

1 PID-taajuusvastesuunnittelun esimerkki Enso Ikonen, Oulun yliopisto, systeemitekniikan laboratorio 2/23 Säätöjärjestelmien suunnittelu 23 PID-taajuusvastesuunnittelun esimerkki Tehtävänä on suunnitella säätö prosessille ( ) = = ( +)( 2 + )

Lisätiedot

Turun seitsemäsluokkalaisten matematiikkakilpailu 18.1.2012 Tehtävät ja ratkaisut

Turun seitsemäsluokkalaisten matematiikkakilpailu 18.1.2012 Tehtävät ja ratkaisut (1) Laske 20 12 11 21. Turun seitsemäsluokkalaisten matematiikkakilpailu 18.1.2012 Tehtävät ja ratkaisut a) 31 b) 0 c) 9 d) 31 Ratkaisu. Suoralla laskulla 20 12 11 21 = 240 231 = 9. (2) Kahden peräkkäisen

Lisätiedot

10 Liiketaloudellisia algoritmeja

10 Liiketaloudellisia algoritmeja 218 Liiketaloudellisia algoritmeja 10 Liiketaloudellisia algoritmeja Tämä luku sisältää liiketaloudellisia laskelmia. Aiheita voi hyödyntää vaikkapa liiketalouden opetuksessa. 10.1 Investointien kannattavuuden

Lisätiedot

PID-sa a timen viritta minen Matlabilla ja simulinkilla

PID-sa a timen viritta minen Matlabilla ja simulinkilla PID-sa a timen viritta minen Matlabilla ja simulinkilla Kriittisen värähtelyn menetelmä Tehtiin kuvan 1 mukainen tasavirtamoottorin piiri PID-säätimellä. Virittämistä varten PID-säätimen ja asetettiin

Lisätiedot

5 Lineaariset yhtälöryhmät

5 Lineaariset yhtälöryhmät 5 Lineaariset yhtälöryhmät Edellisen luvun lopun esimerkissä päädyttiin yhtälöryhmään, jonka ratkaisemisesta riippui, kuuluuko tietty vektori eräiden toisten vektorien virittämään aliavaruuteen Tämäntyyppisiä

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 3 Ti 13.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 3 Ti 13.9.2011 p. 1/37 p. 1/37 Epälineaariset yhtälöt Newtonin menetelmä: x n+1 = x n f(x n) f (x n ) Sekanttimenetelmä:

Lisätiedot

Matlab-perusteet. Jukka Jauhiainen. OAMK / Tekniikan yksikkö. Hyvinvointiteknologian koulutusohjelma

Matlab-perusteet. Jukka Jauhiainen. OAMK / Tekniikan yksikkö. Hyvinvointiteknologian koulutusohjelma Matlab-perusteet Jukka Jauhiainen OAMK / Tekniikan yksikkö Hyvinvointiteknologian koulutusohjelma Tämän materiaalin tarkoitus on antaa opiskelijalle lyhyehkö johdanto Matlabohjelmiston perusteisiin. Matlabin

Lisätiedot

Metropolia ammattikorkeakoulu TI00AA : Ohjelmointi Kotitehtävät 3 opettaja: Pasi Ranne

Metropolia ammattikorkeakoulu TI00AA : Ohjelmointi Kotitehtävät 3 opettaja: Pasi Ranne Seuraavista tehtävistä saatu yhteispistemäärä (max 7 pistettä) jaetaan luvulla 3.5 ja näin saadaan varsinainen kurssipisteisiin laskettava pistemäärä. Bonustehtävien pisteet jaetaan luvulla 4 eli niistä

Lisätiedot

Harjoitus 6 ( )

Harjoitus 6 ( ) Harjoitus 6 (21.4.2015) Tehtävä 1 Määritelmän (ks. luentomoniste s. 109) mukaan yleisen, muotoa min f(x) s. t. g(x) 0 h(x) = 0 x X olevan optimointitehtävän Lagrangen duaali on missä max θ(u, v) s. t.

Lisätiedot

SGN-1251 Signaalinkäsittelyn sovellukset Välikoe Heikki Huttunen

SGN-1251 Signaalinkäsittelyn sovellukset Välikoe Heikki Huttunen SGN-5 Signaalinkäsittelyn sovellukset Välikoe.. Heikki Huttunen Tentissä ja välikokeessa saa käyttää vain tiedekunnan laskinta. Tenttikysymyksiä ei tarvitse palauttaa. Sivuilla - on. Sivuilla 4-6 on. Vastaa

Lisätiedot

Derivaatan sovellukset (ääriarvotehtävät ym.)

Derivaatan sovellukset (ääriarvotehtävät ym.) Derivaatan sovellukset (ääriarvotehtävät ym.) Tehtävät: 1. Tutki derivaatan avulla funktion f kulkua. a) f(x) = x 4x b) f(x) = x + 6x + 11 c) f(x) = x4 4 x3 + 4 d) f(x) = x 3 6x + 1x + 3. Määritä rationaalifunktion

Lisätiedot

Matematiikan tukikurssi, kurssikerta 3

Matematiikan tukikurssi, kurssikerta 3 Matematiikan tukikurssi, kurssikerta 3 1 Epäyhtälöitä Aivan aluksi lienee syytä esittää luvun itseisarvon määritelmä: { x kun x 0 x = x kun x < 0 Siispä esimerkiksi 10 = 10 ja 10 = 10. Seuraavaksi listaus

Lisätiedot

Numeeriset menetelmät

Numeeriset menetelmät Numeeriset menetelmät Luento 14 To 20.10.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 14 To 20.10.2011 p. 1/39 p. 1/39 Nopeat Fourier-muunnokset Diskreetti Fourier-muunnos ˆf k = 1 N 1 N

Lisätiedot

805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016)

805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016) 805324A (805679S) Aikasarja-analyysi Harjoitus 4 (2016) Tavoitteet (teoria): Hallita autokovarianssifunktion ominaisuuksien tarkastelu. Osata laskea autokovarianssifunktion spektriiheysfunktio. Tavoitteet

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 8 1 Suunnattu derivaatta Aluksi tarkastelemme vektoreita, koska ymmärrys vektoreista helpottaa alla olevien asioiden omaksumista. Kun liikutaan tasossa eli avaruudessa

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 4 Jatkuvuus Jatkuvan funktion määritelmä Tarkastellaan funktiota f x) jossakin tietyssä pisteessä x 0. Tämä funktio on tässä pisteessä joko jatkuva tai epäjatkuva. Jatkuvuuden

Lisätiedot

Oppijan saama palaute määrää oppimisen tyypin

Oppijan saama palaute määrää oppimisen tyypin 281 5. KONEOPPIMINEN Älykäs agentti voi joutua oppimaan mm. seuraavia seikkoja: Kuvaus nykytilan ehdoilta suoraan toiminnolle Maailman relevanttien ominaisuuksien päätteleminen havaintojonoista Maailman

Lisätiedot

Pakettisynkronointitestauksen automaatio

Pakettisynkronointitestauksen automaatio Pakettisynkronointitestauksen automaatio Risto Hietala valvoja: Prof. Riku Jäntti ohjaaja: DI Jonas Lundqvist ESITYKSEN RAKENNE Tietoverkkojen synkronointi Pakettikytkentäisten verkkojen synkronointi Ohjelmistotestaus

Lisätiedot

7.4 Sormenjälkitekniikka

7.4 Sormenjälkitekniikka 7.4 Sormenjälkitekniikka Tarkastellaan ensimmäisenä esimerkkinä pitkien merkkijonojen vertailua. Ongelma: Ajatellaan, että kaksi n-bittistä (n 1) tiedostoa x ja y sijaitsee eri tietokoneilla. Halutaan

Lisätiedot

Kognitiivinen mallintaminen. Nelli Salminen

Kognitiivinen mallintaminen. Nelli Salminen Kognitiivinen mallintaminen Neuraalimallinnus 1.12. Nelli Salminen nelli.salminen@tkk.fi Tänään ohjelmassa autoassosiaatio, Hopfieldin verkko attraktorin käsite ajan esittäminen hermoverkoissa esimerkkitapaus:

Lisätiedot

Spektri- ja signaalianalysaattorit

Spektri- ja signaalianalysaattorit Spektri- ja signaalianalysaattorit Pyyhkäisevät spektrianalysaattorit Suora pyyhkäisevä Superheterodyne Reaaliaika-analysaattorit Suora analoginen analysaattori FFT-spektrianalysaattori DFT FFT Analysaattoreiden

Lisätiedot

Ohjelmoinnin perusteet Y Python

Ohjelmoinnin perusteet Y Python Ohjelmoinnin perusteet Y Python T-106.1208 25.2.2009 T-106.1208 Ohjelmoinnin perusteet Y 25.2.2009 1 / 34 Syötteessä useita lukuja samalla rivillä Seuraavassa esimerkissä käyttäjä antaa useita lukuja samalla

Lisätiedot

Data Envelopment Analysis (DEA) - menetelmät + CCR-DEA-menetelmä

Data Envelopment Analysis (DEA) - menetelmät + CCR-DEA-menetelmä Data Envelopment Analysis (DEA) - menetelmät + CCR-DEA-menetelmä Mat-2.4142 Optimointiopin seminaari kevät 2011 Esityksen rakenne I osa Tehokkuudesta yleisesti DEA-mallin perusajatus CCR-painotus II osa

Lisätiedot

TL5503 DSK, laboraatiot (1.5 op) Suodatus 1 (ver 1.0) Jyrki Laitinen

TL5503 DSK, laboraatiot (1.5 op) Suodatus 1 (ver 1.0) Jyrki Laitinen TL5503 DSK, laboraatiot (1.5 op) Suodatus 1 (ver 1.0) Jyrki Laitinen TL5503 DSK, laboraatiot (1.5 op), K2005 1 Suorita oheisten ohjeiden mukaiset tehtävät Matlab-ohjelmistoa käyttäen. Kokoa erilliseen

Lisätiedot

Matematiikka ja teknologia, kevät 2011

Matematiikka ja teknologia, kevät 2011 Matematiikka ja teknologia, kevät 2011 Peter Hästö 3. helmikuuta 2011 Matemaattisten tieteiden laitos Sisältö Kurssi koostuu kuudesta (seitsemästä) toisistaan riippumattomasta luennosta. Aihepiirit ovat:

Lisätiedot

Säätötekniikan ja signaalinkäsittelyn työkurssi

Säätötekniikan ja signaalinkäsittelyn työkurssi Säätötekniikan ja signaalinkäsittelyn työkurssi Työ D102: Sinimuotoisen signaalin suodattaminen 0.4 op. Julius Luukko Lappeenrannan teknillinen yliopisto Sähkötekniikan osasto/säätötekniikan laboratorio

Lisätiedot

MATHCAD. Kokeilemalla voi tarkistaa tunnistaako MATHCAD halutun kerrannaisyksikön: Siis ei tunnistanut millinewtonia

MATHCAD. Kokeilemalla voi tarkistaa tunnistaako MATHCAD halutun kerrannaisyksikön: Siis ei tunnistanut millinewtonia YKSIKÖT Valitsemalla Tools/Worksheet Options/Unit System nähdään, että Mcad:ssa on käytettävissä SI,MKS-, CGS-, U.S- yksikkövalikoimat sekä vaihtoehto None, jolloin käytettävät yksiköt voi määritellä itse.

Lisätiedot

Mat Lineaarinen ohjelmointi

Mat Lineaarinen ohjelmointi Mat-2.34 Lineaarinen ohjelmointi..27 Luento 5 Simplexin implementaatioita (kirja 3.2-3.5) Lineaarinen ohjelmointi - Syksy 27 / Luentorunko (/2) Simplexin implementaatiot Naiivi Revised Full tableau Syklisyys

Lisätiedot

3 Suorat ja tasot. 3.1 Suora. Tässä luvussa käsitellään avaruuksien R 2 ja R 3 suoria ja tasoja vektoreiden näkökulmasta.

3 Suorat ja tasot. 3.1 Suora. Tässä luvussa käsitellään avaruuksien R 2 ja R 3 suoria ja tasoja vektoreiden näkökulmasta. 3 Suorat ja tasot Tässä luvussa käsitellään avaruuksien R 2 ja R 3 suoria ja tasoja vektoreiden näkökulmasta. 3.1 Suora Havaitsimme skalaarikertolaskun tulkinnan yhteydessä, että jos on mikä tahansa nollasta

Lisätiedot

Funktioiden approksimointi ja interpolointi

Funktioiden approksimointi ja interpolointi Funktioiden approksimointi ja interpolointi Keijo Ruotsalainen Division of Mathematics interpolaatio-ongelma 8 Eksponenttifunktion exp(x) interpolointi 3.5 Funktion e^{0.25x} \sin(x) interpolointi 7 3

Lisätiedot

L9: Rayleigh testi. Laskuharjoitus

L9: Rayleigh testi. Laskuharjoitus L9: Rayleigh testi Laskuharjoitus Data on tiedoston H7binput.dat 1. sarake: t = t i Ajan hetket ovat t = t 1, t 2,..., t n, missä n n = 528 Laske ja plottaa välillä f min = 1/P max ja f max = 1/P min z(f

Lisätiedot

Harjoitus 6: Simulink - Säätöteoria. Syksy 2006. Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1

Harjoitus 6: Simulink - Säätöteoria. Syksy 2006. Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoitus 6: Simulink - Säätöteoria Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen säätötekniikkaan Takaisinkytkennän

Lisätiedot