ImageRecognition toteutus
|
|
- Albert Saarnio
- 7 vuotta sitten
- Katselukertoja:
Transkriptio
1 ImageRecognition toteutus Simo Korkolainen 27 kesäkuuta 2016 Projektin tarkoituksena on tehdä ohjelma, joka opettaa neuroverkon tunnistamaan kuvia backpropagation-algoritmin avulla Neuroverkon opetuksessa verkon painoja muutetaan liikuttamalla niitä virhefunktion gradientin vastaiseen suuntaan, kunnes virhefunktio on minimoitunut ja neuroverkko on oppinut tunnistamaan kuvat Derivoinnin ketjusääntöön perustuva backpropagation-algoritmi mahdollistaa gradientin nopean laskemisen 1 Neuroverkko Neuroverkko koostuu kerroksista, joissa on neuroneita Olkoon L neuroverkon kerroksien lukumäärä Olkoon l k kerroksen k = 1,, L neuronien lukumäärä Merkitään kerroksen k aktivaatiota vektorina z k R l k Ensimmäisen kerroksen aktivaatio z 1 on neuroverkon syöte ja viimeisen kerroksen aktivaation z L on neuroverkon antama tuloste Jokaisen kerroksen k > 1 aktivaation voidaan ajatella laskettavan parametrisoidun funktion f k : R l k 1 A k R l k avulla Tässä A k on verkon kerroksien k 1 ja k yhteyksien painoina toimivien parametrien joukko Kerroksen aktivaatio lasketaan rekursiivisesti kaavan z k = f(z k 1, a k ) avulla, missä a k A k Parametrit a 1,, a L on tarkoitus oppia backpropagationalgoritmia käyttäen 2 Aineisto ja kokonaisvirhe Olkoon x 1, x 2,, x n R l 1 neuroverkon opetussyötteitä ja y 1, y 2,, y n R l L syötteitä vastaavia tavoitetuloksia Olkoon E : R l L R l L R virhefunktio Merkitään syötteen x j aiheuttamaa aktivaatiota kerroksessa k merkinnällä z j k, jolloin syötekerroksessa pätee zj 1 = x j Määritellään neuroverkon kokonaisvirhe kaavalla n E tot = E(z j L, y j) j=1 Backprobagation-algoritmin tarkoituksena on valita parametrien a 1,, a L arvot siten, että kokonaisvirhe E tot minimoituu 1
2 Jos neuroverkkoa käytetään syötteiden luokittelemiseen erillisiin luokkiin 1,, S = l L, viimeisen kerroksen z L = (z L1,, z LS ) aktivaation z Lm tulkitaan tarkoittavan todennäköisyyttä, että syöte x j kuuluu luokkaan m Halutuksi tulokseksi valitaan y jm = 1, kun x j kuuluu luokkaan m ja y jm = 0 muulloin Luokittelun tapauksessa on luontevaa käyttää viimeisessä kerroksessa softmax-funktiota f L : R S A L (0, 1) S, missä f Lm (z L 1 ) = ll 1 e i=1 a mi z (L 1)i Sk=1 e l L 1 i=1 a ki z (L 1)i Softmax-funktion kuva-alkion komponenttien summa on yksi Luokittelussa virhefunktiona käytettään yleensä logloss-virhettä Tässä tapauksessa virhefunktio määritellään kaikilla s {0, 1} S ja t (0, 1) S kaavalla S E(s, t) = s m log(t m ) m=1 3 Derivaatta ja ketjusääntö Tässä kappaleessä käytetään yleisiä differentiaalilaskennan merkintöjä aiemmista merkinnöistä huolimatta Olkoon funktio f = (f 1,, f n ) : R m R n derivoituva Derivaatalla pisteessä x 0 R m tarkoitetaan matriisia missä osittaisderivaatat f i(x 0 ) x j f 1 (x 0 ) f x f 1 1 (x 0 ) x m (x 0 ) =, f n(x 0 ) x 1 f n(x 0 ) x m on määritelty kaavalla f i (x 0 ) x j f i (x 0 + he j ) f i (x 0 ) = lim h 0 h 2
3 Olkoon lisäksi funktion g : R n R p derivoituva Tällöin yhdistetty kuvaus g f : R m R p on myös derivoituva ja yhdistetyn kuvauksen derivaatan pisteessä x 0 on mahdollista laskea kaavalla (g f) (x 0 ) = g (f(x 0 ))g (x 0 ) 4 Backpropagation-algoritmi Backpropagation algoritmi perustuu edellä mainittuun differentiaalilaskennan ketjusääntöön Merkitään +1 = z (i+1)1 z (i+1)1 li 1 z (i+1)li+1 1 = a i 1 li+1, ja z (i+1)li+1 li [ ] tot tot = z 1 tot li i Ketjusäännön perusteella eri kerrosten aktivaatioiden virhegradientti voidaan laskea rekursiivisesti tot = tot Eli, jos tiedämme ylemmän kerroksen virhegradientin tot +1 arvon, voimme laskea alemman kerroksen virhegradientin kertomalla gradienttia tot +1 oikealta matriisilla +1 Parametrien virhegradientti voidaan laskea vastaavasti käyttäen aktivaatioiden virhegradienttia tot = tot Seuraavaksi on esitettynä pseudokoodi backpropagation-algoritmille, 3
4 Algorithm 1 Backpropagation-algoritmi 1: procedure Backpropagation(x, y, α) 2: 3: for j = 1,, n do 4: 5: Forward propagation(x j ) 6: Backward propagation(y j, α) 7: 8: end for 9: 10: end procedure 11: 12: procedure Forward propagation(x) 13: 14: Aseta syöte z 1 = x 15: for jokaiselle kerrokselle k = 2,, L do 16: Laske aktivaatio z k := f k (z k 1, a k ) 17: end for 18: 19: end procedure 20: 21: procedure Backward propagation(y, α) 22: 23: Laske virhegradientti z L arvojen y ja z L avulla 24: for jokaiselle kerrokselle k = L 1,, 2 do 25: 26: Laske ensiksi z k+1 z k arvon z k avulla 27: Laske toiseksi z k := z k+1 z k+1 z k 28: Laske kolmanneksi tot 29: := tot 30: Päivitä painot a i := a i α tot 31: 32: end for 33: 34: end procedure 4
5 5 Aikavaativuus Tarkastellaan seuraavaksi Backpropagation-algoritmin aikavaativuutta Neuroverkoon liittyvät aikavaativuudet riippuvat paljon neuroverkon rakenteesta Tarkastellaan ensiksi eteenpäinvirtauksen, eli neuroverkon aktivaatioden laskemisen aikavaativuutta Ohjelmassa käytetään vain eteenpäin kytkettyjä neuroverkkoja Neuroneiden aktivaatio z k kerroksessa k lasketaan täsmälleen edellisen kerroksen aktivaatioiden perusteella eli z k = f(z k 1, a k ) missä f on aktivaatiofunktio Kuten aikasemmin olkoon L neuroverkon kerroksien lukumäärä ja olkoon l k kerroksen k = 1,, L neuronien lukumäärä Jos jokainen kerroksen k neuroni on kytketty kaikkiin edellisen kerroksen solmuihin ja neuronipariin liittyvän laskennan aikavaativuus on luokkaa O(1), yhden kerroksen k neuronin aktivaation laskemisen aikavaativuus on luokkaa O(l k 1 ) Koska kerroksessa k on l k neuronia, koko kerrokseen liittyvän laskennan aikavaativuus on O(l k 1 l k ) Ensimmäisen kerroksen eli syötekerroksen aktivaatioden asettamisen aikavaativuus on O(l 1 ) Koko neuroverkon aktivaatioden laskennan aikavaativuus T act on kerrosten aikavaativuuksien summa eli T act = O(l 1 + l k 1 l k ) Edellisen summan ymmärtämiseksi tarkastellaan erikoistapausta, jossa kerrosten neuronien lukumäärä pienee eksponentiaalisesti eli l k = α k 1 l 1, missä 0 < α < 1 Tällöin l 1 + l k 1 l k = l 1 + α k 2 l 1 α k 1 l 0 = l 1 + l1 2 α 2k 3 L 2 = l 1 + l1α 2 (α 2 ) k Saamme, että T act = O(l1 2 α ), koska l 1 + l 2 1α k=0 k=0 = l 1 + l1 2 α 1 α α 2 (α 2 ) k on positiivinen vakio
6 Vaikka takaisinvirtaus vaikuttaa vaikeammalta, soittautuu, että takaisinvirtausvaiheen laskenta on yhtä haastastavaa kuin eteenpäinvirtauksen laskenta Ohjelmassa jokaiseen kerroksen k neuroniin m liittyy painovektori a km ja yksittäisen neuronin aktivaatio lasketaan tyypillisesti kaavan z km = f km (a T kmz (k 1)m ) avulla Tässä kuvaus f km : R R on neuronin aktivaatiofunktio, joka on derivoituva Osittaisderivaatta km z z voidaan laskea ketjusääntöä käyttäen (k 1)m seuraavan kaavan avulla z (k 1)j = a kmj f km(a T kmz (k 1)m ) Pistetulon a T km z (k 1)m laskemisen aikavaativuus on O(l k 1 ), koska kerroksessa k 1 on l k 1 neuronia Nyt voisi ajatella, että vaakavektorin z [ km zkm = z z (k 1)1 (k 1) ] z (k 1)lk 1 laskennan aikavaativuus olisi O(l 2 k 1 ), koska O(l k 1) operaatiota toistetaan l k 1 kertaa Kuitenkin huomaamme, ettei skalaaria f km (at km z (k 1)m) tarvitse laskea useita kertoja Tätä ajatusta jalostaen pätee kaava z (k 1) = f km(a T kmz (k 1)m )a T km, z k z k 1 z (k 1) jossa vektorin ja skalaarin kertolaskun aikavaativuus on O(l k 1 ) Yhteensä vektorin laskemisen aikavaativuus on O(l k 1 +l k 1 ) = O(l k 1 ) Matriisin R l k 1 l k laskemiseen kuluu kaikkien rivien laskemiseen tarvittavien aikojen summa, joten aikavaativuus on O(l k 1 l k ) Kaikkien kerrosten matriisien laskemisen aikavaatimus on z k z k 1 Kerroksen virhegradientin O( l k 1 l k ) z k 1 on mahdollista laskea kaavalla = z k z k 1 z k z k 1 Tällöin lasketaan 1 l k 1 -vektorin ja l k 1 l k -matriisin tulo, jonka aikavaativuus on O(l k 1 l k ) Viimeisen kerroksen virhegradientti z L pitää laskea 6
7 erikseen Laskennan aikavaativuus on O(l L ), koska virhegradienttin laskeminen vie vakioajan jokaista vektorin z L komponenttia kohden Vastaavasti kaikkien kerroksien virhegradienttien z L laskemisen aikavaativuus on O(l L + l k 1 l k ) = O( l k 1 l k ) Virhegradientin parametrivektorin a km suhteen pystyy laskemaan kaavalla a km = a km = f km(a T kmz (k 1)m )z T (k 1) a km Tämän laskennan aikavaatimukseksi tulee O(l k 1 ) Kaikkien gradienttien laskennan aikavaativuus kerroksessa k on O(l k 1 l k ) Koko neuroverkoon littyvien gradienttien a km O( laskennan aikavaativuus on l k 1 l k ) Edellisten päättelyiden perusteella koko takaisinvirtauksen aikavaativuus on O(3 l k 1 l k ) = O( l k 1 l k ) Kokonaisuudessaan yhden backpropagation-algoritmin iteraation aikavaativuus on myös O( L l k 1 l k ) Kun iteraatiota on K kappaletta ja kuvia on n kappaletta, aikavaativuus on yhteensä O(nK L l k 1 l k ) Algoritmin aikavaativuutta on vaikeaa parantaa lisäämällä tilavaativuutta, koska aikavaativuus aiheutuu neuroverkon rakenteesta Tilavaativuutta lisäämällä on kuitenkin mahdollista vaikuttaa aikavaativuuden vakiokertoimeen Tämä tapahtuu tallentamalla laskennan välitulokset taulukkoihin sen sijaan, että samat laskut suoritettaisiin aina uudelleen 6 Ohjelman toimivuus ja syötteiden vaikutus Jos opetusdatassa on vähän kuvia ohjelma oppii tunnistamaan opetusdatan kuvat täydellisesti Neuroverkkojen teorian perusteella neuroverkon on mahdollista saada vastaamaan mitä tahansa hyvin käyttäytyvä funktiota, kunhan neuroneja ja kerroksia on tarpeeksi Hyvästä opetusdatan oppimistuloksesta huolimatta ohjelma ei opi tunnistamaan testidatan kuvia kovinkaan hyvin 7
8 e x 0 e x +e x 1 0 Jos opetusdatan kuvien määrä on suuri, opetukseen kuluu paljon aikaa Oppimistulos opetusdatassa ei ole niin hyvä kuin siinä tapauksessa, että neuroverkko pääsee ylisovittamaan painonsa pieneen määrään opetuskuvia Testidatan kuvia ohjelma luokittelee paremmin kuin silloin kuin opetusdatassa oli vähän kuvia Jos oppimisnopeutta säätelevä parametri (learning rate) valitaan väärin tulokset eivät ole kovinkaan hyviä, koska painot eivät muutu alkuperäisistä satunnaisista painoista Jos learning rate on liian suuri painot rupeavat värähtelemään voimakkaasti Esimerkiksi painot voivat tässä tilanteessa saada arvoja 0, 10, 100, 1000, 10000, Pahimmassa tapauksessa painot muuttuvat NaN arvoisiksi, koska e x pyöristyy nollaksi, kun x on suuri Tällöin ohjelmassa yritetään laskea jakolaskun tapainen lasku, mikä ei ole määritelty Ohjelma ei kaadu vaikka painot muuttusivat NaN arvoisiksi, mutta neuroverkko pitää alustaa uudelleen, jos haluaa käyttää kaikkea ohjelman toiminnallisuutta 7 Parannusehdotuksia Yksi tapa parantaa ohjelman toimintaa olisi datan esikäsittely pääkomponenttianalyysin avulla Pääkomponenttianalyysin avulla kuvista olisi saanut valmiiksi hyviä piirteitä, jotka olisivat helpottaneet neuroverkon oppimisprosessia Pääkomponenttianalyysin toteuttaminen on sen verran haastavaa, että siitä olisi voinut tehdä oman kurssityön Toinen tapa parantaa ohjelman toimintaa olisi ollut konvoluutioden lisääminen neuroverkkoon Konvoluutiot ovat hyödyllisiä kuvantunnistuksessa, koska kuvan kaikki pikselit käyttäytyvät melko samalla tavalla riippumatta pikselin sijainnista kuvasta Jos jostakin kohtaa kuvaa opitaan hyvä piirre, kuten reuna, tästä piirteestä olisi mahdollisesti hyötyä myös muualla Konvoluutiot eivät nykyisyydellään sovellu ohjelman rakenteeseen ilman merkittävää laskennallista haittaa, joka vältettäisiin erilaisella ohjelman rakenteella Ohjelmakoodissa on oletettu, että neuroverkon kerrokset ovat kokonaan kytkettyjä edelliseen kerrokseen Lisäksi on oletettu, että painot liittyvät vain yhteen neuroniin Nämä oletukset yksinkertaistavat differentiaalilaskennan matematiikkaa Konvoluutiot lisättäessä molemmat oletukset jouduttaisiin hylkäämään, minkä seurauksena suuri osa ohjelmakoodia pitäisi kirjoittaa ja testata kokonaan uudelleen 8
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3. luento 17.11.2017 Neuroverkon opettaminen (ohjattu oppiminen) Neuroverkkoa opetetaan syöte-tavoite-pareilla
LisätiedotJohdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 4. luento 24.11.2017 Neuroverkon opettaminen - gradienttimenetelmä Neuroverkkoa opetetaan syöte-tavoite-pareilla
LisätiedotJohdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 2. luento 10.11.2017 Keinotekoiset neuroverkot Neuroverkko koostuu syöte- ja ulostulokerroksesta
LisätiedotMS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
LisätiedotA ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä.
Esimerkki otteluvoiton todennäköisyys A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Yksittäisessä pelissä A voittaa todennäköisyydellä p ja B todennäköisyydellä q =
LisätiedotNeuroverkkojen soveltaminen vakuutusdatojen luokitteluun
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään
LisätiedotJohdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn
Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekniikkaan ITKA352) Informaatioteknologian tiedekunta Jyväskylän yliopisto 23.3.2018 Tekoälyn historiaa 6 1 Introduction Kuva Fig. lähteestä 1.3
LisätiedotJohdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 5. luento.2.27 Lineaarialgebraa - Miksi? Neuroverkon parametreihin liittyvät kaavat annetaan monesti
LisätiedotMS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 8: Newtonin iteraatio. Taso- ja avaruusintegraalit
MS-A25/MS-A26 ifferentiaali- ja integraalilaskenta 2 Luento 8: Newtonin iteraatio. Taso- ja avaruusintegraalit Jarmo Malinen Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto Kevät 216 1 Perustuu
LisätiedotAntti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. Antti Rasila Matematiikan ja systeemianalyysin laitos
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 9 1 Implisiittinen derivointi Tarkastellaan nyt yhtälöä F(x, y) = c, jossa x ja y ovat muuttujia ja c on vakio Esimerkki tällaisesta yhtälöstä on x 2 y 5 + 5xy = 14
LisätiedotMS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Jarmo Malinen Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto Kevät 2016 1 Perustuu
LisätiedotYhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
LisätiedotNumeeriset menetelmät
Numeeriset menetelmät Luento 3 Ti 13.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 3 Ti 13.9.2011 p. 1/37 p. 1/37 Epälineaariset yhtälöt Newtonin menetelmä: x n+1 = x n f(x n) f (x n ) Sekanttimenetelmä:
LisätiedotNumeeriset menetelmät
Numeeriset menetelmät Luento 2 To 8.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 2 To 8.9.2011 p. 1/33 p. 1/33 Lukujen tallennus Kiintoluvut (integer) tarkka esitys aritmeettiset operaatiot
LisätiedotTehtävä 1. Näytä, että tason avoimessa yksikköpallossa
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 2018 Harjoitus 2 Ratkaisuehdotukset Tehtävä 1. Näytä, että tason avoimessa yksikköpallossa määritelty kuvaus B(0, 1) := x R 2 : x
LisätiedotMS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila
LisätiedotYhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =
LisätiedotMS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio.
MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. Riikka Korte Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto
LisätiedotKognitiivinen mallintaminen Neuraalimallinnus, luento 1
Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Nelli Salminen nelli.salminen@helsinki.fi D433 Neuraalimallinnuksen osuus neljä luentokertaa, muutokset alla olevaan suunnitelmaan todennäköisiä
Lisätiedot58131 Tietorakenteet ja algoritmit (syksy 2015)
58131 Tietorakenteet ja algoritmit (syksy 2015) Harjoitus 2 (14. 18.9.2015) Huom. Sinun on tehtävä vähintään kaksi tehtävää, jotta voit jatkaa kurssilla. 1. Erään algoritmin suoritus vie 1 ms, kun syötteen
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kertausluento 2. välikokeeseen Toisessa välikokeessa on syytä osata ainakin seuraavat asiat:. Potenssisarjojen suppenemissäde, suppenemisväli ja suppenemisjoukko. 2. Derivaatan
Lisätiedot3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä
1 3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a
LisätiedotAlgoritmi on periaatteellisella tasolla seuraava:
Algoritmi on periaatteellisella tasolla seuraava: Dijkstra(V, E, l, v 0 ): S := { v 0 } D[v 0 ] := 0 for v V S do D[v] := l(v 0, v) end for while S V do valitse v V S jolle D[v] on minimaalinen S := S
LisätiedotMS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 3: Osittaisderivaatta
MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 3: Osittaisderivaatta Jarmo Malinen Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto Kevät 2016 1 Perustuu Antti Rasilan luentomonisteeseen
LisätiedotTEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)
JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.
LisätiedotMS-A0003/A0005 Matriisilaskenta Laskuharjoitus 1 / vko 44
MS-A0003/A0005 Matriisilaskenta Laskuharjoitus / vko Tehtävä (L): Käynnistä Matlab-ohjelma ja kokeile laskea sillä muutama peruslaskutoimitus: laske jokin yhteen-, vähennys-, kerto- ja jakolasku. Laske
LisätiedotNumeeriset menetelmät
Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 4 Jatkuvuus Jatkuvan funktion määritelmä Tarkastellaan funktiota f x) jossakin tietyssä pisteessä x 0. Tämä funktio on tässä pisteessä joko jatkuva tai epäjatkuva. Jatkuvuuden
LisätiedotDiplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2017 Insinöörivalinnan matematiikan koe , Ratkaisut (Sarja A)
Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 017 Insinöörivalinnan matematiikan koe 30..017, Ratkaisut (Sarja A) 1. a) Lukujen 9, 0, 3 ja x keskiarvo on. Määritä x. (1 p.) b) Mitkä reaaliluvut
LisätiedotMATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ
MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ 4.9.09 HYVÄN VASTAUKSEN PIIRTEITÄ Alustavat hyvän vastauksen piirteet on suuntaa-antava kuvaus kokeen tehtäviin odotetuista vastauksista ja tarkoitettu ensisijaisesti
LisätiedotTässä dokumentissa on ensimmäisten harjoitusten malliratkaisut MATLABskripteinä. Voit kokeilla itse niiden ajamista ja toimintaa MATLABissa.
Laskuharjoitus 1A Mallit Tässä dokumentissa on ensimmäisten harjoitusten malliratkaisut MATLABskripteinä. Voit kokeilla itse niiden ajamista ja toimintaa MATLABissa. 1. tehtävä %% 1. % (i) % Vektorit luodaan
Lisätiedotf(n) = Ω(g(n)) jos ja vain jos g(n) = O(f(n))
Määritelmä: on O(g(n)), jos on olemassa vakioarvot n 0 > 0 ja c > 0 siten, että c g(n) kun n > n 0 O eli iso-o tai ordo ilmaisee asymptoottisen ylärajan resurssivaatimusten kasvun suuruusluokalle Samankaltaisia
Lisätiedot1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
LisätiedotMS-A0003/A0005 Matriisilaskenta Malliratkaisut 5 / vko 48
MS-A3/A5 Matriisilaskenta Malliratkaisut 5 / vko 48 Tehtävä (L): a) Onko 4 3 sitä vastaava ominaisarvo? b) Onko λ = 3 matriisin matriisin 2 2 3 2 3 7 9 4 5 2 4 4 ominaisvektori? Jos on, mikä on ominaisarvo?
LisätiedotRatkaisu: Ensimmäinen suunta. Olkoon f : R n R m jatkuva eli kaikilla ε > 0 on olemassa sellainen δ > 0, että. kun x a < δ. Nyt kaikilla j = 1,...
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 2017 Harjoitus 1 Ratkaisuehdotukset 11 Osoita, että vektorifunktio f = (f 1,, f m ): R n R m, on jatkuva, jos ja vain jos jokainen komponenttifunktio
LisätiedotMS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
LisätiedotVapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.
Vapaus Määritelmä Oletetaan, että v 1, v 2,..., v k R n, missä n {1, 2,... }. Vektorijono ( v 1, v 2,..., v k ) on vapaa eli lineaarisesti riippumaton, jos seuraava ehto pätee: jos c 1 v 1 + c 2 v 2 +
LisätiedotAlgoritmit 1. Luento 2 Ke Timo Männikkö
Algoritmit 1 Luento 2 Ke 11.1.2017 Timo Männikkö Luento 2 Algoritmin esitys Algoritmien analysointi Suoritusaika Asymptoottinen kertaluokka Peruskertaluokkia NP-täydelliset ongelmat Algoritmit 1 Kevät
LisätiedotYhteenlaskun ja skalaarilla kertomisen ominaisuuksia
Yhteenlaskun ja skalaarilla kertomisen ominaisuuksia Voidaan osoittaa, että avaruuden R n vektoreilla voidaan laskea tuttujen laskusääntöjen mukaan. Huom. Lause tarkoittaa väitettä, joka voidaan perustella
Lisätiedot3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä
3 Lineaariset yhtälöryhmät ja Gaussin eliminointimenetelmä Lineaarinen m:n yhtälön yhtälöryhmä, jossa on n tuntematonta x 1,, x n on joukko yhtälöitä, jotka ovat muotoa a 11 x 1 + + a 1n x n = b 1 a 21
LisätiedotH7 Malliratkaisut - Tehtävä 1
H7 Malliratkaisut - Tehtävä Eelis Mielonen 7. lokakuuta 07 a) Palautellaan muistiin Maclaurin sarjan määritelmä (Taylorin sarja origon ympäristössä): f n (0) f(x) = (x) n Nyt jos f(x) = ln( + x) saadaan
LisätiedotJOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
Lisätiedoty x1 σ t 1 = c y x 1 σ t 1 = y x 2 σ t 2 y x 2 x 1 y = σ(t 2 t 1 ) x 2 x 1 y t 2 t 1
1. Tarkastellaan funktiota missä σ C ja y (y 1,..., y n ) R n. u : R n R C, u(x, t) e i(y x σt), (a) Miksi funktiota u(x, t) voidaan kutsua tasoaalloksi, jonka aaltorintama on kohtisuorassa vektorin y
LisätiedotMatematiikka B1 - avoin yliopisto
28. elokuuta 2012 Opetusjärjestelyt Luennot 9:15-11:30 Harjoitukset 12:30-15:00 Tentti Nettitehtävät Kurssin sisältö 1/2 Osittaisderivointi Usean muuttujan funktiot Raja-arvot Osittaisderivaatta Pinnan
LisätiedotSivu 1 / 8. A31C00100 Mikrotaloustieteen perusteet: matematiikan tukimoniste. Olli Kauppi
Sivu 1 / 8 A31C00100 Mikrotaloustieteen perusteet: matematiikan tukimoniste Olli Kauppi Monisteen ensimmäinen luku käsittelee derivointia hieman yleisemmästä näkökulmasta. Monisteen lopussa on kurssilla
LisätiedotLuento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään
LisätiedotJOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
LisätiedotKognitiivinen mallintaminen. Nelli Salminen
Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen
Lisätiedot1.4 Funktioiden kertaluokat
1.4 Funktioiden kertaluokat f on kertaluokkaa O(g), merk. f = O(g), jos joillain c > 0, m N pätee f(n) cg(n) aina kun n m f on samaa kertaluokkaa kuin g, merk. f = Θ(g), jos joillain a, b > 0, m N pätee
Lisätiedot58131 Tietorakenteet Erilliskoe , ratkaisuja (Jyrki Kivinen)
58131 Tietorakenteet Erilliskoe 11.11.2008, ratkaisuja (Jyrki Kivinen) 1. (a) Koska halutaan DELETEMAX mahdollisimman nopeaksi, käytetään järjestettyä linkitettyä listaa, jossa suurin alkio on listan kärjessä.
LisätiedotVEKTORIANALYYSIN HARJOITUKSET: VIIKKO 4
VEKTORIANALYYSIN HARJOITUKSET: VIIKKO 4 Jokaisen tehtävän jälkeen on pieni kommentti tehtävään liittyen Nämä eivät sisällä mitään kovin kriittistä tietoa tehtävään liittyen, joten niistä ei tarvitse välittää
Lisätiedotf(x) f(y) x y f f(x) f(y) (x) = lim
Y1 (Matematiikka I) Haastavampia lisätehtäviä Syksy 1 1. Funktio h määritellään seuraavasti. Kuvan astiaan lasketaan vettä tasaisella nopeudella 1 l/min. Astia on muodoltaan katkaistu suora ympyräkartio,
Lisätiedot110. 111. 112. 113. 114. 4. Matriisit ja vektorit. 4.1. Matriisin käsite. 4.2. Matriisialgebra. Olkoon A = , B = Laske A + B, 5 14 9, 1 3 3
4 Matriisit ja vektorit 4 Matriisin käsite 42 Matriisialgebra 0 2 2 0, B = 2 2 4 6 2 Laske A + B, 2 A + B, AB ja BA A + B = 2 4 6 5, 2 A + B = 5 9 6 5 4 9, 4 7 6 AB = 0 0 0 6 0 0 0, B 22 2 2 0 0 0 6 5
Lisätiedot1 Rajoittamaton optimointi
Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y
Lisätiedotr > y x z x = z y + y x z y + y x = r y x + y x = r
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 018 Harjoitus Ratkaisuehdotukset Tehtävä 1. Osoita, että avoin kuula on avoin joukko ja suljettu kuula on suljettu joukko. Ratkaisu.
LisätiedotNopea kertolasku, Karatsuban algoritmi
Nopea kertolasku, Karatsuban algoritmi Mikko Männikkö 16.8.2004 Lähde: ((Gathen and Gerhard 1999) luku II.8) Esityksen kulku Algoritmien analysointia (1), (2), (3), (4) Klassinen kertolasku Parempi tapa
LisätiedotFunktioiden approksimointi ja interpolointi
Funktioiden approksimointi ja interpolointi Keijo Ruotsalainen Division of Mathematics interpolaatio-ongelma 8 Eksponenttifunktion exp(x) interpolointi 3.5 Funktion e^{0.25x} \sin(x) interpolointi 7 3
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 7 Differentiaalikehitelmä Funktion f erivaatta pisteessä x 0 eli f (x 0 ) on erotusosamäärän rajaarvo: f (x) f (x 0 ). x x 0 x x 0 Tämä voiaan esittää hieman eri muoossa
LisätiedotKonjugaattigradienttimenetelmä
Konjugaattigradienttimenetelmä Keijo Ruotsalainen Division of Mathematics Konjugaattigradienttimenetelmä Oletukset Matriisi A on symmetrinen: A T = A Positiivisesti definiitti: x T Ax > 0 kaikille x 0
LisätiedotYhdistetty funktio. Älä sekoita arvo- eli kuvajoukkoa maalijoukkoon! (wikipedian ongelma!)
Yhdistetty unktio TRIGONOMETRISET FUNKTIOT, MAA7 Määritelmä, yhdistetty unktio: Funktioiden ja g yhdistetty unktio g (luetaan g pallo ) määritellään yhtälöllä g g. Funktio g on ns. ulkounktio ja sisäunktio.
LisätiedotJOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
LisätiedotMatematiikan tukikurssi, kurssikerta 3
Matematiikan tukikurssi, kurssikerta 3 1 Epäyhtälöitä Aivan aluksi lienee syytä esittää luvun itseisarvon määritelmä: { x kun x 0 x = x kun x < 0 Siispä esimerkiksi 10 = 10 ja 10 = 10. Seuraavaksi listaus
Lisätiedot1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
LisätiedotTällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö
Tällä kerralla ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 19.2. Nelli Salminen nelli.salminen@helsinki.fi D433 vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko
LisätiedotTenttiin valmentavia harjoituksia
Tenttiin valmentavia harjoituksia Alla olevissa harjoituksissa suluissa oleva sivunumero viittaa Juha Partasen kurssimonisteen siihen sivuun, jolta löytyy apua tehtävän ratkaisuun. Funktiot Harjoitus.
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 7 1 Useamman muuttujan funktion raja-arvo Palautetaan aluksi mieliin yhden muuttujan funktion g(x) raja-arvo g(x). x a Tämä raja-arvo kertoo, mitä arvoa funktio g(x)
LisätiedotDiskreetin matematiikan perusteet Laskuharjoitus 2 / vko 9
Diskreetin matematiikan perusteet Laskuharjoitus 2 / vko 9 Tuntitehtävät 9-10 lasketaan alkuviikon harjoituksissa ja tuntitehtävät 13-14 loppuviikon harjoituksissa. Kotitehtävät 11-12 tarkastetaan loppuviikon
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 10 1 Lokaalit ääriarvot Yhden muuttujan funktion f (x) lokaali maksimi on piste x 0, jossa f (x) on suurempi kuin muualle pisteen x 0 ympäristössä, eli kun f (x 0 )
LisätiedotTKT20001 Tietorakenteet ja algoritmit Erilliskoe , malliratkaisut (Jyrki Kivinen)
TKT0001 Tietorakenteet ja algoritmit Erilliskoe 5.1.01, malliratkaisut (Jyrki Kivinen) 1. [1 pistettä] (a) Esitä algoritmi, joka poistaa kahteen suuntaan linkitetystä järjestämättömästä tunnussolmullisesta
LisätiedotMS-C1340 Lineaarialgebra ja differentiaaliyhtälöt
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Differentiaaliyhtälöt, osa 1 Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 20 R. Kangaslampi Matriisihajotelmista
LisätiedotLuku 8. Aluekyselyt. 8.1 Summataulukko
Luku 8 Aluekyselyt Aluekysely on tiettyä taulukon väliä koskeva kysely. Tyypillisiä aluekyselyitä ovat, mikä on taulukon välin lukujen summa tai pienin luku välillä. Esimerkiksi seuraavassa taulukossa
LisätiedotDerivaatta: funktion approksimaatio lineaarikuvauksella.
Viikko 5 Tällä viikolla yleistetään R 2 :n ja R 3 :n vektorialgebran peruskäsitteet n-ulotteiseen avaruuteen R n, ja määritellään lineaarikuvaus. Tarkastellaan funktioita, joiden määrittelyjoukko on n-ulotteisen
LisätiedotDuaalisuus kokonaislukuoptimoinnissa. Mat , Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki
Duaalisuus kokonaislukuoptimoinnissa Mat-2.4191, Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki Sisältö Duaalisuus binäärisissä optimointitehtävissä Lagrangen duaalisuus Lagrangen
Lisätiedot1. TILASTOLLINEN HAHMONTUNNISTUS
1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,
LisätiedotViikon aiheet. Funktion lineaarinen approksimointi
Viikon aiheet Funktion ääriarvot Funktion lineaarinen approksimointi Vektorit, merkintätavat, pituus, yksikkövektori, skalaarilla kertominen, kanta ja kannan vaihto Funktion ääriarvot 6 Väliarvolause Implisiittinen
LisätiedotMS-C1340 Lineaarialgebra ja differentiaaliyhtälöt
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Vektoriavaruudet Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2015 1 / 17 R. Kangaslampi Vektoriavaruudet Vektoriavaruus
LisätiedotAalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos
Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Vesanen MS-A0205/6 Differentiaali- ja integraalilaskenta 2, kevät 2017 Laskuharjoitus 4A (Vastaukset) alkuviikolla
LisätiedotMATEMATIIKAN KOE PITKÄ OPPIMÄÄRÄ
1 YLIOPPILASTUTKINTO- LAUTAKUNTA 25.9.2017 MATEMATIIKAN KOE PITKÄ OPPIMÄÄRÄ A-osa Ratkaise kaikki tämän osan tehtävät 1 4. Tehtävät arvostellaan pistein 0 6. Kunkin tehtävän ratkaisu kirjoitetaan tehtävän
LisätiedotMS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi
MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi Antti Rasila Aalto-yliopisto Syksy 2015 Antti Rasila (Aalto-yliopisto) MS-A0202 Syksy 2015 1
LisätiedotHY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.
HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 8 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I. Mitkä seuraavista funktioista F, F, F ja F 4 ovat kertymäfunktioita? Mitkä
Lisätiedot2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio. 2.2 Gaussin eliminaatio
x = x 2 = 5/2 x 3 = 2 eli Ratkaisu on siis x = (x x 2 x 3 ) = ( 5/2 2) (Tarkista sijoittamalla!) 5/2 2 Tämä piste on alkuperäisten tasojen ainoa leikkauspiste Se on myös piste/vektori jonka matriisi A
LisätiedotMatemaattisen analyysin tukikurssi
Matemaattisen analyysin tukikurssi 5. Kurssikerta Petrus Mikkola 10.10.2016 Tämän kerran asiat Raja-arvo ja toispuolinen raja-arvo Funktion suurin ja pienin arvo Lukujono Lukujonon suppeneminen Kasvava
LisätiedotJohdatus reaalifunktioihin P, 5op
Johdatus reaalifunktioihin 802161P, 5op Osa 2 Pekka Salmi 1. lokakuuta 2015 Pekka Salmi FUNK 1. lokakuuta 2015 1 / 55 Jatkuvuus ja raja-arvo Tavoitteet: ymmärtää raja-arvon ja jatkuvuuden määritelmät intuitiivisesti
LisätiedotHarjoitus 3 (3.4.2014)
Harjoitus 3 (3..) Tehtävä Olkoon kaaren paino c ij suurin sallittu korkeus tieosuudella (i, j). Etsitään reitti solmusta s solmuun t siten, että reitin suurin sallittu korkeus pienimmillään olisi mahdollisimman
LisätiedotMS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Tentti ja välikokeiden uusinta
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Tentti ja välikokeiden uusinta 8..206 Gripenberg, Nieminen, Ojanen, Tiilikainen, Weckman Kirjoita jokaiseen koepaperiin nimesi, opiskelijanumerosi
LisätiedotMatriisilaskenta Laskuharjoitus 1 - Ratkaisut / vko 37
Matriisilaskenta Laskuharjoitus 1 - Ratkaisut / vko 37 Tehtävä 1: Käynnistä Matlab-ohjelma ja kokeile laskea sillä muutama peruslaskutoimitus: laske jokin yhteen-, vähennys-, kerto- ja jakolasku. Laske
LisätiedotOppimistavoitematriisi
Oppimistavoitematriisi Lineaarialgebra ja matriisilaskenta I Arvosanaan 1 2 riittävät Arvosanaan 5 riittävät Yhtälöryhmät (YR) Osaan ratkaista ensimmäisen asteen yhtälöitä ja yhtälöpareja Osaan muokata
Lisätiedotf(x 1, x 2 ) = x x 1 k 1 k 2 k 1, k 2 x 2 1, 0 1 f(1, 1)h 1 = h = h 2 1, 1 12 f(1, 1)h 1 h 2
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 7 Harjoitus 6 Ratkaisuehdotukset 6.. Olkoon f : G R, G = {(x, x ) R x > }, f(x, x ) = x x. Etsi differentiaalit d k f(, ), k =,,. Ratkaisu:
LisätiedotLuento 9: Yhtälörajoitukset optimoinnissa
Luento 9: Yhtälörajoitukset optimoinnissa Lagrangen kerroin Oletetaan aluksi, että f, g : R R. Merkitään (x 1, x ) := (x, y) ja johdetaan Lagrangen kerroin λ tehtävälle min f(x, y) s.t. g(x, y) = 0 Olkoon
LisätiedotMat. tukikurssi 27.3.
Mat. tukikurssi 7.. Tänään oli paljon vaikeita aiheita: - suunnattu derivaatta - kokonaisdierentiaali - dierentiaalikehitelmä - implisiittinen derivointi Nämä kaikki liittvät aika läheisesti toisiinsa.
LisätiedotKuvaus. Määritelmä. LM2, Kesä /160
Kuvaus Määritelmä Oletetaan, että X ja Y ovat joukkoja. Kuvaus eli funktio joukosta X joukkoon Y on sääntö, joka liittää jokaiseen joukon X alkioon täsmälleen yhden alkion, joka kuuluu joukkoon Y. Merkintä
LisätiedotMatriisilaskenta Laskuharjoitus 5 - Ratkaisut / vko 41
MS-A0004/MS-A0006 Matriisilaskenta, I/06 Matriisilaskenta Laskuharjoitus 5 - Ratkaisut / vko 4 Tehtävä 5 (L): a) Oletetaan, että λ 0 on kääntyvän matriisin A ominaisarvo. Osoita, että /λ on matriisin A
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 8 1 Suunnattu derivaatta Aluksi tarkastelemme vektoreita, koska ymmärrys vektoreista helpottaa alla olevien asioiden omaksumista. Kun liikutaan tasossa eli avaruudessa
Lisätiedot(0 desimaalia, 2 merkitsevää numeroa).
NUMEERISET MENETELMÄT DEMOVASTAUKSET SYKSY 20.. (a) Absoluuttinen virhe: ε x x ˆx /7 0.4 /7 4/00 /700 0.004286. Suhteellinen virhe: ρ x x ˆx x /700 /7 /00 0.00 0.%. (b) Kahden desimaalin tarkkuus x ˆx
Lisätiedot0 kun x < 0, 1/3 kun 0 x < 1/4, 7/11 kun 1/4 x < 6/7, 1 kun x 1, 1 kun x 6/7,
HY / Matematiikan ja tilastotieteen laitos Todennäköisyyslaskenta II, syksy 07 Harjoitus Ratkaisuehdotuksia Tehtäväsarja I. Mitkä seuraavista funktioista F, F, F ja F 4 ovat kertymäfunktioita? Mitkä niistä
LisätiedotNumeerinen analyysi Harjoitus 3 / Kevät 2017
Numeerinen analyysi Harjoitus 3 / Kevät 2017 Palautus viimeistään perjantaina 17.3. Tehtävä 1: Tarkastellaan funktion f(x) = x evaluoimista välillä x [2.0, 2.3]. Muodosta interpoloiva polynomi p 3 (x),
LisätiedotDeterminantti. Määritelmä
Determinantti Määritelmä Oletetaan, että A on n n-neliömatriisi. Merkitään normaaliin tapaan matriisin A alkioita lyhyesti a ij = A(i, j). (a) Jos n = 1, niin det(a) = a 11. (b) Muussa tapauksessa n det(a)
Lisätiedota) Sievennä lauseke 1+x , kun x 0jax 1. b) Aseta luvut 2, 5 suuruusjärjestykseen ja perustele vastauksesi. 3 3 ja
1 YLIOPPILASTUTKINTO- LAUTAKUNTA 1.10.2018 MATEMATIIKAN KOE PITKÄ OPPIMÄÄRÄ A-osa Ratkaise kaikki tämän osan tehtävät 1 4. Tehtävät arvostellaan pistein 0 6. Kunkin tehtävän ratkaisu kirjoitetaan tehtävän
LisätiedotKokonaislukuoptimointi
Kokonaislukuoptimointi Algebrallisen geometrian sovelluksia Sisältö Taustaa algebrallisesta geometriasta Gröbnerin kanta Buchbergerin algoritmi Kokonaislukuoptimointi Käypyysongelma Algoritmi ratkaisun
Lisätiedot