Kognitiivinen mallintaminen Neuraalimallinnus, luento 1
|
|
- Maarit Keskinen
- 7 vuotta sitten
- Katselukertoja:
Transkriptio
1 Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Nelli Salminen nelli.salminen@helsinki.fi D433 Neuraalimallinnuksen osuus neljä luentokertaa, muutokset alla olevaan suunnitelmaan todennäköisiä kurssikirjasta käsitellään osa I kirja ei ole välttämätön kolmet laskarit, kahdet lasku- ja pohdintatehtäviä, kolmannet artikkelien pohjalta 1
2 Luentojen sisältö, yleistä konnektionistisista malleista, peruskaavoja ja notaatiota (kirjan luku 1) (demo visuaalisesta reseptiivisestä kentästä) assosiatiivinen verkko, Hebbiläinen oppiminen (luku 3) demo assosiatiivisesta verkosta perseptroni ja sen oppimissääntö, monikerroksiset verkot ja backpropagation (luku 5) Luentojen sisältö, lisää perseptronista ja backpropagationista (luku 5) demo: käsinkirjoitettujen lukujen tunnistus backpropagation opetetulla verkolla rinnakkaisen ja hajautetun tiedonkäsittelyn yleisiä ominaisuuksia (luku 2) demoja monikerroksisella verkolla 2
3 Luentojen sisältö, kilpaileva oppiminen (luku 6) Kohosen verkko demo itseorganisoituvasta verkosta autoassosiatiivinen verkko (luku 4) demo autoassosiatiivisesta verkosta Luentojen sisältö, 4.3. ajan esittäminen neuroverkoissa, takaisinkytketyt verkot, dynaamiset systeemit (luku 7) esimerkkimalleja (toivomukset tervetulleita!) 3
4 Neuraalimallinnuksen motivaatio aivotoiminnan inspiroimaa tiedonkäsittelyä ihmisen käyttäytymisen kaltaisia tuloksia tiedonkäsittely on hajautettua ja rinnakkaista muistia ja tiedonkäsittelyä ei ole erotettu toisistaan saadaan kvantitatiivisia tuloksia jotka ovat verrattavissa behavioraalisen tutkimuksen tuloksiin, esim. reaktioaika, virheellisten suoritusten määrä yksinkertaisella matematiikalla saadaan aikaan todella monimutkaisia toimintoja Neuronin perusominaisuudet neuronilla on useita dendriittejä, joiden aktivaatio yhdistyy soomassa, aktivaatio kulkee edelleen aksonia pitkin eli neuroni integroi informaatiota useasta lähteestä yhdeksi tulosteeksi 4
5 Neuronin perusominaisuudet synapsit voivat olla eksitoivia tai inhiboivia ja niitä on eri vahvuisia neuronit voivat edistää tai ehkäistä toistensa aktivaatiota ja tämän vaikutuksen voimakkuus riippuu niiden välisen yhteyden voimakkuudesta Neuronin perusominaisuudet kaikki tai ei mitään aktiopotentiaalit aktiopotentiaalien esiintymistiheydellä on ala- ja yläraja neuronien aktiviteetilla on ala- ja yläraja 5
6 Neuronin perusominaisuudet kokemus muokkaa synaptisia yhteyksiä neuroverkkoja opetetaan muuttamalla neuronien välisiä yhteyksiä Matemaattinen malli neuronista syöte (dendriitit), x summaus (sooma) tuloste (aksoni), y x 1 + x 2 + x 3 = Σ i x i = y eli = 1.3 6
7 Matemaattinen malli neuronista otetaan mukaan eri vahvuiset yhteydet eli painokertoimet w 1* * *0.7 = 3.1 eli w 1 *x 1 + w 2 *x 2 + w 3 *x 3 = Σ i w i * x i = y Matemaattinen malli neuronista negatiivinen painokerroin kuvaa inhibitorista yhteyttä 7
8 Matemaattinen malli neuronista esimerkiksi aktiviteetin alaraja voi olla 0 ja yläraja 1 eli s(y) = 0, jos y < 0 s(y) = 1, jos y > 1 s(y) = y, muutoin toistaiseksi käytetään äärimmäisen yksinkertaista funktiota, pelkkä kynnysarvo, esim. s(y) = 0, jos y<1, s(y) = 1, jos y>=1 Hebbiläinen oppiminen Hebbin sääntö: neurons that fire together wire together eli vahvistetaan yhteyksiä niiden neuronien välillä jotka ovat samanaikaisesti aktiivisia assosiatiivista oppimista 8
9 Hebbiläinen/assosiatiivinen oppiminen opetustilanteessa esitetään input-output pareja yhteyksiä vahvistetaan sellaisten solujen välillä jotka ovat aktiivisia samanaikaisesti Hebbiläinen/assosiatiivinen oppiminen otetaan yksi solu kerrallaan w on painokerroin Δw on muutos painokertoimessa a on neuronin aktivaatio ε on oppimisnopeus Δw jk = ε * a j * a k eli painokertoimien muutos on suhteessa neuronien aktiviteettiin jos neuroni ei ole aktiivinen painokertoimissa ei tapahdu muutoksia 9
10 Perseptroni perseptroniksi sanotaan yksikerroksista neuroverkkoa jossa on vain feedforward-yhteyksiä y = w 1 * x 1 + w 2 * x 2 + w 3 * x 3 = Σ i w i * x i Perseptroni painokertoimia säätämällä perseptroni voidaan opettaa luokittelemaan aineisto kahteen ryhmään toisen ryhmän syötteisiin perseptroni aktivoituu, toiseen ei 10
11 Perseptronin oppimissääntö perseptronille esitetään syöte ja painokertoimia muutetaan jos se antaa väärän tulosteen oppiminen perustuu perseptronin tekemiin virheisiin (ei solujen samanaikaiseen aktiviteettiin kuten hebbiläinen/assosiatiivinen oppiminen) kun perseptroni lakkaa tekemästä virheitä, se lakkaa myös oppimasta Perseptronin oppimissääntö 0. annetaan painokertoimille satunnaiset alkuarvot 1. esitetään syöte 2. katsotaan oliko tuloste oikea vai väärä 3. jos vastaus oli oikea siirrytään kohtaan 1., jos vastaus oli väärä muutetaan painokertoimia 4. painokertoimia muutetaan riippuen siitä oliko syöte kohde vai ei, jatketaan kohdasta 1. 11
12 Perseptronin oppimissääntö 0. w = satunnaislukuja 1. y = Σ i w i * x i 2. y == haluttu tuloste? 3. jos y == haluttu tuloste, siirrytään kohtaan dw = ε * x, jos x on kohde, dw = -1 * ε * x, jos x ei ole kohde, w(t+1) = w(t)+dw, jatketaan kohdasta 1. Perseptronin oppimissääntö dw = ε * x, jos x on kohde dw = -1 * ε * x, jos x ei ole kohde tehdään siis painokertoimista samankaltainen kuin kohteet ja päinvastainen kuin muut syötteet tämä toimii aina kun luokittelu on sellainen joka pystytään perseptronilla tekemään mutta miksi? 12
13 Mikä aktivoi neuronin? viimeksi nähtiin että hebbiläisellä oppimisella saatiin painokertoimia jotka kertoivat jotain syötteestä samoin käy perseptronin oppimissäännössä neuronin aktivoi parhaiten syöte joka on sama kuin neuronin painokertoimet Pistetulo input ja painokertoimet voidaan molemmat ajatella vektoreiksi tai pisteiksi avaruuteen neuronin aktiviteetti on itse asiassa näiden kahden vektorin pistetulo 13
14 Pistetulo samanmittaisille vektoreille voidaan laskea pistetulo w*x = w 1 *x 1 + w 2 *x 2 = Σ i w i * x i sama tulos saadaan myös näin: w*x = w x cos(θ) pistetulon suuruus riippuu siis vektorien välisestä kulmasta ja vektorien pituuksista Vektoreiden pistetulo w*x = w x cos(θ) pistetulo on suurimmillaan kun vektorit ovat samansuuntaiset, nolla kun vektorit ovat suorassa kulmassa, pienimmillään kun vektorit ovat vastakkaisen suuntaiset 14
15 Pistetulon tulkinta hermosolulle aktiviteetti on syötteen ja painokertoimien pistetulo suurimman aktiviteetin tuottaa syöte joka on saman suuntainen kuin painokertoimet Neuroni lineaarisena luokittelijana yksi neuroni voi jakaa mahdolliset syötteet kahteen luokkaan, toinen aktivoi neuronin ja toinen ei yksi vertori jakaa avaruuden kahteen osaan, pisteisiin joiden kanssa pistetulo on suurempi kuin nolla ja pisteisiin joiden kanssa pistetulo on pienempi tai yhtä suuri kuin nolla 15
16 Perseptronin rajoitteet perseptroni on siis lineaarinen luokittelija, se ei pysty luokitteluun joka on epälineaarinen esim. XOR-operaatio Ratkaisu perseptronin rajoitteisiin: monikerroksinen verkko monikerroksisella verkolla voi tehdä epälineaarisia luokitteluita mutta miten opettaa tällaista verkkoa? 16
17 Monikerroksinen verkko output-soluille voidaan määrittää haluttu aktivaatio ja virhe entä piilokerroksen solut? Backpropagation lasketaan virhe output-soluille kuljetetaan virhettä verkossa vastavirtaa kuten aktivaatiota kuljetetaan myötävirtaan 17
18 Gradient descent backpropagation on yksi gradient descent oppimisen muoto perustuu liikkumiseen virheavaruudessa suuntaan joka pienentää virhettä Gradient descent virhe voidaan esittää painokertoimien funktiona tälle funktiolle voidaan muodostaa derivaatta kullekin painokertoimelle erikseen (osittaisderivaatta) derivaatasta nähdään mihin suuntaan painokertoimia tulisi muuttaa jotta virhe pienenisi 18
19 Gradient descent paikallisten minimien ongelma, oppiminen voi jumiutua virheen paikalliseen minimiin vaikka parempikin ratkaisu voisi olla olemassa Gradient descent backpropagation ei ole biologisesti realistinen oikeista hermostoista ei ole löydetty mekanismeja virheetiedon kuljettamiseksi verkossa taaksepäin backpropagation on globaali oppimissääntö, se perustuu laajempiin tietoihin kuin vain kahden solun aktiviteettiin lokaalit säännöt, kuten hebbiläinen oppiminen, käyttävät tietoa ainoastaan kahden solun aktiviteetista ja ovat siten realistisempia 19
Kognitiivinen mallintaminen. Nelli Salminen
Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen
LisätiedotTällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö
Tällä kerralla ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 19.2. Nelli Salminen nelli.salminen@helsinki.fi D433 vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko
LisätiedotTänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.)
Tänään ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 26.2. Nelli Salminen nelli.salminen@helsinki.fi D433 autoassosiaatio, attraktorin käsite esimerkkitapaus: kolme eri tapaa mallintaa kategorista
LisätiedotKognitiivinen mallintaminen. Nelli Salminen
Kognitiivinen mallintaminen Neuraalimallinnus 1.12. Nelli Salminen nelli.salminen@tkk.fi Tänään ohjelmassa autoassosiaatio, Hopfieldin verkko attraktorin käsite ajan esittäminen hermoverkoissa esimerkkitapaus:
LisätiedotJOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
LisätiedotKognitiivinen mallintaminen Neuraalimallinnus 11.3.
Kognitiivinen mallintaminen Neuraalimallinnus 11.3. Nelli Salminen nelli.salminen@helsinki.fi D433 Tällä kertaa ajan esittäminen neuroverkoissa dynaamiset systeemit esimerkkitapaus: lyhytkestoinen muisti
LisätiedotJOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
LisätiedotJOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
LisätiedotJohdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3. luento 17.11.2017 Neuroverkon opettaminen (ohjattu oppiminen) Neuroverkkoa opetetaan syöte-tavoite-pareilla
LisätiedotJohdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn
Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekniikkaan ITKA352) Informaatioteknologian tiedekunta Jyväskylän yliopisto 23.3.2018 Tekoälyn historiaa 6 1 Introduction Kuva Fig. lähteestä 1.3
LisätiedotJohdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 2. luento 10.11.2017 Keinotekoiset neuroverkot Neuroverkko koostuu syöte- ja ulostulokerroksesta
LisätiedotJohdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 4. luento 24.11.2017 Neuroverkon opettaminen - gradienttimenetelmä Neuroverkkoa opetetaan syöte-tavoite-pareilla
LisätiedotNeuroverkkojen soveltaminen vakuutusdatojen luokitteluun
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään
Lisätiedot1. NEUROVERKKOMENETELMÄT
1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia
LisätiedotTuotteen oppiminen. Käytettävyyden psykologia syksy 2004. T-121.200 syksy 2004
Tuotteen oppiminen Käytettävyyden psykologia syksy 2004 Oppiminen Havainto Kognitiiviset muutokset yksilössä Oppiminen on uuden tiedon omaksumista, joka perustuu havaintoon Ärsyke Behavioristinen malli
LisätiedotImageRecognition toteutus
ImageRecognition toteutus Simo Korkolainen 27 kesäkuuta 2016 Projektin tarkoituksena on tehdä ohjelma, joka opettaa neuroverkon tunnistamaan kuvia backpropagation-algoritmin avulla Neuroverkon opetuksessa
LisätiedotDynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II
Dynaamisten systeemien teoriaa Systeemianalyysilaboratorio II 15.11.2017 Vakiot, sisäänmenot, ulostulot ja häiriöt Mallin vakiot Systeemiparametrit annettuja vakioita, joita ei muuteta; esim. painovoiman
LisätiedotBackpropagation-algoritmi
Backpropagation-algoritmi Hyvin yleisesti käytetty Backpropagation (BP) -algoritmi on verkon halutun ja todellisen vasteen eroa kuvastavan kustannusfunktion minimointiin perustuva menetelmä. Siinä MLP-verkon
LisätiedotMS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila
Lisätiedot1. NEUROVERKKOMENETELMÄT
1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia
LisätiedotBM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2018
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2018 1. (a) Tunnemme vektorit a = [ 5 1 1 ] ja b = [ 2 0 1 ]. Laske (i) kummankin vektorin pituus (eli itseisarvo, eli normi); (ii) vektorien
LisätiedotOngelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida?
Ongelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida? 2 Tieto on koodattu aikaisempaa yleisemmin digitaaliseen muotoon,
LisätiedotMS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
LisätiedotAntti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. Antti Rasila Matematiikan ja systeemianalyysin laitos
Lisätiedot12. Hessen matriisi. Ääriarvoteoriaa
179 12. Hessen matriisi. Ääriarvoteoriaa Tarkastelemme tässä luvussa useamman muuttujan (eli vektorimuuttujan) n reaaliarvoisia unktioita : R R. Edellisessä luvussa todettiin, että riittävän säännöllisellä
LisätiedotMS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
LisätiedotTalousmatematiikan perusteet: Luento 12. Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla
Talousmatematiikan perusteet: Luento 12 Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla Esimerkki Esim. Yritys tekee kahta elintarviketeollisuuden käyttämää puolivalmistetta,
LisätiedotVektoreiden A = (A1, A 2, A 3 ) ja B = (B1, B 2, B 3 ) pistetulo on. Edellisestä seuraa
Viikon aiheet Pistetulo (skalaaritulo Vektorien tulot Pistetulo Ristitulo Skalaari- ja vektorikolmitulo Integraalifunktio, alkeisfunktioiden integrointi, yhdistetyn funktion derivaatan integrointi Vektoreiden
LisätiedotMS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Jarmo Malinen Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto Kevät 2016 1 Perustuu
LisätiedotAalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos. MS-A0203 Differentiaali- ja integraalilaskenta 2, kevät 2016
Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Ojalammi MS-A0203 Differentiaali- ja integraalilaskenta 2, kevät 2016 Laskuharjoitus 3A (Vastaukset) Alkuviikolla
LisätiedotLaskut käyvät hermoille
Laskut käyvät hermoille - Miten ja miksi aivoissa lasketaan todennäköisyyksiä Aapo Hyvärinen Matematiikan ja tilastotieteen laitos & Tietojenkäsittelytieteen laitos Helsingin Yliopisto Tieteen päivät 13.1.2011
Lisätiedotkaikki ( r, θ )-avaruuden pisteet (0, θ ) - oli θ
58 VEKTORIANALYYSI Luento 9 Ortogonaaliset käyräviivaiset koordinaatistot Olemme jo monta kertaa esittäneet karteesiset x, y ja z koordinaatit uusia koordinaatteja käyttäen: x= xuvw (,, ), y= yuvw (,,
LisätiedotTalousmatematiikan perusteet: Luento 14. Rajoittamaton optimointi Hessen matriisi Ominaisarvot Ääriarvon laadun tarkastelu
Talousmatematiikan perusteet: Luento 14 Rajoittamaton optimointi Hessen matriisi Ominaisarvot Ääriarvon laadun tarkastelu Luennolla 6 Tarkastelimme yhden muuttujan funktion f(x) rajoittamatonta optimointia
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 8 1 Suunnattu derivaatta Aluksi tarkastelemme vektoreita, koska ymmärrys vektoreista helpottaa alla olevien asioiden omaksumista. Kun liikutaan tasossa eli avaruudessa
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 8 1 Funktion kuperuussuunnat Derivoituva funktio f (x) on pisteessä x aidosti konveksi, jos sen toinen derivaatta on positiivinen f (x) > 0. Vastaavasti f (x) on aidosti
LisätiedotPiiri K 1 K 2 K 3 K 4 R R
Lineaarinen optimointi vastaus, harj 1, Syksy 2016. 1. Teollisuuslaitos valmistaa piirejä R 1 ja R 2, joissa on neljää eri komponenttia seuraavat määrät: Piiri K 1 K 2 K 3 K 4 R 1 3 1 2 2 R 2 4 2 3 0 Päivittäistä
LisätiedotMS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi
MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi Antti Rasila Aalto-yliopisto Syksy 2015 Antti Rasila (Aalto-yliopisto) MS-A0202 Syksy 2015 1
Lisätiedotläheisyydessä. Piirrä funktio f ja nämä approksimaatiot samaan kuvaan. Näyttääkö järkeenkäyvältä?
BM20A5840 - Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2017 1. Tunnemme vektorit a = [ 1 2 3 ] ja b = [ 2 1 2 ]. Laske (i) kummankin vektorin pituus (eli itseisarvo, eli normi); (ii) vektorien
LisätiedotTalousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu
Talousmatematiikan perusteet: Luento 13 Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu Viime luennolla Aloimme tarkastella yleisiä, usean muuttujan funktioita
LisätiedotNäköjärjestelmän mallintamisesta
Näköjärjestelmän mallintamisesta Cog241 Kognitiivinen mallintaminen I 16.11.2010 Henri Kauhanen Muistutus: mallinnusparadigmat Symbolinen, konnektionistinen, dynamistinen Marrin (1982) tasot yksi keino
LisätiedotTilastotiede ottaa aivoon
Tilastotiede ottaa aivoon kuinka aivoja voidaan mallintaa todennäköisyyslaskennalla, ja mitä yllättävää hyötyä siitä voi olla Aapo Hyvärinen Laskennallisen data-analyysin professori Matematiikan ja tilastotieteen
LisätiedotNäihin harjoitustehtäviin liittyvä teoria löytyy Adamsista: Ad6, Ad5, 4: 12.8, ; Ad3: 13.8,
TKK, Matematiikan laitos Gripenberg/Harhanen Mat-1.432 Matematiikan peruskurssi K2 Harjoitus 4, (A=alku-, L=loppuviikko, T= taulutehtävä, P= palautettava tehtävä, W= verkkotehtävä ) 12 16.2.2007, viikko
LisätiedotDynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Tilastolliset aikasarjat voidaan jakaa kahteen
LisätiedotNumeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 12 Kirsi Valjus Jyväskylän yliopisto Luento 12 () Numeeriset menetelmät 25.4.2013 1 / 33 Luennon 2 sisältö Tavallisten differentiaaliyhtälöiden numeriikasta Rungen
LisätiedotTilastotiede ottaa aivoon
Tilastotiede ottaa aivoon kuinka aivoja voidaan mallintaa todennäköisyyslaskennalla, ja mitä yllättävää hyötyä siitä voi olla Aapo Hyvärinen Laskennallisen data-analyysin professori Matematiikan ja tilastotieteen
LisätiedotTekoäly muuttaa arvoketjuja
Tekoäly muuttaa arvoketjuja Näin kartoitat tekoälyn mahdollisuuksia projektissasi Harri Puolitaival Harri Puolitaival Diplomi-insinööri ja yrittäjä Terveysteknologia-alan start-up: Likelle - lämpötilaherkkien
LisätiedotMS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio.
MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. Riikka Korte Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto
LisätiedotMS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 3: Vektorikentät
MS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 3: Vektorikentät Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Syksy 2016 Antti Rasila (Aalto-yliopisto) MS-A0305 Syksy 2016
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 8 Väliarvolause Oletetaan, että funktio f on jatkuva jollain reaalilukuvälillä [a, b] ja derivoituva avoimella välillä (a, b). Funktion muutos tällä välillä on luonnollisesti
LisätiedotLuento 10: Työ, energia ja teho. Johdanto Työ ja kineettinen energia Teho
Luento 10: Työ, energia ja teho Johdanto Työ ja kineettinen energia Teho 1 / 23 Luennon sisältö Johdanto Työ ja kineettinen energia Teho 2 / 23 Johdanto Energia suure, joka voidaan muuttaa muodosta toiseen,
LisätiedotTalousmatematiikan perusteet: Luento 12. Usean muuttujan funktiot Osittaisderivaatta Gradientti Suhteellinen muutosnopeus ja osittaisjousto
Talousmatematiikan perusteet: Luento 12 Usean muuttujan funktiot Osittaisderivaatta Gradientti Suhteellinen muutosnopeus ja osittaisjousto Aiemmilla luennoilla Tähän mennessä olemme tarkastelleet Erilaisia
Lisätiedot2 Osittaisderivaattojen sovelluksia
2 Osittaisderivaattojen sovelluksia 2.1 Ääriarvot Yhden muuttujan funktiolla f(x) on lokaali maksimiarvo (lokaali minimiarvo) pisteessä a, jos f(x) f(a) (f(x) f(a)) kaikilla x:n arvoilla riittävän lähellä
LisätiedotVEKTORIT paikkavektori OA
paikkavektori OA Piste A = (2, -1) Paikkavektori OA = 2i j 3D: kuvan piirtäminen hankalaa Piste A = (2, -3, 4) Paikkavektori OA = 2i 3j + 4k Piste A = (a 1, a 2, a 3 ) Paikkavektori OA = a 1 i + a 2 j
LisätiedotKohdeyleisö: toisen vuoden teekkari
Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y
Lisätiedot, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1).
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 017 Harjoitus 4 Ratkaisuehdotukset 4.1. Osoita, että tasa-arvojoukko S F (0), F : R 3 R, F (x) = 3x 1 x 3 + e x + x e x 3, on säännöllinen
LisätiedotInversio-ongelmien laskennallinen peruskurssi Luento 4
Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa
LisätiedotKognitiivinen mallintaminen 1
Kognitiivinen mallintaminen 1 syksy 2009, 1 ja 2 periodi luennot ti:13-15 Tero Hakala ( tero@haka.la) Lisäksi vierailijoita (Otto Lappi, Esko Lehtonen, ehkä muitakin) laskarit ti:15-17 Henri Kauhanen (henri.kauhanen@helsinki.fi)
LisätiedotPolkuintegraali yleistyy helposti paloitain C 1 -poluille. Määritelmä Olkoot γ : [a, b] R m paloittain C 1 -polku välin [a, b] jaon
Polkuintegraali yleistyy helposti paloitain C 1 -poluille. Määritelmä 4.1.3. Olkoot : [a, b] R m paloittain C 1 -polku välin [a, b] jaon P = {a = t 1 < < t k = b} ja joukko D R m sellainen, että ([a, b])
LisätiedotYhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =
LisätiedotHarjoitus 2. 10.9-14.9.2007. Nimi: Op.nro: Tavoite: Gradientin käsitteen sisäistäminen ja omaksuminen.
SMG-1300 Sähkömagneettiset kentät ja aallot I Harjoitus 2. 10.9-14.9.2007 Nimi: Op.nro: Tavoite: Gradientin käsitteen sisäistäminen ja omaksuminen. Tehtävä 1: Harjoitellaan ensinmäiseksi ymmärtämään lausekkeen
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 10 1 Funktion monotonisuus Derivoituva funktio f on aidosti kasvava, jos sen derivaatta on positiivinen eli jos f (x) > 0. Funktio on aidosti vähenevä jos sen derivaatta
LisätiedotTEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)
JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.
LisätiedotLuento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään
LisätiedotMatematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 10 1 Lokaalit ääriarvot Yhden muuttujan funktion f (x) lokaali maksimi on piste x 0, jossa f (x) on suurempi kuin muualle pisteen x 0 ympäristössä, eli kun f (x 0 )
Lisätiedot6. Differentiaaliyhtälösysteemien laadullista teoriaa.
1 MAT-13450 LAAJA MATEMATIIKKA 5 Tampereen teknillinen yliopisto Risto Silvennoinen Kevät 2010 6. Differentiaaliyhtälösysteemien laadullista teoriaa. Olemme keskittyneet tässä kurssissa ensimmäisen kertaluvun
LisätiedotA B = (1, q, q 2 ) (2, 0, 2) = 2 2q q 2 = 0 q 2 = 1 q = ±1 A(±1) = (1, ±1, 1) A(1) A( 1) = (1, 1, 1) (1, 1, 1) = A( 1) A(1) A( 1) = 1
Mapu I Viikko 4 tehtävä malli Millä q:n arvoilla vektori A(q) (, q, q ) on kohtisuora vektorin B (, 0, ) kanssa? Ovatko A:n eri ratkaisut keskenään kohtisuoria? Jos eivät, määrää niiden välinen kulma!
Lisätiedot1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
LisätiedotLineaarialgebra MATH.1040 / voima
Lineaarialgebra MATH.1040 / voima 1 Seuraavaksi määrittelemme kaksi vektoreille määriteltyä tuloa; pistetulo ja. Määritelmät ja erilaiset tulojen ominaisuudet saattavat tuntua, sekavalta kokonaisuudelta.
LisätiedotSelvästi. F (a) F (y) < r x d aina, kun a y < δ. Kolmioepäyhtälön nojalla x F (y) x F (a) + F (a) F (y) < d + r x d = r x
Seuraavaksi tarkastellaan C 1 -sileiden pintojen eräitä ominaisuuksia. Lemma 2.7.1. Olkoon S R m sellainen C 1 -sileä pinta, että S on C 1 -funktion F : R m R eräs tasa-arvojoukko. Tällöin S on avaruuden
LisätiedotVEKTORIANALYYSIN HARJOITUKSET: VIIKKO 4
VEKTORIANALYYSIN HARJOITUKSET: VIIKKO 4 Jokaisen tehtävän jälkeen on pieni kommentti tehtävään liittyen Nämä eivät sisällä mitään kovin kriittistä tietoa tehtävään liittyen, joten niistä ei tarvitse välittää
LisätiedotMatematiikka B1 - avoin yliopisto
28. elokuuta 2012 Opetusjärjestelyt Luennot 9:15-11:30 Harjoitukset 12:30-15:00 Tentti Nettitehtävät Kurssin sisältö 1/2 Osittaisderivointi Usean muuttujan funktiot Raja-arvot Osittaisderivaatta Pinnan
LisätiedotMat. tukikurssi 27.3.
Mat. tukikurssi 7.. Tänään oli paljon vaikeita aiheita: - suunnattu derivaatta - kokonaisdierentiaali - dierentiaalikehitelmä - implisiittinen derivointi Nämä kaikki liittvät aika läheisesti toisiinsa.
Lisätiedot1 Määrittelyjä ja aputuloksia
1 Määrittelyjä ja aputuloksia 1.1 Supremum ja infimum Aluksi kerrataan pienimmän ylärajan (supremum) ja suurimman alarajan (infimum) perusominaisuuksia ja esitetään muutamia myöhemmissä todistuksissa tarvittavia
Lisätiedot1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
Lisätiedot2.6 Funktioiden kuvaajat ja tasa-arvojoukot
2.6 Funktioiden kuvaajat ja tasa-arvojoukot Olkoon I R väli. Yhden muuttujan funktion g : I R kuvaaja eli graafi on avaruuden R 2 osajoukko {(x, y) R 2 : x I, y = g(x)}. 1 0 1 2 3 1 0.5 0 0.5 1 Kuva 2.1:
Lisätiedotr > y x z x = z y + y x z y + y x = r y x + y x = r
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 018 Harjoitus Ratkaisuehdotukset Tehtävä 1. Osoita, että avoin kuula on avoin joukko ja suljettu kuula on suljettu joukko. Ratkaisu.
LisätiedotHarjoitus 6: Simulink - Säätöteoria. Syksy 2006. Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1
Harjoitus 6: Simulink - Säätöteoria Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen säätötekniikkaan Takaisinkytkennän
LisätiedotKJR-C1001 Statiikka ja dynamiikka. Luento Susanna Hurme
KJR-C1001 Statiikka ja dynamiikka Luento 24.2.2016 Susanna Hurme Päivän aihe: Voiman momentin käsite (Kirjan luvut 4.1-4.6) Mikä on voiman momentti? Määritetään momentti skalaari- ja vektorimuodossa Opitaan
LisätiedotTalousmatematiikan perusteet: Luento 13. Usean muuttujan funktiot Osittaisderivaatta ja gradientti Suhteellinen muutosnopeus ja osittaisjousto
Talousmatematiikan perusteet: Luento 13 Usean muuttujan funktiot Osittaisderivaatta ja gradientti Suhteellinen muutosnopeus ja osittaisjousto Aiemmilla luennoilla Tähän mennessä olemme tarkastelleet Erilaisia
LisätiedotMatemaattisen analyysin tukikurssi
Matemaattisen analyysin tukikurssi 10. Kurssikerta Petrus Mikkola 22.11.2016 Tämän kerran asiat Globaali ääriarvo Konveksisuus Käännepiste L Hôpitalin sääntö Newtonin menetelmä Derivaatta ja monotonisuus
Lisätiedot7. Differentiaalimuotoinen jatkuvuusyhtälö. KJR-C2003 Virtausmekaniikan perusteet
7. Differentiaalimuotoinen jatkuvuusyhtälö KJR-C2003 Virtausmekaniikan perusteet Päivän anti Miten lähestymistapaa pitää muuttaa, jos halutaan tarkastella virtausta lokaalisti globaalin tasetarkastelun
LisätiedotOsakesalkun optimointi. Anni Halkola Turun yliopisto 2016
Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.
LisätiedotLikimääräisratkaisut ja regularisaatio
Luku 3 Likimääräisratkaisut ja regularisaatio Käytännön inversio-ongelmissa annettu data y ei aina ole tarkkaa, vaan sisältää häiriöitä. Tuntemattomasta x on annettu häiriöinen data y F (x + }{{}}{{} ε.
LisätiedotViikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen
Viikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum D122, 30-31.1.2008. 1 Tällä viikolla Sisältösuunnitelma: Lineaarinen regressio Pienimmän neliösumman
LisätiedotJohdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3.11.2017 Mitä tekoäly on? Wikipedia: Tekoäly on tietokone tai tietokoneohjelma, joka kykenee älykkäiksi
LisätiedotDynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt
LisätiedotMonitavoiteoptimointi
Monitavoiteoptimointi Useita erilaisia tavoitteita, eli useita objektifunktioita Tavoitteet yleensä ristiriitaisia ja yhteismitattomia Optimaalisuus tarkoittaa yleensä eri asiaa kuin yksitavoitteisessa
Lisätiedotf(x, y) = x 2 y 2 f(0, t) = t 2 < 0 < t 2 = f(t, 0) kaikilla t 0.
Ääriarvon laatu Jatkuvasti derivoituvan funktion f lokaali ääriarvokohta (x 0, y 0 ) on aina kriittinen piste (ts. f x (x, y) = f y (x, y) = 0, kun x = x 0 ja y = y 0 ), mutta kriittinen piste ei ole aina
LisätiedotEvolutiivisesti stabiilin strategian oppiminen
Evolutiivisesti stabiilin strategian oppiminen Janne Laitonen 8.10.2008 Maynard Smith: s. 54-60 Johdanto Käytös voi usein olla opittua perityn sijasta Tyypillistä käytöksen muuttuminen ja riippuvuus aikaisemmista
LisätiedotOptimointi. Etsitään parasta mahdollista ratkaisua annetuissa olosuhteissa. Ongelman mallintaminen. Mallin ratkaiseminen. Ratkaisun analysointi
Optimointi Etsitään parasta mahdollista ratkaisua annetuissa olosuhteissa Ongelman mallintaminen Mallin ratkaiseminen Ratkaisun analysointi 1 Peruskäsitteitä Muuttujat: Sallittu alue: x = (x 1, x 2,...,
LisätiedotLuento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään
LisätiedotHarjoitus 5: Simulink
Harjoitus 5: Simulink Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen Simulinkiin Differentiaaliyhtälöiden
LisätiedotViikon aiheet. Funktion lineaarinen approksimointi
Viikon aiheet Funktion ääriarvot Funktion lineaarinen approksimointi Vektorit, merkintätavat, pituus, yksikkövektori, skalaarilla kertominen, kanta ja kannan vaihto Funktion ääriarvot 6 Väliarvolause Implisiittinen
LisätiedotHermoimpulssi eli aktiopotentiaali
Hermoimpulssi eli aktiopotentiaali Piirrä opettajan johdolla kuvat hermoimpulssin etenemisestä 1. KAIKKI solut ovat sähköisesti varautuneita o sähköinen varaus solun sisäpuolella on noin 70 millivolttia
LisätiedotSovellettu todennäköisyyslaskenta B
Sovellettu todennäköisyyslaskenta B Antti Rasila 30. marraskuuta 2007 Antti Rasila () TodB 30. marraskuuta 2007 1 / 19 1 Lineaarinen regressiomalli ja suurimman uskottavuuden menetelmä Minimin löytäminen
LisätiedotMatematiikkaa kauppatieteilijöille
Matematiikkaa kauppatieteilijöille Harjoitus 7, syksy 2016 1. Funktio f(x) = x 2x 2 + 4 on jatkuva ja derivoituva kaikilla x R. Nyt funktio f(x) on aidosti alaspäin kupera kun f (x) > 0 ja aidosti ylöspäin
LisätiedotDatatähti 2019 loppu
Datatähti 2019 loppu task type time limit memory limit A Summa standard 1.00 s 512 MB B Bittijono standard 1.00 s 512 MB C Auringonlasku standard 1.00 s 512 MB D Binääripuu standard 1.00 s 512 MB E Funktio
Lisätiedot1 Rajoittamaton optimointi
Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y
Lisätiedot4. Monikerroksinen perceptron
37 38 4. Monikerroksinen perceptron 4.. Johdanto Tämä kappale käsittelee monikerroksista perceptronia kuvaten tarvittavat muutokset neuronin perusmalliin, jotta monimutkaisempia ongelmia kuin edellä pystytään
LisätiedotKieli merkitys ja logiikka. 2: Helpot ja monimutkaiset. Luento 2. Monimutkaiset ongelmat. Monimutkaiset ongelmat
Luento 2. Kieli merkitys ja logiikka 2: Helpot ja monimutkaiset Helpot ja monimutkaiset ongelmat Tehtävä: etsi säkillinen rahaa talosta, jossa on monta huonetta. Ratkaisu: täydellinen haku käy huoneet
Lisätiedot