Kognitiivinen mallintaminen Neuraalimallinnus, luento 1

Koko: px
Aloita esitys sivulta:

Download "Kognitiivinen mallintaminen Neuraalimallinnus, luento 1"

Transkriptio

1 Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Nelli Salminen nelli.salminen@helsinki.fi D433 Neuraalimallinnuksen osuus neljä luentokertaa, muutokset alla olevaan suunnitelmaan todennäköisiä kurssikirjasta käsitellään osa I kirja ei ole välttämätön kolmet laskarit, kahdet lasku- ja pohdintatehtäviä, kolmannet artikkelien pohjalta 1

2 Luentojen sisältö, yleistä konnektionistisista malleista, peruskaavoja ja notaatiota (kirjan luku 1) (demo visuaalisesta reseptiivisestä kentästä) assosiatiivinen verkko, Hebbiläinen oppiminen (luku 3) demo assosiatiivisesta verkosta perseptroni ja sen oppimissääntö, monikerroksiset verkot ja backpropagation (luku 5) Luentojen sisältö, lisää perseptronista ja backpropagationista (luku 5) demo: käsinkirjoitettujen lukujen tunnistus backpropagation opetetulla verkolla rinnakkaisen ja hajautetun tiedonkäsittelyn yleisiä ominaisuuksia (luku 2) demoja monikerroksisella verkolla 2

3 Luentojen sisältö, kilpaileva oppiminen (luku 6) Kohosen verkko demo itseorganisoituvasta verkosta autoassosiatiivinen verkko (luku 4) demo autoassosiatiivisesta verkosta Luentojen sisältö, 4.3. ajan esittäminen neuroverkoissa, takaisinkytketyt verkot, dynaamiset systeemit (luku 7) esimerkkimalleja (toivomukset tervetulleita!) 3

4 Neuraalimallinnuksen motivaatio aivotoiminnan inspiroimaa tiedonkäsittelyä ihmisen käyttäytymisen kaltaisia tuloksia tiedonkäsittely on hajautettua ja rinnakkaista muistia ja tiedonkäsittelyä ei ole erotettu toisistaan saadaan kvantitatiivisia tuloksia jotka ovat verrattavissa behavioraalisen tutkimuksen tuloksiin, esim. reaktioaika, virheellisten suoritusten määrä yksinkertaisella matematiikalla saadaan aikaan todella monimutkaisia toimintoja Neuronin perusominaisuudet neuronilla on useita dendriittejä, joiden aktivaatio yhdistyy soomassa, aktivaatio kulkee edelleen aksonia pitkin eli neuroni integroi informaatiota useasta lähteestä yhdeksi tulosteeksi 4

5 Neuronin perusominaisuudet synapsit voivat olla eksitoivia tai inhiboivia ja niitä on eri vahvuisia neuronit voivat edistää tai ehkäistä toistensa aktivaatiota ja tämän vaikutuksen voimakkuus riippuu niiden välisen yhteyden voimakkuudesta Neuronin perusominaisuudet kaikki tai ei mitään aktiopotentiaalit aktiopotentiaalien esiintymistiheydellä on ala- ja yläraja neuronien aktiviteetilla on ala- ja yläraja 5

6 Neuronin perusominaisuudet kokemus muokkaa synaptisia yhteyksiä neuroverkkoja opetetaan muuttamalla neuronien välisiä yhteyksiä Matemaattinen malli neuronista syöte (dendriitit), x summaus (sooma) tuloste (aksoni), y x 1 + x 2 + x 3 = Σ i x i = y eli = 1.3 6

7 Matemaattinen malli neuronista otetaan mukaan eri vahvuiset yhteydet eli painokertoimet w 1* * *0.7 = 3.1 eli w 1 *x 1 + w 2 *x 2 + w 3 *x 3 = Σ i w i * x i = y Matemaattinen malli neuronista negatiivinen painokerroin kuvaa inhibitorista yhteyttä 7

8 Matemaattinen malli neuronista esimerkiksi aktiviteetin alaraja voi olla 0 ja yläraja 1 eli s(y) = 0, jos y < 0 s(y) = 1, jos y > 1 s(y) = y, muutoin toistaiseksi käytetään äärimmäisen yksinkertaista funktiota, pelkkä kynnysarvo, esim. s(y) = 0, jos y<1, s(y) = 1, jos y>=1 Hebbiläinen oppiminen Hebbin sääntö: neurons that fire together wire together eli vahvistetaan yhteyksiä niiden neuronien välillä jotka ovat samanaikaisesti aktiivisia assosiatiivista oppimista 8

9 Hebbiläinen/assosiatiivinen oppiminen opetustilanteessa esitetään input-output pareja yhteyksiä vahvistetaan sellaisten solujen välillä jotka ovat aktiivisia samanaikaisesti Hebbiläinen/assosiatiivinen oppiminen otetaan yksi solu kerrallaan w on painokerroin Δw on muutos painokertoimessa a on neuronin aktivaatio ε on oppimisnopeus Δw jk = ε * a j * a k eli painokertoimien muutos on suhteessa neuronien aktiviteettiin jos neuroni ei ole aktiivinen painokertoimissa ei tapahdu muutoksia 9

10 Perseptroni perseptroniksi sanotaan yksikerroksista neuroverkkoa jossa on vain feedforward-yhteyksiä y = w 1 * x 1 + w 2 * x 2 + w 3 * x 3 = Σ i w i * x i Perseptroni painokertoimia säätämällä perseptroni voidaan opettaa luokittelemaan aineisto kahteen ryhmään toisen ryhmän syötteisiin perseptroni aktivoituu, toiseen ei 10

11 Perseptronin oppimissääntö perseptronille esitetään syöte ja painokertoimia muutetaan jos se antaa väärän tulosteen oppiminen perustuu perseptronin tekemiin virheisiin (ei solujen samanaikaiseen aktiviteettiin kuten hebbiläinen/assosiatiivinen oppiminen) kun perseptroni lakkaa tekemästä virheitä, se lakkaa myös oppimasta Perseptronin oppimissääntö 0. annetaan painokertoimille satunnaiset alkuarvot 1. esitetään syöte 2. katsotaan oliko tuloste oikea vai väärä 3. jos vastaus oli oikea siirrytään kohtaan 1., jos vastaus oli väärä muutetaan painokertoimia 4. painokertoimia muutetaan riippuen siitä oliko syöte kohde vai ei, jatketaan kohdasta 1. 11

12 Perseptronin oppimissääntö 0. w = satunnaislukuja 1. y = Σ i w i * x i 2. y == haluttu tuloste? 3. jos y == haluttu tuloste, siirrytään kohtaan dw = ε * x, jos x on kohde, dw = -1 * ε * x, jos x ei ole kohde, w(t+1) = w(t)+dw, jatketaan kohdasta 1. Perseptronin oppimissääntö dw = ε * x, jos x on kohde dw = -1 * ε * x, jos x ei ole kohde tehdään siis painokertoimista samankaltainen kuin kohteet ja päinvastainen kuin muut syötteet tämä toimii aina kun luokittelu on sellainen joka pystytään perseptronilla tekemään mutta miksi? 12

13 Mikä aktivoi neuronin? viimeksi nähtiin että hebbiläisellä oppimisella saatiin painokertoimia jotka kertoivat jotain syötteestä samoin käy perseptronin oppimissäännössä neuronin aktivoi parhaiten syöte joka on sama kuin neuronin painokertoimet Pistetulo input ja painokertoimet voidaan molemmat ajatella vektoreiksi tai pisteiksi avaruuteen neuronin aktiviteetti on itse asiassa näiden kahden vektorin pistetulo 13

14 Pistetulo samanmittaisille vektoreille voidaan laskea pistetulo w*x = w 1 *x 1 + w 2 *x 2 = Σ i w i * x i sama tulos saadaan myös näin: w*x = w x cos(θ) pistetulon suuruus riippuu siis vektorien välisestä kulmasta ja vektorien pituuksista Vektoreiden pistetulo w*x = w x cos(θ) pistetulo on suurimmillaan kun vektorit ovat samansuuntaiset, nolla kun vektorit ovat suorassa kulmassa, pienimmillään kun vektorit ovat vastakkaisen suuntaiset 14

15 Pistetulon tulkinta hermosolulle aktiviteetti on syötteen ja painokertoimien pistetulo suurimman aktiviteetin tuottaa syöte joka on saman suuntainen kuin painokertoimet Neuroni lineaarisena luokittelijana yksi neuroni voi jakaa mahdolliset syötteet kahteen luokkaan, toinen aktivoi neuronin ja toinen ei yksi vertori jakaa avaruuden kahteen osaan, pisteisiin joiden kanssa pistetulo on suurempi kuin nolla ja pisteisiin joiden kanssa pistetulo on pienempi tai yhtä suuri kuin nolla 15

16 Perseptronin rajoitteet perseptroni on siis lineaarinen luokittelija, se ei pysty luokitteluun joka on epälineaarinen esim. XOR-operaatio Ratkaisu perseptronin rajoitteisiin: monikerroksinen verkko monikerroksisella verkolla voi tehdä epälineaarisia luokitteluita mutta miten opettaa tällaista verkkoa? 16

17 Monikerroksinen verkko output-soluille voidaan määrittää haluttu aktivaatio ja virhe entä piilokerroksen solut? Backpropagation lasketaan virhe output-soluille kuljetetaan virhettä verkossa vastavirtaa kuten aktivaatiota kuljetetaan myötävirtaan 17

18 Gradient descent backpropagation on yksi gradient descent oppimisen muoto perustuu liikkumiseen virheavaruudessa suuntaan joka pienentää virhettä Gradient descent virhe voidaan esittää painokertoimien funktiona tälle funktiolle voidaan muodostaa derivaatta kullekin painokertoimelle erikseen (osittaisderivaatta) derivaatasta nähdään mihin suuntaan painokertoimia tulisi muuttaa jotta virhe pienenisi 18

19 Gradient descent paikallisten minimien ongelma, oppiminen voi jumiutua virheen paikalliseen minimiin vaikka parempikin ratkaisu voisi olla olemassa Gradient descent backpropagation ei ole biologisesti realistinen oikeista hermostoista ei ole löydetty mekanismeja virheetiedon kuljettamiseksi verkossa taaksepäin backpropagation on globaali oppimissääntö, se perustuu laajempiin tietoihin kuin vain kahden solun aktiviteettiin lokaalit säännöt, kuten hebbiläinen oppiminen, käyttävät tietoa ainoastaan kahden solun aktiviteetista ja ovat siten realistisempia 19

Kognitiivinen mallintaminen. Nelli Salminen

Kognitiivinen mallintaminen. Nelli Salminen Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen

Lisätiedot

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö Tällä kerralla ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 19.2. Nelli Salminen nelli.salminen@helsinki.fi D433 vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko

Lisätiedot

Tänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.)

Tänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.) Tänään ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 26.2. Nelli Salminen nelli.salminen@helsinki.fi D433 autoassosiaatio, attraktorin käsite esimerkkitapaus: kolme eri tapaa mallintaa kategorista

Lisätiedot

Kognitiivinen mallintaminen. Nelli Salminen

Kognitiivinen mallintaminen. Nelli Salminen Kognitiivinen mallintaminen Neuraalimallinnus 1.12. Nelli Salminen nelli.salminen@tkk.fi Tänään ohjelmassa autoassosiaatio, Hopfieldin verkko attraktorin käsite ajan esittäminen hermoverkoissa esimerkkitapaus:

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

Kognitiivinen mallintaminen Neuraalimallinnus 11.3.

Kognitiivinen mallintaminen Neuraalimallinnus 11.3. Kognitiivinen mallintaminen Neuraalimallinnus 11.3. Nelli Salminen nelli.salminen@helsinki.fi D433 Tällä kertaa ajan esittäminen neuroverkoissa dynaamiset systeemit esimerkkitapaus: lyhytkestoinen muisti

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3. luento 17.11.2017 Neuroverkon opettaminen (ohjattu oppiminen) Neuroverkkoa opetetaan syöte-tavoite-pareilla

Lisätiedot

Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn

Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekniikkaan ITKA352) Informaatioteknologian tiedekunta Jyväskylän yliopisto 23.3.2018 Tekoälyn historiaa 6 1 Introduction Kuva Fig. lähteestä 1.3

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 2. luento 10.11.2017 Keinotekoiset neuroverkot Neuroverkko koostuu syöte- ja ulostulokerroksesta

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 4. luento 24.11.2017 Neuroverkon opettaminen - gradienttimenetelmä Neuroverkkoa opetetaan syöte-tavoite-pareilla

Lisätiedot

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään

Lisätiedot

1. NEUROVERKKOMENETELMÄT

1. NEUROVERKKOMENETELMÄT 1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia

Lisätiedot

Tuotteen oppiminen. Käytettävyyden psykologia syksy 2004. T-121.200 syksy 2004

Tuotteen oppiminen. Käytettävyyden psykologia syksy 2004. T-121.200 syksy 2004 Tuotteen oppiminen Käytettävyyden psykologia syksy 2004 Oppiminen Havainto Kognitiiviset muutokset yksilössä Oppiminen on uuden tiedon omaksumista, joka perustuu havaintoon Ärsyke Behavioristinen malli

Lisätiedot

ImageRecognition toteutus

ImageRecognition toteutus ImageRecognition toteutus Simo Korkolainen 27 kesäkuuta 2016 Projektin tarkoituksena on tehdä ohjelma, joka opettaa neuroverkon tunnistamaan kuvia backpropagation-algoritmin avulla Neuroverkon opetuksessa

Lisätiedot

Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II

Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II Dynaamisten systeemien teoriaa Systeemianalyysilaboratorio II 15.11.2017 Vakiot, sisäänmenot, ulostulot ja häiriöt Mallin vakiot Systeemiparametrit annettuja vakioita, joita ei muuteta; esim. painovoiman

Lisätiedot

Backpropagation-algoritmi

Backpropagation-algoritmi Backpropagation-algoritmi Hyvin yleisesti käytetty Backpropagation (BP) -algoritmi on verkon halutun ja todellisen vasteen eroa kuvastavan kustannusfunktion minimointiin perustuva menetelmä. Siinä MLP-verkon

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016 Antti Rasila

Lisätiedot

1. NEUROVERKKOMENETELMÄT

1. NEUROVERKKOMENETELMÄT 1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia

Lisätiedot

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2018

BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2018 BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2018 1. (a) Tunnemme vektorit a = [ 5 1 1 ] ja b = [ 2 0 1 ]. Laske (i) kummankin vektorin pituus (eli itseisarvo, eli normi); (ii) vektorien

Lisätiedot

Ongelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida?

Ongelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida? Ongelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida? 2 Tieto on koodattu aikaisempaa yleisemmin digitaaliseen muotoon,

Lisätiedot

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016

Lisätiedot

Antti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16

Antti Rasila. Kevät Matematiikan ja systeemianalyysin laitos Aalto-yliopisto. Antti Rasila (Aalto-yliopisto) MS-A0204 Kevät / 16 MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. Antti Rasila Matematiikan ja systeemianalyysin laitos

Lisätiedot

12. Hessen matriisi. Ääriarvoteoriaa

12. Hessen matriisi. Ääriarvoteoriaa 179 12. Hessen matriisi. Ääriarvoteoriaa Tarkastelemme tässä luvussa useamman muuttujan (eli vektorimuuttujan) n reaaliarvoisia unktioita : R R. Edellisessä luvussa todettiin, että riittävän säännöllisellä

Lisätiedot

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I

MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta

Lisätiedot

Talousmatematiikan perusteet: Luento 12. Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla

Talousmatematiikan perusteet: Luento 12. Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla Talousmatematiikan perusteet: Luento 12 Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla Esimerkki Esim. Yritys tekee kahta elintarviketeollisuuden käyttämää puolivalmistetta,

Lisätiedot

Vektoreiden A = (A1, A 2, A 3 ) ja B = (B1, B 2, B 3 ) pistetulo on. Edellisestä seuraa

Vektoreiden A = (A1, A 2, A 3 ) ja B = (B1, B 2, B 3 ) pistetulo on. Edellisestä seuraa Viikon aiheet Pistetulo (skalaaritulo Vektorien tulot Pistetulo Ristitulo Skalaari- ja vektorikolmitulo Integraalifunktio, alkeisfunktioiden integrointi, yhdistetyn funktion derivaatan integrointi Vektoreiden

Lisätiedot

MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.

MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Jarmo Malinen Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto Kevät 2016 1 Perustuu

Lisätiedot

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos. MS-A0203 Differentiaali- ja integraalilaskenta 2, kevät 2016

Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos. MS-A0203 Differentiaali- ja integraalilaskenta 2, kevät 2016 Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Ojalammi MS-A0203 Differentiaali- ja integraalilaskenta 2, kevät 2016 Laskuharjoitus 3A (Vastaukset) Alkuviikolla

Lisätiedot

Laskut käyvät hermoille

Laskut käyvät hermoille Laskut käyvät hermoille - Miten ja miksi aivoissa lasketaan todennäköisyyksiä Aapo Hyvärinen Matematiikan ja tilastotieteen laitos & Tietojenkäsittelytieteen laitos Helsingin Yliopisto Tieteen päivät 13.1.2011

Lisätiedot

kaikki ( r, θ )-avaruuden pisteet (0, θ ) - oli θ

kaikki ( r, θ )-avaruuden pisteet (0, θ ) - oli θ 58 VEKTORIANALYYSI Luento 9 Ortogonaaliset käyräviivaiset koordinaatistot Olemme jo monta kertaa esittäneet karteesiset x, y ja z koordinaatit uusia koordinaatteja käyttäen: x= xuvw (,, ), y= yuvw (,,

Lisätiedot

Talousmatematiikan perusteet: Luento 14. Rajoittamaton optimointi Hessen matriisi Ominaisarvot Ääriarvon laadun tarkastelu

Talousmatematiikan perusteet: Luento 14. Rajoittamaton optimointi Hessen matriisi Ominaisarvot Ääriarvon laadun tarkastelu Talousmatematiikan perusteet: Luento 14 Rajoittamaton optimointi Hessen matriisi Ominaisarvot Ääriarvon laadun tarkastelu Luennolla 6 Tarkastelimme yhden muuttujan funktion f(x) rajoittamatonta optimointia

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 8 1 Suunnattu derivaatta Aluksi tarkastelemme vektoreita, koska ymmärrys vektoreista helpottaa alla olevien asioiden omaksumista. Kun liikutaan tasossa eli avaruudessa

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 8 1 Funktion kuperuussuunnat Derivoituva funktio f (x) on pisteessä x aidosti konveksi, jos sen toinen derivaatta on positiivinen f (x) > 0. Vastaavasti f (x) on aidosti

Lisätiedot

Piiri K 1 K 2 K 3 K 4 R R

Piiri K 1 K 2 K 3 K 4 R R Lineaarinen optimointi vastaus, harj 1, Syksy 2016. 1. Teollisuuslaitos valmistaa piirejä R 1 ja R 2, joissa on neljää eri komponenttia seuraavat määrät: Piiri K 1 K 2 K 3 K 4 R 1 3 1 2 2 R 2 4 2 3 0 Päivittäistä

Lisätiedot

MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi

MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 4: Ketjusäännöt ja lineaarinen approksimointi Antti Rasila Aalto-yliopisto Syksy 2015 Antti Rasila (Aalto-yliopisto) MS-A0202 Syksy 2015 1

Lisätiedot

läheisyydessä. Piirrä funktio f ja nämä approksimaatiot samaan kuvaan. Näyttääkö järkeenkäyvältä?

läheisyydessä. Piirrä funktio f ja nämä approksimaatiot samaan kuvaan. Näyttääkö järkeenkäyvältä? BM20A5840 - Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2017 1. Tunnemme vektorit a = [ 1 2 3 ] ja b = [ 2 1 2 ]. Laske (i) kummankin vektorin pituus (eli itseisarvo, eli normi); (ii) vektorien

Lisätiedot

Talousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu

Talousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu Talousmatematiikan perusteet: Luento 13 Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu Viime luennolla Aloimme tarkastella yleisiä, usean muuttujan funktioita

Lisätiedot

Näköjärjestelmän mallintamisesta

Näköjärjestelmän mallintamisesta Näköjärjestelmän mallintamisesta Cog241 Kognitiivinen mallintaminen I 16.11.2010 Henri Kauhanen Muistutus: mallinnusparadigmat Symbolinen, konnektionistinen, dynamistinen Marrin (1982) tasot yksi keino

Lisätiedot

Tilastotiede ottaa aivoon

Tilastotiede ottaa aivoon Tilastotiede ottaa aivoon kuinka aivoja voidaan mallintaa todennäköisyyslaskennalla, ja mitä yllättävää hyötyä siitä voi olla Aapo Hyvärinen Laskennallisen data-analyysin professori Matematiikan ja tilastotieteen

Lisätiedot

Näihin harjoitustehtäviin liittyvä teoria löytyy Adamsista: Ad6, Ad5, 4: 12.8, ; Ad3: 13.8,

Näihin harjoitustehtäviin liittyvä teoria löytyy Adamsista: Ad6, Ad5, 4: 12.8, ; Ad3: 13.8, TKK, Matematiikan laitos Gripenberg/Harhanen Mat-1.432 Matematiikan peruskurssi K2 Harjoitus 4, (A=alku-, L=loppuviikko, T= taulutehtävä, P= palautettava tehtävä, W= verkkotehtävä ) 12 16.2.2007, viikko

Lisätiedot

Dynaamiset regressiomallit

Dynaamiset regressiomallit MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Tilastolliset aikasarjat voidaan jakaa kahteen

Lisätiedot

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33 Numeeriset menetelmät TIEA381 Luento 12 Kirsi Valjus Jyväskylän yliopisto Luento 12 () Numeeriset menetelmät 25.4.2013 1 / 33 Luennon 2 sisältö Tavallisten differentiaaliyhtälöiden numeriikasta Rungen

Lisätiedot

Tilastotiede ottaa aivoon

Tilastotiede ottaa aivoon Tilastotiede ottaa aivoon kuinka aivoja voidaan mallintaa todennäköisyyslaskennalla, ja mitä yllättävää hyötyä siitä voi olla Aapo Hyvärinen Laskennallisen data-analyysin professori Matematiikan ja tilastotieteen

Lisätiedot

Tekoäly muuttaa arvoketjuja

Tekoäly muuttaa arvoketjuja Tekoäly muuttaa arvoketjuja Näin kartoitat tekoälyn mahdollisuuksia projektissasi Harri Puolitaival Harri Puolitaival Diplomi-insinööri ja yrittäjä Terveysteknologia-alan start-up: Likelle - lämpötilaherkkien

Lisätiedot

MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio.

MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. MS-A0207 Differentiaali- ja integraalilaskenta 2 Luento 5: Gradientti ja suunnattu derivaatta. Vektoriarvoiset funktiot. Taylor-approksimaatio. Riikka Korte Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto

Lisätiedot

MS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 3: Vektorikentät

MS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 3: Vektorikentät MS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 3: Vektorikentät Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Syksy 2016 Antti Rasila (Aalto-yliopisto) MS-A0305 Syksy 2016

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 8 Väliarvolause Oletetaan, että funktio f on jatkuva jollain reaalilukuvälillä [a, b] ja derivoituva avoimella välillä (a, b). Funktion muutos tällä välillä on luonnollisesti

Lisätiedot

Luento 10: Työ, energia ja teho. Johdanto Työ ja kineettinen energia Teho

Luento 10: Työ, energia ja teho. Johdanto Työ ja kineettinen energia Teho Luento 10: Työ, energia ja teho Johdanto Työ ja kineettinen energia Teho 1 / 23 Luennon sisältö Johdanto Työ ja kineettinen energia Teho 2 / 23 Johdanto Energia suure, joka voidaan muuttaa muodosta toiseen,

Lisätiedot

Talousmatematiikan perusteet: Luento 12. Usean muuttujan funktiot Osittaisderivaatta Gradientti Suhteellinen muutosnopeus ja osittaisjousto

Talousmatematiikan perusteet: Luento 12. Usean muuttujan funktiot Osittaisderivaatta Gradientti Suhteellinen muutosnopeus ja osittaisjousto Talousmatematiikan perusteet: Luento 12 Usean muuttujan funktiot Osittaisderivaatta Gradientti Suhteellinen muutosnopeus ja osittaisjousto Aiemmilla luennoilla Tähän mennessä olemme tarkastelleet Erilaisia

Lisätiedot

2 Osittaisderivaattojen sovelluksia

2 Osittaisderivaattojen sovelluksia 2 Osittaisderivaattojen sovelluksia 2.1 Ääriarvot Yhden muuttujan funktiolla f(x) on lokaali maksimiarvo (lokaali minimiarvo) pisteessä a, jos f(x) f(a) (f(x) f(a)) kaikilla x:n arvoilla riittävän lähellä

Lisätiedot

VEKTORIT paikkavektori OA

VEKTORIT paikkavektori OA paikkavektori OA Piste A = (2, -1) Paikkavektori OA = 2i j 3D: kuvan piirtäminen hankalaa Piste A = (2, -3, 4) Paikkavektori OA = 2i 3j + 4k Piste A = (a 1, a 2, a 3 ) Paikkavektori OA = a 1 i + a 2 j

Lisätiedot

Kohdeyleisö: toisen vuoden teekkari

Kohdeyleisö: toisen vuoden teekkari Julkinen opetusnäyte Yliopisto-opettajan tehtävä, matematiikka Klo 8:55-9:15 TkT Simo Ali-Löytty Aihe: Lineaarisen yhtälöryhmän pienimmän neliösumman ratkaisu Kohdeyleisö: toisen vuoden teekkari 1 y y

Lisätiedot

, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1).

, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1). HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 017 Harjoitus 4 Ratkaisuehdotukset 4.1. Osoita, että tasa-arvojoukko S F (0), F : R 3 R, F (x) = 3x 1 x 3 + e x + x e x 3, on säännöllinen

Lisätiedot

Inversio-ongelmien laskennallinen peruskurssi Luento 4

Inversio-ongelmien laskennallinen peruskurssi Luento 4 Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa

Lisätiedot

Kognitiivinen mallintaminen 1

Kognitiivinen mallintaminen 1 Kognitiivinen mallintaminen 1 syksy 2009, 1 ja 2 periodi luennot ti:13-15 Tero Hakala ( tero@haka.la) Lisäksi vierailijoita (Otto Lappi, Esko Lehtonen, ehkä muitakin) laskarit ti:15-17 Henri Kauhanen (henri.kauhanen@helsinki.fi)

Lisätiedot

Polkuintegraali yleistyy helposti paloitain C 1 -poluille. Määritelmä Olkoot γ : [a, b] R m paloittain C 1 -polku välin [a, b] jaon

Polkuintegraali yleistyy helposti paloitain C 1 -poluille. Määritelmä Olkoot γ : [a, b] R m paloittain C 1 -polku välin [a, b] jaon Polkuintegraali yleistyy helposti paloitain C 1 -poluille. Määritelmä 4.1.3. Olkoot : [a, b] R m paloittain C 1 -polku välin [a, b] jaon P = {a = t 1 < < t k = b} ja joukko D R m sellainen, että ([a, b])

Lisätiedot

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.

Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5. 2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =

Lisätiedot

Harjoitus 2. 10.9-14.9.2007. Nimi: Op.nro: Tavoite: Gradientin käsitteen sisäistäminen ja omaksuminen.

Harjoitus 2. 10.9-14.9.2007. Nimi: Op.nro: Tavoite: Gradientin käsitteen sisäistäminen ja omaksuminen. SMG-1300 Sähkömagneettiset kentät ja aallot I Harjoitus 2. 10.9-14.9.2007 Nimi: Op.nro: Tavoite: Gradientin käsitteen sisäistäminen ja omaksuminen. Tehtävä 1: Harjoitellaan ensinmäiseksi ymmärtämään lausekkeen

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 10 1 Funktion monotonisuus Derivoituva funktio f on aidosti kasvava, jos sen derivaatta on positiivinen eli jos f (x) > 0. Funktio on aidosti vähenevä jos sen derivaatta

Lisätiedot

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

Matematiikan tukikurssi

Matematiikan tukikurssi Matematiikan tukikurssi Kurssikerta 10 1 Lokaalit ääriarvot Yhden muuttujan funktion f (x) lokaali maksimi on piste x 0, jossa f (x) on suurempi kuin muualle pisteen x 0 ympäristössä, eli kun f (x 0 )

Lisätiedot

6. Differentiaaliyhtälösysteemien laadullista teoriaa.

6. Differentiaaliyhtälösysteemien laadullista teoriaa. 1 MAT-13450 LAAJA MATEMATIIKKA 5 Tampereen teknillinen yliopisto Risto Silvennoinen Kevät 2010 6. Differentiaaliyhtälösysteemien laadullista teoriaa. Olemme keskittyneet tässä kurssissa ensimmäisen kertaluvun

Lisätiedot

A B = (1, q, q 2 ) (2, 0, 2) = 2 2q q 2 = 0 q 2 = 1 q = ±1 A(±1) = (1, ±1, 1) A(1) A( 1) = (1, 1, 1) (1, 1, 1) = A( 1) A(1) A( 1) = 1

A B = (1, q, q 2 ) (2, 0, 2) = 2 2q q 2 = 0 q 2 = 1 q = ±1 A(±1) = (1, ±1, 1) A(1) A( 1) = (1, 1, 1) (1, 1, 1) = A( 1) A(1) A( 1) = 1 Mapu I Viikko 4 tehtävä malli Millä q:n arvoilla vektori A(q) (, q, q ) on kohtisuora vektorin B (, 0, ) kanssa? Ovatko A:n eri ratkaisut keskenään kohtisuoria? Jos eivät, määrää niiden välinen kulma!

Lisätiedot

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä

Lisätiedot

Lineaarialgebra MATH.1040 / voima

Lineaarialgebra MATH.1040 / voima Lineaarialgebra MATH.1040 / voima 1 Seuraavaksi määrittelemme kaksi vektoreille määriteltyä tuloa; pistetulo ja. Määritelmät ja erilaiset tulojen ominaisuudet saattavat tuntua, sekavalta kokonaisuudelta.

Lisätiedot

Selvästi. F (a) F (y) < r x d aina, kun a y < δ. Kolmioepäyhtälön nojalla x F (y) x F (a) + F (a) F (y) < d + r x d = r x

Selvästi. F (a) F (y) < r x d aina, kun a y < δ. Kolmioepäyhtälön nojalla x F (y) x F (a) + F (a) F (y) < d + r x d = r x Seuraavaksi tarkastellaan C 1 -sileiden pintojen eräitä ominaisuuksia. Lemma 2.7.1. Olkoon S R m sellainen C 1 -sileä pinta, että S on C 1 -funktion F : R m R eräs tasa-arvojoukko. Tällöin S on avaruuden

Lisätiedot

VEKTORIANALYYSIN HARJOITUKSET: VIIKKO 4

VEKTORIANALYYSIN HARJOITUKSET: VIIKKO 4 VEKTORIANALYYSIN HARJOITUKSET: VIIKKO 4 Jokaisen tehtävän jälkeen on pieni kommentti tehtävään liittyen Nämä eivät sisällä mitään kovin kriittistä tietoa tehtävään liittyen, joten niistä ei tarvitse välittää

Lisätiedot

Matematiikka B1 - avoin yliopisto

Matematiikka B1 - avoin yliopisto 28. elokuuta 2012 Opetusjärjestelyt Luennot 9:15-11:30 Harjoitukset 12:30-15:00 Tentti Nettitehtävät Kurssin sisältö 1/2 Osittaisderivointi Usean muuttujan funktiot Raja-arvot Osittaisderivaatta Pinnan

Lisätiedot

Mat. tukikurssi 27.3.

Mat. tukikurssi 27.3. Mat. tukikurssi 7.. Tänään oli paljon vaikeita aiheita: - suunnattu derivaatta - kokonaisdierentiaali - dierentiaalikehitelmä - implisiittinen derivointi Nämä kaikki liittvät aika läheisesti toisiinsa.

Lisätiedot

1 Määrittelyjä ja aputuloksia

1 Määrittelyjä ja aputuloksia 1 Määrittelyjä ja aputuloksia 1.1 Supremum ja infimum Aluksi kerrataan pienimmän ylärajan (supremum) ja suurimman alarajan (infimum) perusominaisuuksia ja esitetään muutamia myöhemmissä todistuksissa tarvittavia

Lisätiedot

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä

Lisätiedot

2.6 Funktioiden kuvaajat ja tasa-arvojoukot

2.6 Funktioiden kuvaajat ja tasa-arvojoukot 2.6 Funktioiden kuvaajat ja tasa-arvojoukot Olkoon I R väli. Yhden muuttujan funktion g : I R kuvaaja eli graafi on avaruuden R 2 osajoukko {(x, y) R 2 : x I, y = g(x)}. 1 0 1 2 3 1 0.5 0 0.5 1 Kuva 2.1:

Lisätiedot

r > y x z x = z y + y x z y + y x = r y x + y x = r

r > y x z x = z y + y x z y + y x = r y x + y x = r HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 018 Harjoitus Ratkaisuehdotukset Tehtävä 1. Osoita, että avoin kuula on avoin joukko ja suljettu kuula on suljettu joukko. Ratkaisu.

Lisätiedot

Harjoitus 6: Simulink - Säätöteoria. Syksy 2006. Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1

Harjoitus 6: Simulink - Säätöteoria. Syksy 2006. Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoitus 6: Simulink - Säätöteoria Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen säätötekniikkaan Takaisinkytkennän

Lisätiedot

KJR-C1001 Statiikka ja dynamiikka. Luento Susanna Hurme

KJR-C1001 Statiikka ja dynamiikka. Luento Susanna Hurme KJR-C1001 Statiikka ja dynamiikka Luento 24.2.2016 Susanna Hurme Päivän aihe: Voiman momentin käsite (Kirjan luvut 4.1-4.6) Mikä on voiman momentti? Määritetään momentti skalaari- ja vektorimuodossa Opitaan

Lisätiedot

Talousmatematiikan perusteet: Luento 13. Usean muuttujan funktiot Osittaisderivaatta ja gradientti Suhteellinen muutosnopeus ja osittaisjousto

Talousmatematiikan perusteet: Luento 13. Usean muuttujan funktiot Osittaisderivaatta ja gradientti Suhteellinen muutosnopeus ja osittaisjousto Talousmatematiikan perusteet: Luento 13 Usean muuttujan funktiot Osittaisderivaatta ja gradientti Suhteellinen muutosnopeus ja osittaisjousto Aiemmilla luennoilla Tähän mennessä olemme tarkastelleet Erilaisia

Lisätiedot

Matemaattisen analyysin tukikurssi

Matemaattisen analyysin tukikurssi Matemaattisen analyysin tukikurssi 10. Kurssikerta Petrus Mikkola 22.11.2016 Tämän kerran asiat Globaali ääriarvo Konveksisuus Käännepiste L Hôpitalin sääntö Newtonin menetelmä Derivaatta ja monotonisuus

Lisätiedot

7. Differentiaalimuotoinen jatkuvuusyhtälö. KJR-C2003 Virtausmekaniikan perusteet

7. Differentiaalimuotoinen jatkuvuusyhtälö. KJR-C2003 Virtausmekaniikan perusteet 7. Differentiaalimuotoinen jatkuvuusyhtälö KJR-C2003 Virtausmekaniikan perusteet Päivän anti Miten lähestymistapaa pitää muuttaa, jos halutaan tarkastella virtausta lokaalisti globaalin tasetarkastelun

Lisätiedot

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016

Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016 Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.

Lisätiedot

Likimääräisratkaisut ja regularisaatio

Likimääräisratkaisut ja regularisaatio Luku 3 Likimääräisratkaisut ja regularisaatio Käytännön inversio-ongelmissa annettu data y ei aina ole tarkkaa, vaan sisältää häiriöitä. Tuntemattomasta x on annettu häiriöinen data y F (x + }{{}}{{} ε.

Lisätiedot

Viikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen

Viikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen Viikko 3: Lineaarista regressiota ja luokittelua Matti Kääriäinen matti.kaariainen@cs.helsinki.fi Exactum D122, 30-31.1.2008. 1 Tällä viikolla Sisältösuunnitelma: Lineaarinen regressio Pienimmän neliösumman

Lisätiedot

Johdatus tekoälyn taustalla olevaan matematiikkaan

Johdatus tekoälyn taustalla olevaan matematiikkaan Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3.11.2017 Mitä tekoäly on? Wikipedia: Tekoäly on tietokone tai tietokoneohjelma, joka kykenee älykkäiksi

Lisätiedot

Dynaamiset regressiomallit

Dynaamiset regressiomallit MS-C2128 Ennustaminen ja Aikasarja-analyysi, Heikki Seppälä Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2015 Viikko 6: 1 Kalmanin suodatin Aiemmin käsitellyt

Lisätiedot

Monitavoiteoptimointi

Monitavoiteoptimointi Monitavoiteoptimointi Useita erilaisia tavoitteita, eli useita objektifunktioita Tavoitteet yleensä ristiriitaisia ja yhteismitattomia Optimaalisuus tarkoittaa yleensä eri asiaa kuin yksitavoitteisessa

Lisätiedot

f(x, y) = x 2 y 2 f(0, t) = t 2 < 0 < t 2 = f(t, 0) kaikilla t 0.

f(x, y) = x 2 y 2 f(0, t) = t 2 < 0 < t 2 = f(t, 0) kaikilla t 0. Ääriarvon laatu Jatkuvasti derivoituvan funktion f lokaali ääriarvokohta (x 0, y 0 ) on aina kriittinen piste (ts. f x (x, y) = f y (x, y) = 0, kun x = x 0 ja y = y 0 ), mutta kriittinen piste ei ole aina

Lisätiedot

Evolutiivisesti stabiilin strategian oppiminen

Evolutiivisesti stabiilin strategian oppiminen Evolutiivisesti stabiilin strategian oppiminen Janne Laitonen 8.10.2008 Maynard Smith: s. 54-60 Johdanto Käytös voi usein olla opittua perityn sijasta Tyypillistä käytöksen muuttuminen ja riippuvuus aikaisemmista

Lisätiedot

Optimointi. Etsitään parasta mahdollista ratkaisua annetuissa olosuhteissa. Ongelman mallintaminen. Mallin ratkaiseminen. Ratkaisun analysointi

Optimointi. Etsitään parasta mahdollista ratkaisua annetuissa olosuhteissa. Ongelman mallintaminen. Mallin ratkaiseminen. Ratkaisun analysointi Optimointi Etsitään parasta mahdollista ratkaisua annetuissa olosuhteissa Ongelman mallintaminen Mallin ratkaiseminen Ratkaisun analysointi 1 Peruskäsitteitä Muuttujat: Sallittu alue: x = (x 1, x 2,...,

Lisätiedot

Luento 8: Epälineaarinen optimointi

Luento 8: Epälineaarinen optimointi Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori = (,..., ). Reaalisten m n-matriisien joukkoa merkitään

Lisätiedot

Harjoitus 5: Simulink

Harjoitus 5: Simulink Harjoitus 5: Simulink Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Tutustuminen Simulinkiin Differentiaaliyhtälöiden

Lisätiedot

Viikon aiheet. Funktion lineaarinen approksimointi

Viikon aiheet. Funktion lineaarinen approksimointi Viikon aiheet Funktion ääriarvot Funktion lineaarinen approksimointi Vektorit, merkintätavat, pituus, yksikkövektori, skalaarilla kertominen, kanta ja kannan vaihto Funktion ääriarvot 6 Väliarvolause Implisiittinen

Lisätiedot

Hermoimpulssi eli aktiopotentiaali

Hermoimpulssi eli aktiopotentiaali Hermoimpulssi eli aktiopotentiaali Piirrä opettajan johdolla kuvat hermoimpulssin etenemisestä 1. KAIKKI solut ovat sähköisesti varautuneita o sähköinen varaus solun sisäpuolella on noin 70 millivolttia

Lisätiedot

Sovellettu todennäköisyyslaskenta B

Sovellettu todennäköisyyslaskenta B Sovellettu todennäköisyyslaskenta B Antti Rasila 30. marraskuuta 2007 Antti Rasila () TodB 30. marraskuuta 2007 1 / 19 1 Lineaarinen regressiomalli ja suurimman uskottavuuden menetelmä Minimin löytäminen

Lisätiedot

Matematiikkaa kauppatieteilijöille

Matematiikkaa kauppatieteilijöille Matematiikkaa kauppatieteilijöille Harjoitus 7, syksy 2016 1. Funktio f(x) = x 2x 2 + 4 on jatkuva ja derivoituva kaikilla x R. Nyt funktio f(x) on aidosti alaspäin kupera kun f (x) > 0 ja aidosti ylöspäin

Lisätiedot

Datatähti 2019 loppu

Datatähti 2019 loppu Datatähti 2019 loppu task type time limit memory limit A Summa standard 1.00 s 512 MB B Bittijono standard 1.00 s 512 MB C Auringonlasku standard 1.00 s 512 MB D Binääripuu standard 1.00 s 512 MB E Funktio

Lisätiedot

1 Rajoittamaton optimointi

1 Rajoittamaton optimointi Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y

Lisätiedot

4. Monikerroksinen perceptron

4. Monikerroksinen perceptron 37 38 4. Monikerroksinen perceptron 4.. Johdanto Tämä kappale käsittelee monikerroksista perceptronia kuvaten tarvittavat muutokset neuronin perusmalliin, jotta monimutkaisempia ongelmia kuin edellä pystytään

Lisätiedot

Kieli merkitys ja logiikka. 2: Helpot ja monimutkaiset. Luento 2. Monimutkaiset ongelmat. Monimutkaiset ongelmat

Kieli merkitys ja logiikka. 2: Helpot ja monimutkaiset. Luento 2. Monimutkaiset ongelmat. Monimutkaiset ongelmat Luento 2. Kieli merkitys ja logiikka 2: Helpot ja monimutkaiset Helpot ja monimutkaiset ongelmat Tehtävä: etsi säkillinen rahaa talosta, jossa on monta huonetta. Ratkaisu: täydellinen haku käy huoneet

Lisätiedot