1. NEUROVERKKOMENETELMÄT
|
|
- Yrjö Ketonen
- 8 vuotta sitten
- Katselukertoja:
Transkriptio
1 1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia menetelmiä, joita kutsutaan esim. seuraavilla nimillä: (Artificial) Neural Networks eli (A)NN, Connectionist Modelling ja Parallel Distributed Processing eli PDP. Neuroverkkomenetelmien tärkeimmät ominaispiirteet ovat: Yksinkertaiset laskentayksiköt (neuronit tai perseptronit) Verkkomainen struktuuri, synaptiset kytkennät Rinnakkainen laskenta Neuroverkko koostuu (lukuisista) toisiinsa (lokaalisti) kytketyistä neuroneista.
2 Kytkentöjen vahvuus on säädeltävissä synaptisten painojen avulla. Yksittäisen neuronin laskentakyky on vähäinen. Neuronien väliset kytkennät (neuroverkon struktuuri) voivat jakaa monimutkaisen ongelman yksinkertaisiksi osaongelmiksi. Kokonaislaskenta-aika nopeutuu, kun osaongelmat ratkaistaan rinnakkaisesti. Neuroverkot ovat dynaamisia systeemejä, joiden tila (neuronien kytkennät ja ulostulo) muuttuu ajan, sisääntulojen ja alkutilan mukaan. Hahmontunnistusongelmassa pyritään löytämään neuronien välille sellaiset kytkennät, että syntyy haluttu assosiatiivinen käyttäytyminen: annettu sisääntu (havainnot) yhdistetään tiettyyn vasteeseen (luokitus). Klusterointiongelmassa pyritään muodostamaan neuroverkon avulla malli havaintojen rakenteelle. Erilaisia neuroverkkojen rakenteita: (a) Feedforward MLP-verkko, (b) rekurentti Hopfield-verkko, (c) Yleinen kaaviokuva (a):sta, (d) yleinen kaaviokuva 2
3 (b):stä 3
4 Tyypillisiä piirteitä neuroverkkosovelluksille: Korkeaulotteinen piirreavaruus Monimutkaiset riippuvuussuhteet piirteiden välillä Tyhjä, yksikäsitteinen tai (yleensä) usean suhteellisen tasavertaisen vaihtoehdon muodostama ratkaisujoukko Hahmontunnistuksessa neuroverkot soveltuvat varsinaisen luokittelun ja vertailun lisäksi esikäsittelyyn ja piirreirrotukseen. 4
5 1.1 Perseptroni Biologinen (a) ja elektroninen (b) neuronimalli: 5
6 Perseptroni on malli neuroverkon neuronille, joka suorittaa sisääntulolleen x seuraavan, yksinkertaisen laskutoimituksen: v = w 0 + y = f(v), l w i x i = w 0 + w T x, (1) i=1 missä y on neuronin ulostulo, w synaptisten kytkentöjen painokertoimet, w 0 kynnysarvo ja f( ) aktivaatiofunktio (2) 6
7 Perseptronin aktivaatiofunktio on usein tyypiltään jokin seuraavista: { 1, jos x < 0 f(x) =, (3) +1, jos x > 0 { 0, jos x < 0 f(x) =, (4) 1, jos x > 0 f(x) = exp( ax), (5) f(x) = c 1 exp( ax) 1 + exp( ax) = c tanh(ax 2 missä a ja c ovat funktion muotoa sääteleviä parametreja. ), (6) Edelliset aktivaatiofunktiot ovat tyypiltään epäjatkuvia askelfunktioita (McCulloch-Pitts perseptroni) tai jatkuvia ja derivoituvia litistysfunktioita (squashing function). 7
8 Molemmilla tyypeillä on puolensa: askelfunktioilla neuroverkon suorittaman kuvauksen analysointi, ja jatkuvilla funktiolla neuroverkon opettaminen on helpompaa. Erilaisia aktivaatiofunktiota: (a) lineaarinen, (b) kynnys/askelfunktio, (c) lineaarinen kynnysfunktio, (d) sigmoidi, (f) sigmoideja erilaisilla parametrin arvoilla 8
9 Kun käytetään em perseptroneja diskriminanttifunktiona, voidaan piirreavaruus jakaa lineaarisesti kahteen osaan. Yksittäinen perseptroni suoriutuu siis melko yksinkertaisesta luokitteluongelmasta. (Perseptronin opettamisesta puhuttiin lineaaristen luokittimien yhteydessä.) (Aktivaatiofunktiot voivat olla myös RBF-tyyppisiä.) 1.2 MLP-verkko Kytkemällä perseptroneja toisiinsa, saadaan aikaiseksi monimutkaisemmista ongelmista suoriutuva neuroverkko. Eräs tyypillinen ratkaisu on kytkeä perseptronit toisiinsa siten, että ei synny silmukoita (feedforward network). 9
10 Tämän verkkoarkkitehtuurin yksi yleinen erikoistapaus on monikerrosperseptroni (multi-layer perceptron, MLP). MLP-verkossa perseptronit on järjestetty useiksi kerroksiksi, joiden sisällä ei ole kytkentöjä. Kerrokset on järjestetty ja jokainen kerros kytketty täydellisesti edeltäjäänsä ja seuraajaansa. Kuva 3-kerrosperseptronista, jolla on yksi ulostuloperseptroni: 10
11 MLP:n 1. kerros on sisääntulokerros, jossa on jokaiselle piirteelle oma perseptroni. Sisääntulokerroksen perseptronit eivät suorita lainkaan laskentaa. Viimeinen kerros on ulostulokerros, jonka perseptronien ulostulo on koko neuroverkon ulostulo eli vaste. Ulostuloperseptronien aktivaatiofunktio on usein lineaarinen. Ulostuloperseptronien lkm riippuu ongelmasta. Väliin jääviä kerroksia kutsutaan piilokerroksiksi. Piiloperseptronien aktivaatiofunktion tyyppi on usein kaikille sama (jos tyyppi on RBF, verkkoa kutsutaan RBF-verkoksi). Sopiva piiloperseptronien lkm riippuu ongelmasta. Tarkastellaan seuraavaksi 2- ja 3-kerroksisia MLP-verkkoja, joiden perseptronit on McCulloch-Pitts-tyyppisiä. 11
12 2-kerrosperseptroni ( Two-layer perceptron ) Yksinkertaisimmillaan MLP-verkossa on vain yksi piilokerros ja yksi ulostuloperseptroni (vastaa kahden luokan ongelmaa): 12
13 Seuraava tarkastelu on helppo yleistää useammalle ulostuloperseptronille (useamman kuin kahden luokan ongelma). Voidaan ajatella, että 2-kerrosperseptroni ratkaisee luokitteluongelman kahdessa perättäisessä vaiheessa. Piilokerros määrittää piirreavaruuteen hypertasoja ja laskee sisääntulon aseman niihin nähden. Ulostulokerros yhdistelee piilokerroksen perseptronien ulostuloja ja päättelee mihin osaan piirreavaruutta ja mihin luokkaan havainto kuuluu. Voidaan myös ajatella, että piilokerros suorittaa epälineaarisen kuvauksen uuteen piirreavaruuteen ja ulostulokerros suorittaa varsinaisen lineaarisen luokittelun (vrt. viime luonnolla esitelty yleistetty lineaarinen luokitin). Esimerkki: XOR ja 2-kerrosperseptroni Ratkaistaan 2-ulotteinen XOR-ongelma käyttäen 2-kerrosperseptronia. Perseptronien aktivaatiofunktiot saavat joko arvon 0 (epätosi) tai 1 (tosi). 13
14 Käytetään piilokerroksessa kahta perseptronia. Valitaan piiloperseptronien painokertoimet siten, että tosi-luokan havainnot jäävät perseptronien määrittämien suorien väliin ja epätosi-luokan havainnot taas niiden ulkopuolelle: 14
15 Valitaan ainoan ulostuloperseptronin painokertoimet siten, että verkon ulostulo on 0 tai 1 seuraavan taulukon mukaisesti: x 1 x 2 y1 h y2 h y o missä x 1 ja x 2 ovat verkon sisääntulot, y h 1 ja y h 2 piiloperseptronien ulostulot ja y o verkon ulostulo. Toinen piiloperseptroni suorittaa AND- ja toinen OR-operaation (vrt. aikaisempi esimerkki). 15
16 Verkon painokertoimet voidaan valita esimerkiksi seuraavasti: 16
17 2-kerrosperseptronin luokittelukyky Tarkastellaan seuraavaksi millaisista kahden luokan ongelmista 2-kerrosperseptroni selviytyy (tulokset yleistyvät helposti useammalle kuin kahdelle luokalle). Ol., että aktivaatiofunktiot ovat kaksiarvoisia (0 tai 1). Ol., että verkossa on l inputperseptronia, p piiloperseptronia ja yksi ulostuloperseptroni. Piilokerros kuvaa piirrevektorit p-ulotteisen hyperkuution H p kulmiin: H p = {[y 1,..., y p ] T, y i [0, 1], 1 i p} (7) Hyperkuution kulmia ovat ne pisteet, joissa y i :iden arvot ovat joko nollia tai ykkösiä. Jokainen piiloperseptroni vastaa hypertasoa. Nämä hypertasot jakavat piirreavaruuden osiin, monitahokkaiksi, joista jokainen vastaa yhtä hyperkuution H p kulmaa. 17
18 Ulostuloperseptroni jakaa hyperkuution H p lineaarisesti kahteen osaan. Eri hyperkuution osiin jäävät kulmat vastaavat eri luokkia. 2-kerrosperseptronin muodostamat päätösalueet ovat siis monitahokkaiden unioneita. 18
19 19
20 3-kerrosperseptroni Tarkastellaan seuraavaksi 3-kerrosperseptronia, jossa on 2 piilokerrosta ja joka pystyy suorittamaan monimutkaisemman kuvauksen kuin 2-kerrosperseptroni. Tarkastellaan kahden luokan ongelmaa. Ol. että perseptronien ulostulot ovat kaksiarvoisia. Ol., että luokkaan ω 1 kuuluvat kaikki havainnot, jotka sattuvat tiettyihin (J kpl) 1.:n piilokerroksen p:n perseptronin määrittämiin monitahokkaisiin. Luokkaa ω 2 vastaavat kaikki loput monitahokkaat. 2. piilokerros pystyy muodostamaan kaikki mahdolliset J:n monitahokkaan unionit, jos siinä on J piiloperseptronia 20
21 Todistuksen luonnehdinta: 1. piilokerroksen perseptronit määrittävät p hypertasoa piirreavaruudessa. 1. piilokerros kuvaa piirrevektorit p-ulotteisen hyperkuution kulmille. Jokainen kulma vastaa yhtä hypertasojen rajaamaa monitahokasta piirreavaruudessa. Valitaan 2.:n piilokerroksen perseptronien painot siten, että yksi perseptroni erottaa yhden hyperkuution kulman kaikista muista. Valitaan eroteltavat kulmat siten, että ne vastaavat luokkaa ω 1. Valitaan ulostuloperseptronin painot siten, että perseptroni toteuttaa OR-operaation. Nyt verkon ulostulo on tosi (1), jos piirrevektori sattuu johonkin luokkaa ω 1 vastaavaan monitahokkaaseen ja muulloin epätosi (0). 21
22 2. piilokerrokseen ei välttämättä tarvita J:tä piiloperseptronia - minimimäärä riippuu ongelmasta. Yhteenveto: 1. piilokerros määrittää hypertasot piirreavaruuteen, 2. piilokerros määrittää hypertasojen rajaamien monitahokkaiden unioneita, ja ulostulokerros määrittää eri luokkia vastaavat päätösalueet. (Jos perseptronien aktivaatiofunktiot eivät ole askelfunktioita, MLP-verkon toiminnan tulkinta ei ole näin suoraviivaista.) 1.3 Universaali approksimaattori Edellisten tarkastelujen perusteella MLP-verkko on selvästi epälineaarinen luokittelumenetelmä. MLP-verkko, jonka piiloperseptronit ovat epälineaarisia ja ulostuloperseptronit lineaarisia ja jolla on yksi ulostuloperseptroni, on yleistetty lineaarinen luokitin (ks. edellinen luento). 22
23 1.4 Neuroverkon opettaminen MLP-verkot, kuten muutkin neuroverkot tai yksittäiset perseptronit, opetetaan opetusjoukon avulla. Opettamisella tarkoitetaan yleensä sopivien synaptisten painojen ja kynnysarvojen (verkon vapaiden parametrien) määräämistä. Laajemmin ajateltuna oppimisena voidaan pitää myös verkon struktuurin valintaa. Oppiminen voi olla joko ohjattua (esim. backpropagation), ohjaamatonta (esim. Hebbian, Self-Organizing Map eli SOM) tai vahvistettua (reinforcement learning). Ohjaamattomassa oppimisessa yritetään löytää havainnoille mielekäs vaste: (anti)hebbian-oppiminen vahvistaa niiden neuronien välisiä kytkentöjä, jotka aktivoituvat yhtä(eri)aikaisesti. Hebbian-tyyppisiä synapseja kutsutaankin korrelaatiosynapseiksi 23
24 On olemassa fysiologisia todisteita sille, että hippokampuksessa (aivoturso), jolla on tärkeä rooli oppimisessa ja muistamisessa, tapahtuu Hebbian-tyyppistä oppimista. SOM yrittää mallintaa havaintojen rakennetta neuronihilan avulla siten, että lähellä toisiaan olevat neuronit aktivoituvat samankaltaisista havainnoista (tästä lisää klusteroinnin yhteydessä). Ohjatussa oppimisessa haluttu verkon vaste (luokka) tunnetaan. Verkon struktuuri ja synaptiset painot pyritään valitsemaan siten, että verkon todellinen vaste on mahdollisimman lähellä sen haluttua vastetta ja että verkon struktuuri on mahdollisimman yksinkertainen. Ohjatun oppimisen menetelmät voidaan jakaa kahteen luokkaan: 1) opetusjoukon täydelliseen luokitteluun perustuvat menetelmät ja 2) verkon halutun ja todellisen vasteen eroa kuvastavan kustannusfunktion minimointiin perustuvat menetelmät. 24
25 Opetusjoukon täydelliseen luokitteluun perustuvat menetelmät Näissä menetelmissä lähdetään liikkeelle yksinkertaisesta neuroverkosta, joka ei yleensä pysty ratkaisemaan annettua tehtävää. Verkkoon lisätään perseptroneja, kunnes se hallitsee opetusjoukon täydellisesti. Lähtökohtana on ajatus ongelman jakamisesta helpompiin osaongelmiin, jotka pystytään ratkaisemaan yhdellä perseptronilla tai hyvin yksinkertaisella verkolla (constructive techniques). Verkon parametrit voidaan määrätä lineaaristen luokittimien yhteydessä esitetyillä menetelmillä (esim. perseptroni- tai LMS-algoritmillä). Verkon asteittaiseen kasvattamiseen on kehitelty useita menetelmiä, jotka perustuvat uusien piilokerrosten tai piiloperseptronien lisäämiseen. Osa menetelmistä tuottaa MLP-verkkoja, mutta osa sallii kytkennät muidenkin kuin perättäisten kerrosten välillä tai kytkennät kerrosten sisällä. 25
26 Esimerkki: Tiling-algoritmi Tiling-algoritmi on yksi konstruktiivinen menetelmä. Se tuottaa MLP-verkkoja, joissa on useita kerroksia, yleensä vähintään kolme. Tarkastellaan kahden luokan ongelmaa: Algoritmi lähtee liikkeelle yhdestä master-perseptronista, joka on ensimmäisessä kerroksessa ja joka opetetaan pocket-algoritmillä Jaetaan opetusjoukko X kahteen osajoukkoon: päätöspinnan positiiviselle (X + ) ja negatiiviselle puolelle (X ) sijoittuvat havainnot Mikäli jompikumpi tai molemmat osajoukot sisältävät näytteitä molemmista luokista, lisätään ensimmäiseen kerrokseen apu-perseptronit: n(x + ) ja/tai n(x ), jotka opetetaan osajoukoilla X + ja/tai X Jaetaan osajoukot X + ja X tarvittaessa uusiksi osajoukoiksi X ++, X +, X +, ja X ja lisätään niitä vastaavat apu-perseptronit 26
27 Lisätään apu-perseptroneja kunnes ei pystytä muodostamaan uusia osa-joukkoja Lisätään uusi kerros ja siihen master-perseptroni, joka saa syötteensä kaikilta edellisen kerroksen perseptroneilta ja jota opetetaan koko opetusjoukolla. Kasvatetaan uutta kerrosta apu-perseptroneilla kuten ensimmäistä kerrosta Lisätään uusia kerroksia, kunnes pystytään luokittelemaan kaikki opetusnäytteet oikein Voidaan osoittaa, että verkkoon lisätään vain äärellinen määrä kerroksia (jokainen uusi kerros pystyy luokittelemaan oikein kaikki ne näytteet kuin edellisen kerroksen master-perseptronikin ja vähintään yhden näytteen enemmän) 27
28 Luokitteluongelman ratkaisu Tiling-algoritmillä: 28
29 Esimerkki: lähimmän naapurin menetelmään perustuva verkko Toinen esimerkki konstruktiivisesta oppimismenetelmästä on MLP-verkon rakentaminen lähimmän naapurin menetelmään (knn) perustuen: MLP-verkon 1. piilokerros koostuu perseptroneista, jotka määrittävät hypertason jokaisen opetusnäyteparin välille 2. piilokerros muodostaa hypertasoista monitahokkaita AND-perseptronien avulla Ulostulokerros muodostaa päätösalueet OR-perseptronien avulla Menetelmän haittapuolena on se, että verkkoon tarvitaan runsaasti neuroneja. 29
1. NEUROVERKKOMENETELMÄT
1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
Kognitiivinen mallintaminen Neuraalimallinnus, luento 1
Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Nelli Salminen nelli.salminen@helsinki.fi D433 Neuraalimallinnuksen osuus neljä luentokertaa, muutokset alla olevaan suunnitelmaan todennäköisiä
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 2. luento 10.11.2017 Keinotekoiset neuroverkot Neuroverkko koostuu syöte- ja ulostulokerroksesta
Backpropagation-algoritmi
Backpropagation-algoritmi Hyvin yleisesti käytetty Backpropagation (BP) -algoritmi on verkon halutun ja todellisen vasteen eroa kuvastavan kustannusfunktion minimointiin perustuva menetelmä. Siinä MLP-verkon
1. LINEAARISET LUOKITTIMET (jatkoa)
1. LINEAARISET LUOKITTIMET (jatkoa) 1.1 Tukivektorikone ( A Tutorial on Support Vector Machines for Pattern Recognition, http://www.kernel-machines.org/papers/burges98.ps.gz) Tukivektorikoneen ( Support
Kognitiivinen mallintaminen. Nelli Salminen
Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3. luento 17.11.2017 Neuroverkon opettaminen (ohjattu oppiminen) Neuroverkkoa opetetaan syöte-tavoite-pareilla
Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö
Tällä kerralla ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 19.2. Nelli Salminen nelli.salminen@helsinki.fi D433 vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko
1. LINEAARISET LUOKITTIMET
1. LINEAARISET LUOKITTIMET Edellisillä luennoilla tarkasteltiin luokitteluongelmaa tnjakaumien avulla ja esiteltiin menetelmiä, miten tarvittavat tnjakaumat voidaan estimoida. Tavoitteena oli löytää päätössääntö,
Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn
Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekniikkaan ITKA352) Informaatioteknologian tiedekunta Jyväskylän yliopisto 23.3.2018 Tekoälyn historiaa 6 1 Introduction Kuva Fig. lähteestä 1.3
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
1. TILASTOLLINEN HAHMONTUNNISTUS
1. TILASTOLLINEN HAHMONTUNNISTUS Tilastollisissa hahmontunnistusmenetelmissä piirteitä tarkastellaan tilastollisina muuttujina Luokittelussa käytetään hyväksi seuraavia tietoja: luokkien a priori tn:iä,
Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat
1 Tukivektoriluokittelija Tukivektorikoneeseen (support vector machine) perustuva luoikittelija on tilastollisen koneoppimisen teoriaan perustuva lineaarinen luokittelija. Perusajatus on sovittaa kahden
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 4. luento 24.11.2017 Neuroverkon opettaminen - gradienttimenetelmä Neuroverkkoa opetetaan syöte-tavoite-pareilla
ImageRecognition toteutus
ImageRecognition toteutus Simo Korkolainen 27 kesäkuuta 2016 Projektin tarkoituksena on tehdä ohjelma, joka opettaa neuroverkon tunnistamaan kuvia backpropagation-algoritmin avulla Neuroverkon opetuksessa
Ongelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida?
Ongelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida? 2 Tieto on koodattu aikaisempaa yleisemmin digitaaliseen muotoon,
Tänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.)
Tänään ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 26.2. Nelli Salminen nelli.salminen@helsinki.fi D433 autoassosiaatio, attraktorin käsite esimerkkitapaus: kolme eri tapaa mallintaa kategorista
Yhtälöryhmä matriisimuodossa. MS-A0007 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A000 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 2..205 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x x 2 =
Lineaariset luokittelumallit: regressio ja erotteluanalyysi
Lineaariset luokittelumallit: regressio ja erotteluanalyysi Aira Hast Johdanto Tarkastellaan menetelmiä, joissa luokittelu tehdään lineaaristen menetelmien avulla. Avaruus jaetaan päätösrajojen avulla
1 Rajoittamaton optimointi
Taloustieteen matemaattiset menetelmät 7 materiaali 5 Rajoittamaton optimointi Yhden muuttujan tapaus f R! R Muistutetaan mieleen maksimin määritelmä. Funktiolla f on maksimi pisteessä x jos kaikille y
Lineaarinen yhtälöryhmä
Lineaarinen yhtälöryhmä 1 / 39 Lineaarinen yhtälö Määritelmä 1 Lineaarinen yhtälö on muotoa a 1 x 1 + a 2 x 2 + + a n x n = b, missä a i, b R, i = 1,..., n ovat tunnettuja ja x i R, i = 1,..., n ovat tuntemattomia.
Logistinen regressio, separoivat hypertasot
Logistinen regressio, separoivat hypertasot Topi Sikanen Logistinen regressio Aineisto jakautunut K luokkaan K=2 tärkeä erikoistapaus Halutaan mallintaa luokkien vedonlyöntikertoimia (odds) havaintojen
Yhtälöryhmä matriisimuodossa. MS-A0004/A0006 Matriisilaskenta. Tarkastellaan esimerkkinä lineaarista yhtälöparia. 2x1 x 2 = 1 x 1 + x 2 = 5.
2. MS-A4/A6 Matriisilaskenta 2. Nuutti Hyvönen, c Riikka Kangaslampi Matematiikan ja systeemianalyysin laitos Aalto-yliopisto 5.9.25 Tarkastellaan esimerkkinä lineaarista yhtälöparia { 2x x 2 = x + x 2
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5
SGN-2500 Johdatus hahmontunnistukseen 2007 Luennot 4 ja 5 Jussi Tohka jussi.tohka@tut.fi Signaalinkäsittelyn laitos Tampereen teknillinen yliopisto SGN-2500 Johdatus hahmontunnistukseen 2007Luennot 4 ja
Gaussin ja Jordanin eliminointimenetelmä
1 / 25 : Se on menetelmä lineaarisen yhtälöryhmän ratkaisemiseksi. Sitä käytetään myöhemmin myös käänteismatriisin määräämisessä. Ideana on tiettyjä rivioperaatioita käyttäen muokata yhtälöryhmää niin,
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI Ohjaamattomassa oppimisessa on tavoitteena muodostaa hahmoista ryhmiä, klustereita, joiden sisällä hahmot ovat jossain mielessä samankaltaisia ja joiden välillä
Johannes Lehmusvaara Konvoluutioneuroverkot kirjain- ja numeromerkkien tunnistuksessa. Kandidaatintyö
Johannes Lehmusvaara Konvoluutioneuroverkot kirjain- ja numeromerkkien tunnistuksessa Kandidaatintyö Tarkastaja: lehtori Heikki Huttunen Jätetty tarkastettavaksi 9.5.2014 I TIIVISTELMÄ TAMPEREEN TEKNILLINEN
Talousmatematiikan perusteet: Luento 12. Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla
Talousmatematiikan perusteet: Luento 12 Lineaarinen optimointitehtävä Graafinen ratkaisu Ratkaisu Excel Solverilla Esimerkki Esim. Yritys tekee kahta elintarviketeollisuuden käyttämää puolivalmistetta,
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3.11.2017 Mitä tekoäly on? Wikipedia: Tekoäly on tietokone tai tietokoneohjelma, joka kykenee älykkäiksi
Numeeriset menetelmät
Numeeriset menetelmät Luento 5 Ti 20.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 5 Ti 20.9.2011 p. 1/40 p. 1/40 Choleskyn menetelmä Positiivisesti definiiteillä matriiseilla kolmiohajotelma
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI
1. TODENNÄKÖISYYSJAKAUMIEN ESTIMOINTI Edellä esitelty Bayesiläinen luokittelusääntö ( Bayes Decision Theory ) on optimaalinen tapa suorittaa luokittelu, kun luokkien tnjakaumat tunnetaan Käytännössä tnjakaumia
1 Kertaus. Lineaarinen optimointitehtävä on muotoa:
1 Kertaus Lineaarinen optimointitehtävä on muotoa: min c 1 x 1 + c 2 x 2 + + c n x n kun a 11 x 1 + a 12 x 2 + + a 1n x n b 1 a 21 x 1 + a 22 x 2 + + a 2n x n b 2 (11) a m1 x 1 + a m2 x 2 + + a mn x n
MLP-hermoverkko ja sen soveltaminen kuvien luokitteluun
MLP-hermoverkko ja sen soveltaminen kuvien luokitteluun Konenäkö -kurssin 2008 vierailuluento Tietotekniikan laitos Jyväskylän yliopisto Konenäkö -kurssi, 25.9. ja 30.9.2008 Sisältö 1 Hermoverkon perusidea
Näköjärjestelmän mallintamisesta
Näköjärjestelmän mallintamisesta Cog241 Kognitiivinen mallintaminen I 16.11.2010 Henri Kauhanen Muistutus: mallinnusparadigmat Symbolinen, konnektionistinen, dynamistinen Marrin (1982) tasot yksi keino
Kognitiivinen mallintaminen Neuraalimallinnus 11.3.
Kognitiivinen mallintaminen Neuraalimallinnus 11.3. Nelli Salminen nelli.salminen@helsinki.fi D433 Tällä kertaa ajan esittäminen neuroverkoissa dynaamiset systeemit esimerkkitapaus: lyhytkestoinen muisti
Kognitiivinen mallintaminen. Nelli Salminen
Kognitiivinen mallintaminen Neuraalimallinnus 1.12. Nelli Salminen nelli.salminen@tkk.fi Tänään ohjelmassa autoassosiaatio, Hopfieldin verkko attraktorin käsite ajan esittäminen hermoverkoissa esimerkkitapaus:
MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Jarmo Malinen Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto Kevät 2016 1 Perustuu
SUOMEN AKTUAARIYHDISTYS THE ACTUARIAL SOCIETY OF FINLAND
98 SUOMEN AKTUAARIYHDISTYS THE ACTUARIAL SOCIETY OF FINLAND WORKING PAPERS ISSN 0781-4410 SUOMEN AKTUAARIYHDISTYS The Actuarial Society of Finland 98 Tähtinen, Sami Neuroverkkolaskenta ja sen soveltaminen
Dynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Tilastolliset aikasarjat voidaan jakaa kahteen
Tee-se-itse -tekoäly
Tee-se-itse -tekoäly Avainsanat: koneoppiminen, tekoäly, neuroverkko Luokkataso: 6.-9. luokka, lukio, yliopisto Välineet: kynä, muistilappuja tai kertakäyttömukeja, herneitä tms. pieniä esineitä Kuvaus:
Diskriminanttianalyysi I
Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi
Algoritmit 2. Luento 4 To Timo Männikkö
Algoritmit 2 Luento 4 To 21.3.2019 Timo Männikkö Luento 4 Hajautus Yhteentörmäysten käsittely Avoin osoitteenmuodostus Hajautusfunktiot Puurakenteet Solmujen läpikäynti Algoritmit 2 Kevät 2019 Luento 4
Matemaatiikan tukikurssi
Matemaatiikan tukikurssi Kurssikerta 1 1 Funktiot Funktion määritelmä Funktio on sääntö, joka liittää kahden eri joukon alkioita toisiinsa. Ollakseen funktio tämän säännön on liitettävä jokaiseen lähtöjoukon
Algoritmit 1. Luento 3 Ti Timo Männikkö
Algoritmit 1 Luento 3 Ti 17.1.2017 Timo Männikkö Luento 3 Algoritmin analysointi Rekursio Lomituslajittelu Aikavaativuus Tietorakenteet Pino Algoritmit 1 Kevät 2017 Luento 3 Ti 17.1.2017 2/27 Algoritmien
Kieli merkitys ja logiikka. 2: Helpot ja monimutkaiset. Luento 2. Monimutkaiset ongelmat. Monimutkaiset ongelmat
Luento 2. Kieli merkitys ja logiikka 2: Helpot ja monimutkaiset Helpot ja monimutkaiset ongelmat Tehtävä: etsi säkillinen rahaa talosta, jossa on monta huonetta. Ratkaisu: täydellinen haku käy huoneet
Kokonaislukuoptiomointi Leikkaustasomenetelmät
Kokonaislukuoptiomointi Leikkaustasomenetelmät Systeemianalyysin Laboratorio 19.3.2008 Sisällys Leikkaustasomenetelmät yleisesti Leikkaustasomenetelmät generoivilla kokonaislukujoukoilla Gomoryn leikkaavat
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 5. luento.2.27 Lineaarialgebraa - Miksi? Neuroverkon parametreihin liittyvät kaavat annetaan monesti
TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta. Yliassistentti Jussi Hakanen syksy 2010
TIES592 Monitavoiteoptimointi ja teollisten prosessien hallinta Yliassistentti Jussi Hakanen jussi.hakanen@jyu.fi syksy 2010 Optimaalisuus: objektiavaruus f 2 min Z = f(s) Parhaat arvot alhaalla ja vasemmalla
805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos K:n lähimmän naapurin menetelmä (K-Nearest neighbours) Tarkastellaan aluksi pientä (n = 9) kurjenmiekka-aineistoa, joka on seuraava:
Kahden suoran leikkauspiste ja välinen kulma (suoraparvia)
Kahden suoran leikkauspiste ja välinen kulma (suoraparvia) Piste x 0, y 0 on suoralla, jos sen koordinaatit toteuttavat suoran yhtälön. Esimerkki Olkoon suora 2x + y + 8 = 0 y = 2x 8. Piste 5,2 ei ole
1 Määrittelyjä ja aputuloksia
1 Määrittelyjä ja aputuloksia 1.1 Supremum ja infimum Aluksi kerrataan pienimmän ylärajan (supremum) ja suurimman alarajan (infimum) perusominaisuuksia ja esitetään muutamia myöhemmissä todistuksissa tarvittavia
E. Oja ja H. Mannila Datasta Tietoon: Luku 2
2. DATASTA TIETOON: MITÄ DATAA; MITÄ TIETOA? 2.1. Data-analyysin ongelma Tulevien vuosien valtava haaste on digitaalisessa muodossa talletetun datan kasvava määrä Arvioita: Yhdysvaltojen kongressin kirjasto
Esimerkki: Tietoliikennekytkin
Esimerkki: Tietoliikennekytkin Tämä Mathematica - notebook sisältää luennolla 2A (2..26) käsitellyn esimerkin laskut. Esimerkin kuvailu Tarkastellaan yksinkertaista mallia tietoliikennekytkimelle. Kytkimeen
MONISTE 2 Kirjoittanut Elina Katainen
MONISTE 2 Kirjoittanut Elina Katainen TILASTOLLISTEN MUUTTUJIEN TYYPIT 1 Mitta-asteikot Tilastolliset muuttujat voidaan jakaa kahteen päätyyppiin: kategorisiin ja numeerisiin muuttujiin. Tämän lisäksi
Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus
Lineaarikombinaatio, lineaarinen riippuvuus/riippumattomuus 1 / 51 Lineaarikombinaatio Johdattelua seuraavaan asiaan (ei tarkkoja määritelmiä): Millaisen kuvan muodostaa joukko {λv λ R, v R 3 }? Millaisen
MS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Vektoriavaruudet Riikka Kangaslampi kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Idea Lineaarisen systeemin ratkaiseminen Olkoon
Hahmontunnistuksen perusteet. Tik (3 ov) L. Syksy 2000
Hahmontunnistuksen perusteet Tik-61.231 (3 ov) L Syksy 2000 Luennot: Laskuharjoitukset: Vuokko Vuori Matti Aksela 1. YLEISTÄ KURSSISTA.................... 1 1.1 Kurssin suorittaminen................ 1
Tekoäly ja koneoppiminen metsävaratiedon apuna
Tekoäly ja koneoppiminen metsävaratiedon apuna Arbonaut Oy ja LUT University 26. marraskuuta 2018 Metsätieteen päivä 2018 Koneoppimisen kohteena ovat lukujen sijasta jakaumat Esimerkki 1 Koneoppimisessa
1. JOHDANTO. 1.1 Johdattelevia esimerkkejä. 1. Kuinka monta ihmishahmoa näet kuvassa?
1. JOHDANTO 1.1 Johdattelevia esimerkkejä 1. Kuinka monta ihmishahmoa näet kuvassa? 1 2. Ovatko viivat yhdensuuntaisia? 2 3. Mitä erikoista on spiraalissa? 3 4. Onko risteyskohdissa mustia vai valkoisia
TIEA241 Automaatit ja kieliopit, syksy Antti-Juhani Kaijanaho. 8. syyskuuta 2016
TIEA241 Automaatit ja kieliopit, syksy 2016 Antti-Juhani Kaijanaho TIETOTEKNIIKAN LAITOS 8. syyskuuta 2016 Sisällys a https://tim.jyu.fi/view/kurssit/tie/ tiea241/2016/videoiden%20hakemisto Matemaattisen
JAANA KORPELA KÄSINKIRJOITETTUJEN NUMEROIDEN TUNNISTUS NEU- ROVERKKOJEN AVULLA. Kandidaatintyö
JAANA KORPELA KÄSINKIRJOITETTUJEN NUMEROIDEN TUNNISTUS NEU- ROVERKKOJEN AVULLA Kandidaatintyö Tarkastaja: Simo Ali-Löytty Tarkastaja: Henri Hansen Palautettu 19.5.2016 i TIIVISTELMÄ JAANA KORPELA: Käsinkirjoitettujen
Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu
Luento 1: Optimointimallin muodostaminen; optimointitehtävien luokittelu Merkintöjä := vasen puoli määritellään oikean puolen lausekkeella s.e. ehdolla; siten että (engl. subject to, s.t.) on voimassa
Sisällys. 3. Muuttujat ja operaatiot. Muuttujat ja operaatiot. Muuttujat. Operaatiot. Imperatiivinen laskenta. Muuttujat. Esimerkkejä: Operaattorit.
3. Muuttujat ja operaatiot Sisällys Imperatiivinen laskenta. Muuttujat. Nimi ja arvo. Muuttujan nimeäminen. Muuttujan tyyppi.. Operandit. Arvon sijoitus muuttujaan. Aritmeettiset operaattorit. Arvojen
Neuroverkoilla luokittelu ja tapausten keinotekoinen lisääminen aineistoon. Lassi Autio
Neuroverkoilla luokittelu a tapausten keinotekoinen lisääminen aineistoon Lassi Autio Tampereen yliopisto Tietoenkäsittelytieteiden laitos Tietoenkäsittelyoppi Pro gradu -tutkielma Elokuu 2003 i Tampereen
Hahmontunnistus terästeollisuudessa. Manu Hietaniemi
Hahmontunnistus terästeollisuudessa Manu Hietaniemi 27. toukokuuta 2014 ! Tiedekunta/Osasto Fakultet/Sektion Faculty Matemaattis-luonnontieteellinen tiedekunta Laitos/Institution Department Matematiikan
v 8 v 9 v 5 C v 3 v 4
Verkot Verkko on (äärellinen) matemaattinen malli, joka koostuu pisteistä ja pisteitä toisiinsa yhdistävistä viivoista. Jokainen viiva yhdistää kaksi pistettä, jotka ovat viivan päätepisteitä. Esimerkiksi
Matematiikan tukikurssi, kurssikerta 2
Matematiikan tukikurssi kurssikerta 1 Relaatioista Oletetaan kaksi alkiota a ja b. Näistä kumpikin kuuluu johonkin tiettyyn joukkoon mahdollisesti ne kuuluvat eri joukkoihin; merkitään a A ja b B. Voidaan
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
T 61.3030 Neuraalilaskennan perusteet
T 61.3030 Neuraalilaskennan perusteet Harjoitustyö time series prediction 31.5.2007 Heikki Hyyti 60451P EST hhyyti@cc.hut.fi Yleistä Harjoitustehtävässä piti Matlabin Neural Network Toolbox:n avulla luoda
Kuvien (tai muun datan) luokittelusta
Konenäkö -kurssin 2010 materiaalia Tietotekniikan laitos Jyväskylän yliopisto Konenäkö -kurssi, 16.11.2010 Sisältö Automaattinen luokittelu 1 Automaattinen luokittelu Tavoite: esimerkiksi kirjaintunnistus
Matematiikan tukikurssi, kurssikerta 1
Matematiikan tukikurssi, kurssikerta 1 1 Joukko-oppia Matematiikassa joukko on mikä tahansa kokoelma objekteja. Esimerkiksi joukkoa A, jonka jäseniä ovat numerot 1, 2 ja 5 merkitään A = {1, 2, 5}. Joukon
Algoritmit 2. Luento 4 Ke Timo Männikkö
Algoritmit 2 Luento 4 Ke 22.3.2017 Timo Männikkö Luento 4 Hajautus Yhteentörmäysten käsittely Avoin osoitteenmuodostus Hajautusfunktiot Puurakenteet Solmujen läpikäynti Algoritmit 2 Kevät 2017 Luento 4
Yhtälöryhmät 1/6 Sisältö ESITIEDOT: yhtälöt
Yhtälöryhmät 1/6 Sisältö Yhtälöryhmä Yhtälöryhmässä on useita yhtälöitä ja yleensä myös useita tuntemattomia. Tavoitteena on löytää tuntemattomille sellaiset arvot, että kaikki yhtälöt toteutuvat samanaikaisesti.
Harjoitus 4: Matlab - Optimization Toolbox
Harjoitus 4: Matlab - Optimization Toolbox Mat-2.2107 Sovelletun matematiikan tietokonetyöt Syksy 2006 Mat-2.2107 Sovelletun matematiikan tietokonetyöt 1 Harjoituksen aiheita Optimointimallin muodostaminen
TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)
JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.
Kimppu-suodatus-menetelmä
Kimppu-suodatus-menetelmä 2. toukokuuta 2016 Kimppu-suodatus-menetelmä on kehitetty epäsileiden optimointitehtävien ratkaisemista varten. Menetelmässä approksimoidaan epäsileitä funktioita aligradienttikimpulla.
Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II
Dynaamisten systeemien teoriaa Systeemianalyysilaboratorio II 15.11.2017 Vakiot, sisäänmenot, ulostulot ja häiriöt Mallin vakiot Systeemiparametrit annettuja vakioita, joita ei muuteta; esim. painovoiman
Luento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään
Matematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 1 Määrittelyjoukoista Tarkastellaan funktiota, jonka määrittelevä yhtälö on f(x) = x. Jos funktion lähtöjoukoksi määrittelee vaikkapa suljetun välin [0, 1], on funktio
Kuvaus. Määritelmä. LM2, Kesä /160
Kuvaus Määritelmä Oletetaan, että X ja Y ovat joukkoja. Kuvaus eli funktio joukosta X joukkoon Y on sääntö, joka liittää jokaiseen joukon X alkioon täsmälleen yhden alkion, joka kuuluu joukkoon Y. Merkintä
Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35
Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen
Numeeriset menetelmät
Numeeriset menetelmät Luento 3 Ti 13.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 3 Ti 13.9.2011 p. 1/37 p. 1/37 Epälineaariset yhtälöt Newtonin menetelmä: x n+1 = x n f(x n) f (x n ) Sekanttimenetelmä:
Puumenetelmät. Topi Sikanen. S ysteemianalyysin. Laboratorio Aalto-yliopiston teknillinen korkeakoulu
Puumenetelmät Topi Sikanen Puumenetelmät Periaate: Hajota ja hallitse Jaetaan havaintoavaruus alueisiin. Sovitetaan kuhunkin alueeseen yksinkertainen malli (esim. vakio) Tarkastellaan kolmea mallia Luokittelu-
Se mistä tilasta aloitetaan, merkitään tyhjästä tulevalla nuolella. Yllä olevassa esimerkissä aloitustila on A.
Tehtävä. Tämä tehtävä on aineistotehtävä, jossa esitetään ensin tehtävän teoria. Sen jälkeen esitetään neljä kysymystä, joissa tätä teoriaa pitää soveltaa. Mitään aikaisempaa tehtävän aihepiirin tuntemusta
JYVÄSKYLÄN YLIOPISTO. 3. Luennon sisältö
JYVÄSKYLÄN YLIOPISTO 3. Luennon sisältö Lineaarisen optimointitehtävän sallittu alue Optimointitehtävien muunnoksia Lineaarisen yhtälöryhmän perusmuoto ja perusratkaisut Lineaarisen optimointitehtävän
BM20A0900, Matematiikka KoTiB3
BM20A0900, Matematiikka KoTiB3 Luennot: Matti Alatalo Oppikirja: Kreyszig, E.: Advanced Engineering Mathematics, 8th Edition, John Wiley & Sons, 1999, luvut 1 4. 1 Sisältö Ensimmäisen kertaluvun differentiaaliyhtälöt
Hahmontunnistuksen perusteet T-61.231, 3ov, L Syksy 2002. Harjoitustyö: Matti Aksela
Hahmontunnistuksen perusteet T-61.231, 3ov, L Syksy 2002 Luennot: Laskuharjoitukset: Harjoitustyö: Vuokko Vuori Markus Koskela Matti Aksela 1. FOREIGN STUDENTS................... 7 2. YLEISTÄ KURSSISTA....................
Tietorakenteet ja algoritmit - syksy 2015 1
Tietorakenteet ja algoritmit - syksy 2015 1 Tietorakenteet ja algoritmit - syksy 2015 2 Tietorakenteet ja algoritmit Johdanto Ari Korhonen Tietorakenteet ja algoritmit - syksy 2015 1. JOHDANTO 1.1 Määritelmiä
Algoritmit 2. Luento 13 Ti Timo Männikkö
Algoritmit 2 Luento 13 Ti 30.4.2019 Timo Männikkö Luento 13 Simuloitu jäähdytys Merkkijonon sovitus Horspoolin algoritmi Ositus ja rekursio Rekursion toteutus Algoritmit 2 Kevät 2019 Luento 13 Ti 30.4.2019
Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016
Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.
3. Muuttujat ja operaatiot 3.1
3. Muuttujat ja operaatiot 3.1 Sisällys Imperatiivinen laskenta. Muuttujat. Nimi ja arvo. Muuttujan nimeäminen. Muuttujan tyyppi. Operaattorit. Operandit. Arvon sijoitus muuttujaan. Aritmeettiset operaattorit.
1 Sisätulo- ja normiavaruudet
1 Sisätulo- ja normiavaruudet 1.1 Sisätuloavaruus Määritelmä 1. Olkoon V reaalinen vektoriavaruus. Kuvaus : V V R on reaalinen sisätulo eli pistetulo, jos (a) v w = w v (symmetrisyys); (b) v + u w = v
Piiri K 1 K 2 K 3 K 4 R R
Lineaarinen optimointi vastaus, harj 1, Syksy 2016. 1. Teollisuuslaitos valmistaa piirejä R 1 ja R 2, joissa on neljää eri komponenttia seuraavat määrät: Piiri K 1 K 2 K 3 K 4 R 1 3 1 2 2 R 2 4 2 3 0 Päivittäistä
805306A Johdatus monimuuttujamenetelmiin, 5 op
monimuuttujamenetelmiin, 5 op syksy 2018 Matemaattisten tieteiden laitos Johdatus monimuuttujamenetelmiin Luennot 30.10.13.12.-18 Tiistaina klo 12-14 (30.10., BF119-1) Keskiviikkoisin klo 10-12 (MA101,