Kognitiivinen mallintaminen. Nelli Salminen

Samankaltaiset tiedostot
Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1

Tänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.)

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun

JOHDATUS TEKOÄLYYN TEEMU ROOS

Kognitiivinen mallintaminen. Nelli Salminen

JOHDATUS TEKOÄLYYN TEEMU ROOS

Kognitiivinen mallintaminen Neuraalimallinnus 11.3.

JOHDATUS TEKOÄLYYN TEEMU ROOS

Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI

Tee-se-itse -tekoäly

TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)

ImageRecognition toteutus

Johdatus tekoälyn taustalla olevaan matematiikkaan

Backpropagation-algoritmi

Johdatus tekoälyn taustalla olevaan matematiikkaan

KOHTI TIETOISIA ROBOTTEJA

E. Oja ja H. Mannila Datasta Tietoon: Luku 2

1. NEUROVERKKOMENETELMÄT

Johdatus tekoälyn taustalla olevaan matematiikkaan

Näköjärjestelmän mallintamisesta

Kiinnostuspohjainen topologian hallinta järjestämättömissä vertaisverkoissa

1. NEUROVERKKOMENETELMÄT

Evolutiivisesti stabiilin strategian oppiminen

Tekoäly ja koneoppiminen metsävaratiedon apuna

Ongelma(t): Miten digitaalista tietoa voidaan toisintaa ja visualisoida? Miten monimutkaista tietoa voidaan toisintaa ja visualisoida?

Johdatus tekoälyn taustalla olevaan matematiikkaan

Tuotteen oppiminen. Käytettävyyden psykologia syksy T syksy 2004

Yliopistopedagogiikan suuntaviivoja

Näkökulmia tietoyhteiskuntavalmiuksiin

Tilastotiede ottaa aivoon

Laskut käyvät hermoille

Takaisinkytkeytyvät neuroverkot. 1 Johdanto. Toni Helenius. Tiivistelmä

Satunnaisalgoritmit. Topi Paavilainen. Laskennan teorian opintopiiri HELSINGIN YLIOPISTO Tietojenkäsittelytieteen laitos

Tilastotiede ottaa aivoon

Vuonohjaus: ikkunamekanismi

Rinnakkaisuuden hyväksikäyttö peleissä. Paula Kemppi

Vaikuta ja vaikutu - digikansalainen tänään ja huomenna seminaari Yritys opiskelun tukena

Taitava taitoharjoittelu kehittymisen tukena Sami Kalaja

Verkon värittämistä hajautetuilla algoritmeilla

JAANA KORPELA KÄSINKIRJOITETTUJEN NUMEROIDEN TUNNISTUS NEU- ROVERKKOJEN AVULLA. Kandidaatintyö

Automatisoituminen, resurssit ja monitehtäväsuoritus

JOHDATUS TEKOÄLYYN TEEMU ROOS

D B. Levykön rakenne. pyöriviä levyjä ura. lohko. Hakuvarsi. sektori. luku-/kirjoituspää

Verkosta virtaa Vertaisopastajan opas. Vinkkejä vapaaehtoistyöhön laitteiden ja netin käytön vertaisopastajana

Laaja-alaisten erityisopettajien syysseminaari. Siikaranta

Kuvasommittelun lähtökohta

Tehtävä 2: Tietoliikenneprotokolla

5. Kohosen itseorganisoituvat verkot Johdanto

Tekstuurintunnistuksen lyhyt oppimäärä. Ts. pari tapaa erottaa tiiliseinä pensaasta.

Luku 2. Datasta tietoon: mitä dataa? mitä tietoa?

Data Envelopment Analysis (DEA) - menetelmät + CCR-DEA-menetelmä

Tule tule hyvä tieto!

Tekoäly ja alustatalous. Miten voit hyödyntää niitä omassa liiketoiminnassasi

JOHDATUS TEKOÄLYYN TEEMU ROOS

Tekoäly liiketoiminnassa. Tuomas Ritola CEO, selko.io

Kieli merkitys ja logiikka. 2: Helpot ja monimutkaiset. Luento 2. Monimutkaiset ongelmat. Monimutkaiset ongelmat

4. Monikerroksinen perceptron

Eeva Karttunen.

Biologia ja maantieto vuosiluokilla 5 6

Johdatus tekoälyyn. Luento : Koneoppiminen. Patrik Hoyer. [ Kysykää ja kommentoikaa luennon aikana! ]

TEAMGOLF-KUTSU. Kilpailu järjestetään Veritas-Stadionin sisähallissa (Hippoksentie 6, Kupittaa, Turku) sunnuntaina

Ehto- ja toistolauseet

OPISKELUTYÖN MITOITUS Opetuksen suunnittelun työväline, jolla arvioidaan opiskelijan työmäärää suhteessa 1 PERUSTIEDOT

Numeeriset arviot. Opintojaksolla vallinnut ilmapiiri loi hyvät puitteet oppimiselle. Saavutin opintojaksolle määritellyt osaamistavoitteet

Matemaattiset oppimisvaikeudet

TOIMINNALLISET OPETUSMENETELMÄT MAAHANMUUTTAJA- OPETUKSESSA. J. Kaipainen, J. Koskela, S. Partanen

Kombinatorinen optimointi

STEFAN KARKULAHTI HARJOITTELUN JA OPPIMISEN OPTIMOINTI. - case Black Knights korkeakoulujoukkue

Virheen kasautumislaki

7.4 Sormenjälkitekniikka

VALMENNUKSEN LINJAUS

Algoritmit 2. Luento 11 Ti Timo Männikkö

Mikä on mielestäsi elämäsi tärkein oppimiskokemus?

Ammatillinen reformi ja opettajan työ

Assari 2.0 Kevät Aloitustapaamisen ajatuksia (muistiinpanot Systeemianalyysin laboratorion assistenttikoulutukseen osallistuneille)

Simulointi. Varianssinhallintaa Esimerkki

2. luento. CS-C2110 Ohjelmointistudio 1: mediaohjelmointi Syksy 2016 [Studio 1] Antti Tolppanen, Sanna Suoranta, Lauri Savioja

Pelin kautta opettaminen

JOHDATUS TEKOÄLYYN TEEMU ROOS

Julkaisufoorumi ja yliopistojen rahoitusmalli

Työn kehittäminen vertaisryhmässä Informaatikkotiimi. Kainuun ja Pohjois-Pohjanmaan kirjastopäivät Elina Kauppila

Tulevaisuuden tietoyhteiskuntataidot

1 YLEISTÄ 1. 2 KARTAT yleistä Avoimien aineistojen tiedostopalvelu 2 3 KARTAN TEKEMINEN JA SIIRTÄMINEN PUHELIMEEN 4

11. Oppimismotivaatio ja tehokas oppiminen. (s )

STEP 1 Tilaa ajattelulle

Oppiminen ja oivaltaminen

811120P Diskreetit rakenteet

Robotit ja tekoäly terveydenhuollon työvälineinä nyt ja tulevaisuudessa työn tutkimukseen perustuva näkökulma

Nelli-opetus Helsingin yliopiston kirjastoissa

Kuvan pakkaus JPEG (Joint Photographic Experts Group)

Tarvikkeet: A5-kokoisia papereita, valmiiksi piirrettyjä yksinkertaisia kuvioita, kyniä

teknologia kielenopetuksessa Teknologia on monimuotoista

Dynaamiset regressiomallit

Tuen tarpeen tunnistaminen

Kognitiivinen mallintaminen 1

Digitaalitekniikan matematiikka Luku 5 Sivu 1 (22) Lausekkeiden sieventäminen F C F = B + A C. Espresso F = A (A + B) = A A + A B = A B

Oulujoen koulu Tulevaisuuden koulu -projekti

Transkriptio:

Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi

Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen vertailua yleistä tiedonkäsittelystä neuroverkoissa verkkojen toteutuksesta käytännössä

Kertausta: Perseptronin oppimissääntö 0. w = satunnaislukuja 1. y = Σ i w i * x i 2. y == haluttu tuloste? 3. jos y == haluttu tuloste, siirrytään kohtaan 1. 4. dw = ε * x, jos x on kohde, dw = -1 * ε * x, jos x ei ole kohde, w(t+1) = w(t)+dw, jatketaan kohdasta 1.

Kohta 4. voisi olla myös tällainen alkuperäinen: dw = ε * x, jos x on kohde dw = -1 * ε * x, jos x ei ole kohde toinen vaihtoehto: dw = ε * (x-w), jos x on kohde dw = -1 * ε * (x-w), jos x ei ole kohde kolmas vaihtoehto: dw = ε * (t-y), jossa t on haluttu tuloste ja y saatu tuloste pysytään ensimmäisessä vaihtoehdossa yksinkertaisuuden vuoksi

Kertausta: Hebbiläinen/assosiatiivinen oppiminen otetaan yksi solu kerrallaan w on painokerroin Δw on muutos painokertoimessa a on neuronin aktivaatio ε on oppimisnopeus Δw jk = ε * a j * a k eli painokertoimien muutos on suhteessa neuronien aktiviteettiin jos neuroni ei ole aktiivinen painokertoimissa ei tapahdu muutoksia

Kertausta: Backpropagation lasketaan virhe output-soluille kuljetetaan virhettä verkossa vastavirtaa kuten aktivaatiota kuljetetaan myötävirtaan

Demo: monikerroksinen verkko opetetaan kaksikerroksinen verkko luokittelemaan käsinkirjoitettuja lukuja backpropagation-oppimissäännöllä jokainen input-solu vastaa yhtä pikseliä, jokainen output- solu yhtä lukua kuvassa jälleen vain osa verkon soluista

Demo: monikerroksinen verkko tulkitaan aktiivisin output-solu verkon vastaukseksi lasketaan oikeiden vastausten määrä joukolle syötteitä joita ei käytetty opetuksen aikana

Demo: monikerroksinen verkko piilokerros muodostaa inputista edustuksen joka on tehtävän kannalta hyvä joskus on vaikea löytää tulkintaa piilokerroksen edustukselle

Verkkojen virheensietokyky piilokerroksen soluja voidaan poistaa ja verkko toimii edelleen kohtuullisen hyvin

Kilpaileva oppiminen (competitive learning) yksikerroksinen verkko jossa useita outputneuroneita verkon output-neuronit kilpailevat mahdollisuudesta aktivoitua kun verkkoa opetetaan valitaan voittajaksi yksi tai useampia neuroneita, joiden aktiviteetti on suurin vain voittaja oppii, muiden painokertoimia pienennetään

Kilpaileva oppiminen 0. annetaan painokertoimille satunnaiset alkuarvot 1. esitetään syöte 2. valitaan voittaja neuronien joukosta 3. muutetaan voittajan painokertoimia syötteen suuntaan (4. pienennetään muiden neuronien painokertoimia)

Kilpaileva oppiminen 0. w = satunnaislukuja 1. y = Σ i w i * x i 2. winner = neuroni jolla suurin y 3. dw = ε * (x-w), mutta vain voittajaneuronin painokertoimille, jatketaan kohdasta 1.

Demo: kilpaileva oppiminen opetetaan jälleen verkko jossa syöte on pikseleitä kuvista käsinkirjoitettuja numeroita verkolle ainoastaan esitetään kuvat, outputneuronit kilpailevat siitä mikä niistä saa oppia

Demo: kilpaileva oppiminen yhdeksän outputsolua, syötteinä ainoastaan nollia ja ykkösiä, kuvassa painokertoimet kaksi solua pääsee oppimaan, toinen nollista ja toinen ykkösistä

Demo: kilpaileva oppiminen yhdeksän outputsolua, syötteinä ainoastaan kakkosia ja kaseja ainoastaan yksi solu oppii, kakkonen ja kasi ovat samankaltaisia joten sama solu voittaa molempien kohdalla

Kilpaileva oppiminen oppimissääntö on itseorganisoituva, sille ei anneta tietoa virheistä tai halutuista tulosteista löytää syötteissä luonnostaan olevan luokittelun, jos sellaista ei ole itseorganisoituva verkko ei tee mitään järkevää

Kilpaileva oppiminen itseorganisoituva oppiminen on hyvin herkkä syötteen rakenteelle jos kaikissa syötteistä on paljon yhteistä voi olla että yksi neuroni voittaa kaikilla syötteillä syötteen normalisointi voi olla ratkaisevaa

Kilpaileva oppiminen biologinen realismi neuronien välinen kilpailu voidaan tulkita lateraaliseksi inhibitioksi oppimissääntö on lokaali eli painokertoimen muutos perustuu ainoastaan tietoon niiden neuronien aktiviteetista joiden välisestä yhteydestä on kyse oppiminen on itseorganisoituvaa, ei tarvita ulkopuolisia virhesignaaleja tai oikeita vastauksia kilpaileva oppiminen on siis varsin realistista

Itseorganisoituvat kartat kun verkossa vierekkäiset solut aktivoituvat samantyyppisille syötteille sitä kutsutaan usein kartaksi Kohosen verkko on tällainen kartta

Kohosen verkon opetus 0. annetaan painokertoimille satunnaiset alkuarvot 1. esitetään syöte 2. valitaan voittaja neuronien joukosta 3. muutetaan voittajan ja sen lähimpien naapureiden painokertoimia syötteen suuntaan (4. pienennetään muiden neuronien painokertoimia)

Kohosen verkon opetus 0. w = satunnaislukuja 1. y = Σi wi* xi 2. winner = neuroni jolla suurin y 3. dw = m * ε * (x-w), m riippuu neuronin etäisyydestä voittajaan, mitä lähempänä sen suurempi m, jatketaan kohdasta 1.

Ohjattu vai itseohjautuva (supervised or self-organized) assosiatiivinen oppiminen on tähän astisissa tapauksissa ollut ohjattua, verkolle on annettu oikeat tulosteet, samalla säännöllä voidaan opettaa myös itseohjautuvaa perseptronin oppimissääntö ja backpropagation ovat ohjattuja, verkko saa tiedon tekemistään virheistä kilpaileva oppiminen on itseohjautuvaa

Rinnakkaisten ja hajautettujen systeemien yleisiä ominaisuuksia rinnakkaisuus, tiedonkäsittelyä tapahtuu kaikkialla verkossa samanaikaisesti (eli kaikkien solujen aktiviteetti lasketaan samalla kertaa) hajautettu edustus, samaa tietoa edustaa useat eri neuronit, sama neuroni edustaa useita eri tietoja, (esim. kaikki piilokerroksen neuronit osallistuivat kaikkien numeroiden tunnistukseen backpropagation-verkossa)

Yleisiä ominaisuuksia: virheensietokyky virheet syötteessä: syöte voi olla kohinaista tai muuten epätäydellistä ja silti se on tunnistettavissa (näin kävi esim. assosiatiivisessa verkossa) virheet verkossa itsessään: yhteyksiä tai neuroneita voi poistaa ja verkko toimii edelleen kohtuullisen hyvin (esim. backpropagation-verkko toimi vaikka soluja poistettiin) suoriutuminen kärsii riippuen virheen koosta, ei yhtäkkistä tai täydellistä epäonnistumista

Yleisiä ominaisuuksia: muistista haku verkoista voi hakea informaatiota sisällöllä itsellään, ei tarvita esim. muistiosoitetta (kuten tietokoneessa) tai kohtaa aakkosjärjestyksessä (kuten sanakirjassa tai kirjastossa) content addressable memory tulee esille ensi kerran autoassosiatiivisissa verkoissa

Yleisiä ominaisuuksia: ehtojen täyttäminen ristiriitaisissa tilanteissa neuroverkot etsivät kompromissin, eivät esim. epäonnistu totaalisesti tai ole tuottamatta tulostetta tulee myös esiin ensi kerralla

Yleisiä ominaisuuksia: muisti ja prosessointi muistia ja prosessointia ei ole erotettu toisistaan, kaikki on painokertoimissa (ja aktivaatiofunktioissa) esimerkkiverkoissa tieto syötteistä tallentui oppimisen yhteydessä painokertoimiin myös prosessointi perustuu painokertoimiin, niiden perusteella lasketaan neuronien aktiviteetti

Neuroverkkojen ongelmia neuroverkoissa eri muistot häiritsevät toisiaan, voivat jopa hävittää toisensa ihmisen tiedonkäsittelyssä ei vastaavaa häirintää ole

Neuroverkkojen ongelmia neuroverkoissa oppiminen vaatii useita toistoja ihminen voi oppia yhdestä kerrasta

Verkon opettaminen käytännössä syötemateriaali jaetaan kahteen osaan: opetus- ja testimateriaaliin opetusmateriaalilla verkko opetetaan testimateriaalilla arvioidaan jälkikäteen opetuksen onnistuneisuutta, opitun on tarkoitus yleistyä, eli verkon olisi tarkoitus toimia myös uusilla syötteillä

Verkon opettaminen käytännössä ylioppiminen, verkko oppii opetusmateriaalin hyvin muttei yleisty muihin materiaaleihin, voi tapahtua erityisesti jos opetusmateriaalia on vähän voidaan estää lopettamalla opetus ajoissa tai rajoittamalla neuronien määrää verkossa voidaan välttää testaamalla verkkoa kesken opetuksen testimateriaalilla, opetus lopetetaan kun suoriutuminen ei enää parane testimateriaalille vaikka se opetusmateriaalille vielä paranisi

Verkon opettaminen käytännössä opetusnopeus eli learning rate liian suurella nopeudella verkko lähestyy sopivaa tilaa epätasaisesti liian hitaalla nopeudella opetus kestää pitkään

Verkon opettaminen käytännössä miten monta kerrosta ja solua? pienempi määrä saattaa joissain tilanteissa olla parempi, pakottaa verkon keskittymään syötteen suuriin linjoihin eikä tallentamaan yksityiskohtia useammalla kuin kolmella kerroksella ei saavuteta enää lisähyötyä (Kolmogorivin teoreema)

Verkon opettaminen käytännössä kuinka pitkään jatkaa opetusta? yleensä asetetaan virheelle yläraja, opetus lopetetaan kun tämä raja saavutetaan liian pitkästä opetuksesta voi olla haittaa, yleistyminen voi kärsiä

Verkon opettaminen käytännössä syötemateriaalin normalisointi voi auttaa oppimista huomattavasti itseorganisoituvassa oppimisessa

Verkon opettaminen käytännössä painokertoimien alkuarvoilla on usein myös merkitystä itseorganisoituvissa verkoissa alkuarvot voivat ratkaisevasti vaikuttaa lopputulokseen ohjatussa oppimisessa sopiva suuruusluokka ja hajonta auttaa nopeaan alkuun oppimisessa