Kognitiivinen mallintaminen Neuraalimallinnus 11.3.

Samankaltaiset tiedostot
Kognitiivinen mallintaminen. Nelli Salminen

Kognitiivinen mallintaminen Neuraalimallinnus, luento 1

Tänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.)

Kognitiivinen mallintaminen. Nelli Salminen

Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö

Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS

JOHDATUS TEKOÄLYYN TEEMU ROOS

Datatähti 2019 loppu

ImageRecognition toteutus

Harjoitus 5 -- Ratkaisut

Arkkitehtuurien tutkimus Outi Räihä. OHJ-3200 Ohjelmistoarkkitehtuurit. Darwin-projekti. Johdanto

Dynaamiset regressiomallit

Tuotteen oppiminen. Käytettävyyden psykologia syksy T syksy 2004

Johdatus tekoälyn taustalla olevaan matematiikkaan

Kohdissa 2 ja 3 jos lukujen valintaan on useita vaihtoehtoja, valitaan sellaiset luvut, jotka ovat mahdollisimman lähellä listan alkua.

Liikenneongelmien aikaskaalahierarkia

1 Määrittelyjä ja aputuloksia

Bayesin pelit. Kalle Siukola. MS-E2142 Optimointiopin seminaari: Peliteoria ja tekoäly

Dynamiikan hallinta Lähde: Zölzer. Digital audio signal processing. Wiley & Sons, Zölzer (ed.) DAFX Digital Audio Effects. Wiley & Sons, 2002.

Jännite, virran voimakkuus ja teho

(0 desimaalia, 2 merkitsevää numeroa).

P (A)P (B A). P (B) P (A B) = P (A = 0)P (B = 1 A = 0) P (B = 1) P (A = 1)P (B = 1 A = 1) P (B = 1)

Numeeriset menetelmät TIEA381. Luento 12. Kirsi Valjus. Jyväskylän yliopisto. Luento 12 () Numeeriset menetelmät / 33

7.4 Sormenjälkitekniikka

LASKENNALLISEN TIETEEN OHJELMATYÖ: Diffuusion Monte Carlo -simulointi yksiulotteisessa systeemissä

Harjoitus 3 ( )

Harjoitus 3 ( )

Esimerkki: Tietoliikennekytkin

2. Paina hiiren oikeaa näppäintä, pääset valikkoon. Valitse Lisää, tyhjä sarake ilmestyy aktivoidun sarakkeen eteen

jäsentäminen TIEA241 Automaatit ja kieliopit, syksy 2015 Antti-Juhani Kaijanaho 26. marraskuuta 2015 TIETOTEKNIIKAN LAITOS

Demonstraatiot Luento

6. Differentiaaliyhtälösysteemien laadullista teoriaa.

1 + b t (i, j). Olkoon b t (i, j) todennäköisyys, että B t (i, j) = 1. Siis operaation access(j) odotusarvoinen kustannus ajanhetkellä t olisi.

Turingin koneen laajennuksia

Malliratkaisut Demot

Mat Lineaarinen ohjelmointi

Tee-se-itse -tekoäly

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Kaavioiden rakenne. Kaavioiden piirto symboleita yhdistelemällä. Kaavion osan toistaminen silmukalla. Esimerkkejä:

Osittaisdifferentiaaliyhtälöt

Tarkennamme geneeristä painamiskorotusalgoritmia

Muuttujien määrittely

Testausdokumentti. Sivu: 1 / 10. Ohjelmistotuotantoprojekti Sheeple Helsingin yliopisto. Versiohistoria

Johdatus tekoälyn taustalla olevaan matematiikkaan

(p j b (i, j) + p i b (j, i)) (p j b (i, j) + p i (1 b (i, j)) p i. tähän. Palaamme sanakirjaongelmaan vielä tasoitetun analyysin yhteydessä.

1. NEUROVERKKOMENETELMÄT

9.5. Turingin kone. Turingin koneen ohjeet. Turingin kone on järjestetty seitsikko

Tarkkaavaisuus ja muisti

a) Sievennä lauseke 1+x , kun x 0jax 1. b) Aseta luvut 2, 5 suuruusjärjestykseen ja perustele vastauksesi. 3 3 ja

Dynaamisten systeemien teoriaa. Systeemianalyysilaboratorio II

Kaavioiden rakenne. Kaavioiden piirto symboleita yhdistelemällä. Kaavion osan valitseminen päätöksellä ja toistaminen silmukalla.

17. Differentiaaliyhtälösysteemien laadullista teoriaa.

Helsingin kaupunginkirjasto logistiikkaprosessi: 2 Kierto

Maatalous-metsätieteellisen tiedekunnan valintakoe Ympäristö-ja luonnonvaraekonomia Matematiikan kysymysten oikeat vastaukset

klusteroi data haluttuun määrään klustereita tee n-gram -mallit klustereista (tasoitus) estimoi sekoitteiden painokertoimet λ k

Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn

Approbatur 3, demo 1, ratkaisut A sanoo: Vähintään yksi meistä on retku. Tehtävänä on päätellä, mitä tyyppiä A ja B ovat.

Datatähti 2019 alku. task type time limit memory limit. A Kolikot standard 1.00 s 512 MB. B Leimasin standard 1.00 s 512 MB

Lisää pysähtymisaiheisia ongelmia

Kognitiivinen mallintaminen 1. Kognitiiviset arkkitehtuurit ACT-R

f(x) f(y) x y f f(x) f(y) (x) = lim

Laskuharjoitus 5. Mitkä ovat kuvan 1 kanavien kapasiteetit? Kuva 1: Kaksi kanavaa. p/(1 p) ) bittiä lähetystä kohti. Voidaan

1. (a) Seuraava algoritmi tutkii, onko jokin luku taulukossa monta kertaa:

ja λ 2 = 2x 1r 0 x 2 + 2x 1r 0 x 2

Tietorakenteet ja algoritmit - syksy

M =(K, Σ, Γ,, s, F ) Σ ={a, b} Γ ={c, d} = {( (s, a, e), (s, cd) ), ( (s, e, e), (f, e) ), (f, e, d), (f, e)

Oletetaan, että virhetermit eivät korreloi toistensa eikä faktorin f kanssa. Toisin sanoen

Impedanssitomografia-peli

Induktiotodistus: Tapaus n = 0 selvä; ol. väite pätee kun n < m.

Dierentiaaliyhtälöistä

Evolutiivisesti stabiilin strategian oppiminen

Dynaamiset regressiomallit

x j x k Tällöin L j (x k ) = 0, kun k j, ja L j (x j ) = 1. Alkuperäiselle interpolaatio-ongelmalle saadaan nyt ratkaisu

Harjoitus 6 (viikko 42)

Kirjoita oma versio funktioista strcpy ja strcat, jotka saavat parametrinaan kaksi merkkiosoitinta.

Tietorakenteet ja algoritmit Johdanto Lauri Malmi / Ari Korhonen

Johdatus lukuteoriaan Harjoitus 11 syksy 2008 Eemeli Blåsten. Ratkaisuehdotelma

Dissipatiiviset voimat

Seurantalaskimen simulointi- ja suorituskykymallien vertailu (valmiin työn esittely) Joona Karjalainen

Laskennan mallit (syksy 2010) Harjoitus 8, ratkaisuja

MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt

T Syksy 2002 Tietojenkäsittelyteorian perusteet Harjoitus 8 Demonstraatiotehtävien ratkaisut

Luento 8. June 3, 2014

Algoritmit 1. Luento 1 Ti Timo Männikkö

Tulorekisteriin liittyvät tilanteet palkanlaskennassa. Visma Fivaldi

S Havaitseminen ja toiminta

Näkökulmia monimuoto-opetukseen

1. Osoita, että joukon X osajoukoille A ja B on voimassa toinen ns. de Morganin laki (A B) = A B.

Ionisoiva säteily. Tapio Hansson. 20. lokakuuta 2016

Nopeus, kiihtyvyys ja liikemäärä Vektorit

Tietokoneavusteinen ongelmanratkaisu biologiselle datalle ATK-harjoitus

MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.

MS-A0004/A0006 Matriisilaskenta

TIEA241 Automaatit ja kieliopit, syksy Antti-Juhani Kaijanaho. 5. marraskuuta 2015

Esimerkkejä vaativuusluokista

Algoritmit 1. Demot Timo Männikkö

GA & robot path planning. Janne Haapsaari AUTO Geneettiset algoritmit

Transkriptio:

Kognitiivinen mallintaminen Neuraalimallinnus 11.3. Nelli Salminen nelli.salminen@helsinki.fi D433 Tällä kertaa ajan esittäminen neuroverkoissa dynaamiset systeemit esimerkkitapaus: lyhytkestoinen muisti esimerkkitapaus: leabra-periaatteet ja tarkkavaisuuden mallintaminen niiden mukaisesti 1

Tentistä neuraalimallinnuksesta kaksi tehtävää ainakin yksi tehtävistä on laskutehtävä samaan tyyliin kuin laskareissa, toinen on todennäköisesti määrittelyä tai pohdintaa jos esimerkkitapauksista kysytään kysymys on tyyppiä pohdi jonkin tuntemasi mallin kannalta..., kaikkia ei siis tarvitse tuntea kaavoja ei tarvitse osata ulkoa, riittää kun ne tunnistaa niiltä osin kun luennot ja kirja eroavat (esim. oppimissääntöjen täsmällisissä määrittelyissä) molemmat vaihtoehdot ovat oikeita vastauksia Harjoitustyö neuraalimallinnuksesta suoritusta voi täydentää 3 op tekemällä harjoitustyön neuraalimallinnuksen osalta harjoitustyön tekeminen vaatii aiempaa ohjelmointikokemusta mutta hyvin vähäkin riittää aiheeksi käy esim. jonkin julkaistun mallin replikointi 2

Ajan esittäminen syötemateriaali saattaa olla ajallista mallinnettava ilmiö saattaa olla ajallinen tämänastisissa verkoissa syötteet ovat olleet kuitenkin ajallisesti staattisia myös verkoissa aktiviteetti on ollut ajallisesti staattista (Hopfieldin verkkoa lukuunottamatta) Ajan esittäminen syötteessä tähänastisille verkoille voidaan antaa ajallisesti etenevää syötettä koodaamalla eri ajanhetket aina uudella joukolla syöte-neuroneilla kaikki syötteet esitetään samanaikaisesti 3

Simple recurrent network tavallinen feedforwardverkko ei muista edellisten esityskertojen syötteitä lisätään joukko neuroneita joihin tallentuu tietoa edellisen kerran aktiviteetista, context units Simple recurrent network piilokerroksen aktiviteetti määrää kontekstineuronien aktiviteetin seuraavalla kierroksella kontekstineuronien aktiviteetti on osa piilokerroksen saamasta syötteestä 4

Simple recurrent network tällaisen verkon opetuksessa voidaan käyttää backpropagation-sääntöä yhteydet kontekstineuroneista piilokerrokseen muodostetaan samoin kuin piilokerroksen ja syötteen välillä yhteydet piilokerroksesta kontekstineuroneihin jätetään usein satunnaisiksi Takaisinkytketyt verkot takaisinkytketty = recurrent (vs. feedforward) verkko on takaisinkytketty jos siinä on yksikin mahdollisuus kulkea verkon yhteyksiä pitkin neuronista takaisin neuroniin itseensä takaisinkytketyn verkon aktiviteettia ei voi laskea vaiheittain kertaalleen jokaiselle neuronille kuten feedforward-verkossa takaisin kytkennät tekevät aktiviteetista ajallisesti etenevää (kuten Hopfieldin verkossa), saman neuronin aktiviteettia päivitetään useaan kertaan 5

Takaisinkytketyt verkot ajallisesti etenevää aktiviteettia takaisinkytketyssä verkossa kuvataan differentiaaliyhtälöillä takaisinkytketty verkko on dynaaminen systeemi Takaisinkytketyt verkot takaisinkytketyn verkon opetus on haastavaa takaisinkytketyille verkoille voi soveltaa itseorganisoituvia sääntöjä ja niille on myös oma backpropagation-sääntö käytännössä nämä toimivat usein kuitenkin huonosti verkoihin voidaan soveltaa yleisempiä opetusmenetelmiä 6

Evolutiiviset ja geneettiset algoritmit sukua ajatukselle että kokeillaan paljon eri vaihtoehtoisia painokertoimia, verkon rakenteita tms. ja katsotaa mikä niistä suoriutuu parhaiten evolutiivinen ja geneettinen algoritmi ohjaavat vähän fiksummin mitä vaihtoehtoja kokeillaan soveltuu muihinkin tarkoituksiin kuin neuroverkkojen rakenteluun Evolutiivinen algoritmi 1. Luodaan populaatio satunnaisia malleja 2. Arvioidaan kuinka hyvin mallit suoriutuvat tehtävästä (fitness) 3. Valitaan malleista paras, joka jää henkiin 4. Luodaan parhaan mallin pohjalta uusi populaatio aiheuttamalla mutaatioita eli satunnaisia muutoksia parhaaseen malliin, palataan kohtaan 2. 7

Geneettinen algoritmi 1. Luodaan joukko satunnaisia malleja 2. Arvioidaan kuinka hyvin mallit suoriutuvat tehtävästä 3. Valitaan malleista parhaat, jotka pääsevät lisääntymään 4. Luodaan parhaiden mallien pohjalta uusi populaatio risteyttämällä parhaita malleja, palataan kohtaan 2. Esimerkkitapaus: muistimalli Davelaar et al. 2005 Psych Rev malli pyrkii selittämään miksi mieleen painettavan listan jotkin jäsenet muistetaan ja jotkin ei riippuen siitä millä kohtaa listaa jäsen esiintyi mallissa on kaksi osaa: lyhytkestoinen puskuri ja kontekstin edustus 8

Lyhytkestoinen puskuri joukko toisiinsa kytkettyjä neuroneita kukin neuroni edustaa yhtä muistiin painettavaa tietoa (item) kun neuroni on aktiivinen kyseinen tieto on muistissa aktiivinen ja se voidaan tarvittaessa palauttaa Lyhytkestoinen puskuri neuronit kilpailevat keskenään mahdollisuudesta olla aktiivinen kilpailu on toteutettu inhibitorisina yhteyksinä neuronien välillä tästä seuraa että samanaikaisesti aktiivisten neuronien määrä on rajoitettu puskurin kapasiteetilla on siis yläraja 9

Lyhytkestoinen puskuri puskuri on takaisinkytketty ja aktiviteetti on ajassa etenevää aktiviteetti päivitetään kullakin aikaaskeleella jokaiselle neuronille aktiviteetti hetkellä t+1 eli x(t+1) perustuu aktiviteettiin ja syötteeseen hetkellä t eli x(t) ja I(t) luetaan kaavaa pala kerrallaan Lyhytkestoinen puskuri solun i aktivaatio hetkellä t+1 riippuu saman solun aktiviteetista hetkellä t λ on vakio nollan ja yhden väliltä λ määrää tässä aktivaation muutoksen nopeuden 10

Lyhytkestoinen puskuri F(x) on aktivaatiofunktio x(t) on solun itsensä aktiviteetti hetkellä t α on vakio tämä voidaan tulkita siten että solulla on eksitoiva yhteys itseensä (self-excitation) tämän yhteyden voimakkuus on α Lyhytkestoinen puskuri F(x) on jälleen aktivaatiofunktio summa kaikkien muiden solujen aktiviteetista β on vakio tämä kuvaa muiden verkon solujen tuottamaa inhibitiota inhibitoristen yhteyksien voimakkuuden määrää β 11

Lyhytkestoinen puskuri I(t) on ulkopuolelta tuleva syöte hetkellä t ξ on kohinaa Lyhytkestoinen puskuri esitetään lista syötteitä, kutakin syötettä esitetään 500 aika-askeleen ajan 12

Lyhytkestoinen puskuri oletetaan että listan esityksen lopussa aktiiviset asiat muistetaan tämä osa riittää yksin selittämään miksi viimeisenä esitetyt muistetaan useammin kuin muut Kontekstiyksiköt mallin toinen osa on joukko kontekstiyksiköitä yksiköistä vain yksi voi kerrallaan olla aktiivinen random walk periaate, jokaisella päivityksellä, (1) aktiviteetti säilyy samana, (2) aktiviteetti siirtyy pykälän vasemmalle tai (3) aktiviteetti siirtyy pykälän oikealle 13

Osien väliset yhteydet jokainen puskuri-solu on yhteydessä jokaiseen kontekstisoluun voimakkuudet määräytyvät mieleenpainamisen aikana Mieleenpainaminen oppiminen on hebbiläistä, samanaikaisesti aktiivisten solujen väliset yhteydet voimistuvat yhteyden voimakkuus riippuu puskurisolun aktiviteetin voimakkuudesta 14

Palautus ensin palautetaan puskurissa aktiivisena olevat listan jäsenet sitten lähdetään muistelemaan muita aktivoimalla kontekstiyksiköitä kuten mieleenpainamisen aikana Palautus 1. aktivoidaan kontekstiyksikkö 2. katsotaan mitkä puskuriyksiköt ovat siihen yhteydessä 3. valitaan puskuriyksiköistä yksi, ne joilla on voimakkaat yhteydet tulevat todennäköisimmin valituksi 4. palautetaan valittu puskuriyksikkö yhteyden voimakkuuteen perustuvan todennäköisyyden mukaan 15

Palautus - tuloksia kun palautus tehdään heti mieleenpainamisen jälkeen (IFR) malli muistaa todennäköisimmin listan ensimmäiset ja viimeiset kun mieleenpainamisen ja palautuksen välissä esitettään distraktoreita (DFR) malli muistaa todennäköisimmin lista ensimmäiset Miksi viimeiset? palauttaminen aloitettiin puskurissa vielä mieleenpainamisen jäljiltä aktiivisista yksiköistä tässä vaiheessa aktiivisina ovat todennäköisesti listan viimeiset kun palautusta ei aloiteta heti mieleenpainamisen jälkeen tämä aktiviteetti on jo kadonnut 16

Miksi ensimmäiset? mieleenpainamisvaiheessa muodostuvien yhteyksien voimakkuus riippui puskurisolun aktiviteetista voimakkaat yhteydet johtavat todennäköisempään muistamiseen ensimmäisenä esitetyt tulevat tyhjään puskuriin, kilpailua on vähemmän ja aktiviteetti on suurempaa Esimerkkitapaus: tarkkaavaisuusmalli Wang & Fan 2007 J Cogn Neurosci pyrkii mallintamaan tarkkaavaisuuden eri osaalueita biologiset rajoitteet huomioon ottaen pyrkii toistamaan behavioraalisia tuloksia terveiltä koehenkilöiltä ja skitsofreenikoilta malli koostuu erillisistä neuraalisista kartoista joiden sisällä solut inhiboivat toisiaan eli kilpailevat mahdollisuudesta olla aktiivinen 17

Tarkkaavaisuuden osa-alueet alerting, yleisen valmiustilan nostaminen orienting, tarkkaavaisuuden suuntaaminen tiettyyn suuntaan executive control, konfliktien havaitseminen, päätöksenteko Behavioraalinen tehtävä koehenkilön tehtävänä on vastata mihin suuntaan kuvaruudun keskellä esitetty nuoli osoittaa koetilannetta muuntelemalla mitataan eri tarkkaavaisuuden osa-alueita mitataan reaktioaikaa 18

kohdetilanteet Koetilanteet vihjetilanteet Koetilanteet 19

Koetilanteet alerting effect: no cues vs. center/double cue orienting effect: center cues vs. spatial cue executive control effect: incongruent vs. congruent Mallin rakenne 20

Mallin rakenne V1 toistaa spatiaalisesti järjestyneen syötteen spatial pathway -solut ovat valikoivia nuolien sijainnille object pathway solut ovat valikoivia nuolien suunnalle Alerting alerting perustuu yhteen soluun solu aktivoituu kun mikä tahansa vihje esitetään solu aktivoi yleisesti kaikkia spatial pathway -soluja 21

Orienting orienting on spatial pathway solujen toiminto spatiaalinen vihje aktivoi sijaintiinsa liittyviä soluja Executive control executive control soluja on kaksi kun object pathway -soluissa havaitaan ristiriita vastaava executive control -solu aktivoituu executive control solu voimistaa keskimmäiseen nuoleen liittyvää aktiviteettia 22

Mallin responssi output-soluissa on kaksi ryhmää jotka vastaavat kahta mahdollista vastausvaihtoehto verkko on takaisinkytketty, aktiviteetti on ajassa etenevää malli antaa vastauksensa kun jonkin output-solun aktiviteetti ylittää tietyn kynnysarvon tähän kuluva aika on mallin reaktioaika 23