Neuroverkot akustisen sirontaongelman ratkaisemisessa
|
|
- Simo Penttilä
- 6 vuotta sitten
- Katselukertoja:
Transkriptio
1 Neuroverkot akustisen sirontaongelman ratkaisemisessa Jaan Johansson Pro-gradu tutkielma Sovelletun fysiikan koulutusohjelma Itä-Suomen yliopisto, Sovelletun fysiikan laitos 16. lokakuuta 2018
2 ITÄ-SUOMEN YLIOPISTO, Luonnontieteiden ja metsätieteiden tiedekunta Sovelletun fysiikan koulutusohjelma, laskennallinen fysiikka Jaan Johansson: Neuroverkot akustisen sirontaongelman ratkaisemisessa Pro-gradu tutkielma, 54 sivua Tutkielman ohjaajat: FT, Timo Lähivaara, FT, Tomi Huttunen Lokakuu 2018 Avainsanat: neuroverkko, akustinen sironta, HRTF, 3D-ääni Tiivistelmä Ihminen hyödyntää kolmiulotteista (3D) äänen paikantamista jokapäiväisessä elämässä. Korvakuulokkeilla tällainen äänen paikantamiskyky tavallisesti kadotetaan, mutta se on mahdollista saavuttaa keinotekoisesti. Tekemällä kuulokkeista tulevan äänen eri taajuuksille samat muutokset kuin ihmiskeho tekee luonnostaan, saadaan 3D ääni luotua myös kuulokkeisiin. Ihmiskehon muokkaama äänen taajuusspektri tunnetaan nimellä HRTF (Head-Related Transfer Function). Jokaisella ihmisellä on eri muotoinen keho, joten myös jokaisella on yksilöllinen HRTF. Kuluttajatuotteisiin yksilölle personoitu HRTF saadaan simuloimalla jokaiselle ihmiselle kehosta siroavan aallon paine. Tällainen simulointi on laskennallisesti raskasta ja tässä tutkielmassa tutkittiin neuroverkkojen hyödyntämistä simuloinnin korvaajana. Ihmiskehon sijaan käytettiin helpommin parametrisoitavia ellipsoideja äänen sirottajina. Neuroverkon oli tarkoitus muodostaa HRTF:ta edustava taajuusspektri, kun sille syötetään ellipsoidin puoliakseleiden suuruudet. Myös tarvittavaa opetusdatan määrää taajuusspektrin estimoinnin onnistumiseen tutkittiin. Neuroverkko oppi puoliakseleita vastaavat taajuusspektrit 100:n näytteen opetusjoukolla.
3 Sanasto Syötekerros Tulostekerros Piilokerros Syöte Ulostulo Opetusdata Koedata Kelpuutusdata HRTF Leveystaso Korkeustaso Kynnysarvo ReLU Myötäsyötteinen Stokastinen gradienttioptimointialgoritmi, SGD Eräalgoritmi Osajoukkoalgoritmi Opetus-osajoukko Näyte-erä Opetusaskel Sakkofunktio Epokki Täysin yhdistetty neuroverkko Pudotusmenetelmä Input layer Output layer Hidden layer Input / Feature / Observation Output / Label Training data Test data Validation data Head Related Transfer Function Azimuth Elevation Bias Rectified Linear Unit Feed-Forward Steepest Gradient Descent Batch Gradient Descent Mini-Batch Gradient Descent Mini-batch Batch Training Step Cost Function Epoch Fully Connected Neural Network Dropout 3
4 Sisältö 1 Johdanto Akustinen sironnan ratkaiseminen Simuloinnin korvaaminen neuroverkolla Tutkielman rakenne Neuroverkot Neuroni Aktivointifunktiot Sakkofunktio Gradient descent Vastavirta-algoritmi Optimointialgoritmit Verkon parametrien alustaminen Hyperparametrit ja neuroverkon tyyppi Ylisovittaminen Regularisointimenetelmät Yksilöllisen HRTF:n opettaminen neuroverkolla CIPIC-tietokanta HRTF:n opettaminen antropometrisista mitoista Menetelmät 25 5 Tulokset 30 6 Pohdinta 42 4
5 1 Johdanto Kuulo on tärkeässä roolissa ihmisten havainnoidessa ympäristöään. Äänilähteen paikantaminen on tässä merkityksellistä. Äänen paikantamisen mahdollistavat kumpaankin korvaan saapuneen äänen aikaero (Interaural Time Difference, ITD), korviin saapuneiden äänten voimakkuusero (Interaural Level Difference, ILD) sekä saapuneiden äänten taajuussisältö (Spectral cue). ITD:n, ILD:n ja taajuussisällön yhteisvaikutusta kuvataan yhden taajuusspektrin (Head-Related Transfer Function, HRTF) avulla. ITD ja ILD muodostuvat äänilähteen etäisyydestä kummastakin korvasta sekä pään ulkoisista dimensioista. Taajuusspektrin muoto perustuu ihmiskehon taajuusriippuvaan äänen muokkaamiseen. Kuten ITD ja ILD, taajuusspektrikin on erilainen eri suunnissa oleville äänilähteille. Äänen taajuussisällön muuttuminen johtuu kehon eri kohdista siroavan äänen ja suoraan korvakäytävään kulkevan äänen interferenssistä, sekä korvassa tapahtuvista äänen resonansseista. Spektrin muotoon vaikuttaa erityisesti ulkokorvan muoto [1]. Taajuusspektri ja asetelma sen muodostumiseen on esitetty Kuvassa 1. Korvakuulokkeilla kuunneltaessa tällainen äänen paikantamiskyky tavallisesti kadotetaan ja ääni kuulostaa tulevan pään sisältä. Uudet sovellukset voisivat kuitenkin hyödyntää kolmiulotteista äänihavainnointia. Virtuaalitodellisuudessa, joka voi sisältää esimerkiksi pelejä tai oppimisympäristön, 3D ääni parantaa kokemusta merkittävästi. Tämän lisäksi myös vanhempaan teknologiaan on mahdollista tuoda uusia elementtejä 3D äänen avulla. Tällaisia ovat musiikki ja elokuvat. Jotta kolmiulotteisen (3D) äänen kuuntelu olisi mahdollista, ääni on suodatettava. Äänelle on tehtävä samanlainen muokkaus, minkä keho tekee itse. Taajuusspektrin muodon määrittäminen on hankalin osa 3D äänen muodostamisessa korvakuulokkeille. Ihmisten kehot ovat anatomisesti erilaisia, jolloin ääni siroaa jokaisesta eri tavalla ja jokaisella ihmisellä on yksilöllinen HRTF. HRTF voidaan mitata asettamalla mikrofoni korvakäytävän suulle ja mittaamalla eri suunnista toistetun äänen taajuusspektri [2]. Tämä on hankalasti toteutettava menetelmä, kun 3D ääni halutaan käyttöön kuluttajatuotteisiin. Voidaan myös valita jo olemassa olevista HRTF:stä parhaiten sopiva perustuen ulkokorvan ja pään mittoihin [3], mutta tämä ei vastaa yksilöllistä HRTF:ää. 1.1 Akustinen sironnan ratkaiseminen Äänen paikantamisessa tärkeässä roolissa ovat erityisesti HRTF:ssä olevien syvien kuoppien sijainti taajuusakselilla [1]. Jotta käytetty HRTF saadaan vastaamaan todellista, voidaan korvakäytävän suulla taajuusvaste määrittää simuloimalla sironnut ääni tarkasti muodostetusta 3D mallista. Tämä vaatii akustisen sirontaongelman ratkaisua. HRTF kuvaa akustisen kokonaispaineen p suuruutta taajuuden funktiona. Kokonaispaine koostuu äänilähteen aiheuttamasta paineesta p i ilman sirottavaa kappaletta sekä 5
6 (a) (b) (c) Kuva 1: HRTF:n mittaamiseksi äänilähteestä toistettu akustinen aalto mitataan mikrofonilla korvakäytävän suulla. Kuvassa (a) äänilähteestä toistettu aalto saapuu korvakäytävän suulle ajassa, joka riippuu aallon kulkemasta matkasta (b). Kuljetun matkan pituus määrittää, mikä on aallon vaihe, kun se saapuu mikrofonille (musta piste). Eri polkuja pitkin saapuneet aallot ovat eri vaiheessa ja eri voimakkuuksilla, jolloin niiden interferenssi voi olla vahvistavaa tai heikentävää. (c) esittää esimerkki-hrtf:n, jossa aallon paine on taajuusriippuva. 6
7 kappaleesta siroavasta kentästä p s p = p i + p s. (1) Pistelähteen kenttä p i on p i = eikr 4πr, (2) missä k on aaltoluku ja r on etäisyys pistelähteestä. Akustisesti kovasta kappaleesta sironnut kenttä saadaan ratkaisemalla Helmholtzin ongelma [4, 5] 2 p + k 2 p = 0. (3) Sirottavan kappaleen pinnalla käytetään Neumann reunaehtoa p n = 0, (4) missä p on paineen normaalin suuntainen derivaatta. Koska kokonaispaine p koostuu n tulevasta paineesta ja sironneesta paineesta, ratkaistavaksi jää 2 p s + k 2 p s = 0 (5) p s n = p i n ( lim R ps R R ikp s (6) ) = 0, (7) kun kenttä p i tunnetaan. Ratkaisun on toteutettava Sommerfieldin ehto (7), jonka mukaan sironnut aalto vaimenee kulkiessaan sirottavasta kappaleesta äärettömyyteen. [5] Joissakin erikoistapauksissa tämä voidaan ratkaista analyyttisesti sarjakehitelmien avulla [6, 7], mutta yleisissä geometrioissa tulee aina ratkaista numeerisesti. Tässä työssä ratkaisu on tehty numeerisesti käyttäen reunaelementtimenetelmää (Boundary Element Method, BEM) [8]. 1.2 Simuloinnin korvaaminen neuroverkolla Simuloinnissa haasteena on riittävän tarkan sirottavan kappaleen mallin muodostaminen sekä aikaa vievä laskenta. Tämä tutkielma tutkii neuroverkon mahdollista hyödyntämistä laskennallisesti vaativan simuloinnin korvaajaksi. Tavoitteena on opettaa neuroverkko antamaan ulostulona HRTF, kun sille annetaan syötteenä parametrisoitu sirottava kappale. Neuroverkon toiminta on esitetty Kuvassa 2. Sirottavana kappaleena käytetään ihmiskehon sijasta eri kokoisia ellipsoideja, jotta pystytään tekemään yksinkertainen geometrinen parametrisointi. 7
8 Neuroverkon opettaminen Syöte NN Ulostulo Neuroverkon muokkaaminen Virheen määritys HRTF Opetetun neuroverkon käyttö Syöte NN HRTF Kuva 2: Neuroverkko halutaan antamaan ulostulona HRTF, kun sille syötetään ihmisen parametrisaatio. Neuroverkon opetusvaiheessa syötteen tuottamaa ulostuloa verrataan todelliseen HRTF:n ja verkkoa muokataan siten, että ulostulon ja HRTF:n välinen virhe pienenee. Opettamisen jälkeen neuroverkkoa voidaan käyttää antamaan HRTF ihmisen parametrisaation perusteella. 1.3 Tutkielman rakenne Tutkielma koostuu seuraavista kappaleista. Kappaleessa 2 tutustutaan neuroverkkojen toimintaan. Kappaleessa 3 kuvaillaan aiemmin kirjallisuudessa toteutettua neuroverkkojen soveltamista HRTF:n määrittämiseen perustuen ihmisen antropometrisiin mittoihin. Lisäksi tässä kappaleessa esitetään lyhyesti aiemmasta julkaisusta muokatun menetelmän tulokset. Kappaleessa 4 esitetään menetelmät tämän tutkielman varsinaisen tutkimuksen suorittamiseen. Kappaleessa 5 esitetään tutkimuksen tulokset ja kappaleessa 6 pohditaan tuloksia. 8
9 2 Neuroverkot Vaikka neuroverkot ovat viimeaikoina yleistyneet, niiden idea on vanha. 1943, Warren S. McCulloch ja Walter H. Pitts käyttivät yksinkertaista neuroverkkoa mallintamaan tietotekniikassa käytettyjä loogisia operaatioita AND/OR/NOT [9]. Heidän käyttämänsä neuroverkko oli kuitenkin vain approksimaatio näille operaatioille ja siltä puuttui toinen tärkeä neuroverkkojen ominaisuus, oppiminen Donald Hebb kuvasi kirjassaan, miten neuroverkko pystyy oppimaan [10]. Esimmäinen tosielämän ongelmaan sovellettu neuroverkkokin syntyi kymmenen vuotta tämän jälkeen [11]. Laajempi neuroverkkojen yleistymistä ei kuitenkaan tapahtunut tähän aikaan. Seuraava aalto neuroverkkojen suosiossa tuli 1990-luvulla [12]. Tämän vuosikymmenen aikana yksi suurimmista kehitysaskelista oli konvoluutioneuroverkkojen (Convolutional neural networks, CNN) keksiminen [13]. Kaikesta huolimatta tällöinkään neuroverkot eivät tulleet nimenä tutuksi laajemmalle yleisölle. 90-luvulta 2010 luvulle tapahtui kaksi asiaa, jotka mahdollistivat neuroverkkojen laajemman hyödyntämisen. Yksi näistä on tietokoneiden laskentatehon kasvaminen ja erityisestä näytönohjainten kehittyminen ja pilvilaskennan mahdollisuus. Toinen on suuren datamäärän saatavuus internetin yleistymisen myötä, jota tarvitaan neuroverkkojen opettamiseen. Viime vuosina neuroverkkojen saavutukset sekä tutkimuksessa että teknologiateollisuudessa ovat olleet merkittäviä. Tästä kertoo suuret koneoppimiseen liittyvien julkaisujen määrät ja esimerkkejä merkittävistä saavutuksista teollisuudessa ovat puheen tunnistamiseen (Speech Recognition) [14, 15] ja kuvien tunnistamiseen (Image Recognition) [16, 17] liittyvät sovellukset. Perinteisesti tietokone suorittaa ihmisen ohjelmoimat käskyt. Nämä ovat tehokkaita menetelmiä, kun tiedetään millaista algoritmia tarvitaan. Algoritmin suunnittelemiseen tulee ongelma, kun halutaan esimerkiksi tunnistaa kuvassa olevia esineitä. Tähän on hankala suunnitella algoritmia ja siksi tällaisissa tehtävissä hyödynnetään koneoppimista. Koneoppimisen tarkoituksena on, että algoritmi oppii itse suoriutumaan halutusta tehtävästä mahdollisimman hyvin. Tällöin ihminen ei määrittele algoritmia vaan se oppii itsenäisesti kaikki yksityiskohdat. Oppimisesta vastaa neuroverkko. [12, 18, 19] Neuroverkko on tietokonealgoritmi, joka pystyy oppimaan funktioita sille syötetyn datan perusteella. Neuroverkko mukailee ihmisaivojen toimintaa ja se koostuu toisiinsa kytketyistä neuroneista. Tässä kappaleessa tutustutaan neuroverkkojen rakenteeseen ja niiden oppimisprosessiin. 2.1 Neuroni Neuroverkko koostuu yksittäisistä neuroneista, joiden toiminta mukailee ihmisaivossa olevien neuronien toimintaa. Aivoissa yksittäiset neuronit ovat yhteydessä toisiinsa eri vahvuisten liitosten avulla ja tämä mahdollistaa aivojen toiminnan. Keinotekoisessa neuro- 9
10 verkossa (artificial neural network) neuronit on jaettu kerroksiin. Kuvassa 3 on neuroverkko, jossa on kolme kerrosta. Ensimmäistä kerrosta sanotaan syötekerrokseksi ja viimeistä ulostulokerrokseksi. Näiden välissä ovat piilokerrokset. Kuvassa näkyvät nuolet kertovat, miten neuronit ovat yhteydessä toisiinsa. Jokaisen kerroksen jokainen neuroni on yhteydessä jokaiseen vierekkäisten kerrosten neuroniin. Jokaisella neuronilla on yksi skalaariarvo. Syötekerroksen neuroneilla tämä arvo määräytyy verkkoon syötettävän datan mukaan. Muiden kerrosten neuroneilla tämä skalaariarvo määräytyy edellisten kerrosten neuronien arvojen ja neuronien välisten yhteyksien mukaan. Neuronien yhteyksien voimakkuutta kuvataan painokertoimilla wkj l, jotka ovat yksilöllisiä jokaiselle neuronien väliselle yhteydelle. Edellä esitetty painokerroin on kerroksessa l olevan j:n neuronin ja kerroksessa l 1 olevan k neuronin välillä, kun syötekerroksessa l = 1 ja ulostulokerroksessa l = L. Neuronien välisiä yhteyksiä kuvaavien painojen lisäksi jokaiselle neuronille on oma kynnysarvo (bias) b l j. Yksinkertaisimmassa neuroverkossa jokaisella neuronilla suoritetaan laskutoimitus, jossa edellisen kerroksen neuronien arvot x l 1 k painotetaan painokertoimilla. Neuronin arvoksi tulee 1, jos summa on suurempi kuin kynnysarvo ja 0, jos summa on pienempi kuin kynnystermi ulostulo = 1, jos Σw l kj xl 1 k 0, jos Σw l kj xl 1 k b l j. (8) < b l j Tällaisia neuroneja kutsutaa perseptroneiksi ja neuroverkkoa, joka koostuu perseptroneista kutsutaan perseptronineuroverkoksi. Todellisuudessa neuroverkoissa ei käytetä perseptroneja, koska niiden binäärisestä arvosta on haittaa opettamisen aikana. Opetettaessa neuroverkkoa, toivottavana ominaisuutena on muutokset syötekerroksessa saavat aikaan jatkuvia muutoksia ulostulokerroksessa. Tämä ei toteudu käytettäessä perseptroneja. Vaihtoehto perseptroneille on käyttää neuronien arvona summaa Σ k wkj l xl 1 k +b l j. Tällainen neuroverkko on lineaarinen funktio nimeltään Linear Regression Model. Vaikka lineaarinen verkko helpottaa oppimista, se pystyy approksimoimaan ainoastaan lineaarisia funktioita. Todellisuudessa valtaosa ongelmista, joihin neuroverkkoja pyritään hyödyntämään, ovat epälineaarisia. Neuroverkon approksimoiva funktio saadaan epälineaariseksi käyttämällä aktivointifunktiota (activation function). 2.2 Aktivointifunktiot Neuroverkon kyky oppia epälineaarisia funktioita mahdollistuu, kun käytetään aktivointifunktiota. Aktivointifunktion halutaan olevan jatkuva, jotta pienet muutokset syötteessä aiheuttavat vain pieniä muutoksia ulostulossa. Kuitenkaan ei haluta lineaarista aktivointifunktiota. Aktivointifunktiona voitaisiin käyttää monenlaisia funktioita, mutta nykyään eniten käytettyjä ovat sigmoidi σ(x), hyperbolinen tangentti tanh(x) ja ReLU (Rectified 10
11 Syötekerros Piilokerros Ulostulokerros b 1 1 x 1 b 1 2 b 2 1 y x 2 w 1 2,1 b 1 3 w 2 1,3 Kuva 3: Esimerkki täysin yhdistetystä neuroverkosta. Siinä on kolme kerrosta: syötekerros, piilokerros ja ulostulokerros. Kaikissa kerroksissa jokainen neuroni on yhdistetty vierekkäisten kerrosten neuroneihin. Linear Unit) R(x)[18] σ(x) = e x (9) tanh(x) = ex e x e x + e x (10) R(x) = max{0, x}. (11) Aktivaatiofunktion arvoa neuronin arvolla x kutsutaan aktivaatioksi. Kuvassa 4 on esitetty edellä mainitut aktivointifunktiot. On huomioitava, että aktivaatio voi saada vain tiettyjä arvoja. Tämän vuoksi ulostulot on skaalattava, jotta ulostulokerroksen aktivaation on mahdollista saada jokainen ulostulon arvo. Tämä tarkoittaa, että esimerkiksi sigmoidia käytettäessä ulostulokerros on skaalattava välille ]0,1[. 2.3 Sakkofunktio Neuroverkon opettaminen tarkoittaa painojen ja kynnysarvojen muokkaamista siten että neuroverkon syöte x tuottaa ulostulokerroksella L aktivaation a L (x), joka on mahdollisimman lähellä todellista ulostuloa y. Tämä tarkoittaa optimointiongelman ratkaisua, jossa minimoidaan residuaali y a L (x) jossakin muodossa. Neuroverkon opettamiseksi tarvitaan opetusdataa. Opetusdata sisältää syötteitä ja niitä vastaavat ulostulot. Syötteiden syöttämistä neuroverkkoon ja näitä vastaavien ulostulojen laskemista kutsutaan myötäsyötteiseksi (feed-forward) prosessiksi. Sakkofunktiok- 11
12 Kuva 4: Yleisimmin käytetyt aktivointifunktiot sigmoidi, hyperbolinen tangentti ja ReLU sekä näiden derivaattafunktiot. si voidaan valita residuaalin normin neliö C x = y(x) a L (x) 2. (12) Sigmoidin ja hyperbolisen tangentin derivaatat ovat lähellä nollaa, muualla kuin pisteen x = 0 läheisyydessä. Tämän seurauksena käytettäessä sigmoidia tai hyperbolista tangenttia aktivointifunktiona ja normin neliötä sakkofunktiona, neuroverkon oppiminen tapahtuu nopeasti, kun verkko on vain vähän väärässä, mutta hitaasti kun verkko on enemmän väärässä. Tämä heikentää verkon kykyä oppia ja johtuu näiden aktivointifunktioiden derivaatan suuresta arvosta lähellä nollaa ja pienenevästä arvosta etäännyttäessä nollasta. Tämä ongelma voidaan huomioida käyttämällä sakkofunktiona nk. cross-entropy:ä C = 1 n Σ x[y ln a L + (1 y) ln(1 a L )]. (13) 12
13 Tämän sakkofunktion derivaatassa painojen ja kynnysarvojen suhteen C = 1 w j n Σ xx j (σ(z) y) (14) C b = 1 n Σ x(σ(z) y) (15) ei ole σ termejä, jotka aiheuttavat neuroverkon oppimisen hidastumisen. Lisäksi sakko C on suurin, kun aktivaatio ulostulokerroksessa tuottaa suurimman virheen. 2.4 Gradient descent Oppimisen aikana neuroverkko muuttaa parametrejään wkj l ja bl k sopivammiksi. Tämä tapahtuu muuttamalla niitä kohti sakkofunktion negatiivista gradienttia. Gradientin analyyttinen laskeminen globaalin minimin löytämiseksi ei ole mahdollista, koska muuttujien määrä on liian suuri. Tämän vuoksi opetusjoukon näytettä x vastaavat gradientit on laskettava erikseen jokaiselle ulostulokerroksen neuronille. Sakkofunktion gradienttina käytetään koko opetusjoukon yksittäisille näytteille laskettujen gradienttien keskiarvoa C = 1 n Σ x C x. (16) Lasketusta sakkofunktion gradientista saadaan gradientti jokaisessa ulostulokerroksen neuronissa sekä painokertoimien että kynnysarvon suhteen. Näille parametreille saadaan nyt laskettua päivitetyt arvot w L jk =w L jk η C w L jk b L j (17) =b L j η C. (18) b L j Tämä eräalgoritmi (Batch gradient descent) [20] muuttaa neuroverkon painoja ja kynnysarvoja koko opetusjoukon sakkofunktion negatiivisen gradientin suuntaan. Mikäli sakkofunktiossa on useita lokaaleja minimikohtia, verkon oppiminen voi pysähtyä näihin kohtiin (Kuva 5). Vaihtoehtoinen tapa on päivittää neuroverkon parametreja erikseen jokaisella näytteellä lasketulla sakkofunktiolla käyttäen stokastista gradienttioptimointialgoritmia (Stochastic gradient descent, SGD) [20]. Tällöin yksittäisten näytteiden erilaiset sakkofunktiot saavat neuroverkon muuttamaan parametreja eri tavoin (Kuva 5). Tällöin vähennetään riskiä opettamisen pysähtymiseen lokaaleihin minimeihin. Mutta toisaalta tällöin neuroverkon oppiminen hidastuu, koska yksittäisten näytteiden sakkofunktiot ovat erilaisia, eivätkä approksimoi hyvin koko datan sakkofunktiota ja globaalia minimiä. Kompromissina näille 13
14 Kuva 5: Eräalgoritmi muodostaa lokaaleja minimejä, joihin neuroverkon oppiminen voi pysähtyä. SGD:ssä yksittäisten näytteiden sakkofunktioiden lokaalit minimit ovat eri kohdissa, jolloin oppimisen pysähtymiseltä ennen globaalia minimiä on mahdollista välttyä. kahdelle menetelmälle on osajoukkoalgoritmi (mini-batch gradient descent). Tässä menetelmässä koko opetusjoukosta on valittu osajoukko, jonka näytteille lasketaan sakkofunktion gradientit ja näiden keskiarvoa käytetään parametrien päivittämiseen. Tämän avulla voidaan ehkäistä lokaalien minimien ongelmaa, mutta toisaalta yksittäisten näytteiden sakkofunktiot eivät hidasta opettamista. Opetus-osajoukko vaihdetaan jokaisen opetusaskeleen (training step) jälkeen. Opetusaskeleen aikana yksi näyte tai näytejoukko (batch) syötetään neuroverkkoon ja verkon kaikki parametrit muutetaan negatiivisen gradientin suuntaan. Opetusaskel toistetaan, kunnes kaikkia opetusnäytteitä on käytetty opettamisessa. Kun kaikkia näytteitä on käytetty opettamisessa, on kulunut yksi epokki. 2.5 Vastavirta-algoritmi Sakkofunktion ja SGD:n avulla saadaan muutettua ulostulokerroksen painoja ja kynnysarvoja, siten että verkko suoriutuu paremmin. Aiempien kerrosten parametrien muuttamiseen käytetään vastavirta (backpropagation) -algoritmia [21]. Algoritmi laskee ensin ulostulokerroksen aktivaatioiden virheet δj L jokaiselle neuronille δ L j = C σ (z a L j L ). (19) j 14
15 Ensimmäinen termi mittaa sakkofunktion muutoksen j neuronin aktivaation suhteen. Tähän termiin vaikuttaa valittu sakkofunktio. Toinen termi mittaa, miten j neuronin aktivaatio muuttuu neuronin arvon zj L funktiona. Tähän termiin vaikuttaa valittu aktivaatiofunktio. Kun ulostulokerroksen aktivaatioiden virheet tiedetään, virheet jatketaan neuroverkon edelliselle kerrokselle l = L 1 δ L 1 = ((w L ) T δ L ) σ (z L 1 ). (20) Tämä yhtälö voidaan yleistää pätemään kaikille kerroksille, jolloin saadaan tietää virhe jokaisella kerroksella. Kerroksen l aktivaatioiden virhe on δ l = ((w l+1 ) T δ l+1 ) σ (z l ). (21) Virheen suuruuden eteneminen kuhunkin edellisen kerroksen neuroniin määräytyy neuronien välisen painon suuruudella eli sillä, miten vahva näiden neuronien liitos on. SGD tarvitsee sakkofunktion osittaisderivaatat neuroverkon parametrien suhteen. Nämä saadaan neuronin aktivaation virheestä seuraavien yhtälöiden avulla C b l j C w l jk = δ l j (22) = a l 1 k δ l j. (23) Sijoittamalla nämä yhtälöön (17) ja (18), saadaan päivitettyä kaikki neuroverkon parametrit. 2.6 Optimointialgoritmit Tähän asti neuroverkon parametrien päivittäminen on tehty muuttamalla niitä sakkofunktion negatiivisen gradientin suuntaan askelparametrin määräämän matkan. Tällainen optimointi johtaa jyrkkiin suunnanmuutoksiin opetuksen aikana. Lisäämällä optimointiin parametrien liikemäärä, saadaan oppimispolkua ja siten opetukseen käytettyä aikaa lyhennettyä (kuva 6). Tämä myös pienentää lokaalien minimien vaikutusta. Liikemäärän vaikutus saadaan, kun opetusaskeleessa huomioidaan myös aiemman opetusaskeleen sakkofunktion gradientin suunta. Voidaan ajatella että gradientin määräämä kiihtyvyys muuttaa parametrien edellisen muutoksen liikemäärää samalla tavalla kuin gravitaatio vaikuttaa mäessä vierivän pallon etenemiseen. Liikemäärän vaikutus saadaan lisäämällä painojen päivittämiseen (17) edellisellä iteraatiolla tehdyn muutoksen sisältävä termi. Käytetään parametreille wjk l ja bl j yhteistä 15
16 Kuva 6: Liikemäärän lisääminen lisää saman vaikutuksen kuten kappaleen massa mekaniikassa. Massa saa aikaan edellisellä iteraatiolla käytetyn parametrien muutoksen lisäämisen seuraavan iteraation parametrin arvon estimointiin. Liikemäärää hyödyntämällä on mahdollista vähentää opetukseen käytettyä aikaa. merkintää θ, jota voidaan käyttää jokaisen painon ja kynnysarvon päivittämiseen. Lisäksi = dθ. Tällöin iteraatiolla i päivitetty parametrin θ arvo liikemäärä huo- merkitään C θ mioituna on missä iteraatiolla i tapahtuva muutos parametrissa θ θ i = θ i 1 + η θ i, (24) θ i = β θ i 1 (1 β)dθ i. (25) Kerroin β ja määrittää, miten paljon painotetaan edellisen iteraation liikemäärää. Optimointialgoritmeissa oppimiskertoimen suuruuden valinnalla on suuri merkitys neuroverkon oppimiseen. Liian suurella arvolla neuroverkon on hankala supeta lähestyttäessä minimikohtia ja liian pieni arvo vaatii liian paljon aikaa supetakseen. Nykyaikaisilla optimointialgoritmeilla on mahdollista vaikuttaa liikemäärän merkitykseen ja oppimiskertoimen mukautumiseen opetuksen aikana. AdaGrad [22], RMSProp [23] ja Adam [24] ovat eräitä suosituimpia optimointialgoritmeja [18]. Näillä algoritmeilla on jokaisella omat vahvuutensa ja heikkoutensa. AdaGrad mahdollistaa jokaiselle parametrille oman oppimiskertoimen asettamisen ja näiden parametrien muuttamisen omien sakkofunktioiden gradienttien perusteella. Neuroverkon seuraava parametri θ i saadaan päivittämällä aiemman iteraation parametria θ i = θ i 1 η ɛ + r i dθ. (26) 16
17 ɛ on pieni luku nollalla jakamisen välttämiseksi ja r i on aiemmat gradientit huomioiva funktio r i = r i 1 + (dθ) 2. (27) r i kasvaa jokaisella iteraatiolla ja sen vuoksi tämän algoritmin ongelmana on, että sen askelparametri pienenee jokaisella iteraatiolla. Suurin ongelma tämä on lokaalien minimien kohdalla, jossa askelparametri pienenee voimakkaasti ja globaaliin minimiin suppeneminen hidastuu huomattavasti. RMSProp-algoritmi vastaa AdaGradia muuten kuin oppimiskertoimen mukautumisella. RMSProp muuttaa oppimiskerrointa siten että aiempien iteraatioiden sakkofunktiot huomioidaan eksponentiaalisesti pienenevällä painolla. Funktiona r i käytetään r i = ρr i 1 + (1 ρ)dθ 2, (28) missä ρ on positiivinen luku. Adam vastaa RMSProp-algoritmia sillä muutoksella, että siinä lisätään liikemäärän vaikutus. Parametrien muutosta edustava termi koostuu kahdesta osasta. Ensimmäinen osa vastaa liikemäärää ja se koostuu aiemman iteraation muutoksen suunnasta m i 1 ja tämänhetkisen iteraation sakkofunktion gradientista dθ m i = β 1 m i 1 + (1 β 1 )dθ. (29) Toinen osa koostuu RMSProp-algoritmin termistä v i = β 2 v i 1 + (1 β 2 )dθ 2. (30) Liikemääräosassa ja RMSProp-osassa on eri painokertoimet β 1 ja β 2, jotka määrittävät aiempien gradienttien ja nykyisen gradientin painotuksen. Adam-algoritmissa termit m i ja v i alustetaan nolliksi. Tämä aiheuttaa harhan todellisiin arvoihin verrattuna. RMSPropalgoritmissa vastaavaa ongelmaa ei ole huomioitu, mutta Adam käyttää termien m i ja v i sijaan korjattuja termejä m i = ṽ i = m i 1 β i 1 v i (31), (32) 1 β2 i missä parametrien β 1 ja β 2 eksponentti on tämänhetkinen iteraatio. Lopullinen Adamalgoritmin parametrien päivitys on m i θ i = θ i 1 α ṽi + ɛ. (33) 17
18 2.7 Verkon parametrien alustaminen Ennen ensimmäistä myötäsyötteistä operaatiota kaikki neuroverkon parametrit on alustettava. Alustaminen tehdään tavallisesti valitsemalla painoille ja kynnysarvoille satunnaiset arvot jostakin jakaumasta. Jakauma voi olla esimerkiksi normaalijakauma tai tasajakauma. Satunnaisesti valituilla parametrin arvojen suuruudella on merkitys syötekerroksen neuroneista lähtevän signaalin etenemiseen neuroverkossa. Liian pienet parametrien arvot aiheuttavat neuroverkossa edetessään signaalin heikkenemisen jokaisella kerroksella ja liian suuret aiheuttavat signaalin kasvamisen jokaisella kerroksella. Xavier-algoritmi [25] valitsee automaattisesti painot sopiviksi ja kynnysarvot alustetaan usein nollaksi. Algoritmi valitsee kerroksen l painot w l yleensä normaalijakaumasta tai tasajakaumasta määrittelemällä jakauman varianssin syöte- ja ulostulokerrosten neuronien määrän mukaan. Jakauman varianssi on Γ(w l ) = 2 n 1 + n L, (34) missä n 1 on ensimmäisen kerroksen neuronien määrä ja n L on viimeisen kerroksen neuronien määrä. Parametrien alustamisella on suuri merkitys neuroverkon oppimiseen. Xavier algoritmistä on suurin hyöty sigmoidia tai hyperbolista tangenttia neuronien aktivointifunktiona, jolloin vältytään suurten tai pienten arvojen aiheuttamalta pieneltä gradientilta, jonka seurauksena neuroverkko oppii hitaasti. Käytettäessä ReLU:a aktivointifunktiona, sopivampi varianssi Γ painokertoimien jakaumalle on [26] Γ(w l ) = 2 n l, (35) missä n l on kerroksessa l olevien neuronien lukumäärä. 2.8 Hyperparametrit ja neuroverkon tyyppi Neuroverkon oppimien parametrien lisäksi käyttäjän on määritettävä hyperparametrit (hyper-parameters). Hyperparametrit valitaan ennen opettamista ja niiden avulla pysytään vaikuttamaan neuroverkon kykyyn oppia. Näitä parametreja ovat muun muassa neuroverkon rakenteen määrittävät piilokerroksien määrä ja neuronien määrä kussakin kerroksessa sekä SGD:n oppimiskertoimen koko. Hyperparametrien valitsemiseksi ei ole selviä sääntöjä, mutta neuroverkon sovelluskohde on ensimmäinen asia, jossa joudutaan tekemään päätöksiä hyperparametreista. Vielä ennen varsinaisten parametrien määrittämistä joudutaan tekemään valinta, millaista neuroverkkoa halutaan käyttää. Tämän tutkielman tulokset on saatu käyttämällä täysin yhdistettyä neuroverkkoa, mutta mainittakoon että monissa ongelmissa on käytössä kon- 18
19 voluutio neuroverkot (Convolutional Neural Networks, CNN) [13] ja takaisinkytkeytyvä neuroverkko (Recurrent Neural Network, RNN) [18] muun muassa niiden kuvien spatiaalisen ja puheen temporaalisen informaation säilyttämisen kyvyn vuoksi. Neuroverkon tyypin valinnan jälkeen parhaiten sopivien hyperparametrien valinta suoritetaan usein kokeilemalla. Verkon toiminnasta saadaan informaatiota, jonka perusteella saadaan käsitys, millaisia muutoksia parametreihin pitäisi tehdä. Muutokset voivat liittyä verkon kykyyn oppia opetusdatan pieniä piirteitä tai liian hitaaseen oppimiseen, joita pystytään säätämään oppimiskertoimen avulla. Tämän lisäksi liian pieni verkon koko voi aiheuttaa sen, ettei se kykene oppimaan haluttua monimutkaista funktiota. Toisaalta isoja verkkoja on hankala opettaa katoavan gradientin (vanishing gradient) ongelman takia [12]. Tämä johtuu siitä, että myöhemmillä kerroksilla parametrit muuttuvat aiempia nopeammin. Sopivien hyperparametrien löytämiseksi neuroverkon suorituskykyä testataan erillisellä datajoukolla, jota kutsutaan kelpuutusdataksi (validation data). Tässä datajoukossa ei ole samoja näytteitä kuin opetusdatassa tai testidatassa, jota käytetään neuroverkon suorituskyvyn mittaamiseen. Neuroverkkoa kutsutaan ylisovitetuksi (overfitting) [27], jos se on opetettu ja toimii hyvin yhdessä datajoukossa, mutta suoriutuu huonosti yleistetyn datan kanssa. Ylisovittamiselta pyritään välttymään hyödyntämällä kelpuutusdataa. Hyperparametrien automaattista valintaa on myös tutkittu [28]. Sopivimpien hyperparametrien valinta voidaan tehdä esimerkiksi määritetystä diskreetistä parametrijoukosta, tekemällä satunnainen valinta [29] tai gradienttiin pohjautuvalla valinnalla [30]. 2.9 Ylisovittaminen Neuroverkko on funktio, joka approksimoi kuvausta syötteiden ja ulostulojen välillä. Approksimointi suoritetaan parametrien, painojen ja kynnysarvojen avulla. Parametrien määrän kasvaessa ylisovittamisen riski kasvaa. Ylisovittaminen tarkoittaa, että verkko oppii opetusdatan tietyt piirteet, mutta sitä ei pystytä yleistämään tämän datajoukon ulkopuolelle. Samanlainen ilmiö tapahtuu, kun polynomi sovitetaan dataan, jonka datapisteiden määrä on enintään yksi enemmän kuin polynomin asteluku. Tällöin polynomi saadaan sovitettua dataan täydellisesti, mutta se ei yleensä ole paras kuvaus datalle. Ylisovittamista tapahtuu herkimmin, kun datajoukko on pieni, eli parametrien määrä on pieni tai neuroverkkoa opetetaan liian pitkään (liian monta epokkia). Ylisovittaminen voidaan huomata tarkastelemalla opetusjoukon ja kelpuutusjoukon sakkofunktion arvoa epokkien funktiona. Neuroverkon oppiessa molempien joukkojen sakkofunktion arvo vähenee, mutta kun tapahtuu ylisovittamista, opetusjoukon sakkofunktion arvo jatkaa vähenemistä ja validaatiojoukon sakkofunktio siirtyy kasvuun. Kuvassa 7 on kaksi neuroverkon ennustamaa signaalia. Näiden signaalien opettamises- 19
20 Kuva 7: Kaksi näytettä ylisovitetusta neuroverkon ulostulosta. a) Näyte opetusdatasta, johon neuroverkko on ylisovitettu voimakkaasti. b) Näyte testidatasta, johon neuroverkko ei kykene ennustamaan oikeaa signaalia. sa neuroverkolle on annettu kaksi parametria, joiden perusteella sen on pitänyt ennustaa näiden parametrien tuottama signaali. Vasemmanpuolinen näyte oli mukana opetuksessa ja oikeanpuoleinen näyte ei ollut. Tässä tapauksessa huomataan, että neuroverkko on ylisovittanut voimakkaasti opetusdataan, mutta ei osaa yleistää tämän datan ulkopuolelle Regularisointimenetelmät Ylisovittamisen ehkäisemiseksi voidaan käyttää regularisointimenetelmiä. Yksi tärkeä keino on käyttää kelpuutusdataa, josta mainittiin aiemmin. Tämä ehkäisee hyperparametrien valinnan ylisovittamisen testidataan. Paras keino ylisovittamisen ehkäisemiseksi on lisätä opetusdataa. Tavallisesti opetusdataa on saatavilla rajallinen määrä ja tämä ei ole mahdollista. Toinen keino on vähentää verkon parametrien määrää pienentämällä neuroverkon kokoa. Tämä menetelmä on suositeltava, mikäli mahdollista mutta pieni neuroverkon koko rajaa pois sovelluskohteet, jotka vaativat tehokkaamman neuroverkon. Regularisointimenetelmät muokkaavat joko itse neuroverkkoa tai sakkofunktiota siten että on mahdollista välttyä ylisovittamiselta. L2 regularisointi [31] muokkaa sakkofunktiota lisäämällä regularisointitermin sakkofunktioon. Regularisoitu residuaalin normi on [12] C x = y(x) a L (x) 2 + λ 2n Σ ww 2. (36) Regularisointitermi sisältää painojen neliöiden summan ja regularisointiparametrin λ > 0. Regularisointi voidaan tehdä muillekin sakkofunktioille. Regularisointitermi määrittää, suosiiko verkko enemmän pieniä painoja vai sakkofunktion minimoimista. Pudotusmenetelmä (Dropout) [32] on toisenlainen regularisointimenetelmä. Sakkofunktion muokkaamisen sijaan se muokkaa verkon rakennetta. Muokkaaminen tapahtuu 20
21 poistamalla tilapäisesti osa neuroneista. Tämän jälkeen neuroverkkoa opetetaan jäljelle jääneillä neuroneilla opetus-osajoukolle (Mini-batch). Yhdelle opetus-osajoukolle opettamisen jälkeen poistetut neuronit palautetaan ja uudet poistettavat neuronit valitaan satunnaisesti. Tämä toistetaan koko opetusdatalle. Tämän prosessin aikana ei opeteta koko neuroverkkoa, joten se ei kärsi ylisovittamisesta. Jäljelle jääneistä neuroneista koostuvat neuroverkot ovat ylisovittuneet opetus-osajoukon datalle, jolle ne on opetettu. Neuroverkko kokonaisuudessaan ei kuitenkaan ole ylisovitettu, koska sitä ei ole käytetty kaikkine neuroneineen millään opetusjoukolla opettamiseen. 21
22 Kuva 8: CIPIC-tietokannassa käytetyt mitat ihmisen parametrisointiin. (Kuva: V. R. Algazi and R. O. Duda and D. M. Thompson. The CIPIC HRTF Database. IEEE Workshop on Applications of Signal Processing to Audio and Acoustics, October, 2001.) 3 Yksilöllisen HRTF:n opettaminen neuroverkolla Neuroverkkoja on aiemmin käytetty yksilöllisen HRTF:n muodostamiseen [34]. Tällöin opetusdata saatiin tietokannasta, jossa on henkilöiden HRTF:ta vastaavat impulssivasteet. HRTF on korvakäytävään menevän ääniaallon amplitudispektri ihmiskehosta sironneelle aallolle. Impulssivaste tällöin on taajuustasossa olevan amplitudispektrin informaatio ilmaistuna aikatasossa. Tällöin impulssivaste (Head-Related Impulse Response, HRIR) ja HRTF ovat yhteydessä Fourier-muunnoksen avulla. HRIR f(t) saadaan muutettua taajuustasoon HRTF:ksi ˆf(t) Fourier-muunnoksella ˆf(ω) = f(t)e iωt dt, (37) missä aikatason impulssivaste f(t) muunnetaan taajuuden ω funktioksi. HRTF saadaan aikatasoon Fourier n käänteismuunnoksella f(t) = 1 2π ˆf(ω)e iωt dω. (38) 3.1 CIPIC-tietokanta CIPIC (UC Davis, Center for Image Processing and Integrated Computing) on HRTF:n tutkimiseen luotu tietokanta [33]. Sinne on kerätty kokeellisesti mitattu HRIR 45 koehenkilöltä 1250 suunnasta 2 metrin etäisyydeltä pään keskipisteestä. Tietokanta sisältää myös koehenkilöistä mitattuja antropometrisia mittoja. Mitat sisältävät pään ja hartioiden koon sekä erityisesti ulkokorvasta tehtyjä mittoja, joiden oletetaan olevan tärkeitä HRTF:n määrittämiseksi (Kuva 8). 22
23 3.2 HRTF:n opettaminen antropometrisista mitoista Neuroverkkojen hyödyntämistä HRTF:n muodostamisessa antropometrisiin mittoihin perustuen on tutkittu käyttämällä opetuksessa syötteenä henkilön antropometrisiä mittoja ja ulostulona saman henkilön HRIR [34]. Heidän saamansa tulokset näyttivät lupaavilta siinä mielessä, että neuroverkko oppi impulssivasteen suurimpien piikkien paikat ja oli virheeltään pienempi kuin impulssivasteiden keskiarvon virhe. Työssä [34] käytettiin CIPIC-tietokannan 35 koehenkilön dataa, joilla oli kaikki heidän haluamat antropometriset mitat sekä HRIR:t. Tämän tutkielman ensimmäinen askel oli toistaa edellä mainittu koe HRIR:n sijaan HRTF:llä. Tällöin neuroverkko oppisi suoraan HRTF:n sille annettujen antropometristen mittojen perusteella. Tämä tehtiin sen takia, että opittu impulssivaste on mahdollisesti kadottanut paljon taajuusinformaatiota, vaikka sen antama impulssivaste on lähellä haluttua. Sen sijaan HRTF:ta opetettaessa sakkofunktion arvo pienenee taajuusinformaation ollessa oikein. Neuroverkon opetusjoukoksi valittiin 35 koehenkilöstä 34, jolloin yhtä koehenkilöä käytettiin neuroverkon suoriutumisen mittaamiseen testidatana. Neuroverkolle opetettiin HRTF vain yhdestä suunnasta. Neuroverkon syötteenä oli koehenkilöiden 7 antropometrista mittaa, jotka määrittävät pääosin HRTF:n muodon [35]. Ulostulona oli tämän henkilön HRTF. Koe suoritettiin kaksi kertaa. Molemmissa tapauksissa neuroverkon suorituskykyä mittaava koehenkilö valittiin satunnaisesti, kuitenkin eri henkilö kummassakin tapauksessa. Käytetyssä neuroverkossa oli 5 piilokerrosta, joissa oli 64 neuronia. Kaikkien muiden paitsi ulostulokerroksessa olevien neuroneiden aktivaatiofunktiona käytettiin ReLU:a. Ulostulokerroksessa käytettiin sigmoidia aktivointifunktiona. Askelparametri oli ja neuroverkko hyödynsi pudotusmenetelmää neuronien verkkoon jättämistodennäköisyydellä 0.9. Neuroverkkoa opetettiin 2000 epokkia. Käytetty neuroverkko vastaa aiemmassa HRIR:n opetuksessa käytettyä. Poikkeuksena ulostulokerroksen aktivointifunktiona käytettiin ReLU:n sijasta sigmoidia, koska sen huomattiin tuottavan parempia oppimistuloksia. Lisäksi käytetty antropometristen mittojen määrä (7) poikkeaa HRIR kokeessa käytetystä 23:sta mitasta. Kuvassa 9 on kahden erillisen opetetun neuroverkon ennustamat HRTF:t. Lisäksi kuvassa on sakkofunktion arvo verkkojen opettamisen aikana. Näissä kahdessa neuroverkossa oli käytetty satunnaisesti valittuja henkilöitä testidatana. 23
24 Kuva 9: Opetetun neuroverkon ennustama HRTF ja todellinen HRTF kahdelle opetusjoukolle sekä näiden sakkofunktio epokkien funktiona. HRTF:t ovat skaalattuja kymmenesosaan alkuperäisestä opetuksen vuoksi. 24
25 4 Menetelmät Tämän tutkielman pääasiallinen tarkoitus oli opettaa neuroverkolle ihmistä yksinkertaisemman ja paremmin parametrisoitavan kappaleen sirottaman ääniaallon taajuusvaste ennalta määritellyissä pisteissä. Sirottavaksi kappaleeksi valittiin erikokoisia sferoidisia kappaleita. Ne ovat ellipsoideja, joilla kaksi kolmesta puoliakselista ovat samanpituisia (kuva 12). Mittausasetelmaa muutettiin HRTF:n mittauksesta siten että äänilähteen paikka oli aina 1 mm päässä ellipsoidista positiivisen y-akselin puolella, kun origo oli kappaleen keskellä. Lisäksi mittauspisteisteet olivat ellipsoidin ympäröivällä ympyrän pinnalla. Pallopinta oli origokeskeinen ja säteeltään 2 m. Mittauspisteitä oli 836. Kuvassa 10 on esitetty simuloinnissa käytetty asetelma, jossa ellipsoidin ympärille on kuvattu mittauspisteet. 0 elevaatio tasossa äänilähde, ellipsoidi ja kaikki tason mittauspisteet on kuvassa 11. Tässä työssä neuroverkkoja pyritään opettamaan pienellä datamäärällä. Koetta varten simuloitiin BEM:llä 200:sta erikokoisesta ellipsoidista siroava äänikenttä mittauspisteissä. Jokaiselle mittauspisteelle opetettiin oma neuroverkko antamaan taajuusspektri, kun sille syöttää ellipsoidin puoliakseleiden arvot. Neuroverkon opettaminen tehtiin viidellä eri suuruisella opetusjoukolla. Opetus tehtiin 20, 50, 100, 150 ja 190 ellipsoidilla. Jokaisessa tapauksessa käytettiin 10 ellipsoidia arvioimaan neuroverkon suorituskykyä laskemalla keskiarvo taajuusspektrin suhteelliselle virheelle { } y ŷ 2 C = E, (39) y 2 missä ŷ on neuroverkon approksimaatio taajuusspektrille ja y on todellinen taajuusspektri. y ja ŷ ovat vektoreita, jotka sisältävät koko testidatan. Sakkofunktion lopulliseksi arvoksi määriteltiin keskiarvo viiden viimeisen epokin virheen arvosta, jotta vähennetään mahdollisen sakon arvon heilahtelun vaikutusta. Testaukseen käytettyjä näytteitä ei käytetty opettamisessa. Opettamiseen käytetyn neuroverkon hyperparametrit optimoitiin 100 opetusnäytteellä mittauspisteessä (φ, θ) = (0, 90) ja samoja hyperparametreja käytettiin jokaisessa mittauspisteessä ja kaikilla opetusdatan määrillä. Neuroverkot olivat täysin yhdistettyjä, ja koostuivat 3 piilokerroksesta, joissa kussakin oli 256 neuronia. Syötekerroksessa oli 2 neuronia puoliakselin arvoille ja ulostulokerroksessa oli 375 neuronia, joka on taajuusspektrin pituus. Askelparametri oli η = ja sitä pienennettiin jokaisen epokin jälkeen 0.99 kertaiseksi. Aktivointifunktiona käytettiin jokaisessa piilokerroksessa ReLU:a ja ulostulo kerroksessa sigmoid funktiota. Optimointialgoritmi oli AdamOptimizer. Jokaisen suunnan keskiarvon lisäksi tarkasteltiin kolmen yksittäisen suunnan suoriutumista tarkemmin, jotta on mahdollista nähdä, miten neuroverkon approksimoiva taajuusvaste vertautuu todelliseen taajuusvasteeseen. Ensimmäinen suunta on äänilähteen 25
26 Kuva 10: Mittauspisteet ympäröivät ellipsoidia 2 m säteisellä pallopinnalla. Kuva 11: Mittausasetelmasta 0-elevaatiotasossa. Kuvaan on merkitty ellipsoidi, äänilähde ja kaikki 0-elevaation mittauspisteet. Ellipsoidi ei ole todellisessa mittakaavassa. 26
27 Kuva 12: Ääniaaltoa sirottavana kappaleena käytettiin ellipsoideja, joiden kaksi puoliakselia ovat samanpituisia. Tällaisia ellipsoideja kutsutaan prolate ja oblate sferoideiksi. Ne muodostuvat, kun ellipsi pyöräytetään puoliakselinsa ympäri. Prolate sferoidi (vasemman puoleinen kuva) muodostuu kun pyöräytys tehdään pidemmän puoliakselin ympäri ja oblate sferoidi (oikean puoleinen kuva) muodostuu kun pyöräytys tehdään lyhyemmän puoliakselin ympäri. Ellipsoideille muodostuu tällöin kaksi samanmittaista puoliakselia. 2 neuronia 256 neuronia 256 neuronia 256 neuronia 375 neuronia Kuva 13: Taajuusspektrin opettamiseen käytetyn neuroverkon rakenne. Syötekerroksessa on kaksi neuronia puoliakselien arvoille ja ulostulokerroksessa on 375 neuronia, joka on taajuusspektrin pituus. Piilokerroksessa on kolme ja jokaisessa on 256 neuronia. Kaikki kerrokset ovat täysin yhdistettyjä. 27
28 z θ ϕ y x Kuva 14: Tässä tutkielmassa käytetty koordinaatisto. Leveystason ja korkeustason kulmat on määritelty kuvan mukaisesti siten että kulma (φ, θ) = (0, 0) on positiivisen x-akselin suunnassa. puolelta, (φ, θ) = (+90, 0), toinen on äänilähteeseen nähden sivulta, (φ, θ) = (0, 0) ja kolmas on äänilähteeseen nähden vastakkaiselta puolelta (φ, θ) = ( 90, 0). Kuvassa 14 on tässä kuvassa käytetty koordinaatisto. Kolmelle suunnalle opettamisen tarkoituksena oli lisäksi tutkia ekstrapolointiongelmaa. Kuvassa 15 on esimerkkinä opettamiseen ja testaukseen käytetyt puoliakseleiden arvot 50 näytteen kokeessa. Kuvasta näkyy opettamiseen käytetyt puoliakselien arvot ja kaksi testivaiheessa käytettyä arvoa. Neuroverkon kykyä ennustaa taajuusspektri tutkittiin, kun puoliakseleiden arvot ovat näytejoukon reunoilla. Tämä tarkoittaa puoliakseleiden arvojen valitsemista läheltä 5 cm tai 15 cm. Näytejoukon koon vaikutusta ekstrapolointiongelmaan tutkittiin käyttämällä eri kokoisia opetusjoukkoja. Opetusjoukkojen koot olivat samat kuin aiemmassa kokeessa: 20, 50, 100, 150 ja 190. Testidataa ei valittu satunnaisesti kuten aiemmin, vaan reunalta valittiin yksi näyte, jonka verkon estimoima taajuusspektri vastaa huonosti todellista 50 näytteellä opetettaessa. Samaa näytettä käytettiin muillakin opetusdatan määrillä. Sakkofunktion arvon kehittymistä seurattiin näillä kahdella näytteellä, kun opetusdatan määrää kasvatettiin. Todellisuudessa ellipsoidien puoliakseleiden pituudet sisältävät mittauksesta johtuvaa satunnaista virhettä. Tässä työssä opetettaviin taajuusvasteisiin tai puoliakseleiden pituuksiin ei lisätty kohinaa. Tulokset eivät siis ota kantaa neuroverkon kykyyn sietää mittausvirhettä. Jokainen tässä työssä käytetty neuroverkko opetettiin käyttäen Python-kielellä toi- 28
29 Kuva 15: Semiakseleiden arvot, joita käytettiin neuroverkon opettamiseen ja testaamiseen, kun tutkittiin ekstrapolointiongelmaa. Punaisella on merkitty neuroverkon opettamiseen käytetyt puoliakseleiden arvot, vihreällä testidatan ekstrapolointinäyte ja mustalla testidatan interpolointinäyte. mivaa Tensorflow-kirjastoa [36]. Liitteissä 1 ja 2 on luonnokset opettamiseen käytetyistä koodeista. 29
30 5 Tulokset Kuvissa 16 ja 17 on sakkofunktion keskiarvo viideltä viimeiseltä epokilta, kun opetusdatan määrä on 20, 50, 100, 150 ja 190 näytettä. Kuvassa 18 on edellisille kuville jokaisen suunnan sakon keskiarvo opetusdatan määrän funktiona. Kuvissa 19 ja 20 on suunnasta (φ, θ) = (0, 0), kuvissa 22 ja 23 on suunnasta (φ, θ) = (90, 0) ja kuvissa 25 ja 26 on suunnasta (φ, θ) = (0, 90) interpolointi- ja ekstrapolointinäytteille todellinen ja neuroverkon ennustama taajuusspektri kaikilla opetusdatan määrillä. Kuvassa 21, 24 ja 27 on näillä jokaisella datamäärällä vastaaville suunnille opetetun verkon sakkofunktion arvo epokkien funktiona. 30
31 Kuva 16: Sakkofunktion arvo jokaisessa mittauspisteessä opetuksen lopussa eri määrällä opetusdataa. Opetusdatan määrä on kuvissa ylimmästä alimpaa 20, 50 ja
32 Kuva 17: Sakkofunktion arvo jokaisessa mittauspisteessä opetuksen lopussa eri määrällä opetusdataa. Opetusdatan määrä on kuvissa ylimmästä alimpaa 150 ja 190. Kuva 18: Keskiarvo kuvien 16 ja 17 datasta opetusdatan koon funktiona. 32
33 Kuva 19: Neuroverkon ennustamat ja todelliset interpolointi- ja ekstrapolointitaajuusspektrit näytteiden määrillä 20, 50 ja 100 mittauspisteessä (φ, θ) = (0, 0). 33
34 Kuva 20: Neuroverkon ennustamat ja todelliset interpolointi- ja ekstrapolointitaajuusspektrit näytteiden määrillä 150 ja 190 mittauspisteessä (φ, θ) = (0, 0). 34
35 Kuva 21: Sakkofunktion arvo 20, 50, 100, 150 ja 190 opetusnäytteellä epokkien funktiona mittauspisteessä (φ, θ) = (0, 0). 35
36 Kuva 22: Neuroverkon ennustamat ja todelliset interpolointi- ja ekstrapolointitaajuusspektrit näytteiden määrillä 20, 50 ja 100 mittauspisteessä (φ, θ) = (90, 0). 36
37 Kuva 23: Neuroverkon ennustamat ja todelliset interpolointi- ja ekstrapolointitaajuusspektrit näytteiden määrillä 150 ja 190 mittauspisteessä (φ, θ) = (90, 0). 37
38 Kuva 24: Sakkofunktion arvo 20, 50, 100, 150 ja 190 opetusnäytteellä epokkien funktiona mittauspisteessä (φ, θ) = (90, 0). 38
39 Kuva 25: Neuroverkon ennustamat ja todelliset interpolointi- ja ekstrapolointitaajuusspektrit näytteiden määrillä 20, 50 ja 100 mittauspisteessä (φ, θ) = ( 90, 0). 39
40 Kuva 26: Neuroverkon ennustamat ja todelliset interpolointi- ja ekstrapolointitaajuusspektrit näytteiden määrillä 150 ja 190 mittauspisteessä (φ, θ) = ( 90, 0). 40
41 Kuva 27: Sakkofunktion arvo 20, 50, 100, 150 ja 190 opetusnäytteellä epokkien funktiona mittauspisteessä (φ, θ) = ( 90, 0). 41
42 6 Pohdinta Työssä tutkittiin neuroverkkojen soveltuvuutta akustisesta siroamisesta syntyvän taajuusspektrin oppimiseen sirottavan kappaleen parametrisaation perusteella. Lisäksi tutkittiin opetusdatan vaikutusta neuroverkon kykyyn oppia taajuusspektri. Sirottavana kappaleena käytettiin ellipsoideja, joiden kaksi puoliakselia ovat samanpituisia. Taajuusspektrit mitattiin 836:ssa kappaleen ympäröivässä pallopinnalla olevassa pisteessä. Neuroverkolle opetettiin taajuusspektri kussakin pisteessä sirottavan kappaleen puoliakseleiden pituuksien perusteella. Opetettavan neuroverkon hyperparametrit optimoitiin käyttämällä opetukseen 100 näytettä ja mittauspisteenä (φ, θ) = (0, 0). Tämän seurauksena muiden mittauspisteiden taajuusspektrien virhettä saataisiin mahdollisesti pienennettyä optimoimalla neuroverkko jokaiselle mittauspisteelle erikseen. Suurin suhteellinen taajuusspektrin virhe on äänilähteen vastakkaisella puolella ellipsoidia (φ, θ) = ( 90, 0). On yllättävää, että neuroverkon on tällöin todella hankala oppia taajuusspektri. Kuvassa 27 huomataan, ettei sakkofunktio edes lähde suppenemaan kaikilla opetuskerroilla. Tässäkin suunnassa mitattu taajuusspektri on luultavasti mahdollista opettaa neuroverkolle, mikäli verkon rakenne muutetaan tälle suunnalle sopivaksi. Kuvassa 18 kaikkien suuntien sakkofunktioiden arvojen keskiarvo pienenee datamäärän kasvaessa. Tämä oli haluttu tulos, mutta datan määrällä oletettiin olevan vieläkin suurempi vaikutus. Opetuksessa käytettiin pientä datamäärää, koska haluttiin tutkia, onko pienellä määrällä dataa mahdollista opettaa taajuusspektri ellipsoidista siroavalle aallolle. Sovelluskohteena neuroverkolle on taajuusspektrin opettaminen ihmisen korvasta siroavalle äänelle (HRTF). HRTF:n tapauksessa sirottava kappale, eli korva, on paljon monimutkaisempi, joten sen oletetaan vaativan enemmän opetusdataa ja lisäksi datan kerääminen HRTF:n opettamiseen on hidasta, joten siinä joudutaan jokatapauksessa työskentelemään pienen datamäärän kanssa. Pienen datamäärän käyttäminen tuottaa yleisesti ongelmia, koska uusien näytteiden joukossa on todennäköisemmin näytteitä, joiden kanssa neuroverkko joutuu ekstrapoloimaan. Ekstrapolointiongelmaa haluttiin tutkia valitsemalla ekstrapolointinäyte, jonka puoliakseleiden arvot ovat opetusjoukon reunalta ja vertaamalla tätä interpolointinäytteeseen, jonka puoliakseleiden arvot ovat lähellä keskiarvoja. Näillä näytteillä neuroverkon approksimoivaa taajuusspektriä vertailtiin tarkemmin kolmessa mittauspisteessä. Kahdelle suunnalle kuvissa 19, 20, 22 ja 23 olevat taajuusspektrien approksimaatiot ovat heikkoja pienimmillä datamäärillä ja paranevat datan määrän kasvaessa 100 näytteeseen. Yllättäen tätä suuremmilla datamäärillä approksimaation paranemista ei tapahtunut. Interpolointinäytteen ja ekstrapolointinäytteen välillä ei ollut suurta eroa vaikkakin interpolointinäyte näytti suoriutuvan hieman paremmin leveystasoilla 0 ja 90. Äänilähteen 42
43 varjopuolella olevalla opetussuunnalla neuroverkko ei oppinut taajuusspektriä kummallakaan näytteellä. Opetusdatan suurempikaan määrä ei parantanut oppimista tältä suunnalta. Tämä interpoloinnin ja ekstrapoloinnin tutkiminen suoritettiin sen vuoksi, että HRTF:n laskemisessa joudutaan mahdollisesti myös ekstrapoloimaan, koska ihmisten korvat ovat eri muotoisia. Interpoloinnin ja ekstrapoloinnin vaikutuksen tutkimiseen voisi jatkossa ottaa mukaan enemmän näytteitä. Esimerkiksi kaikki näytteet voitaisiin jakaa kahtia interpolointi ja ekstrapolointinäytteisiin. Tällöin olisi mahdollista tutkia esimerkiksi kummankin joukon virheiden keskiarvoa, jolloin vältyttäisiin yksittäisen näytteen antamalta satunnaisuudelta. Jatkossa opetettavien neuroverkkojen määrää on mahdollista vähentää esittämällä data paremmassa muodossa. Data voitaisiin esittää sen pääkomponenttien avulla [37]. Tällöin mittauspisteiden määrä olisi mahdollista pienentää, kun kaikkien taajuusvasteiden esittämiseen tarvitaan vain osasta suunnista määritetyt taajuusvasteet. Viitteet [1] B. Xie. Head-Related Transfer Function and Virtual Auditory Display. J. Ross Publishing, Inc., [2] W. G. Gardner and K. D. Martin. Hrtf measurements of a kemar. J. Acoust. Soc. Amer., 97( ), [3] S-N. Yao, T. Collins, and C. Liang. Head-related transfer function selection using neural networks. Archieves of Acoustics, 42(3), [4] J. S. Asvestas, J. J. Bowman, P. L. Christiansen, O. Einarsson, R. E. Kleinman, D. L. Sengupta, T. B. A. Senior, F. B. Sleator, P. L. E. Uslenghi, and N. R. Zitron. Electromagnetic Acoustic Scattering by Simple Shapes. North-Holland Publishing Company, [5] F. Ihlenburg. Finite Element Analysis of Acoustic Scattering. Springer, [6] R. Adelman, N. A. Gumerov, and R. Duraiswami. Semi-analytical computation of acoustic scattering by spheroids and disks. Acoustic Society of America, 136, [7] R. Adelman, N. A. Gumerov, and R. Duraiswami. Software for computing the spheroidal wave functions using arbitrary precision arithmetic. arxiv: v1, [8] S. Järvenpää, T. Huttunen, A. Vanne, M. Malinen, J. Roivainen, and P. Ylä-Oijala. Fast boundary element simulation of noise emission from vibrating structures. Journal of Structural Mechanics, 49,
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun
Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Sami Hokuni 12 Syyskuuta, 2012 1/ 54 Sami Hokuni Neuroverkkojen soveltaminen vakuutusdatojen luokitteluun Turun Yliopisto. Gradu tehty 2012 kevään
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 2. luento 10.11.2017 Keinotekoiset neuroverkot Neuroverkko koostuu syöte- ja ulostulokerroksesta
Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekn
Johdatus tekoälymatematiikkaan (kurssilla Johdatus Watson-tekniikkaan ITKA352) Informaatioteknologian tiedekunta Jyväskylän yliopisto 23.3.2018 Tekoälyn historiaa 6 1 Introduction Kuva Fig. lähteestä 1.3
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3. luento 17.11.2017 Neuroverkon opettaminen (ohjattu oppiminen) Neuroverkkoa opetetaan syöte-tavoite-pareilla
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 4. luento 24.11.2017 Neuroverkon opettaminen - gradienttimenetelmä Neuroverkkoa opetetaan syöte-tavoite-pareilla
Kognitiivinen mallintaminen Neuraalimallinnus, luento 1
Kognitiivinen mallintaminen Neuraalimallinnus, luento 1 Nelli Salminen nelli.salminen@helsinki.fi D433 Neuraalimallinnuksen osuus neljä luentokertaa, muutokset alla olevaan suunnitelmaan todennäköisiä
ImageRecognition toteutus
ImageRecognition toteutus Simo Korkolainen 27 kesäkuuta 2016 Projektin tarkoituksena on tehdä ohjelma, joka opettaa neuroverkon tunnistamaan kuvia backpropagation-algoritmin avulla Neuroverkon opetuksessa
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
Differentiaali- ja integraalilaskenta
Differentiaali- ja integraalilaskenta Opiskelijan nimi: DIFFERENTIAALILASKENTA 1. Raja-arvon käsite, derivaatta raja-arvona 1.1 Raja-arvo pisteessä 1.2 Derivaatan määritelmä 1.3 Derivaatta raja-arvona
Numeeriset menetelmät TIEA381. Luento 8. Kirsi Valjus. Jyväskylän yliopisto. Luento 8 () Numeeriset menetelmät / 35
Numeeriset menetelmät TIEA381 Luento 8 Kirsi Valjus Jyväskylän yliopisto Luento 8 () Numeeriset menetelmät 11.4.2013 1 / 35 Luennon 8 sisältö Interpolointi ja approksimointi Funktion approksimointi Tasainen
Virhearviointi. Fysiikassa on tärkeää tietää tulosten tarkkuus.
Virhearviointi Fysiikassa on tärkeää tietää tulosten tarkkuus. Virhelajit A. Tilastolliset virheet= satunnaisvirheet, joita voi arvioida tilastollisin menetelmin B. Systemaattiset virheet = virheet, joita
MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ
MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ 24.9.2019 HYVÄN VASTAUKSEN PIIRTEITÄ Alustavat hyvän vastauksen piirteet on suuntaa-antava kuvaus kokeen tehtäviin odotetuista vastauksista ja tarkoitettu ensisijaisesti
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I
MS-A0207 Differentiaali- ja integraalilaskenta 2 (Chem) Yhteenveto, osa I G. Gripenberg Aalto-yliopisto 21. tammikuuta 2016 G. Gripenberg (Aalto-yliopisto) MS-A0207 Differentiaali- ja integraalilaskenta
Tee-se-itse -tekoäly
Tee-se-itse -tekoäly Avainsanat: koneoppiminen, tekoäly, neuroverkko Luokkataso: 6.-9. luokka, lukio, yliopisto Välineet: kynä, muistilappuja tai kertakäyttömukeja, herneitä tms. pieniä esineitä Kuvaus:
JOHDATUS TEKOÄLYYN TEEMU ROOS
JOHDATUS TEKOÄLYYN TEEMU ROOS NEUROVERKOT TURINGIN KONE (TAI TAVALLINEN OHJELMOINTI) VAIN YKSI LASKENNAN MALLI ELÄINTEN HERMOSTOSSA LASKENTA ERILAISTA: - RINNAKKAISUUS - STOKASTISUUS (SATUNNAISUUS) - MASSIIVINEN
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä.
MS-A0204 Differentiaali- ja integraalilaskenta 2 (ELEC2) Luento 7: Pienimmän neliösumman menetelmä ja Newtonin menetelmä. Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Kevät 2016
Dynaamiset regressiomallit
MS-C2128 Ennustaminen ja Aikasarja-analyysi, Lauri Viitasaari Matematiikan ja systeemianalyysin laitos Perustieteiden korkeakoulu Aalto-yliopisto Syksy 2016 Tilastolliset aikasarjat voidaan jakaa kahteen
Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 2017 Insinöörivalinnan matematiikan koe , Ratkaisut (Sarja A)
Diplomi-insinööri- ja arkkitehtikoulutuksen yhteisvalinta 017 Insinöörivalinnan matematiikan koe 30..017, Ratkaisut (Sarja A) 1. a) Lukujen 9, 0, 3 ja x keskiarvo on. Määritä x. (1 p.) b) Mitkä reaaliluvut
Mapu 1. Laskuharjoitus 3, Tehtävä 1
Mapu. Laskuharjoitus 3, Tehtävä Lineaarisessa approksimaatiossa funktion arvoa lähtöpisteen x 0 ympäristössä arvioidaan liikkumalla lähtöpisteeseen sovitetun tangentin kulmakertoimen mukaisesti: f(x 0
Kimppu-suodatus-menetelmä
Kimppu-suodatus-menetelmä 2. toukokuuta 2016 Kimppu-suodatus-menetelmä on kehitetty epäsileiden optimointitehtävien ratkaisemista varten. Menetelmässä approksimoidaan epäsileitä funktioita aligradienttikimpulla.
Osakesalkun optimointi. Anni Halkola Turun yliopisto 2016
Osakesalkun optimointi Anni Halkola Turun yliopisto 2016 Artikkeli Gleb Beliakov & Adil Bagirov (2006) Non-smooth optimization methods for computation of the Conditional Value-at-risk and portfolio optimization.
TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA)
JOHDATUS TEKOÄLYYN TEEMU ROOS (KALVOT MUOKATTU PATRIK HOYERIN LUENTOMATERIAALISTA) KONEOPPIMISEN LAJIT OHJATTU OPPIMINEN: - ESIMERKIT OVAT PAREJA (X, Y), TAVOITTEENA ON OPPIA ENNUSTAMAAN Y ANNETTUNA X.
Differentiaalilaskennan tehtäviä
Differentiaalilaskennan tehtäviä DIFFERENTIAALILASKENTA 1. Raja-arvon käsite, derivaatta raja-arvona 1.1 Raja-arvo pisteessä 1.2 Derivaatan määritelmä 1.3 Derivaatta raja-arvona 2. Derivoimiskaavat 2.1
4. Funktion arvioimisesta eli approksimoimisesta
4. Funktion arvioimisesta eli approksimoimisesta Vaikka nykyaikaiset laskimet osaavatkin melkein kaiken muun välttämättömän paitsi kahvinkeiton, niin joskus, milloin mistäkin syystä, löytää itsensä tilanteessa,
KULJETUSSUUREET Kuljetussuureilla tai -ominaisuuksilla tarkoitetaan kaasumaisen, nestemäisen tai kiinteän väliaineen kykyä siirtää ainetta, energiaa, tai jotain muuta fysikaalista ominaisuutta paikasta
Differentiaali- ja integraalilaskenta 2 Laskuharjoitus 4 / vko 40
Differentiaali- ja integraalilaskenta 2 Laskuharjoitus 4 / vko 40 Alkuviikolla harjoitustehtäviä lasketaan harjoitustilaisuudessa. Loppuviikolla näiden harjoitustehtävien tulee olla ratkaistuina harjoituksiin
Kuva 1: Funktion f tasa-arvokäyriä. Ratkaisu. Suurin kasvunopeus on gradientin suuntaan. 6x 0,2
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi I, syksy 018 Harjoitus Ratkaisuehdotukset Tehtävä 1. Olkoon f : R R f(x 1, x ) = x 1 + x Olkoon C R. Määritä tasa-arvojoukko Sf(C) = {(x 1, x
Kognitiivinen mallintaminen. Nelli Salminen
Kognitiivinen mallintaminen Neuraalimallinnus 24.11. Nelli Salminen nelli.salminen@tkk.fi Tällä kerralla ohjelmassa vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko oppimissääntöjen
Osakesalkun optimointi
Osakesalkun optimointi Anni Halkola Epäsileä optimointi Turun yliopisto Huhtikuu 2016 Sisältö 1 Johdanto 1 2 Taustatietoja 2 3 Laskumetodit 3 3.1 Optimointiongelmat........................ 4 4 Epäsileän
läheisyydessä. Piirrä funktio f ja nämä approksimaatiot samaan kuvaan. Näyttääkö järkeenkäyvältä?
BM20A5840 - Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2017 1. Tunnemme vektorit a = [ 1 2 3 ] ja b = [ 2 1 2 ]. Laske (i) kummankin vektorin pituus (eli itseisarvo, eli normi); (ii) vektorien
Demo 1: Simplex-menetelmä
MS-C2105 Optimoinnin perusteet Malliratkaisut 3 Ehtamo Demo 1: Simplex-menetelmä Muodosta lineaarisen tehtävän standardimuoto ja ratkaise tehtävä taulukkomuotoisella Simplex-algoritmilla. max 5x 1 + 4x
Kuva 1: Yksinkertainen siniaalto. Amplitudi kertoo heilahduksen laajuuden ja aallonpituus
Kuva 1: Yksinkertainen siniaalto. Amplitudi kertoo heilahduksen laajuuden ja aallonpituus värähtelytiheyden. 1 Funktiot ja aallot Aiemmin käsiteltiin funktioita ja miten niiden avulla voidaan kuvata fysiikan
Inversio-ongelmien laskennallinen peruskurssi Luento 4
Inversio-ongelmien laskennallinen peruskurssi Luento 4 Kevät 20 Regularisointi Eräs keino yrittää ratkaista (likimääräisesti) huonosti asetettuja ongelmia on regularisaatio. Regularisoinnissa ongelmaa
Oletetaan ensin, että tangenttitaso on olemassa. Nyt pinnalla S on koordinaattiesitys ψ, jolle pätee että kaikilla x V U
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 018 Harjoitus 4 Ratkaisuehdotukset Tehtävä 1. Olkoon U R avoin joukko ja ϕ = (ϕ 1, ϕ, ϕ 3 ) : U R 3 kaksiulotteisen C 1 -alkeispinnan
Diskriminanttianalyysi I
Diskriminanttianalyysi I 12.4-12.5 Aira Hast 24.11.2010 Sisältö LDA:n kertaus LDA:n yleistäminen FDA FDA:n ja muiden menetelmien vertaaminen Estimaattien laskeminen Johdanto Lineaarinen diskriminanttianalyysi
MS-C1340 Lineaarialgebra ja
MS-C1340 Lineaarialgebra ja differentiaaliyhtälöt Matriisinormi, häiriöalttius Riikka Kangaslampi Kevät 2017 Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Matriisinormi Matriisinormi Matriiseille
Numeeriset menetelmät
Numeeriset menetelmät Luento 6 To 22.9.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 6 To 22.9.2011 p. 1/38 p. 1/38 Ominaisarvotehtävät Monet sovellukset johtavat ominaisarvotehtäviin Yksi
Kaksiluokkainen tapaus, lineaarinen päätöspinta, lineaarisesti erottuvat luokat
1 Tukivektoriluokittelija Tukivektorikoneeseen (support vector machine) perustuva luoikittelija on tilastollisen koneoppimisen teoriaan perustuva lineaarinen luokittelija. Perusajatus on sovittaa kahden
Numeeriset menetelmät
Numeeriset menetelmät Luento 13 Ti 18.10.2011 Timo Männikkö Numeeriset menetelmät Syksy 2011 Luento 13 Ti 18.10.2011 p. 1/43 p. 1/43 Nopeat Fourier-muunnokset Fourier-sarja: Jaksollisen funktion esitys
Tällä kerralla ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus Kertausta: Perseptronin oppimissääntö
Tällä kerralla ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 19.2. Nelli Salminen nelli.salminen@helsinki.fi D433 vielä perseptronista ja backpropagationista kilpaileva oppiminen, Kohosen verkko
Matematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 7 1 Useamman muuttujan funktion raja-arvo Palautetaan aluksi mieliin yhden muuttujan funktion g(x) raja-arvo g(x). x a Tämä raja-arvo kertoo, mitä arvoa funktio g(x)
1. NEUROVERKKOMENETELMÄT
1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia
Backpropagation-algoritmi
Backpropagation-algoritmi Hyvin yleisesti käytetty Backpropagation (BP) -algoritmi on verkon halutun ja todellisen vasteen eroa kuvastavan kustannusfunktion minimointiin perustuva menetelmä. Siinä MLP-verkon
. Kun p = 1, jono suppenee raja-arvoon 1. Jos p = 2, jono hajaantuu. Jono suppenee siis lineaarisesti. Vastaavasti jonolle r k+1 = r k, suhde on r k+1
TEKNILLINEN KORKEAKOULU Systeemianalyysin laboratorio Mat-.39 Optimointioppi Kimmo Berg 8. harjoitus - ratkaisut. a)huomataan ensinnäkin että kummankin jonon raja-arvo r on nolla. Oletetaan lisäksi että
Johdatus tekoälyn taustalla olevaan matematiikkaan
Johdatus tekoälyn taustalla olevaan matematiikkaan Informaatioteknologian tiedekunta Jyväskylän yliopisto 3.11.2017 Mitä tekoäly on? Wikipedia: Tekoäly on tietokone tai tietokoneohjelma, joka kykenee älykkäiksi
Numeeriset menetelmät TIEA381. Luento 6. Kirsi Valjus. Jyväskylän yliopisto. Luento 6 () Numeeriset menetelmät / 33
Numeeriset menetelmät TIEA381 Luento 6 Kirsi Valjus Jyväskylän yliopisto Luento 6 () Numeeriset menetelmät 4.4.2013 1 / 33 Luennon 6 sisältö Interpolointi ja approksimointi Polynomi-interpolaatio: Vandermonden
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
Matematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 10 1 Funktion monotonisuus Derivoituva funktio f on aidosti kasvava, jos sen derivaatta on positiivinen eli jos f (x) > 0. Funktio on aidosti vähenevä jos sen derivaatta
YKSILÖLLINEN HRTF 1 JOHDANTO. Tomi Huttunen 1, Antti Vanne 1. Haapaniemenkatu 40 E 1, Kuopio
Tomi Huttunen 1, Antti Vanne 1 1 OwnSurround Oy Haapaniemenkatu 40 E 1, 70110 Kuopio tomi.huttunen@ownsurround.com Tiivistelmä Pään siirtofunktio (engl. head-related transfer function, HRTF) määrittelee
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI
1. OHJAAMATON OPPIMINEN JA KLUSTEROINTI 1 1.1 Funktion optimointiin perustuvat klusterointialgoritmit Klusteroinnin onnistumista mittaavan funktion J optimointiin perustuvissa klusterointialgoritmeissä
1. NEUROVERKKOMENETELMÄT
1. NEUROVERKKOMENETELMÄT Ihmisten ja eläinten loistava hahmontunnistuskyky perustuu lukuisiin yksinkertaisiin aivosoluihin ja niiden välisiin kytkentöihin. Mm. edellisen innoittamana on kehitelty laskennallisia
Luku 8. Aluekyselyt. 8.1 Summataulukko
Luku 8 Aluekyselyt Aluekysely on tiettyä taulukon väliä koskeva kysely. Tyypillisiä aluekyselyitä ovat, mikä on taulukon välin lukujen summa tai pienin luku välillä. Esimerkiksi seuraavassa taulukossa
Yhtälöryhmät 1/6 Sisältö ESITIEDOT: yhtälöt
Yhtälöryhmät 1/6 Sisältö Yhtälöryhmä Yhtälöryhmässä on useita yhtälöitä ja yleensä myös useita tuntemattomia. Tavoitteena on löytää tuntemattomille sellaiset arvot, että kaikki yhtälöt toteutuvat samanaikaisesti.
Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos
Aalto-yliopiston perustieteiden korkeakoulu Matematiikan ja systeemianalyysin laitos Malinen/Vesanen MS-A0205/6 Differentiaali- ja integraalilaskenta 2, kevät 2017 Laskuharjoitus 4A (Vastaukset) alkuviikolla
Duaalisuus kokonaislukuoptimoinnissa. Mat , Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki
Duaalisuus kokonaislukuoptimoinnissa Mat-2.4191, Sovelletun matematiikan tutkijaseminaari, kevät 2008, Janne Karimäki Sisältö Duaalisuus binäärisissä optimointitehtävissä Lagrangen duaalisuus Lagrangen
763306A JOHDATUS SUHTEELLISUUSTEORIAAN 2 Ratkaisut 2 Kevät 2017
763306A JOHDATUS SUHTEELLISUUSTEORIAAN 2 Ratkaisut 2 Kevät 207. Nelinopeus ympyräliikkeessä On siis annettu kappaleen paikkaa kuvaava nelivektori X x µ : Nelinopeus U u µ on määritelty kaavalla x µ (ct,
(0 desimaalia, 2 merkitsevää numeroa).
NUMEERISET MENETELMÄT DEMOVASTAUKSET SYKSY 20.. (a) Absoluuttinen virhe: ε x x ˆx /7 0.4 /7 4/00 /700 0.004286. Suhteellinen virhe: ρ x x ˆx x /700 /7 /00 0.00 0.%. (b) Kahden desimaalin tarkkuus x ˆx
, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1).
HY / Matematiikan ja tilastotieteen laitos Vektorianalyysi II, syksy 017 Harjoitus 4 Ratkaisuehdotukset 4.1. Osoita, että tasa-arvojoukko S F (0), F : R 3 R, F (x) = 3x 1 x 3 + e x + x e x 3, on säännöllinen
Maksimit ja minimit 1/5 Sisältö ESITIEDOT: reaalifunktiot, derivaatta
Maksimit ja minimit 1/5 Sisältö Funktion kasvavuus ja vähenevyys; paikalliset ääriarvot Jos derivoituvan reaalifunktion f derivaatta tietyssä pisteessä on positiivinen, f (x 0 ) > 0, niin funktion tangentti
ja λ 2 = 2x 1r 0 x 2 + 2x 1r 0 x 2
Johdatus diskreettiin matematiikkaan Harjoitus 4, 7.10.2015 1. Olkoot c 0, c 1 R siten, että polynomilla r 2 c 1 r c 0 on kaksinkertainen juuri. Määritä rekursioyhtälön x n+2 = c 1 x n+1 + c 0 x n, n N,
MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ
MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ 26..208 HYVÄN VASTAUKSEN PIIRTEITÄ Alla oleva vastausten piirteiden, sisältöjen ja pisteitysten luonnehdinta ei sido ylioppilastutkintolautakunnan arvostelua. Lopullisessa
RYHMÄKERROIN ÄÄNILÄHDERYHMÄN SUUNTAAVUUDEN
ÄÄNILÄHDERYHMÄN SUUNTAAVUUDEN ARVIOINNISSA Seppo Uosukainen, Jukka Tanttari, Heikki Isomoisio, Esa Nousiainen, Ville Veijanen, Virpi Hankaniemi VTT PL, 44 VTT etunimi.sukunimi@vtt.fi Wärtsilä Finland Oy
3 = Lisäksi z(4, 9) = = 21, joten kysytty lineaarinen approksimaatio on. L(x,y) =
BM20A5810 Differentiaalilaskenta ja sovellukset Harjoitus 6, Syksy 2016 1. (a) Olkoon z = z(x,y) = yx 1/2 + y 1/2. Muodosta z:lle lineaarinen approksimaatio L(x,y) siten että approksimaation ja z:n arvot
Tänään ohjelmassa. Kognitiivinen mallintaminen Neuraalimallinnus laskarit. Ensi kerralla (11.3.)
Tänään ohjelmassa Kognitiivinen mallintaminen Neuraalimallinnus 26.2. Nelli Salminen nelli.salminen@helsinki.fi D433 autoassosiaatio, attraktorin käsite esimerkkitapaus: kolme eri tapaa mallintaa kategorista
Johdantoa. Jokaisen matemaatikon olisi syytä osata edes alkeet jostakin perusohjelmistosta, Java MAPLE. Pascal MathCad
Johdantoa ALGORITMIT MATEMA- TIIKASSA, MAA Vanhan vitsin mukaan matemaatikko tietää, kuinka matemaattinen ongelma ratkaistaan, mutta ei osaa tehdä niin. Vitsi on ajalta, jolloin käytännön laskut eli ongelman
MIKROAALTOUUNI VAASAN YLIOPISTO TEKNILLINEN TIEDEKUNTA SÄHKÖTEKNIIKKA. Tuomas Karri i78953 Jussi Luopajärvi i80712 Juhani Tammi o83312
VAASAN YLIOPISTO TEKNILLINEN TIEDEKUNTA SÄHKÖTEKNIIKKA Tuomas Karri i78953 Jussi Luopajärvi i80712 Juhani Tammi o83312 SATE.2010 Dynaaminen kenttäteoria MIKROAALTOUUNI Sivumäärä: 12 Jätetty tarkastettavaksi:
Harha mallin arvioinnissa
Esitelmä 12 Antti Toppila sivu 1/18 Optimointiopin seminaari Syksy 2010 Harha mallin arvioinnissa Antti Toppila 13.10.2010 Esitelmä 12 Antti Toppila sivu 2/18 Optimointiopin seminaari Syksy 2010 Sisältö
Regressioanalyysi. Kuusinen/Heliövaara 1
Regressioanalyysi Kuusinen/Heliövaara 1 Regressioanalyysin idea ja tavoitteet Regressioanalyysin idea: Oletetaan, että haluamme selittää jonkin selitettävän muuttujan havaittujen arvojen vaihtelun joidenkin
Tekoäly muuttaa arvoketjuja
Tekoäly muuttaa arvoketjuja Näin kartoitat tekoälyn mahdollisuuksia projektissasi Harri Puolitaival Harri Puolitaival Diplomi-insinööri ja yrittäjä Terveysteknologia-alan start-up: Likelle - lämpötilaherkkien
Matematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 2 Lisää osamurtoja Tutkitaan jälleen rationaalifunktion P(x)/Q(x) integrointia. Aiemmin käsittelimme tapauksen, jossa nimittäjä voidaan esittää muodossa Q(x) = a(x x
Vastepintamenetelmä. Kuusinen/Heliövaara 1
Vastepintamenetelmä Kuusinen/Heliövaara 1 Vastepintamenetelmä Vastepintamenetelmässä pyritään vasteen riippuvuutta siihen vaikuttavista tekijöistä approksimoimaan tekijöiden polynomimuotoisella funktiolla,
Kompleksiluvut signaalin taajuusjakauman arvioinnissa
Kompleksiluvut signaalin taajuusjakauman arvioinnissa Vierailuluento IMA-kurssilla Heikki Huttunen Lehtori, TkT Signaalinkäsittely, TTY heikki.huttunen@tut.fi Department of Signal Processing Fourier-muunnos
12. Hessen matriisi. Ääriarvoteoriaa
179 12. Hessen matriisi. Ääriarvoteoriaa Tarkastelemme tässä luvussa useamman muuttujan (eli vektorimuuttujan) n reaaliarvoisia unktioita : R R. Edellisessä luvussa todettiin, että riittävän säännöllisellä
Ei välttämättä, se voi olla esimerkiksi Reuleaux n kolmio:
Inversio-ongelmista Craig, Brown: Inverse problems in astronomy, Adam Hilger 1986. Havaitaan oppositiossa olevaa asteroidia. Pyörimisestä huolimatta sen kirkkaus ei muutu. Projisoitu pinta-ala pysyy ilmeisesti
A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä.
Esimerkki otteluvoiton todennäköisyys A ja B pelaavat sarjan pelejä. Sarjan voittaja on se, joka ensin voittaa n peliä. Yksittäisessä pelissä A voittaa todennäköisyydellä p ja B todennäköisyydellä q =
S-114.3812 Laskennallinen Neurotiede
S-114.381 Laskennallinen Neurotiede Projektityö 30.1.007 Heikki Hyyti 60451P Tehtävä 1: Virityskäyrästön laskeminen Luokitellaan neuroni ensin sen mukaan, miten se vastaa sinimuotoisiin syötteisiin. Syöte
PRELIMINÄÄRIKOE PITKÄ MATEMATIIKKA 9.2.2011
PRELIMINÄÄRIKOE PITKÄ MATEMATIIKKA 9..0 Kokeessa saa vastata enintään kymmeneen tehtävään.. Sievennä a) 9 x x 6x + 9, b) 5 9 009 a a, c) log 7 + lne 7. Muovailuvahasta tehty säännöllinen tetraedri muovataan
F dr = F NdS. VEKTORIANALYYSI Luento Stokesin lause
91 VEKTORIANALYYI Luento 13 9. tokesin lause A 16.5 tokesin lause on kuin Gaussin lause, mutta yhtä dimensiota alempana: se liittää toisiinsa kentän derivaatasta pinnan yli otetun integraalin ja pinnan
Luento 8: Epälineaarinen optimointi
Luento 8: Epälineaarinen optimointi Vektoriavaruus R n R n on kaikkien n-jonojen x := (x,..., x n ) joukko. Siis R n := Määritellään nollavektori 0 = (0,..., 0). Reaalisten m n-matriisien joukkoa merkitään
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2018
BM20A5840 Usean muuttujan funktiot ja sarjat Harjoitus 1, Kevät 2018 1. (a) Tunnemme vektorit a = [ 5 1 1 ] ja b = [ 2 0 1 ]. Laske (i) kummankin vektorin pituus (eli itseisarvo, eli normi); (ii) vektorien
Ei-inertiaaliset koordinaatistot
orstai 25.9.2014 1/17 Ei-inertiaaliset koordinaatistot Tarkastellaan seuraavaa koordinaatistomuunnosta: {x} = (x 1, x 2, x 3 ) {y} = (y 1, y 2, y 3 ) joille valitaan kantavektorit: {x} : (î, ĵ, ˆk) {y}
MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 1: Parametrisoidut käyrät ja kaarenpituus
MS-A0202 Differentiaali- ja integraalilaskenta 2 (SCI) Luento 1: Parametrisoidut käyrät ja kaarenpituus Antti Rasila Aalto-yliopisto Syksy 2015 Antti Rasila (Aalto-yliopisto) MS-A0202 Syksy 2015 1 / 18
MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat.
MS-A0205/MS-A0206 Differentiaali- ja integraalilaskenta 2 Luento 6: Ääriarvojen luokittelu. Lagrangen kertojat. Jarmo Malinen Matematiikan ja systeemianalyysin laitos 1 Aalto-yliopisto Kevät 2016 1 Perustuu
Kuulohavainto ympäristössä
Weber-Fechner Kivun gate control fys _ muutos hav _ muutos k fys _ taso Jos tyypillisessä sisätilavalaistuksessa (noin 100 cd/m2), voi havaita seinällä valotäplän, jonka kirkkaus on 101 cd/m2). Kuinka
Anna jokaisen kohdan vastaus kolmen merkitsevän numeron tarkkuudella muodossa
Preliminäärikoe Tehtävät Pitkä matematiikka / Kokeessa saa vastata enintään kymmeneen tehtävään Tähdellä (* merkittyjen tehtävien maksimipistemäärä on 9, muiden tehtävien maksimipistemäärä on 6 Jos tehtävässä
Tekijä Pitkä matematiikka
K1 Tekijä Pitkä matematiikka 5 7..017 a) 1 1 + 1 = 4 + 1 = 3 = 3 4 4 4 4 4 4 b) 1 1 1 = 4 6 3 = 5 = 5 3 4 1 1 1 1 1 K a) Koska 3 = 9 < 10, niin 3 10 < 0. 3 10 = (3 10 ) = 10 3 b) Koska π 3,14, niin π
MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ
MATEMATIIKAN KOE, LYHYT OPPIMÄÄRÄ 6.3.08 HYVÄN VASTAUKSEN PIIRTEITÄ Alla oleva vastausten piirteiden, sisältöjen ja pisteitysten luonnehdinta ei sido ylioppilastutkintolautakunnan arvostelua. Lopullisessa
4. Käyrän lokaaleja ominaisuuksia
23 VEKTORIANALYYSI Luento 3 4 Käyrän lokaaleja ominaisuuksia Käyrän tangentti Tarkastellaan parametrisoitua käyrää r( t ) Parametrilla t ei tarvitse olla mitään fysikaalista merkitystä, mutta seuraavassa
A Lausekkeen 1,1 3 arvo on 1,13 3,3 1,331 B Tilavuus 0,5 m 3 on sama kuin 50 l 500 l l C Luvuista 2 3, 6 7
1 Tuotteen hinta nousee ensin 10 % ja laskee sitten 10 %, joten lopullinen hinta on... alkuperäisestä hinnasta. alkuperäisestä hinnasta. YLIOPPILASTUTKINTO- LAUTAKUNTA 23.3.2016 MATEMATIIKAN KOE PITKÄ
MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ
MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ.0.08 HYVÄN VASTAUKSEN PIIRTEITÄ Alla oleva vastausten piirteiden, sisältöjen ja pisteitysten luonnehdinta ei sido ylioppilastutkintolautakunnan arvostelua. Lopullisessa
MS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 10: Stokesin lause
MS-A0305 Differentiaali- ja integraalilaskenta 3 Luento 10: Stokesin lause Antti Rasila Matematiikan ja systeemianalyysin laitos Aalto-yliopisto Syksy 2016 Antti Rasila (Aalto-yliopisto) MS-A0305 Syksy
Matematiikan tukikurssi
Matematiikan tukikurssi Kurssikerta 8 1 Suunnattu derivaatta Aluksi tarkastelemme vektoreita, koska ymmärrys vektoreista helpottaa alla olevien asioiden omaksumista. Kun liikutaan tasossa eli avaruudessa
Ristitulolle saadaan toinen muistisääntö determinantin avulla. Vektoreiden v ja w ristitulo saadaan laskemalla determinantti
14 Ristitulo Avaruuden R 3 vektoreille voidaan määritellä pistetulon lisäksi niin kutsuttu ristitulo. Pistetulosta poiketen ristitulon tulos ei ole reaaliluku vaan avaruuden R 3 vektori. Ristitulosta on
MAB3 - Harjoitustehtävien ratkaisut:
MAB - Harjoitustehtävien ratkaisut: Funktio. Piirretään koordinaatistoakselit ja sijoitetaan pisteet:. a) Funktioiden nollakohdat löydetään etsimällä kuvaajien ja - akselin leikkauspisteitä. Funktiolla
Kertaus. x x x. K1. a) b) x 5 x 6 = x 5 6 = x 1 = 1 x, x 0. K2. a) a a a a, a > 0
Juuri 8 Tehtävien ratkaisut Kustannusosakeyhtiö Otava päivitetty 8.9.07 Kertaus K. a) 6 4 64 0, 0 0 0 0 b) 5 6 = 5 6 = =, 0 c) d) K. a) b) c) d) 4 4 4 7 4 ( ) 7 7 7 7 87 56 7 7 7 6 6 a a a, a > 0 6 6 a
Talousmatematiikan perusteet: Luento 13. Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu
Talousmatematiikan perusteet: Luento 13 Rajoittamaton optimointi Hessen matriisi Ominaisarvot ja vektorit Ääriarvon laadun tarkastelu Viime luennolla Aloimme tarkastella yleisiä, usean muuttujan funktioita
y x1 σ t 1 = c y x 1 σ t 1 = y x 2 σ t 2 y x 2 x 1 y = σ(t 2 t 1 ) x 2 x 1 y t 2 t 1
1. Tarkastellaan funktiota missä σ C ja y (y 1,..., y n ) R n. u : R n R C, u(x, t) e i(y x σt), (a) Miksi funktiota u(x, t) voidaan kutsua tasoaalloksi, jonka aaltorintama on kohtisuorassa vektorin y