Keskinäisinformaatiosta

Samankaltaiset tiedostot
T Privacy amplification

HY, MTO / Matemaattisten tieteiden kandiohjelma Todennäköisyyslaskenta IIa, syksy 2018 Harjoitus 3 Ratkaisuehdotuksia.

0 kun x < 0, 1/3 kun 0 x < 1/4, 7/11 kun 1/4 x < 6/7, 1 kun x 1, 1 kun x 6/7,

2 exp( 2u), kun u > 0 f U (u) = v = 3 + u 3v + uv = u. f V (v) dv = f U (u) du du f V (v) = f U (u) dv = f U (h(v)) h (v) = f U 1 v (1 v) 2

Odotusarvo. Odotusarvon ominaisuuksia Satunnaismuuttujien ominaisuuksia 61

Laskuharjoitus 5. Mitkä ovat kuvan 1 kanavien kapasiteetit? Kuva 1: Kaksi kanavaa. p/(1 p) ) bittiä lähetystä kohti. Voidaan

Inversio-ongelmien laskennallinen peruskurssi Luento 7

Tehtäväsarja I Tehtävät 1-5 perustuvat monisteen kappaleisiin ja tehtävä 6 kappaleeseen 2.8.

1. TILASTOLLINEN HAHMONTUNNISTUS

Matematiikan ja tilastotieteen laitos Reaalianalyysi I Harjoitus Malliratkaisut (Sauli Lindberg)

w + x + y + z =4, wx + wy + wz + xy + xz + yz =2, wxy + wxz + wyz + xyz = 4, wxyz = 1.

Kopulafunktiot. Joonas Ollila 12. lokakuuta 2011

Dynaamiset regressiomallit

Luonnollisen kielen tilastollinen käsittely. T (3 ov) L. Luento 2, Luentokalvot: Krista Lagus ja Timo Honkela

Epäyhtälöt ovat yksi matemaatikon voimakkaimmista

T Luonnollisen kielen tilastollinen käsittely Vastaukset 3, ti , 8:30-10:00 Kollokaatiot, Versio 1.1

Tilastomatematiikka Kevät 2008

Piiri K 1 K 2 K 3 K 4 R R

T Luonnollisten kielten tilastollinen käsittely

Inversio-ongelmien laskennallinen peruskurssi Luento 2

Maximum likelihood-estimointi Alkeet

1. Kuusisivuista noppaa heitetään, kunnes saadaan silmäluku 5 tai 6. Olkoon X niiden heittojen lukumäärä, joilla tuli 1, 2, 3 tai 4.

P(X = x T (X ) = t, θ) = p(x = x T (X ) = t) ei riipu tuntemattomasta θ:sta. Silloin uskottavuusfunktio faktorisoituu

Määrätty integraali. Markus Helén. Mäntän lukio

Analyysi III. Jari Taskinen. 28. syyskuuta Luku 1

1 Määrittelyjä ja aputuloksia

Ilkka Mellin Todennäköisyyslaskenta. Osa 2: Satunnaismuuttujat ja todennäköisyysjakaumat. Kertymäfunktio. TKK (c) Ilkka Mellin (2007) 1

Analyysi I (mat & til) Demonstraatio IX

HY / Avoin yliopisto Lineaarialgebra ja matriisilaskenta II, kesä 2015 Harjoitus 1 Ratkaisut palautettava viimeistään maanantaina klo

1 Kertaus. Lineaarinen optimointitehtävä on muotoa:

Johdatus tn-laskentaan perjantai

Informaatioteoria. Lasse Holmström Sovelletun matematiikan ja tilastotieteen yksikkö Oulun yliopisto. Kevät f f. f f

Oletetaan ensin, että tangenttitaso on olemassa. Nyt pinnalla S on koordinaattiesitys ψ, jolle pätee että kaikilla x V U

y x1 σ t 1 = c y x 1 σ t 1 = y x 2 σ t 2 y x 2 x 1 y = σ(t 2 t 1 ) x 2 x 1 y t 2 t 1

4.0.2 Kuinka hyvä ennuste on?

min x x2 2 x 1 + x 2 1 = 0 (1) 2x1 1, h = f = 4x 2 2x1 + v = 0 4x 2 + v = 0 min x x3 2 x1 = ± v/3 = ±a x 2 = ± v/3 = ±a, a > 0 0 6x 2

x 4 e 2x dx Γ(r) = x r 1 e x dx (1)

Todennäköisyyslaskenta IIa, syys lokakuu 2019 / Hytönen 3. laskuharjoitus, ratkaisuehdotukset

MS-C1350 Osittaisdifferentiaaliyhtälöt Harjoitukset 5, syksy Mallivastaukset

k=0 saanto jokaisen kolmannen asteen polynomin. Tukipisteet on talloin valittu

k S P[ X µ kσ] 1 k 2.

Ilkka Mellin Todennäköisyyslaskenta Osa 3: Todennäköisyysjakaumia Moniulotteisia todennäköisyysjakaumia

9. Tila-avaruusmallit

Numeerinen analyysi Harjoitus 1 / Kevät 2017

Matematiikan johdantokurssi, syksy 2016 Harjoitus 11, ratkaisuista

Differentiaali- ja integraalilaskenta 1 Ratkaisut 5. viikolle /

Maksimit ja minimit 1/5 Sisältö ESITIEDOT: reaalifunktiot, derivaatta

Surjektion käsitteen avulla kuvauksia voidaan luokitella sen mukaan, kuvautuuko kaikille maalin alkioille jokin alkio vai ei.

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

Satunnaismuuttujien muunnokset ja niiden jakaumat

Moniulotteisia todennäköisyysjakaumia

4.1. Olkoon X mielivaltainen positiivinen satunnaismuuttuja, jonka odotusarvo on

Johdatus todennäköisyyslaskentaan Kertymäfunktio. TKK (c) Ilkka Mellin (2005) 1

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen

Ratkaisu: (i) Joukko A X on avoin jos kaikilla x A on olemassa r > 0 siten että B(x, r) A. Joukko B X on suljettu jos komplementti B c on avoin.

Matemaattisen analyysin tukikurssi

Luento 8: Epälineaarinen optimointi

FYSA242 Statistinen fysiikka, Harjoitustentti

, on säännöllinen 2-ulotteinen pinta. Määrää T x0 pisteessä x 0 = (0, 1, 1).

BM20A0900, Matematiikka KoTiB3

Vapaus. Määritelmä. jos c 1 v 1 + c 2 v c k v k = 0 joillakin c 1,..., c k R, niin c 1 = 0, c 2 = 0,..., c k = 0.

Matematiikan tukikurssi

Kuinka määritellään 2 3?

MAT Todennäköisyyslaskenta Tentti / Kimmo Vattulainen

3. laskuharjoituskierros, vko 6, ratkaisut

Täydellisyysaksiooman kertaus

Valintahetket ja pysäytetyt martingaalit

Harjoitus 9: Excel - Tilastollinen analyysi

Tilastollinen päättömyys, kevät 2017 Harjoitus 6B

Y ja

3.6 Su-estimaattorien asymptotiikka

Kopuloiden teoria pähkinänkuoressa

MATEMATIIKAN KOE, PITKÄ OPPIMÄÄRÄ HYVÄN VASTAUKSEN PIIRTEITÄ

a) Mikä on integraalifunktio ja miten derivaatta liittyy siihen? Anna esimerkki = 16 3 =

1 sup- ja inf-esimerkkejä

8. Muita stokastisia malleja 8.1 Epölineaariset mallit ARCH ja GARCH

Ellipsoidimenetelmä. Samuli Leppänen Kokonaislukuoptimointi. S ysteemianalyysin Laboratorio

Sinin jatkuvuus. Lemma. Seuraus. Seuraus. Kaikilla x, y R, sin x sin y x y. Sini on jatkuva funktio.

MS-A0501 Todennäköisyyslaskennan ja tilastotieteen peruskurssi

8.1 Ehdolliset jakaumat

Differentiaali- ja integraalilaskenta 1 Ratkaisut 2. viikolle /

1. Olkoon f :, Ratkaisu. Funktion f kuvaaja välillä [ 1, 3]. (b) Olkoonε>0. Valitaanδ=ε. Kun x 1 <δ, niin. = x+3 2 = x+1, 1< x<1+δ

805324A (805679S) Aikasarja-analyysi Harjoitus 3 (2016)

Alkulukujen harmoninen sarja

(b) Tarkista integroimalla, että kyseessä on todella tiheysfunktio.

=p(x) + p(y), joten ehto (N1) on voimassa. Jos lisäksi λ on skalaari, niin

Toispuoleiset raja-arvot

2 Osittaisderivaattojen sovelluksia

Regressioanalyysi. Vilkkumaa / Kuusinen 1

6. laskuharjoitusten vastaukset (viikot 10 11)

Matematiikan tukikurssi

Ennustaminen ARMA malleilla ja Kalmanin suodin

Topologia I Harjoitus 6, kevät 2010 Ratkaisuehdotus

1 sup- ja inf-esimerkkejä

Informaatioteoria. Lasse Holmström Matemaattisten tieteiden laitos Oulun yliopisto. Kevät f f. f f

IV. TASAINEN SUPPENEMINEN. f(x) = lim. jokaista ε > 0 ja x A kohti n ε,x N s.e. n n

Paikannuksen matematiikka MAT

Konvergenssilauseita

Ortogonaaliprojektio äärellisulotteiselle aliavaruudelle

Numeeriset menetelmät

Transkriptio:

Keskinäisinformaatiosta Mikko Malinen 31. heinäkuuta, 2008 1 Johdanto Keskinäisinformaatio (mutual information) on tärkeitä informaatioteorian käsitteitä. Keskinäisinformaatio I(X; Y ) on eräs riippuvuuden mitta kahden satunnaismuuttujan X ja Y välillä. I(X; Y ) määritellään I(X; Y ) = x,y Keskinäisinformaatiolle on voimassa p(x, y)log 2 p(x, y) p(x)p(y). I(X; Y ) = H(X) H(X Y ) = H(Y ) H(Y X). H:lla tarkoitetaan entropiaa, ks. [2][4]. Keskinäisinformaatiolle voidaan kirjoittaa I(X; Y ) = D(p(x, y) p(x)p(y)), missä D on relatiivinen entropia eli Kullback-Leibler divergenssi [2]. Keskinäisinformaatiolle on myös voimassa I(X; Y ) = H(X) + H(Y ) H(X, Y ), missä H(X, Y ) on yhteisentropia (joint entropy). Kuva 1 esittää entropian ja keskinäisinformaation suhdetta. 1

H(X,Y) H(X Y) I(X;Y) H(Y X) H(X) H(Y) Kuva 1. Entropian ja keskinäisinformaation suhde Keskinäisinformaatio on aina ei-negatiivinen I(X; Y ) 0, yhtäsuuruus on voimassa jos ja vain jos X ja Y ovat riippumattomia. Keskinäisinformaation yksikkö on bitti. Jatkuville satunnaismuuttujille yhteistiheysjakaumalla f(x, y) keskinäisinformaatio määritellään I(X; Y ) = f(x, y)log 2 f(x, y) f(x)f(y) dxdy. Seuraavissa kappaleissa esitellään keskinäisinformaation sovelluksia. Tässä kuitenkin ensimmäinen sovellus: Tietoliikennekanavan, jonka sisäänmeno on X ja ulostulo on Y, määrittelemme kanavakapasiteetin C seuraavasti: C = max p(x) I(X; Y ). Maksimointi on yli sisäänmenojakauman p(x). Ennen muita sovelluksia muutama sana tämän artikkelin lähteistä. Informaatioteoria sai alkunsa Claude Shannonin artikkelista [4]. Tämän johdannon asiat löytyvät informaatioteorian oppikirjana käytetystä [2]:sta. Hevoskilpailua, osakemarkkinoita ja nopeus-särö teoriaa käsitellään [2]:ssa. Riippumattomien komponenttien analyysistä löytyy tietoa kirjasta [3]. Yksityisyyden vahvistusta on käsitelty artikkelissa [1]. 2 Hevoskilpailu Oletetaan, että m hevosta juoksee kilpailussa. Voittakoon i.s hevonen todennäköisyydellä p i. Jos i. hevonen voittaa, vedonlyöja voittaa o i :n suhde yhteen eli yhden euron sijoitus hevoselle i aiheuttaa o i euron voiton jos hevonen i voittaa ja 0 euron voiton jos hevonen i häviää. Olkoon b i se osa vedonlyöjän varoista, joka on sijoitettu hevoselle i, missä b i 0 ja b i = 1. Olkoon S(X) = b(x)o(x) 2

kerroin, jolla vedonlyöjän varallisuus nousee jos hevonen X voittaa kilpailun. Hevoskilpailun tuplausnopeus on W( b, p) = E(log S(X)). Tuplausnopeuden merkitys sselviää seuraavasta lauseesta: Lause. Olkoon kilpailujen tulokset X 1, X 2,..., X n i.i.d. p(x). Tällöin vedonlyöjän varallisuus käyttäen vedonlyöntistrategiaa b kasvaa eksponentiaalisesti nopeudella W( b, p) eli S n = 2 nw( b, p). Nyt oletetaan, että vedonlyöjällä on tietoa, joka on relevanttia kilpailun lopputuloksen kannalta. Esimerkiksi, vedonlyöjällä saattaa olla informaatiota hevosten suorituskyvystä aiemmissa kilpailuissa. Mikä on tämän sivuinformaation arvo? Olkoon (X, Y ):llä yhteistodennäköisyysmassafunktio p(x, y). Lause. Tuplausnopeuden kasvu W sivuinformaation Y johdosta hevoskilpailussa X on W = I(X; Y ). 3 Osakemarkkina Osakemarkkinaa esitetään vektorina osakkeita X = (X 1, X 2,..., X m ), X i 0, i = 1, 2,..., m, missä m on osakkeiden lukumäärä ja X i esittää päivän lopun hinnan suhdetta päivän alun hintaan. Tyypillisesti X i on lähellä 1:tä. Esimerkiksi X i = 1, 03 tarkoittaa, että i:s osake nousi 3% tuona päivänä. Salkku b = (b1, b 2,..., b m ), b i 0, b i = 1 on varallisuuden jako eri osakkeille. b i on se osuus henkilön varallisuudesta, joka on sijoitettu osakkeelle i. Jos henkilö käyttää salkkua b ja osakevektori on X,niin päivän lopun varallisuuden suhde päivän alun varallisuuteen on S = b t X. Osakemarkkinasalkun tuplausnopeus määritellään W(b, F) = log 2 bt xdf( x) = E(log b t X). Olkoon nyt meillä osakevektori X, sivuinformaatio Y ja yhteistodennäköisyysmassafunktio f( x, y). Lause. Tuplausnopeuden kasvu W sivuinformaation Y johdosta on rajoitettu seuraavasti: W I( X, Y ). Siis tuplausnopeuden kasvu on ylhäältä rajoitettu sivuinformaation Y ja osakemarkkinan X keskinäisinformaatiolla. 3

4 Nopeus-särö teoria (Rate Distortion Theory) ja kvantisointi Tarkastellaan ongelmaa, miten edustaa yksittäistä näytettä lähteestä. Olkoon satunnaismuuttuja, jota edustetaan X ja olkoon X:n edustaja ˆX(X). Jos on annettu R bittiä X:n edustamiseen, niin funktio ˆX voi saada 2 R arvoa. Kvantisointiongelma on löytää optimijoukko arvoja ˆX:lle (rekonstruktiopisteet) ja alueet jotka assosioidaan kullekin arvolle ˆX. Oletetaan, että meillä on lähde, joka tuotta jonon X 1, X 2,..., X n i.i.d. p(x), x H. Kooderi kuvailee lähdejonon X n indeksillä f n (X n ) {1, 2,..., 2 nr }. Dekooderi esittää X n :n estimaatilla ˆX n Ĥn. Määritelmä. Säröfunktio tai särömitta on kuvaus d : H Ĥ R+ joukosta lähdeaakkosto-reproduktioaakkosto pareja joukkoon ei-negatiiviset reaaliluvut. Särö d(x, ˆx) on mitta sille kustannukselle, että symbolia x edustetaan symbolilla ˆx. Määritelmä. Nopeus-särö parin (R, D) sanotaan olevan saavutettavissa jos on olemassa jono (2 nr, n) nopeus-särö koodeja (f n, g n ) joille lim n Ed(X n, g n (f n (X n ))) D. Määritelmä. Lähteen nopeus-särö alue on saavutettavien nopeus-särö parien (R, D) joukon sulkeuma. Määritelmä. Nopeus-särö funktio R(D) on nopeuksien R infimum, niin että (R, D) on lähteen nopeus-särö alueessa annetulla säröllä D. Lause. Nopeus-särö funktio i.i.d. lähteelle X jakaumalla p(x) ja rajoitetulla säröfunktiolla d(x, ˆx) on R(D) = min p(ˆx x): P(x,ˆx) p(x)p(ˆx x)d(x,ˆx) D I(X; ˆX) missä minimointi on yli kaikkien ehdollisten jakaumien p(ˆx x), joille yhteisjakauma p(x, ˆx) = p(x)p(ˆx x) toteuttaa odotetun särörajoitteen. 5 Riippumattomien komponenttien analyysi (Independent Component Analysis, ICA) Aloitetaan esimerkillä: kolme henkilöä puhuvat samanaikaisesti huoneessa, jossa on kolme mikrofonia. Merkitään mikrofonisignaaleja x 1 (t), x 2 (t), ja x 3 (t):llä. Jokainen näistä on puhesignaalien painotettu summa, merkitään näitä s 1 (t), s 2 (t) ja s 3 (t):llä: 4

x 1 (t) = a 11 s 1 (t) + a 12 s 2 (t) + a 13 s 3 (t) x 2 (t) = a 21 s 1 (t) + a 22 s 2 (t) + a 23 s 3 (t) x 3 (t) = a 31 s 1 (t) + a 32 s 2 (t) + a 33 s 3 (t) Seuraavaa ongelmaa kutsutaan coctail-kutsu ongelmaksi: estimoi alkuperäiset puhesignaalit s i (t) käyttäen vain äänitettyjä signaaleja. s:lle voidaan kirjoittaa yhtälö s = Wx, missä W = A 1, ja x = As. ICA on lineaarinen muunnos s = Wx, niin että komponenttien s i keskinäisinformaatio minimoituu. ICA:n käytännön laskemisen kannalta merkitystä on sillä, että ICA estimointi minimoimalla keskinäisinformaatio on ekvivalenttia sen kanssa, että maksimoidaan riippumattomien komponenttien estimaattien ei-gaussisuuksien summa (kun estimaateilla on rajoite, että ne eivät ole korreloituneita). 6 Yksityisyyden vahvistus (Privacy Amplification) Kryptografiassa kommunikointi tapahtuu kommunikoijien Alice ja Bob välillä. Lisäksi oletetaan, että on kolmas toimija, Eve, joka pyrkii saamaan tietoa välitettävistä viesteistä ja/tai vaikuttamaan niihin. Kvanttikryptografiassa, kayttäen Bennett-Brassard -protokollaa, saadaan n bitin mittainen merkkijono W jaettua Alicen ja Bobin kesken. Evellä on kuitenkin tietoa tästä avaimesta. Olkoon V = e(w) mielivaltainen salakuuntelufunktio e : {0, 1} n {0, 1} t jollekin t < n, olkoon s = n t positiivinen turvaparametri ja olkoon r = n t s. Jos Alice ja Bob valitsevat K = G(W) salaiseksi avaimekseen, missä G on valittu satunnaisesti universaalista luokasta hash funktioita {0, 1} n :stä {0, 1} r :ään, niin Even odotettu informaatio salaisesta avaimesta K, kun G ja V on annettu, toteuttaa I(K; GV ) 2 s / ln2. Huomataan, että Even informaatio kutistuu eksponentiaalisesti kun s kasvaa: jokainen lisäbitti, jonka Alice ja Bob haluavat uhrata pienentää Even informaation ylärajaa lisätekijällä 2. 7 Yhteenveto Keskinäisinformaatio on satunnaismuuttujien välisen riippuvuuden mitta. Keskinäisinformaatio voidaan laskea, kun yhteisjakauma p(x, y) ja todennäköisyysmassafunktiot p(x) ja p(y) tunnetaan. Monessa sovelluksessa tulee kysymykseen keskinäisinformaation maksimointi tai minimointi. 5

8 Viitteet [1] C.H. Bennett, G. Brassard, C. Crépeau ja U.M. Maurer, Generalized privacy amplification, IEEE Transactions on Information Theory, 41(6), 1915-1923 (Marrask. 1995). [2] T.M. Cover ja J.A. Thomas, Elements of Information Theory, John Wiley & Sons, USA, 1991 [3] A. Hyvärinen, J. Karhunen ja E. Oja, Independent Component Analysis, J. Wiley, 2001 [4] C. E. Shannon, A Mathematical Theory of Communication, Bell Syst. Tech. J., 27, 379-423, 623-656 (1948). 6