Matematiikan ja tilastotieteen laitos Stokastiset differentiaaliyhtälöt Ratkaisuehdotelma Harjoitukseen 5 1. Näytä, että X t := Bt 3 3tB t on martingaali Brownin liikkeen B historian suhteen. Ratkaisuehdotus: Tiedämme jo, että B t ja Y t := Bt 2 t ovat martingaaleja. Kummassakin osoitus perustui siihen, että integroituvuus ja adaptoituvuus on selviä ja tämä pitää paikkaansa myös tässä tilanteessa, sillä E X t E Bt 3 + te B t = t 3/2 (E B1 3 + E B 1 ) <, sillä normaalijakautuneella satunnaismuuttujalla on kaikki momentit äärellisiä. Edelleen martingaaliominaisuuden osoittamisessa halusimme käyttää hyväksi lisäysten riippumattomuutta, sekä tietoa niiden jakaumasta. Kuten aiemminkin, oletamme seuraavassa, että t > s. Koska Brownin liikkeen lisäykset ovat riippumattomia ja samoin jakautuneita, niin E ( ) (B t B s ) 3 H s = E (Bt B s ) 3 = E Bt s 3 = sillä keskitetyn (eli nollakeskiarvoisen) normaalijakautuneen satunnaismuuttujan parittomien potenssien odotusarvo on aina nolla, sillä pariton potenssi on pariton funktio ja keskitetyn normaalijakautuneen satunnaismuuttujan tiheysfunktio on parillinen. Koska (x y) 3 = x 3 3x 2 y + 3xy 2 y 3, niin olemme päätelleet, että E ( ) Bt 3 H s 3Bs E ( ) Bt 2 H s + 3B 2 s E (B t H s ) Bs 3 = Koska (B t ) on martingaali, niin E (B t H s ) = B s, joten E ( ) Bt 3 H s 3Bs E ( ) Bt 2 H s + 3B 3 s Bs 3 = Koska Y t = Bt 2 t on martingaali, niin E (Y t H s ) = E (Bt 2 H s ) t = Y s = Bs 2 s. Siispä E (Bt 2 H s ) = Bs 2 + t s, joten E ( ) Bt 3 H s 3Bs (Bs 2 + t s) + 3Bs 3 Bs 3 =
Siispä E (X t H s ) = E ( B 3 t 3tB(t) H s ) = B 3 s + 3B s (t s) 3tB s = X s Tämä osoittaa väitteen. 2. Näytä, että pysäytetty prosessi X τ (t) = X(τ t) on (F t )-martingaali jos ja vain jos X τ on (F t τ )-martingaali. Ratkaisuehdotus: Integroituvuusehto ei ota kantaa filtraatioon, joten sitä ei tarvitse erikseen miettiä. Lisäksi X τ (t) = X(τ t) on F t τ -mitallinen (ainakin, jos se on càdlàg, minkä voimme olettaa). Tiedämme edellisen laskuharjoituksen perusteella, että F t τ F t, joten X τ on sekä (F t τ )-adaptoitu että (F t )-adaptoitu. = suunta: Koska F t τ F t, niin E (X τ (t) F s τ ) = E (E (X τ (t) F s ) F s τ ) Koska X τ on (F t )-martingaali, niin aina, kun t > s, on voimassa E (X τ (t) F s τ ) = E (E (X τ (t) F s ) F s τ ) = E (X τ (s) F s τ ) = X τ (s), sillä X τ on (F s τ )-adaptoitu. Siispä X τ on tällöin myös (F t τ )-martingaali. = suunta: Oletamme, että t > s ja että X τ on (F t τ )-martingaali. Jos t τ = s τ eli τ s < t, niin [ τ s ]E (X τ (t) F s ) = E ([ τ s ]X τ (τ) F s ) = E ([ τ s ]X τ (s) F s ) = [ τ s ]X τ (s) missä ensimmäisessä kohdassa käytimme hyväksi sitä, että [ τ s ] on F s -mitallinen ja viimeisessä kohdassa sitä, että X τ (s) on myös F s -mitallinen. Jäljelle jää mahdollisuus, että s < τ. Tällöin s τ = s, joten ainakin heuristisesti on selvää, että F s = F s τ. Tällöin ainakin heuristisesti pitäisi olla [ s < τ ]E (X τ (t) F s ) = [ s < τ ]E (X τ (t) F s τ ) = [ s < τ ]X τ (s) koska X τ on (F s τ )-martingaali. Yhdistämällä nämä tapaukset väite seuraisi. Tässä on siis enää yksi mutta eli voimmeko jättää sanan heuristisesti pois. Edellisessä päätelmässä jälkimmäinen yhtäsuuruus on voimassa oletuksen nojalla. Haluamme
siten osoittaa, että ensimmäinen yhtäsuuruuskin pätee eli koko väite seuraa, kunhan osoitamme, että identiteetti [ s < τ ]E (X τ (t) F s ) = [ s < τ ]E (X τ (t) F s τ ) on voimassa. Huomaamme, että satunnaismuuttujalla X τ (t) ei juurikaan ole osaa, eikä arpaa tässä, joten osoitamme yleisemmän identiteetin [ s < τ ]E (Z F s ) = [ s < τ ]E (Z F s τ ) kun Z on integroituva satunnaismuuttuja. Soveltamalla monotonisen suppenemisen argumenttia, tiedämme, että voimme olettaa, että Z on rajoitettu satunnaismuuttuja. Koska F s τ F s, niin [ s < τ ]E (Z F s τ ) = [ s < τ ]E (E (Z F s ) F s τ ) joten jos Y := E (Z F s ), niin haluamme identiteetti voidaan kirjoittaa muodossa [ s < τ ]Y = [ s < τ ]E (Y F s τ ) = E ([ s < τ ]Y F s τ ). Tässä käytimme hyväksi sitä, että tapahtuma {τ > s} F s τ. Näytämme tämän päätelmän tarkasti todistuksen lopussa. Koska tiedämme, että Y on F s -mitallinen, niin olemme päätelleet, että riittää osoitaa, että W = E (W F s τ ), kun W = [ s < τ ]Y ja Y on F s -mitallinen ja rajoitettu. Tämä on toisaalta yhtäpitävää sen kanssa, että W on F s τ -mitallinen. Käyttämällä edelleen monotonisen suppenemisen argumenttia, riittää siis korvata Y vapaasti valitun tapahtuman A F s indikaattorilla, ja osoittaa, että tällöin W = [ s < τ ]Y = [ s < τ ja A ] =: [ B ] on F s τ -mitallinen. Huomaamme, että jos A = Ω, niin tällöin osoitamme samalla, että {s < τ} F s τ, mitä käytimme jo aiemmin päättelyssä. Määritelmän nojalla tapahtuma B F s τ, jos jokaisella t T on voimassa, että C t := {s τ t ja B} F t. Olkoon siis t T annettu. Nyt C t = {s τ t ja B} = {s t, s < τ, ja A}
Kun t < s, niin C t = on mahdoton tapahtuma, joten ainakin tällöin C t F t. Kun t s, niin C t = {s < τ ja A} F s F t Siispä B F s τ ja koko väite lopulta seuraa. 3. Näytä suoraan optionaalisen pysäyttämisen lauseen avulla, että jos X on càdlàg (F t )-martingaali ja τ rajoitettu (F t )-pysähdyshetki, niin X τ on (F t τ )-martingaali. Päättele sitten Lemma 4.19 tämän avulla. Ratkaisuehdotus: Optionaalisen pysäyttämisen lauseen nojalla tiedämme, että jos s τ < t τ, niin E X τ (t) on integroituva ja E (X τ (t) F t τ ) = X τ (s) Koska adaptoituvuus seuraa luentojen Lauseesta 3.29, niin olemme osoittaneet, että X τ on (F t τ )-martingaali. Nyt edellisen tehtävän nojalla X τ on myös (F t )- martingaali ja koko tehtävä on siten valmis. 4. Olkoon (X n ) jono riippumattomia ekponenttijakautuneita satunnaismuuttujia parametrilla c (eli X n Exp(c)). Asetaan S n = n k= X k ja jokaisella t asetamme edelleen N t = [ S n t ]. n= Prosessia N t nimitetään Poissonin prosessiksi. Näytä, että i) prosessilla N t on riippumattomat lisäykset ja lisäykset N(t) N(s) Poisson(c(t s)) kun t > s. ii) Näytä, että N t ct on martingaali Poissonin prosessin historian suhteen. iii) Näytä, että (N t ct) 2 ct on myös martingaali Poissonin prosessin historian suhteen.
Ratkaisuehdotus: Osoitamme ensin kohdat ii) ja iii) sillä ne ovat helpommat. Oikeastaan tehtävä olisikin voinut olla pelkkä ii) ja iii) kun i) tunnetaan. Kun Z Poisson ( λ ), niin Siispä ja E Z = k 1 P ( Z = k ) = [ k ] e λ λ k. k! e λ λ k (k 1)! = λ e λ λ k k! k E Z(Z 1) = k 2 = λp ( Z ) = λ e λ λ k (k 2)! = λ2 Siispä E Z 2 = E Z(Z 1) + E Z = λ(λ + 1). Kohta ii) Merkitään M(t) := N(t) ct. Adaptoituvuus on selviö, sillä jokainen prosessi on adaptoitu historiansa suhteen. Integroituvuus seuraa siitä, että E M(t) ct + E N(t) = 2ct kohdan i) tiedon ja edellisten laskujen perusteella. Oletamme nyt, että t > s ja laskemme ensin, mitä on E (N(t) N(s) H s ) = E N(t) N(s) = c(t s). Ensimmäinen identiteetti seuraa siitä, että Poissonin prosessin lisäykset ovat riippumattomia ja toinen siitä, että ne ovat Poisson-jakautuneita. Koska toisaalta E (N(t) N(s) H s ) = E (M(t) H s ) + ct N(s), niin E (M(t) H s ) = N(s) ct + c(t s) = M(s), joten M on martingaali. Kohta iii) Merkitään L(t) := M(t) 2 ct. Prosessin L adaptoituvuus ja integroituvuus ovat selviä. Integroituvuus seuraa siitä, että E M(t) 2 2(c 2 t 2 + E N(t) 2 ) <. Kuten edellä, haluamme laskea, mitä on E (M(t) 2 H s ). Nyt M(t) 2 = (N(t) ct) 2 = (N(t) ct)(n(s) ct) + (N(t) N(s))(N(t) ct) =: I + J Koska N(s) ct on H s -mitallinen ja N(t) ct on martingaali, niin E (I H s ) = E ((N t ct)(n s ct) H s ) = (N s cs)(n s ct) = M s (N s ct) = M s (M s + c(s t)) Nyt jälkimmäinen termi J voidaan edelleen jakaa osiin J = (N(t) N(s))(N(t) ct) = (N(t) N(s))(N(s) ct)+(n(t) N(s)) 2 =: J 1 +J 2.
Ensimmäiseen termiin käytämme aiempaa laskua E (N t N s H s ) = c(t s) ja mitallisuutta, joten E (J 1 H s ) = E ((N t N s )(N s ct) H s ) = c(t s)(n s ct) = c(t s)(m s +c(s t)) Toiseen käytämme lisäysten riippumattomuutta, joten E (J 2 H s ) = E (N t N s ) 2 = c(t s) (1 + c(t s)) Laskemalla kaikki yhteen, olemme saaneet näytettyä, että E ( ) Mt 2 H s = M 2 s + M s c(s t) + c(t s)m s c 2 (t s) 2 + c(t s) + c 2 (t s) 2 = Ms 2 + c(t s) = L s + ct Viemällä termin ct vasemmalle puolelle olemme päätelleet, että E (L(t) H s ) = L(s), joten kohta iii) seuraa. Kohta i) Tämä tehtävä on hieman turhan haastava joten sitä ei olisi pitänyt laittaa lainkaan mukaan. Lähinnä kyseessä on teorian lisä, joka antaa malliesimerkin eijatkuvasta martingaalista. Näitä emme kurssilla muuten käsittele, mutta on hyvä nähdä ainakin yksi esimerkki tällaisista. Koetehtäväksi tämä ei todellakaan sovellu, joten sitä ei tarvitse yrittää opetella koetta varten. Olisi hyvä piirtää kuva Poissonin prosessista, jotta sen poluista saisi paremman kuvan. Sanallisesti N t =, kun t < X = S. Ajanhetkellä S = X, prosessi hyppää arvoon 1 ja N t = 1, kun S t < S 1. Yleisesti N t = k, kun S k 1 S k. Erityisesti N t on càdlàg prosessi, mutta ei jatkuva. Osoitamme aivan aluksi, että Poissonin prosessin lisäykset ovat samoinjakautuneet ja riippumattomat. Toisin sanoen haluamme näyttää, että m P ( N(t j ) N(t j 1 ) = k j kun j = 1,..., m ) = P ( N(t j t j 1 ) = k j ) kun = t < t 1 < < t m ja k j N. Osoitamme väitteen induktiolla luvun l = m suhteen. Jos l = 1, niin väite on selviö, sillä N() = melkein varmasti. Oletamme nyt, että väite on voimassa, kun l = m 1 ja osoitamme väitteen tapauksessa l = m. Koska tunnemme suoraan vain satunnaismuuttujien X k jakaumat, niin esitämme nämä tapahtumat suoraan satunnaismuuttujien X k avulla. Nyt {N(t j ) N(t j 1 ) = k j kun j = 1,..., m} j = {N(t j ) = k l =: K j kun j = 1,..., m} l=1 j=1 = {S(K j 1) t j < S(K j ) kun j = 1,..., m}
Haluamme käyttää riippumattomuutta apuna, joten vähennämme epäyhtälöistä termin S(K 1 1) = S(k 1 1) =: S. Käytämme apumerkintöjä U := t 1 S ja kun 1 = 2,..., m niin merkitsemme Z(j) + T := S(K j ) S, missä T := S(K 1 ) S = X(k 1 ). Edelleen merkitsemme vielä, että W (j) := Z(j) X(K j ) = S(K j 1) S. Mitä tästä on oikein hyötyä? Ensinnäkin U {T, Z,..., Z m 1 } ja t j S = t j t 1 +U =: r j +U, joten {N(t j ) N(t j 1 ) = k j kun j = 1,..., m} = { U < T, ja W (j) + T r j + U < Z(j) + T kun j = 2,..., m} =: { U < T } B(U, T ) Vieläkään ei ole ehkä täysin selvää, mitä hyötyä tästä on. Jos katsomme tapahtumaa B(U, T ) kun U = (eli kuvittelemme, että B(U, T ) on kuvaus satunnaismuuttujalta tapahtumille) niin kulkemalla edellinen päättely taaksepäin ja käyttämällä merkintää Ŝn = X k1 +1 + + X k1 +1+n ja vastaavaa merkintää tämän avulla määritellylle Poissonin prosessille, päättelemme, että B(, T ) = {W (j) + T r j < Z(j) + T kun j = 2,..., m} = {Ŝ(K j k 1 1) r j < Ŝ(K j k 1 ) kun j = 2,..., m} = { N(r j ) = K j k 1 kun j = 2,..., m} j = { N(r j ) = k l kun j = 2,..., m} l=2 = { N(r j ) N(r j 1 ) = k j kun j = 2,..., m} Siispä P ( B(, T ) ) = P ( N(r j ) N(r j 1 ) = k j kun j = 2,... m ), joten päättelemmä induktiivisesti voisimme tästä saada väitteen. Jotta saisimme satunnaismuuttujan U poistettua käytämme hyväksi riippumattomuutta. Tätä sovellamme seuraavan kaavan avulla, joka sanoo, että jos f(x, y) on mitallinen ja rajoitettu ja X Y, niin E f(x, Y ) = E g(x) missä g(x) = E f(x, Y ). Tämän kaavan johto on tavallinen monotonisen laajennuksen käyttö. Väite osoitetaan ensin tilanteessa, kun f(x, y) = [ x A, y B ] ja sitten osoitetaan, että joukko Z = { f : f rajoitettu ja mitallinen, jolle E f(x, Y ) = E g(x) }
on lineaarinen ja suljettu monotonisen suppenemisen suhteen. Tällöin edellisessä harjoituksissa ollut Doobin π λ-lause ja monotoninen suppeneminen näyttävät, että Z sisältää kaikki rajoitetut ja mitalliset funktiot. Kuinka käytämme kaavaa? No, laskemme sen avulla, että E [ U < T ][ B(U, T ) ] = E G(U)[ U ] missä G(u) = E [ u < T ja W (j) + T r j + u < Z(j) + T kun j 2 ] =: E [ V > ][ W (j) + V r j < Z(j) + V kun j 2 ] kun V := T u. Olemme siis jo lähellä tavoitetta, sillä nyt olemme päätyneet tapahtumaan B(V, ). Tosin jouduimme muuttamaan satunnaismuuttujan T satunnaismuuttujaksi V, joten kaikki ei ole vielä ihan valmista. Koska T = X(k 1 ) ja jokainen W (j) ja Z(j) ovat summia satunnaismuuttujista X k1 +1,... X Km, niin T on riippumaton satunnaismuuttujaperheestä {W (2), Z(2),..., W (m), Z(m)}. Siispä voimme edelleen käyttää riippumattomuuskaavaamme, ja voimme kirjoittaa G(u) = E [ V > ]B(, V ) =: E [ V > ]H(V ), missä H(v) = B(, v) = E [ W (j) + v r j < Z(j) + v kun j 2 ]. Nyt muutamme satunnaismuuttujan V satunnaismuuttujaksi T muuttujan vaihdolla. Koska T Exp ( c ), niin sen tiheysfunktio on f T (v) = ce cv. Koska P ( V v ) = P ( T v + u ), niin f V (v) = f T (v + u) = e cu f T (v). Siten G(u) = H(v)f V (v) dv = e cu H(v)f T (v) dv = e cu E B(, T ). Siispä olemme näyttäneet, että G(u) = e cu P ( N(r j ) N(r j 1 ) = k j kun j = 2,... m ) Induktio-oletuksen nojalla P := P ( N(r j ) N(r j 1 ) = k j kun j = 2,..., m ) = = m P ( N(r j r j 1 ) = k j ) j=2 m P ( N(t j t j 1 ) = k j ) j=2
sillä r j r j 1 = (t j t 1 ) (t j 1 t 1 ). Väitteen osoittamiseksi on siten näytettävä, että E G(U)[ U ] = P E e cu [ U ] = P P ( N(t 1 ) = k 1 ) eli että E g(u) = E e cu [ U ] = P ( N(t 1 ) = k 1 ) Tehtävä helpottuu huomattavasti, kun muistamme, mistä termi e cu tuli. Se seurasi muuttujan V vaihdosta muuttujaksi T, joten havaitsemme, että e cu = P ( T > u ). Jos siis f(u, v) := [ v > u ], niin g(u) = E f(u, T ) = P ( T > u ) [ u ], joten riippumattomuuskaavan nojalla E g(u) = E f(u, T ) = P ( T > U ) = P ( T + S > t 1 S ) = P ( S(k 1 1) t 1 < S(k 1 ) ) = P ( N(t 1 ) = k 1 ) Tämä osoittaakin väitteen induktioperiaatteen nojalla. Haluamma vielä osoittaa, että N(t) Poisson ( ct ). Havaitsemme, että tapahtuma {N(t) k + 1} on sama kuin tapahtuma {S k t}. Tämä siksi, että jos S k t, niin S < < S k t, joten N t k + 1. Toisaalta, jos N t k + 1, niin yllä olevan perusteella S j t tulee olla voimassa aimakin k + 1 eri j:n arvolla. Siispä S k t. Saamme siten satunnaismuuttujan N(t) jakauman, jos määräämme satunnaismuuttujien S k jakaumat. Voimme myös huomata, että P ( N t = k ) = P ( N t k ) P ( N t k + 1 ) = P ( S k 1 t ) P ( S k t ) mikä on voimassa kaikilla k 1. Kun k =, niin S = X Exp ( c ). Kun k = 1, niin S 1 = X + X 1. Tämä on kahden riippumattoman eksponenttijakautuneen satunnaismuuttujan summa, joten se Gamma-jakautunut. Satunnaismuuttuja Z on Gamma-jakautunut, jos sen tiheysfunktio on muotoa f Z (t) = [ t > ]e λt λk t k 1 (k 1)! = [ t > ]λe λt (λt)k 1 Γ(k) jollakin k 1 ja λ >. Riippuen lähteestä, merkitään Z Γ(k, λ) tai Z Γ(k, 1/λ), mutta meille ei tällä erolla ole väliä. Käytämme siksi ensimmäistä merkintää. Havaitsemme siten, että Exp ( c )-jakautunut satunnaismuuttujaon Γ(1, c)-jakautunut (tai jos tämä häiritsee, niin Γ(1, 1/c)-jakautunut). Kahden riippumattoman Gamma-jakautuneen satunnaismuuttujan summa on Gamma-jakautunut. Jos Z 1 Γ(m, λ) ja Z 2 Γ(n, λ) ja Z 1 Z 2, niin Z 1 + Z 2 Γ(n + m, λ). Osoitamme tämän
tehtävän lopussa, mutta tämä tieto löytyy myös monesta tilastotieteen kurssin tiedoista sekä todennäköisyyslaskennan kursseilta. Tiedämme siis että S Γ(1, c) ja S 1 = X + X 1 Γ(2, c). Jos teemme induktio-oletuksen, että S k Γ(k + 1, c), niin S k+1 = S k + X k+1, joten S k+1 Γ(k + 2, c). Olemme siten päätelleet, että jokaisella k N satunnaismuuttuja S k Γ(k+1, c), joten todennäköisyys P ( N(t) = k ) = P ( N(t) k ) P ( N(t) k + 1 ) saadaan nyt laskettua. Koska P ( N(t) k ) P ( N(t) k + 1 ) = P ( S k 1 t ) P ( S k t ), ja kun k 1 P ( S k t ) = ck+1 k! t x k e cx dx = ck k! t x k de cx = ck t k e ct k! + P ( S k 1 t ). Siispä P ( N t = k ) = c k t k e ct /k! eli N t Poisson ( ct ). Toinen hyvä tapa määrätä tämä jakauma on johtaa funktiolle p k (t) = P ( N t = k ) yhtälö. Koska p k (t + h) = = = k P ( N(t) = j, N(t + h) = k ) j= k P ( N(t) = j ) P ( N(t + h) N(t) = k j N(t) = j ) j= k p j (t)p ( N(h) = k j ) j= Kun k = j, niin P ( N(h) = ) = P ( X > h ) = e ch = 1 ch + Oh 2. Edelleen P ( N(h) = 1 ) = P ( X h < X + X 1 ) = E g(x ), kun g(u) = [ u h ]P ( h u < X 1 ) = e c(h u) [ u h ] = (1 + Oh)[ u h ]. Siispä P ( N(h) = 1 ) = P ( X h ) (1 + Oh) = (1 e ch )(1 + Oh) = ch + Oh 2 Kun m := k j 2, niin P ( N(h) = m ) P ( X + + X m 1 h ) P ( X h ) m = Oh m. Olemme siis päätelleet, että p k (t + h) = p k (t)(1 ch) + p k 1 (t)ch + Oh 2
Viemällä p k (t) vasemalle puolella ja jakamalla h:lla havaitsemme, että p k (t + h) p k (t) h = c(p k (t) p k 1 (t)) + Oh. Kun h, niin päättelemme tästä, että p k(t) = c(p k (t) p k 1 (t)). Lisäksi tiedämme, että p k () = P ( N() = k ) = [ k = ]. Ratkaisemme ensin helpomman yhtälön p k(t) = cp k (t) jonka yleinen ratkaisu on p k (t) = Ce ct. Vakioiden variointitekniin mukaan, teemme yritteen p k (t) = C k (t)e ct. Derivoimalla saamme, että p k(t) = C k(t)e ct cp k (t) = c(p k 1 (t) p k (t)) joten saamme yhtälön C k (t)e ct = cp k 1 (t) = cc k 1 (t)e ct, joten C k (t) = cc k 1(t). Koska p (t) = P ( X > t ) = e ct, niin C (t) = 1. Tästä päättelemme, että C 1 (t) = ct + a. Koska p 1 () = = C 1 (), niin a = ja siis C 1 (t) = ct. Jatkamalla havaitsemme, että C 2 (t) = 1 2 c2 t 2 + a, mutta taas C 2 () = joten a =. Jos oletamme, että C k (t) = (ct) k /k!, niin C k+1 (t) = (ct) k+1 /(k + 1)! + a ja koska C k+1 () = p k+1 () = = a, niin jokaisella k N on voimassa, että C k (t) = (ct) k /k! ja siten ct (ct)k P ( N t = k ) = e k! 5. Olkoon (X n ) alimartingaali ja olkoon Xk = sup j k X j. Näytä optionaalisen pysäyttämisen lauseen avulla, että λp ( Xn λ ) E ( X n [ Xn λ ] ) E ( X n [ Xn λ ] ) jokaisella λ >. Päättele tästä ensimmäinen osa Doobin epäyhtälöstä. Käyttämällä identiteettiä x p = p x λ p 1 dλ
päättele, että positiivisille alimartingaaleille (X n ) on voimassa E (X n k) p p p 1 E X n (X n k) p 1 Päättele Doobin L p -maksimaaliepäyhtälö tästä Hölderin epäyhtälön E XY (E X p ) 1/p (E X q ) 1/q avulla. Parametri q Hölderin epäyhtälössä toteuttaa yhtälön 1 q + 1 p = 1. Ratkaisuehdotus: Olkoon τ = inf{ k n : X k λ } n. Tämä on pysähdyshetki ja τ {, 1,..., n}. Optionaalisen pysäyttämisen lauseen nojalla Jos X n < λ, niin τ = n, joten E X τ E X n = E X n [ X n λ ] + E X n [ X n < λ ] E X τ E X n [ X n λ ] + E X τ [ X n < λ ] Vähentämällä nyt jälkimmäinen termi puolittain saamme E X τ [ X n λ ] E X n [ X n λ ] Kun X n λ, niin X τ λ määritelmän nojalla. Siispä λp ( X n λ ) E X τ [ X n λ ] E X n [ X n λ ] Tämä osoittaakin ensimmäisen Doobin epäyhtälöistä, sillä. λp ( X n λ ) E X n [ X n λ ] E X n Sovellamme nyt tätä positiivisille alimartingaaleille, eli kun X n = X n jokaisella n. Tällöin tehtävänannossa mainitun identiteetin 1 avulla voimme kirjoitaa, että (X n k) p = k pλ p 1 [ X n λ ] dλ Jos otamme odotusarvot puolittain ja vaihdamme integroinnin ja odotusarvon järjestystä (eli sovellamme Fubinin lausetta, tästä hieman tarkemmin todistuksen lopuksi), niin E (X n k) p = k pλ p 1 P ( X n λ ) dλ 1 joka seuraa suoraan analyysin peruslauseesta ja funktion x x p derivaatasta
Nyt voimme soveltaa edellä ollutta epäyhtälöä, jonka mukaan λ p 1 P ( X n λ ) λ p 2 E X n [ X n λ ] joten k E (Xn k) p p λ p 2 E (X n [ Xn λ ]) dλ ja vaihtamalla jälleen integroinnin ja odotusarvon järjestystä voimme kirjoittaa, että k ) E (Xn k) p pe (X n λ p 2 [ Xn λ ] dλ Koska käyttämämme integraali-identiteetti on voimassa myös, kun p >, niin k λ p 2 [ X n λ ] dλ = 1 p 1 k (p 1)λ p 2 [ X n λ ] dλ = 1 p 1 (X n k) p 1, joten yhdistämällä tämä edeltävän epäyhtälön kanssa, saamme E (X n k) p p p 1 E ( X n (X n k) p 1), mikä oli tehtävän toinen väite, sillä X n = X n. Tästä saamme Doobin L p -maksimaaliepäyhtälöt Hölderin epäyhtälön avulla, sillä E ( X n (X n k) p 1) X n p ( E (X n k) q(p 1)) 1/q kun X p := (E X p ) 1/p. Koska 1 = 1 + 1, niin p 1 = p, joten erityisesti q(p 1) = p q q p. Siispä E (X n k) p p p 1 X n p ( E (X n k) p ) 1/q Nyt väite onkin lähes osoitettu. Joko E (X n k) p = tai sitten < E ( (X n k) p k p <. Jälkimmäisessä tapauksessa voimme jakaa epäyhtälön puolittain termillä ( E (X n k) p ) 1/q, jolloin Koska 1 1/q = 1/p, niin E (X n k) p 1 1/q X n k p p p 1 X n p p p 1 X n p, joten korottamalla molemmat puolet potenssiin p saamme ( p ) pe E (Xn k) p X p n. p 1
jokaisella k >. Soveltamalla monotonisen suppenemisen lausetta voimme päätellä, että E (X n) p ( p ) pe X p n, p 1 kun E X n >. Jos E X n =, niin X n =, jolloin molemmat puolet ovat nollia eli epäyhtälö on selviö.