Projekt pn. „Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych” realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Procesy stochastyczne Treść wykładów Adam Jakubowski UMK Toruń 2012 Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego Spis treści Wstęp 1 1 Istnienie procesów stochastycznych Nieskończone ciągi zmiennych losowych . . . . . . . Procesy stochastyczne . . . . . . . . . . . . . . . . . . Rozkłady skończenie wymiarowe . . . . . . . . . . . . Zgodność rozkładów skończenie wymiarowych . . Twierdzenie Kołmogorowa . . . . . . . . . . . . . . . . Istnienie ciągów niezależnych zmiennych losowych Istnienie procesów gaussowskich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 4 4 5 5 6 2 Jednorodne łańcuchy Markowa Definicja łańcucha Markowa . Istnienie łańcuchów Markowa Podstawowe wnioski z definicji Własność Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 8 9 9 3 Rozkłady stacjonarne dla łańcuchów Markowa Rozkłady brzegowe łańcuchów Markowa . . Rozkłady stacjonarne . . . . . . . . . . . . . . . Istnienie rozkładów stacjonarnych . . . . . . Równanie równowagi szczegółowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 11 12 12 13 4 Twierdzenie ergodyczne dla łańcuchów Markowa Kiedy rozkład stacjonarny jest jedyny? . . . . Klasyfikacja stanów . . . . . . . . . . . . . . . . Nieprzywiedlny łańcuch Markowa . . . . . . . . Twierdzenie ergodyczne . . . . . . . . . . . . . . Algorytm Metropolisa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 15 15 16 17 17 5 Twierdzenia o powracaniu dla łańcuchów Markowa Powracalność a prawo wielkich liczb . . . . . . . . . . . . . . . . . . Powroty łańcucha Markowa do ustalonego stanu I . . . . . . . . . Stany powracające . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 19 20 . . . . i . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii Spis treści Symetryczne błądzenie po płaszczyźnie i w przestrzeni . . . . . . . 21 6 Twierdzenia graniczne dla łańcuchów Markowa 23 Prawo wielkich liczb dla łańcuchów Markowa . . . . . . . . . . . . 23 Schemat dowodu prawa wielkich liczb dla łańcuchów Markowa . 23 Centralne twierdzenie graniczne dla łańcuchów Markowa . . . . 25 7 Procesy stacjonarne Definicja procesu stacjonarnego . . . . . . . . . Przekształcenie zachowujące miarę . . . . . . . . Zbiory i funkcje T -niezmiennicze . . . . . . . . . . Przykłady przekształceń zachowujących miarę Ułamki łańcuchowe . . . . . . . . . . . . . . . . . . . . . . . 27 27 28 29 30 30 8 Indywidualne twierdzenie ergodyczne Indywidualne twierdzenie ergodyczne . . . . . . . . . . . . . . . . . . Maksymalne twierdzenie ergodyczne . . . . . . . . . . . . . . . . . . . Przekształcenia i procesy ergodyczne . . . . . . . . . . . . . . . . . . 31 31 32 32 9 Kompletna losowość - proces punktowy Poissona Punktowy proces Poissona . . . . . . . . . . . . Proces Poissona . . . . . . . . . . . . . . . . . . . Momenty skoku procesu Poissona . . . . . . . . Alternatywna konstrukcja procesu Poissona 10 Systemy kolejkowe i inne modele oparte System obsługi masowej . . . . . . . . Systemy kolejkowe . . . . . . . . . . . . O systemie M/G/1 . . . . . . . . . . . . Model Cramera- Lundberga . . . . . . na . . . . . . . . . . . . . . . . . . . . . . . . . . . . procesie . . . . . . . . . . . . . . . . . . . . . . . . 11 L2 procesy L2 procesy i ich charakterystyki . . . . . Funkcja kowariancji L2 procesu . . . . . . Przykłady procesów gaussowskich . . . . L2 procesy stacjonarne w szerokim sensie Miara i gęstość spektralna L2 procesu . 12 Wstęp do teorii martyngałów Pojęcie filtracji . . . . . . . . . . . Momenty zatrzymania . . . . . . . . Gra sprawiedliwa . . . . . . . . . . . Martyngał jako gra sprawiedliwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 35 36 38 38 Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 40 40 41 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 43 43 44 45 46 . . . . 47 47 48 49 49 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Spis treści iii 13 Zbieżność martyngałów 51 Nierówność maksymalna dla podmartyngałów . . . . . . . . . . . . . 51 Nierówność Dooba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 Wnioski z twierdzenia Dooba . . . . . . . . . . . . . . . . . . . . . . . . 53 14 Proces Wienera Definicja procesu Wienera . . . . . . . . . . . . . . Własności trajektorii procesu Wienera . . . . . . Martyngałowe własności procesu Wienera . . . . Proces Wienera jako granica błądzeń losowych . . . . . . . . . . . . . . . . 55 55 56 57 57 Dodatek Wektory losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rozkłady łączne a rozkłady brzegowe . . . . . . . . . . . . . . . Niezależność . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Kryteria niezależności . . . . . . . . . . . . . . . . . . . . . . . . . Niezależność zdarzeń . . . . . . . . . . . . . . . . . . . . . . . . . . Całka iloczynu niezależnych zmiennych losowych . . . . . . . Wielowymiarowe rozkłady normalne . . . . . . . . . . . . . . . . Przestrzenie funkcji całkowalnych . . . . . . . . . . . . . . . . . Rodzaje zbieżności funkcji mierzalnych i relacje między nimi Warunkowa wartość oczekiwana zmiennej losowej . . . . . . . Transformata Laplace’a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 59 60 60 60 61 61 62 63 66 66 67 Literatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 iv Spis treści Wstęp Przedmiot „Procesy stochastyczne” jest przedmiotem do wyboru dla wszystkich specjalności studiów II stopnia na kierunku matematyka. Jednak szczególna rola przypada mu na specjalności „Zastosowania matematyki w ekonomii i finansach”, ze względu na powszechność stosowania metod stochastycznych w tych dziedzinach nauki i gospodarki. Celem wykładu jest zapoznanie słuchaczy z podstawowymi klasami procesów stochastycznych. Podczas omawiana poszczególnych klas dyskutowane są zagadnienia istnienia/konstrukcji procesów oraz podstawowe własności i najważniejsze twierdzenia związane z daną klasą.. Po zaliczeniu wykładu i ćwiczeń słuchacz błędzie posiadał aparat matematyczny umożliwiający modelowanie zjawisk losowych za pomocą procesów stochastycznych. Przedmiot „Procesy stochastyczne” prowadzony jest w semestrze letnim, w wymiarze 30 godzin wykładu i 30 godzin ćwiczeń rachunkowych. Zaliczenie przedmiotu polega na uzyskaniu zaliczenia ćwiczeń rachunkowych oraz zdaniu egzaminu ustnego z teorii. Ćwiczenia dydaktyczne prowadzone są w oparciu o materiały dydaktyczne Adam Jakubowski „Procesy stochastyczne. Materiały do ćwiczeń”, Toruń 2012. Niniejsze opracowanie zawiera treści przekazywane w trakcie wykładów. Najważniejsze definicje i twierdzenia przedstawiane są w postaci zrzutu ekranowego odpowiedniej transparencji. Podstawowy materiał uzupełniany jest komentarzami i przykładami. Zagadnienia omawiane na wykładach, wraz z ewentualnymi uzupełnieniami, są dostępne na: https://plas.mat.umk.pl/moodle/ w kategorii Studia stacjonarne/Procesy stochastyczne. Całość materiału podzielono na 14 jednostek, z grubsza odpowiadających dwugodzinnemu wykładowi. Literatura podstawowa przedmiotu zawiera książki: J. Jakubowski i R. Sztencel „Wstęp do teorii prawdopodobieństwa”, Script, Warszawa 2004, S. I. Resnick, Adventures in Stochastic Processes, Birkhäuser, 1994. 1 2 Wstęp Jako literatura uzupełniająca zalecane są książki: A.A. Borowkow, Rachunek prawdopodobieństwa, PWN, Warszawa 1975. O. Häggström, Finite Markov chains and algorithmic applications, Cambridge University Press, Cambridge 2008. Adam Jakubowski 1. Istnienie procesów stochastycznych Nieskończone ciągi zmiennych losowych 1.1 Przykład (Skończony schemat Bernoullego) Ω = {0, 1}N , F = 2Ω , P(A) = #A #ω , Xk (ω1 , ω2 , . . . , ωN ) = ωk , k = 1, 2, . . . , N . Zmienne {Xk ; k = 1, 2, . . . , N } tworzą skończony schemat Bernoullego z prawdopodobieństwem sukcesu p = 1/2. Czy istnieje ciąg nieskończony takich zmiennych? 1.2 Przykład (Funkcje Rademachera) Ω = [0, 1], F = B 1 , P = ` |[0,1] , fn (x) = sign sin 2πx , n = 1, 2, . . .. Rozwijając wzór otrzymujemy ( fn (x) = (−1)i−1 −1 jeśli i−1 2n ¬ x < jeśli x = 1. Rysunek przekonuje o niezależności! Procesy stochastyczne 3 i 2n , i = 1, 2, . . . , 2n , 4 1. Istnienie procesów stochastycznych Rozkłady skończenie wymiarowe Zgodność rozkładów skończenie wymiarowych Niech {Xt ; t ∈ T} będzie procesem stochastycznym i niech S1 ⊂ S2 ⊂ T. Jeżeli przez ΠSS21 oznaczymy naturalny „rzut po współrzędnych” RS2 3 {ts }s∈S2 7→ {ts }s∈S1 ∈ RS1 , to mamy również PXS1 = PXS2 ◦ ΠSS21 −1 . (1.1) 1.5 Definicja Własność (1.1) rozkładów skończenie wymiarowych procesu stochastycznego nazywamy „zgodnością”. 1.6 Wniosek Zgodność w sensie (1.1) jest warunkiem koniecznym dla istnienia procesu stochastycznego o zadanych własnościach rozkładów skończenie wymiarowych. Twierdzenie Kołmogorowa o istnieniu procesu stochastycznego Twierdzenie Kołmogorowa Istnienie ciągów niezależnych zmiennych losowych 5 6 1. Istnienie procesów stochastycznych Istnienie procesów gaussowskich ~ = X1 , X2 , . . . , Xn Niech X T będzie wektorem losowym. ~ jest wektorem wartości oczekiwanych współrzędnych X: ~ • EX ~ = EX1 , EX2 , . . . , EXn EX T . ~ jest symetryczną i nieujemnie określoną macierzą o współczynnikach • Cov X Cov Xi , Xj = E Xi − EXi Xj − EXj , i, j = 1, 2, . . . , n. 1.10 Twierdzenie ~ istnieje wtedy, i tylko wtedy, gdy EkXk ~ < +∞. • EX ~ istnieje wtedy, i tylko wtedy, gdy EkXk ~ 2 < +∞. • Cov X 2. Jednorodne łańcuchy Markowa Definicja łańcucha Markowa 7 8 2. Jednorodne łańcuchy Markowa Istnienie łańcuchów Markowa 2.2 Twierdzenie Jeżeli P jest macierzą stochastyczną na E, a π̄ jest rozkładem prawdopodobieństwa na E, to istnieje jednorodny łańcuch Markowa X0 , X1 , X2 , . . . o rozkładzie początkowym π̄ i macierzy prawdopodobieństw przejścia P. Dowód: Utożsamiamy elementy przestrzeni E z podzbiorem N i sprawdzamy zgodność rozkładów skończenie wymiarowych indeksowanych podzbiorami N i zadanych wzorami µ0,1,2,...,m (i0 , i1 , i2 , . . . , im−1 , im ) = πi0 · pi0 ,i1 · pi1 ,i2 · . . . · pim−1 ,im , gdzie µ0,1,2,...,m jest rozkładem na Nm = {(i0 , i1 , i2 , . . . , im−1 , im ) ; i0 , i1 , . . . im ∈ N}. Podstawowe wnioski z definicji Podstawowe wnioski z definicji Własność Markowa 9 10 2. Jednorodne łańcuchy Markowa Jak formalnie wyrazić własność Markowa? Definiujemy P B X0 , X1 , . . . , Xn jako X P B X0 = io , X1 = i1 , . . . , Xn = in 1I {X0 =i0 ,X1 =i1 ,...,Xn =in } , (i0 ,i1 ,...,in )∈En+1 i podobnie P B Xn = X P B Xn = i 1I {Xn =i} . i∈En+1 2.3 Twierdzenie Dla dowolnych n, m ∈ N oraz dowolnego zbioru A ⊂ Em ma miejsce równość: P (Xn+1 , Xn+2 , . . . , Xn+m ) ∈ AX0 , X1 , . . . , Xn = = P (Xn+1 , Xn+2 , . . . , Xn+m ) ∈ AXn . 3. Rozkłady stacjonarne dla łańcuchów Markowa Rozkłady brzegowe łańcuchów Markowa Przypomnijmy podstawowe elementy definicji łańcuchów Markowa. • E - przeliczalny zbiór stanów. • P = {pij }i,j∈E - macierz prawdopodobieństw przejścia, tzn. pij ­ 0, i, j ∈ E oraz X pij = 1, i ∈ E. j∈E • π̄ = {πj }j∈E - rozkład początkowy. • Jednorodny łańcuch Markowa - proces stochastyczny X0 , X1 , X2 , . . . o rozkładach skończenie wymiarowych danych wzorem Pπ̄ X0 = i0 , X1 = i1 , X2 = i2 , . . . , Xm−1 = im−1 , Xm = im = = πi0 · pi0 ,i1 · pi1 ,i2 · . . . · pim−1 ,im . 11 12 3. Rozkłady stacjonarne dla łańcuchów Markowa Rozkłady stacjonarne Istnienie rozkładów stacjonarnych 3.4 Uwaga Znaleźć rozkład stacjonarny dla P, to rozwiązać układ równań liniowych X πi · pij = πj , j ∈ E, i∈E przy dodatkowym warunku X πi = 1. i∈E Nie zawsze jest to możliwe. 3.5 Przykład Błądzenie symetryczne po kracie Z. Kładziemy: E = Z, pij = 1 2 1 2 0 gdy j = i + 1, gdy j = i − 1, gdy |j − i| = 6 1. Równanie równowagi szczegółowej Równanie równowagi szczegółowej 13 14 3. Rozkłady stacjonarne dla łańcuchów Markowa 4. Twierdzenie ergodyczne dla łańcuchów Markowa Kiedy rozkład stacjonarny jest jedyny? 4.1 Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy każdy rozkład jest stacjonarny i każdy rozkład spełnia równanie równowagi szczegółowej. 4.2 Problem Kiedy istnieje dokładnie jeden rozkład stacjonarny? Odpowiedź: gdy wszystkie wiersze macierzy Q są identyczne, tzn. δij + pij + pij (2) + . . . + pij (n − 1) → πj , dla wszystkich i, j ∈ E. n W szczególności tak będzie, gdy pij (n) → πj , dla wszystkich i, j ∈ E. Klasyfikacja stanów 15 16 4. Twierdzenie ergodyczne dla łańcuchów Markowa Nieprzywiedlny łańcuch Markowa Twierdzenie ergodyczne 17 Twierdzenie ergodyczne Najważniejsze kroki w dowodzie 4.11 Lemat Niech a1 , a2 , . . . , am ∈ N będą takie, że NWD {a1 , a2 , . . . , am } = 1. Wówczas istnieje liczba N0 taka, że każdą liczbę n ­ N0 można przedstawić w postaci n = l1 a+ l2 a2 + . . . + lm am , gdzie l1 , l2 , . . . , lm ∈ N. 4.12 Wniosek Jeśli łańcuch jest nieprzywiedlny i nieokresowy, to istnieje N0 takie, że dla n ­ N0 wszystkie elementy macierzy Pn są dodatnie. Algorytm Metropolisa 4.13 Problem Na E (zwykle bardzo licznym) mamy mamy rozkład π̄. Szukamy P o własnościach: (i) π̄ jest rozkładem stacjonarnym dla P. (ii) Pn „szybko” zmierzają do π̄ (jak w tw. ergod.). 18 4. Twierdzenie ergodyczne dla łańcuchów Markowa 4.14 Uwaga Sposób osiągnięcia powyższych celów wymyślony został przez fizyków blisko 60 lat temu. W najprostszej sytuacji można go opisać w postaci algorytmu Metropolisa. Ten i inne podobne algorytmy stanowią podstawę dynamicznych metod Monte Carlo (ang. „Markov Chain Monte Carlo”). 5. Twierdzenia o powracaniu dla łańcuchów Markowa Powracalność a prawo wielkich liczb 5.1 Przykład Rozważmy błądzenie losowe po liczbach całkowitych: pij = p 1 − p =: q 0 jeśli j = i + 1, jeśli j = i − 1, jeśli |j − i| = 6 1. Załóżmy, że rozpoczynamy błądzenie z i = 0. Jakie wnioski można wyciągnąć na podstawie prawa wielkich liczb nt. liczby powrotów trajektorii do stanu i = 0 ? Powroty łańcucha Markowa do ustalonego stanu I 19 20 Stany powracające 5. Twierdzenia o powracaniu dla łańcuchów Markowa Symetryczne błądzenie po płaszczyźnie i w przestrzeni Symetryczne błądzenie po płaszczyźnie i w przestrzeni 21 22 5. Twierdzenia o powracaniu dla łańcuchów Markowa 6. Twierdzenia graniczne dla łańcuchów Markowa Prawo wielkich liczb dla łańcuchów Markowa 6.1 Problem Łańcuchy Markowa są przykładami ciągów zależnych zmiennych losowych. W badaniu ich własności statystycznych nie można więc stosować zwykłych praw wielkich liczb i centralnego twierdzenia granicznego. Jak wyglądają ich odpowiedniki? 6.2 Umowa Przypomnienie: przez Eµ̄ f (X0 , X1 , . . .) rozumiemy wartość oczekiwaną przy rozkładzie początkowym µ̄. Schemat dowodu prawa wielkich liczb dla łańcuchów Markowa • Krok 1. Ma miejsce zbieżność: Eµ̄ f (Xn ) −→ Eπ̄ f (X0 ). 23 24 6. Twierdzenia graniczne dla łańcuchów Markowa Stąd Eµ̄ f (X0 ) + Eµ̄ f (X1 ) + . . . + Eµ̄ f (Xn−1 ) −→ Eπ̄ f (X0 ). n • Krok 2. Oznaczmy Sn (µ̄, f ) = f (X0 ) − Eµ̄ (f (X0 )) + f (X1 ) − Eµ̄ (f (X1 ))+ + . . . + f (Xn−1 ) − Eµ̄ (f (Xn−1 )). Wystarczy pokazać, że S (µ̄, f ) n > ε −→ 0, ε > 0. Pµ̄ n • Krok 3. Pokażemy, że Varµ̄ Sn (µ̄, f ) n2 −→ 0. W tym celu wystarczy pokazać, że Varµ̄ Sn (µ̄, f ) n −→ σ 2 π̄, f , gdzie szereg 2 π̄ σ π̄, f = Var f (X0 ) + 2 ∞ X Covπ̄ f (X0 ), f (Xk ) Covπ̄ f (X0 ), f (Xk ) k=1 jest zbieżny. • Krok 4. Szereg σ 2 π̄, f = Varπ̄ f (X0 ) + 2 ∞ X k=1 jest bezwzględnie zbieżny. • Krok 5. Varµ̄ f (Xn ) −→ Varπ̄ f (X0 ) . • Krok 6. Covµ̄ f (Xn−j ), f (Xn ) −→ Covπ̄ f (X0 ), f (Xj ) . • Krok 6. Varµ̄ Sn+1 (µ̄, f ) − Varµ̄ Sn (µ̄, f ) = = Varπ̄ f (Xn ) + 2 n−1 X k=0 Covπ̄ f (Xk ), f (Xn ) −→ σ 2 π̄, f . Centralne twierdzenie graniczne dla łańcuchów Markowa 25 Centralne twierdzenie graniczne dla łańcuchów Markowa 26 6. Twierdzenia graniczne dla łańcuchów Markowa 7. Procesy stacjonarne Definicja procesu stacjonarnego 27 28 Przekształcenie zachowujące miarę 7. Procesy stacjonarne Zbiory i funkcje T -niezmiennicze Zbiory i funkcje T -niezmiennicze 29 30 7. Procesy stacjonarne Przykłady przekształceń zachowujących miarę 7.11 Przykład Obrót o kąt 2πα Tα : S1 → S1 , Tα (s) = s · e2πiα , zachowuje miarę Lebesgue’a na S1 . 7.12 Przykład Przekształcenie piekarza T : [0, 1) × [0, 1) → [0, 1) × [0, 1), ( T (x, y) = (2x, y/2) dla 0 ¬ x < 21 (2 − 2x, 1 − y/2) dla 21 ¬ x < 1. T zachowuje miarę Lebesgue’a na [0, 1)2 . Ułamki łańcuchowe 7.13 Przykład Część ułamkowa odwrotności i miara Gaussa Niech X = [0, 1]\Q (liczby niewymierne z odcinka [0, 1]). Określamy T : X → X jako część ułamkową odwrotności: 1 j1k n1o = . T (x) = − x x x T zachowuje miarę Gaussa o gęstości pT (x) = (ln 2)−1 /(1 + x). Niech f : X → N będzie określone wzorem f (x) = j1k x = 1 − T (x). x Wtedy x= 1 = f (x) + T (x) 1 1 f (x) + f (T (x)) + T (T (x)) = ... Tak więc wartości trajektorii procesu stacjonarnego f (x), f (T (x)), f (T 2 (x)), . . . to kolejne redukty rozwinięcia liczby niewymiernej x w ułamek łańcuchowy 1 x= 1 a1 (x) + 1 a2 (x) + a3 (x) + 1 a4 (x) + · · · Często zapisujemy powyższy związek w postaci x = [0; a1 (x), a2 (x), a3 (x), . . .], lub, w notacji Pringsheima, x=0+ 1| 1| 1| + + + ··· . | a1 (x) | a2 (x) | a3 (x) 8. Indywidualne twierdzenie ergodyczne Indywidualne twierdzenie ergodyczne Komentarze i uzupełnienia do tw. ergodycznego • I dla procesu stacjonarnego X0 , X1 , X2 , . . . składa się ze zbiorów A ∈ F , które są −1 równe P-p.w. zbiorowi postaci X (B), gdzie B jest podzbiorem R∞ niezmienniczym dla przesunięcia w lewo. • Pokażemy później, że dla ciągu niezależnych zmiennych losowych o jednakowych rozkładach, E X0 I = EX0 . Stąd wynika, że prawo wielkich liczb Kołmogorowa wynika z tw. ergodycznego. 1 1 • Przypomnijmy, że dla całkowalnej zmiennej losowej X : (ω, FP) → (R , B ) i σalgebry G ⊂ F, warunkowa wartość oczekiwana E X G zmiennej X względem G jest jedyną (z dokładnością do równości P-p.w.) zmienną losową Y , która spełnia następujące warunki: – Y jest G-mierzalna. – EY 1I G = EX1I G dla każdego G ∈ G. 31 32 8. Indywidualne twierdzenie ergodyczne Maksymalne twierdzenie ergodyczne Przekształcenia i procesy ergodyczne Przekształcenia i procesy ergodyczne 33 34 8. Indywidualne twierdzenie ergodyczne 9. Kompletna losowość - proces punktowy Poissona Punktowy proces Poissona 35 36 9. Kompletna losowość - proces punktowy Poissona Proces Poissona 9.3 Przykład Rozważmy następujące obiekty: • G = [0, T ] ⊂ R+ . • U1 , U2 , U3 , . . . - zmienne niezależne o rozkładzie jednostajnym na [0, T ]. • ν - niezależną od {Uj } zmienną losową o rozkładzie Poissona Po(λ·T ), gdzie λ > 0. Wtedy wzór R+ ⊃ A 7→ N (A) = νk=1 1I A (Uk ) zadaje punktowy proces Poissona na [0, T ]. Określamy Nt := N ([0, t]), t ∈ [0, T ] P . Proces stochastyczny {Nt }t∈[0,T ] ma następujące własności: • Dla dowolnych 0 ¬ s < t ¬ T Nt − Ns ∼ Po(λ(t − s)). • Dla dowolnych 0 ¬ t1 < t2 ¬ t3 < t4 ¬ . . . ¬ t2n−1 < t2n ¬ T zmienne losowe Nt2 − Nt1 , Nt4 − Nt3 , . . . , Nt2n − Nt2n−1 są niezależne (czyli {Nt } jest procesem o przyrostach niezależnych). • Trajektorie [0, T ] 3 t 7→ Nt (ω) ∈ N są niemalejące i prawostronnie ciągłe. Proces Poissona 37 9.5 Twierdzenie Proces Poissona istnieje. k Idea dowodu: Dla każdego k ∈ N niech N będzie procesem punktowym Poissona zbudowanym na zbiorze Gk = [k−1, k) ⊂ R+ , i niech procesy N k , k = 1, 2, . . . będą niezależne. Kładziemy: Nt = ∞ X k N [0, t] . k=1 Wymagane własności dostajemy wprost z definicji. Stwierdzamy również, że: 9.6 Twierdzenie Prawie wszystkie trajektorie procesu Poissona startują z wartości 0, rosną „skokami” i ich skoki ∆Nt = Nt − Nt− są równe zero lub jeden. 38 9. Kompletna losowość - proces punktowy Poissona Momenty skoku procesu Poissona 9.9 Uwaga Można pokazać, że rozkłady skończenie wymiarowe ciągu T1 , T2 , T3 , . . . są identyczne z rozkładami skończenie wymiarowymi ciągu W1 , W1 +W2 , W1 +W2 +W3 , . . ., gdzie W1 , W2 , W3 , . . . są niezależne i mają rozkład wykładniczy Ex(λ). Wynika stąd w szczególności, że w procesie Poissona czasy oczekiwania T1 , T2 − T1 , T3 − T2 , . . . są niezależne i mają rozkład wykładniczy Ex(λ). Alternatywna konstrukcja procesu Poissona 9.10 Twierdzenie Niech W1 , W2 , . . . , Wr . . . . ∼ Ex(λ) będą niezależne. Definiujemy Nt (ω) = 0 na zbiorze {ω ; 0 ¬ t < W1 } oraz Nt (ω) = k na zbiorze {ω ; W1 (ω) + . . . + Wk (ω) ¬ t < W1 (ω) + . . . + Wk (ω) + Wk+1 (ω)}. Wtedy proces {Nt }t∈R+ jest procesem Poissona. 10. Systemy kolejkowe i inne modele oparte na procesie Poissona System obsługi masowej 10.1 Motywacja Dany jest system obsługi masowej (serwer sieciowy, kasa w supermarkecie itp.), do którego w chwilach T1 , T1 + T2 , T1 + T2 + T3 , . . . napływają zadania do realizacji (programy do uruchomienia, klienci itp.). Realizacja k-tego zadania wymaga czasu Sk . Uzasadnione jest założenie, że zmienne S1 , S2 , S3 są niezależne o jednakowych rozkładach ν, i że proces {Sk } jest niezależny od procesu „na wejściu”. Badane są m.in. • Liczba zadań Qt znajdujących się w systemie (czyli długość kolejki) w chwili t (łącznie z realizowanym zadaniem). • Średnia długość kolejki Qt = 1 t Z t 1 t→∞ t Qs ds, Q∞ = lim 0 Z t Qs ds. 0 • Średni czas oczekiwania na realizację zadania (średni czas spędzany przez klienta w kolejce). • Średni czas między dwoma okresami, gdy nie ma kolejki. 39 40 10. Systemy kolejkowe i inne modele Systemy kolejkowe O systemie M/G/1 Niech Lν (θ) - transformata Laplace’a rozkładu czasu obsługi ν. Dla każdego n ­ 0, niech Xn będzie liczbą klientów pozostających w systemie w chwili, gdy zakończono obsługę n-tego klienta. Mamy: Xn+1 = Xn + Yn+1 − 1I {Xn >0} , n ­ 0, gdzie Yn jest liczbą klientów, którzy przybyli podczas obsługi n-tego klienta. 10.4 Lemat Zmienne losowe Y1 , Y2 , Y3 , . . . , są niezależne i mają jednakowe rozkłady o funkcji generującej momenty A(z) = Ez Yj = Lν λ(1 − z) , i wartości oczekiwanej EYj = λ · 0∞ x dν(x)=: ρ. Co więcej, dla każdego n ­ 0, zmienne Yn+1 , Yn+2 , Yn+3 , . . . są niezależne od X0 , X1 , . . . , Xn . R Model Cramera-Lundberga 41 Model Cramera- Lundberga • Żądania odszkodowań pojawiają się w momentach T1 , T1 + T2 , T1 + T2 + T3 , . . ., gdzie Tj ∼ Ex(λ), j = 1, 2, 3, . . . i są niezależne. • Wysokość odszkodowania w chwili T1 + T2 + . . . + Tj wynosi Xj , gdzie {Xj } jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, o skończonych E(Xj ) = µ i D2 (Xj ) = σ 2 , który jest niezależny od od {Tj }. • N (t) = sup{n ­ 1 ; T1 + T2 + . . . + Tn ¬ t} jest procesem Poissona opisującym liczbę żądań odszkodowań do momentu t, • (PN (t) S(t) = i=1 0, Xi , jeśli N (t) > 0, jeśli N (t) = 0, oznacza skumulowane kwoty wypłat towarzystwa ubezpieczeniowego do momentu t, • U (t) = u + ct − S(t) jest procesem ryzyka (niepewności), gdzie u jest kapitałem początkowym towarzystwa ubezpieczeniowego, a c tempem zbierania składek. • Prawdopodobieństwo ruiny w czasie T (może być T = ∞) wyraża się wzorem Ψ(u, T ) = P ω ; ∃t∈(0,T ] U (t, ω) < 0 . 42 10. Systemy kolejkowe i inne modele • Zadanie:Chcemy oszacować Ψ(u, T ) w zależności od c i parametrów modelu oraz zminimalizować Ψ(u, T ) przy rozsądnym c. 10.6 Lemat EU (t) = u + ct − µλt = u + (c − µλ)t. 10.7 Wniosek Rozsądnym wyborem ubezpieczyciela jest c ­ µλ. Niech teraz T = ∞. Wtedy Ψ(u, ∞) = P ω ; ∃t>0 U (t, ω) < 0 = P ω ; ∃n∈N u + c T1 (ω) + . . . + Tn (ω) − n X Xi (ω) < 0 i=1 = P ω ; ∃n∈N u + n X cTi (ω) − Xi (ω) < 0 i=1 Takie prawdopodobieństwa można przybliżać stosując metodę Monte Carlo. 11. L2 procesy L2 procesy i ich charakterystyki Przypomnijmy, że proces stochastyczny {Xt }t∈T nazywamy gaussowskim, jeśli każda skończona liniowa kombinacja α1 Xt1 + α2 Xt2 + . . . + αm Xtm ma rozkład normalny na R1 (może to być rozkład zdegenerowany do punktu). Z własności rozkładów normalnych wynika, że: • Każdy proces gaussowski jest L2 procesem. • Funkcje mt i K(s, t) procesu gaussowskiego {Xt } w pełni określają jego rozkłady skończenie wymiarowe. Funkcja kowariancji L2 procesu 11.2 Twierdzenie Funkcja kowariancji L2 procesu jest nieujemnie określona na T×T, tzn. dla każdego wyboru chwil t1 , t2 , . . . , tm ∈ T i dowolnych liczb zespolonych z1 , z2 , . . . , zm ∈ 43 11. L2 procesy 44 C1 X K(tj , tk )zj z̄k ­ 0. 1¬j,k¬m 11.3 Przykład Funkcja R+ ×R+ 7→ K(s, t) = σ 2 ·(s∧t) ∈ R jest nieujemnie określona, bo K(s, t) = hes , et iH w pewnej przestrzeni Hilberta H. Przykłady procesów gaussowskich 11.5 Definicja Procesem Wienera (niesłusznie czasami nazywanym ruchem Browna) nazywamy scentrowany (EWt = 0) proces gaussowski o funkcji kowariancji EWs Wt = σ 2 · (s ∧ t). 11.6 Wniosek Proces Wienera ma niezależne przyrosty, tzn. dla dowolnych liczb 0 < t1 < t2 < t3 < . . . < tm niezależne są zmienne losowe Wt1 , Wt2 − Wt1 , Wt3 − Wt2 , . . . , Wtm − Wtm−1 . 11.7 Uwaga Funkcja kowariancji procesu Wienera jest identyczna z funkcją kowariancji scentrowanego procesu Poissona Xt = Nt − t, t ∈ R+ . L2 procesy stacjonarne w szerokim sensie 45 11.8 Definicja Ułamkowym ruchem Browna z parametrem Hursta H ∈ (0, 1) nazywamy scentrowany proces gaussowski {BtH }t∈R+ o funkcji kowariancji (∗) EBsH BtH = 1 2H |t| + |s|2H − |t − s|2H . 2 11.9 Uwaga Nie jest łatwo sprawdzić, że (∗) zadaje funkcję nieujemnie określoną. 11.10 Wniosek Wienera. • Ułamkowy ruch Browna z parametrem H = 1/2 jest procesem • Dla H > 1/2 przyrosty {BtH } są dodatnio skorelowane. • Dla H < 1/2 przyrosty {BtH } są ujemnie skorelowane. L2 procesy stacjonarne w szerokim sensie 46 Miara i gęstość spektralna L2 procesu 11. L2 procesy 12. Wstęp do teorii martyngałów Pojęcie filtracji 47 48 Momenty zatrzymania 12. Wstęp do teorii martyngałów Gra sprawiedliwa Gra sprawiedliwa Martyngał jako gra sprawiedliwa 49 50 12. Wstęp do teorii martyngałów 12.8 Przykład Niech Z0 , Z1 , . . . będzie ciągiem całkowalnych i niezależnych zmiennych losowych. Kładziemy Xj = Z0 + Z1 + . . . + Zj , Fj = σ{Xi ; i ¬ j} = σ{Zi ; i ¬ j} . 12.9 Przykład Niech X ∈ 1 (P) i niech {Fj } będzie filtracją. Kładziemy Xj = E(X|Fj ), j ∈ N. Martyngał, który można w taki sposób przedstawić, nazywamy regularnym. 12.10 Definicja Niech {Xj } będzie procesem stochastycznym, a τ momentem zatrzymania. Procesem zatrzymanym w momencie τ nazywamy proces {Xjτ = Xτ ∧j }, czyli Xjτ (ω) = Xτ (ω)∧j (ω). 12.11 Twierdzenie • Jeżeli {Xj } jest adaptowany do filtracji {Fj }, a τ jest momentem zatrzymania względem tej filtracji, to proces zatrzymany {Xjτ } też jest adaptowany do {Fj }. • Jeżeli {Xj } jest {Fj }-martyngałem, a τ momentem zatrzymania względem {Fj }, to proces zatrzymany {Xjτ } też jest {Fj }-martyngałem. 12.12 Wniosek Dla martyngału zatrzymanego w dowolnym momencie zatrzymania τ ¬ N mamy τ EXτ = EXτ ∧N = EXN = EX0τ = EXτ ∧0 = EX0 . 12.13 Twierdzenie Proces stochastyczny {Xj } jest grą sprawiedliwą dokładnie wtedy, gdy jest martyngałem. 13. Zbieżność martyngałów Nierówność maksymalna dla podmartyngałów 13.2 Przykład Jeśli {Yj } jest martyngałem, to {Xj = |Yj |} jest podmartyngałem. 13.3 Przykład Jeśli {Yj } jest martyngałem, to {Xj = Yj2 } jest podmartyngałem. 51 52 Nierówność Dooba 13. Zbieżność martyngałów Wnioski z twierdzenia Dooba 53 Wnioski z twierdzenia Dooba 13.7 Wniosek (Kołmogorow, Chińczyn) Jeżeli Z1 , Z2 , . . . są niezależnymi zmiennymi losowymi, EZj = 0, j = 1, 2, . . ., to warunek ∞ X EXj2 < +∞ j=1 pociąga zbieżność P-p.w. i w L2 (P) szeregu P∞ j=1 Zj . 13.8 Lemat (Kronecker) Jeśli szereg liczbowy P∞ an n=1 n jest zbieżny, to a1 + a2 + . . . + an → 0. n 13.9 Twierdzenie (Kołmogorow) Jeżeli Z1 , Z2 , . . . są niezależnymi zmiennymi losowymi i jeśli ∞ X D2 (Zn ) < +∞, n2 n=1 to P-p.w. (Z1 − EZ1 ) + (Z2 − EZ2 ) + . . . + (Zn − EZn ) → 0. n 54 13. Zbieżność martyngałów 14. Proces Wienera Definicja procesu Wienera Przypomnijmy, że zdefiniowaliśmy proces Wienera jako scentrowany proces gaussowski {Wt }t∈R+ o funkcji kowariancji EWs Wt = σ 2 · (s ∧ t). Z tej definicji wynika, że: • W0 = 0 P-p.w. • Przyrosty procesu Wienera Wt1 , Wt2 − Wt1 , Wt3 − Wt2 , . . . , Wtm − Wtm−1 , są niezależne. • Przyrosty są również stacjonarne: Wt − Ws ∼ Wt−s ∼ N (0, σ 2 (t − s)). • Proces Wienera jest martyngałem względem filtracji naturalnej {Ft } 14.1 Twierdzenie Niech {Wt }t∈R+ będzie procesem Wienera. Istnieje ciągła modyfikacja {Wt0 }t∈R+ procesu {Wt }. Innymi słowy, • Dla każdego t ∈ R+ zmienna losowa Wt0 jest modyfikacją Wt , tzn. P(Wt = Wt0 ) = 1, • Prawie wszystkie trajektorie Ω 3 ω 7→ {Wt0 (ω) ; t ∈ R+ } ∈ (R1 ) R+ są ciągłe jako funkcje od t ∈ R+ . 14.2 Uwagi • Wt0 jest mierzalna względem uzupełnionej σ-algebry Ft . • {Wt0 } zadaje odwzorowanie z Ω do przestrzeni C R+ : R1 . 55 56 14. Proces Wienera 14.3 Twierdzenie Jeżeli proces stochastyczny {Xt }, ma przyrosty niezależne i stacjonarne oraz ciągłe trajektorie, to {Xt } jest procesem Wienera dla pewnego σ 2 ­ 0. Powyższe twierdzenia pozwalają podać następującą, często bardziej przydatną, definicję procesu Wienera. Własności trajektorii procesu Wienera Martyngałowe własności procesu Wienera 57 Martyngałowe własności procesu Wienera Proces Wienera jako granica błądzeń losowych Niech Z1 , Z2 , . . . , będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, EZj = 0, EZj2 = σ 2 . Określamy procesy sum częściowych ciągu {Zj } [nt] 1 X Sn (t) = √ Zj , t ∈ R+ , n j=1 oraz procesy łamanych losowych Sen (t) = Sn ( k − 1 k k − 1 1 k−1 √ Zk , t ∈ )+n t− , , k = 1, 2, . . . . n n n n n 14.7 Twierdzenie Rozkłady skończenie wymiarowe procesów {Sn (t)} i {Sen (t)} zmierzają do rozkładów skończenie wymiarowych procesu {σ 2 Wt }, gdzie {Wt } jest standardowym procesem Wienera. W istocie można pokazać znacznie więcej. 58 14. Proces Wienera Dodatek Wektory losowe 15.1 Definicja Wektorem losowym nazywamy odwzorowanie ~ = (X1 , X2 , . . . , Xd )T : (Ω, F, P ) → Rd , X którego składowe X1 , X2 , . . . , Xd są zmiennymi losowymi. ~ to prawdopodobieństwo na Rd zadane 15.2 Definicja Rozkład PX~ wektora losowego X, wzorem PX~ ((a1 , b1 ] × (a2 , b2 ] × . . . × (ad , bd ]) = = P (a1 < X1 ¬ b1 , a2 < X2 ¬ b2 , . . . , ad < Xd ¬ bd ). 15.3 Uwaga Podobnie jak w przypadku jednowymiarowym, znajomość rozkładu wek~ tora losowego pozwala obliczać wartości oczekiwane funkcji od wektora losowego Ef (X). 15.4 Definicja ~ ma rozkład dyskretny, jeśli istnieją x1 , x2 , . . . ∈ Rd i prawdopo1. Wektor losowy X P ~ dobieństwa p1 , p2 , . . . ­ 0, ∞ j=1 pj = 1, takie, że P (X = xj ) = pj , j = 1, 2, . . .. ~ ma rozkład absolutnie ciągły o gęstości p(x), jeśli dla każdego 2. Wektor losowy X A postaci (a1 , b1 ] × (a2 , b2 ] × . . . × (ad , bd ] ~ ∈ A) = P (X Z p(x) dx. A (Wtedy p(x) ­ 0 `d -prawie wszędzie i R 59 p(x) dx = 1). 60 Dodatek Rozkłady łączne a rozkłady brzegowe ~ = (X1 , X2 , . . . , Xd )T nazywamy roz15.5 Definicja Rozkład PX~ wektora losowego X kładem łącznym zmiennych losowych X1 , X2 , . . . , Xd . Rozkłady (jednowymiarowe) PX1 , PX2 , . . . , PXd składowych wektora losowego nazywamy rozkładami brzegowymi rozkładu PX~ . 15.6 Uwaga Na ogół rozkłady brzegowe nie determinują rozkładu łącznego, tzn. istnieje wiele rozkładów na Rd o tych samych rozkładach brzegowych (przykład!). Niezależność 15.7 Definicja Zmienne losowe X1 , X2 , . . . , Xd są niezależne (lub stochastycznie niezależne), jeśli Ef1 (X1 )f2 (X2 ) · · · fd (Xd ) = Ef1 (X1 ) · Ef2 (X2 ) · · · · Efd (Xd ). dla dowolnego układu f1 , f2 , . . . , fd funkcji ograniczonych na R1 i takich, że f1 (X1 ), f2 (X2 ), . . . , fd (Xd ) są zmiennymi losowymi. Rodzina zmiennych losowych {Xi }i∈I jest niezależna, jeśli każda jej skończona podrodzina składa się ze zmiennych losowych niezależnych. 15.8 Twierdzenie Niech X1 , X2 , . . . , Xd będą zmiennymi losowymi określonymi na tej samej przestrzeni probabilistycznej (Ω, F, P ). Następujące warunki są równoważne: (i) Zmienne X1 , X2 , . . . , Xd są niezależne. (ii) Dla dowolnych liczb x1 , x2 , . . . , xd ma miejsce równość P (X1 ¬ x1 , X2 ¬ x2 , . . . , Xd ¬ xd ) = P (X1 ¬ x1 )P (X2 ¬ x2 ) · · · P (Xd ¬ xd ). Kryteria niezależności ~ nazywamy funkcję 15.9 Definicja Dystrybuantą wektora losowego X Rd 3 x = (x1 , x2 , . . . , xd )T 7→ FX~ (x) = P (X1 ¬ x1 , X2 ¬ x2 , . . . , Xd ¬ xd ). 15.10 Uwaga Na mocy warunku (ii) twierdzenia 15.8, zmienne losowe są niezależne dokładnie wtedy, gdy dystrybuanta ich rozkładu łącznego jest iloczynem dystrybuant rozkładów brzegowych. W dalszym ciągu nie będziemy jednak zajmować się dystrybuantami rozkładów na Rd , gdyż są one znacznie mniej wygodnym narzędziem niż dystrybuanty na R1 . Niezależność zdarzeń 61 15.11 Fakt Jeżeli zmienne losowe X1 , X2 , . . . , Xd są niezależne, to dla (prawie) dowolnych funkcji g1 , g2 , . . . , gd , zmienne losowe g1 (X1 ), g2 (X2 ), . . . , gd (Xd ) też są niezależne. 15.12 Twierdzenie Niech rozkłady zmiennych X1 , X2 , . . . , Xd będą dyskretne. Zmienne losowe X1 , X2 , . . . , Xd są niezależne dokładnie wtedy, gdy dla dowolnych x1 , x2 , . . . , xd ∈ R1 ma miejsce związek P (X1 = x1 , X2 = x2 , . . . , Xd = xd ) = P (X1 = x1 )P (X2 = x2 ) · · · P (Xd = xd ). 15.13 Twierdzenie Niech rozkłady zmiennych X1 , X2 , . . . , Xd będą absolutnie ciągłe z gęstościami p1 (x), p2 (x), . . . , pd (x). Zmienne losowe X1 , X2 , . . . , Xd są niezależne dokładnie wtedy, gdy rozkład łączny tych zmiennych jest absolutnie ciągły i jego gęstość ma postać pX~ (x1 , x2 , . . . , xd ) = p1 (x1 )p2 (x2 ) · · · pd (xd ). Niezależność zdarzeń 15.14 Definicja Rodzina zdarzeń {Ai }i∈I jest niezależna, jeśli funkcje charakterystyczne {IAi }i∈I tych zdarzeń są niezależne. 15.15 Twierdzenie Zdarzenia {Ai }i∈I są niezależne dokładnie wtedy, gdy dla dowolnego skończonego podzbioru I0 ⊂ I P \ Ai = Πi∈I0 P (Ai ). i∈I0 15.16 Definicja Zmienne losowe {Xi }i∈I są niezależne parami, jeśli dla każdych i, j ∈ I, i 6= j, zmienne Xi i Xj są niezależne. Podobnie, zdarzenia {Ai }i∈I sa niezależne parami, jeśli każde dwa zdarzenia Ai i Aj , i 6= j są niezależne. 15.17 Przykład Istnieją zdarzenia niezależne parami, ale zależne zespołowo (mówi o tym np. przykład Bernsteina). Całka iloczynu niezależnych zmiennych losowych 15.18 Twierdzenie (O mnożeniu wartości oczekiwanych) Jeżeli zmienne losowe X i Y są niezależne i całkowalne, to iloczyn XY jest całkowalną zmienną losową i EXY = EX · EY. 62 Dodatek 15.19 Uwaga Bez założenia o niezależności warunek dostateczny dla całkowalności iloczynu XY odwołuje się do tzw. nierówności Höldera. 15.20 Wniosek Niech X1 , X2 , . . . , Xd będą niezależne. Jeżeli funkcje fi sa takie, że E|fi (Xi )| < +∞, i = 1, 2, . . . , d, to Ef1 (X1 )f2 (X2 ) · · · fd (Xd ) = Ef1 (X1 ) · Ef2 (X2 ) · · · · Efd (Xd ). Wielowymiarowe rozkłady normalne 15.21 Definicja Niech X1 , X2 , . . . , Xd będą zmiennymi losowymi określonymi na wspólnej przestrzeni probabilistycznej (Ω, F, P ). Mówimy, że rozkład łączny zmiennych X1 , X2 , ~ = (X1 , X2 , . . . , Xd )T ma d-wymiarowy roz. . . , Xd jest normalny, albo że wektor X kład normalny, jeśli dowolna kombinacja liniowa α1 X1 + α2 X2 + · · · + αd Xd zmiennych X1 , X2 , . . . , Xd ma jednowymiarowy rozkład normalny, tzn. α1 X1 + α2 X2 + · · · + αd Xd ∼ N (mα~ , σα~2 ), gdzie α ~ = (α1 , α2 , . . . , αd )T . 15.22 Uwaga Dopuszczamy przypadek σα~2 = 0. Z definicji N (m, 0) = δm . 15.23 Definicja Rodzinę zmiennych losowych {Xi }i∈I nazywamy gaussowską, jeśli dla każdego skończonego podzbioru {i1 , i2 , . . . , im } ⊂ I zmienne Xi1 , Xi2 , . . . , Xid mają łączny rozkład normalny. 15.24 Uwaga Biorąc α ~ = (0, . . . , 0, 1, 0, . . . , 0)T , otrzymujemy, że składowe Xk mają 2 rozkład N (mk , σk ). W ogólności, ~ = h~ ~ mα~ = E(α1 X1 + α2 X2 + · · · + αd Xd ) = Eh~ α, Xi α, E Xi. Podobnie ~ = h~ ~ α σα~2 = Var (h~ α, Xi) α, Cov (X) ~ i. 15.25 Twierdzenie Jeżeli m ∈ Rd i Σ jest odwzorowaniem liniowym na Rd , syme~ o rozkładzie normalnym, trycznym i nieujemnie określonym, to istnieje wektor losowy X który spełnia związki ~ = m, Cov (X) ~ = Σ. EX 15.26 Uwaga Niech µ będzie rozkładem na Rd . Funkcja charakterystyczna µ określona jest wzorem Z Rd 3 y 7→ φµ (y) := eihy,xi dµ(x). Rd Funkcje charakterystyczne na Rd mają własności podobne jak w przypadku jednowymiarowym. W szczególności, identyfikują rozkłady, tj. φµ = φν pociąga µ = ν Przestrzenie funkcji całkowalnych 63 ~ jest normalny wtedy i tylko wtedy, 15.27 Twierdzenie Rozkład wektora losowego X d gdy istnieje m ∈ R i odwzorowanie liniowe Σ : Rd → Rd , symetryczne i nieujemnie określone, takie że ~ Eeihy,Xi = eihy,mi−(1/2)hy,Σ yi . ~ = m, Cov (X) ~ = Σ. W takim przypadku, E X 15.28 Uwaga Na mocy powyższego twierdzenia wielowymiarowy rozkład normalny wyznaczony jest przez wartość oczekiwaną i operator kowariancji. Dlatego uprawnione jest ~ ∼ N (m, Σ). oznaczenie X 15.29 Twierdzenie Wielowymiarowy rozkład normalny N (m, Σ) jest absolutnie ciągły dokładnie wtedy, gdy det Σ 6= 0 (tj. odwzorowanie Σ jest nieosobliwe). W takim przypadku jego gęstość wyraża się wzorem 1 1 pm,Σ (x) = √ d √ exp ( 2π) det Σ 1 − hx − m, Σ−1 (x − mi . 2 15.30 Twierdzenie Niech zmienne losowe X1 , X2 , . . . , Xd maja łączny rozkład normalny. Wówczas X1 , X2 , . . . , Xd są niezależne wtedy i tylko wtedy, gdy są nieskorelowane (czyli macierz Σ jest diagonalna). Przestrzenie funkcji całkowalnych 15.31 Definicja Niech (Ω, F, µ) będzie przestrzenią z miarą. Określamy przestrzeń funkcji całkowalnych. L1 (Ω, F, µ) = L1 (µ) = {f : (Ω, F) → (R1 , B 1 ) ; Z |f | dµ < +∞}. Niech f ∼ g oznacza, że f = g µ-prawie wszędzie. Relacja ∼ jest relacją równoważności w L1 (µ). Określamy przestrzeń L1 (µ) jako przestrzeń ilorazową L1 (µ)/ ∼. R 15.32 Lemat Niech kf k1 = |f | dµ. Nieujemna funkcja k · k1 jest półnormą na przestrzeni L1 (µ), tzn. spełnia następujące dwa warunki. 1. kf + gk1 ¬ kf k1 + kgk1 , f, g ∈ L1 (µ). 2. ka · f k1 = |a|kf k1 , f ∈ L1 (µ), a ∈ R1 . Funkcja k · k1 nie jest na ogół normą, gdyż kf k1 = 0 pociąga jedynie f = 0 µ-prawie wszędzie. Stąd jednak wynika, że określając funkcję k·k1 : L1 (µ) → R+ wzorem k[f ]∼ k1 = kf k1 , definiujemy normę na L1 (µ). 15.33 Twierdzenie Przestrzeń (L1 (µ), k · k1 ) jest zupełna (tzn. każdy ciąg Cauchy’ego w normie k · k1 jest zbieżny). Przestrzeń ta jest więc tzw. przestrzenią Banacha. 64 Dodatek 15.34 Definicja Niech (Ω, F, µ) będzie przestrzenią z miarą. Określamy przestrzeń funkcji całkowalnych z kwadratem. L2 (Ω, F, µ) = L2 (µ) = {f : (Ω, F) → (R1 , B 1 ) ; Z |f |2 dµ < +∞}. Podobnie jak w przypadku przestrzeni L1 , określamy L2 (µ) jako przestrzeń ilorazową L2 (µ)/ ∼, gdzie f ∼ g dokładnie wtedy, gdy f = g µ-prawie wszędzie. qR R 15.35 Lemat Niech hf, gi = f · g dµ i kf k2 = |f |2 dµ. Funkcja hf, gi jest formą dwuliniową i symetryczną, a k·k2 jest półnormą na przestrzeni L2 (µ). Tak więc określając h[f ]∼ , [g]∼ i = hf, gi otrzymujemy iloczyn skalarny na przestrzeni L2 (µ). 15.36 Uwaga Dla funkcji całkowalnych z kwadratem o wartościach zespolonych iloczyn skalarny w L2 (µ) zadajemy wzorem hf, gi = Z f g dµ. 15.37 Twierdzenie Przestrzeń (L2 (µ), k · k2 ) jest zupełna (jest więc przestrzenią Hilberta). 15.38 Przykład Jeżeli µ jest miarą Lebesgue’a na Rd , to odpowiednie przestrzenie funkcyjne oznaczamy symbolami L1 (Rd ) i L2 (Rd ). Podobnie, jeśli rozważamy miarę Lebesgue’a na podzbiorze A ⊂ Rd , piszemy L2 (A), np. L2 (0, 1), L2 (0, 2π) itp. 15.39 Uwaga L1 (R1 ) 6⊂ L2 (R1 ) i L2 (R1 ) 6⊂ L1 (R1 ). 15.40 Przykład Niech Λ będzie miarą liczącą na N. Przestrzeń L1 (Λ) = {f : N → P |f (j)| < +∞} oznaczamy przez l1 . Podobnie, przestrzeń L2 (Λ) = {f : N → R1 ; ∞ Pj=1 ∞ 1 R ; j=1 |f (j)|2 < +∞} oznaczamy przez l2 . 15.41 Fakt l1 ⊂ l2 , ale l2 6⊂ l1 . 15.42 Fakt Jeśli µ jest miarą skończoną, to L2 (µ) ⊂ L1 (µ). 15.43 Definicja Przestrzeń Lp (µ), 0 < p < +∞, dla przestrzeni z miarą (Ω, F, µ) określamy jako L (µ) = {f : (Ω, F) → p (R1 , B 1 ) ; Z |f |p dµ < +∞}. Podobnie jak w przypadku przestrzeni L1 i L2 , określamy Lp (µ) jako przestrzeń ilorazową Lp (µ)/ ∼, gdzie f ∼ g wtedy, gdy f = g µ-prawie wszędzie. 15.44 Uwagi Przestrzenie funkcji całkowalnych 65 1. Dla 0 < p < 1, przestrzenie Lp (µ) są zupełnymi przestrzeniami metrycznymi z R p metryką dp (f, g) = |f − g| dµ. 2. Dla 1 ¬ p < +∞, przestrzenie Lp (µ) są zupełnymi przestrzeniami unormowanymi (przestrzeniami Banacha) z normą określoną wzorem Z kf kp = |f |p dµ 1/p . Fakt, że tak określona funkcja spełnia nierówność trójkąta nie jest oczywisty. 15.45 Fakt (Nierówność kf kp , kgkp < +∞, to Minkowskiego) Niech ∈ p [1, ∞). Jeżeli kf + gkp ¬ kf kp + kgkp . Nierówność Minkowskiego wynika z kolei z 15.46 Fakt (Nierówność Höldera) Niech p, q > 1 będą takie, że 1 1 + = 1. p q Dla dowolnych funkcji numerycznych na (Ω, F, µ) Z Z |f | · |g| dµ ¬ |f |p dµ 1/p Z |g|q dµ 1/q . 15.47 Wniosek Jeżeli f ∈ Lp (µ) i g ∈ Lq (µ), gdzie 1/p + 1/q = 1, to f · g ∈ L1 (µ). 15.48 Uwaga Można pokazać, że nierówność Höldera wynika z nierówności Jensena. 15.49 Fakt (Nierówność Jensena) Niech φ : R1 → R1 będzie funkcją wypukłą. Niech µ będzie miarą probabilistyczną na (R1 , B 1 ) taką, że Z |x| dµ(x) < +∞. Wówczas Z φ( x dµ(x)) ¬ Z φ(x) dµ(x). 15.50 Wniosek Jeżeli µ jest miarą probabilistyczną na R1 i 1 ¬ p ¬ r < +∞, to Z |x|p dµ(x) ¬ Z |x|r dµ(x). 66 Dodatek Rodzaje zbieżności funkcji mierzalnych i relacje między nimi Ciągi funkcji mierzalnych rozważane w niniejszym paragrafie są określone na wspólnej przestrzeni z miarą (Ω, F, µ). 15.51 Definicja Mówimy, że fn → f0 µ-prawie wszędzie, jeśli istnieje zbiór Ω0 ∈ F taki, że µ(Ωc0 ) = 0 i dla każdego ω ∈ Ω0 , fn (ω) → f0 (ω). 15.52 Definicja Ciąg fn jest zbieżny do f0 według miary, jeśli dla każdego ε > 0 µ{ω ; |fn (ω) − f0 (ω)| > ε} → 0, gdy n → +∞. Zapisujemy: fn −→µ f0 . 15.53 Definicja Zbieżność w Lp , 0 < p < +∞, to zbieżność w przestrzeni Lp (µ). Tak więc fn −→Lp f0 wtedy i tylko wtedy, gdy Z |fn − f0 |p dµ → 0, gdy n → +∞. 15.54 Fakt Jeżeli µ jest miarą skończoną, to zbieżność w Lr , r > 0 pociąga zbieżność w Lp , 0 < p ¬ r. 15.55 Fakt Zbieżność w Lp pociąga zbieżność według miary. 15.56 Uwaga Zbieżność według miary nie pociąga zbieżności w L1 ani zbieżności prawie wszędzie. 15.57 Fakt Jeżeli miara µ jest skończona, to zbieżność µ-prawie wszędzie pociąga zbieżność według miary µ. Jeśli miara µ jest nieskończona, zbieżność prawie wszędzie nie pociąga w ogólności zbieżności według miary. 15.58 Twierdzenie (Riesza-Fischera) Ciąg zbieżny według miary zawiera podciąg zbieżny prawie wszędzie. 15.59 Wniosek Niech µ będzie miarą skończoną. Wówczas ciąg {fn } jest zbieżny według miary do f0 wtedy i tylko wtedy, gdy w każdym podciągu {fnk } ciągu {fn } można znaleźć podciąg {fnkl } zbieżny do f0 prawie wszędzie. Warunkowa wartość oczekiwana zmiennej losowej 15.60 Definicja Niech (Ω, F, będzie przestrzenią probabilistyczną i niech G ⊂ F. P) Jeżeli E|X|2 < +∞, to E X G jest rzutem zmiennej X na podprzestrzeń L2 (Ω, G, P) zmiennych losowych G–mierzalnych i całkowalnych z kwadratem. Transformata Laplace’a 67 15.61 Uwaga Z definicji wynika, że dla dowolnego Y ∈ L2 (Ω, G, P) X − E X G ⊥Y , tzn. hX − E X G , Y i = E X − E X G Y = 0. lub równoważnie EXY = EE X G Y. Dla spełnienia powyższej równości wystarczy, aby była ona prawdziwa tylko dla Y postaci Y = 1I C , gdzie C ∈ G. 15.62 Definicja Warunkową wartość oczekiwaną zmiennej losowej Y ∈ L1 (Ω, F, P) względem G ⊂ F określamy jako jedyną (P -p.w.) G–mierzalną zmienną losową Z taką, że dla dowolnego C ∈ G EX1I C = EZ1I C . 15.63 Wniosek Niech G ⊂ H ⊂ F. Wtedy E E X H G = E X G . 15.64 Wniosek Jeżeli Y jest G–mierzalna, |Y | ¬ K dla pewnej stałej K > 0 oraz X jest całkowalna, to wtedy E Y · X G = Y · E X G . Transformata Laplace’a 15.65 Definicja Jeżeli X ­ 0, to transformatą Laplace’a zmiennej losowej X (w istocie jej rozkładu) nazywamy funkcję −θX + R 3 θ 7→ LX (θ) = Ee Z +∞ = 0 e−θx dPX (x) ∈ R+ . 15.66 Twierdzenie Jeżeli LX = LY , to PX = PY (tzn. transformata Laplace’a identyfikuje rozkłady). 15.67 Twierdzenie Jeżeli X i Y są niezależnymi zmiennymi losowymi, to LX+Y (θ) = LX (θ) · LY (θ). 15.68 Fakt Niech zmienna losowa X ma rozkład gamma Γ(α, λ) o gęstości gα,λ (s) = λα α−1 −λs s e 1I (0,∞) (s). Γ(α) Wtedy transformata Laplace’a X ma postać LX (θ) = λ θ+λ α . 68 Dodatek Literatura Literatura podstawowa 1. J. Jakubowski i R. Sztencel „Wstęp do teorii prawdopodobieństwa”, Script, Warszawa 2004. 2. S. I. Resnick, Adventures in Stochastic Processes, Birkhäuser, 1994. Literatura uzupełniająca 1. A.A. Borowkow, Rachunek prawdopodobieństwa, PWN, Warszawa 1975. 2. O. Häggström, Finite Markov chains and algorithmic applications, Cambridge University Press, Cambridge 2008. 69