Procesy stochastyczne Krzysztof Golec–Biernat (29 kwietnia 2017) Wersja robocza nie do dystrybucji Kraków 2006/07 2 Spis treści 1 Podstawy 5 1.1 Prawdopodobieństwo . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.2 Zmienne losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.3 Momenty zmiennej losowej . . . . . . . . . . . . . . . . . . . . . . 8 1.4 Funkcja charakterystyczna . . . . . . . . . . . . . . . . . . . . . . 8 1.5 Kumulanty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2 Przykłady rozkładów prawdopodobieństw 10 2.1 Rozkład dwumianowy . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2 Bła̧dzenie przypadkowe . . . . . . . . . . . . . . . . . . . . . . . 11 2.3 Rozkład Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.4 Rozkład Gaussa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.5 Rozkład Poissona a rozkład Gaussa . . . . . . . . . . . . . . . . . 13 2.6 Błądzenie przypadkowe a rozkład Gaussa . . . . . . . . . . . . . 14 3 Rozkłady wielu zmiennych losowych 15 3.1 Momenty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3.2 Kumulanty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 3.3 Wielowymiarowy rozkład Gaussa . . . . . . . . . . . . . . . . . . 17 3.4 Stała normalizacyjna . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.5 Funkcja charakterystyczna rozkładu Gaussa . . . . . . . . . . . . 19 4 Centralne twierdzenie graniczne 20 4.1 Twierdzenie Wicka . . . . . . . . . . . . . . . . . . . . . . . . . . 20 4.2 Centralne twierdzenie graniczne . . . . . . . . . . . . . . . . . . . 21 3 5 Procesy stochastyczne 22 5.1 Definicja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 5.2 Prawdopodobieństwo warunkowe . . . . . . . . . . . . . . . . . . 23 5.3 Procesy Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 5.4 Równanie Chapmana–Kołmogorowa–Smoluchowskiego . . . . . . 24 5.5 Stacjonarny proces Markowa . . . . . . . . . . . . . . . . . . . . 25 6 Przykłady procesów Markowa 26 6.1 Proces dwudzielny – losowego telegrafu . . . . . . . . . . . . . . . 26 6.2 Proces Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 6.3 Proces Ornsteina-Uhlenbecka . . . . . . . . . . . . . . . . . . . . 28 6.4 Proces Wienera . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 7 Równanie Master 31 7.1 Małe różnice czasów . . . . . . . . . . . . . . . . . . . . . . . . . 31 7.2 Wyprowadzenie równania Master . . . . . . . . . . . . . . . . . . 32 7.3 Równanie Master dla stanów dyskretnych . . . . . . . . . . . . . 33 8 Procesy jednokrokowe 34 8.1 Proces Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 8.2 Symetryczne bla̧dzenie przypadkowe . . . . . . . . . . . . . . . . 35 9 Równania ewolucji QCD 37 10 Równanie Fokkera-Plancka 40 10.1 Interpretacja współczynników funkcyjnych . . . . . . . . . . . . . 41 11 Ruchy Browna 43 11.1 Równanie dyfuzji . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 11.2 Bła̧dzenie przypadkowe . . . . . . . . . . . . . . . . . . . . . . . 43 11.3 Dyfuzja a procesy Wienera . . . . . . . . . . . . . . . . . . . . . 44 4 Rozdział 1 Podstawy 1.1 Prawdopodobieństwo Rachunek prawdopodobieństwa jest działem matematyki badającym własności modeli opisujących zjawiska przypadkowe. Zjawisko przypadkowe (lub statystyczne) to zjawisko, które w wyniku wielokrotnego powtarzania przy tych samych warunkach początkowych daje różne wyniki. Pojęciem pierwotnym w rachunku prawdopodobieństwa jest zdarzenie elementarne ω. Na przykład, wynik rzutu monetą - orzeł lub reszka - jest takim zdarzeniem. Zbiór zdarzeń elementarnych oznaczamy przez Ω. W naszym przykładzie Ω = {ωO , ωR } . (1.1) Niech 2Ω oznacza zbiór wszystkich podzbiorów zbioru Ω: 2Ω = {A; A ⊂ Ω} . (1.2) 2Ω = {∅, {ωO } , {ωR }, {ωO , ωR }} , (1.3) W naszym przykładzie gdzie ∅ oznacza zbiór pusty. Rodzinę zbiorów M ⊂ 2Ω nazywamy σ-algebrą zbiorów, gdy spełnione są następujące warunki: 1. Ω ∈ M 2. A ∈ M => Ω − A ∈ M 3. An ∈ M dla n = 1, 2, . . . => ∞ S n=1 5 An ∈ Ω Przykładami sigma algebry zbiorów to M = 2Ω . M = {∅, Ω} , (1.4) Elementy sigma algebry, A ∈ M, nazywamy zdarzeniami losowymi. Wprowadza się następującą terminologię: • A = ∅ nazywa się zdarzeniem niemożliwym. • A = Ω nazywa się zdarzeniem pewnym. • A0 = Ω − A nazywa się zdarzeniem przeciwnym do zdarzenia A. Odwzorowanie sigma algebry w zbiór liczb rzeczywistych P: M → R (1.5) nazywamy miarą unormowaną gdy 1. P (A) ­ 0 2. P (Ω) = 1 3. P jest funkcją przeliczalnie addytywną, tzn. P( ∞ [ An ) = n=1 ∞ X P (An ) (1.6) n=1 dla każdego ciągu zbiorów An ∈ M parami rozłacznych, tzn. Ai ∩ Aj = ∅ dla dowolnych i, j ∈ N,. Trójkę (Ω , M, P ) (1.7) nazywamy przestrzenią prawdopodobieństwa, gdy Ω 6= ∅ jest zbiorem zdarzeń elementarnych, M jest sigma algebrą zdarzeń losowych, natomiast P jest miarą unormowaną określoną na M. Nazywamy ją wtedy prawdopodobieństwem. Wypiszmy kilka własności prawdopodobieństwa: 1. P (∅) = 0 2. A ⊂ B => P (B − A) = P (B) − P (A) 3. A ⊂ B => P (A) ¬ P (B) 4. 0 ¬ P (A) ¬ 1 5. P (A0 ) = 1 − P (A) 6. P (A ∪ B) = P (A) + P (B) − P (A ∩ B) 6 Prawdopodobieństwo warunkowe zdarzenia A pod warunkiem, że zaszło zdarzenie B jest określone przez P (A|B) = P (A ∩ B) . P (B) (1.8) Zauważając, że P (A ∩ B) = P (A|B) P (B) = P (B ∩ A) = P (B|A) P (A) , (1.9) otrzymujemy wzór Bayesa P (A|B) = P (B|A) 1.2 P (A) . P (B) (1.10) Zmienne losowe Zmienną losową X jest odwzorowanie zbioru zdarzeń elementarnych w zbiór liczb rzeczywistych X : Ω → R. (1.11) W praktyce zmienna losowa jest określona jeśli podamy: (a) zbiór I jej dopuszczalnych wartości liczbowych (b) rozkład prawdopodobieństwa zadany na tym zbiorze. Zbiór dopuszczalnych wartości I może być dyskretny, ciągły lub dyskretny i ciągły. Zbiór ten może być wielowymiarowy. W przypadku pojedynczej dyskretnej zmiennej losowej rozkład prawdopodbieństwa dany jest nieujemną funkcją P (xi ) ­ 0 , i = 1, 2, . . . (1.12) unormowaną do jedynki X P (xi ) = 1 . (1.13) i Dla zmiennej losowej o wartościach ciągłych definujemy gęstością prawdopodobieństwa p(x) taką, że iloczyn p(x) dx (1.14) jest prawdopodobieństwem tego że zmienna losowa X przyjmuje wartości z przedziału (x, x + dx). Warunek unormowania przyjmuje teraz postać Z p(x) dx = 1 . I 7 (1.15) 1.3 Momenty zmiennej losowej Jeśli f (X) jest funcją liczbową określona na tym samym zbiorze co zmienna losowa X to jej wartość średnia to Z hf (X)i = f (x) p(x) dx (1.16) W szczególności m-ty moment zmiennej losowej X to Z µm = hX m i = xm p(x) dx . (1.17) Liczba µ1 to wartość średnia zmiennej losowej X, µ1 = hXi = Z x p(x) dx , (1.18) natomiast wariancja X to 2 σX = D E (X − hXi)2 = Z (x − hXi)2 p(x) dx = µ2 − (µ1 )2 . (1.19) Nie wszystkie rozkłady prawdopodobieństwa posiadają skończone momenty, na przykład rozkład Lorentza, p(x) = 1 P , π (x − a)2 + P 2 x ∈ R, (1.20) ich nie posiada. Ze względu na symetrię możemy jednak przyjąć µ1 = a. 1.4 Funkcja charakterystyczna Funkcja charakterystyczna zmiennej losowej X to D ikX G(k) = e E Z = dx eikx p(x) (1.21) |G(k)| < 1 . (1.22) I łatwo się przekonać, że zachodzi G(0) = 1 , G(k) jest funkcją tworzącą dla momentów µm . Rozwijając bowiem eksponentę pod całką w szereg Taylora znajdziemy Z G(k) = dx I ( ∞ ) X (ikx)m m=0 m! Z ∞ m X (ik) p(x) = dx xm p(x) . m! m=0 8 I i ostatecznie G(k) = ∞ X (ik)m m=0 m! µm (1.23) Stąd wynika następujący wzór dla momentów dm G = . d (ik)m k=0 µm (1.24) Tak więc pochodne G(k) w punkcie k = 0 istnieją do tego samego rzędu co momenty. 1.5 Kumulanty Logarytm funkcji charakterystycznej służy do zdefiniowania kumulant κm zmiennej losowej X ∞ X (ik)m κm ln G(k) = (1.25) m! m=0 i stąd otrzymujemy wzór dla kumulant dm ln G(k) = . d (ik)m k=0 κm (1.26) Kumulanty są kombinacjami momentów, przykładowo κ1 = µ1 κ2 = µ2 − µ21 = σ 2 κ3 = µ3 − 3 µ2 µ1 + 2 µ31 κ3 = µ4 − 4 µ3 µ1 − 3 µ22 + 12 µ2 µ21 − 6 µ41 . (1.27) Pierwsza kumulanta jest więc równa wartości średniej zmiennej µX losowej, a 2 . druga jej wariancji σX 9 Rozdział 2 Przykłady rozkładów prawdopodobieństw 2.1 Rozkład dwumianowy Rozpatrzmy N prób. Pytamy jakie jest prawdopodobieństwo n sukcesów jeśli prawdopodbieństwo pojedynczego sukcesu wynosi p. Jesli próby są niezależne to prawdopobieństwo jest iloczynem trzech czynników: • liczby sposobów, na które n sukcesów realizuje się w N próbach: N n • prawdopodobieństwa odniesienia n sukcesów: pn • prawdopodbieństwa porażki w pozostałych próbach: (1 − p)N −n . Stąd wzór dla rozkładu dwumianowego, w którym zmienna losowa przyjmuje skończoną liczbę wartości, n = 0, 1, 2, . . . , N : ! PN (n, p) = N n p (1 − p)N −n n (2.1) gdzie symbol Newtona N n ! = N! n!(N − n)! (2.2) Prawdopodobieństwo p jest parametrem tego rozkładu. Jest on unormowany do jedynki N X n=0 PN (n, p) = N X N n=0 n ! pn (1 − p)N −n = (p + 1 − p)N = 1 . 10 (2.3) Funkcja charakterystyczna rozkładu dwumianowego to GN (k) = N X ikn e PN (n, p) = n=0 N X N n=0 ! (eik p)n (1 − p)N −n n = (1 − p + eik p)N . (2.4) Stąd funkcjonał generujący dla kumulant ln GN (k) = N ln(1 + p (eik − 1)) (2.5) Licząc kumulanty ze wzoru (1.26), znajdujemy wartość średnią i dyspersję 2.2 p eik κ1 = µ 1 = N = Np 1 + p (eik − 1) k=0 (2.6) κ2 = σ 2 = N p (1 − p) . (2.7) Bła̧dzenie przypadkowe Szczególnym przypadkiem rozkładu dwumianowego jest rozkład opisujący jednowymiarowe błądzenie przypadkowe z równymi prawdopodobieństwami ruchu w prawo i w lewo, p = q = 1/2, ! 1 N . PN (n, 1/2) = N 2 n (2.8) Wartość średnia i dyspersja w tym przypadku to µ1 (n) = N , 2 σ 2 (n) = N . 4 (2.9) Sumaryczne przesunięcie r z punktu startowego po N krokach jest zmienną losową równą r = n − (N − n) = 2n − N . (2.10) o zakresie −N ¬ r ¬ N . Zauważmy, że r i N są obie parzyste lub nieparzyste. Rozkład prawdopodobieństwa r otrzymujemy z rozkładu (2.8) wyliczając n = (N + r)/2 z (2.10) i podstawiając do (2.8), PN (r) = 1 N! . N 2 ((N − r)/2)!((N + r)/2)! (2.11) Wartośc średnia i dyspersja sumarycznego przesunięcia to odpowiednio σ 2 (r) = N . µ1 (r) = 0 , 11 (2.12) 2.3 Rozkład Poissona Dla dużej liczby prób N i małego prawdopodbieństwa pojedynczego sukcesu rozkład dwumianowy przechodzi w rozkład Poissona w następującej granicy N → ∞, p → 0, N p = µ = const . (2.13) Podstawiając p = µ/N do (2.1), otrzymujemy PN µ n, N N! = n! (N − n)! µ N n µ 1− N N −n N! 1 = n (N − n)! N (1 − µ/N )n n µ N (N − 1) . . . (N − n + 1) (N − µ)n n µ = (1 − N1 ) . . . (1 − n−1 N ) = µ n (1 − N ) n! n! n µ n! µ 1− N 1− µ 1− N µ N N N N (2.14) Wykonając granicę N → ∞ przy ustalonej liczbie sukcesów n, znajdujemy lim PN N →∞ µ n, N µ µn = lim 1 − n! N →∞ N N = µn −µ e . n! (2.15) Stąd rozkład Poissona zmiennej losowej n = 0, 1, 2, . . . P (n, µ) = µn −µ e . n! (2.16) Jest to rozkład unormowany do jedynki ∞ X −µ P (n, µ) = e n=0 ∞ X µn n=0 n! = e−µ e µ = 1 . (2.17) Policzmy funkcję charakterystyczną G(k) = ∞ X eikn P (n, µ) = e−µ n=0 ∞ X (eik µ)n n! n=0 = e−µ exp{eik µ} = exp{µ (eik − 1)} . (2.18) Stąd funkcjonał generujący dla kumulant ln G(k) = µ (eik − 1) = ∞ X (ik)m m=1 m! µ. (2.19) Widzimy, że wszystkie kumulanty są identyczne i równe wartości średniej κm = µ (2.20) Stąd wartość średnia i wariancja rozkładu Poissona są sobie równe σ 2 = hni = µ . 12 (2.21) 2.4 Rozkład Gaussa Rozkład Gaussa jest określony dla zmiennej losowej X o wartościach rzeczywistych x ∈ (−∞, ∞): 1 2 2 e−(x−µ) /2 σ p(x) = √ (2.22) 2πσ 2 Normalizacja jest tak dobrana, że rozkład jest unormowany do jedynki Z∞ dx p(x) = 1 . (2.23) −∞ Licząc funkcję charakterystyczną otrzymujemy Z∞ G(k) = 1 eikx P (x) dx = eikµ− 2 σ 2 k2 . (2.24) −∞ Stąd funkcjonał generujący dla kumulant (ik)2 2 1 σ . ln G(k) = ikµ − σ 2 k 2 = ikµ + 2 2! (2.25) Wykorzystując definicję (1.25), znajdujemy różne od zera tylko dwie pierwsze kumulanty κ1 = µ , κ2 = σ 2 , κk>2 = 0 . (2.26) Z relacji (1.27) wynika, że√µ to wartość średnia, a σ 2 to wariancja zmiennej losowej X. Wielkość σ = σ 2 to dyspersja, która określa szerokość rozkładu Gaussa. 2.5 Rozkład Poissona a rozkład Gaussa Dla dużych wartości parametru µ 1, rozkład Poissona, P (n, µ) = µn −µ e , n! (2.27) dąży do rozkładu Gaussa dla wartości zmiennej losowych n bliskich µ, n ≈ µ. Korzystając ze wzoru Stirlinga dla dużych n √ (2.28) n! ≈ nn e−n 2πn , zapiszemy wzór (2.27) w postaci P (n, µ) ≈ √ 1 en ln µ−µ 1 = √ en−µ + n ln(µ/n) . n ln n−n e 2πn 2πn (2.29) Dla wartości n ≈ µ możemy rozwinąć ln(µ/n) = ln(1 + (µ/n − 1)) ≈ (µ/n − 1) − 21 (µ/n − 1)2 . 13 (2.30) Stąd otrzymujemy 1 2 P (n, µ) ≈ √ e−(n−µ) /(2n) . 2πn (2.31) Wykorzystując następnie warunek n ≈ µ, znajdujemy rozkład Gaussa, P (n, µ) ≈ √ o wartości średniej µ i szerokości 2.6 √ 1 2 e−(n−µ) /(2µ) , 2πµ (2.32) µ Błądzenie przypadkowe a rozkład Gaussa Dla dużej liczby kroków N , rozkład (2.11) błądzenia przypadkowego jest bliski rozkładowi Gaussa. Korzystając ze wzoru Stirlinga (2.28) znajdujemy 1 N! N 2 ((N − r)/2)!((N + r)/2)! √ N N 2πN p ≈ (N − r)(N −r)/2 (N + r)(N +r)/2 π 2 (N − r)(N + r) PN (r) = s 2 1 2πN (1 − r2 /N 2 ) (1 − r/N )(N −r)/2 (1 + r/N )(N +r)/2 s 2 N −r N +r exp − ln(1 − r/N ) − ln(1 + r/N ) 2 2 2πN (1 − r /N ) 2 2 = = r 1 N −r p − exp − 2 N 2π(N/2) ≈ ( 1 r2 = p exp − 2(N/2) 2π(N/2) N +r − 2 r N ) , (2.33) gdzie wykorzystaliśmy przybliżenie r N . Otrzymaliśmy rozkład Gaussa o wartości średniej i dyspersji równej, odpowiednio, σ 2 (r) = µ1 (r) = 0 , 14 N . 2 (2.34) Rozdział 3 Rozkłady wielu zmiennych losowych Dla wielu zmiennych losowych X1 , X2 , . . . , Xn definiuje się łączny rozkład gęstości prawdopodobieństwa, Pn (x1 , x2 , . . . , xn ) ­ 0 , (3.1) że przyjmują one wartości odpowiednio z przedziałów (xi , xi + dxi ). Rozkład ten jest unormowany do jedynki. Z Pn (x1 , . . . , xn ) dx1 . . . dxn = 1 . (3.2) Całkując po k < n zmiennych otrzymuje sie rozkłady brzegowe Z Pm (x1 , . . . , xm ) = Pn (x1 , . . . , xm , xm+1 , . . . , xn ) dxm+1 . . . dxn (3.3) Jeżeli zmienne losowe Xi są niezależne to rozkład (3.1) jest iloczynem rozkładów prawdopodobieństwa poszczególnych zmiennych losowych Pn (x1 , x2 , . . . , xn ) = n Y P (i) (xi ) (3.4) i=1 3.1 Momenty Dla rozkładów wielu zmiennych losowych funkcja charakterystyczna to transformata Fouriera Z Gn (k1 , . . . , kn ) = ei(k1 x1 +...+kn xn ) Pn (x1 , . . . , xn ) dx1 . . . dxn . (3.5) Jeśli zmienne losowe są niezależne to z (3.4) wynika wzór Gn (k1 , . . . , kn ) = n Y i=1 15 G(i) (ki ) , (3.6) gdzie G(i) (ki ) to funkcje charakterystyczne rozkładów pojedynczej zmiennej. Momenty wielowymiarowego rozkładu hX1m1 . . . Xnmn i Z = mn 1 xm 1 . . . xn Pn (x1 , . . . , xn ) dx1 . . . dxn . (3.7) są generowane przez rozwinięcie funkcji charakterystycznej w szereg Taylora ∞ X Gn (k1 , . . . , kn ) = (m1 ...mn (ik1 )m1 . . . (ikn )mn hX1m1 . . . Xnmn i (m )! . . . (m )! 1 n )=0 (3.8) gdzie sumujemy po wszystkich ciągach n-wyrazowych (m1 , . . . , mn ). 3.2 Kumulanty Wielowymiarowe kumulanty hhX1m1 . . . Xnmn ii definiujemy poprzez rozwinięcie w szereg Taylora logarytmu funkcji charakterystycznej (3.8): ∞ X ln Gn (k1 , . . . , kn ) = (m1 ...mn (ik1 )m1 . . . (ikn )mn hhX1m1 . . . Xnmn ii (m )! . . . (m )! 1 n )0 =0 (3.9) gdzie z sumowania wyłaczony jest człon z m1 = . . . = mn = 0. Ważną kumulantą jest (n × n) wymiarowa macierz kowariancji hhXi Xj ii = h(Xi − hXi i)(Xj − hXj i)i = hXi Xj i − hXi i hXj i . (3.10) Diagonalne elementy tej macierzy to wariancje poszczególnych zmiennych losowych, σi2 = Xi2 = Xi2 − (hXi i)2 , (3.11) natomiast elementy pozadiagonalne to kowariancje. covij = Xi Xj , i 6= j . (3.12) Współczynniki korelacji to hhXi Xj ii ρij = q . Xi2 Xj2 (3.13) Rozważmy przypadek n = 2 ze zmiennymi losowymi X1 i X2 . Zmienne są statystycznie niezależne jeśli spełniony jest któryś spośród poniższych warunków. Implikuje on wtedy pozostałe. • wszystkie momenty faktoryzują się: hX1m1 X2m2 i = hX1m1 i hX2m2 i 16 • funkcja charakterystyczna faktoryzuje się: G(k1 , k2 ) = G1 (k1 )G2 (k2 ) • kumulanty znikają: hhX1m1 X2m2 ii = 0 , jeśli m1 , m2 6= 0. Słabszym warunkiem od statystycznej niezależności jest brak korelacji, co wyraża się znikaniem kowariancji hhX1 X2 ii = 0 . 3.3 (3.14) Wielowymiarowy rozkład Gaussa Wprowadzając notację wektorową x = (x1 , x2 , . . . , xn ) wielowymiarowy rozkład Gaussa jest określony przez wzór n Pn (x) = C exp − 12 xT A x + bT x o (3.15) gdzie A = AT jest dodatnio określoną macierzą symetryczną o wymiarze (n×n), natomiast b jest stałym wektorem n-wymiarowym. Stała C jest tak dobrana by rozkład P (x) był unormowany do jedynki Z dn x Pn (x) = 1 . (3.16) gdzie dn x = dx1 dx2 . . . dxn . Tak więc należy policzyć C 3.4 −1 Z = n o dn x exp − 12 xT A x + bT x . (3.17) Stała normalizacyjna Z symetryczności macierzy A wynika, że istnieje macierz ortogonalna O, diagonalizująca A Λ = diag(λ1 , λ2 , . . . , λn ) = OT AO . (3.18) Z dodatniej określoności A wynika, że wartości własne λi > 0. Ponadto Λ−1 = diag 1 1 1 , ,..., λ1 λ2 λn = O−1 A−1 (OT )−1 = OT A−1 O , gdyż własność ortogonalności macierzy O prowadzi do O−1 = OT . 17 (3.19) Wykonując więc transformację x = Oy we wzorze (3.17), dostajemy C −1 = = Z n dn y exp − 12 yT Λ y + (OT b)T y n Z∞ Y o o n dyi exp − 12 λi yi2 + b0i yi , (3.20) i=1−∞ gdzie wprowadziliśmy oznaczenie b0i = (b0 )i = (OT b)i . Wykładnik eksponenty można zapisać w następującej formie b0 λi 2 yi − 2 i yi 2 λi − λi b0 yi − i 2 λi =− 2 + b0i 2 . 2λi (3.21) Zmieniając więc zmienne s x0i i pamiętając, że = Z∞ b0 λi yi − i 2 λi 2 dx e−x = √ , (3.22) π, (3.23) −∞ znajdujemy s C −1 = s = n 02 bi 2n 1X exp λ1 . . . λ n 2 i=1 λi ) n Z∞ Y n 02 bi 1X (2π)n exp λ1 . . . λ n 2 i=1 λi ) ( ( 02 dx0i e−xi i=1 −∞ . (3.24) Iloczyn wartości własnych jest równy wyznacznikowi macierzy Λ, stąd λ1 . . . λn = det Λ = det A (det O)2 = det A . (3.25) gdyż det O = 1. Korzystając z wzoru (3.19) możemy zapisać sumę z eksponenty we wzorze (3.24) w postaci: n 02 X b i i=1 λi = (b0 )T Λ−1 b0 = bT (O Λ−1 OT ) b = bT A−1 b . (3.26) Ostatecznie otrzymujemy s C −1 = (2π)n exp{ 12 bT A−1 b} det A (3.27) i stała normalizacyjna rozkładu Gaussa wynosi s C = det A exp{− 12 bT A−1 b} (2π)n 18 (3.28) łącząc wzór (3.19) z wynikiem (3.27), otrzymujemy przy tej okazji następujący ważny wzór Z 3.5 s n o dn x exp − 12 xT A x + bT x = (2π)n exp{ 12 bT A−1 b} det A (3.29) Funkcja charakterystyczna rozkładu Gaussa Obliczmy funkcję charakterystyczną rozkładu Gaussa (3.15) Z Gn (k) = dn x eik·x Pn (x) Z dn x exp − 12 xT A x + (b + ik)T x s (2π)n exp{ 12 (b + ik)T A−1 (b + ik)}. det A = C = C n o (3.30) Stąd po podstawieniu wartości stałej normalizacyjnej, znajdujemy Gn (k) = exp{− 12 kT A−1 k + i kT A−1 b} (3.31) Logarytm funkcji korelacji to ln Gn (k) = − 12 kT A−1 k + i kT A−1 b n X (iki )(ikj ) = i,j=1 2 (A−1 )ij + n X (iki )(A−1 b)i . (3.32) i=1 Stąd jedynie niezerowe kumulanty to wartości średnie hXi i = hhXi ii = (A−1 b)i (3.33) hhXi Xj ii = (A−1 )ij . (3.34) oraz macierz kowariancji Rozkład Gaussa jest więc całkowicie określony przez wartości średnie i macierz kowariancji zmiennych. Jeżeli zmienne losowe nie są skorelowane, tzn. hhXi Xj ii ∼ δij , to macierz A−1 jest diagonalna, a zatem i A jest diagonalna. Wtedy wielowymiarowy rozkład Gaussa faktoryzuje się co oznacza, że zmienne losowe są statystycznie niezależne. Tak więc dla rozkładu Gaussa brak korelacji oznacza niezależność statystyczną. Niezależność tą można zawsze uzyskać dokonując liniowej transformacji zmiennych (3.22). 19 Rozdział 4 Centralne twierdzenie graniczne 4.1 Twierdzenie Wicka Rozważmy rozkład Gaussa z b = 0: n o Pn (x) = C exp − 12 xT A x , (4.1) co oznacza, że wartość średnia każdej zmiennej losowej jest równa zeru. Wtedy zachodzi hhXi Xj ii = hXi Xj i = (A−1 )ij , (4.2) a funkcja charakterystyczna to n Gn (k) = exp − 12 kT A−1 k n X = exp − 21 o (A−1 )ij ki kj i,j=1 n Y = n o exp − 21 (A−1 )ij ki kj . (4.3) i,j=1 Rozwijając eksponentę w szereg Taylora, znajdujemy Gn (k) = n Y ∞ X 1 (iki )(ikj ) i,j=1 m=0 = m! n Y i,j=1 2 m hXi Xj i (iki )(ikj ) 1+ hXi Xj i + . . . . 2 (4.4) W sumie występuje tylko parzysta liczba czynników (iki ). Oznacza to, że różne od zera są tylko momenty z parzystą liczbą (m1 + . . . + mn ) we wzorze Gn (k) = ∞ X (m1 ...mn (ik1 )m1 . . . (ikn )mn hX1m1 . . . Xnmn i . (m1 )! . . . (mn )! )=0 20 (4.5) Interesują nas momenty z mi ¬ 1, hXi1 Xi2 . . . Xi2k i , (4.6) w których liczba składników jest parzysta, a wskaźniki różnią się między sobą i1 < i2 < . . . < i2k . (4.7) Wtedy wyrażenia reprezentowane przez kropki w (4.4) nie dają wkładu do momentów. Porównując prawe strony wyrażeń (4.5) i (4.4), otrzymujemy hXi1 Xi2 . . . Xi2k i = X hXi Xj i hXk Xl i . . . hXm Xn i , (4.8) gdzie sumowujemy po wszystkich podziałach ciągu (i1 , i2 , . . . i2k ) na uporządkowane pary. Liczba takich podziałów to (2k − 1)(2k − 3) . . . 3 · 1 = (2k)! . 2k k! (4.9) Czynnik 1/2 ze wzoru (4.4) nie pojawia się po prawej stronie (4.8), gdyż każda para wskaźników występuje dwukrotnie w iloczynie w tym wzorze. Przykładowo, dla k = 2 znajdujemy hX1 X2 X3 X4 i = hX1 X2 i hX3 X4 i + hX1 X3 i hX2 X4 i + hX1 X4 i hX2 X3 i . 4.2 Centralne twierdzenie graniczne Rozważmy n niezależnych zmiennych losowych X1 , X2 , . . . , Xn posiadających taką samą wartość średnią µ i wariancję σ 2 . Poza tym ich indywidualne rozkłady prawdopodobieństwa są dowolne. Centralne twierdzenie graniczne orzeka, że dla n → ∞, zmienna losowa Y = X1 + X2 + . . . + Xn − nµ √ σ n (4.10) jest opisywana rozkładem Gaussa z wartością średnią hY i = 0 i wariancją σ 2 = 1. Dowód przeprowadzimy definiując nowe zmienne losowe X i = Xi − µ, dla których wartość średnia X i = 0. Nie wpływa to na wariancje, gdyż dla nowej zmiennej mamy 2 σX 2 = X i = (Xi − µ)2 = σ 2 . (4.11) i Funkcja charakterystyczna zmiennej Y to Z G(k) = = eik(x1 +...+xn )/(σ n Y i=1 G (i) k √ σ n √ = n) P (1) (x1 ) . . . P (n) (xn ) dx1 . . . dxn k2 1− + ... 2n !n 1 2 → e− 2 k . W granicy dużych n otrzymaliśmy funkcję charakterystyczną rozkładu Gaussa (2.24) o zerowej wartości średniej i wariancji σ 2 = 1. Zaniedbane wyrazy w nawiasie są co najmniej rzędu 1/n2 i mogą być pominięte w rozważanej granicy. 21 Rozdział 5 Procesy stochastyczne 5.1 Definicja Funkcja losowa Y to odwzorowanie liczb rzeczywistych w zbiór zmiennych losowych Y : t → Y (t) . (5.1) W zależności od tego jaką zmienną jest t, funkcję losową nazywamy • procesem stochastycznym gdy t ∈ [0, ∞), • łańcuchem stochastycznym, gdy t ∈ Z, • polem stochastycznym jeśli t ∈ RD . Proces stochastyczny jest całkowicie określony poprzez zbiór łącznych (gęstości) prawdopodobieństw dla dowolnych chwil ti : Pn (y1 , t1 ; . . . ; yn , tn ) , n = 1, 2, . . . . (5.2) W przypadku ciągłych wartości zmiennych losowych, wielkość Pn (y1 , t1 ; . . . ; yn , tn ) dy1 dy2 . . . dyn (5.3) określa prawdopodobieństwo, że zmienne losowe Yi (ti ) przyjmują wartości z przedziałów, odpowiednio, (yi , yi + dyi ). Zbiór łącznych (gęstości) prawdopodbieństw nazywamy hierarchią. Znajomość hierarchii pozwala policzyć każdą średnią, na przykład hY (t1 ) . . . Y (tn )i = Z y1 . . . yn Pn (y1 , t1 ; . . . ; yn , tn ) dy1 . . . dyn . Hierarchia (5.2) spełnia cztery podstawowe warunki zgodności: 22 (5.4) (i) Pn ­ 0 (ii) Pn nie zmienia się przy zamianie dwóch par (yk , tk ) i (yl , tl ) (iii) R Pn (y1 , t1 ; . . . ; yn , tn ) dyn = Pn−1 (y1 , t1 ; . . . ; yn−1 , tn−1 ) (iv) R P1 (y1 , t1 ) dy1 = 1 Kolmogorow udowodnił, że każdy układ funkcji spełniających te cztery własności wyznacza pewien proces stochastyczny Y (t). Proces stochastyczny jest stacjonarny jeśli wszystkie Pn zależa jedynie od różnic czasów: Pn (y1 , t1 + τ ; . . . ; yn , tn + τ ) = Pn (y1 , t1 ; . . . ; yn , tn ) (5.5) Dla rozkładu P1 zachodzi wtedy P1 (y1 , t1 + τ ) = P1 (y1 , t1 ) . (5.6) Tak więc, warunkiem koniecznym, ale niewystarczającym by proces był stacjonarny jest by P1 nie zależało od czasu. 5.2 Prawdopodobieństwo warunkowe Prawdopodobieństwo warunkowe zdefiniowane poniżej P1|1 (y2 , t2 | y1 , t1 ) = P2 (y2 , t2 ; y1 , t1 ) P1 (y1 , t1 ) (5.7) określa prawdopodobieństwo że dla t2 zmienna losowa Y (t2 ) = y2 pod warunkiem, że dla t1 zmienna losowa przyjmuje wartość Y (t1 ) = y1 . Prawdopodobieństwo warunkowe jest nieujemne i unormowane Z dy2 P1|1 (y2 , t2 | y1 , t1 ) = 1 (5.8) Ogólnie, ustalając wartości zmiennej losowej Y (t) w k zadanych chwilach, pytaamy jakie jest prawdopodobieństwo przyjęcia określonych wartości w l innych chwilach. Wprowadzając oznaczenie k = (yk , tk ) (5.9) otrzymujemy następujący wzór na prawdopodbieństwo warunkowe Pl|k (k + l . . . k + 1|k . . . 1) = Pk+l (k + l . . . k + 1, k . . . 1) . Pk (k . . . 1) (5.10) Warunek unormowania przyjmuje teraz postać Z dyk+l . . . dyk+1 Pl|k (k + l . . . k + 1|k . . . 1) = 1 . (5.11) Dodajmy, że uporządkowanie czasowe nie odgrywa roli w podanych definicjach, ze względu na własność (ii) hierarchii. 23 5.3 Procesy Markowa Jest to proces stochastyczny o własności takiej, że dla każdego zbioru kolejnych chwil tn > . . . > t 2 > t 1 (5.12) zachodzi następujący warunek dla prawdopodobieństwa warunkowego P1|(n−1) (yn , tn | yn−1 , tn−1 ; . . . ; y1 , t1 ) = P1|1 (yn , tn | yn−1 , tn−1 ) (5.13) Tym samym rozkład P1|(n−1) zależy tylko od chwili tn−1 i żadna informacja o chwilach wcześniejszych nie ma na niego wpływu. Wielkość P1|1 nazywamy prawdopodobieństwem przejścia. Wprowadzając oznacznie k ≡ (yk , tk ) , (5.14) zapiszemy warunek Markowa w postaci P1|(n−1) (n | n − 1; . . . ; 1) = P1|1 (n | n − 1) (5.15) Proces Markowa jest określony przez prawdopodobieńtwo jednocząstkowe P1 oraz prawdopodobieństwo przejścia P1|1 . Na ich podstawie można odtworzyć całą hierarchię prawdopodobieństw. Na przykład, dla rozkładu dwucząstkowego z t2 > t1 otrzymujemy ze definicji prawdopodobieństwa warunkowego P2 (2, 1) = P1|1 (2 | 1) P1 (1) . (5.16) Podobnie, dla rozkładu trójcząstkowego z t3 > t2 > t1 , korzystając dodatkowo z definicji procesów Markowa, mamy P3 (3, 2, 1) = P1|1 (3 | 2, 1) P2 (2, 1) = P1|1 (3 | 2) P1|1 (2 | 1) P1 (1) . (5.17) Powyższe równania służa do wyprowadzenia podstawowych równań jakie muszą spełniać P1 i P1|1 w procesach Markowa. 5.4 Równanie Chapmana–Kołmogorowa–Smoluchowskiego Całkując obie strony równania (5.16) po y1 znajdujemy warunek dla prawdopodobieństwa jednocząstkowego Z P1 (y2 , t2 ) = dy1 P1|1 (y2 , t2 | y1 , t1 ) P1 (y1 , t1 ) (5.18) Zapisując to równanie dla t1 = t2 otrzymujemy dodatkowy warunek P1|1 (y2 , t1 | y1 , t1 ) = δ(y2 − y1 ) . 24 (5.19) Całkując obie strony równania (5.17) po y2 otrzymujemy Z P2 (y3 , t3 ; y1 , t1 ) = P1 (y1 , t1 ) dy2 P1|1 (y3 , t3 | y2 , t2 ) P1|1 (y2 , t2 | y1 , t1 ) . Dzieląc obie strony przez P1 (y1 , t1 ), a następnie korzystając z definicji prawdopodobieństwa warunkowego (5.7), otrzymujemy równania Chapmana–Kolmogorowa–Smoluchowskiego-Einsteina dla prawdopodobieństw przejścia P1|1 (y3 , t3 | y1 , t1 ) = Z dy2 P1|1 (y3 , t3 | y2 , t2 ) P1|1 (y2 , t2 | y1 , t1 ) (5.20) Każde dwie nieujemne funkcje P1 i P1|1 spełniające równania (5.18) i (5.20) definiują jednoznacznie proces Markowa. 5.5 Stacjonarny proces Markowa Definiuje się stacjonarne procesy Markowa, dla których P1 nie zależy od czasu, natomiast P1|1 zależy od czasów poprzez ich różnicę P1|1 (y2 , t2 | y1 , t1 ) = P1|1 (y2 | y1 ; t2 − t1 ) (5.21) Wtedy funkcje hierarchii (5.2) spełniają warunek stacjonarności (5.5). Na przykład, dla funkcji dwucząstkowej zachodzi P1|1 (y2 , t2 + τ | y1 , t1 + τ ) = P1|1 (y2 | y1 ; t2 − t1 ) = P1|1 (y2 , t2 | y1 , t1 ) . Warunki konsystencji przyjmują teraz postać 0 P1|1 (y3 | y1 ; τ + τ ) = Z Z P1 (y2 ) = dy2 P1|1 (y3 | y2 ; τ 0 ) P1|1 (y2 | y1 ; τ ) (5.22) dy1 P1|1 (y2 | y1 ; τ ) P1 (y1 ) (5.23) W dalszych rozważaniach przyjmiemy oznaczenie P1|1 (y2 | y1 ; τ ) ≡ Pτ (y2 | y1 ) . 25 (5.24) Rozdział 6 Przykłady procesów Markowa 6.1 Proces dwudzielny – losowego telegrafu Jest to proces, w którym zmienna losowa przyjmuje wartości y ∈ {−1, 1}, natomiast prawdopodobieństwo przejścia jest jednorodne w czasie i zadane przez 0 0 P1|1 (y, t | y 0 , t0 ) = 12 {1 + e−2(t−t ) } δyy0 + 21 {1 − e−2(t−t ) } δy(−y0 ) (6.1) Ponadto prawdopodbieństwo jednocząstkowe jest niezależne od czasu i równe P1 (1, t) = P1 (−1, t) = 1 2 . (6.2) Otrzymujemy więc proces stacjonarny. Możemy wtedy użyć oznaczeń z poprzedniego rozdziału i zapisać prawdpodobieństwa przejścia między poszczególnymi stanami w następującej postaci Pτ (1|1) = Pτ (−1| − 1) = 12 {1 + e−2τ } Pτ (−1|1) = Pτ (1| − 1) = 12 {1 − e−2τ } (6.3) (6.4) łatwo sprawdzić warunki unormowania sumy prawdopodobieństw przejścia z danego stanu początkowego do dowolnego stanu końcowego Pτ (1|1) + Pτ (−1|1) = Pτ (1| − 1) + Pτ (−1| − 1) = 1 . (6.5) łatwo też sprawdzić, że spełnione są równania Chapmana-Kołmogorowa, np. dla stanów y3 = y1 = 1 zachodzi Pτ 0 +0 (1|1) = Pτ 0 (1| − 1) Pτ (−1|1) + Pτ 0 (1|1) Pτ (1|1) = 1 −2τ 0 }{1 − e−2τ } 4 {1 − e = −2(τ 0 +τ ) 1 }. 2 {1 + e 26 0 + 41 {1 + e−2τ }{1 + e−2τ } (6.6) Podobnie dlo pozostałych konfiguracji stanów. Ponadto, spełnione jest równanie (5.18). Na przykład P1 (1, t) = Pt (1|1) P1 (1, 0) + Pt (1| − 1) P1 (−1, 0) = 1 −2τ } 4 {1 + e + 41 {1 − e−2τ } = 1 2 (6.7) i podobnie P1 (−1, t) = 12 . Prawdopodbieństwo jednocząstkowe rzeczywiście nie zmienia się z czasem. 6.2 Proces Poissona W procesie tym zmienna losowa przyjmuje wartości dyskretne n = 0, 1, 2, . . .. Prawdopodobieństwo przejścia dla chwil t2 ­ t1 ­ 0 oraz n2 ­ n1 to P1|1 (n2 , t2 | n1 , t1 ) = (t2 − t1 )n2 −n1 −(t2 −t1 ) e . (n2 − n1 )! (6.8) Dodatkowo, w chwili początkowej prawdopodobieństwo jednocząstkowe jest zadane przez P1 (n, 0) = δn0 . (6.9) Stąd wzór na prawdopodobieństwo jednocząstkowe w dowolnej chwili czasu zgodny z relacją (5.18) X P1|1 (n, t | m, 0) P1 (m, 0) = P1|1 (n, t | 0, 0) = m tn −t e = P1 (n, t) . n! (6.10) Proces Poissona nie jest stacjonarny, gdyż prawdpodobieństwo jednocząstkowe (6.11) zależy od czasu. P1 (n, t) opisuje rozkład prawdopodobieństwa liczby znaków punktowych wygenerowanych w przedziale czasowym [0, t]. Udowodnijmy jeszcze, że spełnione jest równanie Chapmana-Kołmogorowa. Dla t3 ­ t2 ­ t1 ­ 0 oraz n3 ­ n2 ­ n1 zachodzi P1|1 (n3 , t3 | n1 , t1 ) = n3 X P1|1 (n3 , t3 | n2 , t2 ) P1|1 (n2 , t2 | n1 , t1 ) n2 ­n1 = n3 X (t3 − t2 )n3 −n2 −(t3 −t2 ) (t2 − t1 )n2 −n1 −(t2 −t1 ) e e n2 ­n1 (n3 − n2 )! (n2 − n1 )! n3 (t3 − t2 )n3 e−(t3 −t1 ) X t2 − t1 n2 (n3 − n1 )! = n 1 (t2 − t1 ) (n3 − n1 )! n ­n t3 − t2 (n3 − n2 )! (n2 − n1 )! 2 1 27 (6.11) Wyrażenie z sumą po zmianie wskaźnika na n02 = n2 − n1 to n3X −n1 n02 =0 = = = t2 − t1 t3 − t2 n0 +n1 2 (n3 − n1 )! (n3 − n1 − n02 )! (n02 )! t2 − t1 t3 − t2 ! n1 n3X 0 −n1 n3 − n1 t2 − t1 n2 t2 − t1 t3 − t2 n1 n02 =0 1+ n02 t2 − t1 t3 − t2 t3 − t2 n3 −n1 = t2 − t1 t3 − t2 n1 t3 − t1 t3 − t2 n3 −n1 (t2 − t1 )n1 (t3 − t1 )n3 −n1 (t3 − t2 )n2 Podstawiając do wzoru (6.11) otrzymamy oczekiwany wynik P1|1 (n3 , t3 | n1 , t1 ) = (t3 − t1 )n3 −n1 −(t3 −t1 ) e . (n3 − n1 )! (6.12) Wzór (5.18) można udowodnić korzystając z relacji P1 (n, t) = P1|1 (n, t | 0, 0) i równania Chapmana-Kołmogorowa: P1 (n2 , t2 ) = P1|1 (n2 , t2 | 0, 0) = X P1|1 (n2 , t2 | n1 , t1 ) P1|1 (n1 , t1 | 0, 0) n1 = X P1|1 (n2 , t2 | n1 , t1 ) P1 (n1 , t1 ) . (6.13) n1 6.3 Proces Ornsteina-Uhlenbecka Jest to proces stacjonarny zdefiniowany zdefiniowany dla zmiennej losowej przyjmującej wartości rzeczywiste, −∞ < y < ∞, poprzez n o 1 P1 (y) = √ exp − 12 y 2 2π (6.14) ( 1 (y2 − y1 e−τ )2 Pτ (y2 | y1 ) = p exp − 2(1 − e−2τ ) 2π(1 − e−2τ ) ) . (6.15) Sprawdzimy, że spełnione jest równanie Chapmana-Kołomogorowa. Wprowadzając oznaczenie: ∆τ = 1 − e−2τ , otrzymujemy Pτ 0 +τ (y3 | y1 ) = 1 = p 2 (2π) ∆τ 0 ∆τ Z ∞ −∞ dy2 Pτ 0 (y3 | y2 ) Pτ (y2 | y1 ) 0 ( (y3 − y2 e−τ )2 (y2 − y1 e−τ )2 dy2 exp − − 2∆τ 0 2∆τ −∞ Z ∞ 28 ) (6.16) Wykładnik w eksponcie możemy zapisać w następujący sposób 0 ( ∆τ +τ 0 (y3 − y1 e−(τ +τ ) )2 exp − (y2 − a)2 − ∆τ ∆τ 0 2∆τ +τ 0 ) gdzie a jest wyrażeniem niezależnym od y2 . Całkując po tej zmiennej w równaniu (6.16) zgodnie ze wzorem Z ∞ −Ay 2 /2 dy e r = −∞ 2π , A (6.17) otrzymujemy oczekiwany wynik 1 Pτ 0 +τ (y3 | y1 ) = p 2 (2π) ∆τ 0 ∆τ s 0 ( ∆τ ∆τ 0 (y3 − y1 e−(τ +τ ) )2 2π exp − ∆τ +τ 0 2∆τ +τ 0 ( 0 (y3 − y1 e−(τ +τ ) )2 exp − = q 2(1 − e−2(τ +τ 0 ) ) 2π(1 − e−2(τ +τ 0 ) ) 1 ) ) . (6.18) Równanie konsystencji (5.18) jest również spełnione na mocy związku P1 (y) = lim Pτ (y | y1 ) τ →∞ (6.19) i równania Chapmana-Kołomogorowa, w którym wykonujemy powyższą granicę. Wartość średnia dla procesu Ornsteina-Uhlenbecka jest równa zeru h Y (t)i = Z y P1 (y) dy = 0 , (6.20) natomiast dwupunktowa funkcja autokorelacji to κ(τ ) = h Y (t + τ )Y (t)i = Z y1 y2 P2 (y2 , t + τ ; y1 , t) dy1 dy2 Z = y1 y2 Pτ (y2 | y1 ) P1 (y1 ) dy1 dy2 = e−τ . Twierdzenie Dooba orzeka, że jest to jedyny proces Markowa, który jest stacjonarny i gausowski. 6.4 Proces Wienera Bardzo ważnym procesem Markowa jest proces Wienera, w którym zmienna losowa przyjmuje wartości rzeczywiste −∞ < y < ∞. Opisuje on losowe położenie cząstki Browna, co pokażemy w jednym z dalszych rodziałów. 29 Prawdopodobieństwo przejścia jest zdefiniowane dla t2 > t1 wzorem: ( 1 (y2 − y1 )2 P1|1 (y2 , t2 | y1 , t1 ) = p exp − 2(t2 − t1 ) 2π(t2 − t1 ) ) . (6.21) Dodatkowo zakładamy, że dla t = 0 prawdopodobieństwo jednocząstkowe P1 (y, 0) = δ(y) . (6.22) Wtedy z równania (5.18) wynika ( y2 1 exp − P1 (y, t) = √ 2t 2πt ) . (6.23) Tak więc proces Wienera nie jest procesem stacjonarnym ze względu na zależność P1 od czasu. Wartość średnia dla procesu Wienera jest równa zero hY (t)i = Z y P1 (y, t) dy = 0 , (6.24) natomiast dwupunktowa funkcja korelacji dla czasów t2 > t1 to hY (t1 )Y (t2 )i = Z y1 y2 P2 (y2 , t2 ; y1 , t1 ) dy1 dy2 Z = y1 y2 P1|1 (y2 , t2 | y1 , t1 ) P1 (y1 , t1 ) dy1 dy2 = t1 = min{t1 , t2 } . 30 (6.25) Rozdział 7 Równanie Master 7.1 Małe różnice czasów Zapiszmy prawdopodobieństwo przejscia w procesie Markowa, P1|1 (y2 , t2 | y1 , t1 ), dla małych wartości różnicy czasu t2 − t1 ≡ δt. Pamiętając o warunku (5.19), P1|1 (y2 , t1 | y1 , t1 ) = δ(y2 − y1 ) , (7.1) zapiszemy z dokładnością do członów liniowych w δt: P1|1 (y, t + δt | y 0 , t) ' δ(y − y 0 ) A(y 0 , δt) + Wt (y | y 0 ) δt , (7.2) A(y 0 , δt = 0) = 1 . (7.3) gdzie (y | y 0 ) Funkcja Wt jest prawdopodobieństwem przejścia na jednostkę czasu ze stanu y 0 do stanu y w chwili t. Dla stacjonarnych procesów Markowa Wt (y | y 0 ) nie zależy od czasu. Całkując obie strony równania (7.6) po y, otrzymujemy z warunku unormowania (5.8) prawdopodobieństwa przejścia, Z dy P1|1 (y, t + δt | y 0 , t) = 1 = A(y, δt) + δt Z dy Wt (y | y 0 ) . (7.4) Stąd wynika następujące równanie A(y, δt) = 1 − δt Wielkość 0 a0 (y , t) = Z Z dy Wt (y | y 0 ) . dy Wt (y | y 0 ) (7.5) jest całkowitym prawdopodobieństwem przejścia na jednostkę czasu ze stanu y 0 do jakiegokolwiek innego stanu. Stąd 1 − a0 (y 0 , t) jest analogicznym prawdopodobieństwem, że układ pozostanie w stanie y 0 . Tak więc prawdopodobieństwo przejścia (7.2) dla małych czasów przyjmuje postać P1|1 (y, t + δt | y 0 , t) ' δ(y − y 0 ) (1 − a0 (y 0 , t)) + Wt (y | y 0 ) δt 31 (7.6) 7.2 Wyprowadzenie równania Master Napiszmy równanie Chapmana-Kołmogorowa dla uporządkowanych chwil czasowych: t + δt > t > t0 , P1|1 (y, t + δt | y0 , t0 ) = Z dy 0 P1|1 (y, t + δt | y 0 , t) P1|1 (y 0 , t | y0 , t0 ) . (7.7) Po podstawieniu równania (7.6) otrzymujemy P1|1 (y, t + δt | y0 , t0 ) ' (1 − a0 (y, t) δt) P1|1 (y, t | y0 , t0 ) Z + δt dy 0 Wt (y | y 0 ) P1|1 (y 0 , t | y0 , t0 ) . (7.8) Stąd, po wykorzystaniu relacji (7.5), w granicy δt → 0 otrzymujemy równanie Master dla prawdopodobieństwa przejścia ze stanu y0 w chwili t0 ∂ P (y, t | y0 , t0 ) = ∂t 1|1 Z n dy 0 Wt (y | y 0 )P1|1 (y 0 , t | y0 , t0 ) − Wt (y 0 | y)P1|1 (y, t | y0 , t0 ) o (7.9) Identyczne w formie równanie otrzymujemy dla prawdopodobieństwa jednocząstkowego powstałego z uśrednienia prawdopodobieństwa przejścia po rozkładzie jednocząstkowym w chwili początkowej t0 , Z P1 (y, t) = dy0 P1|1 (y, t | y0 , t0 ) P1 (y0 , t0 ) . (7.10) Tak więc mamy ∂P1 (y, t) = ∂t Z dy 0 Wt (y | y 0 ) P1 (y 0 , t) − Wt (y 0 | y) P1 (y, t) . (7.11) Pierwszy wyraz po prawej stronie opisuje zmianę P1 (y, t) wynikającą z przejść do stanu y w czasie δt, natomiast drugi wyraz z ujemnym znakiem opisuje analogiczną zmianę wynikającą z opuszczenia stanu y. Równanie Master jest więc równaniem bilansu przyjść dla ustalonego stanu. 32 7.3 Równanie Master dla stanów dyskretnych W wersji z dyskretnymi wartościami n zmiennej losowej y równanie Master (7.11) dla prawdopodobieństwa jednocząstkowego przyjmuje postać X dPn (t) = {Wnn0 (t) Pn0 (t) − Wn0 n (t) Pn (t)} . dt n0 (7.12) Równanie to można zapisać w formie macierzowej X dPn (t) = Wnn0 (t) Pn0 (t) , dt n0 (7.13) gdzie macierz Wnn0 jest zadana wzorem ! Wnn0 = Wnn0 − X Wn00 n δnn0 = n00 n 6= n0 Wnn0 dla P Wn00 n − dla n = n0 n00 6=n Wyrazy diagonalne Wnn są równe (minus) sumie wyrazów pozdiagonalnych w kolumnie n, X Wn00 n , (7.14) Wnn = − n00 6=n tak więc, suma wyrazów w dowolnej kolumny macierzy W wynosi zero X Wn00 n = Wnn + n00 X Wn00 n = 0 . (7.15) n00 6=n Warunek ten jest konieczny do zachowania całkowitego prawdpodobięnstwa w dowolnej chwili czasu XX XX d X 0 0 0 Pn (t) = Wnn (t) Pn (t) = Wnn (t) Pn0 (t) = 0 . dt n 0 n n0 n n Przykładowo, dla trzech stanów, n = 1, 2, 3, macierz W ma postać −(W21 + W31 ) W= W12 W13 . W21 −(W12 + W32 ) W23 W31 W32 −(W13 + W23 ) 33 (7.16) Rozdział 8 Procesy jednokrokowe Rozważmy proces Markowa z ciągłym czasem, w którym zbiorem dopuszczalnych wartości są liczby całkowite n. W procesach jednokrokowych przejścia następują tylko pomiędzy najbliższymi sąsiadami, n → (n − 1) z prawdopodobieństwem przeskoku rn oraz n → (n + 1) z prawdopodobieństwem przeskoku gn . Macierz przejścia przyjmuje więc postać Wnn0 = rn0 δn(n0 −1) + gn0 δn(n0 +1) , (8.1) co prowadzi do równanie Master dPn = rn+1 Pn+1 + gn−1 Pn−1 − (rn + gn ) Pn dt (8.2) Człony z dodatnim znakiem po prawej stronie opisują przejścia z sąsiednich poziomów na poziom n, natomiast człony z ujemnym znakiem opisują przejścia z poziomu n na sąsiednie (rozpad poziomu). Poniżej dyskutujemy dwa przykłady procesów jednokrokowych. 8.1 Proces Poissona Proces Poissona opisuje bładzenie przypadkowe ze stałym prawdopodobieństwem po zbiorze liczb naturalnych n = 0, 1, 2, . . . z krokami tylko w prawo rn = 0 , gn = λ . (8.3) Równanie Chapmana-Kolmogorowa przyjmuje wtedy postać Pn (t + δt) = λ δt Pn−1 (t) + Pn (t)(1 − λ δt) , (8.4) prowadzącą w granicy δt → 0 do równania Master Ṗn (t) = λPn−1 (t) − λPn (t) . 34 (8.5) Zakładamy, że w chwili t = 0 cząstka znajduje się w punkcie n = 0, tzn. Pn (0) = δn0 . (8.6) Poszukajmy rozwiązania metodą funkcji tworzącej F (z, t) = X z n Pn (t) . (8.7) Pn (t) = 1 . (8.8) n Oczywiście zachodzi F (1, t) = X n Wykonując takie sumowanie po obu stronach równania (8.7), następnie zmieniając odpowiednio zmienne sumowania, otrzymujemy równanie ∂F (z, t) = λ (z − 1) F (z, t) . ∂t (8.9) Rozwiązaniem spełniającym warunek początkowy F (z, 0) = 1 jest F (z, t) = exp{λ t(z − 1)} = e ∞ X (λ t)n n z , −λ t n=0 n! (8.10) co prowadzi do rozkładu Poissona (6.2): Pn (t) = (λ t)n −λ t e . n! (8.11) o wartości średniej i wariancji µ = σ2 = λ t . 8.2 (8.12) Symetryczne bla̧dzenie przypadkowe Symetryczne błądzenie przypadkowe po zbiorze liczb n = 0, ±1, ±2, . . . jest zdefiniowane przez warunek: rn = gn = c . (8.13) Równanie Chapmana-Kołmogorowa to Pn (t + δt) = c δt Pn+1 (t) + c δt Pn−1 (t) + Pn (t)(1 − 2 c δt) . (8.14) Po właczeniu parametru c do definicji jednostki czasu, równanie Master przyjmuje postać Ṗn (t) = Pn+1 (t) + Pn−1 (t) − 2Pn (t) , (8.15) z warunkiem początkowym takim jak dla procesu Poissona: Pn (0) = δn0 . 35 (8.16) Rozwiązując to równanie metodą funkcji tworzącej (8.7), otrzymujemy ∂F (z, t) = ∂t 1 z + − 2 F (z, t) . z (8.17) Korzystając z warunku początkowego F (z, 0) = 1, znajdujemy rozwiązanie 1 F (z, t) = exp t z + − 2 z . (8.18) Rozwijając w szereg potęg z otrzymamy ∞ k k X z t F (z, t) = e−2t k! k=0 ∞ X = e−2t ! zn n=−∞ ∞ −l l X z t l=0 n+l>0 X l=0 ! l! t2l+n . l! (n + l)! (8.19) Stąd prawdopodobieństwo Pn (t) = e−2t n+l>0 X l=0 t2l+n = e−2t I|n| (2t) , l!(n + l)! gdzie In jest funkcją Bessela. W granicy t → ∞, n → ∞ przy ustalonym n2 /t otrzymujemy jako wyrażenie asymptotyczne rozkład Gaussa ( ) 1 n2 Pn (t) = √ exp − . 4t 4πt (8.20) o wartości średniej i wariancji σ 2 = 2t . µ = 0, 36 (8.21) Rozdział 9 Równania ewolucji QCD Przykładem procesów Markowa jest opis emisji kwarkowo gluonowej w chromodynamice kwantowej w przybliżeniu wiodących logarytmów. Niech qx (t) będzie prawdopodobieństwem znalezienia kwarku w nukleonie z ułamkiem pędu podłużnego nukleonu x ∈ [0, 1] przy skali t = ln(Q2 /Q20 ), zwanej odtąd czasem. Napiszmy równanie bilansu (7.6) dla naszego prawdopodobieństwa w chwili t + δt X qx (t + δt) = δt Pxx0 (t) qx0 (t) + qx (t) 1 − x0 >x X Px0 x (t) δt . (9.1) x0 <x | {z } | emisja rzeczywista {z emisja wirtualna } Funkcja Pxx0 (t) jest prawdopodbieństwem na jednostkę czasu emisji rzeczywistego gluonu przez kwark o ułamku pędu x0 , w wyniku której kwark uzyskuje ułamek x < x0 . Suma w nawiasie po prawej stronie równania (9.1), X Px0 x (t) δt , (9.2) x0 <x to całkowite prawdopodobieństwo zmiany ułamka pędu kwarku x w czasie δt. Nowy ułamek x0 < x, gdyż parton traci pęd. Stąd wyrażenie w nawiasie, 1− X Px0 x (t) δt , (9.3) x0 <x to prawdopodbieństwo, że w czasie δt ułamek x pędu kwarku nie ulega zmianie. Opisuje więc ono emisję wirtualną. Tak sformułowane równanie zachowuje normalizację całkowitego prawdopodobieństwa X X qx (t + δt) = qx (t) . (9.4) x x Mamy bowiem X x qx (t + δt) = X x qx (t) + X X x Pxx0 (t) qx0 (t) − x0 >x 37 X x0 <x Px0 x (t) qx (t) δt . Wysumowane po x wyrażenie w nawiasie znika, gdyż X {. . .} = XX = XX x x x = XX Θ(x0 > x) Pxx0 qx0 − XX x x0 Θ(x0 > x) Pxx0 qx0 − Θ(x < x0 ) Pxx0 qx0 x XX x x0 Θ(x0 < x) Px0 x qx x0 x0 x0 XX x Θ(x0 > x) Pxx0 qx0 − Θ(x0 > x) Pxx0 qx0 = 0 , x0 gdzie w drugim członie zmieniliśmy najpierw oznaczenie x ↔ x0 , a następnie kolejność sumowania. Wykonując granicę δt → 0 w równaniu (9.1), otrzymujemy “równanie ewolucji”, będące w istocie równaniem Master X X dqx (t) Pxx0 (t) qx0 (t) − qx (t) Px0 x (t) . = dt x0 >x x0 <x {z | | } emisja rzeczywista {z (9.5) } emisja wirtualna Sumowanie dla części rzeczywistej i wirtualnej odpowiada całkowaniu, odpowiednio Z Z X 1 → dx0 , X x x0 >x x → dx0 , (9.6) 0 x0 <x co prowadzi do następującego równania ewolucji w lekko zmienionych oznaczeniach Z1 Zx dq(x, t) = dx0 P (x, x0 ; t) q(x0 , t) − q(x, t) dx0 P (x0 , x; t) . (9.7) dt x 0 Prawdopodobieństwo przejścia zależą od ułamków pędu w następujący sposób P (x, x0 ; t) = 1 P x0 x ,t , x0 (9.8) co daje dq(x, t) = dt Z1 x dx0 x P 0 , t q(x0 , t) − q(x, t) x0 x Zx dx0 x0 P ,t . x x (9.9) 0 Zmieniając zmienną całkowania na z = x/x0 w pierwszej całce, a w drugiej całce na z = x0 /x, znajdujemy równanie ewolucji Altarelliego-Parisiego dq(x, t) = dt Z1 x dz P (z, t) q(x/z, t) − q(x, t) z Z1 dz P (z, t) . 0 38 (9.10) Prawdopodobieństwo przejścia ma niecałkowalną osobliwość dla z = 1, P (z, t) ∼ 1 1−z (9.11) i górna granica całkowania powinna być zastąpiona przez 1 − . Można jednak R R R rozbić ostatnią całkę: 01 = 0x + x1 , by zapisać dq(x, t) = dt Z1 x dz P (z, t) {q(x/z, t) − zq(x, t)} − q(x, t) z Zx dz P (z, t) . (9.12) 0 W pierwszym wyrażeniu podcałkowym pojawia się wielkość q(x/z, t) − zq(x, t) , 1−z (9.13) która jest nieosobliwa dla z = 1, jeśli istnieje skończona granica dla z → 1. Równanie (9.12) można zapisać przy pomocy definicji dystrybucji [. . .]+ [P (z)]+ = P (z) − δ(1 − z) Z1 dy P (y) . (9.14) 0 Działa ona na dowolną funkcję próbna f (z) w następujący sposób, regularyzując osobliwość P (z) dla z = 1, Z1 Z1 dz [P (z)]+ f (z) = dz P (z) {f (z) − f (1)} , (9.15) 0 0 Adaptując ten wzór dla prawej strony równania (9.12), znajdujemy Z1 x dz [P (z)]+ q(x/z) = z Z1 1 dz [P (z)]+ q(x/z) − z 0 Z1 = Zx dz P (z) q(x/z) z 0 1 dz P (z) q(x/z) − q(x) − z 0 Z1 = x Zx dz P (z) q(x/z) z 0 1 q(x/z) − q(x) − q(x) dz P (z) z Zx dz P (z) . 0 Stąd ostatecznie równanie ewolucji (9.12) przyjmuje postać dq(x, t) = dt Z1 x dz [P (z, t)]+ q(x/z, t) . z 39 (9.16) Rozdział 10 Równanie Fokkera-Plancka Rozważmy równanie Master ∂P (y, t) = ∂t Z dy 0 Wt (y | y 0 ) P (y 0 , t) − Wt (y 0 | y) P (y, t) . (10.1) Popatrzmy na prawdopodobieństwo przejścia Wt (y | y 0 ) jako na funkcje punktu startowego y 0 i skoku r = y − y 0 : Wt (y | y 0 ) = Wt (y − y 0 , y 0 ) = Wt (r , y − r) . (10.2) Podobnie dla prawdopodbieństwa Wt (y 0 | y) mamy Wt (y 0 | y) = Wt (y 0 − y , y) = Wt (−r , y) . (10.3) Tak więc, otrzymujemy ∂P (y, t) = ∂t Z dr {Wt (r , y − r) P (y − r , t) − Wt (−r , y) P (y, t)} . (10.4) Przyjmijmy następujące założenia: 1. Dla ustalonego punktu początkowego y 0 możliwe są tylko małe przeskoki r, tzn. prawdopodobieństwo przejścia Wt (r , y 0 ) ≈ 0 dla |r| > δ . 2. Przy zmianie punktu początkowego y 0 prawdopodobieństwo przejścia zmienia się powoli Wt (r , y 0 ) ≈ Wt (r , y 0 + ∆y) dla |∆y| < δ . 3. Prawdopodbieństwo P (y 0 , t) również zmienia się wolno z y 0 . 40 Możemy wtedy rozwinąć pierwsze wyrażenie pod całką w (10.4) względem drugiego argumentu wokół y dla |r| < δ: Wt (r, y − r) P (y − r, t) = Wt (r, y) P (y, t) + ∞ X (−r)k ∂ k k! k=1 ∂y k {Wt (r, y) P (y, t)} . (10.5) Po podstawieniu do równania (10.4) i założeniu, że Wt (r, y) = Wt (−r, y) otrzymujemy równanie Moyala ∞ X ∂P (y, t) (−1)k ∂ k = {ak (y, t) P (y, t)} ∂t k! ∂y k k=1 (10.6) gdzie wspólczynniki funkcyjne ak (y, t) to momenty przeskoku Z dr rk Wt (r, y) . ak (y, t) = (10.7) |r|<δ Zgodnie z definicją skoku, r jest zawsze różnicą między punktem końcowym a początkowym, w tym wypadku y. Współczynniki te zawierają informację o mikroskopowym prawdopodobieństwie przejścia na jednostkę czasu Wt . Równania Fokkera-Plancka otrzymujemy zachowując tylko dwa pierwsze wyrazy sumy w równaniu Moyala ∂P (y, t) ∂ 1 ∂2 = − {a1 (y, t) P (y, t)} + {a2 (y, t) P (y, t)} ∂t ∂y 2 ∂y 2 (10.8) Jest to równanie typu równania dyfuzji, w którym pierwszy wyraz po prawej stronie nazywa się członem dryfowym, natomiast drugi członem dyfuzyjnym. 10.1 Interpretacja współczynników funkcyjnych Obliczmy momenty zmiennej losowej ∆Y = Y (t + ∆t) − Y (t) , (10.9) opisującej przeskoki w procesie Markowa w krótkich chwilach czasu δt. Zakładając, że Y (t) = y znajdujemy dla k-tego momentu D E (∆Y )k = Z dy 0 (y 0 − y)k P1|1 (y 0 , t + δt | y, t) . (10.10) Podstawiając postać (7.6) prawdodopodbieństwa przejścia dla małych δt w procesie Markowa: P1|1 (y 0 , t + δt | y, t) = δ(y 0 − y) (1 − a0 δt) + Wt (y 0 | y) δt , 41 znajdujemy D E (∆Y )k = δt Z dy 0 (y 0 − y)k Wt (y 0 | y) = δt ak (y , t) . Stąd wzór na współczynniki przejścia D ak (y , t) = lim δt→0 (∆Y )k δt E (10.11) Aby więc znaleźć dwa współczynniki a1,2 (y, t) w równaniu Fokkera-Plancka wystarczy dobrać δt tak małe by zmiana (y 0 − y) była mała, a jednocześnie tak duże by słuszne było założenie Markowa. Następnie liczymy średnie przesunięcie h∆Y i oraz średni kwadrat przesunięcia (∆Y )2 do pierwszego rzędu w δt, co pozwala znaleźć współczynniki a1,2 na podstawie wzoru (10.11). 42 Rozdział 11 Ruchy Browna 11.1 Równanie dyfuzji Dobrym przykładem ilustrującym metodę obliczania współczynników ak są ruchy Browna. Cząstka wykonuje wtedy losowe przeskoki wzdłuż osi X dla skal czasowych dostatecznie dużych by traktować je ruch jako proces Markowa. Długość skoków jest dowolna, ale prawdopodobieństwo dużych skoków jest bardzo małe. Co więcej, jest ono funkcją symetryczną ze względu na kierunek i niezależną od punktu startowego. Wtedy mamy (∆X)2 a2 = = const . ∆t h∆Xi = 0, a1 = ∆t (11.1) Stąd równanie Fokkera-Plancka dla prawdopodobieństwa przejścia P (x, t) ≡ P1|1 (x, t | x0 , t0 ) (11.2) przyjmuje postać równania dyfuzji ∂P (x, t) ∂ 2 P (x, t) =D ∂t ∂x2 (11.3) gdzie stała dyfuzji D = a2 /2. Otrzymaliśmy w ten sposób relację Einsteina wiążącą stałą dyfuzji ze średnim kwadratem skoku cząstki (∆X)2 D= . 2 ∆t 11.2 (11.4) Bła̧dzenie przypadkowe Równanie dyfuzji możemy otrzymać rozważając równanie Master dla losowych przeskoków wzdłuż osi X. Załóżmy, że cząstka przeskakuje w prawo i lewo o wielkość ∆ z równym prawdopodobieństwem na jednostkę czasu, zadanym przez W (x ± ∆|x) = 43 D . ∆2 (11.5) Spełniony jest warunek niezależności od kierunku oraz założenie, że duże przeskoki są mało prawdopodobne. Wtedy równanie bilansu dla odstępu czasowego δt → 0 to D D D P (x, t + δt) = P (x + ∆, t) 2 δt + P (x − ∆, t) 2 δt + P (x, t) 1 − 2 2 δt . ∆ ∆ ∆ Przepisując, otrzymamy P (x, t + δt) − P (x, t) P (x + ∆, t) − 2P (x, t) + P (x − ∆, t) =D δt ∆2 (11.6) W granicy δt → 0 oraz ∆ → 0, dostajemy równanie dyfuzji ∂P (x, t) ∂ 2 P (x, t) =D . ∂t ∂x2 (11.7) Zaburzmy symetrię przeskoków przy utrzymanym warunku ich małości. Na przykład, preferując przeskoki w lewo mamy B D D + , W (x + ∆|x) = 2 . 2 ∆ ∆ ∆ Otrzymujemy w tym przypadku równanie dyfuzji z dryfem W (x − ∆|x) = (11.8) ∂P (x, t) ∂P (x, t) ∂ 2 P (x, t) = −B +D . ∂t ∂x ∂x2 11.3 (11.9) Dyfuzja a procesy Wienera Rozwiązaniem równania dyfuzji bez dryfu jest prawdopodobieństwo przejścia ( 1 (x2 − x1 )2 P1|1 (x2 , t2 | x1 , t1 ) = p exp − 2D(t2 − t1 ) 2πD(t2 − t1 ) ) . (11.10) Jeśli założymy, że w chwili początkowej cząstka była w położeniu x = 0, P1 (x, 0) = δ(x) , (11.11) to otrzymamy proces Wienera z prawdopodobieństwem jednocząstkowym ( ) 1 x2 exp − P1 (x, t) = √ , 2Dt 2πDt (11.12) które również spełnia równanie dyfuzji. Średnie przesunięcie dla ruchów Browna jest równe zeru hXt i = Z∞ dx x P1 (x, t) = 0 , (11.13) −∞ natomiast średni kwadrat przesunięcia jest proporcjonalny do czasu D Xt2 E Z∞ = dx x2 P1 (x, t) = D t . −∞ 44 (11.14) Literatura [1] N. G. van Kampen, Procesy stochastyczne w fizyce i chemii, 2 wydanie, PWN, 1990. [2] C. Gardiner, Handbook of Stochastic Methods: for Physics, Chemistry and the Natural Sciences, 3rd ed., Springer, 2004. [3] H. Risken, The Fokker-Planck Equation: Methods of Solutions and Applications, Springer, 1996. 45