Teoria procesów stochastycznych

advertisement
Procesy stochastyczne
Krzysztof Golec–Biernat
(29 kwietnia 2017)
Wersja robocza nie do dystrybucji
Kraków
2006/07
2
Spis treści
1 Podstawy
5
1.1
Prawdopodobieństwo . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.2
Zmienne losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.3
Momenty zmiennej losowej . . . . . . . . . . . . . . . . . . . . . .
8
1.4
Funkcja charakterystyczna . . . . . . . . . . . . . . . . . . . . . .
8
1.5
Kumulanty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2 Przykłady rozkładów prawdopodobieństw
10
2.1
Rozkład dwumianowy . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2
Bła̧dzenie przypadkowe . . . . . . . . . . . . . . . . . . . . . . . 11
2.3
Rozkład Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4
Rozkład Gaussa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.5
Rozkład Poissona a rozkład Gaussa . . . . . . . . . . . . . . . . . 13
2.6
Błądzenie przypadkowe a rozkład Gaussa . . . . . . . . . . . . . 14
3 Rozkłady wielu zmiennych losowych
15
3.1
Momenty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2
Kumulanty . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3
Wielowymiarowy rozkład Gaussa . . . . . . . . . . . . . . . . . . 17
3.4
Stała normalizacyjna . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.5
Funkcja charakterystyczna rozkładu Gaussa . . . . . . . . . . . . 19
4 Centralne twierdzenie graniczne
20
4.1
Twierdzenie Wicka . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2
Centralne twierdzenie graniczne . . . . . . . . . . . . . . . . . . . 21
3
5 Procesy stochastyczne
22
5.1
Definicja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2
Prawdopodobieństwo warunkowe . . . . . . . . . . . . . . . . . . 23
5.3
Procesy Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.4
Równanie Chapmana–Kołmogorowa–Smoluchowskiego . . . . . . 24
5.5
Stacjonarny proces Markowa . . . . . . . . . . . . . . . . . . . . 25
6 Przykłady procesów Markowa
26
6.1
Proces dwudzielny – losowego telegrafu . . . . . . . . . . . . . . . 26
6.2
Proces Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6.3
Proces Ornsteina-Uhlenbecka . . . . . . . . . . . . . . . . . . . . 28
6.4
Proces Wienera . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7 Równanie Master
31
7.1
Małe różnice czasów . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.2
Wyprowadzenie równania Master . . . . . . . . . . . . . . . . . . 32
7.3
Równanie Master dla stanów dyskretnych . . . . . . . . . . . . . 33
8 Procesy jednokrokowe
34
8.1
Proces Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
8.2
Symetryczne bla̧dzenie przypadkowe . . . . . . . . . . . . . . . . 35
9 Równania ewolucji QCD
37
10 Równanie Fokkera-Plancka
40
10.1 Interpretacja współczynników funkcyjnych . . . . . . . . . . . . . 41
11 Ruchy Browna
43
11.1 Równanie dyfuzji . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
11.2 Bła̧dzenie przypadkowe . . . . . . . . . . . . . . . . . . . . . . . 43
11.3 Dyfuzja a procesy Wienera . . . . . . . . . . . . . . . . . . . . . 44
4
Rozdział 1
Podstawy
1.1
Prawdopodobieństwo
Rachunek prawdopodobieństwa jest działem matematyki badającym własności
modeli opisujących zjawiska przypadkowe.
Zjawisko przypadkowe (lub statystyczne) to zjawisko, które w wyniku wielokrotnego powtarzania przy tych samych warunkach początkowych daje różne
wyniki.
Pojęciem pierwotnym w rachunku prawdopodobieństwa jest zdarzenie elementarne ω. Na przykład, wynik rzutu monetą - orzeł lub reszka - jest takim
zdarzeniem. Zbiór zdarzeń elementarnych oznaczamy przez Ω. W naszym przykładzie
Ω = {ωO , ωR } .
(1.1)
Niech 2Ω oznacza zbiór wszystkich podzbiorów zbioru Ω:
2Ω = {A; A ⊂ Ω} .
(1.2)
2Ω = {∅, {ωO } , {ωR }, {ωO , ωR }} ,
(1.3)
W naszym przykładzie
gdzie ∅ oznacza zbiór pusty.
Rodzinę zbiorów M ⊂ 2Ω nazywamy σ-algebrą zbiorów, gdy spełnione są
następujące warunki:
1. Ω ∈ M
2. A ∈ M => Ω − A ∈ M
3. An ∈ M dla n = 1, 2, . . .
=>
∞
S
n=1
5
An ∈ Ω
Przykładami sigma algebry zbiorów to
M = 2Ω .
M = {∅, Ω} ,
(1.4)
Elementy sigma algebry, A ∈ M, nazywamy zdarzeniami losowymi. Wprowadza
się następującą terminologię:
• A = ∅ nazywa się zdarzeniem niemożliwym.
• A = Ω nazywa się zdarzeniem pewnym.
• A0 = Ω − A nazywa się zdarzeniem przeciwnym do zdarzenia A.
Odwzorowanie sigma algebry w zbiór liczb rzeczywistych
P: M → R
(1.5)
nazywamy miarą unormowaną gdy
1. P (A) ­ 0
2. P (Ω) = 1
3. P jest funkcją przeliczalnie addytywną, tzn.
P(
∞
[
An ) =
n=1
∞
X
P (An )
(1.6)
n=1
dla każdego ciągu zbiorów An ∈ M parami rozłacznych, tzn. Ai ∩ Aj = ∅
dla dowolnych i, j ∈ N,.
Trójkę
(Ω , M, P )
(1.7)
nazywamy przestrzenią prawdopodobieństwa, gdy Ω 6= ∅ jest zbiorem zdarzeń
elementarnych, M jest sigma algebrą zdarzeń losowych, natomiast P jest miarą unormowaną określoną na M. Nazywamy ją wtedy prawdopodobieństwem.
Wypiszmy kilka własności prawdopodobieństwa:
1. P (∅) = 0
2. A ⊂ B => P (B − A) = P (B) − P (A)
3. A ⊂ B => P (A) ¬ P (B)
4. 0 ¬ P (A) ¬ 1
5. P (A0 ) = 1 − P (A)
6. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
6
Prawdopodobieństwo warunkowe zdarzenia A pod warunkiem, że zaszło zdarzenie B jest określone przez
P (A|B) =
P (A ∩ B)
.
P (B)
(1.8)
Zauważając, że
P (A ∩ B) = P (A|B) P (B) = P (B ∩ A) = P (B|A) P (A) ,
(1.9)
otrzymujemy wzór Bayesa
P (A|B) = P (B|A)
1.2
P (A)
.
P (B)
(1.10)
Zmienne losowe
Zmienną losową X jest odwzorowanie zbioru zdarzeń elementarnych w zbiór
liczb rzeczywistych
X : Ω → R.
(1.11)
W praktyce zmienna losowa jest określona jeśli podamy:
(a) zbiór I jej dopuszczalnych wartości liczbowych
(b) rozkład prawdopodobieństwa zadany na tym zbiorze.
Zbiór dopuszczalnych wartości I może być dyskretny, ciągły lub dyskretny i ciągły. Zbiór ten może być wielowymiarowy. W przypadku pojedynczej dyskretnej
zmiennej losowej rozkład prawdopodbieństwa dany jest nieujemną funkcją
P (xi ) ­ 0 ,
i = 1, 2, . . .
(1.12)
unormowaną do jedynki
X
P (xi ) = 1 .
(1.13)
i
Dla zmiennej losowej o wartościach ciągłych definujemy gęstością prawdopodobieństwa p(x) taką, że iloczyn
p(x) dx
(1.14)
jest prawdopodobieństwem tego że zmienna losowa X przyjmuje wartości z
przedziału (x, x + dx). Warunek unormowania przyjmuje teraz postać
Z
p(x) dx = 1 .
I
7
(1.15)
1.3
Momenty zmiennej losowej
Jeśli f (X) jest funcją liczbową określona na tym samym zbiorze co zmienna
losowa X to jej wartość średnia to
Z
hf (X)i =
f (x) p(x) dx
(1.16)
W szczególności m-ty moment zmiennej losowej X to
Z
µm = hX m i =
xm p(x) dx .
(1.17)
Liczba µ1 to wartość średnia zmiennej losowej X,
µ1 = hXi =
Z
x p(x) dx ,
(1.18)
natomiast wariancja X to
2
σX
=
D
E
(X − hXi)2 =
Z
(x − hXi)2 p(x) dx
= µ2 − (µ1 )2 .
(1.19)
Nie wszystkie rozkłady prawdopodobieństwa posiadają skończone momenty,
na przykład rozkład Lorentza,
p(x) =
1
P
,
π (x − a)2 + P 2
x ∈ R,
(1.20)
ich nie posiada. Ze względu na symetrię możemy jednak przyjąć µ1 = a.
1.4
Funkcja charakterystyczna
Funkcja charakterystyczna zmiennej losowej X to
D
ikX
G(k) = e
E
Z
=
dx eikx p(x)
(1.21)
|G(k)| < 1 .
(1.22)
I
łatwo się przekonać, że zachodzi
G(0) = 1 ,
G(k) jest funkcją tworzącą dla momentów µm . Rozwijając bowiem eksponentę
pod całką w szereg Taylora znajdziemy
Z
G(k) =
dx
I
( ∞
)
X (ikx)m
m=0
m!


Z
∞


m
X
(ik)
p(x) =
dx xm p(x) .

m! 
m=0
8
I
i ostatecznie
G(k) =
∞
X
(ik)m
m=0
m!
µm
(1.23)
Stąd wynika następujący wzór dla momentów
dm G =
.
d (ik)m k=0
µm
(1.24)
Tak więc pochodne G(k) w punkcie k = 0 istnieją do tego samego rzędu co
momenty.
1.5
Kumulanty
Logarytm funkcji charakterystycznej służy do zdefiniowania kumulant κm zmiennej losowej X
∞
X
(ik)m
κm
ln G(k) =
(1.25)
m!
m=0
i stąd otrzymujemy wzór dla kumulant
dm ln G(k) =
.
d (ik)m k=0
κm
(1.26)
Kumulanty są kombinacjami momentów, przykładowo
κ1 = µ1
κ2 = µ2 − µ21 = σ 2
κ3 = µ3 − 3 µ2 µ1 + 2 µ31
κ3 = µ4 − 4 µ3 µ1 − 3 µ22 + 12 µ2 µ21 − 6 µ41 .
(1.27)
Pierwsza kumulanta jest więc równa wartości średniej zmiennej µX losowej, a
2 .
druga jej wariancji σX
9
Rozdział 2
Przykłady rozkładów
prawdopodobieństw
2.1
Rozkład dwumianowy
Rozpatrzmy N prób. Pytamy jakie jest prawdopodobieństwo n sukcesów jeśli
prawdopodbieństwo pojedynczego sukcesu wynosi p. Jesli próby są niezależne
to prawdopobieństwo jest iloczynem trzech czynników:
• liczby sposobów, na które n sukcesów realizuje się w N próbach:
N
n
• prawdopodobieństwa odniesienia n sukcesów: pn
• prawdopodbieństwa porażki w pozostałych próbach: (1 − p)N −n .
Stąd wzór dla rozkładu dwumianowego, w którym zmienna losowa przyjmuje
skończoną liczbę wartości, n = 0, 1, 2, . . . , N :
!
PN (n, p) =
N n
p (1 − p)N −n
n
(2.1)
gdzie symbol Newtona
N
n
!
=
N!
n!(N − n)!
(2.2)
Prawdopodobieństwo p jest parametrem tego rozkładu. Jest on unormowany
do jedynki
N
X
n=0
PN (n, p) =
N
X
N
n=0
n
!
pn (1 − p)N −n = (p + 1 − p)N = 1 .
10
(2.3)
Funkcja charakterystyczna rozkładu dwumianowego to
GN (k) =
N
X
ikn
e
PN (n, p) =
n=0
N
X
N
n=0
!
(eik p)n (1 − p)N −n
n
= (1 − p + eik p)N .
(2.4)
Stąd funkcjonał generujący dla kumulant
ln GN (k) = N ln(1 + p (eik − 1))
(2.5)
Licząc kumulanty ze wzoru (1.26), znajdujemy wartość średnią i dyspersję
2.2
p eik
κ1 = µ 1 = N
= Np
1 + p (eik − 1) k=0
(2.6)
κ2 = σ 2 = N p (1 − p) .
(2.7)
Bła̧dzenie przypadkowe
Szczególnym przypadkiem rozkładu dwumianowego jest rozkład opisujący jednowymiarowe błądzenie przypadkowe z równymi prawdopodobieństwami ruchu
w prawo i w lewo, p = q = 1/2,
!
1 N
.
PN (n, 1/2) = N
2
n
(2.8)
Wartość średnia i dyspersja w tym przypadku to
µ1 (n) =
N
,
2
σ 2 (n) =
N
.
4
(2.9)
Sumaryczne przesunięcie r z punktu startowego po N krokach jest zmienną
losową równą
r = n − (N − n) = 2n − N .
(2.10)
o zakresie −N ¬ r ¬ N . Zauważmy, że r i N są obie parzyste lub nieparzyste.
Rozkład prawdopodobieństwa r otrzymujemy z rozkładu (2.8) wyliczając
n = (N + r)/2 z (2.10) i podstawiając do (2.8),
PN (r) =
1
N!
.
N
2 ((N − r)/2)!((N + r)/2)!
(2.11)
Wartośc średnia i dyspersja sumarycznego przesunięcia to odpowiednio
σ 2 (r) = N .
µ1 (r) = 0 ,
11
(2.12)
2.3
Rozkład Poissona
Dla dużej liczby prób N i małego prawdopodbieństwa pojedynczego sukcesu
rozkład dwumianowy przechodzi w rozkład Poissona w następującej granicy
N → ∞,
p → 0,
N p = µ = const .
(2.13)
Podstawiając p = µ/N do (2.1), otrzymujemy
PN
µ
n,
N
N!
=
n! (N − n)!
µ
N
n µ
1−
N
N −n
N!
1
=
n
(N − n)! N (1 − µ/N )n
n µ
N (N − 1) . . . (N − n + 1)
(N − µ)n
n µ
=
(1 − N1 ) . . . (1 − n−1
N )
=
µ n
(1 − N )
n!
n!
n µ
n!
µ
1−
N
1−
µ
1−
N
µ
N
N
N
N
(2.14)
Wykonając granicę N → ∞ przy ustalonej liczbie sukcesów n, znajdujemy
lim PN
N →∞
µ
n,
N
µ
µn
=
lim 1 −
n! N →∞
N
N
=
µn −µ
e .
n!
(2.15)
Stąd rozkład Poissona zmiennej losowej n = 0, 1, 2, . . .
P (n, µ) =
µn −µ
e
.
n!
(2.16)
Jest to rozkład unormowany do jedynki
∞
X
−µ
P (n, µ) = e
n=0
∞
X
µn
n=0
n!
= e−µ e µ = 1 .
(2.17)
Policzmy funkcję charakterystyczną
G(k) =
∞
X
eikn P (n, µ) = e−µ
n=0
∞
X
(eik µ)n
n!
n=0
= e−µ exp{eik µ}
= exp{µ (eik − 1)} .
(2.18)
Stąd funkcjonał generujący dla kumulant
ln G(k) = µ (eik − 1) =
∞
X
(ik)m
m=1
m!
µ.
(2.19)
Widzimy, że wszystkie kumulanty są identyczne i równe wartości średniej
κm = µ
(2.20)
Stąd wartość średnia i wariancja rozkładu Poissona są sobie równe
σ 2 = hni = µ .
12
(2.21)
2.4
Rozkład Gaussa
Rozkład Gaussa jest określony dla zmiennej losowej X o wartościach rzeczywistych x ∈ (−∞, ∞):
1
2
2
e−(x−µ) /2 σ
p(x) = √
(2.22)
2πσ 2
Normalizacja jest tak dobrana, że rozkład jest unormowany do jedynki
Z∞
dx p(x) = 1 .
(2.23)
−∞
Licząc funkcję charakterystyczną otrzymujemy
Z∞
G(k) =
1
eikx P (x) dx = eikµ− 2 σ
2 k2
.
(2.24)
−∞
Stąd funkcjonał generujący dla kumulant
(ik)2 2
1
σ .
ln G(k) = ikµ − σ 2 k 2 = ikµ +
2
2!
(2.25)
Wykorzystując definicję (1.25), znajdujemy różne od zera tylko dwie pierwsze
kumulanty
κ1 = µ ,
κ2 = σ 2 ,
κk>2 = 0 .
(2.26)
Z relacji (1.27) wynika, że√µ to wartość średnia, a σ 2 to wariancja zmiennej
losowej X. Wielkość σ = σ 2 to dyspersja, która określa szerokość rozkładu
Gaussa.
2.5
Rozkład Poissona a rozkład Gaussa
Dla dużych wartości parametru µ 1, rozkład Poissona,
P (n, µ) =
µn −µ
e ,
n!
(2.27)
dąży do rozkładu Gaussa dla wartości zmiennej losowych n bliskich µ, n ≈ µ.
Korzystając ze wzoru Stirlinga dla dużych n
√
(2.28)
n! ≈ nn e−n 2πn ,
zapiszemy wzór (2.27) w postaci
P (n, µ) ≈ √
1 en ln µ−µ
1
= √
en−µ + n ln(µ/n) .
n ln n−n
e
2πn
2πn
(2.29)
Dla wartości n ≈ µ możemy rozwinąć
ln(µ/n) = ln(1 + (µ/n − 1)) ≈ (µ/n − 1) − 21 (µ/n − 1)2 .
13
(2.30)
Stąd otrzymujemy
1
2
P (n, µ) ≈ √
e−(n−µ) /(2n) .
2πn
(2.31)
Wykorzystując następnie warunek n ≈ µ, znajdujemy rozkład Gaussa,
P (n, µ) ≈ √
o wartości średniej µ i szerokości
2.6
√
1
2
e−(n−µ) /(2µ) ,
2πµ
(2.32)
µ
Błądzenie przypadkowe a rozkład Gaussa
Dla dużej liczby kroków N , rozkład (2.11) błądzenia przypadkowego jest bliski
rozkładowi Gaussa. Korzystając ze wzoru Stirlinga (2.28) znajdujemy
1
N!
N
2 ((N − r)/2)!((N + r)/2)!
√
N N 2πN
p
≈
(N − r)(N −r)/2 (N + r)(N +r)/2 π 2 (N − r)(N + r)
PN (r) =
s
2
1
2πN (1 − r2 /N 2 ) (1 − r/N )(N −r)/2 (1 + r/N )(N +r)/2
s
2
N −r
N +r
exp −
ln(1 − r/N ) −
ln(1 + r/N )
2
2
2πN (1 − r /N )
2
2
=
=
r
1
N −r
p
−
exp −
2
N
2π(N/2)
≈
(
1
r2
= p
exp −
2(N/2)
2π(N/2)
N +r
−
2
r
N
)
,
(2.33)
gdzie wykorzystaliśmy przybliżenie r N . Otrzymaliśmy rozkład Gaussa o
wartości średniej i dyspersji równej, odpowiednio,
σ 2 (r) =
µ1 (r) = 0 ,
14
N
.
2
(2.34)
Rozdział 3
Rozkłady wielu zmiennych
losowych
Dla wielu zmiennych losowych X1 , X2 , . . . , Xn definiuje się łączny rozkład gęstości prawdopodobieństwa,
Pn (x1 , x2 , . . . , xn ) ­ 0 ,
(3.1)
że przyjmują one wartości odpowiednio z przedziałów (xi , xi + dxi ). Rozkład
ten jest unormowany do jedynki.
Z
Pn (x1 , . . . , xn ) dx1 . . . dxn = 1 .
(3.2)
Całkując po k < n zmiennych otrzymuje sie rozkłady brzegowe
Z
Pm (x1 , . . . , xm ) =
Pn (x1 , . . . , xm , xm+1 , . . . , xn ) dxm+1 . . . dxn
(3.3)
Jeżeli zmienne losowe Xi są niezależne to rozkład (3.1) jest iloczynem rozkładów
prawdopodobieństwa poszczególnych zmiennych losowych
Pn (x1 , x2 , . . . , xn ) =
n
Y
P (i) (xi )
(3.4)
i=1
3.1
Momenty
Dla rozkładów wielu zmiennych losowych funkcja charakterystyczna to transformata Fouriera
Z
Gn (k1 , . . . , kn ) =
ei(k1 x1 +...+kn xn ) Pn (x1 , . . . , xn ) dx1 . . . dxn .
(3.5)
Jeśli zmienne losowe są niezależne to z (3.4) wynika wzór
Gn (k1 , . . . , kn ) =
n
Y
i=1
15
G(i) (ki ) ,
(3.6)
gdzie G(i) (ki ) to funkcje charakterystyczne rozkładów pojedynczej zmiennej.
Momenty wielowymiarowego rozkładu
hX1m1 . . . Xnmn i
Z
=
mn
1
xm
1 . . . xn Pn (x1 , . . . , xn ) dx1 . . . dxn .
(3.7)
są generowane przez rozwinięcie funkcji charakterystycznej w szereg Taylora
∞
X
Gn (k1 , . . . , kn ) =
(m1 ...mn
(ik1 )m1 . . . (ikn )mn
hX1m1 . . . Xnmn i
(m
)!
.
.
.
(m
)!
1
n
)=0
(3.8)
gdzie sumujemy po wszystkich ciągach n-wyrazowych (m1 , . . . , mn ).
3.2
Kumulanty
Wielowymiarowe kumulanty hhX1m1 . . . Xnmn ii definiujemy poprzez rozwinięcie
w szereg Taylora logarytmu funkcji charakterystycznej (3.8):
∞
X
ln Gn (k1 , . . . , kn ) =
(m1 ...mn
(ik1 )m1 . . . (ikn )mn
hhX1m1 . . . Xnmn ii
(m
)!
.
.
.
(m
)!
1
n
)0 =0
(3.9)
gdzie z sumowania wyłaczony jest człon z m1 = . . . = mn = 0.
Ważną kumulantą jest (n × n) wymiarowa macierz kowariancji
hhXi Xj ii = h(Xi − hXi i)(Xj − hXj i)i = hXi Xj i − hXi i hXj i .
(3.10)
Diagonalne elementy tej macierzy to wariancje poszczególnych zmiennych losowych,
σi2 = Xi2 = Xi2 − (hXi i)2 ,
(3.11)
natomiast elementy pozadiagonalne to kowariancje.
covij =
Xi Xj ,
i 6= j .
(3.12)
Współczynniki korelacji to
hhXi Xj ii
ρij = q
.
Xi2
Xj2
(3.13)
Rozważmy przypadek n = 2 ze zmiennymi losowymi X1 i X2 . Zmienne są
statystycznie niezależne jeśli spełniony jest któryś spośród poniższych warunków. Implikuje on wtedy pozostałe.
• wszystkie momenty faktoryzują się:
hX1m1 X2m2 i = hX1m1 i hX2m2 i
16
• funkcja charakterystyczna faktoryzuje się:
G(k1 , k2 ) = G1 (k1 )G2 (k2 )
• kumulanty znikają:
hhX1m1 X2m2 ii = 0 ,
jeśli
m1 , m2 6= 0.
Słabszym warunkiem od statystycznej niezależności jest brak korelacji, co wyraża się znikaniem kowariancji
hhX1 X2 ii = 0 .
3.3
(3.14)
Wielowymiarowy rozkład Gaussa
Wprowadzając notację wektorową x = (x1 , x2 , . . . , xn ) wielowymiarowy rozkład
Gaussa jest określony przez wzór
n
Pn (x) = C exp − 12 xT A x + bT x
o
(3.15)
gdzie A = AT jest dodatnio określoną macierzą symetryczną o wymiarze (n×n),
natomiast b jest stałym wektorem n-wymiarowym. Stała C jest tak dobrana
by rozkład P (x) był unormowany do jedynki
Z
dn x Pn (x) = 1 .
(3.16)
gdzie dn x = dx1 dx2 . . . dxn . Tak więc należy policzyć
C
3.4
−1
Z
=
n
o
dn x exp − 12 xT A x + bT x .
(3.17)
Stała normalizacyjna
Z symetryczności macierzy A wynika, że istnieje macierz ortogonalna O, diagonalizująca A
Λ = diag(λ1 , λ2 , . . . , λn ) = OT AO .
(3.18)
Z dodatniej określoności A wynika, że wartości własne λi > 0. Ponadto
Λ−1 = diag
1 1
1
, ,...,
λ1 λ2
λn
= O−1 A−1 (OT )−1 = OT A−1 O ,
gdyż własność ortogonalności macierzy O prowadzi do O−1 = OT .
17
(3.19)
Wykonując więc transformację x = Oy we wzorze (3.17), dostajemy
C −1 =
=
Z
n
dn y exp − 12 yT Λ y + (OT b)T y
n Z∞
Y
o
o
n
dyi exp − 12 λi yi2 + b0i yi ,
(3.20)
i=1−∞
gdzie wprowadziliśmy oznaczenie b0i = (b0 )i = (OT b)i . Wykładnik eksponenty
można zapisać w następującej formie
b0
λi 2
yi − 2 i yi
2
λi
−
λi
b0
yi − i
2
λi
=−
2
+
b0i 2
.
2λi
(3.21)
Zmieniając więc zmienne
s
x0i
i pamiętając, że
=
Z∞
b0
λi
yi − i
2
λi
2
dx e−x =
√
,
(3.22)
π,
(3.23)
−∞
znajdujemy
s
C
−1
=
s
=
n 02
bi
2n
1X
exp
λ1 . . . λ n
2 i=1 λi
) n Z∞
Y
n 02
bi
1X
(2π)n
exp
λ1 . . . λ n
2 i=1 λi
)
(
(
02
dx0i e−xi
i=1 −∞
.
(3.24)
Iloczyn wartości własnych jest równy wyznacznikowi macierzy Λ, stąd
λ1 . . . λn = det Λ = det A (det O)2 = det A .
(3.25)
gdyż det O = 1. Korzystając z wzoru (3.19) możemy zapisać sumę z eksponenty
we wzorze (3.24) w postaci:
n 02
X
b
i
i=1
λi
= (b0 )T Λ−1 b0 = bT (O Λ−1 OT ) b = bT A−1 b .
(3.26)
Ostatecznie otrzymujemy
s
C −1 =
(2π)n
exp{ 12 bT A−1 b}
det A
(3.27)
i stała normalizacyjna rozkładu Gaussa wynosi
s
C =
det A
exp{− 12 bT A−1 b}
(2π)n
18
(3.28)
łącząc wzór (3.19) z wynikiem (3.27), otrzymujemy przy tej okazji następujący ważny wzór
Z
3.5
s
n
o
dn x exp − 12 xT A x + bT x =
(2π)n
exp{ 12 bT A−1 b}
det A
(3.29)
Funkcja charakterystyczna rozkładu Gaussa
Obliczmy funkcję charakterystyczną rozkładu Gaussa (3.15)
Z
Gn (k) =
dn x eik·x Pn (x)
Z
dn x exp − 12 xT A x + (b + ik)T x
s
(2π)n
exp{ 12 (b + ik)T A−1 (b + ik)}.
det A
= C
= C
n
o
(3.30)
Stąd po podstawieniu wartości stałej normalizacyjnej, znajdujemy
Gn (k) = exp{− 12 kT A−1 k + i kT A−1 b}
(3.31)
Logarytm funkcji korelacji to
ln Gn (k) = − 12 kT A−1 k + i kT A−1 b
n
X
(iki )(ikj )
=
i,j=1
2
(A−1 )ij +
n
X
(iki )(A−1 b)i .
(3.32)
i=1
Stąd jedynie niezerowe kumulanty to wartości średnie
hXi i = hhXi ii = (A−1 b)i
(3.33)
hhXi Xj ii = (A−1 )ij .
(3.34)
oraz macierz kowariancji
Rozkład Gaussa jest więc całkowicie określony przez wartości średnie i macierz
kowariancji zmiennych.
Jeżeli zmienne losowe nie są skorelowane, tzn. hhXi Xj ii ∼ δij , to macierz
A−1 jest diagonalna, a zatem i A jest diagonalna. Wtedy wielowymiarowy
rozkład Gaussa faktoryzuje się co oznacza, że zmienne losowe są statystycznie
niezależne. Tak więc dla rozkładu Gaussa brak korelacji oznacza niezależność
statystyczną. Niezależność tą można zawsze uzyskać dokonując liniowej transformacji zmiennych (3.22).
19
Rozdział 4
Centralne twierdzenie
graniczne
4.1
Twierdzenie Wicka
Rozważmy rozkład Gaussa z b = 0:
n
o
Pn (x) = C exp − 12 xT A x ,
(4.1)
co oznacza, że wartość średnia każdej zmiennej losowej jest równa zeru. Wtedy
zachodzi
hhXi Xj ii = hXi Xj i = (A−1 )ij ,
(4.2)
a funkcja charakterystyczna to
n
Gn (k) = exp − 12 kT A−1 k
n
X
= exp − 21
o
(A−1 )ij ki kj
i,j=1
n
Y
=
n
o
exp − 21 (A−1 )ij ki kj .
(4.3)
i,j=1
Rozwijając eksponentę w szereg Taylora, znajdujemy
Gn (k) =
n
Y
∞
X
1 (iki )(ikj )
i,j=1 m=0
=
m!
n Y
i,j=1
2
m
hXi Xj i
(iki )(ikj )
1+
hXi Xj i + . . . .
2
(4.4)
W sumie występuje tylko parzysta liczba czynników (iki ). Oznacza to, że różne
od zera są tylko momenty z parzystą liczbą (m1 + . . . + mn ) we wzorze
Gn (k) =
∞
X
(m1 ...mn
(ik1 )m1 . . . (ikn )mn
hX1m1 . . . Xnmn i .
(m1 )! . . . (mn )!
)=0
20
(4.5)
Interesują nas momenty z mi ¬ 1,
hXi1 Xi2 . . . Xi2k i ,
(4.6)
w których liczba składników jest parzysta, a wskaźniki różnią się między sobą
i1 < i2 < . . . < i2k .
(4.7)
Wtedy wyrażenia reprezentowane przez kropki w (4.4) nie dają wkładu do momentów. Porównując prawe strony wyrażeń (4.5) i (4.4), otrzymujemy
hXi1 Xi2 . . . Xi2k i =
X
hXi Xj i hXk Xl i . . . hXm Xn i ,
(4.8)
gdzie sumowujemy po wszystkich podziałach ciągu (i1 , i2 , . . . i2k ) na uporządkowane pary. Liczba takich podziałów to
(2k − 1)(2k − 3) . . . 3 · 1 =
(2k)!
.
2k k!
(4.9)
Czynnik 1/2 ze wzoru (4.4) nie pojawia się po prawej stronie (4.8), gdyż każda
para wskaźników występuje dwukrotnie w iloczynie w tym wzorze.
Przykładowo, dla k = 2 znajdujemy
hX1 X2 X3 X4 i = hX1 X2 i hX3 X4 i + hX1 X3 i hX2 X4 i + hX1 X4 i hX2 X3 i .
4.2
Centralne twierdzenie graniczne
Rozważmy n niezależnych zmiennych losowych X1 , X2 , . . . , Xn posiadających
taką samą wartość średnią µ i wariancję σ 2 . Poza tym ich indywidualne rozkłady
prawdopodobieństwa są dowolne. Centralne twierdzenie graniczne orzeka, że dla
n → ∞, zmienna losowa
Y =
X1 + X2 + . . . + Xn − nµ
√
σ n
(4.10)
jest opisywana rozkładem Gaussa z wartością średnią hY i = 0 i wariancją σ 2 = 1.
Dowód przeprowadzimy
definiując nowe zmienne losowe X i = Xi − µ, dla
których wartość średnia X i = 0. Nie wpływa to na wariancje, gdyż dla nowej
zmiennej mamy
2
σX 2 = X i = (Xi − µ)2 = σ 2 .
(4.11)
i
Funkcja charakterystyczna zmiennej Y to
Z
G(k) =
=
eik(x1 +...+xn )/(σ
n
Y
i=1
G
(i)
k
√
σ n
√
=
n)
P (1) (x1 ) . . . P (n) (xn ) dx1 . . . dxn
k2
1−
+ ...
2n
!n
1
2
→ e− 2 k .
W granicy dużych n otrzymaliśmy funkcję charakterystyczną rozkładu Gaussa
(2.24) o zerowej wartości średniej i wariancji σ 2 = 1. Zaniedbane wyrazy w
nawiasie są co najmniej rzędu 1/n2 i mogą być pominięte w rozważanej granicy.
21
Rozdział 5
Procesy stochastyczne
5.1
Definicja
Funkcja losowa Y to odwzorowanie liczb rzeczywistych w zbiór zmiennych losowych
Y : t → Y (t) .
(5.1)
W zależności od tego jaką zmienną jest t, funkcję losową nazywamy
• procesem stochastycznym gdy t ∈ [0, ∞),
• łańcuchem stochastycznym, gdy t ∈ Z,
• polem stochastycznym jeśli t ∈ RD .
Proces stochastyczny jest całkowicie określony poprzez zbiór łącznych (gęstości) prawdopodobieństw dla dowolnych chwil ti :
Pn (y1 , t1 ; . . . ; yn , tn ) ,
n = 1, 2, . . . .
(5.2)
W przypadku ciągłych wartości zmiennych losowych, wielkość
Pn (y1 , t1 ; . . . ; yn , tn ) dy1 dy2 . . . dyn
(5.3)
określa prawdopodobieństwo, że zmienne losowe Yi (ti ) przyjmują wartości z
przedziałów, odpowiednio, (yi , yi + dyi ). Zbiór łącznych (gęstości) prawdopodbieństw nazywamy hierarchią.
Znajomość hierarchii pozwala policzyć każdą średnią, na przykład
hY (t1 ) . . . Y (tn )i =
Z
y1 . . . yn Pn (y1 , t1 ; . . . ; yn , tn ) dy1 . . . dyn .
Hierarchia (5.2) spełnia cztery podstawowe warunki zgodności:
22
(5.4)
(i)
Pn ­ 0
(ii)
Pn nie zmienia się przy zamianie dwóch par (yk , tk ) i (yl , tl )
(iii)
R
Pn (y1 , t1 ; . . . ; yn , tn ) dyn = Pn−1 (y1 , t1 ; . . . ; yn−1 , tn−1 )
(iv)
R
P1 (y1 , t1 ) dy1 = 1
Kolmogorow udowodnił, że każdy układ funkcji spełniających te cztery własności wyznacza pewien proces stochastyczny Y (t).
Proces stochastyczny jest stacjonarny jeśli wszystkie Pn zależa jedynie od
różnic czasów:
Pn (y1 , t1 + τ ; . . . ; yn , tn + τ ) = Pn (y1 , t1 ; . . . ; yn , tn )
(5.5)
Dla rozkładu P1 zachodzi wtedy
P1 (y1 , t1 + τ ) = P1 (y1 , t1 ) .
(5.6)
Tak więc, warunkiem koniecznym, ale niewystarczającym by proces był stacjonarny jest by P1 nie zależało od czasu.
5.2
Prawdopodobieństwo warunkowe
Prawdopodobieństwo warunkowe zdefiniowane poniżej
P1|1 (y2 , t2 | y1 , t1 ) =
P2 (y2 , t2 ; y1 , t1 )
P1 (y1 , t1 )
(5.7)
określa prawdopodobieństwo że dla t2 zmienna losowa Y (t2 ) = y2 pod warunkiem, że dla t1 zmienna losowa przyjmuje wartość Y (t1 ) = y1 . Prawdopodobieństwo warunkowe jest nieujemne i unormowane
Z
dy2 P1|1 (y2 , t2 | y1 , t1 ) = 1
(5.8)
Ogólnie, ustalając wartości zmiennej losowej Y (t) w k zadanych chwilach,
pytaamy jakie jest prawdopodobieństwo przyjęcia określonych wartości w l innych chwilach. Wprowadzając oznaczenie
k = (yk , tk )
(5.9)
otrzymujemy następujący wzór na prawdopodbieństwo warunkowe
Pl|k (k + l . . . k + 1|k . . . 1) =
Pk+l (k + l . . . k + 1, k . . . 1)
.
Pk (k . . . 1)
(5.10)
Warunek unormowania przyjmuje teraz postać
Z
dyk+l . . . dyk+1 Pl|k (k + l . . . k + 1|k . . . 1) = 1 .
(5.11)
Dodajmy, że uporządkowanie czasowe nie odgrywa roli w podanych definicjach,
ze względu na własność (ii) hierarchii.
23
5.3
Procesy Markowa
Jest to proces stochastyczny o własności takiej, że dla każdego zbioru kolejnych
chwil
tn > . . . > t 2 > t 1
(5.12)
zachodzi następujący warunek dla prawdopodobieństwa warunkowego
P1|(n−1) (yn , tn | yn−1 , tn−1 ; . . . ; y1 , t1 ) = P1|1 (yn , tn | yn−1 , tn−1 )
(5.13)
Tym samym rozkład P1|(n−1) zależy tylko od chwili tn−1 i żadna informacja
o chwilach wcześniejszych nie ma na niego wpływu. Wielkość P1|1 nazywamy
prawdopodobieństwem przejścia. Wprowadzając oznacznie
k ≡ (yk , tk ) ,
(5.14)
zapiszemy warunek Markowa w postaci
P1|(n−1) (n | n − 1; . . . ; 1) = P1|1 (n | n − 1)
(5.15)
Proces Markowa jest określony przez prawdopodobieńtwo jednocząstkowe
P1 oraz prawdopodobieństwo przejścia P1|1 . Na ich podstawie można odtworzyć całą hierarchię prawdopodobieństw.
Na przykład, dla rozkładu dwucząstkowego z t2 > t1 otrzymujemy ze definicji prawdopodobieństwa warunkowego
P2 (2, 1) = P1|1 (2 | 1) P1 (1) .
(5.16)
Podobnie, dla rozkładu trójcząstkowego z t3 > t2 > t1 , korzystając dodatkowo
z definicji procesów Markowa, mamy
P3 (3, 2, 1) = P1|1 (3 | 2, 1) P2 (2, 1) = P1|1 (3 | 2) P1|1 (2 | 1) P1 (1) .
(5.17)
Powyższe równania służa do wyprowadzenia podstawowych równań jakie muszą
spełniać P1 i P1|1 w procesach Markowa.
5.4
Równanie Chapmana–Kołmogorowa–Smoluchowskiego
Całkując obie strony równania (5.16) po y1 znajdujemy warunek dla prawdopodobieństwa jednocząstkowego
Z
P1 (y2 , t2 ) =
dy1 P1|1 (y2 , t2 | y1 , t1 ) P1 (y1 , t1 )
(5.18)
Zapisując to równanie dla t1 = t2 otrzymujemy dodatkowy warunek
P1|1 (y2 , t1 | y1 , t1 ) = δ(y2 − y1 ) .
24
(5.19)
Całkując obie strony równania (5.17) po y2 otrzymujemy
Z
P2 (y3 , t3 ; y1 , t1 ) = P1 (y1 , t1 )
dy2 P1|1 (y3 , t3 | y2 , t2 ) P1|1 (y2 , t2 | y1 , t1 ) .
Dzieląc obie strony przez P1 (y1 , t1 ), a następnie korzystając z definicji prawdopodobieństwa warunkowego (5.7), otrzymujemy równania Chapmana–Kolmogorowa–Smoluchowskiego-Einsteina dla prawdopodobieństw przejścia
P1|1 (y3 , t3 | y1 , t1 ) =
Z
dy2 P1|1 (y3 , t3 | y2 , t2 ) P1|1 (y2 , t2 | y1 , t1 )
(5.20)
Każde dwie nieujemne funkcje P1 i P1|1 spełniające równania (5.18) i (5.20)
definiują jednoznacznie proces Markowa.
5.5
Stacjonarny proces Markowa
Definiuje się stacjonarne procesy Markowa, dla których P1 nie zależy od czasu,
natomiast P1|1 zależy od czasów poprzez ich różnicę
P1|1 (y2 , t2 | y1 , t1 ) = P1|1 (y2 | y1 ; t2 − t1 )
(5.21)
Wtedy funkcje hierarchii (5.2) spełniają warunek stacjonarności (5.5). Na
przykład, dla funkcji dwucząstkowej zachodzi
P1|1 (y2 , t2 + τ | y1 , t1 + τ ) = P1|1 (y2 | y1 ; t2 − t1 ) = P1|1 (y2 , t2 | y1 , t1 ) .
Warunki konsystencji przyjmują teraz postać
0
P1|1 (y3 | y1 ; τ + τ ) =
Z
Z
P1 (y2 ) =
dy2 P1|1 (y3 | y2 ; τ 0 ) P1|1 (y2 | y1 ; τ )
(5.22)
dy1 P1|1 (y2 | y1 ; τ ) P1 (y1 )
(5.23)
W dalszych rozważaniach przyjmiemy oznaczenie
P1|1 (y2 | y1 ; τ ) ≡ Pτ (y2 | y1 ) .
25
(5.24)
Rozdział 6
Przykłady procesów Markowa
6.1
Proces dwudzielny – losowego telegrafu
Jest to proces, w którym zmienna losowa przyjmuje wartości y ∈ {−1, 1}, natomiast prawdopodobieństwo przejścia jest jednorodne w czasie i zadane przez
0
0
P1|1 (y, t | y 0 , t0 ) = 12 {1 + e−2(t−t ) } δyy0 + 21 {1 − e−2(t−t ) } δy(−y0 )
(6.1)
Ponadto prawdopodbieństwo jednocząstkowe jest niezależne od czasu i równe
P1 (1, t) = P1 (−1, t) =
1
2
.
(6.2)
Otrzymujemy więc proces stacjonarny. Możemy wtedy użyć oznaczeń z poprzedniego rozdziału i zapisać prawdpodobieństwa przejścia między poszczególnymi stanami w następującej postaci
Pτ (1|1) = Pτ (−1| − 1) = 12 {1 + e−2τ }
Pτ (−1|1) = Pτ (1| − 1) = 12 {1 − e−2τ }
(6.3)
(6.4)
łatwo sprawdzić warunki unormowania sumy prawdopodobieństw przejścia z
danego stanu początkowego do dowolnego stanu końcowego
Pτ (1|1) + Pτ (−1|1) = Pτ (1| − 1) + Pτ (−1| − 1) = 1 .
(6.5)
łatwo też sprawdzić, że spełnione są równania Chapmana-Kołmogorowa, np.
dla stanów y3 = y1 = 1 zachodzi
Pτ 0 +0 (1|1) = Pτ 0 (1| − 1) Pτ (−1|1) + Pτ 0 (1|1) Pτ (1|1)
=
1
−2τ 0 }{1 − e−2τ }
4 {1 − e
=
−2(τ 0 +τ )
1
}.
2 {1 + e
26
0
+ 41 {1 + e−2τ }{1 + e−2τ }
(6.6)
Podobnie dlo pozostałych konfiguracji stanów. Ponadto, spełnione jest równanie
(5.18). Na przykład
P1 (1, t) = Pt (1|1) P1 (1, 0) + Pt (1| − 1) P1 (−1, 0)
=
1
−2τ }
4 {1 + e
+ 41 {1 − e−2τ } =
1
2
(6.7)
i podobnie P1 (−1, t) = 12 . Prawdopodbieństwo jednocząstkowe rzeczywiście nie
zmienia się z czasem.
6.2
Proces Poissona
W procesie tym zmienna losowa przyjmuje wartości dyskretne n = 0, 1, 2, . . ..
Prawdopodobieństwo przejścia dla chwil t2 ­ t1 ­ 0 oraz n2 ­ n1 to
P1|1 (n2 , t2 | n1 , t1 ) =
(t2 − t1 )n2 −n1 −(t2 −t1 )
e
.
(n2 − n1 )!
(6.8)
Dodatkowo, w chwili początkowej prawdopodobieństwo jednocząstkowe jest
zadane przez
P1 (n, 0) = δn0 .
(6.9)
Stąd wzór na prawdopodobieństwo jednocząstkowe w dowolnej chwili czasu
zgodny z relacją (5.18)
X
P1|1 (n, t | m, 0) P1 (m, 0) = P1|1 (n, t | 0, 0) =
m
tn −t
e = P1 (n, t) .
n!
(6.10)
Proces Poissona nie jest stacjonarny, gdyż prawdpodobieństwo jednocząstkowe (6.11) zależy od czasu. P1 (n, t) opisuje rozkład prawdopodobieństwa liczby
znaków punktowych wygenerowanych w przedziale czasowym [0, t].
Udowodnijmy jeszcze, że spełnione jest równanie Chapmana-Kołmogorowa.
Dla t3 ­ t2 ­ t1 ­ 0 oraz n3 ­ n2 ­ n1 zachodzi
P1|1 (n3 , t3 | n1 , t1 ) =
n3
X
P1|1 (n3 , t3 | n2 , t2 ) P1|1 (n2 , t2 | n1 , t1 )
n2 ­n1
=
n3
X
(t3 − t2 )n3 −n2 −(t3 −t2 ) (t2 − t1 )n2 −n1 −(t2 −t1 )
e
e
n2 ­n1
(n3 − n2 )!
(n2 − n1 )!
n3 (t3 − t2 )n3 e−(t3 −t1 ) X
t2 − t1 n2
(n3 − n1 )!
=
n
1
(t2 − t1 ) (n3 − n1 )! n ­n t3 − t2
(n3 − n2 )! (n2 − n1 )!
2
1
27
(6.11)
Wyrażenie z sumą po zmianie wskaźnika na n02 = n2 − n1 to
n3X
−n1 n02 =0
=
=
=
t2 − t1
t3 − t2
n0 +n1
2
(n3 − n1 )!
(n3 − n1 − n02 )! (n02 )!
t2 − t1
t3 − t2
!
n1 n3X
0
−n1
n3 − n1
t2 − t1 n2
t2 − t1
t3 − t2
n1 n02 =0
1+
n02
t2 − t1
t3 − t2
t3 − t2
n3 −n1
=
t2 − t1
t3 − t2
n1 t3 − t1
t3 − t2
n3 −n1
(t2 − t1 )n1
(t3 − t1 )n3 −n1
(t3 − t2 )n2
Podstawiając do wzoru (6.11) otrzymamy oczekiwany wynik
P1|1 (n3 , t3 | n1 , t1 ) =
(t3 − t1 )n3 −n1 −(t3 −t1 )
e
.
(n3 − n1 )!
(6.12)
Wzór (5.18) można udowodnić korzystając z relacji P1 (n, t) = P1|1 (n, t | 0, 0) i
równania Chapmana-Kołmogorowa:
P1 (n2 , t2 ) = P1|1 (n2 , t2 | 0, 0) =
X
P1|1 (n2 , t2 | n1 , t1 ) P1|1 (n1 , t1 | 0, 0)
n1
=
X
P1|1 (n2 , t2 | n1 , t1 ) P1 (n1 , t1 ) .
(6.13)
n1
6.3
Proces Ornsteina-Uhlenbecka
Jest to proces stacjonarny zdefiniowany zdefiniowany dla zmiennej losowej
przyjmującej wartości rzeczywiste, −∞ < y < ∞, poprzez
n
o
1
P1 (y) = √ exp − 12 y 2
2π
(6.14)
(
1
(y2 − y1 e−τ )2
Pτ (y2 | y1 ) = p
exp
−
2(1 − e−2τ )
2π(1 − e−2τ )
)
.
(6.15)
Sprawdzimy, że spełnione jest równanie Chapmana-Kołomogorowa. Wprowadzając oznaczenie: ∆τ = 1 − e−2τ , otrzymujemy
Pτ 0 +τ (y3 | y1 ) =
1
= p
2
(2π) ∆τ 0 ∆τ
Z ∞
−∞
dy2 Pτ 0 (y3 | y2 ) Pτ (y2 | y1 )
0
(
(y3 − y2 e−τ )2 (y2 − y1 e−τ )2
dy2 exp −
−
2∆τ 0
2∆τ
−∞
Z ∞
28
)
(6.16)
Wykładnik w eksponcie możemy zapisać w następujący sposób
0
(
∆τ +τ 0
(y3 − y1 e−(τ +τ ) )2
exp −
(y2 − a)2 −
∆τ ∆τ 0
2∆τ +τ 0
)
gdzie a jest wyrażeniem niezależnym od y2 . Całkując po tej zmiennej w równaniu (6.16) zgodnie ze wzorem
Z ∞
−Ay 2 /2
dy e
r
=
−∞
2π
,
A
(6.17)
otrzymujemy oczekiwany wynik
1
Pτ 0 +τ (y3 | y1 ) = p
2
(2π) ∆τ 0 ∆τ
s
0
(
∆τ ∆τ 0
(y3 − y1 e−(τ +τ ) )2
2π
exp −
∆τ +τ 0
2∆τ +τ 0
(
0
(y3 − y1 e−(τ +τ ) )2
exp −
= q
2(1 − e−2(τ +τ 0 ) )
2π(1 − e−2(τ +τ 0 ) )
1
)
)
.
(6.18)
Równanie konsystencji (5.18) jest również spełnione na mocy związku
P1 (y) = lim Pτ (y | y1 )
τ →∞
(6.19)
i równania Chapmana-Kołomogorowa, w którym wykonujemy powyższą granicę.
Wartość średnia dla procesu Ornsteina-Uhlenbecka jest równa zeru
h Y (t)i =
Z
y P1 (y) dy = 0 ,
(6.20)
natomiast dwupunktowa funkcja autokorelacji to
κ(τ ) = h Y (t + τ )Y (t)i =
Z
y1 y2 P2 (y2 , t + τ ; y1 , t) dy1 dy2
Z
=
y1 y2 Pτ (y2 | y1 ) P1 (y1 ) dy1 dy2 = e−τ .
Twierdzenie Dooba orzeka, że jest to jedyny proces Markowa, który jest
stacjonarny i gausowski.
6.4
Proces Wienera
Bardzo ważnym procesem Markowa jest proces Wienera, w którym zmienna losowa przyjmuje wartości rzeczywiste −∞ < y < ∞. Opisuje on losowe położenie
cząstki Browna, co pokażemy w jednym z dalszych rodziałów.
29
Prawdopodobieństwo przejścia jest zdefiniowane dla t2 > t1 wzorem:
(
1
(y2 − y1 )2
P1|1 (y2 , t2 | y1 , t1 ) = p
exp −
2(t2 − t1 )
2π(t2 − t1 )
)
.
(6.21)
Dodatkowo zakładamy, że dla t = 0 prawdopodobieństwo jednocząstkowe
P1 (y, 0) = δ(y) .
(6.22)
Wtedy z równania (5.18) wynika
(
y2
1
exp −
P1 (y, t) = √
2t
2πt
)
.
(6.23)
Tak więc proces Wienera nie jest procesem stacjonarnym ze względu na
zależność P1 od czasu.
Wartość średnia dla procesu Wienera jest równa zero
hY (t)i =
Z
y P1 (y, t) dy = 0 ,
(6.24)
natomiast dwupunktowa funkcja korelacji dla czasów t2 > t1 to
hY (t1 )Y (t2 )i =
Z
y1 y2 P2 (y2 , t2 ; y1 , t1 ) dy1 dy2
Z
=
y1 y2 P1|1 (y2 , t2 | y1 , t1 ) P1 (y1 , t1 ) dy1 dy2
= t1 = min{t1 , t2 } .
30
(6.25)
Rozdział 7
Równanie Master
7.1
Małe różnice czasów
Zapiszmy prawdopodobieństwo przejscia w procesie Markowa, P1|1 (y2 , t2 | y1 , t1 ),
dla małych wartości różnicy czasu t2 − t1 ≡ δt.
Pamiętając o warunku (5.19),
P1|1 (y2 , t1 | y1 , t1 ) = δ(y2 − y1 ) ,
(7.1)
zapiszemy z dokładnością do członów liniowych w δt:
P1|1 (y, t + δt | y 0 , t) ' δ(y − y 0 ) A(y 0 , δt) + Wt (y | y 0 ) δt ,
(7.2)
A(y 0 , δt = 0) = 1 .
(7.3)
gdzie
(y | y 0 )
Funkcja Wt
jest prawdopodobieństwem przejścia na jednostkę czasu ze
stanu y 0 do stanu y w chwili t. Dla stacjonarnych procesów Markowa Wt (y | y 0 )
nie zależy od czasu.
Całkując obie strony równania (7.6) po y, otrzymujemy z warunku unormowania (5.8) prawdopodobieństwa przejścia,
Z
dy P1|1 (y, t + δt | y 0 , t) = 1 = A(y, δt) + δt
Z
dy Wt (y | y 0 ) .
(7.4)
Stąd wynika następujące równanie
A(y, δt) = 1 − δt
Wielkość
0
a0 (y , t) =
Z
Z
dy Wt (y | y 0 ) .
dy Wt (y | y 0 )
(7.5)
jest całkowitym prawdopodobieństwem przejścia na jednostkę czasu ze stanu y 0
do jakiegokolwiek innego stanu. Stąd 1 − a0 (y 0 , t) jest analogicznym prawdopodobieństwem, że układ pozostanie w stanie y 0 .
Tak więc prawdopodobieństwo przejścia (7.2) dla małych czasów przyjmuje
postać
P1|1 (y, t + δt | y 0 , t) ' δ(y − y 0 ) (1 − a0 (y 0 , t)) + Wt (y | y 0 ) δt
31
(7.6)
7.2
Wyprowadzenie równania Master
Napiszmy równanie Chapmana-Kołmogorowa dla uporządkowanych chwil czasowych: t + δt > t > t0 ,
P1|1 (y, t + δt | y0 , t0 ) =
Z
dy 0 P1|1 (y, t + δt | y 0 , t) P1|1 (y 0 , t | y0 , t0 ) .
(7.7)
Po podstawieniu równania (7.6) otrzymujemy
P1|1 (y, t + δt | y0 , t0 ) ' (1 − a0 (y, t) δt) P1|1 (y, t | y0 , t0 )
Z
+ δt
dy 0 Wt (y | y 0 ) P1|1 (y 0 , t | y0 , t0 ) .
(7.8)
Stąd, po wykorzystaniu relacji (7.5), w granicy δt → 0 otrzymujemy równanie
Master dla prawdopodobieństwa przejścia ze stanu y0 w chwili t0
∂
P (y, t | y0 , t0 ) =
∂t 1|1
Z
n
dy 0 Wt (y | y 0 )P1|1 (y 0 , t | y0 , t0 ) − Wt (y 0 | y)P1|1 (y, t | y0 , t0 )
o
(7.9)
Identyczne w formie równanie otrzymujemy dla prawdopodobieństwa jednocząstkowego powstałego z uśrednienia prawdopodobieństwa przejścia po
rozkładzie jednocząstkowym w chwili początkowej t0 ,
Z
P1 (y, t) =
dy0 P1|1 (y, t | y0 , t0 ) P1 (y0 , t0 ) .
(7.10)
Tak więc mamy
∂P1 (y, t)
=
∂t
Z
dy 0 Wt (y | y 0 ) P1 (y 0 , t) − Wt (y 0 | y) P1 (y, t) .
(7.11)
Pierwszy wyraz po prawej stronie opisuje zmianę P1 (y, t) wynikającą z przejść
do stanu y w czasie δt, natomiast drugi wyraz z ujemnym znakiem opisuje
analogiczną zmianę wynikającą z opuszczenia stanu y. Równanie Master jest
więc równaniem bilansu przyjść dla ustalonego stanu.
32
7.3
Równanie Master dla stanów dyskretnych
W wersji z dyskretnymi wartościami n zmiennej losowej y równanie Master
(7.11) dla prawdopodobieństwa jednocząstkowego przyjmuje postać
X
dPn (t)
=
{Wnn0 (t) Pn0 (t) − Wn0 n (t) Pn (t)} .
dt
n0
(7.12)
Równanie to można zapisać w formie macierzowej
X
dPn (t)
=
Wnn0 (t) Pn0 (t) ,
dt
n0
(7.13)
gdzie macierz Wnn0 jest zadana wzorem
!
Wnn0 = Wnn0 −
X
Wn00 n δnn0 =
n00
n 6= n0

Wnn0



dla
P


Wn00 n
 −
dla n = n0
n00 6=n
Wyrazy diagonalne Wnn są równe (minus) sumie wyrazów pozdiagonalnych
w kolumnie n,
X
Wn00 n ,
(7.14)
Wnn = −
n00 6=n
tak więc, suma wyrazów w dowolnej kolumny macierzy W wynosi zero
X
Wn00 n = Wnn +
n00
X
Wn00 n = 0 .
(7.15)
n00 6=n
Warunek ten jest konieczny do zachowania całkowitego prawdpodobięnstwa w
dowolnej chwili czasu
XX
XX
d X
0
0
0
Pn (t) =
Wnn (t) Pn (t) =
Wnn (t) Pn0 (t) = 0 .
dt n
0
n n0
n
n
Przykładowo, dla trzech stanów, n = 1, 2, 3, macierz W ma postać

−(W21 + W31 )



W=


W12
W13




.


W21
−(W12 + W32 )
W23
W31
W32
−(W13 + W23 )
33
(7.16)
Rozdział 8
Procesy jednokrokowe
Rozważmy proces Markowa z ciągłym czasem, w którym zbiorem dopuszczalnych wartości są liczby całkowite n. W procesach jednokrokowych przejścia następują tylko pomiędzy najbliższymi sąsiadami, n → (n − 1) z prawdopodobieństwem przeskoku rn oraz n → (n + 1) z prawdopodobieństwem przeskoku gn .
Macierz przejścia przyjmuje więc postać
Wnn0 = rn0 δn(n0 −1) + gn0 δn(n0 +1) ,
(8.1)
co prowadzi do równanie Master
dPn
= rn+1 Pn+1 + gn−1 Pn−1 − (rn + gn ) Pn
dt
(8.2)
Człony z dodatnim znakiem po prawej stronie opisują przejścia z sąsiednich
poziomów na poziom n, natomiast człony z ujemnym znakiem opisują przejścia
z poziomu n na sąsiednie (rozpad poziomu). Poniżej dyskutujemy dwa przykłady
procesów jednokrokowych.
8.1
Proces Poissona
Proces Poissona opisuje bładzenie przypadkowe ze stałym prawdopodobieństwem po zbiorze liczb naturalnych n = 0, 1, 2, . . . z krokami tylko w prawo
rn = 0 ,
gn = λ .
(8.3)
Równanie Chapmana-Kolmogorowa przyjmuje wtedy postać
Pn (t + δt) = λ δt Pn−1 (t) + Pn (t)(1 − λ δt) ,
(8.4)
prowadzącą w granicy δt → 0 do równania Master
Ṗn (t) = λPn−1 (t) − λPn (t) .
34
(8.5)
Zakładamy, że w chwili t = 0 cząstka znajduje się w punkcie n = 0, tzn.
Pn (0) = δn0 .
(8.6)
Poszukajmy rozwiązania metodą funkcji tworzącej
F (z, t) =
X
z n Pn (t) .
(8.7)
Pn (t) = 1 .
(8.8)
n
Oczywiście zachodzi
F (1, t) =
X
n
Wykonując takie sumowanie po obu stronach równania (8.7), następnie zmieniając odpowiednio zmienne sumowania, otrzymujemy równanie
∂F (z, t)
= λ (z − 1) F (z, t) .
∂t
(8.9)
Rozwiązaniem spełniającym warunek początkowy F (z, 0) = 1 jest
F (z, t) = exp{λ t(z − 1)} = e
∞
X
(λ t)n n
z ,
−λ t
n=0
n!
(8.10)
co prowadzi do rozkładu Poissona (6.2):
Pn (t) =
(λ t)n −λ t
e
.
n!
(8.11)
o wartości średniej i wariancji
µ = σ2 = λ t .
8.2
(8.12)
Symetryczne bla̧dzenie przypadkowe
Symetryczne błądzenie przypadkowe po zbiorze liczb n = 0, ±1, ±2, . . . jest zdefiniowane przez warunek:
rn = gn = c .
(8.13)
Równanie Chapmana-Kołmogorowa to
Pn (t + δt) = c δt Pn+1 (t) + c δt Pn−1 (t) + Pn (t)(1 − 2 c δt) .
(8.14)
Po właczeniu parametru c do definicji jednostki czasu, równanie Master przyjmuje postać
Ṗn (t) = Pn+1 (t) + Pn−1 (t) − 2Pn (t) ,
(8.15)
z warunkiem początkowym takim jak dla procesu Poissona:
Pn (0) = δn0 .
35
(8.16)
Rozwiązując to równanie metodą funkcji tworzącej (8.7), otrzymujemy
∂F (z, t)
=
∂t
1
z + − 2 F (z, t) .
z
(8.17)
Korzystając z warunku początkowego F (z, 0) = 1, znajdujemy rozwiązanie
1
F (z, t) = exp t z + − 2
z
.
(8.18)
Rozwijając w szereg potęg z otrzymamy
∞ k k
X
z t
F (z, t) = e−2t
k!
k=0
∞
X
= e−2t
!
zn
n=−∞
∞ −l l
X
z t
l=0
n+l>0
X
l=0
!
l!
t2l+n
.
l! (n + l)!
(8.19)
Stąd prawdopodobieństwo
Pn (t) = e−2t
n+l>0
X
l=0
t2l+n
= e−2t I|n| (2t) ,
l!(n + l)!
gdzie In jest funkcją Bessela. W granicy t → ∞, n → ∞ przy ustalonym n2 /t
otrzymujemy jako wyrażenie asymptotyczne rozkład Gaussa
(
)
1
n2
Pn (t) = √
exp −
.
4t
4πt
(8.20)
o wartości średniej i wariancji
σ 2 = 2t .
µ = 0,
36
(8.21)
Rozdział 9
Równania ewolucji QCD
Przykładem procesów Markowa jest opis emisji kwarkowo gluonowej w chromodynamice kwantowej w przybliżeniu wiodących logarytmów.
Niech qx (t) będzie prawdopodobieństwem znalezienia kwarku w nukleonie z
ułamkiem pędu podłużnego nukleonu x ∈ [0, 1] przy skali t = ln(Q2 /Q20 ), zwanej
odtąd czasem. Napiszmy równanie bilansu (7.6) dla naszego prawdopodobieństwa w chwili t + δt
X
qx (t + δt) = δt
Pxx0 (t) qx0 (t) + qx (t) 1 −
x0 >x
X
Px0 x (t) δt .
(9.1)
x0 <x
|
{z
}
|
emisja rzeczywista
{z
emisja wirtualna
}
Funkcja Pxx0 (t) jest prawdopodbieństwem na jednostkę czasu emisji rzeczywistego gluonu przez kwark o ułamku pędu x0 , w wyniku której kwark uzyskuje
ułamek x < x0 . Suma w nawiasie po prawej stronie równania (9.1),
X
Px0 x (t) δt ,
(9.2)
x0 <x
to całkowite prawdopodobieństwo zmiany ułamka pędu kwarku x w czasie δt.
Nowy ułamek x0 < x, gdyż parton traci pęd. Stąd wyrażenie w nawiasie,
1−
X
Px0 x (t) δt ,
(9.3)
x0 <x
to prawdopodbieństwo, że w czasie δt ułamek x pędu kwarku nie ulega zmianie.
Opisuje więc ono emisję wirtualną.
Tak sformułowane równanie zachowuje normalizację całkowitego prawdopodobieństwa
X
X
qx (t + δt) =
qx (t) .
(9.4)
x
x
Mamy bowiem
X
x
qx (t + δt) =
X
x
qx (t) +
X X
x
Pxx0 (t) qx0 (t) −
x0 >x
37
X
x0 <x
Px0 x (t) qx (t) δt .
Wysumowane po x wyrażenie w nawiasie znika, gdyż
X
{. . .} =
XX
=
XX
x
x
x
=
XX
Θ(x0 > x) Pxx0 qx0 −
XX
x
x0
Θ(x0 > x) Pxx0 qx0 −
Θ(x < x0 ) Pxx0 qx0
x
XX
x
x0
Θ(x0 < x) Px0 x qx
x0
x0
x0
XX
x
Θ(x0 > x) Pxx0 qx0 −
Θ(x0 > x) Pxx0 qx0 = 0 ,
x0
gdzie w drugim członie zmieniliśmy najpierw oznaczenie x ↔ x0 , a następnie
kolejność sumowania.
Wykonując granicę δt → 0 w równaniu (9.1), otrzymujemy “równanie ewolucji”, będące w istocie równaniem Master
X
X
dqx (t)
Pxx0 (t) qx0 (t) − qx (t)
Px0 x (t) .
=
dt
x0 >x
x0 <x
{z
|
|
}
emisja rzeczywista
{z
(9.5)
}
emisja wirtualna
Sumowanie dla części rzeczywistej i wirtualnej odpowiada całkowaniu, odpowiednio
Z
Z
X
1
→
dx0 ,
X
x
x0 >x
x
→
dx0 ,
(9.6)
0
x0 <x
co prowadzi do następującego równania ewolucji w lekko zmienionych oznaczeniach
Z1
Zx
dq(x, t)
= dx0 P (x, x0 ; t) q(x0 , t) − q(x, t) dx0 P (x0 , x; t) .
(9.7)
dt
x
0
Prawdopodobieństwo przejścia zależą od ułamków pędu w następujący sposób
P (x, x0 ; t) =
1
P
x0
x
,t ,
x0
(9.8)
co daje
dq(x, t)
=
dt
Z1
x
dx0
x
P 0 , t q(x0 , t) − q(x, t)
x0
x
Zx
dx0
x0
P
,t .
x
x
(9.9)
0
Zmieniając zmienną całkowania na z = x/x0 w pierwszej całce, a w drugiej całce
na z = x0 /x, znajdujemy równanie ewolucji Altarelliego-Parisiego
dq(x, t)
=
dt
Z1
x
dz
P (z, t) q(x/z, t) − q(x, t)
z
Z1
dz P (z, t) .
0
38
(9.10)
Prawdopodobieństwo przejścia ma niecałkowalną osobliwość dla z = 1,
P (z, t) ∼
1
1−z
(9.11)
i górna granica całkowania
powinna
być zastąpiona przez 1 − . Można jednak
R
R
R
rozbić ostatnią całkę: 01 = 0x + x1 , by zapisać
dq(x, t)
=
dt
Z1
x
dz
P (z, t) {q(x/z, t) − zq(x, t)} − q(x, t)
z
Zx
dz P (z, t) .
(9.12)
0
W pierwszym wyrażeniu podcałkowym pojawia się wielkość
q(x/z, t) − zq(x, t)
,
1−z
(9.13)
która jest nieosobliwa dla z = 1, jeśli istnieje skończona granica dla z → 1.
Równanie (9.12) można zapisać przy pomocy definicji dystrybucji [. . .]+
[P (z)]+ = P (z) − δ(1 − z)
Z1
dy P (y) .
(9.14)
0
Działa ona na dowolną funkcję próbna f (z) w następujący sposób, regularyzując
osobliwość P (z) dla z = 1,
Z1
Z1
dz [P (z)]+ f (z) =
dz P (z) {f (z) − f (1)} ,
(9.15)
0
0
Adaptując ten wzór dla prawej strony równania (9.12), znajdujemy
Z1
x
dz
[P (z)]+ q(x/z) =
z
Z1
1
dz [P (z)]+ q(x/z) −
z
0
Z1
=
Zx
dz
P (z) q(x/z)
z
0
1
dz P (z)
q(x/z) − q(x) −
z
0
Z1
=
x
Zx
dz
P (z) q(x/z)
z
0
1
q(x/z) − q(x) − q(x)
dz P (z)
z
Zx
dz P (z) .
0
Stąd ostatecznie równanie ewolucji (9.12) przyjmuje postać
dq(x, t)
=
dt
Z1
x
dz
[P (z, t)]+ q(x/z, t) .
z
39
(9.16)
Rozdział 10
Równanie Fokkera-Plancka
Rozważmy równanie Master
∂P (y, t)
=
∂t
Z
dy 0 Wt (y | y 0 ) P (y 0 , t) − Wt (y 0 | y) P (y, t) .
(10.1)
Popatrzmy na prawdopodobieństwo przejścia Wt (y | y 0 ) jako na funkcje punktu
startowego y 0 i skoku r = y − y 0 :
Wt (y | y 0 ) = Wt (y − y 0 , y 0 ) = Wt (r , y − r) .
(10.2)
Podobnie dla prawdopodbieństwa Wt (y 0 | y) mamy
Wt (y 0 | y) = Wt (y 0 − y , y) = Wt (−r , y) .
(10.3)
Tak więc, otrzymujemy
∂P (y, t)
=
∂t
Z
dr {Wt (r , y − r) P (y − r , t) − Wt (−r , y) P (y, t)} .
(10.4)
Przyjmijmy następujące założenia:
1. Dla ustalonego punktu początkowego y 0 możliwe są tylko małe przeskoki
r, tzn. prawdopodobieństwo przejścia
Wt (r , y 0 ) ≈ 0
dla
|r| > δ .
2. Przy zmianie punktu początkowego y 0 prawdopodobieństwo przejścia zmienia się powoli
Wt (r , y 0 ) ≈ Wt (r , y 0 + ∆y)
dla
|∆y| < δ .
3. Prawdopodbieństwo P (y 0 , t) również zmienia się wolno z y 0 .
40
Możemy wtedy rozwinąć pierwsze wyrażenie pod całką w (10.4) względem drugiego argumentu wokół y dla |r| < δ:
Wt (r, y − r) P (y − r, t) = Wt (r, y) P (y, t)
+
∞
X
(−r)k ∂ k
k!
k=1
∂y k
{Wt (r, y) P (y, t)} .
(10.5)
Po podstawieniu do równania (10.4) i założeniu, że Wt (r, y) = Wt (−r, y) otrzymujemy równanie Moyala
∞
X
∂P (y, t)
(−1)k ∂ k
=
{ak (y, t) P (y, t)}
∂t
k! ∂y k
k=1
(10.6)
gdzie wspólczynniki funkcyjne ak (y, t) to momenty przeskoku
Z
dr rk Wt (r, y) .
ak (y, t) =
(10.7)
|r|<δ
Zgodnie z definicją skoku, r jest zawsze różnicą między punktem końcowym
a początkowym, w tym wypadku y. Współczynniki te zawierają informację o
mikroskopowym prawdopodobieństwie przejścia na jednostkę czasu Wt .
Równania Fokkera-Plancka otrzymujemy zachowując tylko dwa pierwsze
wyrazy sumy w równaniu Moyala
∂P (y, t)
∂
1 ∂2
= − {a1 (y, t) P (y, t)} +
{a2 (y, t) P (y, t)}
∂t
∂y
2 ∂y 2
(10.8)
Jest to równanie typu równania dyfuzji, w którym pierwszy wyraz po prawej
stronie nazywa się członem dryfowym, natomiast drugi członem dyfuzyjnym.
10.1
Interpretacja współczynników funkcyjnych
Obliczmy momenty zmiennej losowej
∆Y = Y (t + ∆t) − Y (t) ,
(10.9)
opisującej przeskoki w procesie Markowa w krótkich chwilach czasu δt. Zakładając, że Y (t) = y znajdujemy dla k-tego momentu
D
E
(∆Y )k =
Z
dy 0 (y 0 − y)k P1|1 (y 0 , t + δt | y, t) .
(10.10)
Podstawiając postać (7.6) prawdodopodbieństwa przejścia dla małych δt w procesie Markowa:
P1|1 (y 0 , t + δt | y, t) = δ(y 0 − y) (1 − a0 δt) + Wt (y 0 | y) δt ,
41
znajdujemy
D
E
(∆Y )k = δt
Z
dy 0 (y 0 − y)k Wt (y 0 | y) = δt ak (y , t) .
Stąd wzór na współczynniki przejścia
D
ak (y , t) = lim
δt→0
(∆Y )k
δt
E
(10.11)
Aby więc znaleźć dwa współczynniki a1,2 (y, t) w równaniu Fokkera-Plancka
wystarczy dobrać δt tak małe by zmiana (y 0 − y) była mała, a jednocześnie tak
duże by słuszne było założenie Markowa. Następnie
liczymy średnie przesunięcie
h∆Y i oraz średni kwadrat przesunięcia (∆Y )2 do pierwszego rzędu w δt, co
pozwala znaleźć współczynniki a1,2 na podstawie wzoru (10.11).
42
Rozdział 11
Ruchy Browna
11.1
Równanie dyfuzji
Dobrym przykładem ilustrującym metodę obliczania współczynników ak są ruchy Browna. Cząstka wykonuje wtedy losowe przeskoki wzdłuż osi X dla skal
czasowych dostatecznie dużych by traktować je ruch jako proces Markowa. Długość skoków jest dowolna, ale prawdopodobieństwo dużych skoków jest bardzo
małe. Co więcej, jest ono funkcją symetryczną ze względu na kierunek i niezależną od punktu startowego. Wtedy mamy
(∆X)2
a2 =
= const .
∆t
h∆Xi
= 0,
a1 =
∆t
(11.1)
Stąd równanie Fokkera-Plancka dla prawdopodobieństwa przejścia
P (x, t) ≡ P1|1 (x, t | x0 , t0 )
(11.2)
przyjmuje postać równania dyfuzji
∂P (x, t)
∂ 2 P (x, t)
=D
∂t
∂x2
(11.3)
gdzie stała dyfuzji D = a2 /2. Otrzymaliśmy w ten sposób relację Einsteina wiążącą stałą dyfuzji ze średnim kwadratem skoku cząstki
(∆X)2
D=
.
2 ∆t
11.2
(11.4)
Bła̧dzenie przypadkowe
Równanie dyfuzji możemy otrzymać rozważając równanie Master dla losowych
przeskoków wzdłuż osi X. Załóżmy, że cząstka przeskakuje w prawo i lewo o
wielkość ∆ z równym prawdopodobieństwem na jednostkę czasu, zadanym przez
W (x ± ∆|x) =
43
D
.
∆2
(11.5)
Spełniony jest warunek niezależności od kierunku oraz założenie, że duże przeskoki są mało prawdopodobne. Wtedy równanie bilansu dla odstępu czasowego
δt → 0 to
D
D
D
P (x, t + δt) = P (x + ∆, t) 2 δt + P (x − ∆, t) 2 δt + P (x, t) 1 − 2 2 δt .
∆
∆
∆
Przepisując, otrzymamy
P (x, t + δt) − P (x, t)
P (x + ∆, t) − 2P (x, t) + P (x − ∆, t)
=D
δt
∆2
(11.6)
W granicy δt → 0 oraz ∆ → 0, dostajemy równanie dyfuzji
∂P (x, t)
∂ 2 P (x, t)
=D
.
∂t
∂x2
(11.7)
Zaburzmy symetrię przeskoków przy utrzymanym warunku ich małości. Na
przykład, preferując przeskoki w lewo mamy
B
D
D
+ ,
W (x + ∆|x) = 2 .
2
∆
∆
∆
Otrzymujemy w tym przypadku równanie dyfuzji z dryfem
W (x − ∆|x) =
(11.8)
∂P (x, t)
∂P (x, t)
∂ 2 P (x, t)
= −B
+D
.
∂t
∂x
∂x2
11.3
(11.9)
Dyfuzja a procesy Wienera
Rozwiązaniem równania dyfuzji bez dryfu jest prawdopodobieństwo przejścia
(
1
(x2 − x1 )2
P1|1 (x2 , t2 | x1 , t1 ) = p
exp −
2D(t2 − t1 )
2πD(t2 − t1 )
)
.
(11.10)
Jeśli założymy, że w chwili początkowej cząstka była w położeniu x = 0,
P1 (x, 0) = δ(x) ,
(11.11)
to otrzymamy proces Wienera z prawdopodobieństwem jednocząstkowym
(
)
1
x2
exp −
P1 (x, t) = √
,
2Dt
2πDt
(11.12)
które również spełnia równanie dyfuzji. Średnie przesunięcie dla ruchów Browna
jest równe zeru
hXt i =
Z∞
dx x P1 (x, t) = 0 ,
(11.13)
−∞
natomiast średni kwadrat przesunięcia jest proporcjonalny do czasu
D
Xt2
E
Z∞
=
dx x2 P1 (x, t) = D t .
−∞
44
(11.14)
Literatura
[1] N. G. van Kampen, Procesy stochastyczne w fizyce i chemii, 2 wydanie,
PWN, 1990.
[2] C. Gardiner, Handbook of Stochastic Methods: for Physics, Chemistry and
the Natural Sciences, 3rd ed., Springer, 2004.
[3] H. Risken, The Fokker-Planck Equation: Methods of Solutions and Applications, Springer, 1996.
45
Download