Rachunek prawdopodobieństwa II

advertisement
Leszek Słomiński
Rachunek prawdopodobieństwa II
Materiały dydaktyczne dla studentów matematyki przygotowane w ramach projektu
„IKS - Inwestycja w Kierunki Strategiczne na Wydziale Matematyki i Informatyki UMK"
Wydział Matematyki i Informatyki
Uniwersytet Mikołaja Kopernika
Toruń 2011
Projekt współfinansowany ze środków Unii Europejskiej
w ramach Europejskiego Funduszu Społecznego
Spis treści
Wstęp
5
1. Zmienne losowe i wektory losowe
1.1. Podstawowe definicje i fakty . . . . . . . . . .
1.2. Rozkłady zmiennych losowych i ich parametry
1.3. Wektory losowe i ich rozkłady . . . . . . . . .
1.4. Niezależność zmiennych losowych . . . . . . .
1.5. Zadania . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
10
16
19
23
2. Warunkowa wartość oczekiwana i rozkłady warunkowe
2.1. Warunkowa wartość oczekiwana względem zdarzenia . . .
2.2. Warunkowa wartość oczekiwana względem σ-algebry . .
2.3. Rozkłady warunkowe . . . . . . . . . . . . . . . . . . . .
2.4. Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
26
29
31
rozkładach zgodnych
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
33
33
36
39
43
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3. Ciągi niezależnych zmiennych losowych
3.1. Przestrzenie produktowe i twierdzenie Kołmogorowa o
3.2. Zbieżność szeregów niezależnych zmiennych losowych
3.3. Prawa wielkich liczb . . . . . . . . . . . . . . . . . .
3.4. Zadania . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
4. Zbieżność według rozkładu zmiennych losowych
4.1. Definicja słabej zbieżności i jej podstawowe charakteryzacje . . . . . . . .
4.2. Funkcje charakterystyczne . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Twierdzenia graniczne o zbieżności do rozkładu Poissona . . . . . . . . .
4.4. Centralne twierdzenia graniczne . . . . . . . . . . . . . . . . . . . . . . .
4.5. Wielowymiarowy rozkład normalny i wielowymiarowe centralne twierdzenie
graniczne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6. Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5. Dodatek
5.1. Własności generatorów . . . . . . . . . . . . . .
5.2. Całka względem miary probabilistycznej . . . .
5.3. Zbieżność zmiennych losowych . . . . . . . . . .
5.4. Przestrzenie produktowe. Twierdzenie Fubiniego
Bibliografia
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
45
45
49
54
56
. 60
. 63
.
.
.
.
65
65
65
67
69
71
3
4
Indeks
Spis treści
71
Wstęp
Skrypt Rachunek prawdopodobieństwa II powstał na potrzeby studentów matematyki
II stopnia. Zakłada się w nim znajomość przez studentów materiału z podstawowego
(najczęściej 30 godzinnego) kursu z rachunku prawdopodobieństwa ze studiów licencjackich. Wykład Rachunek prawdopodobieństwa II prowadziłem na WMiI UMK w Toruniu w
roku akademickim 2011-2012 w semestrze zimowym. Miał na celu zapoznanie studentów
z bardziej zaawansowanymi zagadnieniami rachunku prawdopodobieństwa. Oparty był
głównie na książce J. Jakubowskiego i R. Sztencla Wstęp do teorii prawdopodobieństwa.
Pomocne okazały się również inne podręczniki wyszczególnione w Bibliografii. W skrypcie znalazły się także elementy wcześniejszych wykładów z rachunku prawdopodobieństwa
prowadzonych przez jego autora.
Skrypt składa się z czterech rozdziałów i dodatku.
W pierwszym z nich zebrane zostały podstawowe fakty dotyczące zmiennych losowych
i wektorów losowych. W szczególności wprowadzone zostały podstawowe definicje i oznaczenia przydatne w dalszej części skryptu. Kolejne rozdziały obejmują zagadnienia
dotyczące zarówno warunkowej wartości oczekiwanej i rozkładów warunkowych, jak i
różnorodne zagadnienia asymptotyczne w tym słabe i mocne prawa wielkich liczb oraz
twierdzenia graniczne o zbieżności do rozkładu Poissona i rozkładu normalnego. W skrypcie opuszczone zostały niektóre dłuższe i bardziej techniczne dowody twierdzeń. Kompletne dowody można znaleźć w podręczniku J, Jakubowskiego i R. Sztencla.
Do skryptu dołączone są materiały dotyczące zadań związanych z tematyką skryptu
zatytułowane Rachunek prawdopodobieństwa II. Zadania. Zawierają one kompletne rozwiązania zadań ze skryptu oraz szereg dodatkowych zadań przeznaczonych do samodzielnego
rozwiązania.
W skrypcie stosujemy następujące standardowe oznaczenia: N oznacza zbiór liczb naturalnych, R zbiór liczb rzeczywistych, Rd d-krotny produkt liczb rzeczywistych, a AT
oznacza macierz transponowaną do macierzy A.
5
Rozdział 1.
Zmienne losowe i wektory losowe
1.1. Podstawowe definicje i fakty
Niech (Ω, F, P ) będzie przestrzenią probabilistyczną.
Definicja 1.1. Mówimy, że odwzorowanie X : Ω → R jest zmienną losową na (Ω, F, P )
jeżeli dla każdego zbioru borelowskiego B ∈ B zbiór X −1 (B) = {ω : X(ω) ∈ B} ∈ F.
Ponieważ σ-algebra podzbiorów borelowskich R jest generowana przez półproste postaci
(−∞, a], a ∈ R tzn. B = σ((−∞, a] : a ∈ R), więc korzystając z twierdzenia 5.1 z Dodatku
X jest zmienną losową dokładnie wtedy, gdy X −1 ((−∞, a]) ∈ F, a ∈ R. Jeżeli symbolem
σ(X) oznaczymy σ-algebrę zbiorów generowanych przez X tzn.
σ(X) = σ(X −1 (B) : B ∈ B) = σ(X −1 ((−∞, a]) : a ∈ R),
to odwzorowanie X : Ω → R jest zmienną losową na (Ω, F, P ) jeżeli σ(X) ⊂ F.
Definicja 1.2. (i) Rozkładem prawdopodobieństwa na (R, B) nazywamy każdą miarę
probabilistyczną µ na (R, B).
(ii) Rozkładem zmiennej losowej X nazywamy rozkład prawdopodobieństwa PX na
(R, B) określony wzorem
PX (B) = P (X −1 (B)),
B ∈ B.
Przykład 1.1. Jeżeli µ jest rozkładem prawdopodobieństwa na (R, B), to istnieje przestrzeń probabilistyczna (Ω, F, P ) i określona na niej zmienna losowa X taka, że PX = µ.
W tym celu należy przyjąć Ω = R, F = B, P = µ oraz X(ω) = ω dla wszystkich ω ∈ R.
Definicja 1.3. (i) Dystrybuantą rozkładu prawdopodobieństwa µ na (R, B) nazywamy
funkcję Fµ : R → [0, 1] określoną wzorem
Fµ (a) = µ((−∞, a]),
a ∈ R.
(ii) Dystrybuantą zmiennej losowej X nazywamy dystrybuantę jej rozkładu PX i oznaczamy ją symbolem FX tzn.
FX (a) = FPX (a) = P (ω : X(ω) 6 a),
7
a ∈ R.
8
Rozdział 1. Zmienne losowe i wektory losowe
Twierdzenie 1.1. Przypuśćmy, że Fµ jest dystrybuantą rozkładu µ. Wtedy
(i) Fµ jest funkcją niemalejącą,
(ii) Fµ jest prawostronnie ciągła,
(iii) lim Fµ (x) = 0 oraz lim Fµ (a) = 1.
a→−∞
a→∞
Dowód. (i) wynika z monotoniczności µ. (ii), (iii) wynikają
T∞z kolei z ciągłości Pµ .
Istotnie, jeżeli an ↓ a, to (−∞, an ] ⊃ (−∞, an+1 ] dla n ∈ N oraz n=1 (−∞, an ] = (−∞, a].
Dlatego
lim Fµ (an ) =
n→∞
=
lim µ((−∞, an ])
n→∞
lim µ(
n→∞
∞
\
(−∞, an ]) = µ((−∞, x]) = Fµ (a),
n=1
gdyż µ jest ciągła z góry. Dowodzi to (ii). Przypuśćmy teraz, że an ↓ −∞. Wtedy, korzystając raz jeszcze z ciągłości z góry µ, dostajemy
lim Fµ (an ) = lim µ((−∞, an ]) = lim µ(
n→∞
n→∞
n→∞
∞
\
(−∞, an ]) = µ(∅) = 0.
n=1
Podobnie, jeżeli an ↑ ∞, to wykorzystując ciągłość z dołu µ otrzymujemy
lim Fµ (an ) = lim µ((−∞, an ]) = lim µ(
n→∞
n→∞
n→∞
∞
[
(−∞, an ]) = µ(R) = 1,
n=1
co kończy dowód twierdzenia. Twierdzenie 1.2. Jeżeli µ, ν są rozkładami na (R, B) oraz Fµ (a) = Fν (a) dla każdego
a ∈ R, to µ(B) = ν(B) dla każdego B ∈ B.
Dowód. W dowodzie wykorzystuje się fakt, że bezpośrednio z założenia
µ((−∞, a]) = ν((−∞, a]),
a ∈ R.
Stąd rozkłady są równe na klasie zbiorów zamkniętej ze względu na skończone przekroje
i generującej B i teza wynika z twierdzenia 5.2 z Dodatku. Wiadomo, że każda funkcja F : R → R spełniająca warunki (i)–(iii) z twierdzenia
1.1 jest dystrybuantą pewnego rozkładu µ wyznaczonego dzięki twierdzeniu 1.2 w sposób
jednoznaczny.
Przypomnijmy, że wartością oczekiwaną zmiennej losowej X na (Ω, F, P ) nazywamy
całkę z X względem prawdopodobieństwa P (patrz Dodatek) tzn.
Z
EX =
X dP.
Ω
Wartość oczekiwana istnieje jeżeli E|X| =
R
Ω
|X| dP < +∞.
Rozdział 1. Zmienne losowe i wektory losowe
9
Twierdzenie 1.3. (O zmianie miary) Niech X będzie zmienną losową na (Ω, F, P ), a
f : R → R niech będzie zadaną
funkcją borelowską. Całka Ef (X) istnieje wtedy i tylko
R
wtedy, gdy istnieje całka R f (x) PX (dx). Jeżeli całki te istnieją, to są równe tzn.
Z
Ef (X) =
f (x) PX (dx).
R
Dowód. W dowodzie wykorzystuje się indukcję mierzalną. Niech najpierw f = 1B dla
pewnego zbioru B ∈ F. Wtedy
Z
Z
1B (x) PX (dx) =
f (x) PX (dx).
Ef (X) = E1B = E1(X∈B) = P (X ∈ B) =
R
R
P
Jeżeli f jest funkcją prostą tzn. f = ni=1 bi 1Bi , gdzie b1 , ....bn ∈ R, B1 , ..., Bn ∈ F, to
wykorzystując liniowość całek i udowodnioną przed chwilą równość dla f = 1B mamy
Ef (X) = E
n
X
bi 1Bi =
i=1
n
X
bi E1(X∈Bi ) =
i=1
n
X
i=1
Z
Z
bi
1Bi (x) PX (dx) =
R
f (x) PX (dx).
R
Jeżeli f jest funkcją nieujemną, to wiadomo (patrz np. wniosek 5.2 z Dodatku), że istnieje
ciąg niemalejący funkcji nieujemnych {fn } taki, że 0 6 fn % f . Wtedy wykorzystując
twierdzenie Lebesgue’a o zbieżności monotonicznej
Z
Z
Ef (X) = lim Efn (X) = lim
fn (x) PX (dx =
f (x) PX (dx).
n→∞
n→∞
R
R
W przypadku, gdy f jest dowolną funkcją borelowską, to przedstawiamy ją w postaci
f = f + − f − , gdzie f + = max(f, 0), f − = max(−f, 0) są już fukcjami nieujemnymi.
Ponieważ |f | = f + + f − otrzymujemy stąd najpierw, że zmienna losowa f (X) jest
całkowalna dokładnie wtedy, gdy jest całkowalne względem rozkładu PX funkcja f . W
końcu z liniowości obu całek
Z
Z
Z
+
−
+
−
Ef (X) = Ef (X) − Ef (X) =
f (x) PX (dx) − f (x) PX (dx) =
f (x) PX (dx),
R
R
R
co kończy dowód twierdzenia.
Zauważmy, że wykorzystując twierdzenie o zmianie
miary w przypadku, gdy wartość
R
oczekiwana zmiennej losowej X istnieje tzn. gdy R |x| PX (dx) < +∞ zachodzi równość
Z
EX =
x PX (dx).
R
R
Podobnie zakładając istnienie wariancji , co jest równoważne faktowi, że R x2 PX (dx) <
+∞ możemy zauważyć, że
Z
Z
2
2
2
2
2
D (X) = E(X − EX) = EX − (EX) =
x PX (dx) − ( xPX (dx))2 .
R
R
10
Rozdział 1. Zmienne losowe i wektory losowe
1.2. Rozkłady zmiennych losowych i ich parametry
Rozważać będziemy głównie rozkłady dyskretne i absolutnie ciągłe i ich najprostsze
parametry jakimi są wartość oczekiwana i wariancja. Niech X będzie zmienną losową
na (Ω, F, P ). Przypomnijmy, że zmienna losowa X ma rozkład dyskretny lub że PX jest
rozkładem dyskretnym, jeżeli istnieją liczby x1 , x2 , ... ∈ R oraz p1 , p2 , ... ∈ R+ takie, że
P
∞
k=1 pk = 1 oraz
P (X = xk ) = pk , k = 1, 2, ....
(1.1)
Mówimy wtedy, że rozkład zmiennej losowej X jest skupiony na zbiorze {x1 , x2 , ...}, który
może być skończony lub nieskończony. Zauważmy, że dla takiego rozkładu dla dowolnej
funkcji borelowskiej f : RP
→ R, dla której wartość oczekiwana z f (X) istnieje, co jest
równoważne z warunkiem ∞
k=1 |f (xk )|pk < ∞, mamy
Ef (X) =
∞
X
f (xk )pk .
(1.2)
k=1
Jeżeli X ma rozkład absolutnie ciągły o gęstości p(x) tzn. taki, że dla każdego zbioru
borelowskiego B ∈ B
Z
P (X ∈ B) =
p(x) dx,
(1.3)
B
to jej wartością oczekiwaną jest liczba
Z
Ef (X) =
f (x)p(x) dx
(1.4)
R
R
przy założeniu, że R |f (x)|p(x) dx < ∞.
Kolejnym typem rozkładu jest rozkład osobliwy. Przypomnijmy, że X ma rozkład
osobliwy jeżeli dla wszystkich x ∈ R P (X = x) = 0 oraz istnieje zbiór borelowski B o
mierze Lebesgue’a równej zero taki, że P (X ∈ B) = 1. Rozkłady osobliwe nie pojawiają
się w praktycznych zastosowaniach rachunku prawdopodobieństwa i dlatego nie będziemy
się nimi zajmowali.
Twierdzenie 1.4. (Lebesgue’a o rozkładzie) Jeżeli µ jest rozkładem na (R, B) to istnieją
liczby nieujemne a, b, c, a + b + c = 1 oraz rozkłady µ1 , µ2 , µ3 odpowiednio dyskretny,
absolutnie ciągły i osobliwy takie, że
µ = aµ1 + bµ2 + cµ3 .
Twierdzenie 1.5. Jeżeli X ma rozkład absolutnie ciągły o gęstości p(x) oraz wartości
zmiennej losowej X należą do przedziału (a, b) (gdzie a, b mogą przyjmować wartości
nieskończone) oraz f : (a, b) → R jest funkcją klasy C 1 oraz f 0 (x) 6= 0, x ∈ (a, b), to
zmienna losowa Y = f (X) ma rozkład absolutnie ciągły o gęstości
g(y) = p(h(y))|h0 (y)|1f ((a,b)) (y),
gdzie h(y) = f −1 (y),a f ((a, b)) jest obrazem odwzorowania f .
Rozdział 1. Zmienne losowe i wektory losowe
11
Dowód. Funkcja f jest albo ściśle rosnąca albo malejąca. Załóżmy, że jest rosnąca.
Wtedy korzystając z twierdzenia o całkowaniu przez podstawienie dla dowolnych y1 , y2
takich , że f (a) 6 y1 < y2 6 f (b) mamy
−1
−1
FY (y2 ) − FY (y1 ) = P (y1 < Y 6 y2 ) = P (f (y1 ) < X 6 f (y2 )) =
Z y2
Z y2
−1
−1
0
p(h(y))h0 (y)dy.
p(f (y))(f (y)) dy =
=
Z
f −1 (y2 )
p(x) dx
f −1 (y1 )
y1
y1
Ponieważ przedziały (y1 , y2 ) są generatorami σ-algebry zbiorów borelowskich powyższą
równość można rozszerzyć do dowolnego zbioru borelowskiego B ∈ B.
Uwaga 1.1. Jeżeli zmienna losowa X ma rozkład absolutnie ciągły oraz f : R → R jest
funkcją borelowską, to złożenie f (X) nie musi mieć w ogólnym przypadku rozkładu absolutnie ciągłego. Jeżeli np. f (x) = a, x ∈ R, to zawsze f (X) = a ma rozkład zdegenerowany
w a.
Przykładowe rozkłady dyskretne
Niech X będzie zmienną losową na (Ω, F, P ) o rozkładzie (1.1). Wtedy zgodnie z (1.2)
jej wartość oczekiwana i wariancja są odpowiednio postaci
EX =
∞
X
xk p k ,
(1.5)
k=1
o ile
P∞
k=1
|xk |pk < +∞ oraz
2
2
2
D (X) = EX − (EX) =
∞
X
x2k pk
∞
X
−(
xk pk )2 ,
k=1
o ile
P∞
k=1
k=1
x2k pk < +∞.
Wśród rozkładów dyskretnych wyróżniamy rozkłady:
• Zdegenerowany lub jednopunktowy
Parametry: a ∈ R.
P (X = a) = 1.
Momenty: EX = a, D2 (X) = 0.
• Dwupunktowy
Parametry: a, b ∈ R, p ∈ (0, 1)
P (X = a) = p,
P (X = b) = 1 − p.
Momenty: EX = pa + (1 − p)b, D2 (X) = (a − b)2 p(1 − p).
(1.6)
12
Rozdział 1. Zmienne losowe i wektory losowe
• Bernoullego
Parametry: n ∈ N, p ∈ (0, 1).
n k n−k
P (X = k) =
p q ,
k
k = 0, 1, ..., n, gdzie q = 1 − p.
Momenty: EX = np, D2 (X) = npq.
• Ujemny dwumianowy
Parametry: r > 0, p ∈ (0, 1).
r+k−1 r k
P (X = k) =
pq ,
k
k ∈ N ∪ {0}, gdzie q = 1 − p.
Przypomnijmy, że jeżeli r nie jest liczbą naturalną, to symbol Newtona jest rozumiany jako
r+k−1
Γ(r + k)
=
,
k
Γ(r)k!
R∞
gdzie Γ(α) = 0 xα−1 e−x dx1 .
rq
rq
Momenty: EX = , D2 (X) = 2 .
p
p
• Geometryczny
Parametry: p ∈ (0, 1).
P (X = k) = pq k−1 ,
k ∈ N, gdzie q = 1 − p.
q
1
Momenty: EX = , D2 (X) = 2 .
p
p
• Przesunięty geometryczny
Parametry: p ∈ (0, 1).
P (X = k) = pq k , k ∈ N ∪ {0}, gdzie q = 1 − p.
q
q
Momenty: EX = , D2 (X) = 2 .
p
p
Jeżeli X ma rozkład geometryczny, to X − 1 ma rozkład przesunięty geometryczny.
• Poissona
Parametry: λ > 0.
P (X = k) = e−λ
λk
,
k!
k ∈ N ∪ {0}.
Momenty: EX = λ, D2 (X) = λ.
Rozkład Poissona z parametrem λ > 0 będziemy oznaczali symbolem P(λ).
1
funkcja Γ uważana jest za rozszerzenie funkcji silnia, gdyż Γ(n) = (n − 1)!, n ∈ N
Rozdział 1. Zmienne losowe i wektory losowe
13
Przykład 1.2. (Rozkład Bernoullego) Niech X ma rozkład Bernoullego z parametrami
n ∈ N i p ∈ (0, 1). Wtedy
n
n
X
X
n k
n!
n−k
EX =
pk (1 − p)n−k
k
p (1 − p)
=
k
k!(n
−
k)!
k
k=0
k=1
= np
= np
n
X
(n − 1)!
pk−1 (1 − p)n−1−(k−1)
(k − 1)!(n − 1 − (k − 1))!
k=1
n−1
X
(n − 1)!
pl (1 − p)n−1−l = np,
l!(n − 1 − l)!
l=0
ponieważ suma po prawej stronie przedostatniej równości jest równa (p + 1 − p)n−1 = 1.
Podobnie
n
n
X
X
n!
2
2 n
k
n−k
pk (1 − p)n−k
EX =
k
p (1 − p)
=
k
(k − 1)!(n − k)!
k
k=0
k=1
= n(n − 1)p2
n
X
k=2
(n − 2)!
pk−2 (1 − p)n−2−(k−2)
(k − 2)!(n − 2 − (k − 2))!
n
X
(n − 1)!
pk−1 (1 − p)n−1−(k−1)
(k
−
1)!(n
−
1
−
(k
−
1))!
k=1
n−2 n−1 X
X
n−2 l
n−1 l
2
n−2−l
= n(n − 1)p
p (1 − p)
+ np
p (1 − p)n−1−l
l
l
l=0
l=0
+np
= n(n − 1)p2 + np.
Dlatego EX 2 = n(n − 1)p2 + np. Uwzględniając, że EX = np otrzymujemy
D2 (X) = EX 2 − (EX)2 = n(n − 1)p2 + np − (np)2 = np(1 − p).
Przykład 1.3. (Rozkład Poissona) Niech X ma rozkład Poissona z parametrem λ > 0.
Najpierw zauważmy, że
∞
∞
∞
X
X
X
λk −λ
λk−1
λl
−λ
−λ
EX =
k e = λe
= λe
= λ,
k!
(k − 1)!
l!
k=1
l=0
k=0
gdyż
P∞
l=0
λl /! = eλ . Ponieważ
EX
2
=
∞
X
k=0
k
2λ
k
k!
−λ
e
=
∞
X
(k − 1 + 1)
k=1
λk
e−λ
(k − 1)!
∞
∞
X
X
λk−2
λk−1
2 −λ
−λ
= λe
+ λe
(k − 2)!
(k − 1)!
k=1
k=2
= (λ2 + λ)e−λ
∞
X
λl
l=0
l!
= λ2 + λ,
więc D2 (X) = EX 2 − (EX)2 = λ2 + λ − λ2 = λ.
14
Rozdział 1. Zmienne losowe i wektory losowe
Przykładowe rozkłady absolutnie ciągłe
Załóżmy teraz, że X ma rozkład absolutnie ciągły z gęstością p(x). Wtedy zgodnie z
(1.4)
Z
xp(x) dx,
(1.7)
EX =
R
o ile
R
R
|x|p(x) dx < +∞ oraz
2
2
2
Z
D (X) = EX − (EX) =
Z
x p(x) dx − ( xp(x) dx)2
2
R
jeżeli
R
R
(1.8)
R
x2 p(x) dx < +∞.
Wśród rozkładów absolutnie ciągłych wyróżniamy rozkłady:
• Jednostajny
Parametry: a, b ∈ R a < b.
Gęstość:
1
1(a,b) (x).
b−a
(b − a)2
b+a
, D2 (X) =
.
Momenty: EX =
2
12
p(x) =
• Normalny
Parametry: m ∈ R, σ > 0.
Gęstość:
1
(x − m)2
p(x) = √ exp {−
}.
2σ 2
σ 2π
Momenty: EX = m, D2 (X) = σ 2 . Rozkład normalny z parametrami m ∈ R, σ > 0
oznaczać będziemy dalej symbolem N (m, σ 2 ).
• Wykładniczy
Parametry: λ > 0.
Gęstość:
p(x) = λe−λx 1(0,+∞) (x).
Momenty: EX =
1
1
, D2 (X) = 2 .
λ
λ
• Gamma
Parametry: β > 0, α > 0.
Gęstość:
p(x) =
R∞
β α α−1 βx
x e 1(0,+∞) (x),
Γ(α)
xα−1 e−x dx.
α
α
Momenty: EX = , D2 (X) = 2 .
β
β
gdzie Γ(α) =
0
Rozdział 1. Zmienne losowe i wektory losowe
15
• Pareto
Parametry: α > 0, x0 > 0.
Gęstość:
αxα0
1(x ,+∞) (x).
xα+1 0
αx20
αx0
Momenty: EX =
, dla α > 1, D2 (X) =
, dla α > 2.
α−1
(α − 2)(α − 1)
p(x) =
• Lognormalny
Parametry: m ∈ R, σ > 0.
Gęstość:
p(x) =
m+σ 2 /2
Momenty: EX = e
1
√
xσ 2π
exp {−
(ln x − m)2
}1(0,+∞) (x).
2σ 2
2
2
, D2 (X) = (eσ − 1)e2m+σ .
Przykład 1.4. (Rozkład jednostajny) Niech X ma rozkład jednostajny na (a, b). Wtedy
b
Z b
Z ∞
1
1 x2 1
1(a,b) (x) dx =
x dx =
EX =
x
b−a a
b − a 2 a
−∞ b − a
b 2 − a2
a+b
=
=
.
2(b − a)
2
oraz
EX
2
Z
∞
1
1
1(a,b) (x) dx =
=
x
b−a
b−a
−∞
3
3
2
2
b −a
a + ab + b
=
=
,
3(b − a)
3
2
Z
a
b
b
1 x3 x dx =
b − a 3 a
2
co pociąga, iż
D2 (X) = EX 2 − (EX)2 =
a2 + ab + b2 (a + b)2
(a − b)2
−
=
.
3
4
12
Uwaga 1.2. Niech c, d ∈ R, c 6= 0. Jeżeli X ma rozkład normalny N (m, σ 2 ), to Y = cX+d
ma rozkład normalny N (cm + d, c2 σ 2 ). Wystarczy zastosować twierdzenie 1.5 dla funkcji
f (x) = cx + d. Rzeczywiście w tym przypadku f −1 (y) = (y − d)/c i stąd gęstość rozkładu
Y jest postaci
g(y) = p(f −1 (y))|(f −1 )0 (y)| = p(
y−d 1
1
(y − d − cm)2
√ exp {−
) =
},
c |c|
2c2 σ 2
|c|σ 2π
y ∈ R.
Przykład 1.5. (Rozkład normalny) Niech X ma rozkład normalny z parametrami m ∈ R
i σ > 0. Rozważmy najpierw zmienną losową Z = (X − m)/σ. Ponieważ Z ma rozkład
normalny N (0, 1), więc
Z
1
x2
EZ =
x √ exp(− ) dx = 0,
2
2π
R
16
Rozdział 1. Zmienne losowe i wektory losowe
gdyż funkcja podcałkowa jest antysymetryczna. Ponadto
Z
x2
2
2
2 1
√
D (Z) = EZ =
x
exp(− ) dx
2
2π
R
i korzystając z wzoru na całkowanie przez części dostajemy
+∞ Z
1
x2 1
x2
2
√ exp(− ) dx = 1.
D (Z) = −x √ exp(− )
+
2 −∞
2
2π
2π
R
Stąd EX = E(σZ + m) = σEZ + m = m oraz D2 (X) = D2 (σZ + m) = σ 2 D2 (Z) = σ 2 .
1.3. Wektory losowe i ich rozkłady
Niech B d oznacza σ-algebrę podzbiorów borelowskich Rd , d ∈ N.
Definicja 1.4. d-wymiarowym wektorem losowym na (Ω, F, P ) nazywamy odwzorowanie
X̄ = (X1 , ..., Xd )T : Ω → Rd takie, że dla każdego B ∈ B d X̄ −1 (B) ∈ F.
Ponieważ B d jest generowana przez zbiory postaci ×di=1 (∞, ai ], ai ∈ R, więc z twierdzenia
5.1 z Dodatku wynika, że X̄ : Ω → Rd jest wektorem losowym wtedy i tylko wtedy, gdy
X̄ −1 (×di=1 (−∞, ai ]) ∈ F,
ai ∈ R, i = 1, ..., d.
Ponieważ
X̄
−1
(×di=1 (−∞, ai ])
=
d
\
Xi−1 ((−∞, ai ])
i=1
oznacza to, że X̄ jest wektorem losowym na (Ω, F, P ) dokładnie wtedy, gdy jego współrzędne
tzn. odwzorowania Xi : Ω → R są zmiennymi losowymi na (Ω, F, P ).
Definicja 1.5. (i) Rozkładem prawdopodobieństwa na (Rd , B d ) nazywamy każdą miarę
probabilistyczną µ na (Rd , B d ).
(ii) Rozkładem wektora losowego X̄ nazywamy rozkład prawdopodobieństwa PX̄ na
(Rd , B d ) określony wzorem
PX̄ (B) = P (X̄ −1 (B)),
B ∈ Bd .
Definicja 1.6. (i) Dystrybuantą rozkładu prawdopodobieństwa µ na (Rd , B d ) nazywamy funkcję Fµ : Rd → [0, 1] określoną wzorem
Fµ (ā) = Fµ (a1 , ..., ad ) = µ(×di=1 (−∞, ai ]),
ā = (a1 , ..., ad )T ∈ Rd .
(ii) Dystrybuantą wektora losowego X̄ nazywamy dystrybuantę jej rozkładu PX̄ i oznaczamy ją symbolem FX̄ lub F(X1 ,...,Xd ) tzn.
FX̄ (ā) = FX̄ (a1 , ..., ad ) = P (X̄ ∈ ×di=1 (−∞, ai ]) = P (X1 6 a1 , ..., Xd 6 ad ).
Rozdział 1. Zmienne losowe i wektory losowe
17
Uwaga 1.3. (a) Dystrybuanta rozkładu na (Rd , B d ) ma podobne własności i znaczenie jak dystrybuanta rozkładu jednowymiarowego. W szczególności jeżeli µ, ν są
rozkładami (Rd , B d ) oraz Fµ = Fν , to µ = ν.
(b) W przypadku wielowymiarowym bardzo podobnie jak w jednowymiarowym definiujemy rozkłady dyskretne, absolutnie ciągłe i osobliwe. W tym przypadku prawdziwa
jest też wersja twierdzenia Lebesgue’a o rozkładzie.
Definicja 1.7. (i) Wartością oczekiwaną wektora losowego X̄ = (X1 , ..., Xd )T nazywamy wektor
E X̄ = (EX1 , ..., EXd )T ,
o ile wszystkie współrzędne mają wartość oczekiwaną.
(ii) Macierzą kowariancji wektora losowego X̄ nazywamy macierz
Cov(X̄) = [cov(Xi , Xj )]i,j=1,...,d
tzn. Cov(X̄)ij = cov(Xi , Xj ) = E(Xi − EXi )(Xj − EXj ) dla i, j = 1, ..., d, o ile
wszystkie kowariancje cov(Xi , Xj ) są dobrze określone. Wariancją wektora X̄ nazywamy ślad macierzy Cov(X̄) tzn,
d
X
D (X̄) = E
(Xi − EXi )2 = E||X̄ − E X̄||2 ,
2
i=1
gdzie ||ā|| =
qP
d
i=1
a2i , ā = (a1 , ..., ad )T ∈ Rd .
Nietrudno zauważyć, że wartość oczekiwana wektorów losowych posiada własność liniowości czyli dla dowolnych stałych a, b ∈ R i dowolnych całkowalnych wektorów X̄, Ȳ
(tzn. takich, że E||X||, E||Y || < +∞) zachodzi równość
E(aX̄ + bȲ ) = aE X̄ + bE Ȳ .
Macierz kowariancji jest symetryczna i nieujemnie określona. Rzeczywiście
Cov(X̄)ij = E(Xi − EXi )(Xj − EXj ) = E(Xj − EXj )(Xi − EXi ) = Cov(X̄)ji
oraz dla każdego ā = (a1 , ..., ad )T ∈ Rd
< ā, Cov(X̄)ā > =
d
X
i=1
= E
ai
d
X
cov(Xi , Xj )aj
j=1
d X
d
X
(Xi − EXi )ai (Xj − EXj )aj = E|
i=1 j=1
d
X
(Xi − EXi )|2 > 0,
i=1
Pd
d
gdzie < ā, b̄ >=
i=1 ai bi jest iloczynem skalarnym w R . Dla wektorów losowych
prawdziwe jest również twierdzenie o zmianie miary. Jeżeli f : RRd → R jest odwzorowaniem
borelowskim, to Ef (X̄) istnieje dokładnie wtedy, gdy istnieje Rd f (x̄) PX̄ (dx̄). Jeżeli istnieją, to są równe tzn.
Z
Ef (X̄) =
f (x̄) PX̄ (dx̄).
Rd
18
Rozdział 1. Zmienne losowe i wektory losowe
Twierdzenie 1.6. Jeżeli X̄ jest d-wymiarowym wektorem losowym z wartością oczekiwaną E X̄ i macierzą kowariancji Cov(X̄), C jest macierzą d × m wymiarową, a ā ∈ Rm ,
to Ȳ = C X̄ + ā jest wektorem losowym m-wymiarowym, dla którego
(i) E Ȳ = CE X̄ + ā,
(ii) Cov(Ȳ ) = C ◦ Cov(X̄) ◦ C T .
Dowód. Zauważmy najpierw, że dla dowolnych x̄, ȳ ∈ Rd zachodzą równości
< ȳ, E X̄ >= E < ȳ, X̄ >,
(1.9)
< x̄, Cov(X̄)ȳ >= cov(< x̄, X̄ >, < ȳ, X̄ >).
(1.10)
Pierwsza z nich wynika w prosty sposób z definicji iloczynu skalarnego i liniowości wartości
oczekiwanej. W celu uzasadnienia drugiej zauważmy, że
< x̄, Cov(X̄)ȳ > = E
d X
d
X
xi (Xi − EXi )yj (Xj − EXj )
i=1 j=1
= E < x̄, X̄ − E X̄ >< ȳ, X̄ − E X̄ >
= E(< x̄, X̄ > − < x̄, E X̄ >)(< ȳ, X̄ > − < ȳ, E X̄ >)
= cov(< x̄, X̄ >, < ȳ, X̄ >).
Wykorzystując wielokrotnie (1.9) i (1.10) dla dowolnych x̄, ȳ ∈ Rn mamy
< x̄, EC X̄ > = E < x̄, C X̄ >= E < C T x̄, X̄ >
= < C T x̄, E X̄ >=< x̄, CE X̄ >
oraz
< x̄, Cov(C X̄)ȳ > =
=
=
=
cov(< x̄, C X̄ >, < ȳ, C X̄ >)
cov(< C T x̄, X̄ >, < C T ȳ, X̄ >)
< C T x̄, Cov(X̄)C T ȳ >
< x̄, C ◦ Cov(X̄) ◦ C T ȳ > .
Z dowolności x̄, ȳ wnioskujemy tezę twierdzenia dla ā = 0. Aby uzyskać przypadek ogólny
wystarczy zauważyć, że dla dowolnego wektora losowego Z̄ zachodzą równości E(Z̄ + ā) =
E Z̄ + ā i Cov(Z̄ + ā) = Cov(Z̄). Twierdzenie 1.7. Jeżeli wektor losowy X̄ ma rozkład absolutnie ciągły o gęstości p(x̄) i
zbór wartości X̄ zawiera się w pewnym zbiorze otwartym U ⊂ Rd . Jeżeli T : U → V =
T (U ) jest dyfeomorfizmem zbiorów otwartych (tzn. T jest klasy C 1 , różnowartościowe,
det DT (x) 6= 0 dla x ∈ U ), to wektor losowy Ȳ = T (X̄) ma rozkład absolutnie ciągły o
gęstości
g(ȳ) = p(H(ȳ))| det DH(ȳ)1T (U )) (ȳ),
gdzie H(ȳ) = T −1 (ȳ).
Przypomnijmy, że DH jest macierzą Jacobiego tzn. macierzą postaci
DH(ȳ) = [
∂Hi
(ȳ)]i,j=1,...,d .
∂yj
Rozdział 1. Zmienne losowe i wektory losowe
19
1.4. Niezależność zmiennych losowych
Niech (Ω, F, P ) będzie przestrzenią probabilistyczną, d ∈ N.
Definicja 1.8. (i) Zmienne losowe X1 , ..., Xd określone na (Ω, F, P ) nazywamy niezależnymi , jeżeli dla dowolnych zbiorów borelowskich B1 , ..., Bd
P (X1 ∈ B1 , ..., Xd ∈ Bd ) = P (X1 ∈ B1 ) · ... · P (Xd ∈ Bd ).
(1.11)
(ii) Zmienne losowe {Xi }i∈I tworzą rodzinę zmiennych losowych niezależnych jeżeli ich
każdy skończony podzbiór składa się ze zmiennych losowych niezależnych.
Uwaga 1.4. Jeżeli {Xi }i∈I tworzy rodzinę zmiennych losowych niezależnych oraz I0 ⊂ I,
to {Xi }i∈I0 też tworzy rodzinę niezależnych zmiennych losowych.
Definicja 1.9. (i) Rozkładem łącznym zmiennych losowych X1 , ..., Xd nazywamy rozkład
wektora losowego X̄ = (X1 , ..., Xd )T . Oznaczamy go symbolem P(X1 ,...,Xd ) .
(ii) Rozkładami brzegowymi P(X1 ,...,Xd ) nazywamy rozkłady jego poszczególnych współrzędnych PX1 ,..., PXd .
Uwaga 1.5. Jeżeli X1 , ..., Xd są niezależnymi zmiennymi losowymi, to ich rozkład łączny
jest wyznaczony przez rozkłady brzegowe. W istocie można pokazać ogólniejszy fakt.
Twierdzenie 1.8. Dla zmiennych losowych X1 , ..., Xd na (Ω, F, P ) następujące warunki
są równoważne:
(i) zmienne losowe są niezależne,
(ii) P(X1 ,...,Xd ) = PX1 × ... × PXd ,
(iii) dla wszystkich a1 , ..., ad ∈ R
F(X1 ,...,Xd ) (a1 , ..., ad ) = FX1 (a1 ) · ... · FXd (ad ).
Dowód. (i)⇒(ii) Wykorzystując (1.11) dla dowolnych zbiorów borelowskich B1 , ..., Bd
P(X1 ,...,Xd ) (B1 × ... × Bd ) =
=
=
=
P (X1 ∈ B1 , ..., Xd ∈ Bd )
P (X1 ∈ B1 ) · ... · P (Xd ∈ Bd )
PX1 (B1 ) · ... · PXd (Bd )
PX1 × ... × PXd (B1 × ... × Bd ).
Ponieważ klasa prostokątów mierzalnych generuje B d i jest zamknięta ze względu na skończone przekroje więc wykorzystując twierdzenie 5.2 z Dodatku P(X1 ,...,Xd ) = PX1 ×...×PXd .
(ii)⇒(i) Wykorzystując (ii) dla dowolnych zbiorów borelowskich B1 , ..., Bd
P (X1 ∈ B1 , ..., Xd ∈ Bd ) = P(X1 ,...,Xd ) (B1 × ... × Bd )
= PX1 (B1 ) · ... · PXd (Bd )
= P (X1 ∈ B1 ) · ... · P (Xd ∈ Bd ),
20
Rozdział 1. Zmienne losowe i wektory losowe
co oznacza niezależność X1 , ..., Xd .
(i)⇒(iii) W (1.11) podstawiamy Bi = (−∞, ai ], i = 1, ..., d.
(iii)⇒(ii) Powtarzamy rozumowanie z uzasadnienia pierwszej implikacji. Dla dowolnych a1 , ..., ad ∈ R
P(X1 ,...,Xd ) (×di=1 (−∞, ai ]) =
=
=
=
F(X1 ,...,Xd ) (a1 , ..., ad )
FX1 (a1 ) · ... · FXd (ad )
P (X1 6 a1 , ..., Xd 6 ad )
PX1 × ... × PXd (×di=1 (−∞, ai ]).
Ponieważ klasa zbiorów postaci ×di=1 (−∞, ai ], a1 , ..., ad ∈ R także generuje B d i jest
zamknięta ze względu na skończone przekroje więc ponownie wykorzystując twierdzenie
5.2 dowód jest zakończony. Wniosek 1.1. Jeżeli zmienne losowe X1 , ..., Xd mają rozkłady dyskretne, to są one niezależne wtedy i tylko wtedy, gdy dla dowolnych x1 , ..., xd ∈ R takich, że P (Xi = xi ) > 0,
i = 1, 2..., d
P (X1 = x1 , ..., Xd = xd ) = P (X1 = x1 ) · ... · P (Xd = xd ).
(1.12)
Dowód. Aby pokazać, że z niezależności wynika (1.12) wystarczy w (1.11) podstawić
Bi = {xi }, i = 1, 2, ..., d. W celu dowodu odwrotnej tezy oznaczmy
Ji (a) = {x : P (Xi = x) > 0, x 6 a},
i = 1, 2, ..., d, a ∈ R
i zauważmy, że korzystając z (1.12) dla dowolnych a1 , ..., ad ∈ R
F(X1 ,...,Xd ) (a1 , ..., ad ) =
X
P (X1 = x1 , ..., Xd = xd )
xi ∈Ji (ai ), i=1,...,d
=
X
P (X1 = x1 ) · ... · P (Xd = xd )
xi ∈Ji (ai ), i=1,...,d
=
X
X
P (X1 = x1 ) · ... ·
x1 ∈J1 (a1 )
P (Xd = xd )
xd ∈Jd (ad )
= FX1 (a1 ) · ... · FXd (ad ),
a więc spełniony jest warunek (iii) z twierdzenia 1.8. Wniosek 1.2. Jeżeli zmienne losowe X1 , ..., Xd mają rozkłady absolutnie ciągłe z gęstościami odpowiednio p1 (x1 ),...,pd (xd ), to są one niezależne wtedy i tylko wtedy, gdy P(X1 ,...,Xd )
jest rozkładem absolutnie ciągłym z gęstością
p(x1 , ..., xd ) = p1 (x1 ) · ... · pd (xd ),
(1.13)
gdzie powyższa równość zachodzi prawie wszędzie względem d-wymiarowej miary Lebesgue’a
Rozdział 1. Zmienne losowe i wektory losowe
21
Dowód. Kluczowym elementem dowodu jest spostrzeżenie, że dzięki (1.13) i twierdzeniu Fubiniego dla dowolnych a1 , ..., ad ∈ R
Z
Z
F(X1 ,...,Xd ) (a1 , ..., ad ) =
...
p(x1 , ..., xd )dx1 ...dxd
(−∞,ai ]
(−∞,ad ]
Z
Z
...
p1 (x1 ) · .. · pd (xd )dx1 ...dxd
=
(−∞,ai ]
(−∞,ad ]
Z
Z
p1 (x1 )dx1 · .. ·
pd (xd )dxd
=
(−∞,ai ]
(−∞,ad ]
= FX1 (a1 ) · ... · FXd (ad ).
Przypomnijmy, że zdarzenia A1 , ..., Ad na (Ω, F, P ) nazywamy niezależnymi jeżeli dla
dowolnych podzbiorów {i1 , ..., in } ⊂ {1, ..., d}, n 6 d spełniony jest warunek
P (Ai1 ∩ ... ∩ Ain ) = P (Ai1 ) · ... · P (Ain ).
Wniosek 1.3. Zdarzenia A1 , ..., Ad są niezależne wtedy i tylko wtedy, gdy niezależne są
zmienne losowe 1A1 , ..., 1Ad .
Dowód. Wynika z definicji niezależności zdarzeń i kryterium niezależności dla dyskretnych zmiennych losowych. Definicja 1.10. (i) σ-algebry F1 , ..., Fd na (Ω, F, P ) nazywamy niezależnymi , jeżeli
dla dowolnych zdarzeń A1 ∈ F1 ,..., Ad ∈ Fd
P (A1 ∩ ... ∩ Ad ) = P (A1 ) · ... · P (Ad ).
(1.14)
(ii) σ-algebry {Fi }i∈I tworzą rodzinę niezależnych σ-algebr jeżeli ich każdy skończony
podzbiór składa się z σ-algebr niezależnych.
Z wykorzystaniem pojęcia niezależności σ-algebr można udowodnić następującą charakteryzację niezależności zmiennych losowych.
Twierdzenie 1.9. Dla zmiennych losowych X1 , ..., Xd na (Ω, F, P ) następujące warunki
są równoważne:
(i) zmienne losowe są niezależne,
(ii) σ-algebry σ(X1 ),...,σ(Xd ) są niezależne,
(iii) dla wszystkich funkcji borelowskich f1 , ..., fd : R → R zmienne losowe f1 (X1 ),...,fd (Xd )
są niezależne.
Twierdzenie 1.10. Jeżeli X, Y są niezależnymi, całkowalnymi zmiennymi losowymi, to
(i) ich iloczyn XY jest całkowalną zmienną losową,
22
Rozdział 1. Zmienne losowe i wektory losowe
(ii) EXY = EX EY .
Dowód. Ad. (i) W dowodzie wykorzystamy twierdzenie o zmianie miary i twierdzenie Fubiniego dla zmiennych losowych nieujemnych. Zauważmy, że dzięki charakteryzacji
niezależności z części (ii) twierdzenia 1.3 oraz dzięki wymienionym dwóm twierdzeniom
Z
Z
E|XY | =
|xy| P(X,Y ) (dx, dy) =
|x| |y| PX × PY (dx, dy)
2
R2
ZR
Z
=
|x| PX (dx) |y| PY (dy) = E|X| E|Y | < +∞.
R
R
Ad. (ii) Wystarczy powtórzyć argumenty z (i) stosując twierdzenie Fubiniego dla zmiennych losowych całkowalnych. Wtedy
Z
Z
EXY =
xy P(X,Y ) (dx, dy) =
x y PX × PY (dx, dy)
2
2
R
R
Z
Z
x PX (dx) y PY (dy) = EX EY,
=
R
R
co kończy dowód. Bezpośrednio z powyższego twierdzenia i twierdzenia 1.9 wynika następujący fakt.
Wniosek 1.4. Jeżeli X1 , ..., Xd są niezależnymi zmiennymi losowymi, a f1 , ..., fd : R → R
są funkcjami borelowskimi, dla których zmienne losowe fi (Xi ) są całkowalne, i = 1, ..., d,
to
Ef1 (X1 ) · ... · fd (Xd ) = Ef1 (X1 ) · ... · Efd (Xd ).
Definicja 1.11. (i) Mówimy, że zdarzenia {Ai }i∈I są niezależne parami jeżeli dla wszystkich i, j ∈ I, i 6= j zdarzenia Ai i Aj są niezależne.
(ii) Mówimy, że zmienne losowe {Xi }i∈I są niezależne parami jeżeli dla wszystkich i, j ∈
I, i 6= j zmienne losowe Xi i Xj są niezależne.
Przykład 1.6. (Przykład Bernsteina) Niezależność parami nie implikuje niezależności
łącznej. Weźmy Ω = {ω1 , ω2 , ω3 , ω4 } z prawdopodobieństwem klasycznym P ({ωi }) = 1/4.
Niech A = {ω1 , ω2 }, B = {ω1 , ω3 }, a C = {ω1 , ω4 }. Ponieważ P (A) = P (B) = P (C) = 1/2
oraz P (A∩B) = P (A∩C) = P (B∩C) = 1/4, więc zdarzenia A, B, C są niezależne parami.
Z drugiej strony
1
1
P (A ∩ B ∩ C) = 6= = P (A)P (B)P (C),
4
8
co pociąga iż A, B, C nie są niezależne.
Definicja 1.12. Mówimy, że zmienne losowe {Xi }i∈I są nieskorelowane, jeżeli dla wszystkich i, j ∈ I, i 6= j, cov(Xi , Xj ) = 0.
Zauważmy, że z twierdzenia 1.10 wynika, iż zmienne losowe niezależne posiadające
kowariancję są nieskorelowane. Rzeczywiście w tym przypadku
cov(Xi , Xj ) = E(Xi − EXi )(Xj − EXj ) = EXi Xj − EXi EXj = 0.
Rozdział 1. Zmienne losowe i wektory losowe
23
Twierdzenie 1.11. Jeżeli X1 , ..., Xd są nieskorelowanymi zmiennymi losowymi o skończonej wariancji, to
d
d
X
X
2
D (
Xi ) =
D2 (Xi ).
i=1
i=1
Dowód. Nietrudno zauważyć, że
d
d
d
d
X
X
X
X
2
D (
Xi ) = E(
Xi − E(
Xi )) = E( (Xi − EXi ))2
2
i=1
= E{
i=1
d
X
i=1
(Xi − EXi )2 + 2
i=1
=
i=1
d
X
X
(Xi − EXi )(Xj − EXj )}
16i<j6d
2
D (Xi ) + 2
i=1
X
cov(Xi , Xj ) =
16i<j6d
d
X
D2 (Xi ).
i=1
Definicja 1.13. Współczynnikiem korelacji zmiennych losowych X, Y o skończonej wariancji nazywamy liczbę
(
√ 2cov(X,Y
√ )2
jeżeli D2 (X)D2 (Y ) 6= 0
D
(X)
D
(Y
)
ρX,Y =
0
w przeciwnym razie.
Współczynnik korelacji ρX,Y jest miarą zależności pomiędzy X i Y . Jeżeli X, Y są
niezależne, to cov(X, Y ) = 0 i ρX,Y = 0. Z drugiej strony ρX,X = 1, a ρX,−X = −1.
Ogólnie prawdziwy jest następujący fakt.
Twierdzenie 1.12.
(i) |ρX,Y | 6 1,
(ii) |ρX,Y | = 1 wtedy i tylko wtedy, gdy istnieją stałe a, b ∈ R, a 6= 0 takie, że X = aY +b
lub Y = aX + b.
1.5. Zadania
Zad. 1.1. Niech X będzie zmienną losową o rozkładzie absolutnie ciągłym z gęstością
p(x). Jaki rozkład ma zmienna losowa Y = cX + d dla c, d ∈ R, c 6= 0.
Zad. 1.2. Pokazać, że jeżeli X jest zmienną losową o rozkładzie normalnym N (0, 1), to
Y = X 2 ma rozkład o gęstości
g(y) = √
1
y
exp(− )1(0,∞) (y),
2
2πy
y ∈ R+ .
Zad. 1.3. Podaj przykład zmiennych losowych nieskorelowamych, ale zależnych.
24
Rozdział 1. Zmienne losowe i wektory losowe
Zad. 1.4. Niech X1 , ..., Xn będą niezależnymi zmiennymi losowymi o tym samym rozkładzie
dwupunktowym takim, że dla ustalonego p ∈ (0, 1)
P (Xi = 0) = 1 − p, i = 1, ..., n.
P
Pokazać, że zmienna losowa Sn = ni=1 Xi ma rozkład Bernoullego z parametrami
n oraz p tzn.
n k
P (Sn = k) =
p (1 − p)n−k , k = 0, 1, ..., n.
k
P (Xi = 1) = p,
Zad. 1.5. Rozkład łączny zmiennych losowych X, Y dany jest wzorem
P ((X, Y ) = (m, n)) =
c
3m+1 2n
,
m, n ∈ N ∪ {0}
dla pewnego c > 0. (a) Wyznacz c. Znajdź rozkłady brzegowe X i Y . Czy są to
zmienne losowe niezależne? Czy są one nieskorelowane? (b)Wyznacz P (X = Y ),
wartość oczekiwaną i macierz kowariancji wektora (X, Y )T . (c) Wyznacz rozkład
zmiennej Z = X + Y .
Zad. 1.6. Przedmiot można zaliczyć do pierwszego gatunku z prawdopodobieństwem p1 ,
do drugiego gatunku z prawdopodobieństwem p2 lub uznać za wadliwy z prawdopodobieństwem p3 = 1 − p1 − p2 . Przetestowano n przedmiotów. Wyznaczyć rozkład
prawdopodobieństwa różnych liczb przedmiotów pierwszego i drugiego gatunku, ich
wartości oczekiwane i kowariancję.
Zad. 1.7. Dana jest funkcja
(
cxy
p(x, y) =
0
1 6 x 6 2, 2 6 y 6 4
w przeciwnym razie.
Wyznacz stała c tak, aby funkcja ta była gęstością rozkładu. Wyznacz w tym przypadku gęstości rozkładów brzegowych.
Zad. 1.8. Wektor (X, Y )T ma rozkład o gęstości
5
p(x, y) = 1(0,2x] (y)1(0,∞) (x)e−x−2y .
2
Znajdź gęstości brzegowe zmiennych X i Y oraz sprawdź, czy zmienne te są niezależne.
Zad. 1.9. Zmienne losowe X1 i X2 są niezależne i mają rozkłady absolutnie ciągłe o
gestościach odpowiednio równych p1 (x1 ), p2 (x2 ). Wyznacz gęstość zmiennej losowej
Z = aX1 + bX2 .
Zad. 1.10. Niech X1 i X2 będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie
X1
jednostajnym na odcinku (0, 1). Znajdź gęstość zmiennej losowej Z = X
.
2
Rozdział 2.
Warunkowa wartość oczekiwana i
rozkłady warunkowe
2.1. Warunkowa wartość oczekiwana względem zdarzenia
Niech (Ω, F, P ) będzie przestrzenią probabilistyczną i niech A ∈ F będzie zdarzeniem
takim, ze P (A) > 0. Wiadomo, że odwzorowanie PA : F → [0, 1] zadane wzorem
PA (B) = P (B|A) =
P (A ∩ B)
,
P (A)
B∈F
jest prawdopodobieństwem na (Ω, F) i nazywamy je prawdopodobieństwem warunkowym.
Niech X będzie całkowalną zmienną losową na (Ω, F, P ).
Definicja 2.1. Warunkową wartością oczekiwaną zmiennej losowej X względem zdarzenia
A nazywamy liczbę
Z
X dPA .
E(X|A) =
Ω
Nietrudno zauważyć, że
1
E(X|A) =
P (A)
Z
X dP.
A
Aby to formalnie uzasadnić należy wykorzystać indukcję mierzalną. Dla X = 1B , B ∈ F
oczywistym jest, że
Z
Z
1
P (A ∩ B)
=
1B dP.
1B dPA = P (B|A) =
P (B)
P (A) A
Ω
Kolejne kroki indukcji mierzalnej w których X jest zmienną losową prostą, nieujemną i
całkowalną łatwo wynikają z liniowości całki i twierdzenia Lebesgue’a o zbieżności całki.
Twierdzenie 2.1. (Odpowiednik wzoru na Sprawdopodobieństwo całkowite) Jeżeli
{A1 , A2 , ...} stanowi rozbicie przestrzeni Ω tzn. ∞
i=1 Ai = Ω, gdzie Ai ∈ F, P (Ai ) > 0,
Ai ∩ Aj = ∅, j 6= i, i, j ∈ N, to
EX =
∞
X
E(X|Ai )P (Ai ).
i=1
25
26
Rozdział 2. Warunkowa wartość oczekiwana i rozkłady warunkowe
Dowód. Wynika z ciągu równości
∞ Z
X
Z
EX =
X dP =
Ω
i=1
∞
X
=
X dP =
Ai
∞
X
i=1
1
P (Ai )
P (Ai )
Z
X dP
Ai
P (Ai )E(X|Ai ).
i=1
Definicja 2.2. Jeżeli {A1 , A2 , ...} stanowi rozbicie przestrzeni Ω oraz G = σ(Ai : i ∈ N),
to warunkową wartością oczekiwaną zmiennej losowej X względem G nazywamy zmiennę
losową E(X|G) równą
∞
X
E(X|G) =
E(X|Ai )1Ai .
i=1
Zauważmy, że tak określona zmienna losowa jest G-mierzalna oraz dla każdego zbioru
B ∈ G zachodzi równość
Z
Z
X dP =
E(X|G) dP.
B
B
S
Istotnie, jeżeli B ∈ G, to jest postaci B = k∈K Aik , gdzie K jest skończony lub przeliczalny.
Stąd
Z
X
XZ
E(X|Aik )P (Aik )
=
X dP =
B
k∈K
=
Aik
k∈K
XZ
E(X|Aik )dP =
Z X
B k∈K
Aik
k∈K
Z
E(X|G) dP.
=
E(X|Aik )1Aik dP
B
2.2. Warunkowa wartość oczekiwana względem σ-algebry
Definicja 2.3. Niech G ⊂ F będzie σ-algebrą zbiorów, a X całkowalną zmienną losową
na (Ω, F, P ). Warunkową wartością oczekiwaną X względem G nazywamy zmiennę losową
E(X|G) spełniającą warunki
(i) E(X|G) jest G-mierzalna,
(ii) dla każdego zbioru B ∈ G
Z
Z
X dP =
B
E(X|G) dP.
B
Twierdzenie 2.2. Dla dowolnej σ-algebry G ⊂ F i całkowalnej zmiennej losowej X
istnieje wyznaczona jednoznacznie (P -p.w.) warunkowa wartość oczekiwana.
Rozdział 2. Warunkowa wartość oczekiwana i rozkłady warunkowe
27
Zauważmy, że jeżeli G = {∅, Ω}, to warunkowa wartość oczekiwana pokrywa się z klasyczną wartością oczekiwaną tzn. E(X|G) = EX. Z kolei w przypadku, gdy X jest zmienną
losową G-mierzalną to E(X|G) = X. Bezpośrednio z definicji wynikają też następujące
własności warunkowej wartości oczekiwanej.
Twierdzenie 2.3. (Podstawowe własności warunkowej wartości oczekiwanej) Niech X, Y
będą całkowalnymi zmiennymi losowymi, a G ⊂ F niech będzie zadaną σ-algebrą zbiorów.
(i) Dla dowolnych a, b ∈ R
E(aX + bY |G) = aE(X|G) + bE(Y |G).
(ii) Jeżeli X 6 Y , to E(X|G) 6 E(Y |G).
(iii) |E(X|G)| 6 E(|X| |G).
Nietrudno zauważyć, że jeżeli zmienna losowa X jest niezależna od σ-algebry G, to
E(X|G) = EX. Istotnie, ponieważ EX jako stała jest mierzalna względem każdej σalgebry, wystarczy w tym celu pokazać, że dla każdego A ∈ G
Z
Z
X dP =
EX dP.
A
A
Niech A ∈ G. Ponieważ X jest niezależna od G więc zmienne losowe 1A , X są niezależne.
Stąd i z twierdzenia 1.10
Z
Z
Z
Z
X dP
1A dP
1A X dP =
X dP =
Ω
Ω
Ω
A
Z
= P (A)EX =
EX dP.
A
P
Jeżeli {Xn } jest ciągiem zmiennych losowych na (Ω, F, P ) takim, że Xn −
→ X oraz
istnieje całkowalna zmienna losowa Y , dla której |Xn | 6 Y , n ∈ N, to
P
E(Xn |G) −−−→ E(X|G).
(2.1)
Wynika to w istocie z mocniejszej zbieżności E|Xn − X| → 0 gdyż bezpośrednio z
twierdzenia 2.3(iii) i wniosku 5.1
E|E(Xn |G) − E(X|G)| = E|E(Xn − X|G)| 6 EE(|Xn − X| |G) = E|Xn − X| → 0.
Z drugiej strony dla każdego > 0
P (|E(Xn |G) − E(X|G)| > ) 6 −1 E|E(Xn |G) − E(X|G)|,
co pociąga (2.1). Aby uzyskać zbieżność warunkowych wartości oczekiwanych P -p.w.
musimy zakładać zbieżność w tym samym sensie wyjściowego ciągu zmiennych losowych.
Dowód w tym przypadku jest dużo trudniejszy dlatego go opuszczamy.
28
Rozdział 2. Warunkowa wartość oczekiwana i rozkłady warunkowe
Twierdzenie 2.4. Jeżeli {Xn } jest ciągiem zmiennych losowych na (Ω, F, P ) takim, że
Xn → X P -p.w. oraz istnieje całkowalna zmienna losowa Y dla, której |Xn | 6 Y , n ∈ N,
to
E(Xn |G) → E(X|G) P -p.w.
Twierdzenie 2.5. Jeżeli zmienna losowa X jest G-mierzalna oraz zmienne losowe Y i
XY są całkowalne, to
E(XY |G) = X E(X|G).
Twierdzenie 2.6. Jeżeli zmienna losowa X jest całkowalna i są dane dwie σ-algebry G1 ,
G2 takie, że G1 ⊂ G2 ⊂ F, to
E(E(X|G2 )|G1 ) = E(X|G1 ).
Na zakończenie tego podrozdziału podamy przykłady praktycznego wyliczenia warunkowych wartości oczekiwanych. Przyjmiemy wygodną konwencję, że w przypadku gdy σalgebra G jest generowana przez zmienną losową Y tzn. G = σ(Y ), to warunkową wartość
oczekiwaną E(X|G) = E(X|σ(Y )) będziemy oznaczali symbolem E(X|Y ).
Przykład 2.1. Niech {Xn } będzie ciągiem niezależnych zmiennych losowych o tym
samym rozkładzie, a N niech będzie zmienną losową o wartościach w N ∪ {0} niezależną
od {Xn }. Będziemy rozważali losowe sumy
SN = X1 + X2 + ... + XN .
(2.2)
Sumy takiej postaci mają praktyczne zastosowania w modelach teorii ryzyka. Jeżeli E|X1 | <
+∞ oraz EN < +∞, to
E(SN |N ) = N E(X1 ).
(2.3)
Aby to uzyskać zauważmy, że bezpośrednio z definicji warunkowej wartości oczekiwanej
w przypadku σ-algebry generowanej przez rozbicie
E(SN |N ) =
=
∞
X
i=0
∞
X
E(SN |N = i)1{N =i} =
∞
X
E(Si |N = i)1{N =i}
i=0
E(Si )1{N =i} =
i=0
∞
X
iE(X1 )1{N =i}
i=0
= E(X1 )N.
Całkując (2.3) otrzymujemy równość
E(SN ) = E(X1 )E(N ))
nazywaną często tożsamością Walda.
Rozdział 2. Warunkowa wartość oczekiwana i rozkłady warunkowe
29
2.3. Rozkłady warunkowe
Niech X, Y będą zmiennymi losowymi na (Ω, F, P ). Załóżmy dodatkowo, że X jest
całkowalna.
Twierdzenie 2.7. Istnieje funkcja borelowska h : R → R taka, że
E(X|Y ) = h(Y ).
Dowód. W dowodzie wykorzystuje się fakt, że jeżeli dowolna zmienna losowa Z jest
σ(Y ) mierzalna, to istnieje funkcja borelowska h : R → R taka, że Z = h(Y ). Uzasadnimy
dokładnie powyższy
fakt w przypadku, gdy Z jest prostą zmienną losową. Niech
Pn
Sn Z będzie
postaci Z + i=1 ai 1Ai , gdzie Ai ∈ F, Ai ∩ Aj = ∅ dla j 6= i, i, j = 1, 2, ..., n, i=1 Ai = Ω.
−1
(Bi ).
Z założenia Ai ∈ σ(Y ). Stąd istnieją zbiory borelowskie B1 , ..., Bn takie, że AS
i = Y
i−1
Ponieważ zbiory B1 , ..., Bn nie muszą być rozłączne definiujemy Ci = Bi \ j=1 Bj , i =
1, 2, ..., n. Zauważmy, że
Y
−1
(Ci ) = Y
−1
(Bi ) ∩
i−1
\
Y −1 (Bjc )
j=1
= Ai ∩
i−1
\
Acj = Ai .
j=1
Pozwala to na zdefiniowanie funkcji h wzorem
ai jeżeli y ∈ Ci , i = 1, ..., n
h(y) =
0 w przeciwnym razie.
Ponieważ dla ω ∈ Ai zachodzi Y (ω) ∈ Ci , więc oznacza to, iż h(Y (ω)) = ai dla i =
1, 2, ..., n i stąd Z = h(Y ).
Definicja 2.4. Niech y ∈ R. Warunkową wartością oczekiwaną zmiennej losowej X pod
warunkiem {Y = y} nazywamy liczbę h(y), gdzie h jest funkcją otrzymaną w poprzednim
twierdzeniu. Oznaczamy ją symbolem E(X|Y = y).
Jeżeli zmienna losowa Y ma rozkład dyskretny i P (Y = y) > 0, to z definicji warunkowej wartości oczekiwanej względem zdarzenia {Y = y}
Z
1
X dP.
E(X|Y = y) =
P (Y = y) {Y =y}
Wartość ta jest równa wartości h(y) gdyż z definicji warunkowej wartości oczekiwanej
względem σ-algebry generowanej przez rozbicia dla ω ∈ {Y = y} również
Z
1
E(X|Y )(ω) =
X dP.
P (Y = y) {Y =y}
Uwaga 2.1. Wykorzystując definicję 2.4 dla y ∈ R przyjmujemy, że:
30
Rozdział 2. Warunkowa wartość oczekiwana i rozkłady warunkowe
(a) dla wszystkich A ∈ F
P (A|Y = y) = E(1A |Y = y),
(b) dla wszystkich B ∈ B
P (X ∈ B|Y = y) = E(1{X∈B} |Y = y).
Definicja 2.5. Niech y ∈ R. Rozkładem warunkowym zmiennej losowej X pod warunkiem
{Y = y} nazywamy rozkład prawdopodobieństwa PX|Y =y na (R, B) taki, że dla każdego
zbioru borelowskiego B ∈ B
PX|Y =y (B) = P (X ∈ B|Y = y).
Znając rozkład zmiennej losowej Y i rozkłady warunkowe PX|Y =y , y ∈ R możemy w
prosty sposób wyznaczyć rozkład łączny (X, Y ) i w konsekwencji rozkład X. Ich postać
wynika z następujących twierdzeń.
Twierdzenie 2.8. Niech PY oznacza rozkład zmiennej losowej Y , a PX|Y =y , y ∈ R rodzinę
odpowiednich rozkładów warunkowych. Rozkład łączny P(X,Y ) jest postaci
Z
P(X,Y ) (B × C) =
PX|Y =y (B) dPY (y) B, C ∈ B.
C
Twierdzenie 2.9. Jeżeli PY jest rozkładem absolutnie ciągłym o gęstości pY (y) i dla
każdego y ∈ R PX|Y =y jest absolutnie ciągły z gęstością pX|Y (x|y), to rozkład łączny
P(X,Y ) jest również absolutnie ciągły. Jego gęstość jest postaci
p(x, y) = pX|Y (x|y) pY (y).
Można też postępować odwrotnie. Posiadając informacje na temat rozkładu łącznego
możemy wyznaczać rozkłady brzegowe. Podane poniżej dwa twierdzenia opisują dokładnie
przypadek dyskretny i absolutnie ciągły.
Twierdzenie 2.10. Niech X, Y będą zmiennymi losowymi dyskretnymi o rozkładzie łącznym
P (X = xi , Y = yj ) = pij
i, j ∈ N.
Rozkłady warunkowe PX|Y =yj , j ∈ N są rozkładami dyskretnymi takimi, że dla każdego
zbioru borelowskiego B ∈ B
X
PX|Y =yj (B) =
pi|j ,
{i:xi ∈B}
gdzie pi|j = P (X = xi |Y = yj ) =
pij
P∞
i=1
pij
, i, j ∈ N.
Dowód. Wynika z ciągu oczywistych równości
PX|Y =yj (B) = P (X ∈ B|Y = yj )
X
X
=
P (X = xi |Y = yj ) =
pi|j .
{i:xi ∈B}
{i:xi ∈B}
Rozdział 2. Warunkowa wartość oczekiwana i rozkłady warunkowe
31
Twierdzenie 2.11. Niech X, Y będą zmiennymi losowymi dyskretnymi o rozkładzie łącznym
absolutnie ciągłym z gęstością p(x, y). Rozkłady warunkowe PX|Y =y , y ∈ R są również
rozkładami absolutnie ciągłymi o gęstościach
p(x, y)
p(x, y)
=
,
pY (y)
p(x, y)dx
R
pX|Y (x|y) = R
gdzie przyjmujemy, że prawa strona jest równa 0 w przypadku, gdy równy jest 0 jej
mianownik.
2.4. Zadania
Zad. 2.1. Niech X = 1A będzie zmienną losową na (Ω, F, P ), niech też B ∈ F. Oznaczmy
G = σ(B). Wyznacz E(X|G).
Zad. 2.2. Niech rozkład wektora (X, Y ) będzie dany tabelką:
X\Y
-1
1
0
1
2
1/4 1/4 0
0 1/4 1/4
Jaka jest E(X|Y )?.
Zad. 2.3. Niech {Xn } będzie ciągiem niezależnych zmiennych losowych o tym samym
rozkładzie, a N niech będzie zmienną losową o wartościach w N ∪ {0} niezależną od
{Xn }. Niech też
SN = X1 + X2 + ... + XN .
Pokazać, że jeżeli EX12 < +∞ oraz EN 2 < +∞, to
D2 (SN |N ) = N D2 (X1 ).
Zad. 2.4. Niech zmienna losowa Y ma rozkład Poissona z parametrem λ > 0, a PX|Y =n ,
n ∈ N∪{0} mają rozkłady Bernoullego dla n prób ze stałym prawdopodobieństwem
sukcesu p ∈ (0, 1). Wyliczyć rozkład zmiennej losowej X oraz E(X|Y ).
Zad. 2.5. Niech X1 , ..., Xn będą niezależnymi zmiennymi losowymi o tym samym rozkładzie
dwupunktowym takim, że dla ustalonego p ∈ (0, 1)
P (Xi = 1) = p,
Niech też Sn =
Pn
i=1
P (Xi = 0) = 1 − p,
i = 1, ..., n.
Xi . Pokazać, że
E(X1 |Sn = k) =
k
,
n
k = 0, 1, ..., n.
32
Rozdział 2. Warunkowa wartość oczekiwana i rozkłady warunkowe
Zad. 2.6. Wektor (X, Y )T ma rozkład absolutnie ciągły z gęstością
p(x, y) = (x2 + 2y 2 )1(0,1) (x)1(0,1) (y).
Wyznacz gęstość warunkową fX|Y (x|y) oraz E(X|Y ).
Zad. 2.7. Niech gęstości rozkładu zmiennej losowej X i rozkładu warunkowego będą
postaci pX (x) = 1(0,1) (x), pY |X (y|x) = x1 1(0,x) (y) dla x ∈ (0, 1). Wyliczyć: (a)
E(Y |X), (b) E(X|Y ).
Zad. 2.8. Niech X, Y będą niezależnymi całkowalnymi zmiennymi losowymi o tym samym
rozkładzie. Uzasadnić, że
E(X|X + Y ) = E(Y |X + Y ) =
X +Y
.
2
Rozdział 3.
Ciągi niezależnych zmiennych losowych
3.1. Przestrzenie produktowe i twierdzenie Kołmogorowa
o rozkładach zgodnych
Niech (Ωi , Fi , Pi ), i = 1, ..., n będą przestrzeniami probabilistycznymi. Wykorzystując
twierdzenie 5.8 możemy skonstruować przestrzeń produktową
(Ω, F, P ) = ×ni=1 (Ωi , Fi , Pi ).
Przestrzenie produktowe stanowią wygodne narzędzie pozwalające na konstrukcję niezależnych zdarzeń i zmiennych losowych. Jeżeli weźmiemy zdarzenia Ci ∈ Fi , i = 1, ..., n i
rozszerzymy je na (Ω, F, P ) kładąc
Ai = Ω1 × ....Ωi−1 × Ci × Ωi+1 × .... × Ωn ,
i = 1, ..., n.
to można zauważyć, że A1 , ..., An są niezależnymi zmiennymi losowymi. Podobnie jeżeli
weźmiemy zmienne losowe Yi , określone na wyjściowych przestrzeniach (Ωi , Fi , Pi ), i =
1, ..., n i rozszerzymy je na Ω przyjmując, że
Xi (ω) = Yi (ωi ) i = 1, ..., n, ω = (ω1 , ..., ωn ) ∈ Ω,
to
(a) X1 , ..., Xn są niezależnymi zmiennymi losowymi na przestrzeni produktowej,
(b) dla każdego i = 1, ..., n rozkłady zmiennych losowych Xi i Yi są takie same.
Przykład 3.1. (Schemat Bernoullego) Niech (Ω∗ , F ∗ , P ∗ ) będzie przestrzenią proba∗
bilistyczną taką, że Ω∗ = {0, 1}, F ∗ = 2Ω = {∅, Ω∗ , {0}, {1}} i P ∗ ({1}) = p, P ∗ ({0}) =
1 − p, gdzie p jest pewną liczbą rzeczywistą z przedziału (0, 1). Przestrzeń produktowa
(Ω, F, P ) = ×ni=1 (Ω∗ , F ∗ , P ∗ )
będąca n-krotnym produktem przestrzeni (Ω∗ , F ∗ , P ∗ ) modeluje schemat n prób Bernoullego z prawdopodobieństwem sukcesu p w pojedynczej próbie. W szczególności zmienne
losowe X1 , ..., Xn na (Ω, F, P ) zdefiniowane dla każdego ω = (ω1 , ..., ωn ) ∈ Ω wzorem
Xi (ω) = ωi ,
33
i = 1, ..., n
34
Rozdział 3. Ciągi niezależnych zmiennych losowych
są niezależnymi zmiennymi losowymi o tym samym rozkładzie dwupunktowym
P (Xi = 1) = p P (Xi = 0) = 1 − p i = 1, ..., n.
Niech ν1 , ..., νn będzie zadanym ciągiem rozkładów na (R, B). Postępując w podobny
sposób nietrudno skonstruować przestrzeń probabilistyczną (Ω, F, P ) i określone na niej
niezależne zmienne losowe X1 , ..., Xn takie, że PXi = νi , i = 1, ...n. W tym celu wystarczy
przyjąć
Ω = Rn ,
F = Bn ,
P = ×ni=1 νi
oraz
Xi (x) = xi
x = (x1 , ..., xn ) ∈ Rn .
Wtedy dla dowolnego zbioru borelowskiego B ∈ B oraz i = 1, ..., n
PXi (B) =
=
=
=
P (Xi ∈ B) = P (X1 , ..., Xi−1 ∈ R, Xi ∈ B, Xi+1 ∈ R, ..., Xn ∈ R)
×ni=1 νi (x ∈ Rn : x1 ∈ R, ..., xi−1 ∈ R, xi ∈ B, xi+1 ∈ R, ..., xn ∈ R)
×ni=1 νi (R × ... × R × B × R × ... × R)
ν1 (R) · ... · νi−1 (R)νi (B)νi+1 (R) · ... · νn (R) = νi (B).
Aby pokazać niezależność zmiennych losowych X1 , ..., Xn wystarczy zauważyć, że dla
dowolnych zbiorów borelowskich B1 , ..., Bn ∈ B
P (X1 ∈ B1 , ..., Xn ∈ Bn ) =
=
=
=
×ni=1 νi (x ∈ Rn : x1 ∈ B1 , ..., xn ∈ Bn )
×ni=1 νi (B1 × ... × Bn )
ν1 (B1 ) · ... · νn (Bn )
P (X1 ∈ B1 ) · ... · P (Xn ∈ Bn ).
W celu skonstruowania ciągu niezależnych zmiennych losowych o zadanych rozkładach
potrzebować będziemy nieskończonej przestrzeni probabilistycznej. Niech
R∞ = R × R × ......,
tzn. x ∈ R∞ wtedy i tylko wtedy, gdy x = (x1 , x2 , ...), gdzie xi ∈ R, i ∈ N. Niech π1,...,n :
R∞ → Rn oznacza rzut na pierwszych n współrzędnych tzn. π1,...,n (x) = (x1 , ..., xn ) ∈ Rn ,
x ∈ R∞ , n ∈ N.
Definicja 3.1.
(i) Zbiorami cylindrycznymi nazywamy zbiory postaci
−1
(B),
π1,...,n
gdzie B ∈ B n , n ∈ N. Klasę zbiorów cylindrycznych oznaczamy symbolem A.
(ii) σ-algebrą produktową na R∞ nazywamy σ-algebrę generowaną przez A. Oznaczamy
ją symbolem B ∞ tzn. B ∞ = σ(A).
Uwaga 3.1.
(a) Dla B ∈ B n , n ∈ N
−1
π1,...,n
(B) = B × R × R....
Rozdział 3. Ciągi niezależnych zmiennych losowych
35
(b) A jest algebrą zbiorów.
(c) Jeżeli dla x, y ∈ R∞ przyjmiemy, że
ρ(x, y) =
∞
X
n=1
|xn − yn |
,
+ |xn − yn |)
2n (1
to (R∞ , ρ) jest przestrzenią metryczną i można pokazać, że
B ∞ = σ(U : U otwarte w (R∞ , ρ)).
Niech µ będzie miarą probabilistyczną na (R∞ , B ∞ ). Jeżeli zdefiniujemy
−1
µn (B) = µ(π1,...,n
(B)),
B ∈ B n , n ∈ N,
to dla każdego n ∈ N jest miarą probabilistyczną na (Rn , B n ). Ponadto ciąg miar probabilistycznych µ1 , µ2 , ... określonych odpowiednio na (R, B), (R2 , B 2 ), ... spełnia następujący
warunek zgodności
µn+1 (B × R) = µn (B), B ∈ B n , n ∈ N.
(3.1)
Okazuje się, że prawdziwy jest również fakt odwrotny.
Twierdzenie 3.1. (Kołmogorowa o rozkładach zgodnych) Niech µ1 , µ2 , ... będzie ciągiem
miar probabilistycznych określonych odpowiednio na przestrzeniach (R, B), (R2 , B 2 ), ... spełniających warunek zgodności (3.1). Istnieje dokładnie jedna miara probabilistyczna µ na
(R∞ , B ∞ ) taka, że
−1
µ(π1,...,n
(B)) = µn (B), B ∈ B n , n ∈ N.
Wniosek 3.1. Niech ν1 , ν2 , ... będzie zadanym ciągiem rozkładów na (R, B). Istnieje przestrzeń probabilistyczna (Ω, F, P ) i określony na niej ciąg zmiennych losowych X1 , X2 , ...
o własnościach
(i) PXn = νn , n ∈ N,
(ii) X1 , X2 , ... jest ciągiem niezależnych zmiennych losowych.
Dowód. Definiujemy µn = ×ni=1 νi , n ∈ N. Ciąg µ1 , µ2 , ... spełnia warunek zgodności,
gdyż
n
n
µn+1 (B × R) = ×n+1
i=1 νi (B × R) = ×i=1 νi (B) · νn+1 (R) = ×i=1 νi (B).
Na mocy twierdzenia Kołmogorowa o rozkładach zgodnych istnieje jednoznacznie wyznaczona miara probabilistyczna µ na (R∞ , B ∞ ). Przyjmujemy, że (Ω, F, P ) = (R∞ , B ∞ , µ).
Ponadto definiujemy ciąg zmiennych losowych X1 , X2 , ... kładąc
Xn (x) = xn ,
x ∈ R∞ , n ∈ N.
36
Rozdział 3. Ciągi niezależnych zmiennych losowych
Wtedy dla każdego zbioru borelowskiego B ∈ B i n ∈ N
PXn (B) =
=
=
=
=
P (Xn ∈ B) = P (X1 ∈ R, ..., Xn−1 ∈ R, Xn ∈ B)
µ(x : x1 ∈ R, ..., xn−1 ∈ R, xn ∈ B)
−1
(R × ... × R × B)) = µn (R × ... × R × B)
µ(π1,...,n
n
×i=1 νi (R × ... × R × B)
ν1 (R) · ... · νn−1 (R)νn (B) = νn (B),
co dowodzi (i). W celu pokazania (ii) wystarczy zauważyć, że dla dowolnych zbiorów
borelowskich B1 , ..., Bn ∈ B
P (X1 ∈ B1 , ..., Xn ∈ Bn ) =
=
=
=
=
µ(x ∈ Rn : x1 ∈ B1 , ..., xn ∈ Bn )
−1
µ(π1,...,n
(B1 × ... × Bn ))
µn (B1 × ... × Bn ) = ×ni=1 νi (B1 × ... × Bn )
ν1 (B1 ) · ... · νn (Bn )
P (X1 ∈ B1 ) · ... · P (Xn ∈ Bn ).
Twierdzenie 3.2. (0 − 1 Kołmogorowa) Niech
T∞X1 , X2 , ... będzie ciągiem niezależnych
∞
zmiennych losowych na (Ω, F, P ), a F = k=1 σ(Xk , Xk+1 , ...). Jeżeli A ∈ F ∞ , to
P (A) = 0 lub P (A) = 1.
3.2. Zbieżność szeregów niezależnych zmiennych losowych
Niech X1 , X2 , ... będzie ciągiem niezależnych zmiennych losowych określonych na tej
samej przestrzeni probabilistycznej (Ω, F, P ). Rozważać będziemy problem zbieżności szeregu
∞
X
Xn
n=1
w sensie zbieżności prawie wszędzie.
Twierdzenie 3.3. (Nierówność Kołmogorowa) Niech X1 , ..., Xn będą niezależnymi zmiennymi losowymi o skończonych wariancjach. Dla każdego > 0
Pn
k
X
D2 (Xk )
P ( max |
(Xi − EXi )| > ) 6 k=1 2
.
16k6n
i=1
Dowód. Bez
P ograniczenia ogólności możemy założyć, że EXk = 0, k = 1, ..., n. Oznaczmy Sk = ki=1 Xi oraz
Ak = {|Si | < dla i = 1, ..., k , |Sk | > },
A = { max |Sk | > }.
16k6n
Rozdział 3. Ciągi niezależnych zmiennych losowych
37
S
Oczywiście A = nk=1 Ak , gdzie sumowane zbiory są rozłączne. Ponieważ z niezależności
zmiennych losowych Sk 1Ak i Sn − Sk
ESk (Sn − Sk )1Ak = ESk 1Ak E(Sn − Sk ) = 0,
więc
ESn2 1Ak = E(Sn − Sk + Sk )2 1Ak
= ESk2 1Ak + 2ESk (Sn − Sk )1Ak + E(Sn − Sk )2 1Ak
= ESk2 1Ak + E(Sn − Sk )2 1Ak > ESk2 1Ak > 2 P (Ak ).
Stąd
n
X
n
1 X 2
P (A) =
P (Ak ) = 2
P (Ak )
k=1
k=1
n
1 X
ESn2 1Ak
2 k=1
Pn
2
1
2
k=1 D (Xk )
,
= 2 ESn =
2
6
co kończy dowód twierdzenia. Wniosek
3.2. Niech X1 , X2 , ... będzie ciągiem niezależnych zmiennych losowych takim,
P∞
że n=1 D2 (Xn ) < +∞. Dla każdego > 0
P∞
k
X
D2 (Xk )
P (sup |
(Xi − EXi )| > ) 6 k=1 2
.
k>1 i=1
Dowód. Oznaczmy
A = {sup |
k>1
k
X
(Xi − EXi )| > },
An = { max |
i=1
16k6n
k
X
(Xi − EXi )| > },
n ∈ N.
i=1
Ponieważ An % A, więc P (An ) % P (A). Z nierówności Kołmogorowa
P∞
Pn
2
2
k=1 D (Xk )
k=1 D (Xk )
P (An ) 6
6
2
2
i przechodząc z n → ∞ otrzymujemy tezę. Twierdzenie 3.4. (O dwóch szeregach) Niech X1 , X2 , ... będzie ciągiem niezależnych zmiennych losowych. Jeżeli szeregi liczbowe
∞
X
n=1
są zbieżne, to szereg
P∞
n=1
EXn ,
∞
X
n=1
Xn jest zbieżny P -p.w.
D2 (Xn )
38
Rozdział 3. Ciągi niezależnych zmiennych losowych
Dowód. W dowodzie w istocie pokażemy mocniejszą implikację
∞
X
2
D (Xn ) < +∞ ⇒
n=1
∞
X
(Xn − EXn ) jest zbieżny P -p.w.
(3.2)
n=1
Oznaczmy
Am
n
k
X
1
= {sup |
(Xi − EXi )| > } n, m ∈ N.
m
k>n i=n
Przy ustalonym
m zbiory te tworzą ciąg zstępujący. Ponadto na mocy ostatniej nierówności
P∞
m
2
2
P (An ) 6 m
i=n D (Xi ). Stąd dla każdego m ∈ N
P(
∞
\
n=1
Am
n)
= lim
n→∞
P (Am
n)
2
6 m lim
n→∞
∞
X
D2 (Xi ) = 0,
i=n
S
T∞
S
T∞
m
m
/ ∞
co pociąga, iż również P ( ∞
m=1
n=1 An ,
m=1
n=1 An ) = 0. Zauważmy, że jeżeli ω ∈
to dla każdego m istnieje n takie, że dla wszystkich k > n
|
k
X
(Xi (ω) − EXi )| 6
i=n
1
,
m
co oznacza, że ciąg sum częściowych szeregu liczbowego
warunek Cauchy’ego, a więc jest zbieżny. P∞
n=1 (Xn (ω)
− EXn ) spełnia
Przykład 3.2. Niech Y1 , Y2 , ... będzie ciągiem niezależnych zmiennych losowych o tym
samym rozkładzie dwupunktowym
1
P (Yn = −1) = P (Yn = 1) = , n ∈ N.
2
P
P∞ 1
2 Yn
Wtedy EYn = 0 oraz ∞
n=1 D ( n ) =
n=1 n2 < +∞. Dlatego z poprzedniego twierdzenia
wynika, że szereg
∞
X
Yn
n
n=1
jest zbieżny P -p.w.
Twierdzenie 3.5. (Kołmogorowa o trzech
P∞ szeregach) Niech X1 , X2 , ... będzie ciągiem
niezależnych zmiennych losowych. Szereg n=1 Xn jest zbieżny P -p.w. wtedy i tylko wtedy,
gdy istnieje c > 0 takie, że trzy szeregi liczbowe
∞
X
n=1
P (|Xn | > c),
∞
X
n=1
EXnc ,
∞
X
D2 (Xnc )
n=1
są zbieżne, gdzie Xnc = Xn 1{|Xn |6c} , n ∈ N.
Rozdział 3. Ciągi niezależnych zmiennych losowych
39
3.3. Prawa wielkich liczb
Niech X1 , X2 , ... będą zmiennymi losowymi na (Ω, F, P ). Mówimy, że X1 , X2 , ... spełnia
słabe prawo wielkich liczb jeżeli istnieje stała C taka, że dla każdego > 0
n
1X
P (|
Xk − C| > ) → 0.
n k=1
(3.3)
Ciąg X1 , X2 , ... spełnia mocne prawo wielkich liczb jeżeli istnieje stała C taka, że
n
1X
Xk = C) = 1.
n→∞ n
k=1
P ( lim
(3.4)
n
1X
P
Xk −
→ C. Z
Zbieżność (3.3) oznacza w istocie zbieżność wg prawdopodobieństwa
n k=1
n
1X
kolei (3.4) mówi, że
Xk → C P -p.w.
n k=1
Twierdzenie 3.6. Niech X1 , X2 , ... będzie ciągiem nieskorelowanych zmiennych losowych
o ograniczonych wspólnie wariancjach (tzn. istnieje stała M > 0 taka, że D2 (Xn ) 6 M ,
n ∈ N). Wtedy ciąg X1 − EX1 , X2 − EX2 , ... spełnia słabe prawo wielkich liczb ze stałą
C = 0.
Dowód. W dowodzie skorzystamy z nierówności Czebyszewa.
Lemat 3.1. (Nierówność Czebyszewa) Jeżeli zmienna losowa Y ma skończoną wariancję,
to dla każdego > 0
D2 (Y )
.
P (|Y − EY | > ) 6
2
Niech > 0. Wykorzystując nierówność Czebyszewa oraz twierdzenie 1.10
P
n
D2 ( nk=1 Xk )
1X
(Xk − EXk )| > ) 6
P (|
n k=1
n2 2
Pn
2
1 M
k=1 D (Xk )
=
6 · 2.
2
2
n
n Przechodząc z n → ∞ otrzymujemy łatwo (3.3). Twierdzenie 3.7. (Kołmogorowa) Niech X1 , X2 , ... będzie ciągiem niezależnych zmiennych losowych takich, że
∞
X
D2 (Xn )
< +∞.
n2
n=1
Wtedy ciąg X1 − EX1 , X2 − EX2 , ... spełnia mocne prawo wielkich liczb z C = 0.
40
Rozdział 3. Ciągi niezależnych zmiennych losowych
Dowód. Ponieważ z założenia
∞
X
∞
X D2 (Xn )
Xn
D ( )=
< +∞,
n
n2
n=1
n=1
2
więc z (3.2)
∞
X
(Xn − EXn )
n
n=1
jest zbieżny P -p.w.
Skorzystamy teraz z następującego lematu Kroneckera
Lemat
P∞ an3.2. (Kroneckera) Niech a1 , a2 , ... będzie ciągiem liczbowym. Jeżeli szereg liczbowy
n=1 n jest zbieżny, to
a1 + a2 + ... + an
→ 0.
n
Podstawiając w lemacie Kroneckera dla P -p.w. ω ∈ Ω
an = Xn (ω) − EXn ,
n∈N
otrzymujemy tezę twierdzenia. Twierdzenie 3.8. (Mocne prawo wielkich liczb Kołmogorowa) Niech X1 , X2 , ... będzie
ciągiem niezależnych zmiennych losowych o tym samym rozkładzie. Jeżeli E|X1 | < +∞,
to
X1 + X2 + ... + Xn
→ EX1 , P -p.w.
n
Dowód. Niech Yn = Xn 1{|Xn |6n} , n ∈ N. Zauważmy, że
∞
X
P (Xn 6= Yn ) =
n=1
=
∞
X
n=1
∞
X
P (|Xn | > n) =
∞
X
P (|X1 | > n)
n=1
nP (n < |Xn | 6 n + 1) 6 E|X1 | < +∞.
n=0
Wykorzystamy teraz lemat Borela-Cantellego.
LematP3.3. (Borela-Cantellego) Niech A1 , A2 , ... będzie ciągiem zdarzeń na (Ω, F, P ).
Jeżeli ∞
n=1 P (An ) < +∞, to P (lim supn→∞ An ) = 0.
Podstawiając w nim An = {Xn 6= Yn } otrzymujemy, że P (lim supn→∞ {Xn 6= Yn }) = 0
lub równoważnie, że P (lim inf n→∞ {Xn = Yn }) = 1. Ponieważ z definicji granicy dolnej
ciągu zbiorów dla każdego ω ∈ lim inf n→∞ {Xn = Yn } istnieje indeks N (ω) taki, że dla
wszystkich n > N (ω) Xn (ω) = Yn (ω), więc
X1 + X2 + ... + Xn
→ EX1 ,
n
P -p.w. ⇔
Y1 + Y2 + ... + Yn
→ EX1 ,
n
P -p.w.
Rozdział 3. Ciągi niezależnych zmiennych losowych
41
Ponadto
|EYn − EX1 | = |EX1 1{|X1 |6n} | 6 E|X1 |1{|X1 |>n} → 0,
co implikuje, iż także
EY1 + EY2 + ... + EYn
→ EX1 .
n
Dowód będzie więc zakończony, gdy pokażemy, że
(Y1 − EY1 ) + (Y2 − EY2 ) + ... + (Yn − EYn )
→ EX1 ,
n
Na mocy poprzedniego twierdzenia wystarczy więc tylko pokazać, że
W tym celu zauważmy, że
∞
X
D2 (Yn )
n=1
n2
P -p.w.
P∞
n=1
D2 (Yn )
n2
(3.5)
< +∞.
∞
∞
X
X
1
1
2
6
EXn 1{|Xn |6n} =
EX12 1{|X1 |6n}
2
2
n
n
n=1
n=1
∞
n
∞
∞
X
X
X
1 X
1
2
2
=
EX1 1{k−1<|X1 |6k} =
EX1 1{k−1<|X1 |6k}
2
n k=1
n2
n=1
k=1
n=k
6
∞
X
1
k=1
k
EX12 1{k−1<|X1 |6k} 6 2
∞
X
E|X1 |1{k−1<|X1 |6k}
k=1
= 2E|X1 | < +∞,
gdzie wykorzystaliśmy oszacowanie
∞
∞
X
X
1
1
1
1
1
2
= 2+
6 2+ 6 .
2
n
k
n(n − 1)
k
k
k
n=k
n=k
Przed sformułowaniem twierdzenia odwrotnego udowodnimy tzw. II lemat BorelaCantellego, w którym w odróżnieniu od klasycznego zakłada się niezależność rozważanych
zdarzeń.
Lemat 3.4. (II lemat Borela-Cantellego) Niech A1 , A2 , ... będzie ciągiem niezależnych
zdarzeń na (Ω, F, P ). Wtedy
(i)
∞
X
P (An ) < +∞ ⇔ P (lim sup An ) = 0,
n→∞
n=1
(ii)
∞
X
P (An ) = +∞ ⇔ P (lim sup An ) = 1.
n→∞
n=1
Dowód. Ponieważ prawdziwa jest implikacja z pierwszego lematu Borela-Cantellego
dla udowodnienia (i), (ii) wystarczy stwierdzić, że
∞
X
n=1
P (An ) = +∞ ⇒ P (lim sup An ) = 1.
n→∞
42
Rozdział 3. Ciągi niezależnych zmiennych losowych
Załóżmy więc, że
Zauważmy, że
P∞
n=1
P (An ) = +∞. W dowodzie pokażemy, że P (lim inf n→∞ Acn ) = 0.
P (lim inf
n→∞
Acn )
∞ \
∞
[
= P(
Ack
6
n=1 k=n
∞
X
P(
n=1
∞
\
Ack ).
k=n
Ponieważ dla każdego n ∈ N
P(
∞
\
Ack )
=
k=n
=
lim P (
m→∞
lim
m→∞
m
\
Ack )
= lim
m→∞
k=n
m
Y
m
Y
P (Ack )
k=n
(1 − P (Ak )) 6 lim sup exp (−
m→∞
k=n
m
X
P (Ak )) = 0,
k=n
(gdzie wykorzystaliśmy nierówność 1−x 6 e−x , x ∈ R), więc również P (lim inf n→∞ Acn ) =
0. Twierdzenie 3.9. (Odwrotne twierdzenie Kołmogorowa) Niech X1 , X2 , ... będzie ciągiem
niezależnych zmiennych losowych o tym samym rozkładzie. Jeżeli
n
1X
Xk | < +∞) > 0,
P (lim sup |
n k=1
n→∞
to E|X1 | < +∞.
Dowód. Oznaczmy Sn =
Pn
k=1
Xk . Ponieważ
Xn
Sn n − 1 Sn−1
=
−
,
n
n
n n−1
więc również P (lim supn→∞
|Xn |
n
< +∞) > 0. Stąd istnieje takie a > 0, że
P (lim sup
n→∞
|Xn |
< a) > 0.
n
Dzięki twierdzeniu 0−1 Kołmogorowa oznacza to, iż w istocie P (lim supn→∞ |Xnn | < a) = 1.
W konsekwencji P (lim supn→∞ { |Xan | > n}) = 0, co łącznie z II lematem Borela-Cantellego
pociąga, iż
∞
∞
X
X
|X1 |
|Xn |
P(
> n) =
P(
> n) < +∞.
a
a
n=1
n=1
Stąd
∞
X
|X1 |
|X1 |
E
6
(n + 1)P (n 6
< n + 1)
a
a
n=1
∞
X
∞
X
|X1 |
|X1 |
6 1+
nP (n 6
< n + 1) = 1 +
P(
> n) < +∞,
a
a
n=1
n=1
a więc także E|X1 | < +∞. Rozdział 3. Ciągi niezależnych zmiennych losowych
43
Uwaga 3.2. Mocne prawo wielkich liczb Kołmogorowa, II lemat Borela-Cantellego i
odwrotne twierdzenie Kołmogorowa można udowodnić przy słabszym założeniu niezależności parami zamiast niezależności. Wyniki te udowodnili Chinczyn w 1928 r. (II lemat
Borel-Cantellego) oraz pozostałe dwa Etemadi w 1981 r.
Uwaga 3.3. (Metoda Monte
R 1 Carlo obliczania całek) Naszym celem jest przybliżone wyznaczenie wartości całki 0 f (x)dx, gdzie f : [0, 1] → R jest zadaną całkowalną funkcją
borelowską. W celu wyznaczenia wartości całki symulujemy wartości ciągu niezależnych
zmiennych losowych X1 , X2 , ... o tym samym rozkładzie jednostajnym na przedziale (0, 1).
Wtedy z mocnego prawa wielkich liczb Kołmogorowa
n
1X
f (Xk ) →
n k=1
Z
1
f (x)dx, P -p.w.
0
Istotnie, f (X1 ), f (X2 ), ... także są ciągiem
niezależnych zmiennych losowych o tym samym
R1
rozkładzie, dla którego Ef (X1 ) = 0 f (x)dx.
Uwaga 3.4. (Zbieżność dystrybuant empirycznych) Załóżmy, że pewne doświadczenie
powtarzamy niezależnie n razy. W jego wyniku otrzymujemy ciąg X1 , X2 , ..., Xn niezależnych zmiennych losowych o tej samej, ale nieznanej dystrybuancie F . Aby odtworzyć
F definiujemy rodzinę zmiennych losowych
n
1X
Fn (x) =
1{Xk 6x} ,
n k=1
n ∈ N, x ∈ R,
nazywanych dystrybuantami empirycznymi . Ponieważ 1{X1 6x} , 1{X2 6x} , ... dla każdego ustalonego x ∈ R są niezależnymi zmiennymi losowymi o tym samym rozkładzie ze skończoną wartością oczekiwaną
E1{X1 6x} = P (X1 6 x) = F (x),
więc z mocnego prawa wielkich liczb Kołmogorowa wynika zbieżność Fn (x) → F (x) P -p.w.
Fakt ten można wzmocnić i pokazać, że w istocie
sup |Fn (x) − F (x)| → 0 P -p.w.,
x∈R
co stanowi treść znanego twierdzenia statystki matematycznej (twierdzenia Gliwenki-Cantellego).
3.4. Zadania
Zad. 3.1. Niech Xn będzie zmienną losową o rozkładzie
P (Xn = 0) = e−n ,
P (Xn = 1) = 1 − 3e−n ,
P (Xn = 2) = 2e−n ,
n > 2.
Zbadaj zbieżność ciągu {Xn } wg prawdopodobieństwa i P -prawie wszędzie.
44
Rozdział 3. Ciągi niezależnych zmiennych losowych
Zad. 3.2. Niech X1 , X2 , ... będzie ciągiem niezależnych zmiennych losowych o tym samym
rozkładzie jednostajnym na (0, 1). Uzasadnić, że ciąg
n∈N
Yn = min(X1 , X2 , ..., Xn ),
jest zbieżny według prawdopodobieństwa do 0.
Zad. 3.3. Udowodnij nierówność Czebyszewa (patrz lemat 3.1).
Zad. 3.4. Udowodnij lemat Borela-Cantellego (patrz lemat 3.3).
Zad. 3.5. Niech {Xn }, {Yn } będą ciągami niezależnych zmiennych losowych takich, że
dla każdego n ∈ N zmienna losowa Xn ma rozkład jednostajny na przedziale (0, n1 ),
a Yn ma rozkład
P wykładniczy
P∞ z parametrem
P∞ Xn Y1.n Zbadaj zbieżność prawie wszędzie
Xn
,
Y
(b)
przy dodatkowym założeniu wzaszeregów (a) ∞
n=1 n
n=1 n
n=1
n
jemnej niezależności ciągów {Xn } i {Yn }.
Zad. 3.6. Niech Y1 , Y2 , ... będzie ciągiem niezależnych zmiennych losowych o tym samym
rozkładzie dwupunktowym
1
P (Yn = −1) = P (Yn = 1) = ,
2
n ∈ N.
P∞
Szereg P
n=1 an Yn jest zbieżny P -p.w. wtedy i tylko wtedy, gdy jest zbieżny szereg
2
liczbowy ∞
n=1 an .
Zad. 3.7. Niech X1 , X2 , ... będzie ciągiem niezależnych zmiennych losowych o tym samym
rozkładzie zadanym przez gęstość
p(x) =
3
1(1/2,3/2) (x).
4x2
Wyznacz granicę prawie wszędzie ciągu zmiennych losowych
Yn = (X1 X2 · ... · Xn )1/n ,
n ∈ N.
Zad. 3.8. Pokazać, że
Z
1
Z
lim
n→∞
1
Z
...
0
0
0
1
x31 + x32 + ... + x3n
1
dx1 dx2 ...dxn = .
x1 + x2 + ...xn
2
Rozdział 4.
Zbieżność według rozkładu zmiennych
losowych
4.1. Definicja słabej zbieżności i jej podstawowe charakteryzacje
Rozważać będziemy słabą zbieżność rozkładów prawdopodobieństwa.
Definicja 4.1. (i) Mówimy, że ciąg rozkładów µ1 , µ2 , ... na (R, B) jest słabo zbieżny
do rozkładu µ jeżeli dla dowolnych a < b takich, że µ({a}) = µ({b}) = 0 zachodzi
zbieżność
µn ((a, b]) → µ((a, b]).
Piszemy wtedy, że µn ⇒ µ.
(ii) Mówimy, że ciąg zmiennych losowych X1 , X2 , ... jest zbieżny według rozkładu do
zmiennej X, jeżeli ciąg ich rozkładów PX1 , PX2 , ... jest słabo zbieżny do rozkładu
D
→ X.
PX tzn. gdy PXn ⇒ PX . Piszemy wtedy, że Xn −
Uwaga 4.1. (a) Granica słabo zbieżnego ciągu rozkładów jest wyznaczona jednoznacznie tzn. jeżeli µn ⇒ µ i µn ⇒ µ0 , to µ = µ0 .
Istotnie. Niech
D = {a ∈ R : µ({a}) > 0 lub µ0 ({a} > 0}.
Zbiór D jest co najwyżej przeliczalny. Stąd A = {(a, b] : a < b, a, b ∈ R \ D} jest
rodziną zbiorów zamkniętą ze względu na skończone przekroje generującą σ-algebrę
podzbiorów borelowskich B. Ponieważ
µ((a, b]) = µ0 ((a, b]) (a, b] ∈ A,
więc korzystając z twierdzenia 5.2 µ(B) = µ0 (B) dla wszystkich B ∈ B. Stąd µ = µ0 .
(b) W przypadku, gdy rozważane zmienne losowe X1 , X2 , ... będą takie, że PXn ⇒ µ, to
D
będziemy pisali, że Xn −
→ µ.
45
46
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
Definicja 4.2. Mówimy, że ciąg rozkładów µ1 , µ2 , ... na (R, B) jest jędrny jeżeli dla
każdego > 0 istnieje K > 0 takie, że
inf µn ((−K, K]) > 1 − .
(4.1)
n
Uwaga 4.2. (a) Każdy skończony ciąg rozkładów jest jędrny.
Rzeczywiście. Niech µ1 , µ2 , ..., µn0 będzie rozważanym ciągiem. Korzystając ze skończoności ciągu i własności dystrybuanty istnieje wspólne K > 0 takie, że
Fµi (−K), 1 − Fµi (K) 6 ,
2
i = 1, ..., n0 .
(4.2)
Stąd dla i = 1, ..., n0
µi ((−K, K]c ) = Fµi (−K) + 1 − Fµi (K) 6
+ = ,
2 2
co implikuje 4.1.
(b) Jeżeli µn ⇒ µ, to ciąg µ1 , µ2 , ... jest jędrny.
Niech > 0. Istnieje K1 > 0 takie, że µ({−K1 }) = µ({K1 }) = 0 oraz
µ((−K1 , K1 ]c ) = Fµ (−K1 ) + 1 − Fµ (K1 ) < .
Korzystając, że zbieżności
Fµn (K1 ) − Fµn (−K1 ) = µn ((−K1 , K1 ]) → µ((−K1 , K1 ]) = Fµ (K1 ) − Fµ (−K1 )
istnieje n0 takie, że dla wszystkich n > n0 również Fµn (−K1 ) + 1 − Fµn (K1 ) < .
Jeżeli przyjmiemy, że K2 = max(K1 , K), gdzie K została wyznaczona w części (a),
to
sup µn ((−K2 , K2 ]c ) 6 ,
n
co jest równoważne (4.1).
Twierdzenie 4.1. Niech µ, µ1 , µ2 , ... będą rozkładami na (R, B), a Fµ , Fµ1 , Fµ2 , ... odpowiadającymi im dystrybuantami. Następujące dwa warunki są równoważne
(i) µn ⇒ µ,
(ii) dla wszystkich a ∈ R takich, że Fµ (a−) = Fµ (a) zachodzi zbieżność
Fµn (a) → Fµ (a).
Dowód. Zauważmy, że Fµ (a−) = Fµ (a) dokładnie wtedy, gdy µ({a}) = 0.
(ii) ⇒ (i) Niech a < b będą takie, że µ({a}) = µ({b}) = 0. Wtedy Fµn (a) → Fµ (a)
oraz Fµn (b) → Fµ (b), co pociąga, iż
µn ((a, b]) = Fµn (b) − Fµn (a) → Fµ (b) − Fµ (a) = µ((a, b]).
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
47
(i) ⇒ (ii) Niech a ∈ R będzie takie, że µ({a}) = 0. Ustalmy > 0. Korzystając z jędrności ciągu µ, µ1 , µ2 , ... istnieje dostatecznie małe x < a takie, że µ({x}) = 0 oraz
Fµ (x), Fµn (x) 6 2 , n ∈ N . Stąd
lim sup |Fµn (a) − Fµ (a)| 6 lim sup |(Fµn (a) − Fµn (x)) − (Fµ (a) − Fµ (x))|
n→∞
n→∞
+ lim sup Fµn (x) + Fµ (x)
n→∞
6
+ =
2 2
i teza wynika z dowolności > 0. Przykład 4.1. Założenie, że µ jest rozkładem prawdopodobieństwa jest istotne. Niech
µ1 , µ2 , ..., µn , ... będą rozkładami zdegenerowanymi odpowiednio w 1, 2, ..., n, .... Wtedy
Fµn (a) = 1[n,+∞) (a) → 0,
a ∈ R,
natomiast ciąg rozkładów µ1 , µ2 , ... nie może być słabo zbieżny, gdyż nie jest jędrny.
Twierdzenie 4.2. (Helly’ego-Braya) Niech µ, µ1 , µ2 , ... będą rozkładami na (R, B). Następujące dwa warunki są równoważne
(i) µn ⇒ µ,
(ii) dla wszystkich funkcji ciągłych i ograniczonych f : R → R zachodzi zbieżność
Z
Z
f (x) dµn (x) →
f (x) dµ(x).
R
R
Dowód. Ograniczymy się do dowodu implikacji (ii)⇒(i). Niech a < b będą takie, że
µ({a}) = µ({b}) = 0. Niech dla m ∈ N funkcje fm , gm będą dane wzorami

0
jeżeli x 6= (a, b]



1
jeżeli x ∈ (a + 1/m, b − 1/m]
fm (x) =
m(x − a)
jeżeli x ∈ (a, a + 1/m]



−m(x − b) jeżeli x ∈ (b − 1/m, b]
oraz

0
jeżeli x 6= (a − 1/m, b + 1/m]



1
jeżeli x ∈ (a, b]
gm (x) =
m(x − a + 1/m)
jeżeli x ∈ (a − 1/m, a]



−m(x − b = 1/m) jeżeli x ∈ (b, b + 1/m].
Funkcje fm , gm są funkcjami ciągłymi i ograniczonymi aproksymującymi funkcję 1(a,b] .
Można zauważyć, że dla każdego m ∈ N fm 6 1(a,b] 6 gm oraz
fm ↑ 1(a,b i gm ↓ 1[a,b] .
Jeżeli ustalimy m ∈ N, to
Z
fm (x) dµ(x) =
R
Z
lim
n→∞
Z
fm (x) dµn (x) 6 lim inf
n→∞
R
1(a,b] (x) dµn (x)
R
= lim inf µn ((a, b]) 6 lim sup µn ((a, b])
n→∞
n→∞
Z
Z
6 lim sup gm (x) dµn (x) =
gm (x) dµ(x).
n→∞
R
R
48
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
Ponieważ z twierdzenia Lebesgue’a o zbieżności monotonicznej
Z
Z
lim
fm (x) dµ(x) =
1(a,b) (x) dµ(x) = µ((a, b))
m→∞
oraz
R
R
Z
lim
m→∞
Z
gm (x) dµ(x) =
R
1[a,b] (x) dµ(x) = µ([a, b]),
R
więc
µ((a, b]) 6 lim inf µn ((a, b]) 6 lim sup µn ((a, b]) 6 µ([a, b]).
n→∞
n→∞
Teza twierdzenia wynika z równości µ([a, b]) = µ((a, b)). Wniosek 4.1. Niech µ, µ0 będą rozkładami na R(R, B). Jeżeli dla
ciągłej i
R każdej funkcji
0
ograniczonej f : R → R zachodzi równość całek R f (x) dµ(x) = R f (x) dµ (x), to µ = µ0 .
Dowód. W twierdzeniu Helly’ego-Braya podstawiamy µn = µ0 , n ∈ N. Wtedy µn ⇒ µ
oraz µn = µ0 ⇒ µ0 . Z jednoznaczności słabej granicy wnioskujemy, że µ = µ0 . Wniosek 4.2. Niech X, X1 , X2 , ... będą zmiennymi losowymi Następujące dwa warunki
są równoważne
D
(i) Xn −−−→ X,
(ii) dla wszystkich funkcji ciągłych i ograniczonych f : R → R zachodzi zbieżność
Ef (Xn ) → Ef (X).
Dowód. Z twierdzenia o zmianie miary
Z
Ef (Xn ) =
f (x) PXn (dx), n ∈ N
Z
oraz
R
Ef (X) =
f (x) PX (dx).
R
Teza jest więc bezpośrednim wnioskiem z twierdzenia Helly’ego-Braya. D
Wniosek 4.3. Niech g : R → R będzie dowolną funkcją ciągłą. Jeżeli Xn −−−→ X, to
D
g(Xn ) −−−→ g(X).
Dowód. Wystarczy skorzystać z poprzedniego wniosku i zauważyć, że dla dowolnej
funkcji ciągłej i ograniczonej f : R → R złożenie h = f ◦ g jest również funkcją ciągłą i
ograniczoną. P
D
Wniosek 4.4. Jeżeli Xn −−−→ X, to Xn −−−→ X.
Dowód. Niech f : R → R będzie ustaloną funkcją ciągłą i ograniczoną. Bezpośrednio z
P
założenia f (Xn ) −−−→ f (X). Stąd i z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej
Ef (Xn ) → Ef (X), co kończy dowód wniosku. Wniosek 4.5. Niech c będzie ustaloną stałą. Następujące dwa warunki są równoważne:
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
49
D
(i) Xn −−−→ c,
P
(ii) Xn −−−→ c.
Dowód. (ii) ⇒ (i) Wynika bezpośrednio z poprzedniego wniosku.
(i) ⇒ (ii) Ustalmy > 0. Wtedy z definicji słabej zbieżności
P (|Xn − c| > ) = 1 − P (|Xn − c| < )
= 1 − P (− + c < Xn < + c) 6 1 − P (− + c < Xn 6 + c)
2
2
→ 1 − P (− + c < c 6 + c) = 0,
2
2
gdyż PX ({c − 2 }) = PX ({c + 2 }) = 0.
Twierdzenie 4.3. Każdy jednostajnie jędrny ciąg rozkładów µ1 , µ2 , ... zawiera podciąg
słabo zbieżny tzn. istnieje podciąg µk1 , µk2 , ... oraz rozkład µ0 take, że µkn ⇒ µ0 .
4.2. Funkcje charakterystyczne
Niech C oznacza zbiór liczb zespolonych tzn. każdy z ∈ C jest postaci z = a + ib, gdzie
a, b ∈ R.
Definicja 4.3. (i) Zespoloną zmienną losową na (Ω, F, P ) nazywamy odwzorowanie
X : Ω → C postaci X = X1 +iX2 , gdzie X1 , X2 są zmiennymi losowymi na (Ω, F, P ).
(ii) Mówimy, że zespolona zmienna losowa X = X1 + iX2 jest całkowalna jeżeli X1 , X2
są całkowalne. Wtedy wartość oczekiwana z X jest postaci EX = EX1 + iEX2 ∈ C.
Wartość oczekiwana zespolonej zmiennej losowej ma podobne własności jak zwykła
wartość oczekiwana.
pW szczególności X jest całkowalna dokładnie wtedy, gdy E|X| <
+∞. Moduł |X| = X12 + X22 jest rzeczywistą zmienną losową, dla której |EX| 6 E|X|.
Definicja 4.4. (i) Funkcją charakterystyczną rozkładu µ na (R, B) nazywamy odwzorowanie ϕµ : R → C dane wzorem
Z
ϕµ (t) =
eitx µ(dx), t ∈ R.
R
(ii) Funkcją charakterystyczną zmiennej losowej X na (Ω, F, P ) nazywamy funkcję jej
rozkładu PX tzn.
ϕX (t) = ϕPX (t) = EeitX = E cos(tX) + iE sin(tX),
t ∈ R.
Twierdzenie 4.4. (Podstawowe własności funkcji charakterystycznej) Funkcja charakterystyczna rozkładu µ spełnia następujące warunki:
(i) |ϕµ (t)| 6 1, t ∈ R, ϕµ (0) = 1,
50
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
(ii) ϕµ (t) = ϕ(−t), t ∈ R,
(iii) ϕµ jest funkcją jednostajnie ciągłą.
Dowód. Ad. (i) Wystarczy zauważyć, że
Z
Z
itx
| e µ(dx)| 6
eitx |µ(dx) = µ(R) = 1
R
R
oraz, że
Z
ei0x µ(dx) = µ(R) = 1.
ϕµ (0) =
R
Ad. (ii) Wynika z równości
Z
Z
Z
Z
cos(−tx) µ(dx) − i sin(−tx) µ(dx).
cos(tx) µ(dx) + i sin(tx) µ(dx) =
ϕµ (t) =
R
R
R
R
Ad.(iii) Pokażemy, że limh→0 supt∈R |ϕµ (t + h) − ϕµ (t)| = 0. Istotnie
Z
sup |ϕµ (t + h) − ϕµ (t)| = sup | (ei(t+h)x − eitx )µ(dx)
t∈R
t∈R
ZR
Z
itx ith
= sup | e (e − 1)µ(dx)| 6 sup |eitx (eith − 1)|µ(dx)
t∈R R
Zt∈R R
|eihx − 1|µ(dx),
6
R
gdzie zbieżność ostatniej całki do zera wynika z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej. Wniosek 4.6. Funkcja charakterystyczna rozkładu symetrycznego jest rzeczywista.
Dowód. Istotnie jeżeli rozkład jest symetryczny, to µ(A) = µ(−A) dla każdego A ∈ B.
Stąd
Z
Z
eitx µ(dx) =
ϕµ (t) =
R
eit(−x) µ(dx) = ϕµ (−t)
R
i z własności (ii) dla każdego t ∈ R ϕµ (t) = ϕµ (−t) = ϕµ (t).
Twierdzenie 4.5. Niech
cznej istnieje oraz
R
R
|x|n µ(dx) < +∞. Wtedy n-ta pochodna funkcji charakterysty-
ϕ(n)
µ (t)
Z
=
(ix)n eitx µ(dx),
t ∈ R.
R
Wniosek 4.7. Jeżeli X jest zmienną losową na (Ω, F, P ) taką, że E|X|n < +∞, to
(k)
ϕX (0) = ik EX k ,
k = 1, ..., n.
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
51
Zauważmy, że jeżeli X jest zmienną losową na (Ω, F, P ), to dla dowolnych stałych
a, b ∈ R
ϕaX+b (t) = Eeit(aX+b) = eitb EeitaX = eitb ϕX (at).
(4.3)
Własność ta może być w prosty sposób uogólniona.
Twierdzenie 4.6. Jeżeli X, Y są niezależnymi zmiennymi losowymi na (Ω, F, P ), to
ϕX+Y (t) = ϕX (t)ϕY (t),
t ∈ R.
Dowód. W dowodzie wystarczy skorzystać z z wersji twierdzenia 1.10 dla zespolonych
niezależnych zmiennych losowych. Istotnie
ϕX+Y (t) = Eeit(X+Y ) = EeitX EeitY = ϕX (t)ϕY (t).
Powyższy fakt można łatwo rozszerzyć na skończoną liczbę niezależnych zmiennych
losowych.
Wniosek 4.8. Jeżeli X1 , ..., Xn są niezależnymi zmiennymi losowymi na (Ω, F, P ), to dla
każdego t ∈ R
n
Y
ϕXk (t).
ϕPnk=1 Xk (t) =
k=1
Twierdzenie 4.7. (O jednoznaczności) Niech µ, ν będą rozkładami na (R, B). Jeżeli
ϕµ (t) = ϕν (t), t ∈ R, to µ = ν.
Dowód. W dowodzie wystarczy skorzystać z wniosku 4.1 i i twierdzenia Stone’aWeierstrassa o aproksymacji funkcji ciągłej za pomocą wielomianów trygonometrycznych.
Przykład 4.2. (Funkcje charakterystyczne wybranych rozkładów dyskretnych) Bezpośrednio z definicji funkcji charakterystycznej wynika, że jeżeli X ma rozkład dyskretny taki,
że
∞
X
P (X = xk ) = pk , k ∈ N, gdzie
pk = 1,
k=1
to
ϕX (t) =
∞
X
k=1
e
itxk
pk =
∞
X
k=1
cos(txk )pk + i
∞
X
sin(txk )pk .
k=1
Stąd w szczególności:
(i) jeżeli X ma rozkład dwupunktowy P (X = 1) = p, P (X = 0) = 1 − p, to
ϕX (t) = peit + (1 − p) = 1 + p(eit − 1),
52
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
(ii) jeżeli X ma rozkład Bernoullego z parametrami n ∈ N i p ∈ (0, 1), to
n
X
n
X
n k
ϕX (t) =
p (1 − p)n−k =
e
(peit )k (1 − p)n−k = (1 + p(eit − 1))n ,
k
k=0
k=0
itk
(iii) jeżeli X ma rozkład Poissona z parametrem λ > 0, to
ϕX (t) =
∞
X
itk λ
e
k
k!
k=0
e
−λ
=e
−λ
∞
X
(λeit )k
k=0
k!
it
= e−λ eλe = exp λ(eit − 1).
Przykład 4.3. (Funkcje charakterystyczne wybranych rozkładów absolutnie ciągłych)
Jeżeli X ma rozkład absolutnie ciągły o gęstości p(x), to
Z
Z
Z
itx
ϕX (t) =
e p(x) dx =
cos(tx)p(x) dx + i sin(tx)p(x) dx.
R
R
R
W szczególności:
(i) jeżeli X ma rozkład jednostajny na przedziale (a, b), to
( ibt iat
e −e
, dla t 6= 0,
i(b−a)t
ϕX (t) =
1,
dla t = 0,
gdyż dla t 6= 1,
Z
b
1
eitx eibt − eiat
1(a,b) (x) dx =
=
,
b−a
i(b − a)t a
i(b − a)t
itx
ϕX (t) =
e
R
(ii) jeżeli X ma rozkład wykładniczy z parametrem λ > 0, to
Z
ϕX (t) =
itx
−λx
e λe
R
+∞
λ
λ
(it−λ)x 1(0,+∞) (x) dx =
e
=
it − λ
λ − it
0
dla t ∈ R, gdyż limx→+∞ |e(it−λ)x | = limx→+∞ e−λx = 0,
(iii) jeżeli X ma rozkład normalny N (m, σ 2 ), to
σ 2 t2
ϕX (t) = exp imt −
,
2
t ∈ R.
(4.4)
Niech Z = (X−m)/σ. Zmienna losowa Z ma standardowy rozkład normalny N (0, 1)
i w tym szczególnym przypadku wyprowadzimy najpierw wzór na funkcję charakterystyczną. Zauważmy, że
Z
Z
cos(tx) − x2
sin(tx) − x2
2
√
√
ϕZ (t) =
e
dx + i
e 2 dx.
2π
2π
R
R
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
53
Ponieważ funkcja podcałkowa w drugiej całce jest antysymetryczna, więc całka ta
jest równa zeru. Stąd
Z
x2
1
ϕZ (t) = √
cos(tx)e− 2 dx.
2π R
Stosując twierdzenie o różniczkowaniu pod znakiem całki i wzór na całkowanie przez
części otrzymujemy stąd dla wszystkich t ∈ R
Z
x2
1
0
ϕZ (t) = − √
sin(tx)xe− 2 dx
2π R
Z
2 +∞
x2
1
1
− x2 = √ sin(tx)e −√
t cos(tx)e− 2 dx
−∞
2π Z
2π R
x2
1
cos(tx)e− 2 dx
= −t √
2π R
= −tϕZ (t).
ϕZ jest więc rozwiązaniem równania rózniczkowego liniowego. Z teorii równań różniczkowych zwyczajnych wiadomo, że jedynym rozwiązaniem takiego równania spełt2
niającym warunek początkowy ϕZ (0) = 1 jest funkcja ϕZ (t) = e− 2 , t ∈ R. Ponieważ
X = σZ + m więc wzór (4.4) wynika bezpośrednio z (4.3).
Uwaga 4.3. (Wzory na odwrócenie) Znając wartości ϕµ (t), t ∈ R potrafimy napisać
jawną postać rozkładu µ.
(a) Jeżeli a < b są takie, że µ({a}) = µ({b}) = 0, to
Z b
Z
2
1
− t
[ e−itx ϕµ (t)e 2y2 dt]dx.
µ((a, b]) = lim
y→∞ a 2π R
(b) Rozkład µ, który ma całkowalną funkcję charakterystyczną ϕµ ma także ograniczoną
i ciągłą gęstość p(x) daną wzorem
Z
1
p(x) =
e−itx ϕµ (t) dt.
2π R
Twierdzenie 4.8. (Levy’ego-Craméra o ciągłości) Niech µ1 , µ2 , ... będzie ciągiem rozkładów
prawdopodobieństwa na (R, B).
(i) Jeżeli µn ⇒ µ, to ϕµn (t) → ϕµ (t), t ∈ R.
(ii) Jeżeli ϕµn (t) → ϕ(t), t ∈ R i funkcja ϕ jest ciągła w zerze, to ϕ jest funkcją
charakterystyczną pewnego rozkładu µ oraz µn ⇒ µ.
Dowód. Ad.(i) Ustalmy t ∈ R. Ponieważ x → cos(tx) oraz x → sin(tx) są funkcjami
ciągłymi i ograniczonymi, więc z twierdzenia Helly’ego-Braya
Z
Z
ϕµn (t) =
cos(tx)µn (dx) + i sin(tx)µn (dx)
RZ
RZ
→
cos(tx)µ(dx) + i sin(tx)µ(dx) = ϕµ (t),
R
R
54
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
co kończy dowód (i).
Ad. (ii) Kluczowym elementem dowodu jest pokazanie, iż założenia implikują jędrność ciągu rozkładów µ1 , µ2 , .... Dowód tego faktu pomijamy. Korzystając z jędrności
i twierdzenia 4.3 istnieje podciąg µn1 , µn2 , ..., µnk , ... i rozkład prawdopodobieństwa µ
na (R, B) takie,że µnk ⇒ µ. Korzystając z części (i) ϕµnk (t) → ϕµ (t), t ∈ R. Stąd
ϕ(t) = ϕµ (t), t ∈ R, a więc ϕ jest funkcją charakterysyczną rozkładu µ. Pokażemy teraz, że
w istocie µn ⇒ µ. Załóżmy, że tak nie jest. Istnieją więc punkty a < b, µ({a}) = µ({b}) = 0
takie, że nie zachodzi zbieżność µn ((a, b]) → (a, b]. Z ograniczoności ciągu {µn ((a, b])}
wnioskujemy, że można wybrać podciąg {µnk ((a, b])} taki, że
µnk ((a, b]) → c 6= µ((a, b]).
Oznacza to, że żaden dalszy podciąg nie może być zbieżny do µ. Z drugiej strony jednak
{µnk } jest jędrny, a więc zawiera podciąg {µnkl } taki, że µnkl ⇒ µ0 do pewnego rozkładu.
Wtedy też oczywiście z części (i) ϕµnk (t) ⇒ ϕµ0 (t), t ∈ R. Stąd ϕµ0 (t) = ϕµ (t), t ∈ R i z
l
twierdzenia o jednoznaczności µ0 = µ. W konsekwencji zachodziłaby zbieżność µnkl ⇒ µ,
która nie może mieć miejsca. 4.3. Twierdzenia graniczne o zbieżności do rozkładu Poissona
Niech P(λ) oznacza rozkład Poissona z parametrem λ >. Przypomnijmy, że
P(λ)({k}) = e−λ
λk
,
k!
k ∈ N ∪ {0}.
Na przestrzeni probabilistycznej (Ω, F, P ) rozważać będziemy nieskończoną tablicę zdarzeń
postaci
A11 A12 ... A1,k1
A21 A22 ... A2,k2
...
... ...
...
An1 An2 ... An,kn
...
... ...
...
Twierdzenie 4.9. (Poissona dla dowolnych składników) Niech dla każdego n ∈ N zdarzenia
An1 , An2 , ..., An,kn będą niezależne Jeżeli
(a) max P (Ank ) → 0,
16k6kn
(b)
kn
X
P (Ank ) → λ,
k=1
to ciąg zmiennych losowych {
sona P(λ).
Pkn
k=1
1Ank } jest zbieżny według rozkładu do rozkładu Pois-
Dowód. Wykorzystane zostaną dwa proste lematy.
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
55
Lemat 4.1. Jeżeli z1 , z2 , ..., zn , u1 , u2 , ..., un ∈ C są takie, że |zk |, |uk | 6 1 dla k =
1, 2, ..., n, to
n
X
|z1 z2 · ... · zn − u1 u2 · ... · un | 6
|zk − uk |.
k=1
Dowód. Indukcyjny ze względu na n. Lemat 4.2. Dla dowolnej liczby zespolonej z ∈ C
1
|1 + z − ez | 6 |z|2 e|z| .
2
Dowód. Ponieważ ez =
z
|1 + z − e | = |
P∞
zk
k=0 k! ,
∞
X
zk
k=2
k!
z ∈ C, więc
|
∞
X
|z|2 X |z|k−2
1
|z|k−2
1
6 |z|
6
= |z|2 e|z| |.
(k − 2)! k(k − 1)
2 k=2 (k − 2)!
2
k=2
2
Przechodzimy do dowodu twierdzenia Poissona. W dowodzie pokażemy zbieżność odpowiednich funkcji charakterystycznych. Ustalmy t ∈ R. Oznaczmy
Xn =
kn
X
1Ank ,
k = 1, ..., kn , n ∈ N.
pnk = P (Ank )
k=1
Ponieważ z niezależności zdarzeń An1 , An2 , ..., An,kn
ϕXn (t) = EeitXn =
kn
Y
Eeit1Ank =
k=1
kn
Y
(1 + (eit − 1)pnk ),
n ∈ N,
k=1
więc korzystając kolejno z lematów 4.1 i 4.2 otrzymujemy
it
|ϕXn (t) − exp ((e − 1)
kn
X
pnk )| = |
k=1
6
6
kn
Y
(1 + (e − 1)pnk ) −
k=1
k
n
X
kn
Y
k=1
kn
X
it −1)p
e(e
k=1
it −1)p
|1 + (eit − 1)pnk − e(e
k=1
6
it
|(eit − 1)pnk |2 |(eit −1)pnk |
e
2
kn
|eit − 1|2 |eit −1| X
e
p2nk
2
k=1
6 C(t) max pnk
16k6kn
kn
X
k=1
pnk → 0,
nk
|
nk
|
56
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
gdzie zbieżność do zera jest bezpośrednią konsekwencją założeń (a) i (b). Ponieważ jasnym
jest, że z (b) wynika zbieżność
it
exp ((e − 1)
kn
X
pnk ) → exp((eit − 1)λ) = ϕP(λ) (t),
k=1
więc również zachodzi zbieżność funkcji charakterystycznych ϕXn (t) → ϕP(λ) (t). KorzysD
tając z dowolności t ∈ R i twierdzenia Levy’ego-Craméra o ciągłości Xn −
→ P(λ). Wniosek 4.9. (Twierdzenie Poissona) Jeżeli npn → λ > 0, to dla każdego k ∈ N ∪ {0}
n k
λk
pn (1 − pn )n−k → e−λ .
k!
k
Dowód. Niech Xn oznacza zmienną losową modelującą ilość sukcesów w schemacie
Bernoullego n prób z prawdopodobieństwem sukcesu w pojedynczej próbie równym pn ,
n ∈ N. Podstawmy w poprzednim twierdzeniu kn = n, pnk = pn , k = 1, ..., n. Ponieważ
(a) max16k6kn pnk = pn =
Pkn
(b)
k=1 pnk = npn → λ,
1
n
· npn → 0,
D
→ P(λ). W szczególności dla
więc spełnione są jego założenia. W konsekwencji Xn −
każdego k ∈ N ∪ {0}
n k
1
1
pn (1 − pn )n−k = P (Xn = k) = P (k − < Xn 6 k + )
k
2
2
1
1
1
1
λk
= PXn ((k − , k + ]) → P(λ)((k − , k + ]) = e−λ .
2
2
2
2
k!
4.4. Centralne twierdzenia graniczne
Centralnymi twierdzeniami granicznymi nazywamy twierdzenia o zbieżności według
rozkładu do rozkładu normalnego. Na (Ω, F, P ) rozważać będziemy nieskończoną tablicę
zmiennych losowych
X11 X12 ... X1,k1
X21 X22 ... X2,k2
...
... ...
...
Xn1 Xn2 ... Xn,kn
...
... ...
...
Twierdzenie 4.10. (Lindeberga-Fellera) Niech dla każdego n ∈ N Xn1 , Xn2 , ..., Xn,kn
2
będą niezależnymi zmiennymi losowymi takimi, że EXnk = 0, D2 (Xnk ) = EXnk
< +∞,
k = 1, ..., kn . Jeżeli
(a)
kn
X
k=1
2
EXnk
→ 1,
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
57
(b) dla każdego > 0
kn
X
2
EXnk
1{|Xnk |>} → 0,
k=1
Pn
to ciąg sum {Sn = kk=1
Xnk } jest zbieżny według rozkładu do standardowego rozkładu
normalnego N (0, 1).
Dowód. W dowodzie pokazuje się, że
t2
ϕSn (t) → e− 2 ,
t∈R
(4.5)
i korzysta z twierdzenia Levy’ego-Craméra. W celu wykazania (4.5) wykorzystamy lematy
4.1, 4.2 oraz następujący prosty lemat
Lemat 4.3. Dla każdego X ∈ R
(i) |eix − 1| 6 |x|,
1
(ii) |eix − 1 − ix| 6 |x|2 ,
2
1
|x|3
(iii) |eix − 1 − ix + x2 | 6
.
2
6
Zauważmy najpierw, że z lematu 4.3 (ii) i warunku (b)
1
2
max |EeitXnk − 1 − itXnk )| 6 t2 max EXnk
16k6kn
2 16k6kn
1 2
1
2
2
6
t max EXnk
1{|Xnk |6} + t2 max EXnk
1{|Xnk |>}
2 16k6kn
2 16k6kn
kn
1 2 2 1 2X
1
2
6
t + t
EXnk
1{|Xnk |>} → t2 2 .
2
2 k=1
2
max |EeitXnk − 1| =
16k6kn
Z dowolności > 0 wynika więc, że
max |EeitXnk − 1| → 0.
16k6kn
Podobnie
kn
X
k=1
itXnk
|Ee
− 1| 6
kn
X
1
k=1
1
2
t2 EXnk
→ t2 .
2
2
58
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
Dlatego wykorzystując nierówności z lematów 4.1 i 4.2
kn
kn
kn
X
Y
Y
itX
|ϕSn (t) − exp (
E(eitXnk − 1))| = |
EeitXnk −
eE(e nk −1) |
k=1
6
6
k=1
k
n
X
k=1
|EeitXnk − eE(e
k=1
kn
X
itXnk −1)
|
itXnk −1)
|1 + E(eitXnk − 1) − eE(e
|
k=1
kn
1 2X
6
e
|EeitXnk − 1|2
2 k=1
6
kn
X
e2
|EeitXnk − 1| → 0.
max |EeitXnk − 1|
2 16k6kn
k=1
Aby pokazać (4.5) wystarczy więc stwierdzić, że
kn
X
t2
E(eitXnk − 1) → − .
2
k=1
W tym celu zauważmy, iż
Rn =
2
Pkn
k=1
kn
X
E(eitXnk − 1) = − t2
E(eitXnk − 1 − itXnk +
k=1
Pkn
k=1
(4.6)
2
EXnk
+ Rn , gdzie
t2 2
X ),
2 nk
n ∈ N.
Ponieważ z lematu 4.3 (ii), (iii)
|Rn | 6
kn
X
E|eitXnk − 1 − itXnk +
k=1
+
kn
X
t2 2
X |1{|Xnk |>}
2 nk
E|eitXnk − 1 − itXnk +
k=1
6
kn
X
itXnk
E|e
k=1
t2 2
X |1{|Xnk |6}
2 nk
kn
t2 X
2
− 1 − itXnk |1{|Xnk |>} +
EXnk
1{|Xnk |>}
2 k=1
kn
|t|3 X
+
E|Xnk |3 1{|Xnk |6}
6 k=1
kn
kn
t2 X
t2 X
2
2
6
EXnk 1{|Xnk |>} +
EXnk
1{|Xnk |>}
2 k=1
2 k=1
+
kn
|t|3 X
2
EXnk
,
6 k=1
3
więc dla dowolnego > 0 lim supn→∞ |Rn | 6 |t|6 . Z dowolności > 0 zachodzi zbieżność
Rn → 0, co łącznie z (a) kończy dowód (4.6). Rozdział 4. Zbieżność według rozkładu zmiennych losowych
59
Wniosek 4.10. (Centralne twierdzenie graniczne Levy’ego) Niech X1 , X2 , ... będzie ciągiem
niezależnych zmiennych losowych o tym samym rozkładzie takim, że EX12 < +∞. Ciąg
1
Zn = p
nD2 (X1 )
n
X
(Xi − EXi ),
n∈N
k=1
zbiega według rozkładu do N (0, 1).
Dowód. Korzystamy z twierdzenia Lindeberga-Fellera. Podstawiamy
kn = n,
2
Wtedy EXnk = 0, EXnk
=
(b) zauważmy, że
1
n
Xk − EX1
Xnk = p
.
nD2 (X1 )
i stąd wynika, że spełniony jest warunek (a). Aby uzyskać
n
X
(Xk − EX1 )2
E
1{|X −EX1 |>√nD2 (X1 )}
2 (X )
k
nD
1
k=1
(X1 − EX1 )2
1{|X −EX1 |>√nD2 (X1 )}
k
D2 (X1 )
1
6 2
E(X1 − EX1 )2 1{|X −EX1 |>√nD2 (X1 )} → 0,
k
D (X1 )
=E
gdzie zbieżność do zera ostatniego wyrażenia jest konsekwencją całkowalności zmiennej
losowej (X1 − EX1 )2 i twierdzenia Lebesgue’a o zbieżności zmajoryzowanej. Wniosek 4.11. (Uogólnienie twierdzenia Levy’ego) Niech X1 , X2 , ... będzie ciągiem niezależnych zmiennych losowych takich, że EXk2 < +∞, k ∈ N o rozkładach z pewnego skończonego zbioru rozkładów. Ciąg
Sn − ESn
Zn = p
,
D2 (Sn )
gdzie Sn =
Pn
k=1
n ∈ N,
Xk , n ∈ N zbiega według rozkładu do N (0, 1).
Wniosek 4.12. (Centralne twierdzenie graniczne de Moivre’a-Laplaca) Niech Sn oznacza zmienną losową modelującą ilość sukcesów w schemacie Bernoullego n prób z prawdopodobieństwem sukcesu p ∈ (0, 1). Dla wszystkich a ∈ R
Sn − np
P (p
6 a) → Φ(a),
np(1 − p
gdzie Φ(x) =
Rx
−∞
y2
e− 2 dy, x ∈ R.
P
Dowód. Korzystamy z twierdzenia Levy’ego. Z założenia Sn = nk=1 Xk , gdzie zmienne losowe X1 , X2 , ... są niezależne i o tym samym rozkładzie dwupunktowym
P (Xk = 1) = p,
P (X = 0) = 1 − p,
k ∈ N.
Ponieważ EX1 = p, D2 (X1 ) = p(1−p) teza wynika bezpośrednio z centralnego twierdzenia
granicznego Levy’ego. 60
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
4.5. Wielowymiarowy rozkład normalny i wielowymiarowe
centralne twierdzenie graniczne
Będziemy dalej mówili, że zmienna losowa X ma rozszerzony rozkład normalny jeżeli
ma rozkład normalny lub zdegenerowany tzn. gdy jej funkcja charakterystyczna jest
postaci
σ 2 t2
, t ∈ R,
ϕX (t) = exp imt −
2
gdzie m ∈ R, σ > 0. Jeżeli σ > 0, to rozkład X jest absolutnie ciągły o gęstości
1
(x − m)2
p(x) = √ exp {−
},
2σ 2
σ 2π
x ∈ R.
Wtedy też EX = m, D2 (X) = σ 2 . W przypadku, gdy σ = 0 rozkład X jest zdegenerowany
i X = m P -p.w..
Niech X̄ = (X1 , X2 , ..., Xd )T będzie d-wymiarowym wektorem losowym na (Ω, F, P ).
Definicja 4.5. Mówimy, że X̄ ma P
wielowymiarowy rozkład normalny , jeżeli dla każdego
t̄ ∈ Rd zmienna losowa < t̄, X̄ >= dk=1 tk Xk ma rozszerzony rozkład normalny.
Definicja 4.6. (i) Funkcją charakterystyczną rozkładu µ na (Rd , B d ) nazywamy odwzorowanie ϕµ : Rd → C dane wzorem
Z
ϕµ (t̄) =
ei<t̄,x̄> µ(dx̄), t̄ ∈ Rd .
Rd
(ii) Funkcją charakterystyczną wektora losowego X̄ na (Ω, F, P ) nazywamy funkcję
charakterystyczną jego rozkładu PX̄ tzn.
ϕX̄ (t) = ϕPX̄ (t) = Eei<t̄,X̄> = E cos(< t̄, X̄ >) + iE sin(< t̄, X̄ >),
t̄ ∈ Rd .
W przypadku wielowymiarowym prawdziwe są odpowiedniki twierdzeń o jednoznaczności
i ciągłości dla funkcji charakterystycznych. W szczególności
• jeżeli dla każdego t̄ ∈ Rd dla dwóch rozkładów µ, ν na (Rd , B d ) ϕµ (t̄) = ϕν (t̄), to
µ = ν,
• dla rozkładów µ, µ1 , µ2 , ... na (Rd , B d ) zachodzi równoważność
µn ⇒ µ wtedy i tylko wtedy, gdy ϕµn (t̄) → ϕµ (t̄),
gdzie słaba zbieżność rozkładów na (Rd , B d ) jest definiowana podobnie jak w przypadku jednowymiarowym (mówimy, że µn ⇒ µ jeżeli jeżeli dla dowolnych ā, b̄ ∈ Rd
takich, że ak < bk , k = 1, ..., d oraz µ({ā}) = µ({b̄}) = 0 zachodzi zbieżność
µn ((ā, b̄]) → µ((ā, b̄])
gdzie (ā, b̄] = ×dk=1 (ak , bk ]).
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
61
Uwaga 4.4. Z wielowymiarowej funkcji charakterystycznej można w prosty sposób odczytać informacje dotyczące rozkładów brzegowych. Niech X̄ = (X1 , X2 , ..., Xd )T będzie
wektorem losowym. Niech t̄ = (0, ..., 0, tk , 0, ..., 0)T . Wtedy
ϕX̄ (t̄) = Eei<t̄,X̄> = Eeitk Xk = ϕXk (tk ),
tk ∈ R.
Twierdzenie 4.11. Zmienne losowe X1 , X2 , ..., Xd są niezależne wtedy i tylko wtedy, gdy
dla wszystkich t̄ = (t1 , t2 , ..., td )T ∈ Rd
ϕX̄ (t̄) =
d
Y
ϕXk (tk ).
(4.7)
k=1
Dowód. Jeżeli X1 , X2 , ..., Xd są niezależne, to
i<t̄,X̄>
ϕX̄ (t̄) = Ee
=E
d
Y
e
itk Xk
k=1
=
d
Y
itk Xk
Ee
k=1
=
d
Y
ϕXk (tk ).
k=1
Załóżmy teraz, że (4.7) jest spełniony. Oznaczmy µ = ×dk=1 PXk . Korzystając z twierdzenia
Fubiniego funkcja charakterystyczna µ jest postaci
Z
d
d Z
Y
Y
itk xk .
i<t̄,x̄>
e
PXk (dxk ) =
ϕXk (tk ).
e
µ(dx̄) =
ϕµ (t̄) =
Rd
k=1
R
k=1
Stąd dla wszystkich t̄ ∈ Rd ϕX̄ (t̄) = ϕµ . Z twierdzenia o jednoznaczności PX̄ = ×dk=1 PXk .
Korzystając z twierdzenia 1.8 zmienne losowe X1 , X2 , ..., Xd są niezależne.
Twierdzenie 4.12. Wektor losowy X̄ ma rozkład normalny wtedy i tylko wtedy, gdy
istnieje wektor ā ∈ Rd oraz symetryczna i nieujemnie określona macierz A taka, że
1
ϕX̄ (t̄) = exp (i < t̄, ā > − < t̄, At̄ >),
2
t̄ ∈ Rd .
(4.8)
Wtedy ā = (EX1 , EX2 , ..., EXd )T oraz A = Cov(X̄).
Rozkład wektora losowego X̄ o funkcji charakterystycznej danej wzorem (4.8) oznaczać
będziemy dalej symbolem N (ā, A).
Wniosek 4.13. Jeżeli X̄ = (X1 , X2 , ..., Xd )T ma rozkład normalny oraz jego składowe
X1 , X2 , ..., Xd są nieskorelowane, to są one niezależne.
Dowód. Niech PX̄ = N (ā, A). W rozważanym przypadku A musi być diagonalna, co
oznacza, że dla wszystkich t̄ ∈ Rd
1
ϕX̄ (t̄) = exp (i < t̄, ā > − < t̄, At̄ >)
2
d
d
X
1X
= exp (i
tk ak −
Akk t2k )
2 k=1
k=1
d
Y
d
Y
1
2
=
exp (tk ak − Akk tk ) =
ϕXk (tk ).
2
k=1
k=1
Teza wynika teraz bezpośrednio z twierdzenia 4.11.
62
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
Twierdzenie 4.13. Niech X̄ ma rozkład N (ā, A). Jeżeli T : Rd → Rm jest odwzorowaniem
¯ x̄ ∈ Rd , gdzie C macierzą d × m-wymiarową, a d¯ ∈ Rm , to
postaci T (x̄) = C x̄ + d,
¯ C ◦ A ◦ C T ).
Ȳ = T (X̄) ma rozkład N (Cā + d,
Dowód. Wystarczy skorzystać z twierdzenia o jednoznaczności i zauważyć, że dla
wszystkich t̄ ∈ Rm
¯
¯
ϕȲ (t̄) = Eei<t̄,C x̄+d> = ei<t̄,d> Eei<t̄,C x̄>
¯
= ei<t̄,d> Eei<C
T t̄,x̄>
1
¯
= ei<t̄,d> exp (i < C T t̄, ā > − < C T t̄, AC T t̄ >)
2
1
¯
i<t̄,d>
= e
exp (i < t̄, Cā > − < t̄, C ◦ A ◦ C T t̄ >)
2
1
= exp (i < t̄, Cā + d¯ > − < t̄, C ◦ A ◦ C T t̄ >).
2
Twierdzenie 4.14. Rozkład normalny N (ā, A) jest absolutnie ciągły wtedy i tylko wtedy,
gdy det A > 0. W tym przypadku gęstość rozkładu N (ā, A) jest postaci
p(x̄) =
1
√
(2π)d/2
1
exp (− < x̄ − ā, A−1 (x̄ − ā) >),
2
det A
x̄ ∈ Rd .
(4.9)
Dowód. Niech k 6 d będzie rzędem macierzy A oraz niech B będzie macierzą ortogonalną taką, że D = B T ◦A◦B jest macierzą diagonalną, dla której Dii = λi > 0, i = 1, ..., k
są wartościami własnymi macierzy A, oraz Dii = 0 dla i = k + 1, ..., d. Niech Y1 , ..., Yk
będą zmiennymi losowymi niezależnymi o rozkładach N (0, λi ) oraz Yk+1 = ... = Yd = 0.
Rozważmy wektor losowy Ȳ = (Y1 , ..., Yd )T . Wtedy
PȲ jest absolutnie ciągły ⇔ k = d ⇔ det A > 0.
Jeżeli PȲ jest absolutnie ciągły, to jego gęstość jest postaci
f (ȳ) =
d
Y
i=1
y2
1
1
1
−1 i
√
√
e 2 λi =
exp (− < ȳ, D−1 ȳ >),
2
2πλi
(2π)d/2 det A
ȳ ∈ Rd .
Wektor Ȳ ma więc wtedy rozkład N (0, D). Niech X̄ = T (Ȳ ) = B Ȳ +ā. Ponieważ macierz
B jest ortogonalna więc | det B| = 1 i korzystając z twierdzenia o zamianie zmiennych
PȲ jest absolutnie ciągły ⇔ PX̄ jest absolutnie ciągły.
W szczególności, gdy PȲ jest absolutnie ciągły, to dla każdego A ∈ B d
P (X̄ ∈ A) = P (T (Ȳ ) ∈ A) = P (Ȳ ∈ T −1 (A))
Z
Z
=
f (ȳ) dȳ =
f (T −1 (x̄))| det DH(x̄)|dx̄,
T −1 (A)
A
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
63
gdzie H(x̄) = T −1 (x̄) = B T x̄ − B T ā, Rco pociąga, iż | det DH(x̄)| = | det B T | = 1. Dlatego
dla wszystkich A ∈ B d P (X̄ ∈ A) = A f (T −1 (x̄))dx̄ i w konsekwencji
1
√
1
−1
exp (− < T −1 x̄, I λ ◦ T −1 x̄ >)
2
(2π)d/2 det A
1
1
−1
√
=
exp (− < B T (x̄ − ā), (B T ◦ A ◦ B) ◦ B T (x̄ − ā) >)
2
(2π)d/2 det A
1
1
√
=
exp (− < x̄ − ā, B ◦ B −1 ◦ A−1 ◦ B ◦ B T (x̄ − ā) >)
2
(2π)d/2 det A
1
1
√
=
exp (− < x̄ − ā, A−1 (x̄ − ā) >).
2
(2π)d/2 det A
p(x̄) = f (T −1 (x̄)) =
Twierdzenie 4.15. Niech X̄1 , X̄2 , ... będą niezależnymi zmiennymi losowymi o tym samym
rozkładzie z macierzą kowariancji Cov(X̄1 ) = A. Ciąg zmiennych losowych
n
1 X
Z̄n = √
(X̄k − E X̄k ),
n k=1
n∈N
zbiega według rozkładu do rozkładu normalnego N (0, A).
Dowód. W dowodzie wykorzystuje się twierdzenie o ciągłości dla funkcji charakterystycznych i pokazuje, że
1
ϕZ̄n (t̄) → exp (− < t̄, At̄ >),
2
t̄ ∈ Rd .
4.6. Zadania
D
P
P
D
Zad. 4.1. Pokazać, że jeżeli Xn −
→ X, Yn −
→ 0, to (a) Yn Xn −
→ 0, (b) Yn + Xn −
→ X.
Zad. 4.2. Niech {an }, {bn } będą ciągami liczbowymi takimi, że an → a, bn → b. Jeżeli
D
D
Xn −
→ X, to an Xn + bn −
→ aX + b.
Zad. 4.3. Zbadać zbieżność według rozkładu ciągu X1 , X2 , · · · , gdzie
1
P (Xn = n) = P (Xn = −n) = ,
2
n ∈ N.
Zad. 4.4. Niech X1 , X2 , ... będzie ciągiem niezależnych zmiennych losowych o tym samym
rozkładzie jednostajnym na (0, 1). Uzasadnić, że ciąg
Yn = n min(X1 , X2 , ..., Xn ),
n∈N
jest zbieżny według rozkładu do rozkładu wykładniczego z parametrem λ = 1.
64
Rozdział 4. Zbieżność według rozkładu zmiennych losowych
Zad. 4.5. Niech X1 , X2 , ... będzie ciągiem niezależnych zmiennych losowych o tym samym
rozkładzie jednostajnym na (0, 1). Uzasadnić, że ciąg
Yn = max(X1 , X2 , ..., Xn ),
n∈N
jest zbieżny według prawdopodobieństwa do 0.
Zad. 4.6. Niech X1 , X2 , ... będzie ciągiem niezależnych zmiennych losowych o tym samym
rozkładzie zadanym przez gęstość
p(x) =
3
1(1/2,3/2) (x).
4x2
Wyznacz granicę według rozkładu dla ciągu
Pn
X2 − 3n
Zn = k=1 √ k 4 ,
n
n ∈ N.
Zad. 4.7. Załóżmy, że prawdopodobieństwo urodzenia się chłopca jest stałe i wynosi
0,512. Jak oszacować prawdopodobieństwo, że wśród 104 noworodków będzie o
ponad 200 chłopców więcej niż dziewczynek?
Zad. 4.8. Wektor X̄ =(X1 , X2)T ma rozkład normalny ze średnią ā = (0, 1)T i macierzą
1 12
. Wyznacz rozkład wektora Ȳ = (Y1 , Y2 )T , gdzie Y1 =
kowariancji A =
1
1
2
2X1 + X2 , Y2 = X1 − 2X2 oraz rozkłady jego składowych Y1 , Y2 .
Zad. 4.9. Niech
A=
1 c
c 1
będzie macierzą kowariancji wektora normalnego (X1 , X2 )T o wartościach oczekiwanych EX1 = EX2 = 0. (a) Podaj funkcję charakterystyczną tego wektora. (b)
Jakie wartości może przyjmować parametr c. (c) Dla jakich c wektor ma rozkład
absolutnie ciągły. (d) Dla jakich c składowe X1 , X2 są niezależnymi zmiennymi
losowymi.
Rozdział 5.
Dodatek
5.1. Własności generatorów
Dla dowolnej klasy zbiorów C symbolem σ(C) oznaczać będziemy σ-algebrę generowaną
przez C tzn. najmniejszą σ-algebrę zawierającą C.
Twierdzenie 5.1. Niech X : Ω → Ω∗ , a F ∗ niech będzie σ-algebrą podzbiorów Ω∗ generowaną przez klasę zbiorów C tzn. taką, że F ∗ = σ(C). Wtedy
X −1 (C) ⊂ F ⇒ X −1 (F ∗ ) ⊂ F.
Twierdzenie 5.2. Niech P, Q będą miarami probabilistycznymi na (Ω, F). Jeżeli istnieje
klasa zbiorów C ⊂ F generująca F, zamknięta ze względu na skończone przekroje i taka,że
dla każdego zbioru C ∈ C P (C) = Q(C), to miary P, Q są równe na F tzn. dla każdego
zbioru A ∈ F
P (A) = Q(A).
5.2. Całka względem miary probabilistycznej
Niech X będzie prostą zmienną losową na (Ω, F, P ) tzn.
X=
n
X
ai 1Ai ,
i=1
gdzie ai ∈ R, Ai ∈ F są takie, że Ai ∩ Aj = ∅ dla i 6= j, i, j = 1, ..., n. Całką z X względem
P nazywamy liczbę
Z
n
X
XdP =
ai P (Ai ).
Ω
i=1
Gdy X jest zmienną losową nieujemną, to całkę z X względem P definiujemy wzorem
Z
Z
XdP = sup{ Y dP : Y prosta zmienna losowa Y 6 X}.
Ω
Ω
65
66
Rozdział 5. Dodatek
W ogólnym przypadku przedstawiamy X jako różnicę nieujemnych zmiennychR losowych
X = XR+ −X − , gdzie X + = max(X, 0), X − = max(−X, 0) i w przypadku, gdy X + dP <
+∞ i X − dP < +∞ przyjmujemy, że
Z
Z
Z
+
XdP =
X dP − X − dP.
Ω
Ω
Ω
Mówimy
wtedy, że X jest całkowalną zmienną losową, co jest równoważne z własnością
R
|X|dP < +∞. Gdy X jest całkowalną zmienną losową, to całkę z X po zbiorze A ∈ F
Ω
określamy wzorem
Z
Z
XdP =
A
X1A dP.
Ω
Twierdzenie 5.3. (Podstawowe własności całki) Niech X, Y będą całkowalnymi zmiennymi losowymi.
(i) Dla dowolnych a, b ∈ R
Z
Z
Z
(aX + bY )dP = a XdP + b Y dP.
Ω
(ii) Jeżeli X 6 Y , to
R
Ω
R
Y dP .
R
(iii) Jeżeli X > 0, A ∈ F jest takie, że A XdP = 0, to P (A) = 0.
Ω
XdP 6
Ω
Ω
Twierdzenie 5.4. (Lebesgue’a o zbieżności monotonicznej) Jeżeli {Xn } jest ciągiem nieujemnych zmiennych losowych na (Ω, F, P ) takim, że Xn % X P -p.w., to
Z
Z
Xn dP %
XdP.
Ω
Ω
Twierdzenie 5.5. (Lebesgue’a o zbieżności zmajoryzowanej) Jeżeli {Xn } jest ciągiem
P
zmiennych losowych na (Ω, F, P ) takim, że Xn −
→ X oraz istnieje całkowalna zmienna
losowa Y dla, której |Xn | 6 Y , n ∈ N, to
Z
Z
Xn dP →
XdP.
Ω
Ω
Wniosek 5.1. Przy założeniach poprzedniego twierdzenia
Z
|Xn − X| dP → 0.
Ω
Rozdział 5. Dodatek
67
Wniosek 5.2. Niech X bedzie zmienną losową na (Ω, F, P ). Istnieje ciąg prostych zmiennych losowych {Xn } mierzalnych względem σ-algebry σ(X), |Xn | 6 |X|, n ∈ N takich,
że
R
R
(i) jeżeli X > 0, to 0 6 Xn % X oraz Ω Xn dP % Ω XdP ,
R
R
(ii) jeżeli X jest całkowalną zmienną losową, to Xn → X oraz Ω Xn dP → Ω XdP .
Dowód. Wystarczy przyjąć, że dla ω ∈ Ω

n
jeżeli X(ω) > n


 k
k
jeżeli
6 X(ω) <
2n
2n
Xn (ω) =
k
k+1
jeżeli 2n 6 X(ω) <


 2n
−n jeżeli X(ω) < −n
k+1
,
2n
k+1
,
2n
k = 0, 1, ..., n2n − 1
k = −n2n , ..., −1
i skorzystać z twierdzenia o zbieżności monotonicznej lub twierdzenia o zbieżności zmajoryzowanej. 5.3. Zbieżność zmiennych losowych
Niech {Xn } będzie ciągiem niezależnych zmiennych losowych określonych na tej samej
przestrzeni probabilistycznej (Ω, F, P ).
Definicja 5.1.
X jeżeli
(i) Mówimy, że {Xn } jest zbieżny prawie wszędzie do zmiennej losowej
P ( lim Xn = X) = 1,
n→∞
co oznaczamy Xn → X P -p.w.
(ii) Mówimy, że {Xn } jest zbieżny według prawdopodobieństwa do zmiennej losowej X
jeżeli dla każdego > 0
P (|Xn − X| > ) → 0,
P
co oznaczamy Xn −
→ X.
Można pokazać, że Xn → X P -p.w. dokładnie wtedy, gdy dla każdego > 0
P (sup |Xk − X| > ) → 0
(5.1)
k>n
lub równoważnie, gdy dla każdego > 0
P (lim sup[|Xn − X| > ]) = 0,
(5.2)
n→∞
T
S
gdzie lim supn→∞ An = n=1 k=n Ak oznacza granicę górną ciągu zbiorów A1 , A2 , .... Zauważmy, że ω ∈ lim supn→∞ An ⇔ istnieje podciąg {nk } zależny od ω taki,
S że ω
T ∈ Ank ,
k ∈ N. Rozważa się również granicę dolną ciągu zbiorów lim inf n→∞ An = n=1 k=n Ak .
Bezpośrednio z definicji ω ∈ lim inf n→∞ An ⇔ istnieje N ∈ N zależne od ω takie, że
ω ∈ An , k > N . W szczególności ze wzorów de Morgana wynika, że (5.2) jest równoważne
z P (lim inf n→∞ [|Xn − X| 6 ]) = 1. Porównując (5.1) z definicją zbieżności według prawdopodobieństwa można zauważyć, że zbieżność prawie wszędzie pociąga zbieżność według
prawdopodobieństwa.
68
Rozdział 5. Dodatek
P
Wniosek 5.3. Jeżeli Xn → X P -p.w., to Xn −−−→ X.
P
Twierdzenie 5.6. Jeżeli E|Xn − X| → 0, to Xn −−−→ X.
Dowód. Wynika z oszacowania
εP (|Xn − X| > ) 6 E1{|Xn −X|>} |Xn − X| 6 E|Xn − X|.
P
Twierdzenie 5.7. (Riesza) Jeżeli Xn −−−→ X, to istnieje podciąg {nk } taki, że
Xnk → X P -p.w..
P
→ X wtedy i tylko wtedy, gdy z każdego jego podciągu {Xnk } można
Wniosek 5.4. Xn −
wybrać podciąg {Xnkl } taki, że Xnkl → X P -p.w..
Dowód. Jeżeli {Xn } jest zbieżny według prawdopodobieństwa, to każdy jego podciąg {Xnk } też jest zbieżny według prawdopodobieństwa i dalszy podciąg {Xnkl } zbieżny
prawie wszędzie można wybrać wykorzystując twierdzenie Riesza. Aby uzyskać tezę odwrotną przeprowadzimy dowód nie wprost. Załóżmy, że {Xn } nie jest zbieżny według prawdopodobieństwa. Wtedy istnieje takie > 0 oraz podciąg {Xnk } taki, że dla wszystkich
k∈N
P (|Xnk − X| > ) > .
(5.3)
Z założenia istnieje podciąg {Xnkl } zbieżny prawie wszędzie do X. Ponieważ pociąga to,
P
→ X, więc dochodzimy do sprzeczności z (5.3).
iż Xnkl −
Fakt 5.1. Niech Xn → X P -p.w. i Yn → Y P -p.w.. Wtedy
(i) Xn + Yn → X + Y P -p.w.,
(ii) Xn Yn → XY P -p.w.,
(iii) jeżeli dodatkowo P (Y 6= 0) = 1, to
Xn
X
→
P -p.w..
Yn
Y
(iv) dla dowolnej funkcji ciągłej f : R2 → R f (Xn , Yn ) → f (X, Y ) P -p.w..
Dowód. Niech Ω0 = {ω : limn→∞ Xn (ω) = X(ω)}, oraz Ω” = {ω : limn→∞ Yn (ω) =
Y (ω)}. Wtedy z założenia P (Ω0 ) = P (Ω”) = 1. Oznaczmy Ω∗ = Ω0 ∩ Ω”. Oczywiście
P (Ω∗ ) = 1. Ponadto dla każdego ω ∈ Ω∗
Xn (ω) + Yn (ω) → X(ω) + Y (ω),
co kończy dowód (i). Pozostałe własności dowodzimy w analogiczny sposób.
P
P
Wniosek 5.5. Niech Xn −
→ X i Yn −
→ Y . Wtedy
Rozdział 5. Dodatek
69
P
(i) Xn + Yn −
→X +Y,
P
(ii) Xn Yn −
→ XY ,
(iii) jeżeli dodatkowo P (Y 6= 0) = 1, to
Xn P X
−
→ .
Yn
Y
P
(iv) dla dowolnej funkcji ciągłej f : R2 → R f (Xn , Yn ) −
→ f (X, Y ).
Dowód. Wystarczy zastosować fakt 5.1 i wniosek 5.4.
5.4. Przestrzenie produktowe. Twierdzenie Fubiniego
Niech (Ω1 , F1 , P1 ), (Ω2 , F2 , P2 ) będą przestrzeniami probabilistycznycmi. Niech też
F1 × F2 = {A1 × A2 : A1 ∈ F1 , A2 ∈ F2 }. Bezpośrednio z określenia F1 × F2 jest
półpierścieniem podzbiorów Ω1 × Ω2 . Oznaczmy
Ω = Ω1 × Ω2 ,
F = σ(F1 × F2 ).
σ-algebrę F nazywamy σ-algebrą produktową i oznaczamy też symbolem F1 ⊗ F2 .
Twierdzenie 5.8. Istnieje jedyna miara probabilistyczna P na (Ω, F) taka, że dla wszystkich A1 ∈ F1 , A2 ∈ F2
P (A1 × A2 ) = P1 (A1 )P2 (A2 ).
Określoną w ten sposób jednoznacznie miarę probabilistyczną P oznaczamy symbolem P1 × P2 i nazywamy miarą produktową. Produktem przestrzeni probabilistycznych
(Ω1 , F1 , P1 ), (Ω2 , F2 , P2 ) nazywamy przestrzeń
(Ω1 × Ω2 , F1 ⊗ F2 , P1 × P2 ),
oznaczamy ją symbolem ×2i=1 (Ωi , Fi , Pi ). Podobnie definiujemy i oznaczamy produkty
większej ilości przestrzeni probabilistycznych. W szczególności (Ω, F, P ) = ×ni=1 (Ωi , Fi , Pi )
jest produktem n przestrzeni probabilistycznych tzn. jest przestrzenią probabilistyczną
dla, której
Ω = Ω1 × ... × Ωn ,
F = σ(A1 × ... × An : gdzie A1 ∈ F1 , ..., An ∈ Fn ),
a miara probabilistyczna P = P1 × ... × Pn jest jedyną miarą probabilistyczną na (Ω, F)
taką, że dla wszystkich zdarzeń A1 ∈ F1 ,..., An ∈ Fn
P (A1 × ....An ) = P1 (A1 ) · ... · Pn (An ).
Twierdzenie 5.9. (Fubiniego) Niech X będzie zmienną losową na produktowej przestrzeni
probabilistycznej (Ω1 × Ω2 , F1 ⊗ F2 , P1 × P2 ).
70
Rozdział 5. Dodatek
(i) Jeżeli X > 0, to
Z
Z Z
X(ω1 , ω2 ) P1 × P2 (dω1 , dω2 ) =
(
X(ω1 , ω2 ) P2 (dω2 ))P1 (dω1 )
Ω1 ×Ω2
Ω1
Ω2
Z Z
=
(
X(ω1 , ω2 ) P1 (dω1 ))P2 (dω2 ).
Ω2
Ω1
(ii) Jeżeli X jest całkowalna względem P1 × P2 , to równości z (i) pozostają w mocy.
Bibliografia
[1] A.A. Borowkow, Rachunek prawdopodobieństwa, PWN 1975.
[2] P. Billingsley, Miara i prawdopodobieństwo, PWN 1986.
[3] W. Feller, Wstęp do rachunku prawdopodobieństwa, t. I, PWN, Warszawa 1977.
[4] M. Fisz, Rachunek prawdopodobieństwa i statystyka matematyczna, PWN, Warszawa
1969.
[5] J. Jakubowski, R. Sztencel, Wstęp do teorii prawdopodobieństwa, SCRIPT, Warszawa
2000.
[6] J. Jakubowski, R. Sztencel, Rachunek prawdopodobieństwa dla (prawie) każdego,
SCRIPT, Warszawa 20002.
[7] A. Kłopotowski, Teoria prawdopodobieństwa, TNOiK, Toruń 1996.
[8] W. Niemiro, Rachunek prawdopodobieństwa i statystyka matematyczna, Biblioteka
Szkoły Nauk Ścisłych 1999.
71
Indeks
centralne twierdzenie graniczne, 56
de Moivre’a-Laplaca, 59
Levy’ego, 59
Lindeberga-Fellera, 56
zmienne losowe, 19
niezależne parami
zdarzenia, 22
zmienne losowe, 22
dystrybuanta
empiryczna, 43
rozkładu, 7
wektora losowego, 16
zmiennej losowej, 7
prawdopodobieństwo warunkowe, 25
przestrzenie produktowe, 69
przykład Bernsteina, 22
rozbicie przestrzeni, 26
rozkład
łączny, 19
funkcja charakterystyczna, 49
absolutnie ciągły, 10
wektora losowego, 60
Bernoullego, 12
zmiennej losowej, 49
brzegowy, 19
granica
dwupunktowy, 11
dolna ciągu zbiorów, 67
dyskretny, 10
górna ciągu zbiorów, 67
gamma, 14
geometryczny, 12
jędrność, 46
jednostajny, 14
lognormalny, 15
kowariancja, 22
normalny, 14
lemat
normalny wielowymiarowy, 60
Borela-Cantellego, 40
osobliwy, 10
Borela-Cantellego II, 41
Pareto, 15
Kroneckera, 40
Poissona, 12
prawdopodobieństwa, 7
macierz kowariancji wektora losowego, 17
przesunięty geometryczny, 12
metoda Monte Carlo, 43
ujemny dwumianowy, 12
mocne prawo wielkich liczb, 39
warunkowy, 30
mocne prawo wielkich liczb Kołmogorowa,
wektora losowego, 16
40
wykładniczy, 14
zdegenerowany, 11
nierówność
zmiennej losowej, 7
Czebyszewa, 39
Kołmogorowa, 36
słaba zbieżność rozkładów, 45
nieskorelowane zmienne losowe, 22
słabe prawo wielkich liczb, 39
niezależne
schemat Bernoullego, 33
σ-algebry, 21
tożsamość Walda, 28
zdarzenia, 21
72
Indeks
twierdzenie
0 − 1 Kołmogorowa, 36
Fubiniego, 69
Gliwenki-Cantellego, 43
Helly’ego-Braya, 47
Kołmogorowa o rozkładach zgodnych, 35
Kołmogorowa o trzech szeregach, 38
Kołmogorowa odwrotne, 42
Levy’ego-Craméra, 53
o dwóch szeregach, 37
o zmianie miary, 9
Poissona, 56
twierdzenie Lebesgue’a
o rozkładzie, 10
o zbieżności zmajoryzowanej, 66
o zbieżności monotonicznej, 66
wariancja, 9
wartość oczekiwana, 8
wektora losowego, 17
warunkowa wartość oczekiwana, 26
względem zdarzenia, 25
wektor losowy, 16
współczynnik korelacji, 23
wzór na odwrócenie, 53
zbieżność
prawie wszędzie, 67
według prawdopodobieństwa, 67
według rozkładu, 45
zbiory borelowskie, 7
zmienna losowa, 7
zmienna losowa zespolona, 49
73
Download