5 Przegląd najważniejszych rozkładów

advertisement
5
Przegląd najważniejszych rozkładów
5.1
Rozkład Bernoulliego
W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia
może nastąpić zdarzenie A lub A0 . Zakładamy, że dla każdego z tych n doświadczeń
P(A) = p,
P(A0 ) = 1 − p = q,
0 < p < 1.
Niech X będzie liczbą wystąpień zdarzenia A w serii n doświadczeń: zdarzenie {X = k} oznacza, że w serii
n doświadczeń zdarzenie A wystąpiło k razy. Zmienna losowa X ma rozkład prawdopodobieństwa określony
wzorem
n k n−k
B(n, p, k) := P(X = k) =
p q
.
k
Rozkład ten nazywa się rozkładem dwumianowym z parametrami n i p.
Parametry: EX = np, D2 = npq.
5.2
Rozkład Poissona
Zmienna losowa X ma rozkład Poissona z parametrem λ > 0, jeśli
P(X = k) =
e−λ λk
,
k!
k = 0, 1, 2, . . .
Parametry: EX = λ, D2 X = λ.
Twierdzenie 5.1 (Poissona). Niech zmienna losowa Xn ma rozkład dwumianowy z parametrami n i p = pn .
Jeśli limn→∞ npn = λ > 0, to
e−λ λk
lim P(Xn = k) =
.
n→∞
k!
Dowód. Niech λn = npn . Wówczas pn =
λn
n ,
limn→∞ λn = λ oraz
n!
(n − k + 1) · · · n (npn )k
·
pkn (1 − pn )n−k = lim
· (1 − pn )n (1 − pn )−k =
n→∞ k!(n − k)!
n→∞
nk
k!
n −k
n−k+1 n−k+2
n − 1 n λkn
λn
λn
λk −λ
= lim
·
···
· ·
1−
1−
=
e .
n→∞
n
n
n
n k!
n
n
k!
lim P(Xn = k) = lim
n→∞
5.3
Rozkład geometryczny
Zmienna losowa X ma rozkład geometryczny z parametrem p, jeśli
P (X = k) = (1 − p)k−1 p,
p ∈ (0, 1), k = 1, 2, . . .
Jest to rozkład czasu oczekiwania na pierwszy sukces w ciągu doświadczeń Bernoulliego – liczba doświadczeń,
które należy wykonać, aby otrzymać pierwszy sukces.
Parametry: EX = 1/p, D2 X = (1 − p)/p2 .
5.4
Rozkład wielomianowy
Jest uogólnieniem rozkładu dwumianowego i opisuje rozkład wyników przy n-krotnym powtórzeniu doświadczenia o k możliwych rezultatach. Jeśli Xi oznacza liczbę wyników i-tego typu, to
P(X1 = n1 , . . . , Xk = nk ) =
n!
pn1 · · · pnk k ,
n1 ! · · · nk ! 1
gdzie pi ∈ [0, 1], i = 1, . . . , k, p1 + · · · + pk = 1, n1 + · · · + nk = n.
Jeśli µ jest rozkładem prawdopodobieństwa na Rn to
µj (B) = µ(R × · · · × R × |{z}
B ×R × · · · × R),
j-te miejsce
gdzie B ∈ B(R), jest rozkładem prawdopodobieństwa. Nazywamy go rozkładem brzegowym rozkładu µ.
Dla każdego i = 1, . . . , k zmienne Xi mają rozkład dwumianowy, co oznacza, że jednowymiarowe rozkłady
brzegowe rozkładu wielomianowego to rozkłady dwumianowe.
5.5
Rozkład jednostajny
Niech A ⊆ Rn będzie zbiorem o dodatniej i skończonej mierze Lebesgue’a λ. Rozkład o gęstości
g(x) =
1
1A (x),
λ(A)
x ∈ Rn ,
nazywamy rozkładem jednostajnym na zbiorze A. Najczęściej spotykamy się z sytuacją jednowymiarową, gdy
A jest przedziałem [a, b], a wówczas jego gęstość ma postać
g(x) =
1
1[a,b] (x),
b−a
x ∈ R,
a dystrybuanta


0,

t − a
F (t) =
,

b−a


1,
t < a,
a ¬ t < b,
b ¬ t.
Rozkład ten oznacza się często U[a, b].
a+b
(b − a)2
Parametry: EX =
, D2 X =
.
2
12
5.6
Rozkład wykładniczy
Rozkład wykładniczy z parametrem λ ma gęstość
g(x) = λe−λx 1(0,∞) (x).
Dystrybuanta tego rozkładu to:
F (t) = (1 − e−λt )1(0,∞) (t).
Rozkład geometryczny i rozkład wykładniczy mają własność braku pamięci, to znaczy jeśli X jest zmienną
losową o jednym z tych rozkładów, to:
P(X > t + s|X > t) = P(X > s)
gdzie t, s > 0 oraz dodatkowo t, s ∈ N dla rozkładu geometrycznego.
Parametry: EX = 1/λ, D2 X = 1/λ2 .
5.7
Rozkład gamma
Rozkładem gamma nazywamy rozkład o gęstości
γa,b (x) =
ba a−1 −bx
x
e 1(0,∞) (x),
Γ(a)
a, b > 0.
Jeśli a jest liczbą naturalną, to jest to rozkład sumy a niezależnych
zmiennych losowych o rozkładzie wykładR∞
niczym z parametrem b. (Funkcja Gamma Eulera: Γ(a) = 0 ta−1 e−t dt, a > 0).
Parametry: EX = a/b, D2 X = a/b2 .
5.8
Rozkład beta
Jest to rozkład o gęstości
βa,b (x) =
1
xa−1 (1 − x)b−1 1[0,1] (x),
B(a, b)
a, b > 0,
gdzie funkcja beta
B(a, b) =
Na przykład dla a = b =
1
2
Γ(a)Γ(b)
=
Γ(a + b)
Z
1
ta−1 (1 − t)b−1 dt,
0
otrzymujemy rozkład arcusa sinusa o gęstości:
β1/2,1/2 (x) =
1[0,1] (x)
π
p
x(1 − x)
Parametry: EX = a/(a + b), D2 X = ab/[(a + b)2 (a + b + 1)].
.
a, b > 0.
5.9
Rozkład normalny
Zmienna losowa X ma jednowymiarowy rozkład normalny o średniej µ i wariancji σ 2 , co zapisujemy X ∼
N (µ, σ 2 ), jeżeli ma gęstość
2
2
1
ϕµ,σ (x) = √ e−(x−µ) /2σ , µ ∈ R, σ > 0.
σ 2π
Wektor losowy X = (X1 , X2 , . . . , Xn ) ma wielowymiarowy rozkład normalny, jeśli jego funkcja gęstości dana
jest wzorem:
1
1
exp [− (x − µ)T V−1 (x − µ)],
f (x) =
n/2
1/2
2
(2π) |V|
gdzie µ jest wektorem wartości oczekiwanych, a V symetryczną i dodatnio określoną (nieosobliwą) macierzą
(kowariancji).
Parametry: EX = µ, D2 X = σ 2 .
5.10
Rozkład χ2 .
Niech X = (X1 , X2 , . . . , Xn )0 będzie wektorem niezależnych zmiennych losowych o rozkładach normalnych z
E(Xi ) = 0 oraz D2 (Xi ) = 1, i = 1, . . . , n. Zmienna
Z = X0 X =
n
X
Xi2
i=1
ma rozkład χ2 z n stopniami swobody, co zapisujemy Z ∼ χ2n . Rozkład ten ma gęstość:
f (x) =
1
xn/2−1 e−x/2 1(0,∞) (x).
2n/2 Γ(n/2)
Zauważmy, że jest rozkład Γ(2, n/2). Rozkład ten ma następującą własność: jeśli Z1 ∼ χ2n , Z2 ∼ χ2m oraz Z1 i
Z2 są niezależne, to:
Z1 + Z2 ∼ χ2n+m .
Twierdzenie 5.2. Jeśli A jest macierzą idempotentną (A2 = A) o wymiarach n × n rzędu r, to
X0 AX ∼ χ2r .
Jeśli A1 , A2 są macierzami idempotentnymi oraz A1 A2 = 0, to zmienne X0 A1 X i X0 A2 X są niezależne.
Parametry: EX = n, D2 X = 2n.
5.11
Rozkład t-Studenta.
Jeśli X ∼ N (0, 1) oraz Y ∼ χ2n oraz X i Y są niezależne, to
X
Z=p
Y /n
ma rozkład t z n stopniami swobody, co oznaczamy Z ∼ tn . Rozkład ten ma gęstość:
Γ((n + 1)/2)
f (x) = √
nπΓ(n/2)
x2
1+
n
−(n+1)/2
.
Dla n = 1 rozkład t-Studenta jest rozkładem Cauchy’ego o gęstości
f (x) =
1
.
π(1 + x2 )
Możemy również rozważać bardziej ogólną jego postać z gęstością:
f (x) =
h
.
π(h2 + (x − m)2 )
Dla n → ∞ rozkład t-Studenta zbiega do rozkładu normalnego.
Parametry: przy n stopniach swobody istnieją momenty rzędu mniejszego niż n.
5.12
Rozkład F-Snedecora.
Jeśli Y1 ∼ χ2n1 , Y2 ∼ χ2n2 oraz Y1 i Y2 są niezależne, to zmienna
F =
Y1 /n1
Y2 /n2
ma rozkład F z n1 i n2 stopniami swobody: Z ∼ Fn1 ,n2 .
6
Parametry rozkładów
Ustalmy przestrzeń probabilistyczną (Ω, F, P).
Definicja 6.1. O zmiennej losowej X mówimy, że jest całkowalna, jeśli skończona jest całka
R
Ω
|X(ω)| dP(ω).
Definicja 6.2. Wartością średnią (oczekiwaną, przeciętną) całkowalnej zmiennej losowej X nazywamy liczbę
Z
E(X) =
X dP.
Ω
Wartością oczekiwaną zmiennej losowej X = (X1 , . . . , Xn ) o wartościach w Rn nazywamy wektor
E(X) = (EX1 , . . . , EXn ),
o ile wszystkie współrzędne mają wartość średnią.
Jeśli zmienna losowa nie jest całkowalna, to nie ma wartości oczekiwanej.
Twierdzenie 6.3. Załóżmy, że wartości oczekiwane EX i EY istnieją. Wtedy
• Jeśli X ­ 0, to EX ­ 0;
• |EX| ¬ E|X|;
• Dla a, b ∈ R istnieje wartość średnia zmiennej aX + bY oraz
E(aX + bY ) = aEX + bEY.
Twierdzenie 6.4. Niech ϕ : Rn → R będzie funkcją borelowską, a X zmienną losową o wartościach w Rn .
Wtedy
Z
Eϕ(X) =
ϕ(x) dµX (x),
Rn
przy czym całkowalność jednej ze stron implikuje całkowalność drugiej i rowność całek.
Wniosek 6.5. Jeśli zmienna losowa P
X ma rozkład dyskretny {(xi , pi )i∈I }, to wartość oczekiwana istnieje wtedy
i tylko wtedy, gdy zbieżny jest szereg i∈I |ϕ(xi )|pi i wyraża się wzorem
Eϕ(X) =
X
ϕ(xi )pi .
i∈I
Wniosek 6.6. Jeśli zmienna losowa X o wartościach w Rn ma rozkład ciągły o gęstości g, a funkcja ϕ : Rn → R
jest borelowska, to
Z
ϕ(x)g(x) dx,
Eϕ(X) =
Rn
przy czym całkowalność jednej ze stron implikuje całkowalność drugiej i równość całek.
Twierdzenie 6.7. Jeśli X jest nieujemną zmienną losową, to zachodzi wzór:
Z ∞
EX =
P(X > s) ds.
0
Definicja 6.8. Jeśli E(X − EX)2 < ∞, to tę liczbę nazywamy wariancją zmiennej losowej X i oznaczamy D2 X.
Twierdzenie 6.9. Jeśli X jest zmienną losową dla której EX 2 < ∞, to istnieje D2 X oraz
• D2 X = E(X 2 ) − E2 X, D2 (cX) = c2 D2 X, D2 (X + a) = D2 X,
• D2 X ­ 0, natomiast D2 X = 0 wtedy i tylko wtedy, gdy X jest stała.
Zauważmy, że jeśli zmienna losowa X ma wartość oczekiwaną µ = EX oraz wariancję σ 2 = D2 X, to zmienna
X − EX
Y =
ma parametry:
σ
EY =
EX − µ
= 0,
σ2
D2 Y =
D2 (X − µ)
D2 X
=
= 1.
2
σ
σ2
Zmienną o takich własnościach nazywamy zmienną losową standaryzowaną, a transformację polegającą na
odjęciu wartości oczekiwanej i podzieleniu przez odchylenie standardowe – standaryzacją.
√
• Pierwiastek z wariancji nazywamy odchyleniem standardowym: σ(X) = D2 X.
• Liczbę mk = E(X k ) nazywamy momentem zwykłym rzędu k zmiennej losowej X.
• Liczbę µk = E(X − m1 )k = E(X − EX)k nazywamy momentem centralnym rzędu k zmiennej losowej X.
• Współczynnik asymetrii: α3 = µ3 /σ 3 .
• Kurtoza (współczynnik spłaszczenia): α4 = (µ4 /σ 4 − 3).
Definicja 6.10. Medianą zmiennej losowej X nazywamy każdą taką liczbę q, która spełnia nierówności
P(X ¬ q) ­
1
2
∧
P(X ­ q) ­
1
,
2
i oznaczamy M e(X).
Zmienna losowa X ma rozkład: P(X = 0) = P(X = 1) = 14 , P(X = 2) =
przedziału [1, 2]. Wartość przeciętna to E(X) = 0 · 14 + 1 · 14 + 2 · 12 = 45 .
1
2.
Medianą jest każdy punkt
Definicja 6.11. Kwantylem rzędu p (0 < p < 1) zmiennej losowej X o dystrybuancie F nazywamy każdą liczbę
qp spełniającą zależności
F (qp −) ¬ p ¬ F (qp ).
Mediana jest kwantylem rzędu 1/2.
Twierdzenie 6.12 (Nierówność Schwartza). Jeśli EX 2 < ∞, EY 2 < ∞, to (E|XY |)2 ¬ E(X 2 ) · E(Y 2 ).
√
√
Dowód. Zauważmy, że 2|ab| ¬ a2 + b2 , weźmy a = X/ EX 2 , b = Y / EY 2 , podstawmy i obłóżmy wartością
oczekiwaną.
Twierdzenie 6.13 (Nierówność Jensena). Niech E|X| < ∞ oraz g będzie taką funkcją wypukłą, że E|g(X)| <
∞. Wówczas g(EX) ¬ Eg(X).
Definicja 6.14. Kowariancją zmiennych losowych X i Y , posiadających wariancję, nazywamy wielkość
cov(X, Y ) = E(X − EX)(Y − EY ).
Mamy cov(X, Y ) = E(XY − Y EX − XEY + EXEY ) = E(XY ) − E(Y )E(X) − E(X)E(Y ) + E(X)E(Y ) =
E(XY )−E(X)E(Y ). Jeśli cov(X, Y ) = 0, to zmienne losowe nazywamy nieskorelowanymi. Na mocy nierówności
Schwartza mamy
p
| cov(X, Y )| ¬ D2 (X)D2 (Y ),
przy czym równość zachodzi, gdy zmienne losowe X i Y są związane deterministyczną zależnością linową, tzn.
aX + bY = c, gdzie a2 + b2 > 0. Wynika stąd, że współczynnik korelacji zdefiniowany jako
ρ(X, Y ) = p
cov(X, Y )
D2 (X)D2 (Y )
ma własność |ρ(X, Y )| ¬ 1 oraz |ρ(X, Y )| = 1 tylko dla zmiennych liniowo zależnych.
Twierdzenie 6.15. Jeśli zmienne losowe X1 , . . . , Xn mają wariancję, to istnieje wariancja sumy i
D2 (X1 + · · · + Xn ) =
n
X
i=1
D2 Xi + 2
X
1¬i<j¬n
cov(Xi , Xj ).
Dowód.
D2 (X1 + · · · + Xn ) = E(X1 + · · · + Xn )2 − (EX1 + · · · + EXn )2

 
n
n
X
X
X
= E
Xi2 + 2
Xi Xj  −  (EXi )2 + 2
i=1
=
n
X
n
X
i=1
X
EXi2 − (EXi )2 + 2
i=1
=
i=1
1¬i<j¬n

X
EXi EXj 
1¬i<j¬n
(E(Xi Xj ) − EXi EXj )
1¬i<j¬n
X
D2 Xi + 2
cov(Xi , Xj ).
1¬i<j¬n
Wniosek 6.16. Jeśli zmienne losowe X1 , . . . , Xn mają wariancję i są parami nieskorelowane, to
D2 (X1 + · · · + Xn ) =
n
X
D2 Xi .
i=1
2
Definicja 6.17. Jeśli D Xi istnieje dla każdego i = 1, . . . , n, to macierz QX = [cov(Xi , Xj )]ni,j=1 nazywamy
macierzą kowariancji wektora losowego X = (X1 , . . . , Xn ).
Macierz kowariacji jest symetryczna oraz nieujemnie określona: dla dowolnego x ∈ Rn mamy
n
X
xT Qx =
xi xj cov(Xi , Xj ) ­ 0.
i,j=1
Jeśli rząd rank(Q) = k < n, to wektor X przyjmuje wartości w pewnej k-wymiarowej podprzestrzeni.
Twierdzenie 6.18 (Nierówność Czebyszewa). Niech X będzie nieujemną zmienną losową. Wtedy dla dowolnego
ε>0
EX
.
P(X ­ ε) ¬
ε
R
R
Dowód. EX = Ω X dP ­ {X­ε} X dP ­ εP(X ­ ε).
Twierdzenie 6.19 (Uogólniona nierówność Czebyszewa). Niech g będzie nieujemną funkcją niemalejącą. Wtedy
dla dowolnego ε > 0
Eg(X)
.
P(|X| ­ ε) ¬
g(ε)
R
Dowód. Eg(X) ­ {|X|­ε} g(X) dP ­ g(ε)P(|X| ­ ε).
Wniosek 6.20 (Nierówność Markowa). Dla p > 0 i dowolnego ε > 0
P(|X| ­ ε) ¬
E|X|p
.
εp
Wniosek 6.21 (Nierówność Czebyszewa-Bienaymé). Jeśli zmienna losowa X ma skończoną wariancję, to dla
dowolnego ε > 0
D2 X
P(|X − EX| ­ ε) ¬ 2 .
ε
7
Niezależność zmiennych losowych
Ustalmy przestrzeń probabilistyczną (Ω, F, P).
Definicja 7.1. Zmienne losowe X1 , X2 , . . . , Xn o wartościach w R, określone na przestrzeni (Ω, F, P) nazywamy
niezależnymi, gdy dla każdego ciągu zbiorów borelowskich B1 , B2 , . . . , Bn zachodzi równość
P(X1 ∈ B1 , X2 ∈ B2 , . . . , Xn ∈ Bn ) = P(X1 ∈ B1 )P(X2 ∈ B2 ) · · · P(Xn ∈ Bn ).
Inaczej można wypowiedzieć powyższą równość w języku rozkładów zmiennych Xi :
µ(X1 ,X2 ,...,Xn ) (B1 × B2 × · · · × Bn ) = µX1 (B1 )µX2 (B2 ) · · · µXn (Bn ),
co oznacza, że dla zmiennych niezależnych rozkład łączny jest wyznaczony przez rozkłady brzegowe. Jeszcze
inaczej możemy powiedzieć, że zmienne są niezależne, jeśli niezależne są σ-ciała generowane przez te zmienne.
Oczywiste jest ponadto następujące twierdzenie.
Twierdzenie 7.2. Zmienne losowe X1 , X2 , . . . , Xn są niezależne wtedy i tylko wtedy, gdy dla wszystkich
t1 , t2 , . . . , tn ∈ R
F(X1 ,...,Xn ) (t1 , . . . , tn ) = FX1 (t1 ) · · · FXn (tn ).
Przykład 7.3. Niech X1 , . . . , Xn będą niezależnymi zmiennymi losowymi. Znaleźć rozkład zmiennych Y =
max(X1 , . . . , Xn ), Z = min(X1 , . . . , Xn ). Mamy
FY (t) = P(Y ¬ t) = P(max(X1 , . . . , Xn ) ¬ t) = P(X1 ¬ t, . . . , Xn ¬ t) = F1 (t) · · · Fn (t),
FZ (t) = P(Z ¬ t) = 1 − P(Z > t) = 1 − P(min(X1 , . . . , Xn ) > t) = 1 − P(X1 > t, . . . , Xn > t) =
= 1 − P(X1 > t)P(X2 > t) · · · P(Xn > t) = 1 − (1 − F1 (t)) · · · (1 − Fn (t)).
Twierdzenie 7.4. Zmienne losowe X1 , . . . , Xn o rozkładach dyskretnych są niezależne wtedy i tylko wtedy, gdy
dla każdego ciągu x1 , . . . , xn , gdzie xi jest punktem skokowym zmiennej Xi , i = 1, . . . , n,
P(X1 = x1 , . . . , Xn = xn ) = P(X1 = x1 ) · · · P(Xn = xn ).
Twierdzenie 7.5. Zmienne losowe X1 , . . . , Xn o rozkładach ciągłych z gęstościami g1 , . . . , gn , są niezależne
wtedy i tylko wtedy, gdy wektor (X1 , . . . , Xn ) ma rozkład ciągły z gęstością
g(x1 , . . . , xn ) = g1 (x1 ) · · · gn (xn ).
Definicja 7.6. Zmienne losowe (Xi )i∈I określone na tej samej przestrzeni nazywamy niezależnymi, gdy dla
każdego skończonego podzbioru J ⊆ I zmienne (Xi )i∈J są niezależne.
Twierdzenie 7.7. Załóżmy, że zmienne losowe X1,1 , X1,2 , . . . , X1,k1 , X2,1 , . . . , X2,k2 , . . . , Xn,1 , . . . , Xn,kn są
niezależne. Wówczas zmienne losowe
Yj = ϕj (Xj,1 , . . . , Xj,kj ), j = 1, 2, . . . , n,
gdzie ϕj są takimi funkcjami borelowskimi, że zmienne Yj są dobrze zdefiniowane, są niezależne.
Twierdzenie 7.8. Niech X1 , . . . , Xn będą zmiennymi losowymi, które maja wartość oczekiwaną. Wtedy istnieje
wartość oczekiwana iloczynu X1 X2 · · · Xn oraz
E(X1 X2 · · · Xn ) = E(X1 )E(X2 ) · · · E(Xn ).
Uwaga 7.9.
1. Powyższe twierdzenie nie jest prawdziwe dla ciągów nieskończonych.
2. Z powyższego twierdzenia wynika, że jeśli zmienne X1 i X2 są niezależne, to są również nieskorelowane:
cov(X1 , X2 ) = E(X1 X2 ) − E(X1 )E(X2 ) = E(X1 )E(X2 ) − E(X1 )E(X2 ) = 0.
Niech X, Y będą niezależnymi zmiennymi losowymi oraz B ∈ B(R). Wówczas
µX+Y (B) = P(X + Y ∈ B) = P((X, Y ) ∈ {(x, y) ∈ R2 : x + y ∈ B})
Z
Z
=
1{x+y∈B} (x, y)µ(X,Y ) (dx, dy) =
1{x+y∈B} (x, y)µX (dx)µY (dy)
R2
R2
Z
Z ∞
Z ∞
∞
=
1B−y (x)µX (dx) µY (dy) =
µX (B − y)µY (dy) = (µX ∗ µY )(B).
−∞
−∞
−∞
Miarę µX ∗ µY nazywamy splotem rozkładów µX i µY . Jeśli rozkłady te mają gęstości gX i gY odpowiednio, to
zmienna X + Y ma gęstość
Z ∞
(gX ∗ gY )(u) =
gX (u − y)gY (y) dy,
−∞
nazywaną splotem gęstości gX i gY . Uwaga: ponieważ X+Y = Y +X, to µX ∗µY = µY ∗µX oraz gX ∗gY = gY ∗gX .
8
Zbieżność zmiennych losowych. Twierdzenia graniczne
Ustalmy przestrzeń probabilistyczną (Ω, F, P).
Definicja 8.1. Ciąg zmiennych losowych X1 , X2 , . . . jest zbieżny do zmiennej losowej X z prawdopodobieństwem 1 (prawie na pewno, prawie wszędzie), jeśli
P {ω : lim Xn (ω) = X(ω)} = 1.
n→∞
Definicja 8.2. Ciąg zmiennych losowych X1 , X2 , . . . jest zbieżny do zmiennej losowej X według prawdopodobieństwa (stochastycznie, według miary), jeśli dla każdego ε > 0
lim P ({ω : |Xn (ω) = X(ω)| < ε}) = 1.
n→∞
(lub równoważnie limn→∞ P ({ω : |Xn (ω) = X(ω)| ­ ε}) = 0).
Definicja 8.3. Ciąg zmiennych losowych X1 , X2 , . . . jest zbieżny do zmiennej losowej X średniokwadratowo
(w L2 ), jeśli
lim E(|Xn − X|2 ) = 0.
n→∞
Definicja 8.4. Mówimy, że ciąg dystrybuant F1 , F2 , . . . jest słabo zbieżny do dystrybuanty F , jeśli
limn→∞ Fn (x) = F (x) dla każdego x będącego punktem ciągłości dystrybuanty F . Jeśli ciąg dystrybuant (Fn )
zmiennych losowych (Xn ) jest zbieżny słabo do dystrybuanty F zmiennej losowej X, to mówimy, że ciąg (Xn )
zbiega według dystrybuant (słabo, w sensie słabym) do zmiennej losowej X.
Przykład 8.5. Rozważmy przestrzeń Ω = [0, 1) z rozkładem jednostajnym. Przyjmujemy
(
1, ω ∈ [ nk , k+1
n ),
k = 0, . . . , n − 1, n = 1, 2, . . .
Xkn =
0, ω 6∈ [ nk , k+1
n ),
Zmienne losowe Xkn mają rozkłady dwupunktowe
n−1
,
n
P(Xkn = 0) =
P(Xkn = 1) =
1
,
n
a stąd dla dowolnego ε > 0
1
= 0,
n
zatem ciąg X01 , X02 , X12 , X03 , X13 , X23 , . . . jest zbieżny według prawdopodobieństwa do zmiennej losowej stale
równej 0. Jednakże w każdym punkcie ω ∈ [0, 1), dla każdego n ∈ N istnieje takie k, że Xkn (ω) = 1 oraz
Xjn (ω) = 0 dla j 6= k, zatem powyższy ciąg nie jest zbieżny punktowo w żadnym punkcie.
lim P(|Xkn − 0| > ε) = lim
n→∞
n→∞
Uwaga 8.6.
• Jeśli ciąg X1 , X2 , . . . jest zbieżny średniokwadratowo do zmiennej losowej X, to jest także
zbieżny według prawdopodobieństwa do X.
• Jeśli ciąg X1 , X2 , . . . jest zbieżny do z prawdopodobieństwem 1 do zmiennej losowej X, to jest także
zbieżny według prawdopodobieństwa do X.
• Jeśli ciąg X1 , X2 , . . . jest zbieżny według prawdopodobieństwa do zmiennej losowej X, to ciąg dystrybuant
FX1 , FX2 , . . . zmiennych losowych X1 , X2 , . . . jest słabo zbieżny do dystrybuanty FX zmiennej losowej X.
Przykład 8.7. Niech (Xn ) będzie ciągiem
niezależnych zmiennych losowych o wartościach oczekiwanych m
Pn
oraz wariancjach σ 2 . Wówczas ciąg n1 k=1 (Xk − m)2 jest zbieżny średniokwadratowo do 0.
Definicja 8.8. Mówimy, że ciąg całkowalnych zmiennych losowych X1 , X2 , . . . spełnia słabe prawo wielkich
liczb (SPWL), jeśli
!
n
1 X
(Xk − E(Xk )) ­ ε = 0.
∀ε>0 lim P
n→∞
n
k=1
Twierdzenie 8.9 (SPWL Czebyszewa-Markowa).
Jeżeli (Xn ) jest ciągiem zmiennych losowych całkowalnych
Pn
z kwadratem oraz limn→∞ n12 D2 ( k=1 Xk ) = 0, to ciąg ten spełnia SPWL.
Dowód. Dla dowolnego ε > 0 mamy
P
!
n
1 X
(Xk − E(Xk ) ­ ε = P
n
k=1
!
X
Pn
n
D2 ( k=1 Xk )
(Xk − E(Xk ) ­ nε ¬
→ 0.
n2 ε2
k=1
Definicja 8.10. Mówimy, że ciąg zmiennych losowych X1 , X2 , . . . spełnia mocne prawo wielkich liczb (MPWL),
jeśli
n
1X
(Xk − E(Xk )) = 0 p.n.
lim
n→∞ n
k=1
Twierdzenie 8.11 (Kryterium Kołomogorowa). Niech (Xn )n∈N będzie ciągiem niezależnych zmiennych losoP∞
2
n
wych całkowalnych z kwadratem. Jeżeli n=1 DnX
< ∞, to ciąg (Xn ) spełnia MPWL.
2
Twierdzenie 8.12 (MPWL Kołomogorowa). Niech (Xn )n∈N będzie ciągiem niezależnych zmiennych losowych
o tym samym rozkładzie. Jeżeli E|X1 | < ∞, to ciąg (Xn ) spełnia MPWL, w szczególności
n
1X
Xk = EX1 p.n.
n→∞ n
lim
k=1
Twierdzenie 8.13 (Centralne Twierdzenie Graniczne Lindeberga-Levy’ego). Jeśli (Xn )n∈N jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie całkowalnych z kwadratem, to
Pn
Z x
1 2
1
k=1 Xk − nEX1
√
e− 2 t dt.
lim P
¬
x
=
n→∞
2π −∞
nD2 X1
Inaczej mówiąc, jeśli przyjmiemy
Pn
Yn =
Xk − nEX1
√
,
nD2 X1
k=1
to ciąg dystrybuant (FYn ) zmiennych losowych (Yn ) jest zbieżny słabo do dystrybuanty rozkładu normalnego
standardowego.
Wniosek 8.14 (Twierdzenie Moivre’a-Laplace’a). Niech (Xn )n∈N będą próbami Bernoulliego z prawdopodobieństwem sukcesu p. Wtedy
Pn
Z x
1 2
1
k=1 Xk − np
e− 2 t dt.
¬x =
lim P
√
n→∞
npq
2π −∞
Twierdzenie 8.15 (CTG Lapunowa). Niech (Xn )n∈N będzie ciągiem niezależnych zmiennych losowych i niech
mn = E(Xn ),
σn2 = D2 (Xn ),
bn = E(|Xn − mn |3 ),
p
√
1 X
(Xk − mk ),
Fn (u) = P(Un < u).
B n = 3 b1 + · · · + bn ,
Un =
C n = σ1 + · · · + σn ,
Cn
k=1
Jeśli limn→∞
Bn
Cn
= 0, to dla każdego u
lim Fn (u) =
n→∞
1
2π
Z
u
−∞
1 2
e− 2 t dt.
Download