1 Podstawy teorii miary probabilistycznej 1.1 Zbiory mierzalne – σ–ciało zbiorów Załóżmy, że mamy jakiś zbiór Ω. Niech F będzie taką rodziną podzbiorów Ω, że: • Ω∈F • A ∈ F ⇒ A0 ∈ F • ∀i∈I Ai ∈ F ⇒ S i∈I Ai ∈ F Wtedy rodzinę F nazywamy σ–ciałem zbiorów. Gdy dana jest pewna rodzina A podzbiorów zbioru Ω, σ–ciałem generowanym przez tą rodzinę, nazywamy najmniejsze (w sensie zawierania) σ–ciało zawierające A i oznaczamy σ(A). Można udowodnić, że σ(A) jest przekrojem wszystkich σ–ciał zawierających A. Gdy A ma n elementów i są one parami rozłączne, oraz spełniają warunek Sn A = Ω to σ(A) ma 2n elementów. i=1 i 1.2 Zbiory borelowskie Niech Ω = R. Wówczas σ–ciało generowane przez wszystkie zbiory otwarte zawarte w R oznaczmy przez B(R) i nazywamy rodziną zbiorów borelowskich. Rodzina ta zawiera w szczególności wszystkie przedziały (a, b). Funkcję f : R → R nazywamy funkcją borelowską, gdy przeciwobrazy zbiorów postaci (−∞, a) są borelowskie. W szczególności wszystkie funkcje ciągłe, są borelowskie (ale nie wszystkie funkcje borelowskie są ciągłe). 1.3 Miara probabilistyczna Niech dany będzie pewien zbiór Ω i σ–ciało F. Funkcję P : F → R+ , spełniającą: S P • P ( i∈I Ai ) = i∈I P (Ai ) dla parami rozłącznych zbiorów Ai . • P (∅) = 0, nazywamy miarą. Jeśli dodatkowo spełniony jest warunek: P (X) = 1 to P nazywamy miarą probabilistyczną lub prawdopodobieństwem. Trójkę (Ω, F, P ) nazywamy przestrzenią probabilistyczną. 2 Rozkład prawdopodobieństwa 2.1 Rozkład dyskretny Niech (X, F, P ) będzie przestrzenią probabilistyczną. Mówimy, że rozkład prawdopodobieństwa P jest dyskretny, jeśli istnieje co najwyżej przeliczalny zbiór A ∈ F taki, że P (A) = 1. 2.2 Dystrybuanta rozkładu prawdopodobieństwa Rozpatrzmy przestrzeń probabilistyczną (R, B(R), P ). Funkcję F : R → R, daną wzorem: F (t) = P ((−∞, t)) nazywamy dystrybuantą rozkładu P . Dystrybuanta posiada następujące własności: • ∀t∈R 0 ¬ F (t) ¬ 1, • F (−∞) = limt→−∞ F (t) = 0, • F jest lewostronnie ciągła, • F jest niemalejąca, • F (+∞) = limt→+∞ F (t) = 1. Punkty nieciągłości (punkty skokowe) F są tzw. nośnikami prawdopodobieństwa – tzn. prawdopodobieństwo każdego takiego punktu jest niezerowe. Jeśli rozkład prawdopodobieństwa jest dyskretny, to dystrybuanta jest ponadto stała między punktami skokowymi. 2.3 Rozkład ciągły Mówimy, żeR miara probabilistyczna P określona na (R, B(R)) jest typu ciągłego, gdy istnieje funkcja f : R → R, taka, że P (A) = A f (x)dx dla dowolnego A ∈ B(R). Funkcję f nazywamy gęstością miary P . 1 • f (x) ­ 0 prawie wszędzie (czyli zbiór punktów w których to nie jest prawda, ma miarę równą 0). Własności gęstości miary probabilistycznej R • R f (x)dx = 1, Każda funkcja f : R → R która spełnia te własności jest gęstością pewnego rozkładu prawdopodobieństwa. Niech f będzie gęstością, a F dystrybuantą. Wtedy zachodzi: Z x F (x) = P ((−∞, x)) = f (t)dt −∞ Dystrybuanta rozkładu typu ciągłego jest funkcją ciągłą. W punktach ciągłości f istnieje pochodna dystrybuanty i zachodzi: f (x) = F 0 (x). Uwaga. Nie każda ciągła dystrybuanta jest dystrybuantą rozkładu typu ciągłego. Istnieją rozkłady które nie są ani ciągłe ani dyskretne. 3 Zmienna losowa Zmienną losową nazywamy dowolną funkcję X : Ω → R taką, że ∀x∈R {ω : X(ω) < x} ∈ F. W przypadku gdy F = 2Ω , dowolna funkcja X : Ω → R jest zmienną losową. 3.1 Definicje podstawowe Niech dana będzie przestrzeń probabilistyczna (Ω, F, P ), oraz pewna zmienna losowa X. Wówczas funkcja PX (A) = P (X −1 (A)) jest miarą probabilistyczną, oraz (R, B(R), PX ) jest przestrzenią probabilistyczną. Miarę PX nazywamy prawdopodobieństwem generowanym przez zmienną losową X. Mając miarę PX odpowiadającą pewnej zmiennej losowej X możemy więc zdefiniować pojęcie dystrybuanty zmiennej losowej. Dystrybuantą zmiennej losowej X nazywamy funkcję FX : R → R daną wzorem1 : FX (t) = PX ((−∞, t)) = P (X −1 (−∞, t)) = P (X < t). 3.2 Dyskretna zmienna losowa Zmienną losową X nazywamy zmienną typu dyskretnego, gdy istnieje co najwyżej przeliczalny zbiór B ∈ B(R), taki, że PX (B) = 1. 3.3 Ciągła zmienna losowa Zmienną losową X zmienną typu ciągłego, gdy istnieje gęstość rozkładu prawdopodobieństwa PX . 3.4 Funkcja zmiennej losowej Jeśli X jest zmienną losową, a g funkcją borelowską, to złożenie Y = g ◦ X jest również zmienną losową. Ponadto zachodzi: PY (B) = Pg◦X (B) = P ({ω : g(X(ω)) ∈ B}) = P ({ω : X(ω) ∈ g −1 (B)}) = PX (g −1 (B)) Ponadto jeśli X jest typu ciągłego to mamy: Z FY (y) = fX (x)dx. {x:g(x)<y} Jeśli dodatkowo, wiemy że g jest różniczkowalna i ściśle rosnąca (g 0 (x) 6= 0), to: Z y FY (y) = (g −1 (t))0 fX (g −1 (t))dt g −1 (−∞) oraz fY (y) = fX (g −1 (y))(g −1 (y))0 = fX (g −1 (y)) 3.5 1 g 0 (g −1 (y)) . Niezależne zmienne losowe Zmienne losowe X1 , X2 , . . . , Xn są niezależne jeżeli dla dowolnych zbiorów borelowskich B1 , B2 , . . . , Bn zachodzi: P (X1 = B1 ∧ X2 = B2 ∧ . . . ∧ Xn = Bn ) = P (X1 = B1 )P (X2 = B2 ) · · · P (Xn = Bn ) 1 Wzór podany jest na kilka sposobów – stosuje się zamiennie kilka równoważnych form zapisu. 2 3.6 3.6.1 Charakterystyki zmiennych losowych Wartość oczekiwana Wartością oczekiwaną zmiennej losowej X nazywamy liczbę EX. W przypadku, gdy X jest zmienną typu ciągłego wartość oczekiwana ma wartość: X EX = xi pi . i∈I o ile szereg jest bezwzględnie zbieżny (jeśli nie jest to EX nie istnieje). W przypadku, gdy X jest zmienną typu ciągłego o gęstości f , wartość oczekiwana wyraża się wzorem: Z EX = xf (x)dx R i istnieje, gdy całka jest zbieżna. Własności wartości oczekiwanej • X ­ 0 ⇒ EX ­ 0 • |EX| ¬ E|X| • dla a, b ∈ R zachodzi E(aX + bY ) = aEX + bEY • dla a ∈ R zachodzi Ea = a • E(X − EX) = 0 • E(XY ) = EX ∗ EY , gdy X i Y są niezależne Wartość oczekiwana z funkcji zmiennej losowej Jeśli ϕ jest funkcją borelowską, a zmienna losowa X jest typu dyskretnego, to: X Eϕ(X) = ϕ(xi )P (X = xi ) i∈I a gdy X jest typu ciągłego, o gęstości f , to: Z Eϕ(X) = ϕ(x)f (x)dx R 3.6.2 Wariancja 2 2 Wariancją zmiennej losowej X nazywamy liczbę V ar(X) daną wzorem: V ar(X) . P = EX − (EX) 2 W przypadku zmiennej losowej X typu dyskretnego zachodzi wzór: V ar(X) = i∈I (xi − EX) pi . • V ar(X) = 0 ⇐⇒ ∃c P (X = c) = 1 Własności wariancji • V ar(X) ­ 0 • V ar(cX) = c2 V ar(X) dla c ∈ R • V ar(X ± Y ) = V ar(X) + V ar(Y ) gdy X i Y są niezależne • V ar(X + c) = V ar(X) Liczbę 3.6.3 √ V arX nazywa się czasem odchyleniem standardowym i oznacza przez σ(X). Kowariancja i współczynnik korelacji Niech X, Y będą zmiennymi losowymi. Liczbę cov(X, Y ) = E[(X − EX)(Y − EY )] nazywamy kowariancją zmiennych X i Y . Kowariancję możemy wyliczyć również ze wzoru: cov(X, Y ) = EXY − EXEY . Zauważmy, że gdy X = Y to cov(X, Y ) = cov(X, X) p = V ar(X). TW. |cov(X, Y )| ¬ V ar(X)V ar(Y ) P2 P4 Ponadto zachodzi: cov(aX +b, cY +d) = ac·cov(X, Y ), cov(a1 X1 +a2 X2 , a3 X3 +a4 X4 ) = i=1 j=3 ai aj cov(Xi , Xj ). Liczbę ρ(X, Y ) = √ cov(X,Y ) nazywamy współczynnikiem korelacji zmiennych X i Y . V ar(X)V ar(Y ) Gdy ρ(X, Y ) = 0, to mówimy, że zmienne są nieskorelowane. Gdy ρ(X, Y ) = ±1 to P (X = aY + b) = 1 dla pewnych a, b ∈ R. 3 3.6.4 Inne charakterystyki liczbowe Zmienna typu dyskretnego Moment zwykły rzędu r αr = EX r = xri pi P Moment centralny rzędu r µr = E(X − α1 )r = i∈I (xi − α1 )r pi P i∈I P pi ¬ 0, 5 ¬ xi ¬x0,5 pi P Kwantyl rzędu p każda liczba xp , 0 < p < 1 spełniająca warunki F (xp ) ¬ p ¬ limx→xp F (x); xi <xp pi ¬ p ¬ P xi ¬xp pi Mediana każda liczba x0,5 spełniająca warunki F (x0,5 ) ¬ 0, 5 ¬ limx→x0,5 F (x); P xi <x0,5 Dominanta m0 – punkt skokowy xk , różny od min(xi ) i max(xi ), dla którego p(xk ) osiąga maksimum absolutne. Zmienna typu ciągłego Moment zwykły rzędu r αr = EX r = xr f (x)dx R Moment centralny rzędu r µr = E(X − α1 )r = R (x − α1 )r f (x)dx R R Mediana F (x0,5 ) = 0, 5 Kwantyl rzędu p F (xp ) = p Dominanta m0 – odcięta maksimum absolutnego gęstości. 3.7 Funkcja charakterystyczna Funkcją charakterystyczną zmiennej losowej X nazywamy funkcję zespoloną ϕ : R → C daną wzorem ϕ(t) = EeitX . W przypadku gdy X jest zmienną losową typu dyskretnego, funkcja charakterystyczna wyraża się wzorem: X ϕ(t) = pk eitxk k W przypadku ciągłej zmiennej losowej X o gęstości f mamy natomiast: Z eitx f (x)dx R Własności funkcji charakterystycznej 1. ϕ(0) = 1. 2. ∀t∈R ϕ(t) = ϕ(−t), gdzie ϕ(−t) oznacza liczbę zespoloną sprzężoną z ϕ(−t). 3. ∀t∈R |ϕ(t)| ¬ 1. 4. ϕ jest funkcją jednostajnie ciągłą (co w szczególności oznacza, że jest ona ciągła). 5. ϕ jest funkcją rzeczywistą ⇔ rozkład zmiennej losowej X jest symetryczny względem x = 0. 6. Jeśli ϕX (t) jest funkcją charakterystyczną zmiennej losowej X to, funkcją charakterystyczną zmiennej Y = aX +b jest funkcja ϕY (t) = eitb ϕX (at). 7. Jeżeli istnieje k-ty moment zmiennej losowej X o funkcji charakterystycznej ϕ, to ϕ jest k-krotnie różniczkowalna i zachodzi związek αk = EX k = i1k ϕ(k) (0) 8. Funkcja charakterystyczna skończonej sumy niezależnych zmiennych losowych równa się iloczynowi funkcji charakterystycznych tych zmiennych. TW. Niech F będzie dystrybuantą, zaś ϕ funkcją charakterystyczną zmiennej losowej X. Wtedy: 1. Dla a < b takich że, F jest ciągła (w tych punktach) zachodzi Z R −ita 1 e − e−itb lim ϕ(t)dt = F (b) − F (a) R→∞ 2π −R it 2. Jeśli ponadto R R |ϕ(t)|dt ¬ +∞, to X ma rozkład typu ciągłego, o gęstości f (x) = 1 2π R R e−itx ϕ(t)dt. Wniosek. Funkcja charakterystyczna jednoznacznie wyznacza rozkład zmiennej losowej. TW. Jeśli ϕ jest funkcją charakterystyczną zmiennej losowejR X, okresową o okresie T = 2π, to X jest zmienną typu π 1 dyskretnego o wartościach całkowitych oraz P (X = k) = 2π e−itk ϕ(t)dt, k ∈ Z. −π 4 4 Katalog zmiennych losowych 4.1 Dyskretne • EX = np Równomierny • pi = 1 n • EX = • V ar(X) = npq x1 +...+xn n • ϕ(t) = (peit + q)n Jednopunktowy Poissona • P (x0 ) = 1 • Oznaczenie: P(λ) • EX = x0 • Parametr: λ > 0 • V ar(X) = 0 • P (k) = e−λ λk! dla k ∈ N k • ϕ(t) = eita • EX = λ • V ar(X) = λ Zero-jedynkowy • P (1) = p, P (0) = 1 − p = q • ϕ(t) = eλ(e • EX = p it −1) Geometryczny • V ar(X) = pq • Oznaczenie: Geom(p). • ϕ(t) = peit + q • P (1) = p, P (0) = 1 − p Dwumianowy (Bernouliego) • Oznaczenie: B(n, p), n-liczba prawdopodobieństwo sukcesu, • P (k) = nk pk q n−k 4.2 • EX = p prób, p- • V ar(X) = • ϕ(t) = 1−p p2 peit 1−(1−p)eit Ciągłe Jednostajny(równomierny) • J((a, b)), gdzie x+a b−a • F (x) = 0 1 ( 1 b−a • f (x) = • EX = 0 Gamma (a, b) – przedział • Oznaczenie: Γ(p, α) ( p α xp−1 e−αx dla x > 0 • f (x) = Γ(p) 0 dla pozostałych x R ∞ p−1 −x gdzie Γ(p) = 0 x e dx, n = 1, 2, 3, . . ., Γ(n) = (n − 1)! dla a ¬ x ¬ b dla x < a dla x > b dla a ¬ x ¬ b dla pozostałych x • ϕ(t) = (1 − • Uwaga: Γ(1, α) to rozkład wykładniczy. b−a 2 • V ar(X) = • Uwaga: Γ( n2 , 12 ) to tak zwany rozkład χ2 (chi kwadrat) z n stopniami swobody. (b−a)2 12 • Dla J((0, a)): ϕ(t) = eiat −1 iat • Dla J((−a, a)): ϕ(t) = Beta sin at at • Parametry: p, q > 0 ( Wykładniczy • f (x) • Parametr λ > 0 ( 1 − e−λx dla x ­ 0 • F (x) = 0 dla x < 0 ( λe−λx dla x ­ 0 • f (x) = 0 dla pozostałych x • ϕ(t) = it −p α) β(p, q) := = 1 p−1 (1 β(p,q) x 0 Γ(p)Γ(q) Γ(p+q) Laplace’a • Parametr λ > 0 • f (x) = λ2 e−λ|x| λ 1+t2 5 dla x ∈ R − x)q−1 x ∈ (0, 1) w p.p. Normalny (Gaussowski) Cauchy’ego • Parametry θ, λ • Oznaczenie N (p, σ 2 ), N (0, 1) nazywamy standardowym. Rt • F (x) = √1 2π • f (x) = √1 e− σ 2π −∞ e− (t)2 2 (x−m)2 2σ 2 dt = Φ(x) • f (x) = 1 2 πλ[1+( x−θ λ ) )] + arctan x−θ λ • Wartość oczekiwana i wariancja są niezdefiniowane – nie istnieją gdyż całki rozbiegają do nieskończoności. • EX = m • V ar(X) = σ 2 5 1 2 • ϕ(t) = e−|t| dla x ∈ R • Dla standardowego: ϕ(t) = e 1 π • F (x) = • Uwaga. Jeśli X i Y mają standardowy rozkład normalny to zmienna X/Y ma rozkład Cauchy’ego z parametrami θ = 0 i λ = 1 −t2 2 Zmienne losowe wielowymiarowe Wektorem losowym lub zmienną losową wielowymiarową nazywamy dowolną funkcję X : Ω → Rn , która spełnia warunek: ∀B∈B(Rn ) X −1 (B) ∈ F, czyli przeciwobraz dowolnego zbioru borelowskiego z przestrzeni2 Rn musi należeć do σ–ciała. Każdą funkcję wielowymiarową X : Ω → Rn możemy przestawić w postaci: X = (X1 , X2 , . . . , Xn ), gdzie dla każdego 1 ¬ i ¬ n Xi : Ω → R. Funkcja X jest zmienną losową wielowymiarową ⇐⇒ każde Xi jest („zwykłą”) zmienną losową. Odwzorowanie ϕ : Rn → Rm nazywamy funkcją borelowską gdy przeciwobrazy zbiorów borelowskich z Rm są zbiorami borelowskim w Rn . Złożenie ϕ ◦ X, gdzie X wektor losowy a ϕ funkcja borelowska, jest też wektorem losowym. Wektor losowy jest wektorem typu dyskretnego, gdy istnieje taki co najwyżej przeliczalny zbiór B borelowski, że PX (B) = 1. R R Wektor losowy jest wektorem typu ciągłego, gdy istnieje funkcja f taka, że PX (B) = . . . B f (x)dx, dla dowolnego B borelowskiego. Funkcję tą nazywamy gęstością (musi ona spełniać dodatkowe warunki, o czym niżej). 5.1 Dystrybuanta Gdy X : Ω → Rn jest wektorem losowym, dystrybuanta ma postać: F : Rn → R, F (t1 , t2 , . . . , tn ) = PX ((−∞, t1 ) × (−∞, t2 ) × . . . (−∞, tn )). W przypadku gdy n = 2 mamy: F (x, y) = P (X < x, Y < y) dla(x, y) ∈ R2 . Własności • Jest lewostronnie ciągła i niemalejąca ze względu na każdą zmienną z osoba. • ∀x∈R limy→−∞ F (x, y) = 0, ∀y∈R limx→−∞ F (x, y) = 0 • limx→∞,y→∞ F (x, y) = 1 • Dla dowolnych punktów (x1 , y1 ), (x2 , y2 ) takich, że x1 ¬ x2 i y1 ¬ y2 zachodzi nierówność F (x2 , y2 )−F (x2 , y1 )− F (x1 , y2 ) + F (x1 , y1 ) ­ 0 5.2 Gęstość Własności R R • PX (B) = . . . B f (x)dx R t1 R tn • F (t1 , t2 , . . . , tn ) = −∞ . . . −∞ f (t1 , t2 , . . . , tn )dt1 dt2 . . . dtn RR • R2 f (x, y)dxdy = 1 • w punktach ciągłości: f (x1 , . . . , xn ) = ∂ n Fx (x1 ,...,xn ) . ∂x1 ...∂xn Niezależność zmiennych: ∀(x,y)∈R2 F (x, y) = FX (x)FY (y) lub f (x, y) = fX (x)fY (y) 2 Zbiory borelowskie w Rn , to σ–ciało zbiorów zawierające wszystkie zbiory otwarte z tej przestrzeni. Generowane jest np. przez wszystkie otwarte kostki (iloczyny kartezjańskie przedziałów otwartych). 6 5.3 Rozkład brzegowy Niech X : Ω → R2 wektor losowy o dystrybuancie F . Wówczas funkcje FX (x) = limy→∞ F (x, y) oraz FY (y) = limx→∞ F (x, y) są dystrybuantami rozkładów na R. Rozkłady te nazywamyR brzegowymi. R Jeśli dodatkowo wektor losowy posiada gęstość f , to funkcje fX (x) = R f (x, y)dy oraz fY (y) = R f (x, y)dx są gęstościami rozkładów brzegowych na R. 5.4 Parametry liczbowe Wartość oczekiwana Jeśli X = (X1 , X2 , . . . , Xn ) jest wektorem losowym, to wektor liczb (EX1 , EX2 , . . . , EXn ) nazywamy wartością średnią (oczekiwaną) wektora X. Jest ona określona jeśli wszystkie wartości oczekiwane EXi istnieją. R Jeśli ϕ : Rn → R funkcja borelowska, oraz X wektor losowy typu ciągłego, to Eϕ(X) = Rn ϕ(x)f (x)dx. 5.5 Przykłady Gęstości sumy, iloczynu, ilorazu zmiennych losowych: R R 1. U = X + Y : k1 (u) = R f (x, u − x)dx; gdy X, Y -niezależne: k1 (u) = R f1 (x)f2 (u − x)dx 2. U = XY : k1 (u) = 3. U = X Y : k1 (u) = R R R R 1 dx; gdy X, Y -niezależne: k1 (u) = f (x, ux ) |x| f (uy, y)|y|dy; gdy X, Y -niezależne: k1 (u) = Dwuwymiarowy rozkład normalny f (x, y) = 2πσ1 σ2 1 p 1 − ρ2 n exp − gdzie: µ1 = EX, µ2 = EY , σ1 = |ρ| < 1. 6 √ R R R R 1 f1 (x)f2 ( ux ) |x| dx f1 (uy)f2 (y)|y|dy ma gęstość daną wzorem: h (x − µ )2 1 (x − µ1 )(y − µ2 ) (y − µ2 )2 io 1 − 2ρ + dla (x, y) ∈ R2 2(1 − ρ2 ) σ12 σ1 σ 2 σ22 D2 X > 0, σ2 = √ D2 Y > 0, ρ–współczynnik korelacji zm.los. X i Y , przy czym Zbieżność ciągów zmiennych losowych 1. Zbieżność z prawdopodobieństwem 1 (prawie na pewno, prawie wszędzie): P ({ω : limn→inf Xn (ω) X(ω)}) = 1. z pr. 1 Oznaczenie: Xn −−−−→ X. (p.n.) wg pr. 2. Zbieżność według prawdopodobieństwa: ∀>0 limn→∞ P ({ω : |Xn (ω) − X(ω)| ­ }) = 0. Oznaczenie: Xn −−−−→ (P ) X. 3. Zbieżność według dystrybuant (zbieżność względem rozkładu, słabo zbieżny) – ciąg dystrybuant Fn jest zbieżny D do dystrybuanty F w każdym punkcie ciągłości F . Oznaczenie: Xn −−→ X. (s) Rodzaje zbieżności wymienione są od najsilniejszej do najsłabszej. Ze zbieżności z prawdopodobieństwem 1 wynika zbieżność według prawdopodobieństwa, a z niej wynika zbieżność według dystrybuant. Następujące warunki są równoważne ze zbieżnością z prawdopodobieństwem 1: T∞ • ∀>0 limk→∞ n=k {|Xn − X| < } = 1 S∞ • ∀>0 limk→∞ n=k {|Xn − X| ­ } = 0 6.1 Twierdzenie o ciągłości Ciąg (Xn )n jest zbieżny według rozkładu do X wtedy i tylko wtedy, gdy ciąg funkcji charakterystycznych ϕn jest zbieżny w każdym punkcie do funkcji ciągłej ϕ. Takie ϕ jest funkcją charakterystyczną zmiennej X. 7 7 Prawa wielkich liczb i twierdzenia graniczne Pn SłabePprawo wielkich liczb. Niech Xn będzie ciągiem zmiennych losowych, mk = EXk , Sn = k=1 Xn . Jeżeli n (Xk −mk ) k=1 ciąg zbiega według prawdopodobieństwa do 0 to mówimy, że Xn spełnia słabe prawo wielkich liczb n n | ­ ) = 0. (SPWL). Warunek z definicji można równoważnie zapisać: ∀>0 limn→∞ P (| Sn −ES n Tw. Czebyszewa Ciąg niezależnych zmiennych losowych Xn spełnia SPWL, gdy istnieją wartości oczekiwane E(Xi ) i wariancje σi2 zmiennych Xi istnieją i są wspólnie ograniczone (tzn. ∃σ2 ∀n V ar(Sn ) ¬ σ 2 ). Tw. Markowa Ciąg zmiennych losowych Xn spełnia SPWL, gdy istnieją wartości oczekiwane E(Xi ) i wariancje σi2 n) = 0. zmiennych Xi oraz limn→∞ V ar(S n2 Wniosek Jeśli Xn ciąg niezależnych zmiennych losowych o jednakowym rozkładzie, dla którego istnieje wariancja, to ciąg ten spełnia SPWL. Tw. Chinczyna Ciąg niezależnych zmiennych losowych o jednakowych rozkładach i wspólnej wartości oczekiwanej spełnia SPWL. Mocne prawo wielkich liczb. P Xn jest ciągiem zmiennych losowych, mk = EXk . Ciąg Xn spełnia mocne prawo n (Xk −mk ) k=1 wielkich liczb (MPWL), gdy ciąg zbiega do 0 z prawdopodobieństwem jeden. n Uwaga. Jeśli ciąg spełnia MPWL to spełnia też SPWL. P∞ V ar(Xn ) n=1 Tw. Kołomogorowa Jeśli Xn są niezależne, V ar(Xn ) istnieją oraz szereg jest zbieżny, to (Xn )n n2 spełnia MPWL. Wniosek Jeśli (Xn )n jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie i ∀n V ar(Xn ) = σ 2 < +∞, to Xn spełnia MPWL. Wniosek Jeśli Xn spełnia założenia tw. Czybyszewa to spełnia MPWL. Centralne twierdzenie graniczne Lindeberga-Levy’ego. Jeżeli {Xn } jest losowym ciągiem niezależnych zmiennych o jednakowym rozkładzie, o wartości przeciętnej α1 i skończonej wariancji σ 2 > 0, to ciąg (F Pnn) dystrybuant Pn Xi −nα1 Xn −α1 i=1 √ = jest standaryzowanych średnich arytmetycznych Xn (standaryzowanych sum i=1 Xi ) Yn = √σ σ n n R 2 1 y zbieżny do dystrybuanty Φ rozkładu N (0, 1): limn→∞ Fn (y) = √12π −∞ e− 2 t dt ≡ Φ(y) 8