Szkice do wykładu z Rachunku prawdopodobieństwa II rok

advertisement
Szkice do wykładu z Rachunku prawdopodobieństwa 1
II rok matematyki finansowej
III roku matematyki ogólnej
III roku matematyki z metodami informatycznymi
dr Jarosław Kotowicz
24 lutego 2003 roku
1
c Copyright J.Kotowicz
Spis treści
1 2002.10.01 / 2h
6
1.1
Aksjomatyka rachunku prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.2
Prawdopodobieństwo warunkowe i całkowite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.3
Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
2 2002.10.08 / 2h
8
2.1
Wzór Beyasa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
2.2
Zdarzenia niezależne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
2.3
Zdarzenie zależne. Współczynnik korelacji zdarzeń . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2.4
Prawdopodobieństwo geometryczne. Paradoks Bertranda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2.5
Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
3 2002.10.15 / 2h
11
3.1
Schemat Bernoulliego i jego uogólnienia. Schematy urnowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
3.2
Jednowymiarowe zmienne losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
3.3
Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
4 2002.10.22 / 2h
14
4.1
Uzupełnienia poprzedniego wykładu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
4.2
Jednowymiarowe zmienne losowe c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
4.3
Wartość oczekiwana zmiennej losowej
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
4.4
Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
5 2002.10.29 / 2h
17
5.1
Parametry liczbowe rozkładów c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
5.2
Parametry pozycyjne rozkładów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
5.3
Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
6 2002.11.05 / 2h
20
6.1
Przykłady jednowymiarowych rozkładów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
6.2
Nierówność dla zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
6.3
Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
7 2002.11.12 / 2h
23
7.1
Nierówność dla zmiennych losowych c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
7.2
Niezależne zmienne losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
7.3
Funkcje tworzące prawdopodobieństwa i reszt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
7.4
Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
2
8 2002.11.19 / 2h
8.1 Własności funkcji tworzących prawdopodobieństwa i reszt . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Zbieżności zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
26
26
27
9 2002.11.26 / 2h
9.1 Zbieżności zmiennych losowych c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Prawo 0 – 1 Kołmogorowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
28
29
29
10 2002.12.03 / 2h
10.1 Nierówności typu Czebyszewa dla sum zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.2 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
30
30
11 2002.12.10 / 2h
11.1 Zbieżności szeregów zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2 Prawa wielkich liczb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
31
31
32
12 2002.12.17 / 2h
12.1 Prawa wielkich liczb – c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
33
34
13 2003.01.14 / 2h
13.1 Zasady egzaminu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.2 Prawa wielkich liczb – c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
35
35
35
14 2003.01.21 / 2h
14.1 Twierdzenie Moivre’a - Laplace’a – lokalne i globalne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.2 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
36
37
15 Egzamin
15.1 Zagadnienia na egzamin – część teoretyczna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15.2 Zadania z egzaminu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15.3 Zadania z egzaminu poprawkowego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
38
40
40
3
Program wykładu
Plan wykładu z przedmiotu Rachunek prawdopodobieństwa
w roku akademickim 2002/2003
II rok matematyki finansowej - studia dzienne
III roku matematyki ogólnej - studia dzienne
III roku matematyki z metodami informatycznymi - studia dzienne
30 godzin wykładów prowadzący dr J. Kotowicz
Zagadnienia wykładu.1
1. Częstotliwościowe pojęcie prawdopodobieństwa. Przestrzeń probabilistyczna. Własności prawdopodobieństwa. 1 godz.
2. Prawdopodobieństwo warunkowe, prawdopodobieństwo całkowite, wzór Bayesa.
1 godz.
3. Zdarzenie niezależne. Niezależność zespołowa i parami.
1 godz.
4. Zdarzenie zależne. Współczynnik korelacji zdarzeń.
1 godz.
5. Miara geometryczne i prawdopodobieństwo geometryczne. Paradoks Bertranda. Przestrzenie produktowe jako przestrzenie dla serii doświadczeń niezależnych. Schemat Bernoulliego i jego uogólnienia (zagadnienia Poissona, Pascala,
uogólniony schemat Bernoulliego, Pólya).
1 godz.
6. Jednowymiarowa zmienna losowa.
(a) Dystrybuanta i jej własności.
2 godz.
(b) Przekształcenia zmiennej losowej - związek między dystrybuantami.
1 godz.
(c) Parametry liczbowe i pozycyjne zmiennej losowej: momenty zwykłe, centralne, bezwzględne; wartość oczekiwana
i wariancja; odchylenie standardowe, przeciętne, współczynnik zmienności, współczynnik asymetrii, kwantyle,
mediana i moda - dominanta.
2 godz.
1 godz.
(d) Przykłady rozkładów ciągłych i dyskretnych.
7. Nierówność związane z momentami dla zmiennych losowych.
2 godz.
8. Niezależność zmiennych losowych.
1 godz.
9. Funkcja tworząca rozkładu zmiennej losowej i jej własności.
1 godz.
10. Ciągi zmiennych losowych. Różne rodzaje zbieżności zmiennych losowych (z prawdopodobieństwem 1, według prawdopodobieństwa, według k - tego momentu bezwzględnego) i związek między nimi.
3 godz.
1 godz.
11. Prawo 0-1 Kołmogorowa.
12. Sumy niezależnych zmiennych losowych. Nierówności Lévy’ego - Ottavianiego oraz Kołmogorowa. Twierdzenie o dwóch
szeregach. Twierdzenie Kołmogorowa o trzech szeregach.
2 godz.
13. Prawa wielkich liczb.
1 Mogą
byc jeszcze modyfikowane
4
(a) Słabe prawo wielkich liczb (Bernoulliego, Czebyszewa, Chinczyna i in.).
2 godz.
(b) Mocne prawo wielkich liczb i warunki dostateczne na jego zachodzenie. Twierdzenia Kołmogorowa
2 godz.
2 godz.
14. Twierdzenia Moivre’a - Laplace’a.
Literatura podstawowa:
1. P. Billingsley, Prawdopodobieństwo i miara, PWN, Warszawa 1987
2. W. Feller, Wstęp do rachunku prawdopodobieństwa, PWN, Warszawa 1981
3. M. Fisz, Rachunek prawdopodobieństwa i statystyka matematyczna, PWN, Warszawa 1967
4. J. Jakubowski, R. Sztencel, Wstęp do rachunku prawdopodobieństwa, Script, Warszawa 2001
5. L. T. Kubik, Rachunek prawdopodobieństwa, PWN, Warszawa 1981
6. A. Płocki, Rachunek prawdopodobieństwa dla nauczycieli, PWN, Warszawa 1981
Literatura uzupełniająca:
1. I.J. Dinner i in., Rachunek prawdopodobieństwa w zadaniach i problemach, PWN, Warszawa 1979
2. T. Gersternkorn, T. Śródka, Kombinatoryka i rachunek prawdopodobieństwa, PWN, Warszawa 1983
3. W. Krysicki i in., Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, PWN, Warszawa 1986
4. J. Stojanow i in., Zbiór zadań z rachunku prawdopodobieństwa, PWN, Warszaw 1991
5. Statystyka zbiór zadań, PWE, Warszawa 1995
5
Wykład 1
2002.10.01 / 2h
1.1
Aksjomatyka rachunku prawdopodobieństwa
Definicja 1.1 Przestrzenia probabilistyczną nazywamy przestrzeń mierzalną z miarą unormowaną. Oznaczamy ją (Ω, Σ, P ).
Miarę probabilistyczną nazywamy prawdopodobieństwem.
Twierdzenie 1.1 Własności prawdopodobieństwa
P (∅) = 0
(1.1)
∀A,B∈Σ A ⊂ B ⇒ P (A) ¬ P (B)
(1.2)
∀A,B∈Σ A ⊂ B ⇒ P (B \ A) ¬ P (B) − P (A)
(1.3)
0
∀A∈Σ P (A ) = 1 − P (A)
(1.4)
∀A,B∈Σ P (A ∩ B) = P (A) + P (B) − P (A ∩ B)
∀n∈N ∀{A1 ,...,An }⊂Σ P (
n
[
Ak ) =
n
X
∀{An :n­1}⊂Σ P
∞
[
!
An
n=1
¬
∞
X
X
(−1)i−1
P
1¬k1 <...<ki ¬n
i=1
k=1
(1.5)
i
\
!
Akl
(1.6)
l=1
P (An )
(1.7)
n=1
∞
[
∀{An :n­1}⊂Σ {An : n ­ 1}- wstępujący ⇒ P
!
An
n=1
∞
\
∀{An :n­1}⊂Σ {An : n ­ 1}- zstępujący ⇒ P
An
n=1
= lim P (An )
(1.8)
= lim P (An )
(1.9)
n→∞
!
n→∞
Przyklad 1.1 Niech Ω = {ωO , ωR } , Σ = 2Ω oraz P będzie określone następująco: P (∅) = 0, P ({ωO }) = P ({ωR }) =
Wówczas ({ωO , ωR } , Σ, P ) jest przestrzenią probabilistyczną
1
2.
Przyklad 1.2 Niech Ω = [0, 1], Σ = B([0, 1]) oraz P będzie miarą generowaną przez długość odcinka.
Wówczas ([0, 1], B([0, 1]), P ) jest przestrzenią probabilistyczną
Uwaga 1.1 Nie są prawdziwe następujące implikacje
P (A) = 0 ⇒ A = ∅
(1.10)
P (A) = 1 ⇒ A = Ω
(1.11)
Przyklad 1.3 Dla przestrzeni z przykładu (1.2) określamy zbiory A =
P (A) = P (B) = P (C) = 0.
6
1
2
, B = Q ∩ [0, 1] C = C - zbiór Cantora. Wówczas
1.2
Prawdopodobieństwo warunkowe i całkowite
Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną.
Definicja 1.2 Niech A, B ∈ Σ. Załóżmy, że P (B) 6= 0. Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warunkiem, że zaszło zdarzenie B (piszemy P (A/B)) nazywamy liczbę
def
P (A/B) =
P (A ∩ B)
P (B)
(1.12)
Niech card I ¬ ℵ0 .
Definicja 1.3 Przeliczalną rodzinę zbiorów {Ai : i ∈ I} ⊂ Σ nazywamy układem zupełnym (zdarzeń) wtedy i tylko wtedy,
gdy
[
Ai = Ω
(1.13)
i∈I
∀i,j∈I i 6= j
⇒ Ai ∩ AJ = ∅
(1.14)
∀i∈I P (Ai )
6=
(1.15)
0
Twierdzenie 1.2 (Prawdopodobieństwo całkowite) Niech {Ai : i ∈ I} ⊂ Σ będzie układem zupełnym. Wówczas dla
dowolnego zdarzenia A
X
P (A) =
P (A/Ai )P (Ai )
(1.16)
i∈I
1.3
Zadania
Zadanie 1.1 Udowodnić (1.8) oraz (1.9).
Zadanie 1.2 Niech
∀1¬k¬n−1 , P (
k
\
Al ) > 0.
(1.17)
l=1
Udowodnić, że
P(
n
\
Al ) = P (An /
l=1
n−1
\
Al ) · P (An−1 /
l=1
n−2
\
Al ) · . . . · P (A2 /A1 ) · P (A1 ).
(1.18)
l=1
Zadanie 1.3 Jeżeli wiadomo, że
P (A/B) = P (B/A) ∧ P (A ∪ B) = 1 ∧ P (A ∩ B) > 0,
to dla jakich rzeczywistych a mamy P (A) > a ?
7
(1.19)
Wykład 2
2002.10.08 / 2h
2.1
Wzór Beyasa
Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Niech card I ¬ ℵ0 .
Twierdzenie 2.1 (Wzór Bayesa) Niech {Ai : i ∈ I} ⊂ Σ będzie układem zupełnym. Wówczas dla dowolnego zdarzenia A
o niezerowym prawdopodobieństwie i dowolnego i0 ∈ I
P (A/Ai0 )P (Ai0 )
P (Ai0 /A) = P
P (A/Ai )P (Ai )
(2.1)
i∈I
2.2
Zdarzenia niezależne
Niech (Ω, Σ, P ) będzie ustaloną przestrzenią probabilistyczną.
Definicja 2.1 Mówimy, że zdarzenia A, B z tej przestrzeni są niezależne wtedy i tylko wtedy, gdy
P (A ∩ B) = P (A) · P (B)
(2.2)
Stwierdzenie 2.1 Niech A, B ∈ Σ oraz P (B) 6= 0. Zdarzenia A, B są niezależne wtedy i tylko wtedy, gdy
P (A/B) = P (A)
(2.3)
Dany jest układ zdarzeń {A1 , . . . , An } ⊂ Σ.
Definicja 2.2 Mówimy, że zdarzenia A1 , . . . , An są niezależne zespołowo wtedy i tylko wtedy, gdy
!
k
k
\
Y
∀1¬k¬n ∀1¬i1 <...<ik ¬n P
Ail =
P (Ail )
l=1
(2.4)
l=1
Definicja 2.3 Mówimy, że zdarzenia A1 , . . . , An są parami niezależne wtedy i tylko wtedy, gdy
∀1¬i<j¬n P (Ai ∩ Aj ) = P (Ai ) · P (Aj )
Przyklad 2.1 Niech Ω = [0, 1]2 oraz Σ = B([0, 1]2 ). Określamy zdarzenia następująco:
1
def
def
A ≡ B = {(x, y) : x > y} ∩ [0, 1]2 ∧ C = (x, y) : x <
∩ [0, 1]2
2
(2.5)
(2.6)
Wówczas P (A ∩ B ∩ C) = P (A)P (B)P (C), ale układ nie jest układem zdarzeń niezależnych i parami niezaleznych.
Twierdzenie 2.2 Każdy układ zdarzeń niezależnych jest układem zdarzeń parami niezależnych.
Przyklad 2.2 Na czworościennej kostce (czworościan foremny) napisano na trzech ścianach dokładnie jeden raz jedną z
liczb 1, 2 i 3, zaś na czwartej ścianie je wszystkie. Określamy zdarzenia Ai - wyrzucono liczbę i. Zdarzenia A1 , A2 , A3 są
parami niezależne, ale nie są niezależne zespołowo.
8
Twierdzenie 2.3 Istnieje układ zdarzeń parami niezależnych, który nie jest układem zdarzeń niezależnych.
Definicja 2.4 Dany jest układ zdarzeń {An : n ­ 1} ⊂ Σ. Mówimy, że układ zdarzeń jest niezależny (inaczej układ zdarzeń
{An : n ­ 1} jest układem zdarzeń niezależnych) wtedy i tylko wtedy, gdy dowolny skończony jego podukład jest układem
zdarzeń niezależnych
Twierdzenie 2.4 Zdarzenia rozłączne A i B są niezależne wtedy i tylko wtedy, gdy P (A) = 0 lub P (B) = 0.
Twierdzenie 2.5 Niech card I ¬ ℵ0 . Niech A ∈ Σ oraz {Ai : i ∈ I} ⊂ Σ i zdarzenia {Ai : i ∈ I} są parami rozłączne.
S
Wtedy, o ile dla dowolnego i ∈ I niezależne są zdarzenia A i Ai , to niezależne są zdarzenia A,
Ai .
i∈I
Twierdzenie 2.6 Oznaczymy A0 ≡ A oraz A1 ≡ A0 . Następujące warunki są równoważne
A1 , . . . , An niezależne
(2.7)
∀{ε1 ,...,εn }∈{1,...,n}{0,1} B1 =
Aε11 , . . . , Bn
n
\
∀{ε1 ,...,εn }∈{1,...,n}{0,1} P
!
Aεkk
k=1
=
=
n
Y
Aεnn niezależne
(2.8)
P (Aεkk )
(2.9)
k=1
Twierdzenie 2.7 Niech {A1 , . . . , An } ⊂ Σ będzie układem zdarzeń niezależnych. Wówczas
!
!
n
n
n
\
Y
[
A0k = 1 −
(1 − P (Ak ))
Ak = 1 − P
P
k=1
2.3
k=1
(2.10)
k=1
Zdarzenie zależne. Współczynnik korelacji zdarzeń
Niech (Ω, Σ, P ) będzie ustaloną przestrzenią probabilistyczną.
Definicja 2.5 Mówimy, że zdarzenia A, B są zależne wtedy i tylko wtedy, gdy
P (A ∩ B) 6= P (A) · P (B)
(2.11)
Inaczej mówimy, że nie są niezależne.
Definicja 2.6 Niech A, B ∈ Σ oraz P (A), P (B) ∈]0, 1[. Współczynnikiem korelacji zdarzeń A i B nazywamy liczbę wyrażoną
wzorem
def P (A ∩ B) − P (A)P (B)
ρ(A, B) = p
(2.12)
P (A)P (A0 )P (B)P (B 0 )
Twierdzenie 2.8 Niech A, B ∈ Σ oraz P (A), P (B) ∈]0, 1[. Wtedy
ρ(A, B) = ρ(B, A)
0
(2.13)
0
ρ(A , B) = ρ(A, B ) = −ρ(A, B)
0
0
ρ(A , B ) = ρ(A, B)
(2.15)
ρ(A, B) = 0 ⇔ A, B niezależne
0
2.4
(2.14)
(2.16)
ρ(A, A) = 1 ∧ ρ(A, A ) = −1
(2.17)
ρ(A, B) = 1 ⇒ P (A) = P (A ∩ B) = P (B) (≡ P (A ÷ B) = 0)
(2.18)
ρ(A, B) = −1 ⇒ P (A ∩ B) = 0
(2.19)
|ρ(A, B)| ¬ 1
(2.20)
Prawdopodobieństwo geometryczne. Paradoks Bertranda
Definicja 2.7 Niech Ω będzie takie, że card Ω = ℵ0 oraz miech Σ = 2X . Przyporządkujmy dowolnemu elementowi ω ∈ Ω
P
nieujemną liczbę pω następująco P ({ω}) = pω , gdzie
pω = 1. Wówczas (Ω, Σ, P ) jest przestrzenią probabilistyczną
ω∈Ω
przeliczalną.
9
Uwaga 2.1 Takie przyporządkowanie jest możliwe wyłącznie dla zbioru przeliczalnego. Jest to uogólnienie prawdopodobieństwa ze zbioru skończonego.
W przypadku zbiorów nieprzeliczalnych dochodzi trudność z określeniem przestrzeni, jak i miary probabilistycznej na tej
przestrzeni.
Przyklad 2.3 (Paradoks Bertranda) Dane jest koło o promieniu r > 0, Na kole wybieramy losowo cięciwę. Jakie jest
prawdopodobieństwo, że będzie miała ona długość większą od długości boku trójkąta równobocznego wpisanego w brzeg tego
koła (okrąg) ?
Rozważyć następujące wybory:
(i) położenie środka cięciwy na kole;
(ii) ustalony kierunek cięciwy;
(iii) ustalony jeden z końców cięciwy.
2.5
Zadania
Zadanie 2.1 Udowodnić, że dla dowolnych niezależnych zdarzeń A, B niezależne są zdarzenia B i A.
Zadanie 2.2 Udowodnić, że dla dowolnych niezależnych zdarzeń A, B niezależne są zdarzenia A, B 0 .
Zadanie 2.3 Udowodnić, że dla dowolnych niezależnych zdarzeń A, B niezależne są zdarzenia A0 , B 0 .
Zadanie 2.4 Udowodnić, że dla dowolnego zdarzenia A niezależne są zdarzenia A, ∅ oraz A, Ω.
Zadanie 2.5 Udowodnić, że dowolne zdarzenia A, B takie, że P (A) = 0 lub P (A) = 1 są niezależne.
Zadanie 2.6 Udowodnić twierdzenie 2.6.
Zadanie 2.7 Udowodnić warunki (2.13 – 2.17) twierdzenia 2.8.
Zadanie 2.8 Niech P (A/B) = P (A/B 0 ) oraz P (B) > 0, P (B 0 ) > 0. Udowodnić, że zdarzenia A, B są niezależne.
Zadanie 2.9 Niech A ⊆ B, A i C oraz B i C są zdarzeniami niezależnymi. Udowodnić, że zdarzenia B \ A i C są również
niezależne.
Zadanie 2.10 W czterech następnych zadaniach mamy Ω =]0, 1], a P jest miarą na ]0,1] generowaną przez długość (tzn.
mamy doczynienia z przestrzenią probabilistyczną (]0, 1], B(]0, 1]), PL )).
Podać przykład zdarzeń niezależnych A1 , A2 takich, że P (A1 ) = P (A2 ) = 23 .
Zadanie 2.11 Podać przykład zdarzeń niezależnych A1 , A2 , A3 takich, że P (A1 ) = P (A2 ) = P (A3 ) = 12 .
Zadanie 2.12 Podać przykład zdarzeń niezależnych A1 , A2 , . . . , An takich, że P (A1 ) = P (A2 ) = . . . = P (A3 ) = 12 .
Zadanie 2.13 Podać przykład nieskończonego przeliczalnego układu zdarzeń niezależnych.
Zadanie 2.14 Czy prawdziwe jest zdanie: Jeśli dwa zdarzenia wykluczają się, to są one zależne ?. Odpowiedź uzasadnij tzn. w
przypadku pozytywnej, przeprowadź dowód zaś w przypadku negatywnej podaj kontrprzykład, ponadto podaj w tym przypadku,
o ile istnieją, warunki wystarczające, aby zdanie było prawdzie.
10
Wykład 3
2002.10.15 / 2h
3.1
Schemat Bernoulliego i jego uogólnienia. Schematy urnowe
Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Istniej miara probabilistyczna – prawdopodobieństwo w przestrzeni
produktowej (Ωn , σa(Σn ), Pn ), gdzie X n jest n krotnym produktem kartezjańskim X, zaś σa(Σn ) jest najmniejszym σ ciałem podzbiorów Ωn zawierającym Σn .
Twierdzenie 3.1 (Schemat Bernoulliego.) Jeżeli przeprowadzono n jednakowych i niezależnych prób, gdzie zdarzenie A
mogło pojawić się w pojedynczej próbie z prawdopodobieństwem p, to prawdopodobieństwo że zaszło ono dokładnie w k próbach
(0 ¬ k ¬ n) wynosi
n k
p (1 − p)n−k
(3.1)
k
Uwaga 3.1 n identycznych prób będziemy nazywać serią (długości n).
Twierdzenie 3.2 (Uogólniony schemat Bernoulliego.) Jeżeli przeprowadzono n jednakowych i niezależnych prób, gdzie
w pojedynczej próbie mogły pojawić się dokładnie jedno ze zdarzeń A1 , . . . , Ar z prawdopodobieństwem równym odpowiednio
r
P
p1 , . . . pr , gdzie
pi = 1, to prawdopodobieństwo że każde zdarzenie Ai zaszło dokładnie ni - razy (0 ¬ ni ¬ n), gdzie
i=1
i = 1, . . . , r i
∞
P
i=r
ni = n wynosi
r
Y
n!
pni
n1 ! · · · nr ! i=1 i
(3.2)
Twierdzenie 3.3 (Zagadnienie Poissona.) Przeprowadzamy ciąg serii doświadczeń według schematu Bernoulliego tak,
aby w poszczególnych seriach liczb doświadczeń wzrastała do nieskończoności, a jednocześnie prawdopodobieństwo sukcesu pn
dążyło do zera, przy czym npn = λ było stałe. Jeżeli oznaczymy przez An,k zdarzenie, że w n - tej serii otrzymano dokładnie
k sukcesów, to
λk
lim P (An,k ) = e−λ
(3.3)
n→∞
k!
Twierdzenie 3.4 (Zagadnienie Pascala.) Jeżeli przeprowadzono n prób według schematu Bernoulliego, to prawdopodobieństwo że do uzyskania k sukcesów będzie potrzebnych dokładnie n prób wynosi
n−1 k
p (1 − p)n−k
(3.4)
k−1
3.2
Jednowymiarowe zmienne losowe
Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Rozważmy (R, B(R)), gdzie B(R) jest rodzina zbiorów borelowskich.
Definicja 3.1 Jednowymiarową zmienną losową nazywamy każde odwzorowanie X: Ω → R takie, że
∀B∈B(R) X −1 (B) ∈ Σ.
11
(3.5)
Twierdzenie 3.5 Jeżeli odwzorowanie X : Ω → R jest zmienną losową wtedy i tylko wtedy, gdy
∀t∈R X −1 ((−∞, t]) ∈ Σ.
(3.6)
Uwaga 3.2 Warunek (3.6) można zapisać w postaci
∀t∈R {ω : X(ω) ¬ t} ∈ Σ.
Definicja 3.2 Rozkładem prawdopodobieństwa zmiennej losowej X nazywamy indukowane odwzorowanie µX : R → R takie,
że
∀B∈B(R) µX (B) = P (X −1 (B)),
(3.7)
które jest nieujemny, przeliczalnie addytywne oraz spełnia warunek µX (R) = 1.
Uwaga 3.3 Będziemy pomijać indeks X, jeżli będzie wiadomo o jakiej zmiennej mówimy.
Definicja 3.3 Dystrybuantą jednowymiarowej zmienne losowej nazywamy funkcję FX : R → R określoną wzorem
def
FX (t) = P (X ¬ t)
(3.8)
Twierdzenie 3.6 (Własności dystrybuanty) Niech F będzie dystrybuantą jednowymiarowej zmiennej losowej X. Wówczas
(i) F jest funkcją niemalejącą.
(ii) F jest funkcją prawostronnie ciągłą.
(iii) lim F (x) = 1.
x→+∞
(iv) lim F (x) = 0.
x→−∞
Wniosek 3.1 Dystrybuanta ma co najwyżej przeliczalną ilość punktów nieciągłości.
Twierdzenie 3.7 Jeżeli funkcja F spełnia warunki (i)– (iv) twierdzenia (3.6), to jest dystrybuantą pewnego rozkładu.
Definicja 3.4 Mówimy, że zmienna losowa X ma rozkład ciągły wtedy i tylko wtedy, gdy istnieje funkcja borelowska1 f : R →
R taka, że
Z t
∀t∈R F (t) =
f (r)dr.
(3.9)
−∞
Definicja 3.5 Jeżeli dla rozkładu prawdopodobieństwa na Rn µ istnieje gęstość, to taki rozkład nazywamy ciągłym.
3.3
Zadania
Zadanie 3.1 (Schemat urnowy Pólya.) Z urny o b białych i c czarnych kulach losujemy jedną kulę, którą zwracamy do
urny wykonując jeszcze dokładnie jedną z czynności
(i) dodajemy do urny s kul tego samego koloru, co wylosowana kula;
(ii) wyjmujemy z urny s kul tego samego koloru, co wylosowana kula;
(iii) nic nie robimy.
Obliczyć prawdopodobieństwo, że postępując tak n razy wylosujemy dokładnie k razy kulę białą. Kiedy rozwiązanie ma
niezerowe prawdopodobieństwo (dla jakich liczb b, c, s, n i k) ?
Zadanie 3.2 Udowodnić warunki (iii) – (iv) twierdzenia 3.6.
Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną oraz niech {An : n ­ 1} ⊂ Σ.
1 Dodano
w dniu 2002.10.22
12
Zadanie 3.3 Udowodnić, że
∀ω∈Ω
∀ω∈Ω
ω∈
ω∈
∞ [
∞
\
∞ [
∞
\
n=1 m=n
Am ⇔ ∃(nk )∈RN (nk )-rosnący ∧ ∀k∈N ω ∈ Ank
n=1 m=n
∞
∞ \
[
!
Am ⇔
n=1 m=n
!0
∞ \
∞
[
Am
∃k∈N ∀N3n­k ω ∈ An
=
n=1 m=n
∞ \
∞
[
!
A0m
n=1 m=n
!0
Am
=
∞ [
∞
\
A0m
n=1 m=n
Zadanie 3.4 Udowodnić następujący lemat Borela - Cantelliego
∞
X
n=1
P (An ) < +∞ ⇒ P (
∞ [
∞
\
Am ) = 0
(3.10)
n=1 m=n
{An : n ­ 1}-układ niezależny ∧
∞
X
n=1
P (An ) = +∞ ⇒ P (
∞ [
∞
\
Am ) = 1
(3.11)
n=1 m=n
Zadanie 3.5 W urnie znajduje się n jednakowych kul z numerami od 1 do n. Kule losujemy po jednej bez zwracania. Obliczyć
prawdopodobieństwo, że przynajmniej raz numer kuli będzie się zgadzał z numerem losowania.
Zadanie 3.6 W m różnych komórkach rozmieszczono n czerwonych i r zielonych kul, przy czym w każdej komórce może być
co najwyżej jedna kula n + r ¬ m. Ile jest takich rozmieszczeń, jeśli
• kule są nierozróżnialne;
• kule są rozróżnialne.
Zadanie 3.7 W sposób losowy ustawiono w ciąg m zer i n jedynek. Obliczyć prawdopodobieństwo zdarzenia, że ciąg rozpoczyna się dokładnie od k zer i kończy się dokładnie l jedynkami, jeśli k ¬ m i l ¬ n.
Zadanie 3.8 Dany jest odcinek [0, L] i punkt r należący do tego odcinka. Z odcinka losujemy dwa punkty x1 , x2 . Zmienna
losowa X przyjmuje wartość 1, gdy punkt r znajduje się miedzy wylosowanymi punktami oraz 0 w przeciwnym wypadku. Podać
rozkład zmiennej losowej X.
13
Wykład 4
2002.10.22 / 2h
4.1
Uzupełnienia poprzedniego wykładu
Definicja 4.1 Funkcję ϕ : R → R nazywamy borelowską wtedy i tylko wtedy, gdy
∀A∈B(R) ϕ−1 (A) ∈ B(R)
(4.1)
W definicji podanej na wykładzie (definicja 3.4) o funkcji f powinno być założone, że jest borelowska.
Uwaga 4.1 Często zamiast mówić o konkretnej zmiennej losowej bedziemy mówili o rozkładach prawdopodobieństwa.
Definicja 4.2 Mówimy, że µ: R → R jest rozkładem prawdopodobieństwa na R wtedy i tylko wtedy, gdy
µ(R) = 1
µ­0
∀{An :n­1}⊂B(R) (∀n,k∈N n 6= k ⇒ An ∩ Ak = ∅) ⇒ µ
+∞
[
!
An
=
n=1
+∞
X
µ(An ).
n=1
Definicja 4.3 Dystrybuantą rozkładu prawdopodobieństwa µ na R nazywamy funkcję Fµ : R → R, określoną zależnością
def
Fµ (t) = µ((−∞, t]).
4.2
(4.2)
Jednowymiarowe zmienne losowe c.d.
Definicja 4.4 σ - ciałem generowanym przez jednowymiarową zmienną losową X, oznaczam przez σ(X), nazywamy najmniejsze σ - ciało podzbiorów Ω zawarte w Σ, dla którego zachodzi warunek
∀A∈B(R) X −1 (A) ∈ σ(X).
(4.3)
Definicja 4.5 Rozkład prawdopodobieństwa µ na R nazywamy dyskretnym wtedy i tylko wtedy, gdy istnieje zbiór co najwyżej
przeliczalny1 S ⊂ R dla którego µ(S) = 1.
Definicja 4.6 Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną, zaś X będzie jednowymiarową zmienną losową. Mówimy,
że zbiór WX jest zbiorem wartości zmiennej losowej X wtedy i tylko wtedy, gdy
∀A⊂R A ∩ WX = ∅ ⇒ P ({ω : X(ω) ∈ A}) = 0.
(4.4)
Definicja 4.7 Zmienną losową nazywamy dyskretną wtedy i tylko wtedy, gdy jej zbiór wartości jest co najwyżej przeliczalny.
Definicja 4.8 Mówimy, że jednowymiarowa zmienna losowa ma rozkład osobliwy (względem miary Lebesgue’a) wtedy i tylko
wtedy, gdy nie jest dyskretna, a pochodna dystrybuanty prawie wszędzie równa jest zero.
1 Czyli
skończony lub równoliczny ze zbiorem liczb naturalnych.
14
Przyklad 4.1 Niech C będzie zbiorem Cantora. Niech
F (r) =
0
1
dla r ¬ 0
.
dla r > 1
Jeżeli wyrzucaliśmy z odcinka jego środek to określamy na nim wartość F(r) jako średnią arytmetyczną wartości ”na prawo i lewo na nim” (np. na odcinku ] 31 , 23 [ wynosi ona 12 . Otrzymana funkcja jest ciągła, niemalejąca oraz granica w plus
nieskończoności wynosi 1, zaś w minus nieskończoności 0. Jest ona dytrybuanta rozkładu Cantora.
Twierdzenie 4.1 (Lebesgue’a. Bez dowodu.) Każdą dystrybuanta jednowymiarowej zmiennej losowej X można jednoznacznie przedstawić jako kombinację wypukłą dystrybuant rozkładu dyskretnego, ciągłego i osobliwego tzn.
∃a,b,c­0 ∃Fo ,Fc ,Fd a + b + c = 1 ⇒ F = a · Fo + b · Fc + c · Fd ,
(4.5)
gdzie Fo - dystrybuanta rozkładu osobliwego, Fc - dystrybuanta rozkładu ciągłego, zaś Fd - dystrybuanta rozkładu dyskretnego.
Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną.
Lemat 4.1 Niech X będzie jednowymiarową zmienną losową o dystrybuancie F. Niech Y=aX+b, gdzie a ∈ R \ {0} oraz
b ∈ R, ma dystrybuantę G. Wówczas
(
dla a > 0
F r−b
a
(4.6)
G(r) =
r−b
1 − F r−b
−
P
{ω
:
X(ω)
=
}
dla a < 0
a
a
Wniosek 4.1 Jeżeli spełnione są założenia lematu (4.1) oraz zmienna losowa X ma rozkład ciągły, to wówczas
(
F r−b
dla a > 0
a
G(r) =
1 − F r−b
dla a < 0
a
(4.7)
Wniosek 4.2 Jeżeli spełnione są założenia lematu (4.1) oraz f jest gęstością zmiennej losowej X, zaś g zmiennej losowej Y,
to
1
r−b
g(r) =
f(
)
(4.8)
|a|
a
Twierdzenie 4.2 Jeżeli zmienna losowa X ma rozkład ciągły o gęstości f i X(Ω) ⊂]a, b[, funkcja ϕ :]a, b[→ R jest funkcją
klasy C 1 (]a, b[) oraz ϕ0 (x) 6= 0 dla dowolnego x ∈]a, b[, to zmienna losowa Y = ϕ(X) ma rozkład ciągły o gęstości
g(y) = f (ϕ−1 (y))|(ϕ−1 (y))0 |χϕ(]a,b[) (y)
Twierdzenie 4.3 Niech zmienna losowa X ma rozkład ciągły o gęstości f. Niech X(Ω) ⊂ I =
(4.9)
n
S
[ak , bk ], gdzie dla dowolnych
k=1
1
1 ¬ k < l ¬ n zachodzi ]ak , bk [∩]al , bl [= ∅. Niech funkcja ϕ : I → R będzie funkcją klasy C (]ak , bk [) oraz ϕ0 (x) 6= 0 dla
dowolnego x ∈]ak , bk [ i dowolnego 1 ¬ k ¬ n, to zmienna losowa Y = ϕ(X) ma rozkład ciągły o gęstości
g(y) =
n
X
f (ϕ−1 (y))|(ϕ−1 (y))0 |χϕ(]ak ,bk [) (y)
(4.10)
k=1
def
Przyklad 4.2 Niech f = 12 I[−1,1] , Funkcja ta jest gęstością. Niech φ(r) = r2 . Oznaczmy przez g gęstość zmiennej losowej
Y = φ(X). Wtedy
1
√
√
g(y) = (f (− y) + f ( y)) · √ I[0,1] (y).
2 y
4.3
Wartość oczekiwana zmiennej losowej
Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną.
Uwaga 4.2 Niech r ∈ R+ . Wprowadzimy następujące oznaczenia
Z
|X|r dP < +∞ ⇔ X ∈ Lr (Ω, Σ, P ) ≡ Lr (Ω).
Ω
15
(4.11)
Całkę występującą we wzorze (4.11) będziemy rozumieli w sposób następujący
R r

Z
 |x| f (x)dx X ma rozkład ciągły o gęstości f
R
r
∞
|X| dP =
 P |xn |r pk
X ma rozkład dyskretny o zbiorze wartości WX ,

Ω
(4.12)
n=1
gdzie pk = P ({ω : X(ω) = xk }).
Definicja 4.9 Niech dla jednowymiarowej zmiennej losowej X zachodzi X ∈ L1 (Ω, Σ, P ). Wówczas wartością oczekiwaną
zmiennej losowej X nazywamy liczbę
Z
def
E(X) =
XdP
(4.13)
Ω
4.4
Zadania
Zadanie 4.1 Udowodnić twierdzenie 4.3.
Zadanie 4.2 Wyznaczyć gęstość prawdopodobieństwa zmiennej losowej Y = 12 X 2 , gdzie zmienna losowa X ∈ N (0, 1).
Zadanie 4.3 Zmienna losowa X ma rozkład jednostajny na (−1, 1). Wyznaczyć gęstość zmiennej losowej Y = |X|.
Zadanie 4.4 Podać przykład dystrybuanty takiej, że zbiór punktów nieciągłości jest gęsty w R.
Zadanie 4.5 Mówimy, że zmienna losowa X ma rozkład symetryczny, jeśli zmienna −X posiada ten sam rozkład. Wyrazić
własność symetryczności ciągłej zmiennej losowej za pomocą jej dystrybuanty oraz gęstości.
Zadanie 4.6 Niech zmienna losowa X ma rozkład wykładniczy z parametrem 1, zaś [·] oznacza część całkowitą. Wyznaczyć
prawdopodobieństwo zdarzenia A = {ω : [X(ω)] ∈ N ∪ {0}}.
Zadanie 4.7 Niech zmienna losowa X ma rozkład wykładniczy z parametrem λ. Wyznaczyć rozkład zmiennej losowej
• Y = 2X − 1;
√
• Y = X;
• Y = X α , α > 0;
• Y = αX, α > 0;
16
Wykład 5
2002.10.29 / 2h
5.1
Parametry liczbowe rozkładów c.d.
Twierdzenie 5.1 (Własności wartości oczekiwanej)1
Niech X i Y będą jednowymiarowymi zmiennymi losowymi. Załóżmy, że istnieją wartości oczekiwane X i Y. Wtedy
(i) Jeżeli X ­ 0, to E(X) ­ 0
(ii) |E(X)| ¬ E(|X|)
(iii) Dla dowolnych a, b ∈ R istnieje wartość oczekiwana zmiennej losowej aX + bY i wyraża się ona wzorem
E(aX + bY ) = aE(X) + bE(Y )
(5.1)
(iv) (Lemat Fatou) Dla dowolnego ciągu nieujemnych zmiennych losowych {Xn : n ­ 1}
E(lim inf Xn ) ¬ lim inf E(Xn )
n→∞
n→∞
(5.2)
(v) (Twierdzenie Lebesgue’a - Beppo Leviego) Dla dowolnego niemalejącego ciągu nieujemnych zmiennych losowych
{Xn : n ­ 1} zachodzi
E( lim Xn ) = lim E(Xn )
(5.3)
n→∞
n→∞
(vi) (Twierdzenie Lebesgue’a o zbieżności zmajoryzowanej) Jeżeli dla ciągu zmiennych losowych {Xn : n ­ 1} istnieje
całkowalna zmienna losowa Z taka ,że
∀n∈N |Xn | ¬ Z,
to spełniona jest równość (5.3)
Wniosek 5.1 Jeżeli dla zmiennych losowych Xi (i = 1, . . . , n) istnieją ich wartości oczekiwane, to
E(X1 + . . . + Xn ) = E(X1 ) + . . . + E(Xn )
(5.4)
Wniosek 5.2 Jeśli zmienna losowa X ma rozkład dyskretny o zbiorze wartości WX , to wartość oczekiwana zmiennej losowej
P
ϕ(X) istnieje wtedy i tylko wtedy, gdy szereg
|ϕ(x)|P ({x}) jest zbieżny. Ponadto wartość oczekiwana wyraża się wzorem
x∈WX
E(ϕ(X)) =
X
ϕ(x)P ({x})
(5.5)
x∈WX
Przyklad 5.1 Zmienna losowa o gęstości2
f (r) =
1 1
π 1 + r2
nie posiada wartości oczekiwanej.
Przed podaniem uogólnienia wartośc oczekiwanej sformułujmy następujący lemat
1 Dowody
2 Jest
własności (iv)–(vi) pomijamy. Można je znaleźć w książce J. Jakubowskiego i R. Sztencela
to rozkład Cauchy’ego
17
(5.6)
Lemat 5.1 (Dowód póżniej po nierówności Höldera) Niech R 3 r ­ 1 oraz q ∈ [1, r]. Wtedy jeżeli jest skończona całka
R
R
|X|r dP , to jest skończona całka Ω |X|q dP .
Ω
Uwaga 5.1 Pojęcie wartości oczekiwanej można uogólnić zastępując warunek całkowalności innym.
Definicja 5.1 Niech R 3 r ­ 1, zaś a liczbą rzeczywistą, X jednowymiarową zmienną losową. Niech zmienna losowa X będzie
całkowalna z r - tą potęgą.3
(i) Momentem zwykłym rzędu r względem liczby a zmiennej losowej X nazywamy liczbę równą
Z
def
E((X − a)r ) =
(X − a)r dP,
(5.7)
Ω
o ile wyrażenie występujące pod całką jest określone.4
(ii) Momentem absolutnym rzędu r względem liczby a zmiennej losowej X nazywamy liczbę równą
Z
r def
E(|X − a| ) =
|X − a|r dP
(5.8)
Ω
(iii) Jeżeli a = 0, to są to momenty zwykłe lub absolutne rzędu r.
(iv) Jeżeli a = E(X) otrzymujemy momenty centralne rzędu r zwykłe i absolutne.
Definicja 5.2 Niech X ∈ L2 (Ω). Liczbę D2 (X) równą
def
D2 (X) = E((X − E(X))2 )
(5.9)
nazywamy wariancją zmiennej losowej X.
Wniosek 5.3 Niech X ∈ L2 (Ω). Wtedy D2 (X) = E(X 2 ) − (E(X))2 .
Twierdzenie 5.2 Niech X ∈ L2 (Ω). Wówczas5
D2 (X) ­ 0
∀a∈R
∀a∈R
(5.10)
2
2
2
D (aX) = a D (X)
2
2
D (X + a) = D (X)
D2 (X) = 0 ⇔ ∃a∈R P ({ω : X(ω) = a}) = 1
(5.11)
(5.12)
(5.13)
Wniosek 5.4 Niech X ∈ L2 (Ω). Wtedy
p
E(X 2 )
|E(X)| ¬
(5.14)
Wniosek 5.5 Niech X ∈ L2 (Ω). Wtedy
D2 (X) = inf E((X − a)2 )
a∈R
(5.15)
Definicja 5.3 Niech X ∈ L2 (Ω). Odchyleniem standardowym zmiennej losowej X nazywamy liczbę równą
σ(X) ≡ D(X) =
p
D2 (X)
Definicja 5.4 Niech X ∈ L1 (Ω). Odchyleniem przeciętnym zmiennej losowej X nazywamy liczbę równą
Z
def
d(X) =
|X − E(X)|dP
(5.16)
(5.17)
Ω
Definicja 5.5 Niech X ∈ L2 (Ω) oraz E(X) 6= 0. Współczynnikiem zmienności zmiennej losowej X nazywamy liczbę równą
def
νX =
D(X)
E(X)
(5.18)
3 Nie trzeba zakładać, że całkowalna z r - tą potęgą jest zmienna X − a na podstawie lematu 5.1 i z faktu, że funkcja stała jest całkowalna
względem miary probabilistycznej.
4 Jest ono zawsze określone, gdy r ∈ N.
5 Równoważność warunku 5.13 zostanie pokazana później.
18
Definicja 5.6 Niech EX ∈ L3 (Ω) oraz D2 (X) 6= 0. Współczynnikiem asymetrii (skośności) zmiennej losowej X nazywamy
liczbę równą
3
def E((X − E(X)) )
γ(X) =
(5.19)
(σ(X))3
Definicja 5.7 Niech X ∈ L1 (Ω) oraz 0 6= E(X). Wskaźnikiem nierównomierności zmiennej losowej X nazywamy liczbę
równą
def d(X)
(5.20)
H(X) =
E(X)
5.2
Parametry pozycyjne rozkładów
Definicja 5.8 Niech p ∈]0, 1[. Kwantylem rzędu p nazywamy liczbę xp taką, że
P ({ω : X(ω) ¬ xp }) ­ p ∧ P ({ω : X(ω) ­ xp }) ­ 1 − p
Definicja 5.9 Medianą nazywamy kwantyl rzędu
1
2
(5.21)
i oznaczamy ją Me.
Definicja 5.10 Modą (dominantą) nazywamy w przypadku rozkładu dyskretnego wartość zmiennej losowej o największym
prawdopodobieństwie, zaś w przypadku rozkładu ciągłego każde maksimum lokalne gęstości.
Oznaczamy ją Mo.
Definicja 5.11 Odchyleniem ćwiartkowym6 nazywamy liczbę
def
Q=
5.3
x 43 − x 14
2
(5.22)
Zadania
Zadanie 5.1 Udowodnić, że jeśli X jest zmienną losową nieujemną, to
Z +∞
Z +∞
E(X) =
(1 − FX (t))dt =
P ({ω : X(ω) > t}) dt,
0
(5.23)
0
przy czym istnienie jednej ze stron implikuje istnienie drugiej i równość całek.
Zadanie 5.2 Podać przykład dystrybuanty takiej, że zbiór punktów nieciągłości jest gęsty w R.
Zadanie 5.3 Mówimy, że zmienna losowa X ma rozkład symetryczny, jeśli zmienna −X posiada ten sam rozkład. Wyrazić
własność symetryczności ciągłej zmiennej losowej za pomocą jej dystrybuanty oraz gęstości.
Zadanie 5.4 Niech zmienna losowa X ma rozkład wykładniczy z parametrem 1, zaś [·] oznacza część całkowitą. Wyznaczyć
prawdopodobieństwo zdarzenia A = {ω : [X(ω)] ∈ N ∪ {0}}.
6 Jest
to parametr liczbowy
19
Wykład 6
2002.11.05 / 2h
6.1
Przykłady jednowymiarowych rozkładów
Rozkłady dyskretne.
Przyklad 6.1 (Rozkład jednopunktowy.)
WX = {x1 } i P ({x1 }) = 1.
E(X) = x1
(6.1)
D2 (X) = 0
Przyklad 6.2 (Rozkład dwupunktowy.) Niech p ∈]0, 1[.
WX = {x1 , x2 } , x1 6= x2 , P ({x1 }) = p, P ({x2 }) = 1 − p.
(6.2)
W szczególnym przypadku, gdy x1 = 0, zaś x2 = 1 taki rozkład nazywamy rozkładem zero - jedynkowym.
E(X) = px1 + (1 − p)x2 D2 (X) = p(1 − p)(x1 − x2 )2
Uwaga 6.1 Jeżeli zbiór wartości dyskretnego rozkładu X jest podzbiorem zbioru liczb naturalnych, to przyjmujemy następujące oznaczenie
P ({k}) dla k ∈ WX
ozn
pk =
(6.3)
0
dla k ∈
/ WX
Przyklad 6.3 (Rozkład dwumianowy (Bernoulliego) z parametrami n i p.) Niech p ∈ [0, 1] oraz n ∈ N.
n k
WX = {0, 1, . . . , n} , pk =
p (1 − p)n−k
k
E(X) = np
(6.4)
D2 (X) = np(1 − p)
Przyklad 6.4 (Rozkład Poissona z parametrem λ.) Niech λ ∈ R+ .
WX = {0} ∪ N, pk = e−λ
E(X) = λ
λk
k!
(6.5)
D2 (X) = λ
Przyklad 6.5 (Rozkład geometryczny z parametrem p.) Niech p ∈]0, 1[.
WX = N, pk = p(1 − p)k−1 .
E(X) =
1
p
D2 (X) =
1−p
p2
Przyklad 6.6 (Rozkład ujemny dwumianowy z parametrami p,α.) Niech p ∈]0, 1[ oraz α > 0.
α+k−1 α
WX = {0} ∪ N, pk =
p (1 − p)k .
k
E(X) =
α(1−p)
p
(6.6)
D2 (X) =
α(1−p)
p2
20
(6.7)
Przyklad 6.7 (Rozkład Pascala z parametrem p.)1
WX = {k, k + 1, . . .} , pl =
l−1 k
p (1 − p)l−k .
k−1
(6.8)
Lub inaczej
WX = {0} ∪ N, pl =
E(X) =
k(1−p)
p
D2 (X) =
l+k−1 k
p (1 − p)l .
k−1
(6.9)
k(1−p)
p2
Przyklad 6.8 (Rozkład hipergeometryczny z parametrami a, b, n.) Niech a + b > n oraz a ­ n i b ­ n.
b a
WX = {0, 1, . . . , n} , pk =
E(X) =
an
a+b
D2 (X) =
k
n−k
a+b
n
.
(6.10)
abn(a+b−n)
(a+b)2 (a+b−1)
Rozkłady ciągłe.
Przyklad 6.9 (Rozkład ciągły na odcinku ]a, b[.) Niech a, b ∈ R oraz a < b
1
dla r ∈]a, b[
def
f (r) = b−1
0
dla r ∈]a,
/ b[
E(X) =
a+b
2
D2 (X) =
(b−a)2
12
Przyklad 6.10 (Rozkład wykładniczy z parametrem λ.) Niech λ ∈ R+
−λr
λe
dla r > 0
def
−λr
f (r) = λe
χ]0,∞[ (r) ≡
0
dla r ¬ 0
E(X) =
1
λ
D2 (X) =
(6.11)
(6.12)
1
λ2
Przyklad 6.11 (Rozkład Laplace’a z parametrem λ.) Niech λ ∈ R+
def
f (r) =
E(X) = 0
D2 (X) =
1 −λ|r|
λe
2
(6.13)
2
λ2
Przyklad 6.12 (Rozkład Cauchy’ego z parametrami a, b.) Niech a ∈ R oraz b ∈ R+
def
f (r) =
1
b
π b2 + (r − a)2
(6.14)
Nie posiada wartości oczekiwanej, a więc i wariancji.
Przyklad 6.13 (Rozkład normalny (Gaussa) z parametrami m, σ.) Niech m ∈ R oraz σ ∈ R+
1
(r − m)2
def
f (r) = √
exp −
2σ 2
2πσ
E(X) = m
(6.15)
D2 (X) = σ 2
Definicja 6.1 Funkcję dla p > 0
+∞
Z
Γ(p) =
xp−1 e−x dx
def
0
nazywamy funkcją gamma (całką Eulera II rodzaju)
1 Jest
to szczegónly przypadek rozkładu ujemnego dwumianowego.
21
(6.16)
Definicja 6.2 Funkcję dla p, q > 0
def
Z1
β(p, q) =
xp−1 (1 − x)q−1 dx
(6.17)
0
nazywamy funkcją beta (całką Eulera I rodzaju)
Przyklad 6.14 (Rozkład gamma z parametrami b, p.) Niech b, p ∈ R+
def
f (r) =
E(X) =
p
b
D2 (X) =
bp p−1 −br
x e χ]0,+∞[ (r)
Γ(p)
(6.18)
p
b2
Przyklad 6.15 (Rozkład beta z parametrami p, q.) Niech p, q ∈ R+
def
f (r) =
E(X) =
p
p+q
D2 (X) =
1
xp−1 (1 − x)q−1 χ[0,1] (r)
β(p, q)
(6.19)
pq
(p+q)2 (p+q+1)
Lemat 6.1 (Obowiązuje znajomość powyższych faktów.) Niech p > 0. Wówczas
Γ(p + 1) = pΓ(p)
(6.20)
Γ(1) = 1
(6.21)
Γ(n + 1) = n!
(6.22)
Lemat 6.2 (Obowiązuje znajomość powyższych faktów.) Niech p, q > 0. Wówczas
β(p, q) = β(q, p)
q−1
β(p, q) =
β(p, q − 1)
p+q−1
1
β(p, 1) =
p
n−1
(n − 1)!
β(p, n) =
β(p, n − 1) =
β(p, 1)
p+n−1
(p + n − 1) · . . . · (p + 1)
(n − 1)!(m − 1)!
Γ(n)Γ(m)
β(m, n) =
=
(m + n − 1)!
Γ(m + n)
6.2
(6.23)
(6.24)
(6.25)
(6.26)
(6.27)
Nierówność dla zmiennych losowych
Twierdzenie 6.1 (Nierówność Schwarza) Niech X, Y ∈ L2 (Ω). Wówczas zmienna losowa XY ∈ L1 (Ω) oraz
E(|XY |) ¬
p
E(X 2 )E(Y 2 )
(6.28)
|E(XY )| ¬
p
E(X 2 )E(Y 2 )
(6.29)
Wniosek 6.1 Niech X, Y ∈ L2 (Ω). Wówczas
Twierdzenie 6.2 (Nierówność Jensena) Niech X ∈ L1 (Ω). Wówczas dla dowolnej funkcji wypukłej φ: R → R takiej, że
φ(X) ∈ L1 (Ω) zachodzi
φ(E(X)) ¬ E(φ(X))
(6.30)
6.3
Zadania
Zadanie 6.1 Policzyć wszystkie wartośc oczekiwane oraz wariancje rozkładów podanych na wykładzie.
22
Wykład 7
2002.11.12 / 2h
7.1
Nierówność dla zmiennych losowych c.d.
Twierdzenie 7.1 (Nierówność Höldera) Niech R 3 p > 1 oraz R 3 q > 1 oraz p−1 + q −1 = 1. Niech X ∈ Lp (Ω) oraz
Y ∈ Lq (Ω). Wówczas zmienna losowa XY ∈ L1 (Ω) oraz
1
1
E(|XY |) ¬ (E(|X|p )) p (E(|Y |q )) q
(7.1)
Twierdzenie 7.2 (Nierówność Czebyszewa) Niech zmienna losowa X będzie nieujemna.1 Wówczas
E(X)
ε
Definicja 7.1 Dana jest zmienna losowa X. Supremum istotnym zmiennej losowej nazywamy
∀ε>0 P ({ω : X(ω) ­ ε}) ¬
def
esssup X =
inf
sup {|X(ω)}
(7.2)
(7.3)
E∈Σ:P (E)=0 ω∈Ω\E
Uwaga 7.1 Warunek definicji 7.3 może być zapisany następująco
def
esssup X = inf {FX (t) = 1}
(7.4)
t∈R
Twierdzenie 7.3 (Uogólniona nierówność Czebyszewa) Niech φ: R → R będzie dodatnią funkcją borelowską. Jeżeli
φ(X) ∈ L1 (Ω) to wówczas:
(i) Jeżeli φ jest niemalejąca, to
∀ε>0
E(φ(X)) − φ(ε)
E(φ(X))
¬ P ({ω : X(ω) ­ ε}) ¬
esssup φ(X)
φ(ε)
(7.5)
(ii) Jeżeli φ jest parzysta i niemalejąca na [0, +∞[, to
∀ε>0
E(φ(X)) − φ(ε)
E(φ(X))
¬ P ({ω : |X(ω)| ­ ε}) ¬
esssup φ(X)
φ(ε)
(7.6)
Uwaga 7.2 Można osłabić założenia o funkcji φ w twierdzeniu 7.3(ii) następująco
Jeżeli φ: R → R jest funkcją nieujemną, parzystą, φ 6≡ 0 oraz niemalejącą na ]0, +∞[, to
∀ε>0 φ(ε) > 0 ⇒
E(g(X)) − g(ε)
E(φ(X))
¬ P ({ω : |X(ω)| ­ ε}) ¬
esssup φ(X)
φ(ε)
(7.7)
Wniosek 7.1 (Nierówność Markowa) Niech R 3 p > 0. Wówczas o ile X ∈ Lp (Ω), to
E(|X|p )
εp
2
Wniosek 7.2 (Nierówność Czebyszewa - Bienaymé) O ile X ∈ L (Ω), to
∀ε>0 P ({ω : |X(ω)| ­ ε}) ¬
D2 (X)
ε2
Wniosek 7.3 (Nierówność wykładnicza Czebyszewa) O ile dla pewnego p > 0 jest epX ∈ L1 (Ω), to
∀ε>0 P ({ω : |X(ω) − E(X)| ­ ε}) ¬
∀λ∈[0,p] ∀ε>0 P ({ω : X(ω) ­ ε}) ¬
1 Obejmuje
też przypadek ”trywialny”, gdy jest nieskończona wartość oczekiwana
23
eλX )
eλε
(7.8)
(7.9)
(7.10)
7.2
Niezależne zmienne losowe
Dana jest przestrzeń probabilistyczna (Ω, Σ, P ) oraz jednowymiarowe zmienne losowe X1 , . . . , Xn określone na niej.
Definicja 7.2 Mówimy, że zmienne losowe X1 , . . . , Xn są niezależne wtedy i tylko wtedy, gdy
∀{A1 ,...,An }⊂B(R) P ({ω : Xi (ω) ∈ Ai ∧ i = 1, . . . , n}) =
n
Y
P ({ω : Xi (ω) ∈ Ai })
(7.11)
i=1
Twierdzenie 7.4 Dyskretne zmienne losowe X1 , . . . , Xn są niezależne wtedy i tylko wtedy, gdy
∀(a1 ,...,an )⊂(WX1 ×...×WXn ){1,...,n} P ({ω : Xi (ω) = xi ∧ i = 1, . . . , n}) =
n
Y
P ({ω : Xi (ω) = xi })
(7.12)
i=1
7.3
Funkcje tworzące prawdopodobieństwa i reszt
Definicja 7.3 Niech dany będzie ciąg liczbowy (an ). Funkcja tworzącą ciągu (an ) nazywamy szereg potęgowy
def
T (s) =
∞
X
an sn ,
n=1
o ile ma on niezerowy promień zbieżności.
Uwaga 7.3 Promień zbieżności szeregu potęgowego jest niezerowy wtedy i tylko wtedy, gdy lim sup
p
n
|an | < +∞.
n→∞
Niech dana będzie przestrzeń probabilistyczna (Ω, Σ, P ). Niech dyskretna zmienna losowa X, dla której WX ⊆ {0} ∪ N,
będzie określona na tej przestrzeni. Przyjmijmy oznaczenia
ozn
pk = P ({ω : X(ω) = k})
oraz
ozn
qk = P ({ω : X(ω) > k}) =
∞
X
pn .
n=k+1
Definicja 7.4 Funkcję tworzącą ciągu (pn ) nazywamy funkcją tworzącą prawdopodobieństwa i oznaczamy ją P (s).
Funkcję tworzącą ciągu (qn ) nazywamy funkcją tworzącą reszt (ogonów) i oznaczamy ją Q(s).
Uwaga 7.4 Zauważmy, że P (s) = E(sX ).
Lemat 7.1 P (1) = 1
Twierdzenie 7.5 Niech X ∈ L1 (Ω). Wówczas
(i) Q(s) jest bezwzględnie zbieżny dla |s| ¬ 1
(ii) P 0 (s) jest bezwzględnie zbieżny dla |s| ¬ 1
(iii) E(X) = Q(1)
(iv) E(X) = P 0 (1)
7.4
Zadania
Zadanie 7.1 Udowodnić twierdzenie 7.5.
Zadanie 7.2 Przeprowadzono n niezależnych doświadczeń
o prawdopodobieństwie
sukcesu w k - tym doświadczeniu równym
n
Q
pk , k = 0, 1, . . . , n. Rozpatrujemy funkcję g(s) = 1 −
(pk s + qk ) (1 − s)−1 . Dowieść, że współczynnik przy sm w funkcji
k=1
g jest równy prawdopodobieństwu uzyskania więcej niż m sukcesów, m = 0, 1, . . . , n − 1.
Zadanie 7.3 Rozpatrujemy schemat Bernoulliego z ilością doświadczeń n i prawdopodobieństwem sukcesu w pojedynczym
doświadczeniu p. Dowieść, że współczynnik przy sk w funkcji g(s) = (1 − (ps + q)n ) (1 − s)−1 jest równy prawdopodobieństwu
uzyskania więcej niż k sukcesów, k = 0, 1, . . . , n − 1.
24
Zadanie 7.4 Wyznaczyć rozkład zmiennej losowej X o wartościach całkowitych nieujemnych, jeśli jej funkcja tworząca
prawdopodobieństwa zadana jest wzorem
• g(s) =
1−4α2
(1−4α2 )s2 −4s+4 , |α|
• g(s) =
2s
18−27s+13s2 −2s3 ;
• g(s) =
√
cosh λ s
cosh λ ;
< 12 ;
Wskazówka: Rozłożyć na ułamki proste.
k
Zadanie 7.5 Niech pk = 0 dla k ¬ 0 i pk = bak dla k ∈ N, gdzie 0 < a < 1. Dla jakiej wartości b ciąg {pk } jest rozkładem
prawdopodobieństwa. Wyznaczyć dla niej funkcje tworzącą, wartość oczekiwaną i wariancję.
Zadanie 7.6 Niech zmienna losowa X ma rozkład Poissona z parametrem λ. Wyznaczyć funkcję tworzącą prawdopodobieństwa.
25
Wykład 8
2002.11.19 / 2h
8.1
Własności funkcji tworzących prawdopodobieństwa i reszt
(s)
Twierdzenie 8.1 (i) Jeżeli |s| < 1, to Q(s) = 1−P
1−s
(ii) Jeżeli X ∈ L1 (Ω), to dla |s| ¬ 1 mamy (1 − s)Q(s) = 1 − P (s).
Twierdzenie 8.2 Jeżeli X ∈ L1 (Ω), to P 0 (s) = Q(s) − (1 − s)Q0 (s).
Twierdzenie 8.3 Jeżeli X ∈ L2 (Ω), to P (2) (s) = 2Q0 (s) + (1 − s)Q(2) (s).
Wniosek 8.1 Jeżeli X ∈ L2 (Ω), to
D2 (X) = P (2) (1) + P 0 (1) − (P 0 (1))2 = 2Q0 (1) + Q(1) − (Q(1))2 .
8.2
Zbieżności zmiennych losowych
Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną oraz {Xn : n ­ 1} ciągiem zmiennych losowych określonych na tej
przestrzeni.
Definicja 8.1 Mówimy, że ciąg {Xn : n ­ 1} zmiennych losowych jest zbieżny do zmiennej losowej X
(i) prawie na pewna wtedy i tylko wtedy, gdy
P {ω : lim Xn (ω) = X(ω)} = 1
n→∞
(8.1)
p.n.
oznaczamy Xn −→ X;
(ii) według prawdopodobieństwa wtedy i tylko wtedy, gdy
∀ε>0 lim P ({ω : |Xn (ω) − X(ω)| > ε}) = 0
n→∞
(8.2)
P
oznaczamy Xn −→ X;
(iii) według p - tego momentu dla 0 < p < +∞ wtedy i tylko wtedy, gdy
X ∈ Lp (Ω) ∧ ∀n∈N Xn ∈ Lp (Ω) ∧ lim E(|Xn − X|p ) = 0
n→∞
Lp
oznaczamy Xn −→ X.
p.n.
p.n.
Twierdzenie 8.4 Niech Xn −→ X oraz Yn −→ Y . Wówczas
p.n
(i) dla dowolnych a, b ∈ R zachodzi aXn + bYn −→ aX + bY
p.n
(ii) Xn Yn −→ XY
p.n 1
(iii) jeśli P ({ω : X(ω) 6= 0}) = 1, to χ{ω:X(ω)6=0} X1n −→ X
26
(8.3)
Twierdzenie 8.5 Następujące warunki są równoważne
p.n.
Xn −→ X
(8.4)
∞
\
∀ε>0 lim P
n→∞
∀ε>0 lim P
n→∞
k=n
∞
[
∀ε>0 lim P 
Wniosek 8.2 Jeśli
∀ε>0
∞
X
{ω : |Xk (ω) − X(ω)| ¬ ε}
=1
(8.5)
=0
(8.6)
!
{ω : |Xk (ω) − X(ω)| > ε}
k=n

n→∞
!
∞
\

{ω : |Xk (ω) − Xl (ω)| ¬ ε} = 1
(8.7)
k,l­n
P ({ω : |Xn (ω) − X(ω)| > ε}) < ∞,
n=1
p.n.
to Xn −→ X.
p.n.
P
Wniosek 8.3 Jeśli Xn −→ X, to Xn −→ X.
Lp
P
P
Lp
Twierdzenie 8.6 Jeśli Xn −→ X, to Xn −→ X. Gdy dodatkowo ∃K ∀n­1 |Xn | ¬ K, to jeśli Xn −→ X, to Xn −→ X.
8.3
Zadania
Zadanie 8.1 Udowodnić, że równoważność warunku (8.7) twierdzenia 8.5.
27
Wykład 9
2002.11.26 / 2h
9.1
Zbieżności zmiennych losowych c.d.
Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną oraz {Xn : n ­ 1} ciągiem zmiennych losowych określonych na tej
przestrzeni.
p.n.
Twierdzenie 9.1 Niech Xn −→ X i niech istnieje R 3 p > 0 oraz zmienna losowa Z taka, że
(i) ∀n∈N |Xn |p ¬ Z p
(ii) E(Z p ) < +∞.
Lp
Wtedy Xn −→ X.
Lp
Lq
Twierdzenie 9.2 Niech p ­ 1 oraz Xn −→ X. Wtedy dla dowolnego q ∈ [1, p] zachodzi Xn −→ X.
Przyklad 9.1 Niech dany będzie ciąg {An : n ­ 1} zdarzeń niezależnych takich, że
∞
P
(i)
P (An ) = +∞,
n=1
(ii) lim P (An ) = 0.
n→∞
Wtedy dla ciągu zmiennych losowych (Xn = χAn ) zachodzi
Lp
(1) Xn −→ 0;
P
(2) Xn −→ 0
p.n.
oraz nie zachodzi Xn −→ 0.
def
Przyklad 9.2 Niech Ω =]0, 1] i An = ]0, n1 ] dla n ∈ N. Wtedy dla ciągu zmiennych losowych (Xn = 2n χAn ) zachodzi
p.n.
(1) Xn −→ 0;
P
(2) Xn −→ 0
Lp
oraz nie zachodzi Xn −→ 0.
p.n.
P
Twierdzenie 9.3 (Twierdzenie Riesza) Jeśli Xn −→ X, to, to istnieje podciąg (Xnk ) taki, że Xnk −→ X.
Twierdzenie 9.4 Ciąg zmiennych losowych jest zbieżny według prawdopodobieństwa wtedy i tylko wtedy, gdy każdy jego
podciąg zawiera podciąg zbieżny prawie na pewno.
P
P
Wniosek 9.1 Niech Xn −→ X, f będzie funkcją ciągłą na zbiorze A oraz P ({ω : X(ω) ∈ A}) = 1, to f (Xn ) −→ f (X)
P
P
Twierdzenie 9.5 Niech Xn −→ X oraz Yn −→ Y . Wówczas
P
(i) dla dowolnych a, b ∈ R zachodzi aXn + bYn −→ aX + bY
P
(ii) Xn Yn −→ XY
P
(iii) jeśli P ({ω : X(ω) 6= 0}) = 1, to χ{ω:X(ω)6=0} X1n −→
1
X
28
Twierdzenie 9.6 Następujące warunki są równoważne
P
Xn −→ X
(9.1)
|Xn − X|p
∀p>0 lim E
=0
n→∞
1 + |Xn − X|p
|Xn − X|p
∃p>0 lim E
=0
n→∞
1 + |Xn − X|p
9.2
(9.2)
(9.3)
Prawo 0 – 1 Kołmogorowa
Niech X 6= ∅, ∅ =
6 H ⊂ 2X .
Definicja 9.1 σ - ciałem generowanym przez rodzinę H nazywamy najmniejsze σ - ciało zawierające rodzinę H. Oznaczamy
je przez σa(H).
Niech dana będzie przestrzeń probabilistyczna (Ω, Σ, P ). Rozpatrzmy ciąg σ - ciał {Σn : n ­ 1}
Definicja 9.2
∞
[
def
Σn,∞ = σa
!
Σn
(9.4)
k=n
σ - ciałem ogonowym lub resztowym nazywamy σ - ciało Σ∞ równe
def
Σ∞ =
∞
\
Σn,∞
(9.5)
Σn,∞ ⊇ Σn+1,∞
(9.6)
n=1
Wniosek 9.2
Twierdzenie 9.7 (Prawo 0 – 1 Kołmogorowa) Jeżeli σ - ciała Σn n ∈ N są niezależne oraz A ∈ Σ∞ , to wówczas
P (A) = 0 albo P (A) = 1.
9.3
Zadania
Zadanie 9.1 Udowodnic twierdzenie 9.6 korzystając z uogólnionej nierówności Czebyszewa dla funkcji parzystej g(x) =
|x|p
1+|x|p .
29
Wykład 10
2002.12.03 / 2h
10.1
Nierówności typu Czebyszewa dla sum zmiennych losowych
Definicja 10.1 Niech {Ξi : i ∈ I} będzie rodziną zbiorów zdarzeń. Ξi są niezależne wtedy i tylko wtedy, gdy
\
Y
∀J⊂I ∀j∈J ∀Aj ∈Ξj card J < ℵ0 ⇒ P (
Aj ) =
P (Aj )
j∈J
(10.1)
j∈J
Wniosek 10.1 Dany jest ciąg {Xn : n ­ 1} niezależnych zmiennych losowych. Wówczas szereg
∞
P
Xn jest zbieżny bądź
n=1
rozbieżny prawie na pewno (z prawdopodobieństwem 1).
Niech (Ω, Σ, P ) będzie ustalona przestrzenią probabilistyczną, a {Xn : n ­ 1} będzie niezależnym ciągiem zmiennych
losowych określonych na tej przestrzeni.
n
X
ozn
Sn =
Xk .
k=1
Twierdzenie 10.1 (Nierówność Lévy’ego - Ottavianiego)
Niech X1 , . . . , Xn będą niezależnymi zmiennymi losowymi. Wówczas
ε ∀ε>0 P {ω : max |Si (ω)| > ε} ¬ 3 max P {ω : |Si (ω)| > }
1¬i¬n
1¬i¬n
3
Jeżeli ponadto zmienne losowe mają rozkład symetryczny1 , to
∀ε>0 P {ω : max |Si (ω)| > ε} ¬ 2P ({ω : |Sn (ω)| > ε})
1¬i¬n
(10.2)
(10.3)
Twierdzenie 10.2 (Nierówność Kołmogorowa)
Niech X1 , . . . , Xn będą niezależnymi zmiennymi losowymi o zerowej wartości oczekiwanej i skończonym drugim momencie.
Wówczas
E(Sn2 )
∀ε>0 P {ω : max |Si (ω)| ­ ε} ¬
(10.4)
1¬i¬n
ε2
10.2
Zadania
1 Zmienna
losowa X ma rozkład symetryczny wtedy i tylko wtedy, gdy X i −X mają ten sam rozkład
30
Wykład 11
2002.12.10 / 2h
11.1
Zbieżności szeregów zmiennych losowych
Niech dany będzie ciąg {Xn : n ­ 1} niezależnych zmiennych losowych określonych na tej samej przestrzeni probabilistycznej
(Ω, Σ, P ).
Twierdzenie 11.1 (O dwóch szeregach) Niech każda ze zmiennych losowych Xn posiada skończony moment rzędu dwa.
∞
∞
∞
P
P
P
E(Xn ) i
D2 (Xn ) są zbieżne, to szereg
Xn jest zbieżny prawie na pewno.
Jeżeli szeregi
n=1
n=1
n=1
Niech c > 0. Wprowadźmy oznaczenie
ozn
Xc =
X
0
dla |X| ¬ c
dla |X| > c
Twierdzenie 11.2 (O trzech szeregach) Warunkiem koniecznym zbieżności prawie na pewna szeregu
∞
P
Xn niezależ-
n=1
nych zmiennych losowych jest zbieżność dla każdego c > 0 szeregów
∞
X
E(Xnc )
n=1
∞
X
D2 (Xnc )
n=1
∞
X
P ({ω : |Xn (ω)| > c}) .
(11.1)
n=1
Warunkiem dostatecznym jest zbieżność tych szeregów przy pewnym c > 0.
Twierdzenie 11.3 (Lévy’ego) Szereg
∞
P
Xn niezależnych zmiennych losowych jest zbieżny prawie na pewna wtedy i tylko
n=1
wtedy, gdy jest on zbieżny według prawdopodobieństwa.
11.2
Prawa wielkich liczb
Niech {Xn : n ­ 1} będzie ciągiem zmiennych losowych posiadających wartość oczekiwaną. Wprowadźmy oznaczenie
Sn =
n
X
Xk .
k=1
Definicja 11.1 Mówimy, że ciąg zmiennych losowych {Xn : n ­ 1} spełnia mocne prawo wielkich liczb (MPWL) wtedy i
tylko wtedy, gdy
Sn − E(Sn ) p.n.
−→ 0.
(11.2)
n
Mówimy, że ciąg zmiennych losowych {Xn : n ­ 1} spełnia słabe prawo wielkich liczb (SPWL) wtedy i tylko wtedy, gdy
Sn − E(Sn ) P
−→ 0.
n
31
(11.3)
Definicja 11.2 Niech dane będą zmienne losowe X, Y okreslone na tej samej przestrzeni probabilistycznej (Ω, Σ, P ) spełniające warunek X, Y, XY ∈ L1 (Ω). Mówimy, że zmienne losowe X i Y sa nieskorelowane wtedy i tylko wtedy, gdy
E(XY ) − E(X)E(Y ) = 0.
(11.4)
E((X − E(X))(Y − E(Y ))) = 0.
(11.5)
Powyższy warunek można zapisać w postaci
Wniosek 11.1 Jeżeli zmienne losowe sa niezależne, to sa nieskorelowane.
Twierdzenie 11.4 Niech ciąg zmiennych losowych {Xn : n ­ 1} posiadających drugi moment spełnia jeden z warunków
2
(i) lim D n(S2 n ) = 0
n→∞
(ii) zmienne losowe Xn są parami nieskorelowane i mają wspólnie ograniczoną wariancję.
Wówczas ciąg {Xn : n ­ 1} spełnia SPWL.
11.3
Zadania
32
Wykład 12
2002.12.17 / 2h
12.1
Prawa wielkich liczb – c.d.
Uwaga 12.1 Założenie (ii) w twierdzeniu 11.4 można osłabić wymagając aby
D2 (Xn ) ¬ Cnα , α ∈]0, 1[.
(12.1)
Twierdzenie 12.1 (Słabe prawo wielkich liczb Bernoulliego) Jeżeli przez Sn oznaczymy liczbę sukcesów w schemacie
Bernoulliego n prób z prawdopodobieństwem sukcesu w pojedynczej próbie równym p, to
Sn (ω)
∀ε>0 lim P
ω:
− p > ε
=0
(12.2)
n→∞
n
Lemat 12.1 (Twierdzenie Toeplitza) Niech {an : n ­ 1} będzie ciągiem licz nieujemnych i niech ciąg {bn : n ­ 1} będzie
n
def P
ciągiem rosnącym liczb dodatnich określonych następująco bn =
ak . Wówczas jeżeli ciąg (xn ) jest ciągiem zbieżnym o
k=1
granicy równej x, to
lim
n→∞
1
bn
n
X
ak xk = x.
(12.3)
k=1
Lemat 12.2 (Twierdzenie Kroneckera) Niech {bn : n ­ 1} będzie rosnącym ciągiem liczb dodatnich rozbieżnym do
∞
P
nieskończoności, a {xn : n ­ 1} ciągiem liczb rzeczywistych takim, że szereg
xn jest zbieżnym. Wtedy
n=1
n
1 X
bk xk = 0.
n→∞ bn
lim
(12.4)
k=1
W szczególności jeśli bn = n oraz xn =
yn
n
zachodzi Jeżeli szereg
∞
P
n=1
yn
n
jest zbieżny, to lim
n→∞
y1 +...+yn
n
= 0.
Twierdzenie 12.2 (Kołmogorowa) Niech {Xn : n ­ 1} będzie ciągiem niezależnych zmiennych losowych dla których
istnieje moment rzędu dwa. Niech {bn : n ­ 1} będzie rosnącym ciągiem liczb dodatnich takich, że lim bn = +∞ i
n→∞
∞
P
D 2 (Xn )
< +∞. Wtedy
b2
n=1
n
lim
n→∞
W szczególności, jeżeli
∞
P
n=1
D 2 (Xn )
n2
Sn − E(Sn )
= 0 p.n.
bn
(12.5)
< +∞, to ciąg {Xn : n ­ 1} spełnia MPWL.
Niech {Xn : n ­ 1} będzie ciągiem zmiennych losowych posiadających wartość oczekiwaną. Wprowadźmy oznaczenie
n
P
Sn =
Xk .
k=1
Lemat 12.3 Niech X będzie nieujemną zmienna losową. Wtedy
∞
X
P ({ω : X(ω) ­ k}) ¬ E(X) ¬ 1 +
n=1
∞
X
n=1
33
P ({ω : X(ω) ­ k})
(12.6)
Wniosek 12.1 Jeżeli nieujemna zmienna losowa X posiada skończona wartość oczekiwaną, to
∞
X
P ({ω : X(ω) ­ k}) < +∞.
n=1
Wniosek 12.2 Jeżeli dla nieujemnej zmiennej losowej X zachodzi
∞
X
P ({ω : X(ω) ­ k}) < +∞,
n=1
to posiada ona skończoną wartość oczekiwaną.
Twierdzenie 12.3 (MPWL Kołmogorowa) Niech {Xn : n ­ 1} będzie ciągiem niezależnych zmiennych losowych o
jednakowych rozkładach i posiadających wartość oczekiwaną. Wtedy ciąg {Xn : n ­ 1} spełnia MPWL.
12.2
Zadania
Zadanie 12.1 Udowodnić lemat 12.3.
34
Wykład 13
2003.01.14 / 2h
13.1
Zasady egzaminu
13.2
Prawa wielkich liczb – c.d.
Twierdzenie 13.1 (Chinczyna) Ciąg {Xn : n ­ 1} zmiennych losowych parami niezależnych o jednakowym rozkładzie i
skończonej wartości spełnia SPWL.
13.3
Zadania
Zadanie 13.1 Udowodnić, że jeżeli ciąg {Xn : n ­ 1} zmiennych losowych posiadających drugi moment spełnia warunki
(i) D2 (Xn ) ¬ C < +∞ dla dowolnego n ­ 1
(ii) zmienna losowa Xn zależy jedynie od Xn−1 i Xn+1 ,
to ciąg {Xn : n ­ 1} spełnia SPWL.
35
Wykład 14
2003.01.21 / 2h
14.1
Twierdzenie Moivre’a - Laplace’a – lokalne i globalne
Będziemy rozważać schemat n prób Bernoulliego z prawdopodobieństwem sukcesu w pojedynczej próbie równym p (prawdopodobieństwo porażki oznaczymy q) oraz ilością sukcesów równą k.
Przyjmijmy następujące oznaczenia
n k n−1
B(k, n, p) =
p q
(14.1)
k
1
ozn
h= √
(14.2)
npq
ozn
δk = k − np
ozn δk
xk = √
≡ δk h.
npq
(14.3)
(14.4)
Mamy wtedy
n − k = nq − δk
k
= 1 + xk qh
np
n−k
= 1 − xk ph.
nq
(14.5)
(14.6)
(14.7)
Twierdzenie 14.1 (Moivre’a - Laplace’a lokalne) Jeżeli h|xk | max {p, q} ¬ 12 , to
B(k, n, p) = √
x2
1
k
e− 2 eR(n,k) ,
2πnpq
(14.8)
przy czym
3
1
1
|xk |h + |xk |3 h +
.
(14.9)
4
3
3n
W szczególności jeżeli n i k zbiegają do nieskończoności w taki sposób, że hx3k zbiega do zera, to R(n, k) również zbiega do
zera.
|R(n, k)| ¬
Przyjmijmy oznaczenie
h
.
2
Przez Φ będziemy oznaczać dystrybuantę rozkładu normalnego N (0, 1).
ozn
xa± h = xa ±
2
Twierdzenie 14.2 (Moivre’a - Laplace’a globalne) Jeżeli h max {|xa |, |xb |} |xk | max {p, q} ¬ 12 , to
h
i
P ({ω : a ¬ Sn (ω) ¬ b}) = Φ(xb+ 12 ) − Φ(xa− 12 ) eD(n,a,b) ,
(14.10)
gdzie
|D(n, a, b)| ¬ max
k∈{a,b}
5
1
1
h2
|xk |h + |xk |3 h +
+ .
4
3
3n
8
36
(14.11)
W szczególności jeżeli n zbiega do nieskończoności, zaś a i b zmieniają się tak, że max x3a h, x3b h zbiega do zera, to D(n, a, b)
również zbiega do zera oraz
14.2
P ({ω : a ¬ Sn (ω) ¬ b}) ∼ Φ(xb+ 12 ) − Φ(xa− 12 )
(14.12)
P ({ω : a ¬ Sn (ω) ¬ b}) ∼ Φ(xb ) − Φ(xa )
(14.13)
Zadania
Zadanie 14.1 Udowodnić, że jeżeli Xa i xb są stałe, to
Sn (ω) − np
P {ω : xa ¬
¬ xb } ∼ Φ(xb+ 12 ) − Φ(xa− 12 )
√
npq
37
(14.14)
Wykład 15
Egzamin
15.1
Zagadnienia na egzamin – część teoretyczna
1. Prawdopodobieństwo.
(a) Przestrzeń probabilistyczna. Własności prawdopodobieństwa.
(b) Prawdopodobieństwo warunkowe, całkowite. Wzór Bayesa.
(c) Zdarzenie niezależne. Niezależność zespołowa i parami – ich związek.
(d) Własności zdarzeń niezależnych.
(e) Zdarzenie zależne. Współczynnik korelacji zdarzeń.
(f) Prawdopodobieństwo geometryczne. Paradoks Bertranda.
(g) Schemat Bernoulliego i jego uogólnienia (zagadnienia Poissona, Pascala, uogólniony schemat Bernoulliego, Pólya).
(h) Lemat Borela - Cantelliego.
2. Jednowymiarowe zmienne losowe.
(a) Zmienne losowe. Zmienne losowe, a funkcje borelowskie. Rozkład prawdopodobieństwa.
(b) Rozkład ciągły, dyskretny i osobliwy.
(c) Dystrybuanta zmiennej losowej. Własności dystrybuanty.
(d) Twierdzenie, kiedy funkcja jest dystrybuantą (ocena 5.0).
(e) Rozkład prawdopodobieństwa i jego dystrybuanata.
(f) Liniowe przekształcenia jednowymiarowej zmiennej losowej – związek między dystrybuantami.
(g) Dystrybuanta, a gęstość. Gęstość, a odwzorowania gładkie.
(h) Wartość oczekiwana zmiennej losowej i jej własności.
(i) Wariancja zmiennej losowej i jej własności.
(j) Inne parametry liczbowe zmiennych losowych.
(k) Parametry pozycyjne.
(l) Przykładowe rozkłady i ich parametry.
(m) Nierówności dla zmiennych losowych (Schwarza, Jensena, Höldera, Czebyszewa).
(n) Nierówności dla zmiennych losowych (uogólniona Czebyszewa, Markowa, Czebyszewa - Bienaymé, wykładnicza
Czebyszewa).
(o) Niezależne zmienne losowe.
(p) Kowariacja zmiennych losowych. Zmienne losowe nieskoreowane. Niezależne zmienne losowe, a nieskorelowane.
38
3. Funkcja tworząca prawdopodobieństwa i reszt. Własności.
4. Zbieżność zmiennych losowych.
(a) Typy zbieżności zmiennych losowych.
(b) Zbieżność prawie na pewno i jej własności.
(c) Zbieżność prawie na pewno, a według prawdopodobieństwa.
(d) Zależności między różnego rodzaju zbieżnościami.
(e) Zbieżność według prawdopodobieństwa i jej własności.
(f) Zbieżność według k - tego momentu bezwzględnego i jej związek z innymi zbieżnościami.
5. Prawo zero - jedynkowe Kołmogorowa.
6. Zbieżność szeregów zmiennych losowych.
(a) Nierówność Lévy’ego - Ottavianiego.
(b) Nierówność Kołmogorowa.
(c) Twierdzenie o dwóch szeregach.
(d) Twierdzenie o trzech szeregach (warunek dostateczny).
(e) Twierdzenie Lévy’ego (o równoważność zbieżności prawie na pewno i według prawdopodobieństwa szeregów zmiennych losowych).
7. Prawa wielkich liczb.
(a) Pojęcie SPWL i MPWL.
(b) Twierdzenia o warunkach dostatecznych na zachodzenie SPWL.
(c) SPWL Bernoulliego.
(d) Twierdzenie Kołmogorowa dla dowolnych niezależnych zmiennych losowych (wraz z lematami).
(e) Twierdzenie Kołmogorowa dla niezależnych zmiennych losowych o jednakowych rozkładach.
(f) Twierdzenie Chinczyna
8. Twierdzenie Moivre’a - Laplace’a
(a) Twierdzenie lokalne.
(b) Twierdzenie globalne.
39
15.2
Zadania z egzaminu
1. (4pt/32pkt) Niech P1 , . . . , Pm prawdopodobieństwami określonymi na tym samym σ - ciele Σ podzbiorów Ω (tzn. każde
Pi spełnia aksjomaty prawdopodobieństwa). Niech dane będą liczby nieujemne a1 , . . . , am o własności a1 +. . .+am = 1.
def
Udowodnić, że funkcja P = a1 · P1 + . . . + am · Pm jest prawdopodobieństwem na Σ.
2. (4pt/32pkt) Dokonujemy n doświadczeń rzucając w r - tym doświadczeniu 2r−1 monetami, gdzie 1 ¬ r ¬ n. Obliczyć
prawdopodobieństwo, że chociaż w jednym doświadczeniu otrzymamy same orły.
3. (4pt/32pkt) Wybieramy losowo punkt z odcinak [0, 1]. Wyznaczyć dystrybuantę i gęstość zmiennej losowej, której
wartości są ilorazem długości odcinka krótszego przez dłuższy. Obliczyć prawdopodobieństwo, że wartość tego iloraz
ten nie przekroczy 41 .
4. (4pt/32pkt) Niech λ > 0 oraz zmienna losowa X ma rozkład jednostajny na odcinku ]0, 1[. Udowodnić, że zmienna
losowa Y = − λ1 ln X ma rozkład wykładniczy z parametrem λ.
5. (4pt/32pkt) Niech zmienna losowa X ma rozkład Poissona z parametrem λ. Wyznaczyć funkcję tworzącą prawdopodobieństwa.
6. (4pt/32pkt) Udowodnić, że

p.n.
Xn −→ X ⇔ ∀ε>0 lim P 
n→∞
∞
\

{ω : |Xk (ω) − Xl (ω)| ¬ ε} = 1.
k,l­n
√
7. (4pt/32pkt) Niech {Xn : n ­ 2} będzie ciągiem niezależnych zmiennych losowych takich, że P ({Xn (ω) = ± n}) =
i P ({Xn (ω) = 0}) = 1 − n2 . Udowodnić, że spełnia on MPWL ?
1
n
8. (4pt/32pkt) Rzucamy n razy prawidłową monetą. Jak duże musi być n, aby z prawdopodobieństwem 0,9 liczba
wyrzuconych orłów była zawarta pomiędzy 0, 47n a 0, 53n ?
15.3
Zadania z egzaminu poprawkowego
1. (4pkt/36pkt) Niech dana będzie przestrzeń probabilistyczna (Ω, Σ, P ). Niech B ∈ Σ będzie takie, że P (B) > 0.
def
Udowodnić, że funkcja PB : Σ 3 A 7→ PB (A) = P (A|B) jest prawdopodobieństwem.
2. (4pkt/36pkt) Bateria z trzech dział oddała salwę i dwa pociski trafiły w cel. Obliczyć prawdopodobieństwo zdarzenia,
że pocisk wystrzelony z pierwszego działa trafił w cel, jeśli prawdopodobieństwo trafienia w cel z pierwszego, drugiego
i trzeciego działa wynoszą odpowiednio p1 = 0, 4, p2 = 0, 3 i p3 = 0, 5.
3. (4pkt/36pkt) Na odcinku o długości jednostkowej wybrano losowo dwa punkty. Jakie jest prawdopodobieństwo, że
odległości pomiędzy nimi jest nie mniejsza od r, gdzie 0 ¬ r ¬ 1 ?
4. (4pkt/36pkt) Czy prawdziwe jest zdanie: Jeśli dwa zdarzenia wykluczają się, to są one zależne ?. Odpowiedź uzasadnij
tzn. w przypadku pozytywnej, przeprowadź dowód zaś w przypadku negatywnej podaj kontrprzykład, ponadto podaj
w tym przypadku, o ile istnieją, warunki wystarczające, aby zdanie było prawdzie.
5. (4pkt/36pkt) Niech λ > 0 oraz zmienna losowa X ma rozkład jednostajny na odcinku ]0, 1[. Udowodnić, że zmienna
losowa Y = − λ1 ln(1 − X) ma rozkład wykładniczy z parametrem λ
6. (4pkt/36pkt) Wzynaczyć rozkład zmiennej losowej jeżeli jej funkcja tworząca prawdopodobieństwa wyraża się wzorem
8
f (s) = 9−s
2.
7. (8pkt(4+4)/36pkt) Prawdopodobieństwo sukcesu w każdej próbie równe jest 41 . Karzystają raz z nierówności Czebyszewa, a drugi z twierdzenia Moivre’a - Laplace’a oszacować prawdopodobieństwo tego, że w 800 niezależnych próbach
ilość sukcesów bedzie większa niż 150 , a mniejsza niz 250.
8. (4pkt/36pkt) Niech dany będzie ciąg {Xn |n ­ 1} niezależnych zmiennych losowych o rozkładzie zadanymi równościami P ({Xn (ω) = ±nβ }) = 2n1α , P ({Xn (ω) = 0}) = 1 − n1α , gdzie α, β > 0. Przy jakiej zależności miedzy parametrami
α, β spełnia on MPWL?
40
Download