Szkice do wykładu z Rachunku prawdopodobieństwa 1 II rok matematyki finansowej III roku matematyki ogólnej III roku matematyki z metodami informatycznymi dr Jarosław Kotowicz 24 lutego 2003 roku 1 c Copyright J.Kotowicz Spis treści 1 2002.10.01 / 2h 6 1.1 Aksjomatyka rachunku prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2 Prawdopodobieństwo warunkowe i całkowite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2 2002.10.08 / 2h 8 2.1 Wzór Beyasa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.2 Zdarzenia niezależne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.3 Zdarzenie zależne. Współczynnik korelacji zdarzeń . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.4 Prawdopodobieństwo geometryczne. Paradoks Bertranda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.5 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 3 2002.10.15 / 2h 11 3.1 Schemat Bernoulliego i jego uogólnienia. Schematy urnowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 3.2 Jednowymiarowe zmienne losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 3.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 4 2002.10.22 / 2h 14 4.1 Uzupełnienia poprzedniego wykładu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 4.2 Jednowymiarowe zmienne losowe c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 4.3 Wartość oczekiwana zmiennej losowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 4.4 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 5 2002.10.29 / 2h 17 5.1 Parametry liczbowe rozkładów c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 5.2 Parametry pozycyjne rozkładów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 5.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 6 2002.11.05 / 2h 20 6.1 Przykłady jednowymiarowych rozkładów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 6.2 Nierówność dla zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 6.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 7 2002.11.12 / 2h 23 7.1 Nierówność dla zmiennych losowych c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 7.2 Niezależne zmienne losowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 7.3 Funkcje tworzące prawdopodobieństwa i reszt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 7.4 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2 8 2002.11.19 / 2h 8.1 Własności funkcji tworzących prawdopodobieństwa i reszt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Zbieżności zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 26 26 27 9 2002.11.26 / 2h 9.1 Zbieżności zmiennych losowych c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Prawo 0 – 1 Kołmogorowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 28 29 29 10 2002.12.03 / 2h 10.1 Nierówności typu Czebyszewa dla sum zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 30 30 11 2002.12.10 / 2h 11.1 Zbieżności szeregów zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Prawa wielkich liczb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 31 31 32 12 2002.12.17 / 2h 12.1 Prawa wielkich liczb – c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 33 34 13 2003.01.14 / 2h 13.1 Zasady egzaminu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2 Prawa wielkich liczb – c.d. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.3 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 35 35 35 14 2003.01.21 / 2h 14.1 Twierdzenie Moivre’a - Laplace’a – lokalne i globalne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 36 37 15 Egzamin 15.1 Zagadnienia na egzamin – część teoretyczna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2 Zadania z egzaminu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.3 Zadania z egzaminu poprawkowego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 38 40 40 3 Program wykładu Plan wykładu z przedmiotu Rachunek prawdopodobieństwa w roku akademickim 2002/2003 II rok matematyki finansowej - studia dzienne III roku matematyki ogólnej - studia dzienne III roku matematyki z metodami informatycznymi - studia dzienne 30 godzin wykładów prowadzący dr J. Kotowicz Zagadnienia wykładu.1 1. Częstotliwościowe pojęcie prawdopodobieństwa. Przestrzeń probabilistyczna. Własności prawdopodobieństwa. 1 godz. 2. Prawdopodobieństwo warunkowe, prawdopodobieństwo całkowite, wzór Bayesa. 1 godz. 3. Zdarzenie niezależne. Niezależność zespołowa i parami. 1 godz. 4. Zdarzenie zależne. Współczynnik korelacji zdarzeń. 1 godz. 5. Miara geometryczne i prawdopodobieństwo geometryczne. Paradoks Bertranda. Przestrzenie produktowe jako przestrzenie dla serii doświadczeń niezależnych. Schemat Bernoulliego i jego uogólnienia (zagadnienia Poissona, Pascala, uogólniony schemat Bernoulliego, Pólya). 1 godz. 6. Jednowymiarowa zmienna losowa. (a) Dystrybuanta i jej własności. 2 godz. (b) Przekształcenia zmiennej losowej - związek między dystrybuantami. 1 godz. (c) Parametry liczbowe i pozycyjne zmiennej losowej: momenty zwykłe, centralne, bezwzględne; wartość oczekiwana i wariancja; odchylenie standardowe, przeciętne, współczynnik zmienności, współczynnik asymetrii, kwantyle, mediana i moda - dominanta. 2 godz. 1 godz. (d) Przykłady rozkładów ciągłych i dyskretnych. 7. Nierówność związane z momentami dla zmiennych losowych. 2 godz. 8. Niezależność zmiennych losowych. 1 godz. 9. Funkcja tworząca rozkładu zmiennej losowej i jej własności. 1 godz. 10. Ciągi zmiennych losowych. Różne rodzaje zbieżności zmiennych losowych (z prawdopodobieństwem 1, według prawdopodobieństwa, według k - tego momentu bezwzględnego) i związek między nimi. 3 godz. 1 godz. 11. Prawo 0-1 Kołmogorowa. 12. Sumy niezależnych zmiennych losowych. Nierówności Lévy’ego - Ottavianiego oraz Kołmogorowa. Twierdzenie o dwóch szeregach. Twierdzenie Kołmogorowa o trzech szeregach. 2 godz. 13. Prawa wielkich liczb. 1 Mogą byc jeszcze modyfikowane 4 (a) Słabe prawo wielkich liczb (Bernoulliego, Czebyszewa, Chinczyna i in.). 2 godz. (b) Mocne prawo wielkich liczb i warunki dostateczne na jego zachodzenie. Twierdzenia Kołmogorowa 2 godz. 2 godz. 14. Twierdzenia Moivre’a - Laplace’a. Literatura podstawowa: 1. P. Billingsley, Prawdopodobieństwo i miara, PWN, Warszawa 1987 2. W. Feller, Wstęp do rachunku prawdopodobieństwa, PWN, Warszawa 1981 3. M. Fisz, Rachunek prawdopodobieństwa i statystyka matematyczna, PWN, Warszawa 1967 4. J. Jakubowski, R. Sztencel, Wstęp do rachunku prawdopodobieństwa, Script, Warszawa 2001 5. L. T. Kubik, Rachunek prawdopodobieństwa, PWN, Warszawa 1981 6. A. Płocki, Rachunek prawdopodobieństwa dla nauczycieli, PWN, Warszawa 1981 Literatura uzupełniająca: 1. I.J. Dinner i in., Rachunek prawdopodobieństwa w zadaniach i problemach, PWN, Warszawa 1979 2. T. Gersternkorn, T. Śródka, Kombinatoryka i rachunek prawdopodobieństwa, PWN, Warszawa 1983 3. W. Krysicki i in., Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, PWN, Warszawa 1986 4. J. Stojanow i in., Zbiór zadań z rachunku prawdopodobieństwa, PWN, Warszaw 1991 5. Statystyka zbiór zadań, PWE, Warszawa 1995 5 Wykład 1 2002.10.01 / 2h 1.1 Aksjomatyka rachunku prawdopodobieństwa Definicja 1.1 Przestrzenia probabilistyczną nazywamy przestrzeń mierzalną z miarą unormowaną. Oznaczamy ją (Ω, Σ, P ). Miarę probabilistyczną nazywamy prawdopodobieństwem. Twierdzenie 1.1 Własności prawdopodobieństwa P (∅) = 0 (1.1) ∀A,B∈Σ A ⊂ B ⇒ P (A) ¬ P (B) (1.2) ∀A,B∈Σ A ⊂ B ⇒ P (B \ A) ¬ P (B) − P (A) (1.3) 0 ∀A∈Σ P (A ) = 1 − P (A) (1.4) ∀A,B∈Σ P (A ∩ B) = P (A) + P (B) − P (A ∩ B) ∀n∈N ∀{A1 ,...,An }⊂Σ P ( n [ Ak ) = n X ∀{An :n­1}⊂Σ P ∞ [ ! An n=1 ¬ ∞ X X (−1)i−1 P 1¬k1 <...<ki ¬n i=1 k=1 (1.5) i \ ! Akl (1.6) l=1 P (An ) (1.7) n=1 ∞ [ ∀{An :n­1}⊂Σ {An : n ­ 1}- wstępujący ⇒ P ! An n=1 ∞ \ ∀{An :n­1}⊂Σ {An : n ­ 1}- zstępujący ⇒ P An n=1 = lim P (An ) (1.8) = lim P (An ) (1.9) n→∞ ! n→∞ Przyklad 1.1 Niech Ω = {ωO , ωR } , Σ = 2Ω oraz P będzie określone następująco: P (∅) = 0, P ({ωO }) = P ({ωR }) = Wówczas ({ωO , ωR } , Σ, P ) jest przestrzenią probabilistyczną 1 2. Przyklad 1.2 Niech Ω = [0, 1], Σ = B([0, 1]) oraz P będzie miarą generowaną przez długość odcinka. Wówczas ([0, 1], B([0, 1]), P ) jest przestrzenią probabilistyczną Uwaga 1.1 Nie są prawdziwe następujące implikacje P (A) = 0 ⇒ A = ∅ (1.10) P (A) = 1 ⇒ A = Ω (1.11) Przyklad 1.3 Dla przestrzeni z przykładu (1.2) określamy zbiory A = P (A) = P (B) = P (C) = 0. 6 1 2 , B = Q ∩ [0, 1] C = C - zbiór Cantora. Wówczas 1.2 Prawdopodobieństwo warunkowe i całkowite Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Definicja 1.2 Niech A, B ∈ Σ. Załóżmy, że P (B) 6= 0. Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warunkiem, że zaszło zdarzenie B (piszemy P (A/B)) nazywamy liczbę def P (A/B) = P (A ∩ B) P (B) (1.12) Niech card I ¬ ℵ0 . Definicja 1.3 Przeliczalną rodzinę zbiorów {Ai : i ∈ I} ⊂ Σ nazywamy układem zupełnym (zdarzeń) wtedy i tylko wtedy, gdy [ Ai = Ω (1.13) i∈I ∀i,j∈I i 6= j ⇒ Ai ∩ AJ = ∅ (1.14) ∀i∈I P (Ai ) 6= (1.15) 0 Twierdzenie 1.2 (Prawdopodobieństwo całkowite) Niech {Ai : i ∈ I} ⊂ Σ będzie układem zupełnym. Wówczas dla dowolnego zdarzenia A X P (A) = P (A/Ai )P (Ai ) (1.16) i∈I 1.3 Zadania Zadanie 1.1 Udowodnić (1.8) oraz (1.9). Zadanie 1.2 Niech ∀1¬k¬n−1 , P ( k \ Al ) > 0. (1.17) l=1 Udowodnić, że P( n \ Al ) = P (An / l=1 n−1 \ Al ) · P (An−1 / l=1 n−2 \ Al ) · . . . · P (A2 /A1 ) · P (A1 ). (1.18) l=1 Zadanie 1.3 Jeżeli wiadomo, że P (A/B) = P (B/A) ∧ P (A ∪ B) = 1 ∧ P (A ∩ B) > 0, to dla jakich rzeczywistych a mamy P (A) > a ? 7 (1.19) Wykład 2 2002.10.08 / 2h 2.1 Wzór Beyasa Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Niech card I ¬ ℵ0 . Twierdzenie 2.1 (Wzór Bayesa) Niech {Ai : i ∈ I} ⊂ Σ będzie układem zupełnym. Wówczas dla dowolnego zdarzenia A o niezerowym prawdopodobieństwie i dowolnego i0 ∈ I P (A/Ai0 )P (Ai0 ) P (Ai0 /A) = P P (A/Ai )P (Ai ) (2.1) i∈I 2.2 Zdarzenia niezależne Niech (Ω, Σ, P ) będzie ustaloną przestrzenią probabilistyczną. Definicja 2.1 Mówimy, że zdarzenia A, B z tej przestrzeni są niezależne wtedy i tylko wtedy, gdy P (A ∩ B) = P (A) · P (B) (2.2) Stwierdzenie 2.1 Niech A, B ∈ Σ oraz P (B) 6= 0. Zdarzenia A, B są niezależne wtedy i tylko wtedy, gdy P (A/B) = P (A) (2.3) Dany jest układ zdarzeń {A1 , . . . , An } ⊂ Σ. Definicja 2.2 Mówimy, że zdarzenia A1 , . . . , An są niezależne zespołowo wtedy i tylko wtedy, gdy ! k k \ Y ∀1¬k¬n ∀1¬i1 <...<ik ¬n P Ail = P (Ail ) l=1 (2.4) l=1 Definicja 2.3 Mówimy, że zdarzenia A1 , . . . , An są parami niezależne wtedy i tylko wtedy, gdy ∀1¬i<j¬n P (Ai ∩ Aj ) = P (Ai ) · P (Aj ) Przyklad 2.1 Niech Ω = [0, 1]2 oraz Σ = B([0, 1]2 ). Określamy zdarzenia następująco: 1 def def A ≡ B = {(x, y) : x > y} ∩ [0, 1]2 ∧ C = (x, y) : x < ∩ [0, 1]2 2 (2.5) (2.6) Wówczas P (A ∩ B ∩ C) = P (A)P (B)P (C), ale układ nie jest układem zdarzeń niezależnych i parami niezaleznych. Twierdzenie 2.2 Każdy układ zdarzeń niezależnych jest układem zdarzeń parami niezależnych. Przyklad 2.2 Na czworościennej kostce (czworościan foremny) napisano na trzech ścianach dokładnie jeden raz jedną z liczb 1, 2 i 3, zaś na czwartej ścianie je wszystkie. Określamy zdarzenia Ai - wyrzucono liczbę i. Zdarzenia A1 , A2 , A3 są parami niezależne, ale nie są niezależne zespołowo. 8 Twierdzenie 2.3 Istnieje układ zdarzeń parami niezależnych, który nie jest układem zdarzeń niezależnych. Definicja 2.4 Dany jest układ zdarzeń {An : n ­ 1} ⊂ Σ. Mówimy, że układ zdarzeń jest niezależny (inaczej układ zdarzeń {An : n ­ 1} jest układem zdarzeń niezależnych) wtedy i tylko wtedy, gdy dowolny skończony jego podukład jest układem zdarzeń niezależnych Twierdzenie 2.4 Zdarzenia rozłączne A i B są niezależne wtedy i tylko wtedy, gdy P (A) = 0 lub P (B) = 0. Twierdzenie 2.5 Niech card I ¬ ℵ0 . Niech A ∈ Σ oraz {Ai : i ∈ I} ⊂ Σ i zdarzenia {Ai : i ∈ I} są parami rozłączne. S Wtedy, o ile dla dowolnego i ∈ I niezależne są zdarzenia A i Ai , to niezależne są zdarzenia A, Ai . i∈I Twierdzenie 2.6 Oznaczymy A0 ≡ A oraz A1 ≡ A0 . Następujące warunki są równoważne A1 , . . . , An niezależne (2.7) ∀{ε1 ,...,εn }∈{1,...,n}{0,1} B1 = Aε11 , . . . , Bn n \ ∀{ε1 ,...,εn }∈{1,...,n}{0,1} P ! Aεkk k=1 = = n Y Aεnn niezależne (2.8) P (Aεkk ) (2.9) k=1 Twierdzenie 2.7 Niech {A1 , . . . , An } ⊂ Σ będzie układem zdarzeń niezależnych. Wówczas ! ! n n n \ Y [ A0k = 1 − (1 − P (Ak )) Ak = 1 − P P k=1 2.3 k=1 (2.10) k=1 Zdarzenie zależne. Współczynnik korelacji zdarzeń Niech (Ω, Σ, P ) będzie ustaloną przestrzenią probabilistyczną. Definicja 2.5 Mówimy, że zdarzenia A, B są zależne wtedy i tylko wtedy, gdy P (A ∩ B) 6= P (A) · P (B) (2.11) Inaczej mówimy, że nie są niezależne. Definicja 2.6 Niech A, B ∈ Σ oraz P (A), P (B) ∈]0, 1[. Współczynnikiem korelacji zdarzeń A i B nazywamy liczbę wyrażoną wzorem def P (A ∩ B) − P (A)P (B) ρ(A, B) = p (2.12) P (A)P (A0 )P (B)P (B 0 ) Twierdzenie 2.8 Niech A, B ∈ Σ oraz P (A), P (B) ∈]0, 1[. Wtedy ρ(A, B) = ρ(B, A) 0 (2.13) 0 ρ(A , B) = ρ(A, B ) = −ρ(A, B) 0 0 ρ(A , B ) = ρ(A, B) (2.15) ρ(A, B) = 0 ⇔ A, B niezależne 0 2.4 (2.14) (2.16) ρ(A, A) = 1 ∧ ρ(A, A ) = −1 (2.17) ρ(A, B) = 1 ⇒ P (A) = P (A ∩ B) = P (B) (≡ P (A ÷ B) = 0) (2.18) ρ(A, B) = −1 ⇒ P (A ∩ B) = 0 (2.19) |ρ(A, B)| ¬ 1 (2.20) Prawdopodobieństwo geometryczne. Paradoks Bertranda Definicja 2.7 Niech Ω będzie takie, że card Ω = ℵ0 oraz miech Σ = 2X . Przyporządkujmy dowolnemu elementowi ω ∈ Ω P nieujemną liczbę pω następująco P ({ω}) = pω , gdzie pω = 1. Wówczas (Ω, Σ, P ) jest przestrzenią probabilistyczną ω∈Ω przeliczalną. 9 Uwaga 2.1 Takie przyporządkowanie jest możliwe wyłącznie dla zbioru przeliczalnego. Jest to uogólnienie prawdopodobieństwa ze zbioru skończonego. W przypadku zbiorów nieprzeliczalnych dochodzi trudność z określeniem przestrzeni, jak i miary probabilistycznej na tej przestrzeni. Przyklad 2.3 (Paradoks Bertranda) Dane jest koło o promieniu r > 0, Na kole wybieramy losowo cięciwę. Jakie jest prawdopodobieństwo, że będzie miała ona długość większą od długości boku trójkąta równobocznego wpisanego w brzeg tego koła (okrąg) ? Rozważyć następujące wybory: (i) położenie środka cięciwy na kole; (ii) ustalony kierunek cięciwy; (iii) ustalony jeden z końców cięciwy. 2.5 Zadania Zadanie 2.1 Udowodnić, że dla dowolnych niezależnych zdarzeń A, B niezależne są zdarzenia B i A. Zadanie 2.2 Udowodnić, że dla dowolnych niezależnych zdarzeń A, B niezależne są zdarzenia A, B 0 . Zadanie 2.3 Udowodnić, że dla dowolnych niezależnych zdarzeń A, B niezależne są zdarzenia A0 , B 0 . Zadanie 2.4 Udowodnić, że dla dowolnego zdarzenia A niezależne są zdarzenia A, ∅ oraz A, Ω. Zadanie 2.5 Udowodnić, że dowolne zdarzenia A, B takie, że P (A) = 0 lub P (A) = 1 są niezależne. Zadanie 2.6 Udowodnić twierdzenie 2.6. Zadanie 2.7 Udowodnić warunki (2.13 – 2.17) twierdzenia 2.8. Zadanie 2.8 Niech P (A/B) = P (A/B 0 ) oraz P (B) > 0, P (B 0 ) > 0. Udowodnić, że zdarzenia A, B są niezależne. Zadanie 2.9 Niech A ⊆ B, A i C oraz B i C są zdarzeniami niezależnymi. Udowodnić, że zdarzenia B \ A i C są również niezależne. Zadanie 2.10 W czterech następnych zadaniach mamy Ω =]0, 1], a P jest miarą na ]0,1] generowaną przez długość (tzn. mamy doczynienia z przestrzenią probabilistyczną (]0, 1], B(]0, 1]), PL )). Podać przykład zdarzeń niezależnych A1 , A2 takich, że P (A1 ) = P (A2 ) = 23 . Zadanie 2.11 Podać przykład zdarzeń niezależnych A1 , A2 , A3 takich, że P (A1 ) = P (A2 ) = P (A3 ) = 12 . Zadanie 2.12 Podać przykład zdarzeń niezależnych A1 , A2 , . . . , An takich, że P (A1 ) = P (A2 ) = . . . = P (A3 ) = 12 . Zadanie 2.13 Podać przykład nieskończonego przeliczalnego układu zdarzeń niezależnych. Zadanie 2.14 Czy prawdziwe jest zdanie: Jeśli dwa zdarzenia wykluczają się, to są one zależne ?. Odpowiedź uzasadnij tzn. w przypadku pozytywnej, przeprowadź dowód zaś w przypadku negatywnej podaj kontrprzykład, ponadto podaj w tym przypadku, o ile istnieją, warunki wystarczające, aby zdanie było prawdzie. 10 Wykład 3 2002.10.15 / 2h 3.1 Schemat Bernoulliego i jego uogólnienia. Schematy urnowe Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Istniej miara probabilistyczna – prawdopodobieństwo w przestrzeni produktowej (Ωn , σa(Σn ), Pn ), gdzie X n jest n krotnym produktem kartezjańskim X, zaś σa(Σn ) jest najmniejszym σ ciałem podzbiorów Ωn zawierającym Σn . Twierdzenie 3.1 (Schemat Bernoulliego.) Jeżeli przeprowadzono n jednakowych i niezależnych prób, gdzie zdarzenie A mogło pojawić się w pojedynczej próbie z prawdopodobieństwem p, to prawdopodobieństwo że zaszło ono dokładnie w k próbach (0 ¬ k ¬ n) wynosi n k p (1 − p)n−k (3.1) k Uwaga 3.1 n identycznych prób będziemy nazywać serią (długości n). Twierdzenie 3.2 (Uogólniony schemat Bernoulliego.) Jeżeli przeprowadzono n jednakowych i niezależnych prób, gdzie w pojedynczej próbie mogły pojawić się dokładnie jedno ze zdarzeń A1 , . . . , Ar z prawdopodobieństwem równym odpowiednio r P p1 , . . . pr , gdzie pi = 1, to prawdopodobieństwo że każde zdarzenie Ai zaszło dokładnie ni - razy (0 ¬ ni ¬ n), gdzie i=1 i = 1, . . . , r i ∞ P i=r ni = n wynosi r Y n! pni n1 ! · · · nr ! i=1 i (3.2) Twierdzenie 3.3 (Zagadnienie Poissona.) Przeprowadzamy ciąg serii doświadczeń według schematu Bernoulliego tak, aby w poszczególnych seriach liczb doświadczeń wzrastała do nieskończoności, a jednocześnie prawdopodobieństwo sukcesu pn dążyło do zera, przy czym npn = λ było stałe. Jeżeli oznaczymy przez An,k zdarzenie, że w n - tej serii otrzymano dokładnie k sukcesów, to λk lim P (An,k ) = e−λ (3.3) n→∞ k! Twierdzenie 3.4 (Zagadnienie Pascala.) Jeżeli przeprowadzono n prób według schematu Bernoulliego, to prawdopodobieństwo że do uzyskania k sukcesów będzie potrzebnych dokładnie n prób wynosi n−1 k p (1 − p)n−k (3.4) k−1 3.2 Jednowymiarowe zmienne losowe Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Rozważmy (R, B(R)), gdzie B(R) jest rodzina zbiorów borelowskich. Definicja 3.1 Jednowymiarową zmienną losową nazywamy każde odwzorowanie X: Ω → R takie, że ∀B∈B(R) X −1 (B) ∈ Σ. 11 (3.5) Twierdzenie 3.5 Jeżeli odwzorowanie X : Ω → R jest zmienną losową wtedy i tylko wtedy, gdy ∀t∈R X −1 ((−∞, t]) ∈ Σ. (3.6) Uwaga 3.2 Warunek (3.6) można zapisać w postaci ∀t∈R {ω : X(ω) ¬ t} ∈ Σ. Definicja 3.2 Rozkładem prawdopodobieństwa zmiennej losowej X nazywamy indukowane odwzorowanie µX : R → R takie, że ∀B∈B(R) µX (B) = P (X −1 (B)), (3.7) które jest nieujemny, przeliczalnie addytywne oraz spełnia warunek µX (R) = 1. Uwaga 3.3 Będziemy pomijać indeks X, jeżli będzie wiadomo o jakiej zmiennej mówimy. Definicja 3.3 Dystrybuantą jednowymiarowej zmienne losowej nazywamy funkcję FX : R → R określoną wzorem def FX (t) = P (X ¬ t) (3.8) Twierdzenie 3.6 (Własności dystrybuanty) Niech F będzie dystrybuantą jednowymiarowej zmiennej losowej X. Wówczas (i) F jest funkcją niemalejącą. (ii) F jest funkcją prawostronnie ciągłą. (iii) lim F (x) = 1. x→+∞ (iv) lim F (x) = 0. x→−∞ Wniosek 3.1 Dystrybuanta ma co najwyżej przeliczalną ilość punktów nieciągłości. Twierdzenie 3.7 Jeżeli funkcja F spełnia warunki (i)– (iv) twierdzenia (3.6), to jest dystrybuantą pewnego rozkładu. Definicja 3.4 Mówimy, że zmienna losowa X ma rozkład ciągły wtedy i tylko wtedy, gdy istnieje funkcja borelowska1 f : R → R taka, że Z t ∀t∈R F (t) = f (r)dr. (3.9) −∞ Definicja 3.5 Jeżeli dla rozkładu prawdopodobieństwa na Rn µ istnieje gęstość, to taki rozkład nazywamy ciągłym. 3.3 Zadania Zadanie 3.1 (Schemat urnowy Pólya.) Z urny o b białych i c czarnych kulach losujemy jedną kulę, którą zwracamy do urny wykonując jeszcze dokładnie jedną z czynności (i) dodajemy do urny s kul tego samego koloru, co wylosowana kula; (ii) wyjmujemy z urny s kul tego samego koloru, co wylosowana kula; (iii) nic nie robimy. Obliczyć prawdopodobieństwo, że postępując tak n razy wylosujemy dokładnie k razy kulę białą. Kiedy rozwiązanie ma niezerowe prawdopodobieństwo (dla jakich liczb b, c, s, n i k) ? Zadanie 3.2 Udowodnić warunki (iii) – (iv) twierdzenia 3.6. Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną oraz niech {An : n ­ 1} ⊂ Σ. 1 Dodano w dniu 2002.10.22 12 Zadanie 3.3 Udowodnić, że ∀ω∈Ω ∀ω∈Ω ω∈ ω∈ ∞ [ ∞ \ ∞ [ ∞ \ n=1 m=n Am ⇔ ∃(nk )∈RN (nk )-rosnący ∧ ∀k∈N ω ∈ Ank n=1 m=n ∞ ∞ \ [ ! Am ⇔ n=1 m=n !0 ∞ \ ∞ [ Am ∃k∈N ∀N3n­k ω ∈ An = n=1 m=n ∞ \ ∞ [ ! A0m n=1 m=n !0 Am = ∞ [ ∞ \ A0m n=1 m=n Zadanie 3.4 Udowodnić następujący lemat Borela - Cantelliego ∞ X n=1 P (An ) < +∞ ⇒ P ( ∞ [ ∞ \ Am ) = 0 (3.10) n=1 m=n {An : n ­ 1}-układ niezależny ∧ ∞ X n=1 P (An ) = +∞ ⇒ P ( ∞ [ ∞ \ Am ) = 1 (3.11) n=1 m=n Zadanie 3.5 W urnie znajduje się n jednakowych kul z numerami od 1 do n. Kule losujemy po jednej bez zwracania. Obliczyć prawdopodobieństwo, że przynajmniej raz numer kuli będzie się zgadzał z numerem losowania. Zadanie 3.6 W m różnych komórkach rozmieszczono n czerwonych i r zielonych kul, przy czym w każdej komórce może być co najwyżej jedna kula n + r ¬ m. Ile jest takich rozmieszczeń, jeśli • kule są nierozróżnialne; • kule są rozróżnialne. Zadanie 3.7 W sposób losowy ustawiono w ciąg m zer i n jedynek. Obliczyć prawdopodobieństwo zdarzenia, że ciąg rozpoczyna się dokładnie od k zer i kończy się dokładnie l jedynkami, jeśli k ¬ m i l ¬ n. Zadanie 3.8 Dany jest odcinek [0, L] i punkt r należący do tego odcinka. Z odcinka losujemy dwa punkty x1 , x2 . Zmienna losowa X przyjmuje wartość 1, gdy punkt r znajduje się miedzy wylosowanymi punktami oraz 0 w przeciwnym wypadku. Podać rozkład zmiennej losowej X. 13 Wykład 4 2002.10.22 / 2h 4.1 Uzupełnienia poprzedniego wykładu Definicja 4.1 Funkcję ϕ : R → R nazywamy borelowską wtedy i tylko wtedy, gdy ∀A∈B(R) ϕ−1 (A) ∈ B(R) (4.1) W definicji podanej na wykładzie (definicja 3.4) o funkcji f powinno być założone, że jest borelowska. Uwaga 4.1 Często zamiast mówić o konkretnej zmiennej losowej bedziemy mówili o rozkładach prawdopodobieństwa. Definicja 4.2 Mówimy, że µ: R → R jest rozkładem prawdopodobieństwa na R wtedy i tylko wtedy, gdy µ(R) = 1 µ­0 ∀{An :n­1}⊂B(R) (∀n,k∈N n 6= k ⇒ An ∩ Ak = ∅) ⇒ µ +∞ [ ! An = n=1 +∞ X µ(An ). n=1 Definicja 4.3 Dystrybuantą rozkładu prawdopodobieństwa µ na R nazywamy funkcję Fµ : R → R, określoną zależnością def Fµ (t) = µ((−∞, t]). 4.2 (4.2) Jednowymiarowe zmienne losowe c.d. Definicja 4.4 σ - ciałem generowanym przez jednowymiarową zmienną losową X, oznaczam przez σ(X), nazywamy najmniejsze σ - ciało podzbiorów Ω zawarte w Σ, dla którego zachodzi warunek ∀A∈B(R) X −1 (A) ∈ σ(X). (4.3) Definicja 4.5 Rozkład prawdopodobieństwa µ na R nazywamy dyskretnym wtedy i tylko wtedy, gdy istnieje zbiór co najwyżej przeliczalny1 S ⊂ R dla którego µ(S) = 1. Definicja 4.6 Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną, zaś X będzie jednowymiarową zmienną losową. Mówimy, że zbiór WX jest zbiorem wartości zmiennej losowej X wtedy i tylko wtedy, gdy ∀A⊂R A ∩ WX = ∅ ⇒ P ({ω : X(ω) ∈ A}) = 0. (4.4) Definicja 4.7 Zmienną losową nazywamy dyskretną wtedy i tylko wtedy, gdy jej zbiór wartości jest co najwyżej przeliczalny. Definicja 4.8 Mówimy, że jednowymiarowa zmienna losowa ma rozkład osobliwy (względem miary Lebesgue’a) wtedy i tylko wtedy, gdy nie jest dyskretna, a pochodna dystrybuanty prawie wszędzie równa jest zero. 1 Czyli skończony lub równoliczny ze zbiorem liczb naturalnych. 14 Przyklad 4.1 Niech C będzie zbiorem Cantora. Niech F (r) = 0 1 dla r ¬ 0 . dla r > 1 Jeżeli wyrzucaliśmy z odcinka jego środek to określamy na nim wartość F(r) jako średnią arytmetyczną wartości ”na prawo i lewo na nim” (np. na odcinku ] 31 , 23 [ wynosi ona 12 . Otrzymana funkcja jest ciągła, niemalejąca oraz granica w plus nieskończoności wynosi 1, zaś w minus nieskończoności 0. Jest ona dytrybuanta rozkładu Cantora. Twierdzenie 4.1 (Lebesgue’a. Bez dowodu.) Każdą dystrybuanta jednowymiarowej zmiennej losowej X można jednoznacznie przedstawić jako kombinację wypukłą dystrybuant rozkładu dyskretnego, ciągłego i osobliwego tzn. ∃a,b,c­0 ∃Fo ,Fc ,Fd a + b + c = 1 ⇒ F = a · Fo + b · Fc + c · Fd , (4.5) gdzie Fo - dystrybuanta rozkładu osobliwego, Fc - dystrybuanta rozkładu ciągłego, zaś Fd - dystrybuanta rozkładu dyskretnego. Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Lemat 4.1 Niech X będzie jednowymiarową zmienną losową o dystrybuancie F. Niech Y=aX+b, gdzie a ∈ R \ {0} oraz b ∈ R, ma dystrybuantę G. Wówczas ( dla a > 0 F r−b a (4.6) G(r) = r−b 1 − F r−b − P {ω : X(ω) = } dla a < 0 a a Wniosek 4.1 Jeżeli spełnione są założenia lematu (4.1) oraz zmienna losowa X ma rozkład ciągły, to wówczas ( F r−b dla a > 0 a G(r) = 1 − F r−b dla a < 0 a (4.7) Wniosek 4.2 Jeżeli spełnione są założenia lematu (4.1) oraz f jest gęstością zmiennej losowej X, zaś g zmiennej losowej Y, to 1 r−b g(r) = f( ) (4.8) |a| a Twierdzenie 4.2 Jeżeli zmienna losowa X ma rozkład ciągły o gęstości f i X(Ω) ⊂]a, b[, funkcja ϕ :]a, b[→ R jest funkcją klasy C 1 (]a, b[) oraz ϕ0 (x) 6= 0 dla dowolnego x ∈]a, b[, to zmienna losowa Y = ϕ(X) ma rozkład ciągły o gęstości g(y) = f (ϕ−1 (y))|(ϕ−1 (y))0 |χϕ(]a,b[) (y) Twierdzenie 4.3 Niech zmienna losowa X ma rozkład ciągły o gęstości f. Niech X(Ω) ⊂ I = (4.9) n S [ak , bk ], gdzie dla dowolnych k=1 1 1 ¬ k < l ¬ n zachodzi ]ak , bk [∩]al , bl [= ∅. Niech funkcja ϕ : I → R będzie funkcją klasy C (]ak , bk [) oraz ϕ0 (x) 6= 0 dla dowolnego x ∈]ak , bk [ i dowolnego 1 ¬ k ¬ n, to zmienna losowa Y = ϕ(X) ma rozkład ciągły o gęstości g(y) = n X f (ϕ−1 (y))|(ϕ−1 (y))0 |χϕ(]ak ,bk [) (y) (4.10) k=1 def Przyklad 4.2 Niech f = 12 I[−1,1] , Funkcja ta jest gęstością. Niech φ(r) = r2 . Oznaczmy przez g gęstość zmiennej losowej Y = φ(X). Wtedy 1 √ √ g(y) = (f (− y) + f ( y)) · √ I[0,1] (y). 2 y 4.3 Wartość oczekiwana zmiennej losowej Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Uwaga 4.2 Niech r ∈ R+ . Wprowadzimy następujące oznaczenia Z |X|r dP < +∞ ⇔ X ∈ Lr (Ω, Σ, P ) ≡ Lr (Ω). Ω 15 (4.11) Całkę występującą we wzorze (4.11) będziemy rozumieli w sposób następujący R r Z |x| f (x)dx X ma rozkład ciągły o gęstości f R r ∞ |X| dP = P |xn |r pk X ma rozkład dyskretny o zbiorze wartości WX , Ω (4.12) n=1 gdzie pk = P ({ω : X(ω) = xk }). Definicja 4.9 Niech dla jednowymiarowej zmiennej losowej X zachodzi X ∈ L1 (Ω, Σ, P ). Wówczas wartością oczekiwaną zmiennej losowej X nazywamy liczbę Z def E(X) = XdP (4.13) Ω 4.4 Zadania Zadanie 4.1 Udowodnić twierdzenie 4.3. Zadanie 4.2 Wyznaczyć gęstość prawdopodobieństwa zmiennej losowej Y = 12 X 2 , gdzie zmienna losowa X ∈ N (0, 1). Zadanie 4.3 Zmienna losowa X ma rozkład jednostajny na (−1, 1). Wyznaczyć gęstość zmiennej losowej Y = |X|. Zadanie 4.4 Podać przykład dystrybuanty takiej, że zbiór punktów nieciągłości jest gęsty w R. Zadanie 4.5 Mówimy, że zmienna losowa X ma rozkład symetryczny, jeśli zmienna −X posiada ten sam rozkład. Wyrazić własność symetryczności ciągłej zmiennej losowej za pomocą jej dystrybuanty oraz gęstości. Zadanie 4.6 Niech zmienna losowa X ma rozkład wykładniczy z parametrem 1, zaś [·] oznacza część całkowitą. Wyznaczyć prawdopodobieństwo zdarzenia A = {ω : [X(ω)] ∈ N ∪ {0}}. Zadanie 4.7 Niech zmienna losowa X ma rozkład wykładniczy z parametrem λ. Wyznaczyć rozkład zmiennej losowej • Y = 2X − 1; √ • Y = X; • Y = X α , α > 0; • Y = αX, α > 0; 16 Wykład 5 2002.10.29 / 2h 5.1 Parametry liczbowe rozkładów c.d. Twierdzenie 5.1 (Własności wartości oczekiwanej)1 Niech X i Y będą jednowymiarowymi zmiennymi losowymi. Załóżmy, że istnieją wartości oczekiwane X i Y. Wtedy (i) Jeżeli X ­ 0, to E(X) ­ 0 (ii) |E(X)| ¬ E(|X|) (iii) Dla dowolnych a, b ∈ R istnieje wartość oczekiwana zmiennej losowej aX + bY i wyraża się ona wzorem E(aX + bY ) = aE(X) + bE(Y ) (5.1) (iv) (Lemat Fatou) Dla dowolnego ciągu nieujemnych zmiennych losowych {Xn : n ­ 1} E(lim inf Xn ) ¬ lim inf E(Xn ) n→∞ n→∞ (5.2) (v) (Twierdzenie Lebesgue’a - Beppo Leviego) Dla dowolnego niemalejącego ciągu nieujemnych zmiennych losowych {Xn : n ­ 1} zachodzi E( lim Xn ) = lim E(Xn ) (5.3) n→∞ n→∞ (vi) (Twierdzenie Lebesgue’a o zbieżności zmajoryzowanej) Jeżeli dla ciągu zmiennych losowych {Xn : n ­ 1} istnieje całkowalna zmienna losowa Z taka ,że ∀n∈N |Xn | ¬ Z, to spełniona jest równość (5.3) Wniosek 5.1 Jeżeli dla zmiennych losowych Xi (i = 1, . . . , n) istnieją ich wartości oczekiwane, to E(X1 + . . . + Xn ) = E(X1 ) + . . . + E(Xn ) (5.4) Wniosek 5.2 Jeśli zmienna losowa X ma rozkład dyskretny o zbiorze wartości WX , to wartość oczekiwana zmiennej losowej P ϕ(X) istnieje wtedy i tylko wtedy, gdy szereg |ϕ(x)|P ({x}) jest zbieżny. Ponadto wartość oczekiwana wyraża się wzorem x∈WX E(ϕ(X)) = X ϕ(x)P ({x}) (5.5) x∈WX Przyklad 5.1 Zmienna losowa o gęstości2 f (r) = 1 1 π 1 + r2 nie posiada wartości oczekiwanej. Przed podaniem uogólnienia wartośc oczekiwanej sformułujmy następujący lemat 1 Dowody 2 Jest własności (iv)–(vi) pomijamy. Można je znaleźć w książce J. Jakubowskiego i R. Sztencela to rozkład Cauchy’ego 17 (5.6) Lemat 5.1 (Dowód póżniej po nierówności Höldera) Niech R 3 r ­ 1 oraz q ∈ [1, r]. Wtedy jeżeli jest skończona całka R R |X|r dP , to jest skończona całka Ω |X|q dP . Ω Uwaga 5.1 Pojęcie wartości oczekiwanej można uogólnić zastępując warunek całkowalności innym. Definicja 5.1 Niech R 3 r ­ 1, zaś a liczbą rzeczywistą, X jednowymiarową zmienną losową. Niech zmienna losowa X będzie całkowalna z r - tą potęgą.3 (i) Momentem zwykłym rzędu r względem liczby a zmiennej losowej X nazywamy liczbę równą Z def E((X − a)r ) = (X − a)r dP, (5.7) Ω o ile wyrażenie występujące pod całką jest określone.4 (ii) Momentem absolutnym rzędu r względem liczby a zmiennej losowej X nazywamy liczbę równą Z r def E(|X − a| ) = |X − a|r dP (5.8) Ω (iii) Jeżeli a = 0, to są to momenty zwykłe lub absolutne rzędu r. (iv) Jeżeli a = E(X) otrzymujemy momenty centralne rzędu r zwykłe i absolutne. Definicja 5.2 Niech X ∈ L2 (Ω). Liczbę D2 (X) równą def D2 (X) = E((X − E(X))2 ) (5.9) nazywamy wariancją zmiennej losowej X. Wniosek 5.3 Niech X ∈ L2 (Ω). Wtedy D2 (X) = E(X 2 ) − (E(X))2 . Twierdzenie 5.2 Niech X ∈ L2 (Ω). Wówczas5 D2 (X) ­ 0 ∀a∈R ∀a∈R (5.10) 2 2 2 D (aX) = a D (X) 2 2 D (X + a) = D (X) D2 (X) = 0 ⇔ ∃a∈R P ({ω : X(ω) = a}) = 1 (5.11) (5.12) (5.13) Wniosek 5.4 Niech X ∈ L2 (Ω). Wtedy p E(X 2 ) |E(X)| ¬ (5.14) Wniosek 5.5 Niech X ∈ L2 (Ω). Wtedy D2 (X) = inf E((X − a)2 ) a∈R (5.15) Definicja 5.3 Niech X ∈ L2 (Ω). Odchyleniem standardowym zmiennej losowej X nazywamy liczbę równą σ(X) ≡ D(X) = p D2 (X) Definicja 5.4 Niech X ∈ L1 (Ω). Odchyleniem przeciętnym zmiennej losowej X nazywamy liczbę równą Z def d(X) = |X − E(X)|dP (5.16) (5.17) Ω Definicja 5.5 Niech X ∈ L2 (Ω) oraz E(X) 6= 0. Współczynnikiem zmienności zmiennej losowej X nazywamy liczbę równą def νX = D(X) E(X) (5.18) 3 Nie trzeba zakładać, że całkowalna z r - tą potęgą jest zmienna X − a na podstawie lematu 5.1 i z faktu, że funkcja stała jest całkowalna względem miary probabilistycznej. 4 Jest ono zawsze określone, gdy r ∈ N. 5 Równoważność warunku 5.13 zostanie pokazana później. 18 Definicja 5.6 Niech EX ∈ L3 (Ω) oraz D2 (X) 6= 0. Współczynnikiem asymetrii (skośności) zmiennej losowej X nazywamy liczbę równą 3 def E((X − E(X)) ) γ(X) = (5.19) (σ(X))3 Definicja 5.7 Niech X ∈ L1 (Ω) oraz 0 6= E(X). Wskaźnikiem nierównomierności zmiennej losowej X nazywamy liczbę równą def d(X) (5.20) H(X) = E(X) 5.2 Parametry pozycyjne rozkładów Definicja 5.8 Niech p ∈]0, 1[. Kwantylem rzędu p nazywamy liczbę xp taką, że P ({ω : X(ω) ¬ xp }) ­ p ∧ P ({ω : X(ω) ­ xp }) ­ 1 − p Definicja 5.9 Medianą nazywamy kwantyl rzędu 1 2 (5.21) i oznaczamy ją Me. Definicja 5.10 Modą (dominantą) nazywamy w przypadku rozkładu dyskretnego wartość zmiennej losowej o największym prawdopodobieństwie, zaś w przypadku rozkładu ciągłego każde maksimum lokalne gęstości. Oznaczamy ją Mo. Definicja 5.11 Odchyleniem ćwiartkowym6 nazywamy liczbę def Q= 5.3 x 43 − x 14 2 (5.22) Zadania Zadanie 5.1 Udowodnić, że jeśli X jest zmienną losową nieujemną, to Z +∞ Z +∞ E(X) = (1 − FX (t))dt = P ({ω : X(ω) > t}) dt, 0 (5.23) 0 przy czym istnienie jednej ze stron implikuje istnienie drugiej i równość całek. Zadanie 5.2 Podać przykład dystrybuanty takiej, że zbiór punktów nieciągłości jest gęsty w R. Zadanie 5.3 Mówimy, że zmienna losowa X ma rozkład symetryczny, jeśli zmienna −X posiada ten sam rozkład. Wyrazić własność symetryczności ciągłej zmiennej losowej za pomocą jej dystrybuanty oraz gęstości. Zadanie 5.4 Niech zmienna losowa X ma rozkład wykładniczy z parametrem 1, zaś [·] oznacza część całkowitą. Wyznaczyć prawdopodobieństwo zdarzenia A = {ω : [X(ω)] ∈ N ∪ {0}}. 6 Jest to parametr liczbowy 19 Wykład 6 2002.11.05 / 2h 6.1 Przykłady jednowymiarowych rozkładów Rozkłady dyskretne. Przyklad 6.1 (Rozkład jednopunktowy.) WX = {x1 } i P ({x1 }) = 1. E(X) = x1 (6.1) D2 (X) = 0 Przyklad 6.2 (Rozkład dwupunktowy.) Niech p ∈]0, 1[. WX = {x1 , x2 } , x1 6= x2 , P ({x1 }) = p, P ({x2 }) = 1 − p. (6.2) W szczególnym przypadku, gdy x1 = 0, zaś x2 = 1 taki rozkład nazywamy rozkładem zero - jedynkowym. E(X) = px1 + (1 − p)x2 D2 (X) = p(1 − p)(x1 − x2 )2 Uwaga 6.1 Jeżeli zbiór wartości dyskretnego rozkładu X jest podzbiorem zbioru liczb naturalnych, to przyjmujemy następujące oznaczenie P ({k}) dla k ∈ WX ozn pk = (6.3) 0 dla k ∈ / WX Przyklad 6.3 (Rozkład dwumianowy (Bernoulliego) z parametrami n i p.) Niech p ∈ [0, 1] oraz n ∈ N. n k WX = {0, 1, . . . , n} , pk = p (1 − p)n−k k E(X) = np (6.4) D2 (X) = np(1 − p) Przyklad 6.4 (Rozkład Poissona z parametrem λ.) Niech λ ∈ R+ . WX = {0} ∪ N, pk = e−λ E(X) = λ λk k! (6.5) D2 (X) = λ Przyklad 6.5 (Rozkład geometryczny z parametrem p.) Niech p ∈]0, 1[. WX = N, pk = p(1 − p)k−1 . E(X) = 1 p D2 (X) = 1−p p2 Przyklad 6.6 (Rozkład ujemny dwumianowy z parametrami p,α.) Niech p ∈]0, 1[ oraz α > 0. α+k−1 α WX = {0} ∪ N, pk = p (1 − p)k . k E(X) = α(1−p) p (6.6) D2 (X) = α(1−p) p2 20 (6.7) Przyklad 6.7 (Rozkład Pascala z parametrem p.)1 WX = {k, k + 1, . . .} , pl = l−1 k p (1 − p)l−k . k−1 (6.8) Lub inaczej WX = {0} ∪ N, pl = E(X) = k(1−p) p D2 (X) = l+k−1 k p (1 − p)l . k−1 (6.9) k(1−p) p2 Przyklad 6.8 (Rozkład hipergeometryczny z parametrami a, b, n.) Niech a + b > n oraz a ­ n i b ­ n. b a WX = {0, 1, . . . , n} , pk = E(X) = an a+b D2 (X) = k n−k a+b n . (6.10) abn(a+b−n) (a+b)2 (a+b−1) Rozkłady ciągłe. Przyklad 6.9 (Rozkład ciągły na odcinku ]a, b[.) Niech a, b ∈ R oraz a < b 1 dla r ∈]a, b[ def f (r) = b−1 0 dla r ∈]a, / b[ E(X) = a+b 2 D2 (X) = (b−a)2 12 Przyklad 6.10 (Rozkład wykładniczy z parametrem λ.) Niech λ ∈ R+ −λr λe dla r > 0 def −λr f (r) = λe χ]0,∞[ (r) ≡ 0 dla r ¬ 0 E(X) = 1 λ D2 (X) = (6.11) (6.12) 1 λ2 Przyklad 6.11 (Rozkład Laplace’a z parametrem λ.) Niech λ ∈ R+ def f (r) = E(X) = 0 D2 (X) = 1 −λ|r| λe 2 (6.13) 2 λ2 Przyklad 6.12 (Rozkład Cauchy’ego z parametrami a, b.) Niech a ∈ R oraz b ∈ R+ def f (r) = 1 b π b2 + (r − a)2 (6.14) Nie posiada wartości oczekiwanej, a więc i wariancji. Przyklad 6.13 (Rozkład normalny (Gaussa) z parametrami m, σ.) Niech m ∈ R oraz σ ∈ R+ 1 (r − m)2 def f (r) = √ exp − 2σ 2 2πσ E(X) = m (6.15) D2 (X) = σ 2 Definicja 6.1 Funkcję dla p > 0 +∞ Z Γ(p) = xp−1 e−x dx def 0 nazywamy funkcją gamma (całką Eulera II rodzaju) 1 Jest to szczegónly przypadek rozkładu ujemnego dwumianowego. 21 (6.16) Definicja 6.2 Funkcję dla p, q > 0 def Z1 β(p, q) = xp−1 (1 − x)q−1 dx (6.17) 0 nazywamy funkcją beta (całką Eulera I rodzaju) Przyklad 6.14 (Rozkład gamma z parametrami b, p.) Niech b, p ∈ R+ def f (r) = E(X) = p b D2 (X) = bp p−1 −br x e χ]0,+∞[ (r) Γ(p) (6.18) p b2 Przyklad 6.15 (Rozkład beta z parametrami p, q.) Niech p, q ∈ R+ def f (r) = E(X) = p p+q D2 (X) = 1 xp−1 (1 − x)q−1 χ[0,1] (r) β(p, q) (6.19) pq (p+q)2 (p+q+1) Lemat 6.1 (Obowiązuje znajomość powyższych faktów.) Niech p > 0. Wówczas Γ(p + 1) = pΓ(p) (6.20) Γ(1) = 1 (6.21) Γ(n + 1) = n! (6.22) Lemat 6.2 (Obowiązuje znajomość powyższych faktów.) Niech p, q > 0. Wówczas β(p, q) = β(q, p) q−1 β(p, q) = β(p, q − 1) p+q−1 1 β(p, 1) = p n−1 (n − 1)! β(p, n) = β(p, n − 1) = β(p, 1) p+n−1 (p + n − 1) · . . . · (p + 1) (n − 1)!(m − 1)! Γ(n)Γ(m) β(m, n) = = (m + n − 1)! Γ(m + n) 6.2 (6.23) (6.24) (6.25) (6.26) (6.27) Nierówność dla zmiennych losowych Twierdzenie 6.1 (Nierówność Schwarza) Niech X, Y ∈ L2 (Ω). Wówczas zmienna losowa XY ∈ L1 (Ω) oraz E(|XY |) ¬ p E(X 2 )E(Y 2 ) (6.28) |E(XY )| ¬ p E(X 2 )E(Y 2 ) (6.29) Wniosek 6.1 Niech X, Y ∈ L2 (Ω). Wówczas Twierdzenie 6.2 (Nierówność Jensena) Niech X ∈ L1 (Ω). Wówczas dla dowolnej funkcji wypukłej φ: R → R takiej, że φ(X) ∈ L1 (Ω) zachodzi φ(E(X)) ¬ E(φ(X)) (6.30) 6.3 Zadania Zadanie 6.1 Policzyć wszystkie wartośc oczekiwane oraz wariancje rozkładów podanych na wykładzie. 22 Wykład 7 2002.11.12 / 2h 7.1 Nierówność dla zmiennych losowych c.d. Twierdzenie 7.1 (Nierówność Höldera) Niech R 3 p > 1 oraz R 3 q > 1 oraz p−1 + q −1 = 1. Niech X ∈ Lp (Ω) oraz Y ∈ Lq (Ω). Wówczas zmienna losowa XY ∈ L1 (Ω) oraz 1 1 E(|XY |) ¬ (E(|X|p )) p (E(|Y |q )) q (7.1) Twierdzenie 7.2 (Nierówność Czebyszewa) Niech zmienna losowa X będzie nieujemna.1 Wówczas E(X) ε Definicja 7.1 Dana jest zmienna losowa X. Supremum istotnym zmiennej losowej nazywamy ∀ε>0 P ({ω : X(ω) ­ ε}) ¬ def esssup X = inf sup {|X(ω)} (7.2) (7.3) E∈Σ:P (E)=0 ω∈Ω\E Uwaga 7.1 Warunek definicji 7.3 może być zapisany następująco def esssup X = inf {FX (t) = 1} (7.4) t∈R Twierdzenie 7.3 (Uogólniona nierówność Czebyszewa) Niech φ: R → R będzie dodatnią funkcją borelowską. Jeżeli φ(X) ∈ L1 (Ω) to wówczas: (i) Jeżeli φ jest niemalejąca, to ∀ε>0 E(φ(X)) − φ(ε) E(φ(X)) ¬ P ({ω : X(ω) ­ ε}) ¬ esssup φ(X) φ(ε) (7.5) (ii) Jeżeli φ jest parzysta i niemalejąca na [0, +∞[, to ∀ε>0 E(φ(X)) − φ(ε) E(φ(X)) ¬ P ({ω : |X(ω)| ­ ε}) ¬ esssup φ(X) φ(ε) (7.6) Uwaga 7.2 Można osłabić założenia o funkcji φ w twierdzeniu 7.3(ii) następująco Jeżeli φ: R → R jest funkcją nieujemną, parzystą, φ 6≡ 0 oraz niemalejącą na ]0, +∞[, to ∀ε>0 φ(ε) > 0 ⇒ E(g(X)) − g(ε) E(φ(X)) ¬ P ({ω : |X(ω)| ­ ε}) ¬ esssup φ(X) φ(ε) (7.7) Wniosek 7.1 (Nierówność Markowa) Niech R 3 p > 0. Wówczas o ile X ∈ Lp (Ω), to E(|X|p ) εp 2 Wniosek 7.2 (Nierówność Czebyszewa - Bienaymé) O ile X ∈ L (Ω), to ∀ε>0 P ({ω : |X(ω)| ­ ε}) ¬ D2 (X) ε2 Wniosek 7.3 (Nierówność wykładnicza Czebyszewa) O ile dla pewnego p > 0 jest epX ∈ L1 (Ω), to ∀ε>0 P ({ω : |X(ω) − E(X)| ­ ε}) ¬ ∀λ∈[0,p] ∀ε>0 P ({ω : X(ω) ­ ε}) ¬ 1 Obejmuje też przypadek ”trywialny”, gdy jest nieskończona wartość oczekiwana 23 eλX ) eλε (7.8) (7.9) (7.10) 7.2 Niezależne zmienne losowe Dana jest przestrzeń probabilistyczna (Ω, Σ, P ) oraz jednowymiarowe zmienne losowe X1 , . . . , Xn określone na niej. Definicja 7.2 Mówimy, że zmienne losowe X1 , . . . , Xn są niezależne wtedy i tylko wtedy, gdy ∀{A1 ,...,An }⊂B(R) P ({ω : Xi (ω) ∈ Ai ∧ i = 1, . . . , n}) = n Y P ({ω : Xi (ω) ∈ Ai }) (7.11) i=1 Twierdzenie 7.4 Dyskretne zmienne losowe X1 , . . . , Xn są niezależne wtedy i tylko wtedy, gdy ∀(a1 ,...,an )⊂(WX1 ×...×WXn ){1,...,n} P ({ω : Xi (ω) = xi ∧ i = 1, . . . , n}) = n Y P ({ω : Xi (ω) = xi }) (7.12) i=1 7.3 Funkcje tworzące prawdopodobieństwa i reszt Definicja 7.3 Niech dany będzie ciąg liczbowy (an ). Funkcja tworzącą ciągu (an ) nazywamy szereg potęgowy def T (s) = ∞ X an sn , n=1 o ile ma on niezerowy promień zbieżności. Uwaga 7.3 Promień zbieżności szeregu potęgowego jest niezerowy wtedy i tylko wtedy, gdy lim sup p n |an | < +∞. n→∞ Niech dana będzie przestrzeń probabilistyczna (Ω, Σ, P ). Niech dyskretna zmienna losowa X, dla której WX ⊆ {0} ∪ N, będzie określona na tej przestrzeni. Przyjmijmy oznaczenia ozn pk = P ({ω : X(ω) = k}) oraz ozn qk = P ({ω : X(ω) > k}) = ∞ X pn . n=k+1 Definicja 7.4 Funkcję tworzącą ciągu (pn ) nazywamy funkcją tworzącą prawdopodobieństwa i oznaczamy ją P (s). Funkcję tworzącą ciągu (qn ) nazywamy funkcją tworzącą reszt (ogonów) i oznaczamy ją Q(s). Uwaga 7.4 Zauważmy, że P (s) = E(sX ). Lemat 7.1 P (1) = 1 Twierdzenie 7.5 Niech X ∈ L1 (Ω). Wówczas (i) Q(s) jest bezwzględnie zbieżny dla |s| ¬ 1 (ii) P 0 (s) jest bezwzględnie zbieżny dla |s| ¬ 1 (iii) E(X) = Q(1) (iv) E(X) = P 0 (1) 7.4 Zadania Zadanie 7.1 Udowodnić twierdzenie 7.5. Zadanie 7.2 Przeprowadzono n niezależnych doświadczeń o prawdopodobieństwie sukcesu w k - tym doświadczeniu równym n Q pk , k = 0, 1, . . . , n. Rozpatrujemy funkcję g(s) = 1 − (pk s + qk ) (1 − s)−1 . Dowieść, że współczynnik przy sm w funkcji k=1 g jest równy prawdopodobieństwu uzyskania więcej niż m sukcesów, m = 0, 1, . . . , n − 1. Zadanie 7.3 Rozpatrujemy schemat Bernoulliego z ilością doświadczeń n i prawdopodobieństwem sukcesu w pojedynczym doświadczeniu p. Dowieść, że współczynnik przy sk w funkcji g(s) = (1 − (ps + q)n ) (1 − s)−1 jest równy prawdopodobieństwu uzyskania więcej niż k sukcesów, k = 0, 1, . . . , n − 1. 24 Zadanie 7.4 Wyznaczyć rozkład zmiennej losowej X o wartościach całkowitych nieujemnych, jeśli jej funkcja tworząca prawdopodobieństwa zadana jest wzorem • g(s) = 1−4α2 (1−4α2 )s2 −4s+4 , |α| • g(s) = 2s 18−27s+13s2 −2s3 ; • g(s) = √ cosh λ s cosh λ ; < 12 ; Wskazówka: Rozłożyć na ułamki proste. k Zadanie 7.5 Niech pk = 0 dla k ¬ 0 i pk = bak dla k ∈ N, gdzie 0 < a < 1. Dla jakiej wartości b ciąg {pk } jest rozkładem prawdopodobieństwa. Wyznaczyć dla niej funkcje tworzącą, wartość oczekiwaną i wariancję. Zadanie 7.6 Niech zmienna losowa X ma rozkład Poissona z parametrem λ. Wyznaczyć funkcję tworzącą prawdopodobieństwa. 25 Wykład 8 2002.11.19 / 2h 8.1 Własności funkcji tworzących prawdopodobieństwa i reszt (s) Twierdzenie 8.1 (i) Jeżeli |s| < 1, to Q(s) = 1−P 1−s (ii) Jeżeli X ∈ L1 (Ω), to dla |s| ¬ 1 mamy (1 − s)Q(s) = 1 − P (s). Twierdzenie 8.2 Jeżeli X ∈ L1 (Ω), to P 0 (s) = Q(s) − (1 − s)Q0 (s). Twierdzenie 8.3 Jeżeli X ∈ L2 (Ω), to P (2) (s) = 2Q0 (s) + (1 − s)Q(2) (s). Wniosek 8.1 Jeżeli X ∈ L2 (Ω), to D2 (X) = P (2) (1) + P 0 (1) − (P 0 (1))2 = 2Q0 (1) + Q(1) − (Q(1))2 . 8.2 Zbieżności zmiennych losowych Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną oraz {Xn : n ­ 1} ciągiem zmiennych losowych określonych na tej przestrzeni. Definicja 8.1 Mówimy, że ciąg {Xn : n ­ 1} zmiennych losowych jest zbieżny do zmiennej losowej X (i) prawie na pewna wtedy i tylko wtedy, gdy P {ω : lim Xn (ω) = X(ω)} = 1 n→∞ (8.1) p.n. oznaczamy Xn −→ X; (ii) według prawdopodobieństwa wtedy i tylko wtedy, gdy ∀ε>0 lim P ({ω : |Xn (ω) − X(ω)| > ε}) = 0 n→∞ (8.2) P oznaczamy Xn −→ X; (iii) według p - tego momentu dla 0 < p < +∞ wtedy i tylko wtedy, gdy X ∈ Lp (Ω) ∧ ∀n∈N Xn ∈ Lp (Ω) ∧ lim E(|Xn − X|p ) = 0 n→∞ Lp oznaczamy Xn −→ X. p.n. p.n. Twierdzenie 8.4 Niech Xn −→ X oraz Yn −→ Y . Wówczas p.n (i) dla dowolnych a, b ∈ R zachodzi aXn + bYn −→ aX + bY p.n (ii) Xn Yn −→ XY p.n 1 (iii) jeśli P ({ω : X(ω) 6= 0}) = 1, to χ{ω:X(ω)6=0} X1n −→ X 26 (8.3) Twierdzenie 8.5 Następujące warunki są równoważne p.n. Xn −→ X (8.4) ∞ \ ∀ε>0 lim P n→∞ ∀ε>0 lim P n→∞ k=n ∞ [ ∀ε>0 lim P Wniosek 8.2 Jeśli ∀ε>0 ∞ X {ω : |Xk (ω) − X(ω)| ¬ ε} =1 (8.5) =0 (8.6) ! {ω : |Xk (ω) − X(ω)| > ε} k=n n→∞ ! ∞ \ {ω : |Xk (ω) − Xl (ω)| ¬ ε} = 1 (8.7) k,l­n P ({ω : |Xn (ω) − X(ω)| > ε}) < ∞, n=1 p.n. to Xn −→ X. p.n. P Wniosek 8.3 Jeśli Xn −→ X, to Xn −→ X. Lp P P Lp Twierdzenie 8.6 Jeśli Xn −→ X, to Xn −→ X. Gdy dodatkowo ∃K ∀n­1 |Xn | ¬ K, to jeśli Xn −→ X, to Xn −→ X. 8.3 Zadania Zadanie 8.1 Udowodnić, że równoważność warunku (8.7) twierdzenia 8.5. 27 Wykład 9 2002.11.26 / 2h 9.1 Zbieżności zmiennych losowych c.d. Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną oraz {Xn : n ­ 1} ciągiem zmiennych losowych określonych na tej przestrzeni. p.n. Twierdzenie 9.1 Niech Xn −→ X i niech istnieje R 3 p > 0 oraz zmienna losowa Z taka, że (i) ∀n∈N |Xn |p ¬ Z p (ii) E(Z p ) < +∞. Lp Wtedy Xn −→ X. Lp Lq Twierdzenie 9.2 Niech p ­ 1 oraz Xn −→ X. Wtedy dla dowolnego q ∈ [1, p] zachodzi Xn −→ X. Przyklad 9.1 Niech dany będzie ciąg {An : n ­ 1} zdarzeń niezależnych takich, że ∞ P (i) P (An ) = +∞, n=1 (ii) lim P (An ) = 0. n→∞ Wtedy dla ciągu zmiennych losowych (Xn = χAn ) zachodzi Lp (1) Xn −→ 0; P (2) Xn −→ 0 p.n. oraz nie zachodzi Xn −→ 0. def Przyklad 9.2 Niech Ω =]0, 1] i An = ]0, n1 ] dla n ∈ N. Wtedy dla ciągu zmiennych losowych (Xn = 2n χAn ) zachodzi p.n. (1) Xn −→ 0; P (2) Xn −→ 0 Lp oraz nie zachodzi Xn −→ 0. p.n. P Twierdzenie 9.3 (Twierdzenie Riesza) Jeśli Xn −→ X, to, to istnieje podciąg (Xnk ) taki, że Xnk −→ X. Twierdzenie 9.4 Ciąg zmiennych losowych jest zbieżny według prawdopodobieństwa wtedy i tylko wtedy, gdy każdy jego podciąg zawiera podciąg zbieżny prawie na pewno. P P Wniosek 9.1 Niech Xn −→ X, f będzie funkcją ciągłą na zbiorze A oraz P ({ω : X(ω) ∈ A}) = 1, to f (Xn ) −→ f (X) P P Twierdzenie 9.5 Niech Xn −→ X oraz Yn −→ Y . Wówczas P (i) dla dowolnych a, b ∈ R zachodzi aXn + bYn −→ aX + bY P (ii) Xn Yn −→ XY P (iii) jeśli P ({ω : X(ω) 6= 0}) = 1, to χ{ω:X(ω)6=0} X1n −→ 1 X 28 Twierdzenie 9.6 Następujące warunki są równoważne P Xn −→ X (9.1) |Xn − X|p ∀p>0 lim E =0 n→∞ 1 + |Xn − X|p |Xn − X|p ∃p>0 lim E =0 n→∞ 1 + |Xn − X|p 9.2 (9.2) (9.3) Prawo 0 – 1 Kołmogorowa Niech X 6= ∅, ∅ = 6 H ⊂ 2X . Definicja 9.1 σ - ciałem generowanym przez rodzinę H nazywamy najmniejsze σ - ciało zawierające rodzinę H. Oznaczamy je przez σa(H). Niech dana będzie przestrzeń probabilistyczna (Ω, Σ, P ). Rozpatrzmy ciąg σ - ciał {Σn : n ­ 1} Definicja 9.2 ∞ [ def Σn,∞ = σa ! Σn (9.4) k=n σ - ciałem ogonowym lub resztowym nazywamy σ - ciało Σ∞ równe def Σ∞ = ∞ \ Σn,∞ (9.5) Σn,∞ ⊇ Σn+1,∞ (9.6) n=1 Wniosek 9.2 Twierdzenie 9.7 (Prawo 0 – 1 Kołmogorowa) Jeżeli σ - ciała Σn n ∈ N są niezależne oraz A ∈ Σ∞ , to wówczas P (A) = 0 albo P (A) = 1. 9.3 Zadania Zadanie 9.1 Udowodnic twierdzenie 9.6 korzystając z uogólnionej nierówności Czebyszewa dla funkcji parzystej g(x) = |x|p 1+|x|p . 29 Wykład 10 2002.12.03 / 2h 10.1 Nierówności typu Czebyszewa dla sum zmiennych losowych Definicja 10.1 Niech {Ξi : i ∈ I} będzie rodziną zbiorów zdarzeń. Ξi są niezależne wtedy i tylko wtedy, gdy \ Y ∀J⊂I ∀j∈J ∀Aj ∈Ξj card J < ℵ0 ⇒ P ( Aj ) = P (Aj ) j∈J (10.1) j∈J Wniosek 10.1 Dany jest ciąg {Xn : n ­ 1} niezależnych zmiennych losowych. Wówczas szereg ∞ P Xn jest zbieżny bądź n=1 rozbieżny prawie na pewno (z prawdopodobieństwem 1). Niech (Ω, Σ, P ) będzie ustalona przestrzenią probabilistyczną, a {Xn : n ­ 1} będzie niezależnym ciągiem zmiennych losowych określonych na tej przestrzeni. n X ozn Sn = Xk . k=1 Twierdzenie 10.1 (Nierówność Lévy’ego - Ottavianiego) Niech X1 , . . . , Xn będą niezależnymi zmiennymi losowymi. Wówczas ε ∀ε>0 P {ω : max |Si (ω)| > ε} ¬ 3 max P {ω : |Si (ω)| > } 1¬i¬n 1¬i¬n 3 Jeżeli ponadto zmienne losowe mają rozkład symetryczny1 , to ∀ε>0 P {ω : max |Si (ω)| > ε} ¬ 2P ({ω : |Sn (ω)| > ε}) 1¬i¬n (10.2) (10.3) Twierdzenie 10.2 (Nierówność Kołmogorowa) Niech X1 , . . . , Xn będą niezależnymi zmiennymi losowymi o zerowej wartości oczekiwanej i skończonym drugim momencie. Wówczas E(Sn2 ) ∀ε>0 P {ω : max |Si (ω)| ­ ε} ¬ (10.4) 1¬i¬n ε2 10.2 Zadania 1 Zmienna losowa X ma rozkład symetryczny wtedy i tylko wtedy, gdy X i −X mają ten sam rozkład 30 Wykład 11 2002.12.10 / 2h 11.1 Zbieżności szeregów zmiennych losowych Niech dany będzie ciąg {Xn : n ­ 1} niezależnych zmiennych losowych określonych na tej samej przestrzeni probabilistycznej (Ω, Σ, P ). Twierdzenie 11.1 (O dwóch szeregach) Niech każda ze zmiennych losowych Xn posiada skończony moment rzędu dwa. ∞ ∞ ∞ P P P E(Xn ) i D2 (Xn ) są zbieżne, to szereg Xn jest zbieżny prawie na pewno. Jeżeli szeregi n=1 n=1 n=1 Niech c > 0. Wprowadźmy oznaczenie ozn Xc = X 0 dla |X| ¬ c dla |X| > c Twierdzenie 11.2 (O trzech szeregach) Warunkiem koniecznym zbieżności prawie na pewna szeregu ∞ P Xn niezależ- n=1 nych zmiennych losowych jest zbieżność dla każdego c > 0 szeregów ∞ X E(Xnc ) n=1 ∞ X D2 (Xnc ) n=1 ∞ X P ({ω : |Xn (ω)| > c}) . (11.1) n=1 Warunkiem dostatecznym jest zbieżność tych szeregów przy pewnym c > 0. Twierdzenie 11.3 (Lévy’ego) Szereg ∞ P Xn niezależnych zmiennych losowych jest zbieżny prawie na pewna wtedy i tylko n=1 wtedy, gdy jest on zbieżny według prawdopodobieństwa. 11.2 Prawa wielkich liczb Niech {Xn : n ­ 1} będzie ciągiem zmiennych losowych posiadających wartość oczekiwaną. Wprowadźmy oznaczenie Sn = n X Xk . k=1 Definicja 11.1 Mówimy, że ciąg zmiennych losowych {Xn : n ­ 1} spełnia mocne prawo wielkich liczb (MPWL) wtedy i tylko wtedy, gdy Sn − E(Sn ) p.n. −→ 0. (11.2) n Mówimy, że ciąg zmiennych losowych {Xn : n ­ 1} spełnia słabe prawo wielkich liczb (SPWL) wtedy i tylko wtedy, gdy Sn − E(Sn ) P −→ 0. n 31 (11.3) Definicja 11.2 Niech dane będą zmienne losowe X, Y okreslone na tej samej przestrzeni probabilistycznej (Ω, Σ, P ) spełniające warunek X, Y, XY ∈ L1 (Ω). Mówimy, że zmienne losowe X i Y sa nieskorelowane wtedy i tylko wtedy, gdy E(XY ) − E(X)E(Y ) = 0. (11.4) E((X − E(X))(Y − E(Y ))) = 0. (11.5) Powyższy warunek można zapisać w postaci Wniosek 11.1 Jeżeli zmienne losowe sa niezależne, to sa nieskorelowane. Twierdzenie 11.4 Niech ciąg zmiennych losowych {Xn : n ­ 1} posiadających drugi moment spełnia jeden z warunków 2 (i) lim D n(S2 n ) = 0 n→∞ (ii) zmienne losowe Xn są parami nieskorelowane i mają wspólnie ograniczoną wariancję. Wówczas ciąg {Xn : n ­ 1} spełnia SPWL. 11.3 Zadania 32 Wykład 12 2002.12.17 / 2h 12.1 Prawa wielkich liczb – c.d. Uwaga 12.1 Założenie (ii) w twierdzeniu 11.4 można osłabić wymagając aby D2 (Xn ) ¬ Cnα , α ∈]0, 1[. (12.1) Twierdzenie 12.1 (Słabe prawo wielkich liczb Bernoulliego) Jeżeli przez Sn oznaczymy liczbę sukcesów w schemacie Bernoulliego n prób z prawdopodobieństwem sukcesu w pojedynczej próbie równym p, to Sn (ω) ∀ε>0 lim P ω: − p > ε =0 (12.2) n→∞ n Lemat 12.1 (Twierdzenie Toeplitza) Niech {an : n ­ 1} będzie ciągiem licz nieujemnych i niech ciąg {bn : n ­ 1} będzie n def P ciągiem rosnącym liczb dodatnich określonych następująco bn = ak . Wówczas jeżeli ciąg (xn ) jest ciągiem zbieżnym o k=1 granicy równej x, to lim n→∞ 1 bn n X ak xk = x. (12.3) k=1 Lemat 12.2 (Twierdzenie Kroneckera) Niech {bn : n ­ 1} będzie rosnącym ciągiem liczb dodatnich rozbieżnym do ∞ P nieskończoności, a {xn : n ­ 1} ciągiem liczb rzeczywistych takim, że szereg xn jest zbieżnym. Wtedy n=1 n 1 X bk xk = 0. n→∞ bn lim (12.4) k=1 W szczególności jeśli bn = n oraz xn = yn n zachodzi Jeżeli szereg ∞ P n=1 yn n jest zbieżny, to lim n→∞ y1 +...+yn n = 0. Twierdzenie 12.2 (Kołmogorowa) Niech {Xn : n ­ 1} będzie ciągiem niezależnych zmiennych losowych dla których istnieje moment rzędu dwa. Niech {bn : n ­ 1} będzie rosnącym ciągiem liczb dodatnich takich, że lim bn = +∞ i n→∞ ∞ P D 2 (Xn ) < +∞. Wtedy b2 n=1 n lim n→∞ W szczególności, jeżeli ∞ P n=1 D 2 (Xn ) n2 Sn − E(Sn ) = 0 p.n. bn (12.5) < +∞, to ciąg {Xn : n ­ 1} spełnia MPWL. Niech {Xn : n ­ 1} będzie ciągiem zmiennych losowych posiadających wartość oczekiwaną. Wprowadźmy oznaczenie n P Sn = Xk . k=1 Lemat 12.3 Niech X będzie nieujemną zmienna losową. Wtedy ∞ X P ({ω : X(ω) ­ k}) ¬ E(X) ¬ 1 + n=1 ∞ X n=1 33 P ({ω : X(ω) ­ k}) (12.6) Wniosek 12.1 Jeżeli nieujemna zmienna losowa X posiada skończona wartość oczekiwaną, to ∞ X P ({ω : X(ω) ­ k}) < +∞. n=1 Wniosek 12.2 Jeżeli dla nieujemnej zmiennej losowej X zachodzi ∞ X P ({ω : X(ω) ­ k}) < +∞, n=1 to posiada ona skończoną wartość oczekiwaną. Twierdzenie 12.3 (MPWL Kołmogorowa) Niech {Xn : n ­ 1} będzie ciągiem niezależnych zmiennych losowych o jednakowych rozkładach i posiadających wartość oczekiwaną. Wtedy ciąg {Xn : n ­ 1} spełnia MPWL. 12.2 Zadania Zadanie 12.1 Udowodnić lemat 12.3. 34 Wykład 13 2003.01.14 / 2h 13.1 Zasady egzaminu 13.2 Prawa wielkich liczb – c.d. Twierdzenie 13.1 (Chinczyna) Ciąg {Xn : n ­ 1} zmiennych losowych parami niezależnych o jednakowym rozkładzie i skończonej wartości spełnia SPWL. 13.3 Zadania Zadanie 13.1 Udowodnić, że jeżeli ciąg {Xn : n ­ 1} zmiennych losowych posiadających drugi moment spełnia warunki (i) D2 (Xn ) ¬ C < +∞ dla dowolnego n ­ 1 (ii) zmienna losowa Xn zależy jedynie od Xn−1 i Xn+1 , to ciąg {Xn : n ­ 1} spełnia SPWL. 35 Wykład 14 2003.01.21 / 2h 14.1 Twierdzenie Moivre’a - Laplace’a – lokalne i globalne Będziemy rozważać schemat n prób Bernoulliego z prawdopodobieństwem sukcesu w pojedynczej próbie równym p (prawdopodobieństwo porażki oznaczymy q) oraz ilością sukcesów równą k. Przyjmijmy następujące oznaczenia n k n−1 B(k, n, p) = p q (14.1) k 1 ozn h= √ (14.2) npq ozn δk = k − np ozn δk xk = √ ≡ δk h. npq (14.3) (14.4) Mamy wtedy n − k = nq − δk k = 1 + xk qh np n−k = 1 − xk ph. nq (14.5) (14.6) (14.7) Twierdzenie 14.1 (Moivre’a - Laplace’a lokalne) Jeżeli h|xk | max {p, q} ¬ 12 , to B(k, n, p) = √ x2 1 k e− 2 eR(n,k) , 2πnpq (14.8) przy czym 3 1 1 |xk |h + |xk |3 h + . (14.9) 4 3 3n W szczególności jeżeli n i k zbiegają do nieskończoności w taki sposób, że hx3k zbiega do zera, to R(n, k) również zbiega do zera. |R(n, k)| ¬ Przyjmijmy oznaczenie h . 2 Przez Φ będziemy oznaczać dystrybuantę rozkładu normalnego N (0, 1). ozn xa± h = xa ± 2 Twierdzenie 14.2 (Moivre’a - Laplace’a globalne) Jeżeli h max {|xa |, |xb |} |xk | max {p, q} ¬ 12 , to h i P ({ω : a ¬ Sn (ω) ¬ b}) = Φ(xb+ 12 ) − Φ(xa− 12 ) eD(n,a,b) , (14.10) gdzie |D(n, a, b)| ¬ max k∈{a,b} 5 1 1 h2 |xk |h + |xk |3 h + + . 4 3 3n 8 36 (14.11) W szczególności jeżeli n zbiega do nieskończoności, zaś a i b zmieniają się tak, że max x3a h, x3b h zbiega do zera, to D(n, a, b) również zbiega do zera oraz 14.2 P ({ω : a ¬ Sn (ω) ¬ b}) ∼ Φ(xb+ 12 ) − Φ(xa− 12 ) (14.12) P ({ω : a ¬ Sn (ω) ¬ b}) ∼ Φ(xb ) − Φ(xa ) (14.13) Zadania Zadanie 14.1 Udowodnić, że jeżeli Xa i xb są stałe, to Sn (ω) − np P {ω : xa ¬ ¬ xb } ∼ Φ(xb+ 12 ) − Φ(xa− 12 ) √ npq 37 (14.14) Wykład 15 Egzamin 15.1 Zagadnienia na egzamin – część teoretyczna 1. Prawdopodobieństwo. (a) Przestrzeń probabilistyczna. Własności prawdopodobieństwa. (b) Prawdopodobieństwo warunkowe, całkowite. Wzór Bayesa. (c) Zdarzenie niezależne. Niezależność zespołowa i parami – ich związek. (d) Własności zdarzeń niezależnych. (e) Zdarzenie zależne. Współczynnik korelacji zdarzeń. (f) Prawdopodobieństwo geometryczne. Paradoks Bertranda. (g) Schemat Bernoulliego i jego uogólnienia (zagadnienia Poissona, Pascala, uogólniony schemat Bernoulliego, Pólya). (h) Lemat Borela - Cantelliego. 2. Jednowymiarowe zmienne losowe. (a) Zmienne losowe. Zmienne losowe, a funkcje borelowskie. Rozkład prawdopodobieństwa. (b) Rozkład ciągły, dyskretny i osobliwy. (c) Dystrybuanta zmiennej losowej. Własności dystrybuanty. (d) Twierdzenie, kiedy funkcja jest dystrybuantą (ocena 5.0). (e) Rozkład prawdopodobieństwa i jego dystrybuanata. (f) Liniowe przekształcenia jednowymiarowej zmiennej losowej – związek między dystrybuantami. (g) Dystrybuanta, a gęstość. Gęstość, a odwzorowania gładkie. (h) Wartość oczekiwana zmiennej losowej i jej własności. (i) Wariancja zmiennej losowej i jej własności. (j) Inne parametry liczbowe zmiennych losowych. (k) Parametry pozycyjne. (l) Przykładowe rozkłady i ich parametry. (m) Nierówności dla zmiennych losowych (Schwarza, Jensena, Höldera, Czebyszewa). (n) Nierówności dla zmiennych losowych (uogólniona Czebyszewa, Markowa, Czebyszewa - Bienaymé, wykładnicza Czebyszewa). (o) Niezależne zmienne losowe. (p) Kowariacja zmiennych losowych. Zmienne losowe nieskoreowane. Niezależne zmienne losowe, a nieskorelowane. 38 3. Funkcja tworząca prawdopodobieństwa i reszt. Własności. 4. Zbieżność zmiennych losowych. (a) Typy zbieżności zmiennych losowych. (b) Zbieżność prawie na pewno i jej własności. (c) Zbieżność prawie na pewno, a według prawdopodobieństwa. (d) Zależności między różnego rodzaju zbieżnościami. (e) Zbieżność według prawdopodobieństwa i jej własności. (f) Zbieżność według k - tego momentu bezwzględnego i jej związek z innymi zbieżnościami. 5. Prawo zero - jedynkowe Kołmogorowa. 6. Zbieżność szeregów zmiennych losowych. (a) Nierówność Lévy’ego - Ottavianiego. (b) Nierówność Kołmogorowa. (c) Twierdzenie o dwóch szeregach. (d) Twierdzenie o trzech szeregach (warunek dostateczny). (e) Twierdzenie Lévy’ego (o równoważność zbieżności prawie na pewno i według prawdopodobieństwa szeregów zmiennych losowych). 7. Prawa wielkich liczb. (a) Pojęcie SPWL i MPWL. (b) Twierdzenia o warunkach dostatecznych na zachodzenie SPWL. (c) SPWL Bernoulliego. (d) Twierdzenie Kołmogorowa dla dowolnych niezależnych zmiennych losowych (wraz z lematami). (e) Twierdzenie Kołmogorowa dla niezależnych zmiennych losowych o jednakowych rozkładach. (f) Twierdzenie Chinczyna 8. Twierdzenie Moivre’a - Laplace’a (a) Twierdzenie lokalne. (b) Twierdzenie globalne. 39 15.2 Zadania z egzaminu 1. (4pt/32pkt) Niech P1 , . . . , Pm prawdopodobieństwami określonymi na tym samym σ - ciele Σ podzbiorów Ω (tzn. każde Pi spełnia aksjomaty prawdopodobieństwa). Niech dane będą liczby nieujemne a1 , . . . , am o własności a1 +. . .+am = 1. def Udowodnić, że funkcja P = a1 · P1 + . . . + am · Pm jest prawdopodobieństwem na Σ. 2. (4pt/32pkt) Dokonujemy n doświadczeń rzucając w r - tym doświadczeniu 2r−1 monetami, gdzie 1 ¬ r ¬ n. Obliczyć prawdopodobieństwo, że chociaż w jednym doświadczeniu otrzymamy same orły. 3. (4pt/32pkt) Wybieramy losowo punkt z odcinak [0, 1]. Wyznaczyć dystrybuantę i gęstość zmiennej losowej, której wartości są ilorazem długości odcinka krótszego przez dłuższy. Obliczyć prawdopodobieństwo, że wartość tego iloraz ten nie przekroczy 41 . 4. (4pt/32pkt) Niech λ > 0 oraz zmienna losowa X ma rozkład jednostajny na odcinku ]0, 1[. Udowodnić, że zmienna losowa Y = − λ1 ln X ma rozkład wykładniczy z parametrem λ. 5. (4pt/32pkt) Niech zmienna losowa X ma rozkład Poissona z parametrem λ. Wyznaczyć funkcję tworzącą prawdopodobieństwa. 6. (4pt/32pkt) Udowodnić, że p.n. Xn −→ X ⇔ ∀ε>0 lim P n→∞ ∞ \ {ω : |Xk (ω) − Xl (ω)| ¬ ε} = 1. k,l­n √ 7. (4pt/32pkt) Niech {Xn : n ­ 2} będzie ciągiem niezależnych zmiennych losowych takich, że P ({Xn (ω) = ± n}) = i P ({Xn (ω) = 0}) = 1 − n2 . Udowodnić, że spełnia on MPWL ? 1 n 8. (4pt/32pkt) Rzucamy n razy prawidłową monetą. Jak duże musi być n, aby z prawdopodobieństwem 0,9 liczba wyrzuconych orłów była zawarta pomiędzy 0, 47n a 0, 53n ? 15.3 Zadania z egzaminu poprawkowego 1. (4pkt/36pkt) Niech dana będzie przestrzeń probabilistyczna (Ω, Σ, P ). Niech B ∈ Σ będzie takie, że P (B) > 0. def Udowodnić, że funkcja PB : Σ 3 A 7→ PB (A) = P (A|B) jest prawdopodobieństwem. 2. (4pkt/36pkt) Bateria z trzech dział oddała salwę i dwa pociski trafiły w cel. Obliczyć prawdopodobieństwo zdarzenia, że pocisk wystrzelony z pierwszego działa trafił w cel, jeśli prawdopodobieństwo trafienia w cel z pierwszego, drugiego i trzeciego działa wynoszą odpowiednio p1 = 0, 4, p2 = 0, 3 i p3 = 0, 5. 3. (4pkt/36pkt) Na odcinku o długości jednostkowej wybrano losowo dwa punkty. Jakie jest prawdopodobieństwo, że odległości pomiędzy nimi jest nie mniejsza od r, gdzie 0 ¬ r ¬ 1 ? 4. (4pkt/36pkt) Czy prawdziwe jest zdanie: Jeśli dwa zdarzenia wykluczają się, to są one zależne ?. Odpowiedź uzasadnij tzn. w przypadku pozytywnej, przeprowadź dowód zaś w przypadku negatywnej podaj kontrprzykład, ponadto podaj w tym przypadku, o ile istnieją, warunki wystarczające, aby zdanie było prawdzie. 5. (4pkt/36pkt) Niech λ > 0 oraz zmienna losowa X ma rozkład jednostajny na odcinku ]0, 1[. Udowodnić, że zmienna losowa Y = − λ1 ln(1 − X) ma rozkład wykładniczy z parametrem λ 6. (4pkt/36pkt) Wzynaczyć rozkład zmiennej losowej jeżeli jej funkcja tworząca prawdopodobieństwa wyraża się wzorem 8 f (s) = 9−s 2. 7. (8pkt(4+4)/36pkt) Prawdopodobieństwo sukcesu w każdej próbie równe jest 41 . Karzystają raz z nierówności Czebyszewa, a drugi z twierdzenia Moivre’a - Laplace’a oszacować prawdopodobieństwo tego, że w 800 niezależnych próbach ilość sukcesów bedzie większa niż 150 , a mniejsza niz 250. 8. (4pkt/36pkt) Niech dany będzie ciąg {Xn |n ­ 1} niezależnych zmiennych losowych o rozkładzie zadanymi równościami P ({Xn (ω) = ±nβ }) = 2n1α , P ({Xn (ω) = 0}) = 1 − n1α , gdzie α, β > 0. Przy jakiej zależności miedzy parametrami α, β spełnia on MPWL? 40