RACHUNEK PRAWDOPODOBIEŃSTWA A. Semestr letni 2015. Środy 9:15 -12:00, sala EM. Wykładowca: Ryszard Szekli, pok. 514, konsultacje: poniedziałki 12-13, środy 12-13 terminy egzaminów: I termin 17.06.2014, (ŚRODA) 13-16, sala HS+WS, II termin do ustalenia (wrzesień). Warunki ukończenia kursu: zaliczenie ćwiczeń: Na kolejnych spotkaniach studenci deklarują zadania, które potrafią rozwiązać. Osoba prowadząca ćwiczenia robi zadania, które nie zostały zdeklarowane przez studentów, następnie wybiera studentów (spośród tych którzy zdeklarowali) , którzy prezentują rozwiązania kolejnych zadań przy tablicy. Wadliwe rozwiązanie nie daje punktów. Student deklarujący zadanie, który nie potrafi podać rozwiązania przy tablicy otrzymuje punkty ujemne. Zadania będą miały określoną liczbę punktów na listach. Zaliczenie ćwiczeń następuje po uzyskaniu przynajmniej 50% punktów z wszystkich list. zdanie egzaminu pisemnego: egzamin testowy max 60 pkt.; 10 zadań testowych: możliwe odpowiedzi a,b,c,d każda prawdziwa lub nie; z ćwiczeń i wykładu. ocena 3.0 od 50% pkt. PLAN WYKŁADU: 1. WPROWADZENIE 1.1 Uwagi historyczne 1.2 Powtórka podstaw rachunku prawdopodobieństwa 2. NIEZALEŻNOŚĆ I CIAGI ZMIENNYCH LOSOWYCH , 2.1 Schemat Bernoulliego 2.2 Ciagi nieskończone zmiennych niezależnych , 2.3 Błądzenia losowe, prawo arcusa sinusa 2.4 Rekurencje, łańcuchy Markowa 3. ROZKŁADY 3.1 Zmienne losowe, wektory losowe 3.2 Przybliżenia rozkładów 3.3 Gȩstości i dystrybuanty 3.4 Funkcje od zmiennych losowych 3.5 Rozkłady ła̧czne i brzegowe 3.6 Sumy niezależnych zmiennych losowych 4. WARTOŚĆ OCZEKIWANA, MOMENTY 4.1 Momenty i funkcje tworza̧ce 4.2 Wariancja i kowariancja 5. TWIERDZENIA GRANICZNE 5.1 Prawa wielkich liczb 5.2 Centralne twierdzenie graniczne 1 Literatura: P. Billingsley, Prawdopodobieństwo i miara, PWN, 1987 W. Feller, Wstep , do rachunku prawdopodobieństwa, tom I, PWN, 1977 J. Jakubowski, R. Sztencel, Wstep , do teorii prawdopodobieństwa, SCRIPT, 2000. M. Majsnerowska: Elementarny wykład z rachunku prawdopodobieństwa z zadaniami, strona www IM D. Stirzaker, Elementary Probability, Second. ed. Cambridge 2007. R. Durrett, Elementary Probability for Applications, Cambridge 2009. 2 0.1 Wprowadzenie 0.1.1 Zdarzenia i eksperymenty Przestrzeń zdarzeń elementarnych Ω jest zbiorem możliwych wyników pewnego eksperymentu. Jeśli Ω jest zbiorem przeliczalnym, to zdarzeniem jest każdy podzbiór Ω. Zbiór zdarzeń oznaczamy F. Ogólnie, zakładamy, że F jest zamkniety na przeliczalne sumy, przekroje i dopełnienia oraz zawiera Ω. , 0.1.2 Prawdopodobieństwo Prawdopodobieństwo P jest funkcja̧ przyporza̧dkowuja̧ca̧ zdarzeniom liczby takie, że (i) Dla A ⊂ Ω, 0 ¬ P (A) ¬ 1. (ii) P (Ω) = 1. Dla każdego cia̧gu {Ai } (skończonego lub nieskończonego) zdarzeń rozła̧cznych ∪ P( Ai ) = ∑ i P (Ai ). i Uwaga 0.1.1 Nie dla wszystkich zbiorów Ω można znaleźć nietrywialna̧ funkcjȩ P o powyższych własnościach, określona̧ na wszystkich podzbiorach Ω na przykład Ω := [0, 1] oraz P ((a, b]) = b − a, 0¬ a ¬ b ¬ 1 jest naturalna̧ funkcja̧ prawdopodobieństwa na tym zbiorze, jednakże nie można ta̧ funkcja̧ zmierzyć wszystkich podzbiorów Ω (istnieja̧ zbiory niemierzalne ). Rozważania ogranicza siȩ wtedy do podklasy mierzalnych zbiorów (zdarzeń), które tworza̧ σ−ciało zdarzeń. W przypadku, gdy Ω jest zbiorem przeliczalnym takie trudności nie wystȩpuja̧ i wtedy wszystkie podzbiory Ω sa̧ mierzalne. Własności wynikaja̧ce z określenia prawdopodobieństwa: 1. P (Ac ) = 1 − P (A) 2. P (∅) = 0 3. Jeśli A ⊂ B, to P (A) ¬ P (B) 4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B) ∪ 5. P ( i Ai ) ¬ ∑ i P (Ai ) 6. Jeśli A1 ⊂ A2 ⊂ · · · i A = 7. Jeśli A1 ⊃ A2 ⊃ · · · i A = ∪ i Ai , ∩ i Ai , to P (Ai ) →i→∞ P (A). to P (Ai ) →i→∞ P (A). 3 0.1.3 Prawdopodobieństwo sumy Zachodzi wzór P( n ∪ Ai ) = i=1 n ∑ P (Ai ) − i=1 ∑ P (Ai ∩ Aj ) + i<j ∑ P (Ai ∩ Aj ∩ Ak ) + · · · + (−1)n+1 P (A1 ∩ · · · ∩ An ) i<j<k Nierówności Bonferroniego. P( n ∪ Ai ) ¬ i=1 P( n ∪ n ∪ P (Ai ) i=1 Ai ) ­ i=1 P( n ∑ n ∑ P (Ai ) − i=1 Ai ) ¬ i=1 n ∑ i=1 ∑ P (Ai ∩ Aj ) i<j P (Ai ) − ∑ P (Ai ∩ Aj ) + i<j ∑ P (Ai ∩ Aj ∩ Ak ) i<j<k Wybieranie z urny kolorowych kul jest matematyczna̧ idealizacja̧ wielu eksperymentów, w których losowo wybiera siȩ skończona̧ ilość obiektów różnych typów. Model urnowy . W urnie znajduje siȩ M kul czerwonych i N kul czarnych. Wycia̧gamy z urny n kul bez zwracania ich. Wtedy prawdopodobieństwo, że wycia̧gniemy r kul czerwonych wynosi (M )( N ) r n−r (M +N ) n gdzie dla j < 0 lub j > m przyjmujemy (m) j = 0. Przykład 0.1.1 (Lotto). Wybieramy 6 liczb ze zbioru {1, ..., 54}. 1 nagroda to 6 trafionych, 2 nagroda to 5 trafionych, 3 nagroda 4 trafione. Jakie sa̧ prawdopodobieństwa zdobycia tych nagród? Przykład 0.1.2 (Kontrola jakości). Wyprodukowano M żarówek, w tym N wadliwych. Testujemy n żarówek. Jakie jest prawdopodobieństwo, że wszystkie testowane żarówki sa̧ dobre? Przykład 0.1.3 (Wnioskowanie o wielkości populacji). Student biologii złowił w stawie 60 wodnych chrza̧szczy, oznaczył farba̧ i wypuścił. Po pewnym czasie wrócił i złowił 50 chrza̧szczy, w tym znajduja̧c 12 oznaczonych farba̧. Jak można oszacować wielkość populacji chrza̧szczy w tym stawie? 0.1.4 Powtarzanie eksperymentów Z urny zawieraja̧cej K kul ponumerowanych od 1 do K wycia̧gamy kolejno kule, notuja̧c ich numery i zwracaja̧c je do urny. Wyciagaja̧c k kul, prawdopodobieństwo, że wszystkie kule maja̧ różne numery wynosi PK,k K −k+1K −k+2 K = ··· k K K K K Rzuty symetryczna̧ moneta̧. Przyjmujemy, że K = 2 (np. K = 1 oznacza orła, K = 2, oznacza reszkȩ). Prawdopodobieństwo uzyskania dokładnie j orłów w k rzutach wynosi ( ) k 1 . j 2k 4 0.2 Prawdopodobieństwo warunkowe Istnieja̧ dwa sposoby rozumienia zdarzeń niezależnych: potoczne i statystyczne (matematyczne). Matematyczne pojȩcie niezależności jest prosta̧ reguła̧ mnożenia. Definicja 0.2.1 Zdarzenia A i B sa̧ niezależne gdy P (A ∩ B) = P (A)P (B). Wniosek 0.2.1 1. Zdarzenia A i B o dodatnich prawdopodobieństwach, rozła̧czne nie sa̧ niezależne. 2. Ω jest zdarzeniem niezależnym od każdego innego zdarzenia. 3. Zdarzenie ∅ jest niezależne od każdego innego zdarzenia. Cia̧g zdarzeń A1 , . . . , An jest niezależny parami, jeśli P (Ai ∩ Aj ) = P (Ai )P (Aj ) dla wszystkich i ̸= j. Cia̧g zdarzeń A1 , . . . , An jest niezależny, jeśli P (Ai1 ∩ · · · ∩ Aik ) = P (Ai1 ) · · · P (Aik ), dla wszystkich i1 < i2 < · · · < ik . Przykład 0.2.1 (Rozkład wielomianowy). Przypuśćmy, że kostka do gry ma 1 na trzech ścianach, 2 na dwóch ścianach i 3 na jednej ścianie. Rzucamy taka̧ kostka̧ 10 razy. Wyliczamy prawdopodobieństwo uzyskania 5 razy 1, 3 razy 2 i 2 razy 3: 10! (1/2)5 (1/3)3 (1/6)2 5!3!2! Ogólnie, wykonuja̧c n niezależnych prób o możliwych k wynikach, przy czym prawdopodobieństwo wyniku typu i (i = 1, ..., k) wynosi odpowiednio pi , prawdopodobieństwo uzyskania n1 wyników typu 1, n2 wyników typu 2,..., nk wyników typu k (n1 + · · · + nk = n) dane jest wzorem n! pn1 ...pnk k n1 !...nk ! 1 0.2.1 Wzór na prawdopodobieństwo warunkowe Definicja 0.2.2 Dla dowolnego zdarzenia A ⊆ Ω , takiego, że P (A) > 0 prawdopodobieństwem warunkowym przy warunku A nazywamy funkcjȩ prawdopodobieństwa P (·|A) określona̧ na Ω nastepuja̧cym wzorem P (B|A) = P (A ∩ B) P (A) dla zdarzeń B ⊆ Ω. Łatwo sprwadzić, że P (·|A) ma wymagane własności funkcji prawdopodobieństwa: • 0 ¬ P (B|A) ¬ 1, dla każdego zdarzenia B ⊆ Ω, 5 • P (B1 ∪ B2 |A) = P (B1 |A) + P (B2 |A), dla dowolnych rozła̧cznych zdarzeń B1 , B2 . • P (Ω|A) = 1 Zauważmy, że wtedy również P (A|A) = 1, to znaczy masa prawdopodobieństwa warunkowego skupiona jest na zdarzeniu wzglȩdem którego warunkujemy. Przykład 0.2.2 Wartość P (·|A) dla każdego B niezależnego od A pokrywa siȩ z wartościa wyjściowego prawdopodobieństwa P tzn. P (B|A) = P (B). Rozwiazanie w powyższym przykładzie można uogólnić. Jeśli B1 , ..., Bk stanowia̧ rozbicie rozła̧czne Ω, tzn. Ω = B1 ∪ ... ∪ Bk oraz B1 ∩ ... ∩ Bk = ∅, to zachodzi wzór na prawdopodobieństwo całkowite P (A) = k ∑ P (A|Bi )P (Bi ) i=1 dla każdego zdarzenia A ⊆ Ω. 0.2.2 Reguła Bayesa Rozwia̧zanie w powyższym przykładzie sugeruje ogólny wzór: Wzór Bayesa Jeśli B1 , ..., Bk stanowia̧ rozbicie rozła̧czne Ω, tzn. Ω = B1 ∪ ... ∪ Bk oraz B1 ∩ ... ∩ Bk = ∅ , oraz P (A) > 0, P (Bi ) > 0 to P (Bi )P (A|Bi ) P (Bi |A) = ∑k j=1 P (A|Bj )P (Bj ) dla dowolnego i = 1, ..., k. 0.3 0.3.1 NIEZALEŻNOŚĆ: Ciagi , Schemat Bernoulliego Przykład 0.3.1 (Rozkład dwumianowy). Powtarzamy pewien eksperyment o możliwych wynikach: sukces (S) lub porażka (P), n razy. Jak zdefiniować prawdopodobieństwo P na Ω = {ω = (W1 , ..., Wn ) : Wi ∈ {S, P }, i = 1, ..., n} gdzie Wi oznacza wynik i-tej próby, tak aby zdarzenia : w i -tej próbie sukces, oraz : w i + j- tej próbie porażka (dla wszystkich 1 ¬ i < i + j ¬ n) były niezależne? Prawdopodobieństwo uzyskania k sukcesów w n próbach równa siȩ wtedy ( ) n k p (1 − p)n−k k gdzie p ∈ (0, 1) jest prawdopodobieństwem sukcesu w jednej próbie. Przykład 0.3.2 (Rozkład geometryczny). Rzucamy kostka̧ do chwili uzyskania 6. Niech N oznacza ilość potrzebnych rzutów. Wtedy P (N = k) = (5/6)k (1/6). (k = 1, 2, ...). Ogólnie liczba prób N potrzebna do uzyskania pierwszego sukcesu jest wielkościa̧ losowa̧, dla której P (N = k) = (1 − p)k−1 p , gdzie p ∈ (0, 1) jest prawdopodobieństwem sukcesu w jednej próbie oraz k = 1, 2, .... 6 Przykład 0.3.3 (Ujemny rozkład dwumianowy). Powtarzamy próby o możliwych wynikach sukces (S), porażka (P), do czasu uzyskania dokładnie k sukcesów. Wtedy dla Tk , liczby potrzebnych prob zachodzi ( P (Tk = m + k) = ) m+k−1 (1 − p)m pk m dla dowolnego k = 1, 2, ... oraz m = 0, 1, 2, ... 0.3.2 Istnienie nieskończonego cia̧gu zmiennych losowych niezależnych Niech Ω = [0, 1], P = |·| (miara Lebesgue’a, miara długości). Zdarzeniami bȩda̧ wszystkie zbiory borelowskie w [0, 1]. Dla dowolnego ω ∈ [0, 1] niech ω = Z21 + Z222 + Z233 + ... bedzie rozwiniȩciem dwójkowym (dla jednoznaczności przyjmujemy rozwiniecia o skończonej ilości jedynek, jeśli takie sa̧ dopuszczalne). Wtedy cia̧g (Z1 , Z2 , ...) jest cia̧giem niezależnych zmiennych losowych o wartościach 0 i 1. Uzasadnienie: Wystarczy pokazać, że P (Z1 = d1 , ..., Zn = dn ) = P (Z1 = d1 )...P (Zn = dn ) dla dowolnego układu zer i jedynek d = (d1 , ..., dn ), (di ∈ {0, 1}). Niech Ad = {Z1 = d1 , ..., Zn = dn } wtedy Ω = ∪d Ad jest rozła̧czna̧ suma̧ 2n zbiorów, gdzie sumowanie jest po wszystkich układach zer i jedynek na n miejscach. Rozpatrzmy dwa dowolne takie układy d, d′ . Niech Td,d′ (ω) = ω + n ∑ d′i − di i=1 2i dla ω ∈ [0, 1]. Wtedy oczywiście Td,d′ (Ad ) = Ad′ , a ponieważ Td,d′ jest przesuniȩciem i w zwia̧zku z tym nie zmienia miary P zbioru Ad , tzn. P (Ad ) = P (Td,d′ (Ad )) = P (Ad′ ), wynika sta̧d, że wszystkie zbiory Ad maja̧ to samo prawdopodobieństwo niezależnie od indeksu d. Ponieważ jest ich 2n i w sumie daja̧ one Ω, wnioskujemy, że P (Ad ) = 21n dla każdego d. Mamy wiȩc P (Z1 = d1 , ..., Zn = dn ) = P (Ad ) = 21n . Zauważmy teraz, że P (Z1 = d1 ) = 1/2, bo wystarczy podstawić n = 1 w poprzedniej równości. Ponadto P (Z2 = d2 ) = P (Z1 = 0, Z2 = 2)+P (Z1 = 1, Z2 = d2 ) = 1/4+1/4 = 1/2, wykorzystuja̧c tȩ sama̧ równość dla n = 2 . Rozumujac przy pomocy indukcji matematycznej otrzymujemy ogólnie P (Zn = dn ) = 1/2, a sta̧d warunek niezależności bezpośrednio wynika. Aby skonstruować cia̧g niezależnych zmiennych losowych o rozkładach dowolnych przy użyciu cia̧gu (Z1 , Z2 , ...) ustawiamy go w tablicȩ (Zik )i=1,2,...k=1,2,... . Niech teraz Ui = ∞ ∑ Zik /2k k=1 Wtedy (U1 , U2 , ....) tworza̧ cia̧g niezależnych zmiennych losowych o rozkładach jednostajnych na [0, 1]. Rzeczywiście dla x ∈ [0, 1] [ P (Ui ¬ x) = lim P (UiN ¬ x) = lim N →∞ N →∞ x2N 2N ] =x gdzie UiN = N ∑ Zik /2k k=1 Biora̧c teraz Xi = F −1 (Ui ), dla dowolnej cia̧głej dystrybuanty F otrzymujemy ciag (X1 , X2 , ...) niezależnych zmiennych losowych o jednakowym rozkładzie o dystrybuancie F . 7 0.3.3 Łańcuchy Markowa, rekurencje Przykład 0.3.4 (Łańcuch Markowa o 2 stanach). Załóżmy, że na rynku sa̧ dwa typy pasty do zȩbów: a, b. Klienci kupuja̧ przy każdym nastȩpnym zakupie pasty ten sam typ z prawdopodobieństwem 3/4 oraz inny typ z prawdopodobieństwem 1/4. Załóżmy, że fk procent klientów przy k-tym zakupie kupuje typ pasty a. Wyliczamy kolejne wartości fk dla k > 1, zakładaja̧c, że f1 = 1/3. Zachodzi fk = (3/4)fk−1 + (1/4)(1 − fk−1 ) oraz fk → 1/2, gdy k → ∞. 0.3.4 Rekurencje Przykład 0.3.5 (Ruina gracza). Rozważmy grȩ, w której wygrywamy 1 z prawdopodobieństwem p ∈ (0, 1), przegrywamy 1 z prawdopodobieństwem q = 1 − p. Zaczynamy maja̧c 50 i kończymy maja̧c 100 lub gdy stracimy wszystko. Wyliczamy prawdopodobieństwo zakończenia gry maja̧c 100. Zachodzi rekurencja ai = pai+1 + qai−1 dla ai prawdopodobieństwa, że kończymy maja̧c 100, przy kapitale pocza̧tkowym 1 ¬ i ¬ 99, przy czym a0 = 0, a100 = 1. Otrzymujemy ai = 1 ( pq )100 q (( )i − 1) −1 p Wprzypadku ruletki p = 18/38 = 0.4736, wtedy a50 = 0.005127(ok. 5 razy na tysia̧c gier wygramy). Przykład 0.3.6 Grześ i Andrzej kolejno rzucaja̧ moneta̧. Jeśli wypada orzeł wygrywa Andrzej i dostaje od Grzesia 1, jesli wypada reszka wygrywa Grześ i dostaje od Andrzeja 1. Poczatkowo Grześ ma 50, Andrzej 25. Jakie jest prawdopodobieństwo, że Andrzej straci wszystko? Niech ai oznacza prawdopodobieństwo, że Andrzej straci wszystko, w sytuacji gdy Grześ ma i , a Andrzej 75 − i, dla 1 ¬ i ¬ 74. Przyjmujemy a0 = 0, a75 = 1. Zachodzi rekurencja ai = (1/2)ai+1 + (1/2)ai−1 Znajdujemy ai = i/75. Sta̧d Andrzej przegra z prawdopodobieństwem 50/75=2/3. 0.4 Rozkłady 0.4.1 Zmienne losowe Definicja 0.4.1 Niech Ω bȩdzie zbiorem przeliczalnym. Funkcjȩ X : Ω → R nazywamy rzeczywista̧ zmienna̧ losowa̧. Definicja 0.4.2 Dla zmiennej losowej X przyjmujacej wartości całkowite, ciag pX (i) = P (X = i) nazywamy funkcja̧ prawdopodobieństwa zmiennej losowej X (i ∈ Z). Każdy cia̧g liczbowy {p(i)}i∈Z o własnościach 1. 0 ¬ p(i) ¬ 1, i ∈ Z 2. ∑ i∈Z p(i) = 1 8 jest funkcja̧ prawdopodobieństwa pewnej zmiennej losowej. Uwaga 0.4.1 Cia̧g {pX (i)} wyznacza funkcjȩ prawdopodobieństwa PX na Z poprzez równość: PX (A) = ∑ pX (i) i∈A określona̧ dla każdego A ⊆ Z. Parȩ (Z, PX ) nazywamy kanoniczna̧ przestrzenia̧ probabilistyczna̧ zmiennej X. Przykład 0.4.1 (Rozkład hipergeometryczny). W urnie jest M czerwonych i N czarnych kul. Wycia̧gamy n kul. Niech R oznacza ilość czerwonych kul spośród n wycia̧gnietych kul. Wtedy (M )( pR (r) = P (R = r) = N ) r n−r (M +N ) n dla r = 0, ..., n . Pozostałe wartości pR (r) przyjmujemy, że sa̧ równe 0. 0.4.2 Przybliżenie rozkładu dwumianowego Przykład 0.4.2 (Rozkład Poissona). Niech dla λ > 0 pλ (i) = e−λ λi i! dla i = 0, 1, ..., poza tym 0. Cia̧g ten ma własności funkcji prawdopodobieństwa. Nazywamy go rozkładem Poissona z parametrem λ. Rozkład Poissona odgrywa ważna̧ rolȩ jako przybliżenie innych rozkładów. Przykład 0.4.3 Niech Sn oznacza liczbȩ sukcesów w n próbach Bernoulliego, przy czym załóżmy, że prawdopodobieństwo sukcesu w n próbach równa siȩ pn (może zmieniać siȩ wraz z ilościa̧ prób). Wtedy ( ) wiadomo, że P (Sn = k) = nk pkn (1 − pn )n−k . Jeśli npn → λ̇ > 0, to P (Sn = k) → pλ (k) przy n → ∞, dla każdego k ∈ N . Rozkład Poissona stanowi dobre przybliżenie rozkładu dwumianowego, o małym prawdopodobieństwie sukcesu, ale o dużej ilości prób, przy czym pn = λ. 0.4.3 Gȩstości i dystrybuanty Definicja 0.4.3 Zmienna losowa X ma rozkład (absolutnie) cia̧gły o gȩstości fX : R → R gdy P (a ¬ X ¬ b) = ∫ b fX (y)dy a dla każdego a ¬ b ∈ R. Oczywiście ∫∞ −∞ fX (x)dx = 1, zawsze pole pod wykresem gȩstości równa siȩ 1. Uwaga 0.4.2 Dla każdej funkcji f nieujemnej, rzeczywistej, takiej, że losowa taka, że f jest jej gȩstościa̧ prawdopodobieństwa. 9 ∫∞ −∞ f (x)dx = 1,istnieje zmienna Przykład 0.4.4 (Gȩstość Pareto) { f (x) = (α − 1)x−α gdy x ­ 1 0 poza tym gdzie α > 1 jest parametrem rozkładu. Przykład 0.4.5 (Rozkład wykładniczy). { f (x) = λe−λx dla x ­ 0 0 poza tym gdzie λ > 0 jest parametrem rozkładu. Przykład 0.4.6 (Rozkład standardowy normalny) √ 2 2 f (x) = (1/ 2π)e−x /2 gdzie x ∈ R. (Dowód, że jest to gȩstość na wykładzie) Bardziej uniwersalnym niż gȩstość probabilistycznym opisem zmiennych losowych jest dystrybuanta. Definicja 0.4.4 Dystrybuanta̧ zmiennej losowej X , nazywamy funkcjȩ FX (x) = P (X ¬ x) dla x ∈ R. Dystrybuanta ma nastȩpuja̧ce własności: 1. FX jest niemaleja̧ca 2. FX (x) → 1, gdy x → ∞ 3. FX (x) → 0, gdy x → −∞ 4. FX jest prawostronnie cia̧gła Uwaga 0.4.3 Gdy zmienna losowa X ma gȩstość fX ,to FX (x) = ∫x −∞ fX (y)dy. Przykład 0.4.7 (Dystrybuanta Pareto). Gȩstość Pareto f (x) = (α − 1)x−α I[1,∞) (x). Wyliczamy : F (x) = (1 − x−(α−1) )I[1,∞) (x) Uwaga 0.4.4 Szansa, że wartości zmiennej losowej X zawarte bȩda̧ w przedziale [a, b] , gdzie a ¬ b, można wyrazić przy pomocy dystrybuanty nastȩpuja̧co P (a ¬ X ¬ b) = F (b) − F (a) Przykład 0.4.8 (Dystrybuanta wykładnicza). Ponieważ gȩstość f (x) = λe−λx I[0,∞) (x), otrzymujemy F (x) = (1 − e−λx )I[0,∞) (x). 10 Uwaga 0.4.5 Funkcjȩ F (x) = 1 − F (x), x ∈ R, nazywamy ogonem dystrybuanty F. W teorii niezawodności F nazywana jest funkcja̧ niezawodności, gdyż F (x) = P (X > x), można interpretować jako prawdopodobieństwo bezawaryjnej pracy maszyny, gdzie X oznacza wtedy losowy czas pracy maszyny. Przykład 0.4.9 (Własność braku pamiȩci rozkładu wykładniczego). Jeśli X ma rozkład wykładniczy, to P (X > t + s|X > t) = P (X > s) dla dowolnych t, s ­ 0. Interpretacja: szansa, że dalszy czas pracy maszyny przekroczy s , jeśli maszyna jest sprawna do czasu t, jest taka sama jak szansa, że nowa maszyna przepracuje conajmniej s. Wzór ten można równoważnie zapisać jako F (t + s) = F (t)F (s). Przykład 0.4.10 (Dystrybuanta dyskretna). Niech X bȩdzie zmienna̧ losowa̧ przyjmuja̧ca̧ wartości 0, 1, 2, 3, z prawdopodobieństwami odpowiednio 1/8, 3/8, 3/8, 1/8. Odpowiednia̧ funkcjȩ prawdopodobieństwa można opisać tabelka̧ (poza tym zero) i 0 1 2 3 p(i) 1/8 3/8 3/8 1/8 Dystrybuanta odpowiadaja̧ca tej funkcji prawdopodobieństwa może być zapisana na wiele sposobów: F (x) = ∑ p(i) i¬x lub F (x) = ∑ p(i) i∈(−∞,x] lub 1 4 7 F (x) = I[0,1) (x) + I[1,2) (x) + I[2,3) (x) + I[3,∞) (x) 8 8 8 lub 1 3 3 1 F (x) = I[0,∞) (x) + I[1,∞) (x) + I[2,∞) (x) + I[3,∞) (x) 8 8 8 8 0.4.4 Funkcje od zmiennych losowych Niech Y = ψ(X), dla pewnej zmiennej losowej X, o gȩstości f i funkcji (mierzalnej) ψ : R → R. . Obliczymy gȩstość zmiennej Y. Przykład 0.4.11 Niech X bȩdzie zmienna̧ o rozkładzie wykładniczym oraz ψ(x) = x2 . Wtedy FY (y) = √ 2y −λ (1 − e )I[0,∞) (y) oraz √ √ 2 fY (y) = (λ/2 2 y)e−λ y I(0,∞) (y) Ogolnie, jeśli ψ jest róózniczkowalna i ściśle rosna̧ca na zbiorze wartości zmiennej X, to Y = ψ(X) ma gȩstość fY (y) = fX (ψ −1 (y))(ψ −1 )′ (y) 11 Przykład 0.4.12 (Niestandardowy rozklad normalny). Niech X ma rozkład standardowy normalny oraz ψ(x) = σx + µ,dla σ > 0, µ ∈ R. Wtedy Y = σX + µ ma rozkład o gȩstości √ 2 2 2 fY (y) = (1/ 2πσ 2 )e−(x−µ) /2σ Rozkład ten (lub zmienne o tym rozkładzie) oznaczamy N (µ, σ). Wniosek 0.4.1 Jeśli Y ma rozkład normalny N (µ, σ), to X = (Y − µ)/σ ma rozkład N (0, 1). Przykład 0.4.13 (Rozkład jednostajny). Niech X ma rozkład standardowy wykładniczy oraz ψ(x) = (1 − e−x )I[0,∞) (x). Wtedy Y = ψ(X) ma rozkład jednostajny na [0, 1], tzn. fY (y) = I[0,1) (y). Ogólnie, jeśli X ma dystrybuantȩ F o gȩstości f , to Y = F (X) ma rozkład jednostajny na [0, 1]. Cia̧gła̧ funkcjȩ F można zawsze odwrócić w nastȩpuja̧cy sposób: F −1 (y) = min{x : F (x) ­ y} Wtedy analogicznie otrzymujemy Wniosek 0.4.2 Jeśli Y ma rozkład jednostajny na [0, 1], to X = F −1 (Y ) ma rozkład o dystrybuancie F , przy założeniu, że F jest cia̧gła. 0.4.5 Rozkłady ła̧czne i brzegowe Rozkłady ła̧czne służa̧ do opisu wektora zmiennych losowych (X1 , ..., Xn ). Rozważamy najpierw przypadek n = 2 i zamiast (X1 , X2 ) piszemy (X, Y ). Gdy X, Y przyjmuja̧ wartości całkowite, określamy (ła̧czna̧) funkcjȩ prawdopodobieństwa. Definicja 0.4.5 Niech X, Y ∈ Z, wtedy (ła̧czna̧) funkcja̧ prawdopodobieństwa nazywamy p(X,Y ) (i, j) = P (X = i, Y = j) określona̧ dla i, j ∈ Z. Przykład 0.4.14 W pewnej populacji mȩżczyzn sklasyfikowano ich wzrost i ciȩżar. Dane ujȩto w kategoriach, dla wzrostu: kategoria 1 2 3 wzrost 170 ± 5 180± 190 ± 5 dla ciȩżaru ciała kategoria 0 1 2 3 ciȩżar 60 ± 5 70 ± 5 80 ± 5 90 ± 5 Procentowo ujȩte wyniki ła̧czne przedstawiono w tabeli: wzrost\ ciȩżar 0 1 2 3 1 8% 8% 6% 0 2 8% 16% 16% 8% 3 0 8% 10% 12% 12 Wybieraja̧c losowo osobnika z tej populacji, oznaczmy przez X jego wzrost, przez Y jego ciȩżar. Wtedy ła̧czna funkcja prawdopodobieństwa p(X,Y ) (i, j), dla i = 1, 2, 3 oraz j = 0, 1, 2, 3 (poza tym zero) zawarta jest w tabelce p(X,Y ) (i, j) 0 1 2 3 1 0.08 0.08 0.06 0 2 0.08 0.16 0.16 0.08 3 0 0.08 0.1 0.12 Oczywiście ∑ i,j p(X,Y ) (i, j) = 1. W przypadku zmiennych losowych typu cia̧głego definiujemy (ła̧czna̧) gȩstość: Definicja 0.4.6 Para (wektor) zmiennych losowych (X, Y ) ma gȩstość f (x, y) jeśli P ((X, Y ) ∈ A) = ∫ ∫ f (x, y)dxdy A dla f : R2 → R2 , takiej, że f ­ 0 oraz ∫∫ R2 f (x, y)dxdy = 1, gdzie A jest obszarem regularnym. W szczególności, gdy A = [x, x + △x] × [y + △y], dla małych dodatnich wartości △x, △y,wtedy P (x ¬ X ¬ x + △x, y ¬ Y ¬ y + △y) = ∫ x+△x ∫ y+△y x y f (u, v)dudv ≈ f (x, y)△x△y Przykład 0.4.15 Niech f (x, y) = e−y I{(x,y):0<x<y} (x, y). Wtedy ∫∫ f (x, y)dxdy = 1. Przykład 0.4.16 (Rozkład jednostajny na kole). Wybieramy losowo punkt na kole jednostkowym K = {(x, y) : x2 + y 2 ¬ 1}. Niech (X, Y ) oznacza wektor jego współrzȩdnych. Wtedy gȩstość tego wektora f (x, y) = (1/π)IK (x, y) dla wszystkich x, y ∈ R. Dystrybuanta dwuwymiarowa Definicja 0.4.7 Niech (X, Y ) bȩdzie wektorem zmiennych losowych. Dystrybuanta̧ (X, Y ) nazywamy funkcjȩ F : R2 → [0, 1], określona̧ wzorem F (x, y) = P (X ¬ x, Y ¬ y) Uwaga 0.4.6 Jeśli (X, Y ) ma gȩstość f (x, y), to ∫ F (x, y) = x ∫ y −∞ −∞ f (u, v)dydx Dla dowolnych a1 < b1 oraz a2 < b2 , zwia̧zek P(X,Y ) ((a1 , b1 ] × (a2 , b2 ]) = P (a1 < X ¬ b1 , a2 < Y ¬ b2 ) określa prawdopodobieństwo P(X,Y ) na płaszczyźnie R2 (i σ−ciele zbiorów borelowskich). Przestrzeń probabilistyczna̧ Ω(X,Y ) = (R2 , P(X,Y ) ) nazywamy kanoniczna̧ przestrzenia̧ probabilistyczna̧ wektora (X, Y ). Szansȩ uzyskania wartości w prostoka̧cie można wyrazić przy pomocy dystrybuanty: P (a1 < X ¬ b1 , a2 < Y ¬ b2 ) = F (b1 , b2 ) + F (a1 , a2 ) − F (a1 , b2 ) − F (b1 , a2 ) 13 Rozkłady brzegowe Niech (X, Y ) bȩdzie wektorem losowym takim, że X, Y ∈ Z. Z ła̧cznej funkcji prawdopodobieństwa p(X,Y ) można wyliczyć funkcje prawdopodobieństwa zmiennych X oraz Y jako zmiennych jednowymiarowych (tzw. rozkłady brzegowe). pX (i) = ∑ P (X = i, Y = j) = ∑ p(X,Y ) (i, j) j j pY (j) = ∑ P (X = i, Y = j) = i ∑ p(X,Y ) (i, j) i Przykład 0.4.17 Niech (X, Y ) ma funkcjȩ prawdopodobieństwa zadana̧ tabela̧: p(X,Y ) (i, j) 0 1 2 3 1 0.08 0.08 0.06 0 2 0.08 0.16 0.16 0.08 3 0 0.08 0.1 0.12 Wtedy pX (1) = 0.22, pX (2) = 0.48, pX (3) = 0.30 oraz pY (0) = 0.16, pY (1) = 0.32, pY (2) = 0.32, pY (3) = 0.20. W przypadku zmiennych typu cia̧głego, jeśłi (X, Y ) ma gȩstość f (x, y), to gȩstości brzegowe zadane sa̧ przez: ∫ fX (x) = f (x, y)dy R ∫ fY (y) = f (x, y)dx R Niezależnośc zmiennych losowych Definicja 0.4.8 Niech X, Y ∈ Z. Zmienne X, Y sa̧ niezależne jeśli p(X,Y ) (i, j) = pX (i)pY (j) dla wszystkich i, j ∈ Z. Definicja 0.4.9 Niech X, Y bȩda̧ typu cia̧głego o gȩstości f(X,Y ) . Zmienne X, Y sa̧ niezależne jeśli f(X,Y ) (x, y) = fX (x)fY (y) dla wszystkich x, y ∈ R. W powyższych przypadkach niezależność zmiennych jest równoważna niezależności zdarzeń A = {ω : X(ω) ∈ I1 } i B = {ω : Y (ω) ∈ I2 }, dla dowolnych przedziałów I1 , I2 , tzn. warunkowi P (X ∈ I1 , Y ∈ I2 ) = P (X ∈ I1 )P (Y ∈ I2 ) 14 Przykład 0.4.18 Niech (X, Y ) maja̧ funkcjȩ prawdopodobieństwa p(i, j) 1 2 pX 1 0.3 0 0.3 2 0.4 0.3 0.7 pY 0.7 0.3 Zmienne nie sa niezależne, bo 0 = p(1, 2) ̸= pX (1)pY (2) = 0.3 · 0.3 Przykład 0.4.19 Niexh (X, Y ) maja̧ funkcjȩ prawdopodobieństwa p(i, j) 1 2 pX 1 0.28 0.12 0.4 2 0.42 0.18 0.6 pY 0.7 0.3 Zmienne X, Y sa̧ niezależne. Przykład 0.4.20 Niech (X, Y ) maja̧ gȩstość f (x, y) = ((x + y + 1)/2)I(0,1)×(0,1) (x, y). Wtedy X, Y nie sa̧ niezależne. Dla wektora n ∈ N zmiennych losowych (X1 , ..., Xn ) niezależność definiujemy analogicznie do przypadku n = 2. Definicja 0.4.10 Jeśli (X1 , ..., Xn ) ma rozkład typu cia̧głego o gȩstości f (x1 , ..., xn ) wtedy X1 , ..., Xn sa̧ niezależne gdy f (x1 , ..., xn ) = fX1 (x1 )...fXn (xn ) dla wszystkich x1 , ..., xn ∈ R. Definicja 0.4.11 Jeśli (X1 , ..., Xn ) ma rozkład typu dystkretnego o funkcji prawdopodobieństwa p(i1 , ..., in ) wtedy X1 , ..., Xn sa̧ niezależne, gdy p(i1 , ...., in ) = pX1 (i1 )...pXn (in ) dla wszystkich i1 , ..., in ∈ Z. Niezależność (X1 , ..., Xn ) w obu przypadkach jest równoważna warunkowi P (X1 ∈ A1 , ..., Xn ∈ An ) = P (X1 ∈ A1 )...P (Xn ∈ An ) dla dowolnych zbiorów A1 , ..., An . 0.4.6 Sumy niezależnych zmiennych losowych Dla dyskretnych zmiennych losowych P (X + Y = k) = ności X, Y otrzymujemy P (X + Y = k) = ∑ P (X = i)P (Y = k − i) i 15 ∑ i P (X = i, Y = k − i). Przy założeniu niezależ- Przykład 0.4.21 Niech X bȩdzie liczba̧ sukcesów w n1 próbach Bernoulliego o prawdopodobieństwie sukcesu p ∈ (0, 1). Niech Y bȩdzie niezależna̧ od X zmienna̧ losowa̧ bȩda̧ca̧ liczba̧ sukcesów w n2 próbach Bernoulliego o tym samym prawdopodobieństwie sukcesu . Wtedy X + Y ma rozkład dwumianowy b(k, n1 + n2 , p). Przykład 0.4.22 Jeśli X, Y sa̧ niezależne i X ∼ P oisson(λ) oraz Y ∼ P oisson(µ), to X + Y ∼ P oisson(λ + µ). Dla zmiennych losowych typu cia̧głego X ∼ fX oraz Y ∼ fY , jeśli X, Y sa̧ niezależne to X + Y ma gȩstość ∫ fX+Y (z) = ∞ −∞ fX (x)fY (z − x)dx = ∫ ∞ −∞ fY (x)fX (z − x)dx Przykład 0.4.23 Niech X ∼ U [0, 1] oraz Y ∼ U [0, 1] maja̧ ten sam rozkład jednostajny na [0, 1]. Jeśli X i Y sa̧ niezależne, to fX+Y (z) = z gdy 0 ¬ z ¬ 1 2 − z gdy 1 ¬ z ¬ 2 0 poza tym Wykres tej gȩstości: Przykład 0.4.24 (Rozkład Erlanga rzȩdu n). Jeśli X1 , ..., Xn sa̧ niezależne o rozkładzie wykładniczym z parametrem λ > 0, to fX1 +...+Xn (z) = ((n − 1)!/λn−1 )−1 z n−1 λe−λz I(0,∞) (z) Przykład 0.4.25 (Proces Poissona) Niech (X1 , X2 , ...) bȩdzie nieskończonym cia̧giem niezależnych zmiennych losowych o rozkładach wykładniczych z parametrem λ > 0. Wtedy N (t) = max{n : X1 + ... + Xn ¬ t}, dla dowolnego t ­ 0 liczy ile punktów umieszczonych w odstȩpach kolejno Xi , i = 1, 2, ... od pocza̧tku układu współrzȩdnych zmieści siȩ przed t. Zbiór zmiennych losowych (N (t), t ­ 0) nazywamy procesem Poissona. Wtedy P (N (t) = i) = (λt)i −λt e i! dla i = 0, 1, 2, ..., tzn. zmienne N (t) maja̧ rozkłady Poissona, których parametr zmienia siȩ wraz z t i równa siȩ λt. 16 0.5 WARTOŚĆ OCZEKIWANA Jeśli (X1 , X2 , ....) jest cia̧giem niezależnych zmiennych losowych o jednakowych rozkładach, przyjmuja̧cych n dla dostatecznie dużych wartości wartości ograniczone, to intuicyjnie ich średnia arytmetyczna X1 +...+X n n powinna być zbieżna do pewnej wartości stałej (pomyśl o rzutach moneta̧ lub kostka̧). Uściślenie tej intuicji wymagać bȩdzie określenia co to znaczy tutaj zbieżna (pojȩcie dla zmiennych losowych a nie liczb) oraz motywuje wprowadzenie wartości oczekiwanej, ktora okaże siȩ być ta̧ graniczna̧ wartościa̧ stała̧ zależna̧ jedynie od rozkładu, który jest tutaj wspólny dla wszystkich sumowanych zmiennych losowych. Precyzyjne wysłowienie tego faktu bȩdzie treścia̧ twierdzenia zwanego Prawem Wielkich Liczb. Definicja 0.5.1 Jeśli X jestzmienna̧ losowa̧ przyjmuja̧ca̧ wartości całkowite, o funkcji prawdopodobieństwa (p(i), i ∈ Z), to wartościa̧ oczekiwana̧ zmiennej X (lub wartościa̧ oczekiwana̧ rozkładu p(i)) nazywamy liczbȩ oznaczana̧ EX, zadana̧ wzorem EX = ∑ ip(i) i∈Z o ile ta wartość istnieje. Istnienie wartości oczekiwanej skomentujemy później. Przykład 0.5.1 Rzut moneta̧. Niech X = 1, gdy wypadnie orzeł, 0, gdy wypadnie reszka. EX = 1 1 1 2 0 + 2 1 = 2 . Zauważmy, że wartość 1/2 nie jest przyjmowana przez X. Przykład 0.5.2 Rzut kostka̧. EX = 3.5. Przykład 0.5.3 Rozkład Poissona z parametrem λ. EX = λ. Definicja 0.5.2 Jeśli zmienna X ma gȩstość f , wtedy ∫ EX = ∞ −∞ xf (x)dx o ile ta wartość istnieje. Przykład 0.5.4 Rozkład jednostajny na [0, 1]. EX = 1/2. Przykład 0.5.5 Gȩstość Erlanga rzȩdu n. EX = n/λ. Przykład 0.5.6 Rozkład Cauchyego. f (x) = 1 π(1 + x2 ) x ∈ R. Wartość oczekiwana nie istnieje. (Zmienna losowa o gȩstości symetrycznej nie musi mieć wartości oczekiwanej 0) Przypomnijmy, że |x| = [x]+ + [x]− , gdzie [x]+ = max(o, x) oraz ∫[x]− = − min(0, x). Dla dowolnej ∫ funkcji g, g(x)dx istnieje i jest skończona wtedy i tylko wtedy, gdy∫ R [g(x)]+ dx < ∞ ∫(jest skończona) i R ∫ ∫ [g(x)] dx < ∞. Całka istnieje i jest nieskończona, gdy R [g(x)]+ dx = ∫∞ i R [g(x)]− dx < ∞ − R R g(x)dx ∫ ∫ ∫ (wtedy g(x)dx∫ = ∞) lub gdy R∫ [g(x)]+ dx < ∞ i R [g(x)] dx = ∞ (wtedy g(x)dx = −∞). W ∫ − przypadku gdy R [g(x)]+ dx = ∞ i R [g(x)]− dx = ∞ całka R g(x)dx nie istnieje. 17 Przykład 0.5.7 (Czas do równowagi) Nieskończona wartość oczekiwana pojawia siȩ w sposób bardzo naturalny: rzucamy moneta̧, niech Hn oznacza ilość orłów w n rzutach, Tn = n − Hn , oznacza ilość reszek w n rzutach. Czas zrównania siȩ ilości orłów i reszek po raz pierwszy możemy zdefiniować jako N = min{n : Hn = Tn }. EN = +∞. Do liczenia wartości oczekiwanej nieujemnych zmiennych losowych X o wartościach całkowitych uzyteczny jest wzór: EX = ∞ ∑ P (X ­ n) n=1 Przykład 0.5.8 Rozkład geometryczny na {1, 2, ...}. p(i) = (1 − p)i−1 p, dla p ∈ (0, 1). EX = 1/p. . 0.5.1 Momenty, funkcje tworza̧ce ∑ Niech Y = ψ(X), dla pewnej funkcji ψ : R → R. Wtedy EY = i∈Z ψ(i)P (X = i), dla X typu ∫∞ dyskretnego o wartościach całkowitych. Gdy X v f ma gȩstość, to EY = −∞ ψ(x)f (x)dx. Jeśli Y przyjmuje (niekoniecznie całkowite) wartości y1 , y2 , ... z prawdopodobieństwami p(1), p(2), ... od∑ powiednio, to EY = ∞ i=1 yi p(i).\ Przykład 0.5.9 Rzut kostka̧. X liczba oczek, Y = √ 2 X. Przykład 0.5.10 Momenty rozkładu jednostajnego. X ∼ U [0, 1], Y = X k dla k ∈ N. (ψ(x) = xk ) . 1 EY = k+1 . Definicja 0.5.3 Dla zmiennej losowej X, wartość EX k < ∞, k ∈ N ( o ile istnieje i jest skończona) nazywamy k−tym momentem X. (Wartość oczekiwana jest pierwszym momentem). Przykład 0.5.11 Funkcja tworza̧ca momenty rozkładu wykładniczego. Niech X ∼Wykładniczy (λ). λ . Wtedy dla Y = etX , t < λ, EY = λ−t Przykład 0.5.12 Funkcja tworza̧ca momenty rozkładu gamma. Niexh X ∼ gamma(n, λ). Wtedy dlaY = λ n etX , t < λ, EY = ( λ−t ) . Definicja 0.5.4 Dla zmiennej losowej X funkcjȩ φX (t) = EetX określona̧ dla t ∈ R (być może o wartościach nieskończonych) nazywamy funkcja̧ tworza̧ca̧ momenty zmiennej X. Zwa̧zek tej funkcji z momentami zmiennej X jest nastȩpuja̧cy (k) EX k = φX (0) dla k ∈ N. Przykład 0.5.13 Momenty rozkładu wykładniczego. X ∼Wykładniczy (λ), wtedy EX k = 18 k! . λk Definicja 0.5.5 Dla zmiennej X o wartościach {0, 1, 2, ...} funkcjȩ γX (z) = E(z X ) = ∞ ∑ z i p(i) i=0 dla z ∈ [0, 1] nazywamy funkcja̧ tworza̧ca̧. Zwia̧zek tej funkcji z momentami jest nastȩpuja̧cy (k) γX (z) = E(X(X − 1)...(X − k + 1)) dla k ∈ N. Przykład 0.5.14 Mediana rozkładu. Właściciel bufetu sprzedaje kawȩ. Dzienny popyt na kawȩ określony jest przez zmienna̧ X o gȩstości f . Właściciel płaci c zł za litr kawy, otrzymuje b zł (b > c) i jeśli zabraknie mu kawy traci a zł na każdym brakuja̧cym litrze. Ile kawy powinien on kupić, aby zmaksymalizować (w sensie wartości średniej) swój zysk. Odp.: należy kupić v litrów kawy, gdzie v jest takie, że P (X > v) = c a+b . Gdy a = b = c = 1 wartość ta̧ nazywamy mediana̧ rozkładu zmiennej X. Definicja 0.5.6 Niech X bȩdzie taka, ze E|X| < ∞. Mediana̧ rozkładu zmiennej X jest liczba v, taka, ,że E|X − c| ­ E|X − v| dla wszystkich c ∈ R. Własności wartości oczekiwanej 1. E(aX + b) = aEX + b, dla a, b ∈ R 2. E(X + Y ) = EX + EY 3. X ­ Y ⇒ EX ­ EY 4. Jeśłi X1 , ..., Xn sa̧ niezależne, to E(X1 ...Xn ) = EX1 ...EXn 5. Jeśłi X1 , ..., Xn sa̧ niezależne, to E(g1 (X1 )...gn (Xn )) = Eg(X1 )...Egn (Xn ), dla dowolnych funkcji g1 , ..., gn . 6. Jeśłi X1 , ..., Xn sa̧ niezależne, to φX1 +...Xn (t) = φX1 (t)...φXn (t), dla funkcji tworza̧cych momenty Przykład 0.5.15 Warunek E(XY ) = EXEY nie implikuje niezależności X i Y. X\Y 1 0 pY −1 0 1 /4 1/4 0 1 /4 1 /4 1/2 1 0 1 /4 1/4 pX 1/4 3/4 wtedy EXY = 0 oraz EXY = EXEY , ale X, Y nie sa̧ niezależne. Funkcje tworza̧ce wyznaczaja̧ jednoznacznie rozkłady zmiennych losowych: Jeśli φX (t) = φY (t), t ∈ R, to FX = FY . Jeśli γX (z) = γY (z), z ∈ (0, 1), to pX (i) = pY (i), i ∈ Z+ . 19 0.5.2 Wariancja i kowariancja Miara̧ rozrzutu masy prawdopodobieństwa jest na przykład wariancja. Definicja 0.5.7 Jeśli EX 2 < ∞, to wariancja̧ zmiennej losowej X nazywamy wartość V arX = E(X − EX)2 = EX 2 − (EX)2 (Gdy EX 2 = ∞, wariancja jest nieskończona). Wartość √ 2 σX = V arX nazywamy odchyleniem standardowym zmiennej X. Przykład 0.5.16 Rozkład jednostajny, X ∼ U [0, 1], V arX = 1/12. Dla X ∼ U [a, b], V arX = (b − a)2 /12. Własności wariancji: 1. V ar(aX) = a2 V arX, a ∈ R 2. Jeśli X, Y sa̧ niezależne to V ar(X + Y ) = V arX + V arY 3. Jeśli V arX = 0, to P (X = EX) = 1, piszemy X = EX pw (prawie wszȩdzie) 4. V ar(X +Y ) = V arX +V arY +2Cov(X, Y ), gdzie Cov(X, Y ) = E(XY )−EXEY (tzw. kowariancja zmiennych X, Y ). Jeśli Cov(X, Y ) = 0, to zmienne sa̧ nieskorelowane (z przykładu wyżej wynika, że niekoniecznie niezależne). Przykład 0.5.17 Rzut kostka̧. EX = 21/6, EX 2 = 91/6, V arX = 105/36 ≈ 2.9166, σX ≈ 1.7078. Przy tym odchylenie mierzone wartościa̧ bezwzglȩdna̧ E|X − EX| = 1.5 jest różne od odchylenia standardowego. 0.6 0.6.1 TWIERDZENIA GRANICZNE Prawa wielkich liczb Lemat 0.6.1 Niech ϕ : [0, ∞) → R+ , bȩdzie niemaleja̧ca oraz X ­ 0. Wtedy Eϕ(X) ­ ϕ(y)P (X ­ y) dla każdego y > 0. Lemat 0.6.2 (Nierówność Czebyszewa). Niech Y bȩdzie zmienna̧ losowa̧ o skończonej wariancji. Wtedy V arY ­ y 2 P (|Y − EY | ­ y) 20 Przy powtarzaniu eksperymentów najcześciej badana̧ wielkościa̧ jest średnia próbkowa: dla zmiennych losowych X1 , ..., Xn (n ∈ N ) średnia̧ próbkowa̧ jest zmienna losowa X1 + ... + Xn n Jeśli Xi maja̧ jednakowy rozkład o skończonej wartości oczekiwanej, to dla µ = EXi Xn = EX n = µ jeśłi ponadto zmienne Xi sa̧ niezależne o skończonej wariancji σ 2 = V arXi ,, to V arX n = σ2 n oraz σ σX n = √ 2 n Widać sta̧d, że jeśli n jest ”duże”, to wariancja średniej próbkowej jest bliska zeru, a sta̧d średnia próbkowa jest wtedy bliska wartości stałej µ. Dokładniej mowia̧c, zachodzi: Twierdzenie 0.6.3 (Słabe prawo wielkich liczb). Jeśłi X1 , X2 , ...sa̧ niezależne o jednakowym rozkładzie i skończonej wartości oczekiwanej µ, to dla każdego ε > 0 P (|X n − µ| ­ ε) →n→∞ 0 Piszemy wtedy X n →P µ i określamy ta̧ zbieżność jako zbieżność według prawdopodobieństwa. Przykład 0.6.1 Chcemy wyznaczyć średni wzrost µ mȩżczyzn w wieku 20 lat w kraju. Wybieramy losowo (niezależnie) n mȩżczyzn (pobieramy próbkȩ z populacji) i otrzymujemy wartości X1 , ...., Xn . Z prawa wielkich liczb otrzymujemy, że dla ”dużych” n średnia próbkowa z dużym prawdopodobieństwem przybliża wartość µ. Przykład 0.6.2 (Czȩstość wystȩpowania zdarzenia, a jego prawdopodobieństwo). Powtarzamy eksperyment o wyniku liczbowym W niezależnie n razy. Niech Xi = IA (Wi ), tzn. Xi jest zmienna̧ zero-jedynkowa̧ przyjmuja̧ca̧ wartość 1, gdy i-ty wynik eksperymentu osia̧ga swoja̧ wartość w ustalonym zbiorze A. Wtedy X n można zinterpretować jako czȩstość zdarzenia, że wynik eksperymentu osia̧ga wynik w ustalonym zbiorze A. Z prawa wielkich liczb, dla ”dużych” n czȩstość ta jest bliska EXi = P (Wi ∈ A). Gdy A = (−∞, x], to X n ≈ P (W ¬ x). Zbieżność według prawdopodobieństwa w słabym prawie wielkich liczb może być zasta̧piona mocniejsza̧ zbieżnościa̧: Twierdzenie 0.6.4 (Mocne prawo wielkich liczb). Jeśłi X1 , X2 , ...sa̧ niezależne o jednakowym rozkładzie i skończonej wartości oczekiwanej µ, to P (X n →n→∞ µ) = 1 Piszemy wtedy X n → µ p.w. i określamy ta̧ zbieżność jako zbieżność prawie wszȩdzie. Szansȩ, że przybliżenie wartości oczekiwanej przez średnia̧ próbkowa̧ jest dobre można oszacować przy użyciu natȩpnego twierdzenia granicznego. 21 0.6.2 Centralne Twierdzenie Graniczne (CTG) Twierdzenie 0.6.5 Jeśli X1 , X2 , ... sa̧ niezależnymi zmiennymi losowymi o jednakowym rozkładzie i skończonej wariancji σ 2 , to dla każdego x ∈ R P( Xn − µ ¬ x) →n→∞ P (N (0, 1) ¬ x) σX n √ gdzie σX n = σ/ 2 n oraz N (0, 1) oznacza zmienna̧ o rozkładzie standardowym normalnym. Piszemy wtedy Xn − µ d → N (0, 1) σX n i określamy ta̧ zbieżność jako zbieżność według rozkładu. Zbieżność według rozkładu jest słabsza niż zbiezność według prawdopodobieństwa (jest przez nia̧ implikowana, lecz nie odwrotnie). Przykład 0.6.3 Gramy w ruletkȩ, stawiamy na czarne 81 razy, wygrywaja̧c lub przegrywaja̧c za każdym razem 1 zł. Jakie jest prawdopodobieństwo, że saldo gry bȩdzie dodatnie po 81grach? Używaja̧c CTG i tablic rozkładu normalnego otrzymujemy, że w przybliżeniu wynosi ono 0.3192. Przykład 0.6.4 Rzucamy moneta̧ 900 razy. Jakie jest prawdopodobieństwo, że uzyskamy conajmniej 465 orłów? Stosujemy CTG, używaja̧c tzw. poprawki histogramowej otrzymujemy 0.166. Przykład 0.6.5 Powtarzamy 15 razy eksperyment z prawdopodobieństwem sukcesu 0.2. Jakie jest prawdopodobieństwo dokładnie 3 sukcesów? Stosujemy CTG, używaja̧c przedziału długości 1 zawieraja̧cego 3, otrzymujemy 0.2510. Dokonujemy porównania z wartościami dokładnymi i z przybliżeniem Poissona(3). k Dokł. Normalne Poisson 0 0.0352 0.0422 0.0498 1 0.1319 0.1137 0.1494 2 0.2309 0.2060 0.2240 3 0.2501 0.2510 0.2240 4 0.1876 0.2060 0.1680 5 0.1032 0.1137 0.1008 6 0.04330 0.0422 0.0504 Przykład 0.6.6 Klienci przychodza̧ do punktu obsługi w godzinach 11:30-1:30 losowo z rozkładem Poissona (225). Jakie jest prawdopodobieństwo, że przyjdzie mniej niż 200 osób? Stosujemy CTG do sumy 225 zmiennych poissonowskich o średniej 1. Stosuja̧c poprawkȩ histogramowa̧ otrzymujemy 0.0446. Ogólnie widać, że N −λ P( √ ¬ x) ≈ P (N (0, 1) ¬ x) 2 λ dla dużych wartości λ oraz N ∼ P oisson(λ). 22 0.7 Dodatek 0.7.1 Funkcje specjalne • Funkcja Gamma ∫ ∞ tx−1 e−t dt, Γ(x) = x > 0. 0 Zachodzi: Γ(x + 1) = xΓ(x). • Niekompletna funkcja Gamma ∫ ∞ Γ(x, a) = tx−1 e−t dt, x > 0. a • Funkcja Beta ∫ B(a, b) := 0 1 ta−1 (1 − t)b−1 dt Zachodzi: B(a, b) = 0.7.2 Γ(a)Γ(b) Γ(a+b) Parametry i funkcje rozkładów Niech X bȩdzie zmienna̧ losowa̧. Ze zmiennymi losowymi bȩdziemy utożsamiali nastȩpuja̧ce funkcje: • Dystrybuanta F (x) = FX (x) := P (X ¬ x); • Funkcja przeżycia (ogon rozkładu) F (x) := 1 − F (x); • Gȩstość f (x) = fX (x) = d F (x); dx • Funkcja tworza̧ca momenty M (t) = MX (t) = E [exp(tX)] ; • Funkcja tworza̧ca kumulanty C(t) = CX (t) = log MX (t). • Funkcja tworza̧ca prawdopodobieństwa [ ] P (t) = PX (t) = E tX = MX (log t). 23 [ ] [ ] Oznaczmy teraz µk (X) = E X k , mk (X) = E (X − E [X])k . W przypadku, gdy wiadomo o jaka̧ zmienna̧ losowa̧ chodzi piszemy mk i µk . Parametr µk nazywany jest k-tym momentem zwykłym, mk - k-tym momentem centralnym. W szczególności µ1 =: µ jest średnia̧, a m2 jest wariancja̧. Pa3 4 rametr γ3 := m3/2 jest nazywamy skośnościa̧, a γ4 := m − 3 kurtoza̧. Iloraz γ1 := mµ2 nazywamy m2 m2 2 √ indeksem dyspersji, a γ2 = m2 µ współczynnikiem zmienności. Drugi i trzeci moment centralny można wyrazić za pomoca̧ momentów zwykłych: [ [ ] [ ] Var [X] = E (X − E [X])2 = E X 2 − (E [X])2 , E (X − E [X])3 ] [ ] [ ] = E X 3 − 3E [X] E X 2 + 2(E [X])3 . Zachodza̧ nastȩpuja̧ce wzory pozwalaja̧ce wyliczać momenty za pomoca̧ funkcji tworza̧cych: [ ] M (k) (0) = E X k , (1) (2) CX (0) = E [X] , CX (0) = Var [X] , [ (3) ] CX (0) = E (X − E [X])3 . Tak wiȩc pochodne funkcji tworza̧cej momenty pozwalaja̧ wyliczać momenty centralne, podczas gdy funkcji tworza̧cej CX zwane sa̧ kumulantami. 0.7.3 Rozkłady dyskretne Rozkład dwumianowy Bin(n, p) Jeżeli ( ) n m n−m p q , m P (X = m) = gdzie p ∈ (0, 1), q = 1 − p, m = 0, 1, . . . , n, to X ma rozkład dwumianowy Bin(n, p). Mamy P (t) E [X] Var [X] γ1 γ2 γ3 (q + pt)n np npq q √ q √ np √ n (q−p) npq Rozważmy teraz próbȩ X1 , . . . , Xk ∼ Bin(ni , p), gdzie estymujemy w sposób nastȩpuja̧cy: ∑k i=1 ni ∑k i=1 Xi pb = n , E [pb] = p, 1 Var [pb] = pq . n Rozkład Poissona P oi(λ) Jeżeli P (X = m) = λm −λ e , m! gdzie λ > 0, m = 1, 2, 3, . . ., to X ma rozkład Poissona P oi(λ). 24 γ4 3+ 1−6pq npq = n jest znane. Parametr p rozkładu P (t) E [X] Var [X] γ1 γ2 γ3 γ4 exp(λ(t − 1)) λ λ 1 √1 λ √1 λ 1 λ Dla próby X1 , . . . , Xk ∼ P oi(λ), b λ ∑k i=1 Xi = k [ ] b E λ = λ [ ] b Var λ = λ k Rozkład ujemny dwumianowy Bin− (r, p) Jeżeli ( P (X = m) = ) r+m−1 r m p q , m r ∈ R+ , m = 0, 1, . . ., tzn. X ma rozkład ujemny dwumianowy Bin− (r, p). P (t) ( )r p 1−qt E [X] Var [X] γ1 γ2 γ3 rq p rq p2 1 p √1 rq 1+q √ rq γ4 3+ p2 +6q rq Jeżeli r ∈ N, to dostajemy rozkład Pascala, jeżeli r = 1 - rozkład geometryczny Geo(p). Jeżeli X ma rozkład Geo(p) to zmienna losowa M o rozkładzie warunkowym takim jak X pod warunkiem X > 0 ma przesuniȩty rozkład geometryczny z P (M = n) = pq n , n ∈ {1, 2, . . .}. Oba rozkłady geometryczne różnia̧ siȩ średnia̧, wariancje sa̧ takie same. Inaczej: M ma rozkład postaci Geo(p) ∗ δ1 . Na podstawie próby X1 , . . . , Xk ∼ P oi(λ), estymacja wygla̧da nastȩpuja̧co: 1. r znane: pb = [ ] b = E λ r+ r−1 , i=1 Xi /k − 1 ∑k p 2. r i p nieznane: 2 rb = X 2 S −X 1−pb = S 2 − 1 p b X 0.7.4 Rozkłady cia̧głe Rozkład normalny Gȩstość zmiennej losowej X o rozkładzie normalnym ze średnia̧ µ i wariancja̧ σ 2 jest postaci 1 ϕ (x) = √ exp(−(x − µ)2 /2σ 2 ). 2πσ Piszemy wtedy X ∼ N (µ, σ 2 ). Jeżeli µ = 0 i σ 2 = 1 to mówimy o standardowym rozkładzie normalnym. Parametry: 25 M (t) e (tσ)2 +tµ 2 E [X] Var [X] µ σ2 , γ1 σ2 µ ,µ γ2 ̸= 0 σ µ, µ ̸= 0 γ3 γ4 0 0 Maja̧c dane X1 , . . . , Xk , parametry µ i σ estymujemy metoda̧ momentów. Rozkład odwrotny normalny IG(µ, σ 2 ) Niech X ma gȩstość zadana̧ wzorem √ fX (x) = { σ σ exp − 3 2πx 2µ ( x µ −2+ µ x )} , gdzie µ ∈ R, σ > 0, x ∈ R, tzn. X ma rozkład odwrotny normalny IG(µ, σ 2 ). Parametry: M (t) E [X] Var [X] γ1 , µ µ3 σ µ2 σ γ2 √ γ3 µ σ √ 3 γ4 µ σ 15µ σ Dla próby X1 , . . . , Xk ∼ IG(µ, σ 2 ) b = X= µ [ b = σ k 1∑ Xi , k i=1 k ( ) 1∑ −1 2 Xi−1 − X k i=1 ]−1 . Rozkład logarytmiczno-normalny LN (µ, σ) Niech X ma gȩstość zadana̧ wzorem ( 1 −(log x − µ)2 √ f (x) = exp 2σ 2 (xσ 2π) ) x > 0, µ ∈ R, σ > 0. , Wtedy X ma rozkład logarytmiczno-normalny LN (µ, σ). M (t) E [X] , eµ+ 2 σ 1 2 Var [X] ( 2 ) eσ − 1 e2µ+σ γ1 γ2 γ3 ( 2 Jeśli Y jest N (µ, σ), to X = eY ∼ LN (µ, σ). Dla próby X1 , . . . , Xk ∼ LN (µ, σ 2 ) b = µ b = σ k 1∑ log Xi , k i=1 v u k u1 ∑ t b)2 . (log Xi − µ k i=1 26 2 eσ + 2 )√ γ4 eσ 2 − 1 4 3 2 eσ + 2eσ + 3eσ − 3 Rozkład wykładniczy Exp(λ) Niech X ma gȩstość zadana̧ wzorem fX (x) = λe−λx , gdzie x > 0, λ > 0, tzn. X ma rozkład wykładniczy Exp(λ). Parametry: M (t) E [X] Var [X] γ1 γ2 γ3 λ λ−t , 1 λ 1 λ2 1 λ 1 0 Dla próby X1 , . . . , Xk ∼ Exp(λ), b= ∑ λ k 1 i=1 Xi γ4 . Rozkład Gamma Gamma(α, β) Niech X ma gȩstość zadana̧ wzorem fX (y) = β α α−1 −βx x e , Γ(α) α > 0, β > 0, x > 0, tzn. X ma rozkład Gamma Gamma(α, β). M (t) E [X] Var [X] γ1 γ2 βα (β−t)α , α β α β2 1 β √1 α γ3 γ4 Jeżeli X ∼ Γ(1, β), to X ∼ Exp(β). Dla próby X1 , . . . , Xk ∼ Γ(α, β), ( )2 b = α βb = 1 k−1 1 k−1 ∑n X i=1 (Xi − X)2 , X . 2 i=1 (Xi − X) ∑k Rozkład Weibulla W ei(r, c) Niech X ma gȩstość zadana̧ wzorem f (x) = rcxr−1 exp(−cxr ), x > 0, gdzie 0 < r jest parametrem kształtu, c > 0 jest parametrem skali. Wtedy X ma rozkład Weibulla W ei(r, c). M (t) E [X] ( )1 , 1 c r ( Γ 1 r Var [X] ) +1 ( )2 { ( 1 c r Γ 2 r ) [ ( +1 − Γ 27 γ1 1 r )]2 } +1 γ2 γ3 γ4 Jeśli X jest W ei(1, c), to X ∼ Exp(c). Dla próby X1 , . . . , Xn ∼ W ei(r, c) parametry c i r estymujemy rozwia̧zuja̧ układ równań: ∑ c k1 ki=1 Xir = 1 ∑ k r r i=1 (cXi − 1) log Xi = 1 k Rozkład Pareto P ar(α, c) Niech X ma gȩstość zadana̧ wzorem α c f (x) = ( )( )α+1 , c x x > c, gdzie α > 0, a c > 0 jest parametrem skali. Wtedy X ma rozkład Pareto P ar(α, c) . M (t) E [X] Var [X] nie istnieje α c α−1 , α>1 c2 (α−1)α2 (α−2) , α > 2 28 γ1 γ2 γ3 2 α+1 α−3 √ α−2 α , γ4 α>3