STATYSTYKA MATEMATYCZNA rachunek prawdopodobieństwa treść • • • • • Zdarzenia losowe pojęcie prawdopodobieństwa prawo wielkich liczb zmienne losowe rozkłady teoretyczne zmiennych losowych Zanim zajmiemy się wnioskowaniem statystycznym musimy uświadomić sobie, Ŝe nigdy w 100% nie będziemy pewni czy jest ono prawdziwe czy fałszywe. MoŜemy tylko takiego czy innego wyniku wnioskowania oczekiwać z określonym prawdopodobieństwem. To znaczy, Ŝe rezultat wnioskowania jest zdarzeniem losowym. Musimy zatem zapoznać się z pojęciem zdarzenia losowego i jego prawdopodobieństwa. Zdarzenia losowe (przypadkowe) to takie zdarzenia, które w danym kompleksie warunków mogą zajść lub nie zajść i mają określone prawdopodobieństwo zajścia lub niezajścia. W kaŜdym eksperymencie (doświadczeniu, badaniu) statystycznym moŜna wyróŜnić zbiór wszystkich moŜliwych, oddzielnych i nie dających rozłoŜyć się na prostsze wyników obserwacji. Zbiór taki nazywamy zbiorem zdarzeń elementarnych. Np. rzut kostką: ZZE to 1,2,3,4,5,6 ale uzyskanie jednego z tych moŜliwych zdarzeń jest zdarzeniem losowym. Prawdopodobieństwo zdarzenia losowego jest teoretycznym odpowiednikiem (względnej) częstości empirycznej (empirycznego prawdopodobieństwa). Definicja klasyczna (na podstawie Laplace`a 1812) Prawdopodobieństwem P zdarzenia losowego A nazywamy iloraz liczby zdarzeń elementarnych sprzyjających zdarzeniu A oraz liczby wszystkich zdarzeń elementarnych, jednakowo moŜliwych i wzajemnie się wykluczających. a P ( A) = a+b 0 ≤ P ( A) ≤ 1 P (B ) = 1 − P ( A ) Definicja matematyczna (na podstawie von Misesa) Prawdopodobieństwo zdarzenia losowego A jest granicą do jakiej dąŜy częstość empiryczna, przy załoŜeniu, Ŝe liczebność jednostek obserwacji dąŜy do nieskończoności. lim pi = P( A) n →∞ Definicja współczesna (na podstawie Kołmogorowa) (Prawdopodobieństwo jest tu rozumiane jako miara na podzbiorach zbioru zdarzeń elementarnych. Definicja zapisywana jest w formie aksjomatów wynikających z teorii klasycznej Laplace`a) * KaŜdemu zdarzeniu losowemu A odpowiada określona liczba P(A) zwana prawdopodobieństwem zdarzenia losowego A zawierająca się w granicach przedziału liczbowego od 0 do 1 0 ≤ P ( A) ≤ 1 ** Prawdopodobieństwo zdarzenia pewnego (obejmującego wszystkie elementy zbioru Ω) równa się jedności P (Ω ) = 1 *** JeŜeli A1 , A2 , ..., An , ... jest ciągiem zdarzeń losowych parami wykluczających się, to prawdopodobieństwo sumy tych zdarzeń jest równe sumie prawdopodobieństw tych zdarzeń P( A1 + A2 + ... + An + ...) = P ( A1 ) + P( A2 ) + ... + P( An ) + ... Prawo wielkich liczb leŜy u podstaw badania prawidłowości statystycznych. Po raz pierwszy opublikowane jako tzw. „Złote twierdzenie Bernoulliego” w 1713 roku. W okresach późniejszych bardziej uogólniane przez Poissona, Czebyszewa i innych. Wzrostowi liczby jednostek obserwacji (ściślej - liczby niezaleŜnych doświadczeń) odpowiada wzrastające prawdopodobieństwo zmniejszania się bezwzględnej róŜnicy między częstością empiryczną z próby a nieznanym co do poziomu prawdopodobieństwem danego zdarzenia losowego. lim P { pi − P ( A) ≤ ε} = 1 n →∞ ni = pi N Na podstawie tego prawa formułowane są ogólniejsze twierdzenia dotyczące procesów masowych. Np.: DuŜa liczebność (masowość) próby powoduje, Ŝe odchylenia na (+) i na (-) między częstością empiryczną i prawdopodobieństwem mają tendencje do zmniejszania się. Tendencja ta nie występuje w przypadku małych prób. „Prawo wielkich liczb” moŜe być rozszerzane i na inne, poza prawdopodobieństwem, parametry zbiorowości generalnej. Np.: Wartość liczbowa średniej arytmetycznej z próby (x) jest tym lepszym oszacowaniem średniej populacji generalnej (µ) im liczebność losowej próby jest większa. lim P = { x − µ ≤ ε } = 1 n →∞ (uogólnienie Czebyszewa) Zmienne losowe: Zmienna losowa (X) jest teoretycznym odpowiednikiem (modelem) cechy statystycznej. Warianty cechy statystycznej pojawiają się z określoną częstością empiryczną (szereg rozdzielczy) a realizacjom zmiennej losowej odpowiadają prawdopodobieństwa wyznaczone przez odpowiednią funkcję. Definicja wg. podręcznika prof. Bruchwalda: Zmienną losową (X) nazywamy funkcję o wartościach rzeczywistych określoną na zbiorze zdarzeń elementarnych taką, Ŝe dla dowolnych stałych a < b jest określone prawdopodobieństwo, iŜ a < X <= b . Podobnie jak w przypadku cech statystycznych zmienne losowe dzielimy na skokowe (dyskretne) (Xs) oraz ciągłe (Xc). Skokowe to takie, których zbiór moŜliwych realizacji jest skończony (x1 , x2 , x3 , ..., xk) lub przeliczalny (x1 , x2 , x3 , ...). P( X s = xi ) = pi Czyli zmienna losowa skokowa przyjmuje wartości liczbowe (xi) z prawdopodobieństwem (pi) (gdzie i = 1, 2, 3, ..., k lub i= 1, 2, 3, ... ) Ciągłe to takie, dla których istnieje taka nieujemna funkcja f(x) zwana funkcją gęstości prawdopodobieństwa, Ŝe dla dowolnych przedziałów (x1i < x2i) zachodzi: x2 i P( x1i < X c < x2i ) = ∫ x1i natomiast: P( X c = xi ) = 0 f ( x)dx = pi Do metod prezentacji wnioskowania statystycznego niezbędne jest pojęcie rozkładu zmiennej losowej: W przypadku zmiennych losowych skokowych, odpowiednia dla danej zmiennej funkcja określa rozkład prawdopodobieństwa wszystkich moŜliwych realizacji tej zmiennej P(Xs = xi) = pi. Dla zmiennych losowych ciągłych funkcja określa gęstość prawdopodobieństwa, gdyŜ P(Xc = xi) = 0. Liczba wszystkich moŜliwych zdarzeń dla Xc jest nieskończona. P ( x < X c < x + ∆x ) f ( x ) = lim ∆x → 0 ∆x WaŜnym pojęciem w statystyce jest dystrybuanta zmiennej losowej odpowiednik dystrybuanty empirycznej: - dla Xs (skokowej): F ( x ) = P( X s ≤ x ) = ∑ P( X s = xi ) xi ≤ x - dla Xc (ciągłej): F (x ) = P( X c < x ) = x ∫ f ( x)dx −∞ Dystrybuanta zmiennej losowej F(x) jest to prawdopodobieństwo tego, Ŝe ta zmienna losowa przyjmie wartości <= x. Wskaźniki charakteryzujące zmienne losowe: Wartość oczekiwana (nadzieja matematyczna) odpowiednik średniej arytmetycznej dla populacji: - dla (Xs): EX s = ∑ xi pi - dla (Xc): +∞ EX c = ∫ x f ( x)dx −∞ ni pi = N 1 N ∑xn i i =µ Wariancja zmiennej losowej: D X s = ∑ (xi − EX s ) pi 2 2 - skokowej +∞ - ciągłej D Xc = 2 ∫ (x − EX ) 2 c f ( x)dx −∞ Teoretyczne rozkłady zmiennej losowej skokowej - rozkład dwumianowy: gdzie: q=1-p k = 0, 1, 2, ..., n n k (n − k ) P( X s = k ) = p q k EX = np D X = npq 2 DX = npq (q + p ) n Dwumian Newtona: n n↓ = k k ↓ (n − k ) ↓ przykłady: p = 0,5 n = 10 Binomial Distribution probability 0,25 Event prob.,Trials 0,5,10 0,2 0,15 0,1 0,05 0 0 1 2 3 4 5 x 6 7 8 9 10 p = 0,2 n = 10 Binomial Distribution probability 0,4 Event prob.,Trials 0,2,10 0,3 0,2 0,1 0 0 1 2 3 4 5 6 7 8 9 10 x p = 0,7 n = 10 Binomial Distribution 0,3 Event prob.,Trials 0,7,10 probability 0,25 0,2 0,15 0,1 0,05 0 0 1 2 3 4 5 x 6 7 8 9 10 p = 0,2 Binomial Distribution n = 50 probability 0,15 Event prob.,Trials 0,2,50 0,12 0,09 0,06 0,03 0 0 10 20 30 40 50 x inne rozkłady zmiennej losowej skokowej: - Poissona P( X = k ) = λk k↓ e −λ EX = D X = λ 2 dla: k = 0, 1, 2, ... λ >= 0 geometryczny: P( X = n ) = pq n −1 dla: n = 1, 2, 3, ... q = 1-p 1 EX = p 1− p D X= 2 p 2 Teoretyczne rozkłady zmiennej losowej ciągłej: - rozkład normalny: 1 f ( x) = e σ 2Π EX = µ ( x−µ )2 − 2σ 2 DX = σ dla: − ∞ < x < +∞ σ >0 f(x) z= N(20;2) x−µ σ σ 14 1 − 2 16 18 z 1 f (z) = e 2Π z 2 σ 20 µ 22 f(z) 24 x 26 N(0;1) 1 2 z2 1 F ( z) = e dz ∫ 2Π −∞ − -3 -2 -1 0 1 2 3 z F(z) 1 1 F ( z) = 2Π z ∫e − 1 2 z2 dz 0.5 −∞ -3 -2 -1 Inne rozkłady zmiennej losowej ciągłej: - jednostajny - gamma - beta - wykładniczy 0 1 2 3 z Przykłady: rozkład dwumianowy xi 4 6 8 10 12 14 16 suma µ = 7.80 σ = 2.35 ni 23 82 73 45 24 2 1 250 ki 0 1 2 3 4 5 6 niki 0 82 146 135 96 10 6 475 nk ∑ k= P(X=k) 0.1177 0.3025 0.3242 0.1852 0.0595 0.0102 0.0007 1.0000 475 = = 1.90 N 250 k 1.90 p= = = 0.3167 ≅ 0.3 n 6 i i n’ 29.4 75.6 81.0 46.3 14.9 2.6 0.2 250 EX = np EX p= n rozkład normalny xi x< <3 4 ni 0 xgi xig - µ zi=(xgi-µ µ)/σ σ F(xgi) 3 -4.8 -2.04 0.0207 23 5 6 3.2 1.36 5.2 2.21 7.2 3.06 9.2 0 250 µ = 7.80 σ = 2.35 3.91 24.1 0.2499 62.5 0.3281 82.0 0.2181 54.5 0.0733 18.3 0.0125 3.1 0.0011 0.3 0.0000 1.0000 0.0 250 0.6950 0.9131 0.9864 0.9989 1 17 x> >17 suma 0.51 2 15 16 1.2 0.0963 0.3669 24 13 14 -0.34 45 11 12 -0.8 ni’ 5.2 0.1170 73 9 10 -1.19 82 7 8 -2.8 F(xgi) – F(xgi-1) 0.0207 1.0000 Porównanie częstości empirycznych z teoretycznymi n 90 80 70 60 50 ne ndw 40 30 20 nnor 10 0 x 0 2 4 6 8 10 12 14 16 18 20 90 80 70 60 50 ne 40 ndw 30 20 10 0 0 2 4 6 8 10 12 14 16 18 20 90 80 70 60 50 ne nnor 40 30 20 10 0 0 2 4 6 8 10 12 14 16 18 20