Statystyka matematyczna dla leśników Wydział Leśny Kierunek „leśnictwo” Studia Stacjonarne I Stopnia Rok akademicki 2013/2014 Wykład 3 Zmienna losowa i jej rozkłady • • • • • Zdarzenia losowe Pojęcie prawdopodobieństwa Prawo wielkich liczb Zmienne losowe Rozkłady teoretyczne zmiennych losowych Zanim zajmiemy się wnioskowaniem statystycznym musimy uświadomić sobie, że nigdy w 100% nie będziemy pewni czy jest ono prawdziwe czy fałszywe. Możemy tylko takiego czy innego wyniku wnioskowania oczekiwać z określonym prawdopodobieństwem. To znaczy, że rezultat wnioskowania jest zdarzeniem losowym. Musimy zatem zapoznać się z pojęciem zdarzenia losowego i jego prawdopodobieństwa. Zdarzenia losowe (przypadkowe) to takie zdarzenia, które w danym kompleksie warunków mogą zajść lub nie zajść i mają określone prawdopodobieństwo zajścia lub niezajścia. W każdym eksperymencie (doświadczeniu, badaniu) statystycznym można wyróżnić zbiór wszystkich możliwych, oddzielnych i nie dających rozłożyć się na prostsze wyników obserwacji. Zbiór taki nazywamy zbiorem zdarzeń elementarnych (ZZE). Np. rzut kostką: ZZE to 1,2,3,4,5,6, ale uzyskanie jednego z tych możliwych zdarzeń jest zdarzeniem losowym. Prawdopodobieństwo zdarzenia losowego jest teoretycznym odpowiednikiem (względnej) częstości empirycznej (empirycznego prawdopodobieństwa). Definicja klasyczna (na podstawie Laplace`a 1812) Prawdopodobieństwem P zdarzenia losowego A nazywamy iloraz liczby zdarzeń elementarnych sprzyjających zdarzeniu A oraz liczby wszystkich zdarzeń elementarnych, jednakowo możliwych i wzajemnie się wykluczających. a P ( A) = a+b 0 ≤ P ( A) ≤ 1 P (B ) = 1 − P ( A ) Szereg rozdzielczy xi 4 6 8 10 12 14 16 Σ ni 23 82 73 45 24 2 1 250 Σni 23 105 178 223 247 249 250 pi 0,092 0,328 0,292 0,180 0,096 0,008 0,004 1,000 Σpi 0,092 0,420 0,712 0,892 0,988 0,996 1,000 Definicja matematyczna (na podstawie von Misesa) Prawdopodobieństwo zdarzenia losowego A jest granicą, do jakiej dąży częstość empiryczna, przy założeniu, że liczebność jednostek obserwacji dąży do nieskończoności. lim pi = P( A) n →∞ Definicja współczesna (na podstawie Kołmogorowa) (Prawdopodobieństwo jest tu rozumiane jako miara na podzbiorach zbioru zdarzeń elementarnych. Definicja zapisywana jest w formie aksjomatów wynikających z teorii klasycznej Laplace`a) * Każdemu zdarzeniu losowemu A odpowiada określona liczba P(A) zwana prawdopodobieństwem zdarzenia losowego A zawierająca się w granicach przedziału liczbowego od 0 do 1 0 ≤ P ( A) ≤ 1 ** Prawdopodobieństwo zdarzenia pewnego (obejmującego wszystkie elementy zbioru Ω) równa się jedności P(Ω ) = 1 *** Jeżeli A1 , A2 , ..., An , ... jest ciągiem zdarzeń losowych parami wykluczających się, to prawdopodobieństwo sumy tych zdarzeń jest równe sumie prawdopodobieństw tych zdarzeń P( A1 + A2 + ... + An + ...) = P( A1 ) + P ( A2 ) + ... + P( An ) + ... Prawo wielkich liczb leży u podstaw badania prawidłowości statystycznych. Po raz pierwszy opublikowane jako tzw. „Złote twierdzenie Bernoulliego” w 1713 roku. W okresach późniejszych bardziej uogólniane przez Poissona, Czebyszewa i innych. Wzrostowi liczby jednostek obserwacji (ściślej - liczby niezależnych doświadczeń) odpowiada wzrastające prawdopodobieństwo zmniejszania się bezwzględnej różnicy między częstością empiryczną z próby a nieznanym co do poziomu prawdopodobieństwem danego zdarzenia losowego. lim P { pi − P ( A) ≤ ε} = 1 n →∞ ni = pi N Na podstawie tego prawa formułowane są ogólniejsze twierdzenia dotyczące procesów masowych. Np.: Duża liczebność (masowość) próby powoduje, że odchylenia na (+) i na (-) między częstością empiryczną i prawdopodobieństwem mają tendencje do zmniejszania się. Tendencja ta nie występuje w przypadku małych prób. „Prawo wielkich liczb” może być rozszerzane i na inne, poza prawdopodobieństwem, parametry zbiorowości generalnej. Np.: Wartość liczbowa średniej arytmetycznej z próby (x) jest tym lepszym oszacowaniem średniej populacji generalnej (µ) im liczebność losowej próby jest większa. lim P = { x − µ ≤ ε } = 1 n →∞ (uogólnienie Czebyszewa) Zmienne losowe: Zmienna losowa (X) jest teoretycznym odpowiednikiem (modelem) cechy statystycznej. Warianty cechy statystycznej pojawiają się z określoną częstością empiryczną (szereg rozdzielczy) a realizacjom zmiennej losowej odpowiadają prawdopodobieństwa wyznaczone przez odpowiednią funkcję. Definicja wg. podręcznika prof. Bruchwalda: Zmienną losową (X) nazywamy funkcję o wartościach rzeczywistych określoną na zbiorze zdarzeń elementarnych taką, że dla dowolnych stałych a < b jest określone prawdopodobieństwo, iż a < X <= b . Podobnie, jak w przypadku cech statystycznych, zmienne losowe dzielimy na skokowe (dyskretne) (Xs) oraz ciągłe (Xc). Skokowe to takie, których zbiór możliwych realizacji jest skończony (x1 , x2 , x3 , ..., xk) lub przeliczalny (x1 , x2 , x3 , ...). P( X s = xi ) = pi Czyli zmienna losowa skokowa przyjmuje wartości liczbowe (xi) z prawdopodobieństwem (pi) (gdzie i = 1, 2, 3, ..., k lub i= 1, 2, 3, ... ) Ciągłe to takie, dla których istnieje taka nieujemna funkcja f(x) zwana funkcją gęstości prawdopodobieństwa, że dla dowolnych przedziałów (x1i < x2i) zachodzi: x2 i P( x1i < X c < x2i ) = ∫ f ( x)dx = pi x1i natomiast: P( X c = xi ) = 0 Do metod prezentacji wnioskowania statystycznego niezbędne jest pojęcie rozkładu zmiennej losowej: W przypadku zmiennych losowych skokowych, odpowiednia dla danej zmiennej funkcja określa rozkład prawdopodobieństwa wszystkich możliwych realizacji tej zmiennej P(Xs = xi) = pi. Dla zmiennych losowych ciągłych funkcja określa gęstość prawdopodobieństwa, gdyż P(Xc = xi) = 0. Liczba wszystkich możliwych zdarzeń dla Xc jest nieskończona. P ( x < X c < x + ∆x ) f ( x ) = lim ∆x → 0 ∆x Ważnym pojęciem w statystyce jest dystrybuanta zmiennej losowej odpowiednik dystrybuanty empirycznej: - dla Xs (skokowej): F ( x ) = P( X s ≤ x ) = ∑ P( X s = xi ) xi ≤ x - dla Xc (ciągłej): x F (x ) = P( X c < x ) = ∫ f ( x)dx −∞ Dystrybuanta zmiennej losowej F(x) jest to prawdopodobieństwo tego, że ta zmienna losowa przyjmie wartości <= x. Wskaźniki charakteryzujące zmienne losowe: Wartość oczekiwana (nadzieja matematyczna) - odpowiednik średniej arytmetycznej dla populacji: - dla (Xs): EX s = ∑ xi pi - dla (Xc): +∞ EX c = ∫ x f ( x)dx −∞ ni pi = N 1 N ∑xn i i =µ Wariancja zmiennej losowej: D X s = ∑ (xi − EX s ) pi 2 2 - skokowej +∞ - ciągłej 2 D Xc = ∫ (x − EX ) 2 c f ( x)dx −∞ Teoretyczne rozkłady zmiennej losowej skokowej - rozkład dwumianowy: gdzie: q=1-p k = 0, 1, 2, ..., n n k (n − k ) P( X s = k ) = p q k Rozkład dwumianowy • Przykład funkcji rozkładu prawdopodobieństwa • Opisuje prawdopodobieństwo uzyskania k sukcesów w n niezależnych próbach, gdzie prawdopodobieństwo sukcesu w jednej próbie wynosi p Rozkład dwumianowy Rozkład dwumianowy Własności (r-d dwum.) • Wykres funkcji rozkładu jest symetryczny dla p = 0.5 • dla p < 0.5 rozkład jest skośny dodatnio • dla p > 0.5 rozkład jest skośny ujemnie Własności (r-d dwum.) • Wartość oczekiwana E(X) = n * p • Wariancja D2X = n p q • Odchylenie standardowe 2 EX = np D X = npq DX = npq (q + p ) n Dwumian Newtona: n n! = k k!(n − k )! przykłady: p = 0,5 n = 10 Binomial Distribution probability 0,25 Event prob.,Trials 0,5,10 0,2 0,15 0,1 0,05 0 0 1 2 3 4 5 x 6 7 8 9 10 p = 0,2 n = 10 Binomial Distribution probability 0,4 Event prob.,Trials 0,2,10 0,3 0,2 0,1 0 0 1 2 3 4 5 6 7 8 9 10 x p = 0,7 n = 10 Binomial Distribution 0,3 Event prob.,Trials 0,7,10 probability 0,25 0,2 0,15 0,1 0,05 0 0 1 2 3 4 5 x 6 7 8 9 10 p = 0,2 Binomial Distribution n = 50 probability 0,15 Event prob.,Trials 0,2,50 0,12 0,09 0,06 0,03 0 0 10 20 30 40 50 x inne rozkłady zmiennej losowej skokowej: - Poissona P( X = k ) = 2 λk k! e −λ EX = D X = λ dla: k = 0, 1, 2, ... λ >= 0 Przykłady: rozkład dwumianowy xi 4 6 8 10 12 14 16 suma µ = 7.80 σ = 2.35 ni 23 82 73 45 24 2 1 250 ki 0 1 2 3 4 5 6 niki 0 82 146 135 96 10 6 475 nk ∑ k= P(X=k) 0.1177 0.3025 0.3242 0.1852 0.0595 0.0102 0.0007 1.0000 475 = = 1.90 N 250 k 1.90 p= = = 0.3167 ≅ 0.3 n 6 i i n’ 29.4 75.6 81.0 46.3 14.9 2.6 0.2 250 EX = np EX p= n geometryczny: P( X = n ) = pq n −1 dla: n = 1, 2, 3, ... q = 1-p 1 EX = p 1− p D X= 2 p 2 Teoretyczne rozkłady zmiennej losowej ciągłej: - rozkład normalny: − 1 f ( x) = e σ 2Π EX = µ ( x−µ )2 2σ 2 DX = σ dla: − ∞ < x < +∞ σ >0 Rozkład normalny • Najczęściej stosowany rozkład w statystyce • Podstawa wielu metod statystycznych: estymacji, testów, regresji, korelacji, analizy wariancji, ... Rozkład normalny • Opisuje zmienne, które mogą przybierać postać nieskończonej liczby niezależnych zdarzeń losowych • Przykład rozkładu zmiennej ciągłej • Jego funkcję gęstości prawdopodobieństwa można opisać następująco: Rozkład normalny • gdzie: – x - zmienna – µ - średnia arytmetyczna – σ - odchylenie standardowe Rozkład normalny Własności (r-d normalny) • Wartość funkcji gęstości rośnie dla x<µ i maleje dla x>µ • Funkcja gęstości ma maksimum w punkcie x=µ • Wartość oczekiwana zmiennej X wynosi E(X)=µ • Wariancja zmiennej X równa jest D2X = σ2 Własności (r-d normalny) • dla x = µ funkcja gęstości ma wartość • rozkład ma 2 punkty przegięcia dla x=µ σix=µ+σ • rozkład normalny jest symetryczny, a oś symetrii zdefiniowana jest jako x = µ Własności (r-d normalny) • Im wariancja / odchylenie standardowe jest mniejsze, tym funkcja gęstości jest węższa • funkcja prawdopodobieństwa (dystrybuanta) jest całką z funkcji gęstości prawdopodobieństwa Własności (r-d normalny) Standaryzowany r.n. • Każdy rozkład normalny może być znormalizowany, tj. doprowadzony do postaci rozkładu o średniej 0 i odchyleniu standardowym 1: N(0,1). • Wartość oczekiwana standaryzowanego rdu normalnego równa jest zero (EZ = 0) a odchylenie standardowe równe jest 1 (D2Z = 1). Standaryzowany r.n. • Standaryzacja to zamiana zmiennej x na z, gdzie: • Funkcja gęstości prawdopodobieństwa tej funkcji: f(x) z= N(20;2) x−µ σ σ 14 1 − 2 16 18 z 1 f (z) = e 2Π z 2 σ 20 µ 22 f(z) 24 x 26 N(0;1) 1 2 z2 1 F ( z) = e dz ∫ 2Π −∞ − -3 -2 -1 0 1 2 3 z F(z) 1 1 F ( z) = 2Π z ∫e − 1 2 z2 dz 0.5 −∞ -3 -2 -1 Inne rozkłady zmiennej losowej ciągłej: - jednostajny - gamma - beta - wykładniczy 0 1 2 3 z Standaryzowany r.n. Własności (r-d normalny) • Pomiędzy µ - σ i µ + σ znajduje się około 68% wszystkich wartości zmiennej • W przedziale od µ - 2*σ do µ + 2*σ jest około 95% wszystkich wartości zmiennej • W przedziale od µ - 3*σ do µ + 3*σ mamy około 99,7% wszystkich obserwacji Rozkład skumulowany cumulative histogram frequency 250 200 150 100 50 0 0 3 6 9 dk 12 15 18 Rozkład skumulowany Rozkład skumulowany Rozkład skumulowany Rozkład skumulowany rozkład normalny xi x< <3 4 ni 0 xgi xig - µ zi=(xgi-µ µ)/σ σ F(xgi) 3 -4.8 -2.04 0.0207 23 5 6 3.2 1.36 5.2 2.21 7.2 3.06 9.2 0 250 µ = 7.80 σ = 2.35 3.91 24.1 0.2499 62.5 0.3281 82.0 0.2181 54.5 0.0733 18.3 0.0125 3.1 0.0011 0.3 0.0000 1.0000 0.0 250 0.6950 0.9131 0.9864 0.9989 1 17 x> >17 suma 0.51 2 15 16 1.2 0.0963 0.3669 24 13 14 -0.34 45 11 12 -0.8 ni’ 5.2 0.1170 73 9 10 -1.19 82 7 8 -2.8 F(xgi) – F(xgi-1) 0.0207 1.0000 Porównanie częstości empirycznych z teoretycznymi n 90 80 70 60 50 ne ndw 40 30 20 nnor 10 0 x 0 2 4 6 8 10 12 14 16 18 20 90 80 70 60 ne 50 40 ndw 30 20 10 0 0 2 4 6 8 10 12 14 16 18 20 90 80 70 60 50 ne nnor 40 30 20 10 0 0 2 4 6 8 10 12 14 16 18 20 • • • • • • • • • • • Co to jest zdarzenie losowe? Przykłady. Klasyczna definicja prawdopodobieństwa. Współczesna definicja prawdopodobieństwa. Co to jest zmienna losowa? Typy zmiennych losowych. Co to jest gęstość prawdopodobieństwa zmiennej losowej? Co to jest dystrybuanta zmiennej losowej? Charakterystyka rozkładu dwumianowego. Wyznaczanie częstości teoretycznych zgodnych z rozkładem dwumianowym. Charakterystyka rozkładu normalnego. Wyznaczanie częstości teoretycznych zgodnych z rozkładem normalnym. Dziękuję za uwagę!