Marek Cieciura, Janusz Zacharski PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE CZĘŚĆ IV STATYSTYKA MATEMATYCZNA Na prawach rękopisu Warszawa, wrzesień 2011 Data ostatniej aktualizacji: piątek, 2 grudnia 2011, godzina 16:39 Statystyka jest bardziej sposobem myślenia lub wnioskowania niŜ pęczkiem recept na młócenie danych w celu odsłonięcia odpowiedzi - Calyampudi Radhakrishna Rao Podręcznik: PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE publikowany jest w częściach podanych poniŜej Nr Tytuł I. Wprowadzenie II. Statystyka opisowa III. Rachunek prawdopodobieństwa IV. Statystyka matematyczna V. Przykłady zastosowań w informatyce VI. Dowody wybranych twierdzeń VII. Tablice statystyczne Autorzy proszą o przesyłanie wszelkich uwagi i propozycji dotyczących zawartości podręcznika z wykorzystaniem formularza kontaktowego zamieszczonego w portalu http://cieciura.net/mp/ Publikowane części będą na bieŜąco poprawiane, w kaŜdej będzie podawana data ostatniej aktualizacji. Podręcznik udostępnia się na warunku licencji Creative Commons (CC): Uznanie Autorstwa – UŜycie Niekomercyjne – Bez Utworów ZaleŜnych (CC-BY-NC-ND),co oznacza: • Uznanie Autorstwa (ang. Attribution - BY): zezwala się na kopiowanie, dystrybucję, wyświetlanie i uŜytkowanie dzieła i wszelkich jego pochodnych pod warunkiem umieszczenia informacji o twórcy. • UŜycie Niekomercyjne (ang. Noncommercial - NC): zezwala się na kopiowanie, dystrybucję, wyświetlanie i uŜytkowanie dzieła i wszelkich jego pochodnych tylko w celach niekomercyjnych.. • Bez Utworów ZaleŜnych (ang. No Derivative Works - ND): zezwala się na kopiowanie, dystrybucję, wyświetlanie tylko dokładnych (dosłownych) kopii dzieła, niedozwolone jest jego zmienianie i tworzenie na jego bazie pochodnych. Podręcznik i skorelowany z nim portal, są w pełni i powszechnie dostępne, stanowią więc Otwarte Zasoby Edukacyjne - OZE (ang. Open Educational Resources – OER). 2 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE SPIS TREŚCI 14. STATYSTYKI I ICH ROZKŁADY ....................................................................................... 5 14.1. PRÓBA JAKO ZMIENNA LOSOWA WIELOWYMIAROWA ............................................................ 5 14.2. PODSTAWOWE STATYSTYKI I ICH ROZKŁADY ........................................................................ 6 14.2.1. Wykazy statystyk .......................................................................................................... 6 14.2.2. Rozkład średniej z próby .............................................................................................. 7 14.2.3. Rozkład statystyk związanych z wariancją z próby ....................................................... 8 15. ESTYMACJA PARAMETRÓW.......................................................................................... 12 15.1. WPROWADZENIE ............................................................................................................... 12 15.2. ESTYMACJA PUNKTOWA .................................................................................................... 12 15.2.1. Klasyfikacja estymatorów i nierówność Rao-Cramera ............................................... 13 15.2.2. Estymacja wartości oczekiwanej rozkładu normalnego .............................................. 14 15.2.3. Estymatory wariancji rozkładu normalnego ............................................................... 15 15.2.4. Metoda największej wiarygodności otrzymywania estymatorów................................. 17 15.2.5. Zestawienie estymatorów parametrów rozkładu zmiennej losowej i ich własności...... 19 15.3. ESTYMACJA PRZEDZIAŁOWA .............................................................................................. 20 15.3.1. Uwagi wstępne........................................................................................................... 20 15.3.2. Wyznaczenie przedziału ufności dla wartości oczekiwanej rozkładu normalnego ....... 21 15.3.3. Tabela przedziałów ufności........................................................................................ 24 15.3.4. Wyznaczanie wielkości próby..................................................................................... 28 15.3.5. Wykorzystanie arkusza Excel ..................................................................................... 30 16. WERYFIKACJA HIPOTEZ ................................................................................................ 31 16.1 WPROWADZENIE ................................................................................................................ 31 16.1.1. Uwagi wstępne........................................................................................................... 31 16.1.2. Pzykład konstrukcji testu parametrycznego do weryfikacji hipotezy o wartości oczekiwanej........................................................................................................................... 34 16.1.3. Pzykład konstrukcji testu parametrycznego do weryfikacji hipotezy o równości wartości oczekiwanych ........................................................................................................................ 35 16.1.4. Uwagi o weryfikacji hipotez parametrycznych ........................................................... 37 16.2. TESTY PARAMETRYCZNE DLA JEDNEJ PRÓBY ...................................................................... 38 16.2.1. Testy do weryfikacji hipotezy o wartości oczekiwanej................................................. 38 16.2.2. Testy do weryfikacji hipotezy o wariancji i odchyleniu standardowym ....................... 43 16.2.3. Testy do weryfikacji hipotezy o wskaźniku struktury................................................... 44 16.3. TESTY PARAMETRYCZNE DLA DWÓCH PRÓB........................................................................ 45 16.3.1. Testy do porównywania wartości oczekiwanych dla prób niezaleŜnych ...................... 45 16.3.2. Testy do porównywania wartości oczekiwanych – próby zaleŜne................................ 53 16.3.3. Testy do porównywania wariancji.............................................................................. 57 16.3.4. Testy do porównywania wskaźników struktury ........................................................... 59 16.4. TESTY NIEPARAMETRYCZNE DLA JEDNEJ PRÓBY ................................................................. 61 16.4.1. Ocena losowości próby .............................................................................................. 61 16.4.2. Test zgodności chi kwadrat ........................................................................................ 62 16.4.3. Ocena normalności rozkładu ..................................................................................... 65 16.4.4. Test niezaleŜności chi kwadrat ................................................................................... 68 16.5. TESTY NIEPARAMETRYCZNE DLA DWÓCH PRÓB................................................................... 73 16.5.1. Test zgodności rozkładów dla prób niepowiązanych (test Wilcoxona) ........................ 73 16.5.2. Test zgodności rozkładów dla prób powiązanych (test rangowanych znaków) ............ 75 16.6. ALGORYTMIZACJA OBLICZEŃ ............................................................................................. 77 16.6.1. Wykorzystanie arkusza Excel ..................................................................................... 77 16.6.2.Zasady wyboru testu przy dwóch próbach................................................................... 78 3 STATYSTYKA MATEMATYCZNA 17. ANALIZA KORELACJI I REGRESJI DWÓCH ZMIENNYCH...................................... 79 17.1. WPROWADZENIE ............................................................................................................... 79 17.2. ANALIZA KORELACJI.......................................................................................................... 80 17.2.1. Uwagi wstępne........................................................................................................... 80 17.2.2. Estymacja współczynnika korelacji cech populacji..................................................... 80 17.2.3. Weryfikacja hipotez o współczynniku korelacji........................................................... 82 17.2.4. Współczynnik korelacji Spearmana............................................................................ 84 17.2.5. Współczynnik korelacji Cramera................................................................................ 87 17.3. ANALIZA REGRESJI ............................................................................................................ 88 17.3.1. Uwagi wstępne........................................................................................................... 88 17.3.2. Estymatory współczynników regresji.......................................................................... 88 17.3.3. Rozkłady estymatorów współczynników regresji......................................................... 92 17.3.4. Estymacja przedziałowa współczynników regresji...................................................... 92 17.3.5. Weryfikacja hipotez o współczynnikach regresji......................................................... 94 18. WPROWADZENIE DO ZAAWANSOWANYCH METOD STATYSTYCZNYCH......... 96 18.1. CHARAKTERYSTYKA ZAAWANSOWANYCH METOD STATYSTYCZNYCH ................................. 96 18.2. ALGORYTMIZACJA WYBORU METOD STATYSTYCZNYCH .................................................... 100 4 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 14. STATYSTYKI I ICH ROZKŁADY Począwszy od tego rozdziału będziemy przedstawiali teorię i zastosowania statystyki matematycznej. RozwaŜymy najpierw sytuacje, w których badana jest jedna cecha populacji lub dwie cechy róŜnych populacji tak, Ŝe moŜna je traktować jako zmienne losowe niezaleŜne. Wówczas o próbach pobranych z tych populacji mówimy, Ŝe są niepowiązane. 14.1. Próba jako zmienna losowa wielowymiarowa W dalszych rozwaŜaniach będzie potrzebna nowa definicja próby umoŜliwiająca korzystanie w statystyce z rachunku prawdopodobieństwa. Badana jest cecha X populacji. Niech X1, X2, ... Xn będą zmiennymi losowymi niezaleŜnymi o jednakowym rozkładzie, takim jak rozkład cechy X. Próba losowa n-elementowa ze względu na cechę X (próba n elementowa) jest to zmienna losowa n-wymiarowa (X1, X2, ..., Xn) (14.1) Interpretacja Zmienna losowa X1 jest modelem wartości cechy X pierwszego elementu wylosowanego z populacji do próby, X2 modelem drugiego elementu itd. PoniewaŜ do próby losujemy elementy metodą ze zwracaniem, więc kaŜdy element populacji ma te same szanse być wylosowany, dlatego przyjmuje się, Ŝe zmienne losowe są niezaleŜne. KaŜdą wartość (x1, x2, ..., xn) próby (14.1) nazywamy realizacją próby lub takŜe próbą. (14.2) Przykład 14.1 RozwaŜamy populację gospodarstw domowych na terenie Warszawy. Populację tę badamy ze względu na cechę X – liczba osób w gospodarstwie. Z populacji pobieramy próbę pięcioelementową. Losujemy ze zwracaniem pięć gospodarstw domowych. Przypuśćmy, Ŝe otrzymaliśmy wartości cechy X: 2, 3, 1, 3, 4. Zatem zmienna losowa X1 oznaczająca liczbę osób w wylosowanym pierwszym gospodarstwie przyjęła wartość 2, zmienna losowa X2 oznaczająca liczbę osób w wylosowanym drugim gospodarstwie przyjęła wartość 3 itd. Próba (X1, X2, X3, X4, X5) (14.3) przyjęła wartość (2, 3, 1, 3, 4) (14.4) Przypuśćmy, Ŝe badanie powtórzono i otrzymano teraz następujące wartości cechy X: 3,1,1,2,2. Otrzymaliśmy inną wartość próby (14.3), mianowicie (3, 1 ,1, 2, 2) (14.5) Ciągi (14.4) i (14.5) są realizacjami próby (14.3). Statystyki Aby moŜna było przeprowadzić analizę statystyczną naleŜy przekształcić próbę, czyli rozpatrywać funkcje próby. Funkcje próby (14.1) nazywamy statystykami Un = g(X1, X2, ..., Xn) (14.6) Przykład 14.2 Jeśli interesujemy się średnią liczbą osób w gospodarstwach domowych wybranych do próby, to naleŜy rozwaŜyć zmienną losową U5 = X1 +X 2 +X 3 +X 4 +X 5 5 5 średnia arytmetyczna z próby (14.7) STATYSTYKA MATEMATYCZNA Zmienna ta jest funkcją próby (14.3), jest zatem statystyką. Wartościami (realizacjami) tej statystyki, dla realizacji próby (14.4) i (14.5) są liczby u5 = 2+3+1+3+4 3+1+1+2+2 =2,6 i u 5 = =1,8 5 5 14.2. Podstawowe statystyki i ich rozkłady 14.2.1. Wykazy statystyk Przedstawimy teraz dwa wykazy najczęściej stosowanych statystyk. • Wykaz statystyk klasycznych, tj. statystyk, których wartości zaleŜą od wszystkich zmiennych losowych wchodzących w skład próby. • Wykaz statystyk pozycyjnych, tj. statystyk, których wartości zaleŜą tylko od niektórych zmiennych losowych wchodzących w skład próby, głównie od tych, które zajmują odpowiednią pozycję w próbie. Tabela 14.1 Wykaz statystyk klasycznych Lp Postać 2 S2n = 3 Sn = 4 Ŝ2n = 5 6 7 8 9 10 11 1 n ∑ Xi n i =1 Średnia z próby 1 n ∑ (Xi − X n ) 2 n i =1 Wariancja z próby (obciąŜona1) 1 n ∑ (Xi − X n )2 n i=1 Odchylenie standardowe z próby Xn = 1 Nazwa / Komentarz 1 n ∑ (Xi − X n )2 n − 1 i=1 1 n So2 = ∑ (Xi − m)2 n n i =1 Un = nSo2 n σ2 n X −m = ∑ i σ i =1 nS2n Wariancja z próby (nieobciąŜona2) m=EX 2 m=EX, σ=DX 2 n X −X i n = ∑ 2 σ σ i =1 1 n U n = ∑ Xik n i =1 n 1 U n = ∑ (X i − X n )k n i=1 X −m Un = n n −1 Sn Y W(ω) = n n Yn- liczba jedynek w próbie patrz poniŜsza uwaga Un = 1 Wyjaśnienie nazwy w podpukcie 15.2.1. 2 Jak wyŜej Moment z próby rzędu k Moment centralny z próby rzędu k Wskaźnik struktury wariantu ω. 6 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Tabela 14.2. Wykaz statystyk pozycyjnych Nazwa statystyki Symbol Mediana z próby Me Kwantyl rzędu p z próby Kp Kwartyl pierwszy, drugi i trzeci z próby Q1, Q2, Q3 Rozstęp z próby Ro Definicja statystyki Statystyka przyjmująca dla kaŜdej realizacji próby medianę w tej realizacji Statystyka przyjmująca dla kaŜdej realizacji próby kwantyl rzędu p w tej realizacji Statystyka przyjmująca dla kaŜdej realizacji próby odpowiedni kwartyl w tej realizacji Statystyka przyjmująca dla kaŜdej realizacji próby rozstęp w tej realizacji Podobnie definiuje się inne statystyki pozycyjne np. decyle z próby i centyle z próby. Uwaga: KaŜdemu elementowi próby przyporządkowujemy 1, gdy element ma wartość cechy X równą wariantowi ω lub 0 w przeciwnym przypadku. Wtedy próba (X1, X2, ..., Xn) jest ciągiem zmiennych losowych o rozkładach zerojedynkowych, a kaŜda realizacja próby jest ciągiem n- elementowym zer lub jedynek. 14.2.2. Rozkład średniej z próby Średnia z próby n-elementowej jest to statystyka Xn = 1 n ∑ Xi n i=1 Parametry średniej Jeśli cecha X populacji ma wartość oczekiwaną m i wariancję σ2 , to σ2 σ EX n =m , D 2 X n = , DX n = n n Rozkład średniej Jeśli cecha X populacji ma rozkład normalny N(m, σ), to średnia arytmetyczna X n ma rozkład σ 3 normalny N m, . Twierdzenie to wynika z własności rozkładu normalnego . n Rozkład asymptotyczny średniej Jeśli cecha X populacji ma wartość oczekiwaną m i wariancję σ 2 >0 , to dla duŜych n średnia σ arytmetyczna X n ma rozkład asymptotycznie normalny N m, . n Twierdzenie to wynika z faktów: a) na podstawie tw. Lindeberga-Levy’ego4 suma n ∑X i ma rozkład asymptotycznie normalny, i=1 b) funkcja liniowa zmiennej losowej o rozkładzie normalnym ma rozkład normalny. Oba rozkłady średniej (dokładny i asymptotyczny) potwierdzają znany nam fakt, wynikający z prawa wielkich liczb Chinczyna, Ŝe średnia arytmetyczna duŜej liczby zmiennych losowych ma rozkład skupiony przy wartości oczekiwanej. Teraz ten fakt został ujęty ilościowo. 3 4 Patrz podpunkt 21.1.1. części VII Wybrane twierdzenia z dowodami Patrz podpunkt 9.2.2 części III Rachunek prawdopodobieństwa 7 STATYSTYKA MATEMATYCZNA Przykład 14.1 Cecha X populacji ma rozkład normalny N(3,1). Obliczymy prawdopodobieństwa P( X-3 <0,1), P( X16 -3 <0,1), P( X 400 -3 <0,1) . Rozwiązanie P ( X-3 <0,1) =2Φ ( 0,1) -1=2 ⋅ 0,5398-1=0,08 1 1 Statystyka X16 ma rozkład N 3, , czyli rozkład N 3, 4 . Zatem 16 1 1 P( X16 -3 <0,1)=P X16 -3 : <0,1: =2Φ(0,4)-1= 2 ⋅ 0,4556-1=0,30 4 4 1 1 Statystyka X 400 ma rozkład N 3, czyli rozkład N 3, 20 . Zatem 400 1 1 P( X 400 -3 <0,1)=P X 400 -3 : <0,1: =2Φ(2)-1=2 ⋅ 0,97725-1=0,955 20 20 Obliczyliśmy prawdopodobieństwa, Ŝe zmienne losowe X, X16 , X 400 przyjmą wartości z otoczenia o promieniu 0,1 swoich wartości oczekiwanych. Widać, Ŝe to prawdopodobieństwo dla zmiennej losowej X jest małe, umiarkowanej wartości dla średniej X16 i bardzo duŜe dla średniej X 400 . Potwierdza to wcześniej sformułowaną właściwość średniej z próby, o przyjmowaniu przez nią wartości z prawdopodobieństwem bliskim jedności mało róŜniących się od jej wartości oczekiwanej (a takŜe cechy populacji), gdy próba jest liczna. Wynika stąd, Ŝe wartości statystyki X n mogą słuŜyć do oceny wartości oczekiwanej, gdy wartość ta nie jest znana, a próba ma duŜo elementów. 14.2.3. Rozkład statystyk związanych z wariancją z próby Wariancja z próby n-elementowej jest to statystyka 1 n S2n = ∑ (Xi − X n ) 2 n i =1 Odchylenie standardowe z próby n-elementowej jest to statystyka Sn = 1 n ∑ (Xi − X n )2 n i=1 Interpretacja ZauwaŜmy, Ŝe dla realizacji próby, której elementy mało róŜnią się od siebie realizacja s 2n statystyki S2n jest liczbą bliską zeru, natomiast dla realizacji próby, której elementy róŜnią się znacznie od siebie, ta realizacja jest duŜą liczbą. Podobne uwagi dotyczą odchylenia standardowego z próby. Zatem statystyki S2n i Sn są miarami zróŜnicowania elementów próby względem średniej z próby. Z wariancją z próby związane są statystyki Ŝ2n = 2 1 n X i -X n ) oraz ( ∑ n-1 i=1 gdzie m jest wartością oczekiwaną cechy X populacji. 8 So2 n = 1 n 2 ∑ ( Xi -m ) n i=1 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE ZauwaŜmy, Ŝe między statystykami Ŝ2n i So2 n występują związki Ŝ2n = n 2 n 2 Sn oraz nS2n =(n-1) Ŝ2n = ∑ ( X i -X n ) n-1 i=1 nS2n nSo2 n i 2 2 σ σ Zakładamy, Ŝe cecha X populacji ma rozkład normalny N(m, σ). Wtedy statystyka Rozkłady statystyk 2 n nSo2 X i -m n = ∑ 2 σ σ i=1 jest sumą kwadratów n niezaleŜnych zmiennych losowych o rozkładzie normalnym N(0, 1), zatem ma rozkład χ 2 z n stopniami swobody5. Natomiast statystyka nS2n n X i -X n =∑ σ 2 i=1 σ 2 nSo2 n , Ŝe zamiast róŜnicy Xi - m występuje róŜnica X i - X n . MoŜna σ2 udowodnić, Ŝe ma ona takŜe rozkład χ 2 , tyle, Ŝe z n-1 stopniami swobody. Zatem prawdziwe jest twierdzenie:. nSo2 n Jeśli cecha X populacji ma rozkład normalny N(m, σ), to statystyka ma rozkład χ 2 σ2 nS2n z n stopniami swobody. Statystyka ma rozkład χ 2 z n-1 stopniami swobody. 2 σ 2 ˆ2 o2 ZbieŜność statystyk Sn ,Sn ,Sn Jeśli cecha populacji X ma wariancję σ 2 , to ciągi ( S2 ) , Sˆ 2 , ( So2 ) są zbieŜne według róŜni się tym od statystyki ( ) ( S ) , ( Sˆ ) , (S ) są n prawdopodobieństwa do wariancji σ 2 , natomiast ciągi n n n n o n zbieŜne według prawdopodobieństwa do odchylenia standardowego σ . Wynika stąd, Ŝe dla licznej próby wartości statystyk S2n , Sˆ 2n , So2 n mogą słuŜyć do oceny wariancji σ 2 , natomiast wartości statystyk S ,Sˆ ,So do oceny odchylenia standardowego σ . n n n Wartość oczekiwana statystyk S , Sˆ 2n , So2 n 2 n ES2n = 5 n-1 2 σ , n E Sˆ 2n =σ 2 , Patrz ppkt 6.2.5 - definicja rozkładu chi kwadrat. 9 2 E So2 n =σ . STATYSTYKA MATEMATYCZNA W tabelach 14.2. i 14.3. podano zestawienie wybranych statystyk wraz z ich rozkładami6. Tabela 14.2. Rozkłady statystyk dla jednej cechy populacji Rozkład cechy populacji Statystyka Rozkład statystyki Normalny Xn Normalny N(m,σ) Dowolny z wartością oczekiwaną m i wariancją 2 nSn 2 σ2 nSn o2 σ2 X n -m n-1 Sn χ 2 z n-1 stopniami swobody χ 2 z n stopniami swobody Studenta z n-1 stopniami swobody Xn Asymptotycznie normalny σ N(m, ) dla duŜych n n Wskaźnik struktury (częstość sukcesu) Yn n Yn- liczba jedynek w próbie Asymptotycznie normalny p(1-p) N p, , n σ >0 Zerojedynkowy P(X = 1) = p P ( X = 0) = 1 − p p- prawdopodobieństwo sukcesu σ N m, n Dla przypadku, gdy X: N(m, σ), podane w tabeli 14.3. rozkłady statystyk moŜna zilustrować w sposób następujący. Rys. 14.1. Rozkłady wybranych statystyk 6 Patrz punkt 21.1. części VII Wybrane twierdzenia z dowodami 10 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Tabela 14.4. Rozkłady statystyk dla dwóch niezaleŜnych cech populacji Rozkład cechy X Rozkład cechy Y Normalny N(m, σ1) Normalny N(m, σ2) Normalny N(m, σ) Normalny N(m, σ) Normalny N(m1, σ ) Normalny N(m2, σ ) Dowolny z wartością oczekiwaną m1 i z wariacją σ12 Dowolny z wartością oczekiwaną m2 i z wariacją σ 22 Statystyka X n1 -Yn 2 σ12 σ 22 + n1 n 2 Xn1 -Yn2 2 1 n1 nn 1 2 (n1+n2-2) n1+n2 2 2 n2 nS +n S Ŝ2n 2 X n1 -Yn 2 n1 11 + Normalny N(0,1) Studenta z n1 + n2 -2 stopniami swobody Snedecora z parą (n1-1, n2-1) stopni swobody Ŝ2n1 S2n1 Rozkład statystyki S2n 2 n2 Asymptotycznie normalny N(0,1) STATYSTYKA MATEMATYCZNA 15. ESTYMACJA PARAMETRÓW 15.1. Wprowadzenie W teorii estymacji wyróŜnia się: estymację parametryczną i estymację nieparametryczną. Estymacja parametryczna dotyczy szacowania nieznanych parametrów rozkładu. Problem estymacji parametrycznej, odnoszący się do jednej cechy jest następujący: Populacja badana jest ze względu na cechę X o rozkładzie zaleŜnym od parametru Q, tzn. dystrybuanta tej cechy jest postaci FQ (x), przy czym dla kaŜdego Q naleŜącego do pewnego zbioru Ω – przestrzeni parametru Q, dystrybuanta ta jest znana. Przy tych załoŜeniach wnioskowanie o rozkładzie cechy X sprowadza się do oszacowania (estymacji) na podstawie próby wartości parametru Q. WyróŜnia się dwa sposoby szacowania parametru Q: oszacowanie punktowe i oszacowanie przedziałowe. Estymacja nieparametryczna dotyczy szacowania postaci funkcyjnej rozkładu, np. w postaci dystrybuanty. MoŜna w tym celu stosować, analogicznie jak przy estymacji parametrycznej, oszacowanie punktowe lub przedziałowe. Przy szacowaniu przedziałowym wyznacza się obszar (pas) ufności. 15.2. Estymacja punktowa Estymacja punktowa parametru Q polega na: Wybraniu pewnej statystyki Un o rozkładzie zaleŜnym od parametru Q. Obliczeniu na podstawie próby wartości un statystyki Un Przyjęciu, Ŝe un jest oszacowaniem parametru Q, co zapisujemy Q̂ = u n i czytamy: oceną parametru Q jest un. Statystyka Un nazywa się wówczas estymatorem parametru Q. Znanych jest szereg metod wyznaczania estymatorów. NajwaŜniejsze z nich to: metoda momentów, metoda największej wiarygodności, metoda najmniejszych kwadratów – autor Carl Gauss, metoda estymacji bayesowskiej i metoda estymacji minimaksowej. PoniŜej podano istotę pierwszej z wymienionych metod, druga zostanie scharakteryzowana w punkcie 15.2.4, a trzecia w punkcie 17.3.2.(łacznie z nawiązaniem do poprzednich) Metoda momentów została opracowana pod koniec XIX wieku przez angielskiego statystyka K. Pearsona. Zgodnie z tą metodą przyjmuje się, Ŝe estymatorem momentu cechy populacji jest odpowiadający mu moment z próby, zaś estymatorem funkcji momentów populacji jest ta sama funkcja momentów z próby. Przykład 15.1 Badana jest cecha X populacji. Zgodnie z metodą momentów przyjmujemy, Ŝe estymatorem 1 n wartości oczekiwanej m jest średnia z próby X n = ∑ Xi , natomiast estymatorem wariancji σ2 n i =1 n 2 1 jest wariancja z próby S2n = ∑ ( X i -X n ) . n i=1 NaleŜy podkreślić, Ŝe charakterystyki liczbowe opisane w ramach statystyki opisowej pokrywają się z estymatorami wyznaczonymi metodą momentów. 12 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 15.2.1. Klasyfikacja estymatorów i nierówność Rao-Cramera Estymator zgodny parametru Q jest to estymator Un zbieŜny wg prawdopodobieństwa do Q, tzn. lim P( U n -Q <ε)=1 n →∞ dla dowolnego ε >0 Estymator nieobciąŜony parametru Q jest to estymator Un o wartości oczekiwanej równej parametrowi Q EUn = Q Estymator najefektywniejszy parametru Q jest to estymator nieobciąŜony tego parametru o najmniejszej wariancji spośród wszystkich estymatorów nieobciąŜonych parametru Q. Estymator obciąŜony parametru Q jest to estymator Un taki, Ŝe EUn ≠ Q Estymator asymptotycznie nieobciąŜony parametru Q jest to estymator Un o granicy wartości oczekiwanej równej parametrowi Q lim EU n =Q n →∞ Estymator asymptotycznie najefektywniejszy parametru Q jest to estymator nieobciąŜony lub asymptotycznie nieobciąŜony taki, Ŝe ( D2 U n lim 2 =1 n →∞ D U n ( gdzie U n jest estymatorem najefektywniejszym parametru Q. Interpretacja Jeśli estymator jest estymatorem zgodnym parametru Q, to dla duŜej próby z prawdopodobieństwem bliskim 1 ocena parametru i parametr mało róŜnią się. Jeśli estymator parametru Q jest nieobciąŜony, to otrzymujmy oceny bez błędu systematycznego. Jeśli bowiem byłoby EU n <Q , to otrzymywalibyśmy oceny średnio zaniŜone. Natomiast, gdyby EU n >Q , to otrzymywalibyśmy oceny średnio zawyŜone. Jeśli estymator jest estymatorem najefektywniejszym parametru Q, to jego rozkład jest najbardziej skupiony przy parametrze Q, zatem otrzymujemy oceny bliŜsze parametrowi Q, niŜ przy innych estymatorach. Estymator asymptotycznie nieobciąŜony jest praktycznie estymatorem nieobciąŜonym, gdy próba jest liczna, takŜe estymator asymptotycznie najefektywniejszy jest praktycznie, dla duŜej próby, estymatorem najefektywniejszym. Zgodność, a nieobciąŜoność estymatora PoniŜsze twierdzenie jest uŜyteczne przy badaniu zgodności estymatora. Jeśli Un jest estymatorem nieobciąŜonym lub asymptotycznie nieobciąŜonym parametru Q oraz lim D 2 U n =0 n →∞ to Un jest estymatorem zgodnym tego parametru. Nierówność Rao-Cramera Jeśli cecha populacji X jest zmienną losową skokową o funkcji prawdopodobieństwa zaleŜnej od parametru Q P(X=x k )=pk (Q) i Un jest estymatorem nieobciąŜonym parametru Q oraz spełnione są warunki regularności7, to wariancja estymatora Un spełnia tzw. nierówność Rao-Cramera 7 Leitner Roman, Zacharski Janusz: Zarys matematyki wyŜszej dla studentów, część III, WNT, Warszawa 1998 - str. 298 13 STATYSTYKA MATEMATYCZNA 1 D2 U n ≥ 2 d n∑ lnp k (Q) p k (Q) k dQ przy czym dla estymatora najefektywniejszego zachodzi równość w powyŜszej nierówności. Jeśli cecha populacji X jest zmienną losową ciągłą o gęstości fQ(x) zaleŜnej od parametru Q i Un jest estymatorem nieobciąŜonym parametru Q oraz spełnione są warunki regularności8, to wariancja estymatora Un spełnia nierówność Rao-Cramera w poniŜszej postaci D2 U n ≥ 1 2 ∞ ∂ n∫ ln f Q (x) f Q (x)dx ∂Q -∞ przy czym dla estymatora najefektywniejszego zachodzi równość w powyŜszej nierówności. Efektywność estymatora Efektywność estymatora nieobciąŜonego Un parametru Q jest to liczba ( D2 U n en = 2 D Un ( 2 gdzie D U n jest wariancją estymatora najefektywniejszego parametru Q. Oczywiście 0 < en ≤ 1 Estymator Un jest estymatorem najefektywniejszym wtedy i tylko wtedy, gdy en = 1. 15.2.2. Estymacja wartości oczekiwanej rozkładu normalnego Cecha X populacji ma rozkład normalny N(m,σ), przy czym σ jest znane. Przyjmiemy, Ŝe estymatorem wartości oczekiwanej jest średnia z próby 1 n X n = ∑ Xi n i =1 Zgodność Cecha X ma rozkład z wartością oczekiwana m. Średnia z próby X n jest estymatorem zgodnym wartości oczekiwanej m, gdyŜ na podstawie prawa wielkich liczb Chinczyna9 lim P( X n - m <ε)=1 dla dowolnego ε >0 n →∞ NieobciąŜoność PoniewaŜ 1 n 1 1 n 1 n EX n =E ∑ X k = ∑ EX k = ∑ m= nm=m n k=1 n n k=1 n k=1 więc średnia z próby jest estymatorem nieobciąŜonym wartości oczekiwanej. Efektywność Obliczymy najpierw wariancję estymatora najefektywniejszego wartości oczekiwanej rozkładu normalnego, a następnie wariancję średniej z próby i porównamy otrzymane wielkości. 8 9 Patrz jw Patrz ppkt 9.4.3. części III Rachunek prawdopodobieństwa 14 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE % jest estymatorem najefektywniejszym, to jego wariancja jest równa prawej stronie Jeśli U n nierówności Rao-Cramera 1 1 % = D2 U = {ozn.} = n 2 ∞ M ∂ n∫ lnf m (x) f m (x)dx ∂m -∞ 2 2 1 gdzie: f m (x)= e-(x-m) /(2σ ) σ 2π 1 (x-m)2 ∂ (x-m) Zatem lnf m (x)=ln i lnf m (x)= 2 2 ∂m σ σ 2π 2σ ∞ n n n n M= 4 ∫ (x-m) 2 f m (x)dx= 4 D2 X= 4 σ 2 = 2 σ -∞ σ σ σ 2 ( 1 σ Czyli D 2 U n = wariancja estymatora najefektywniejszego wartości oczekiwanej rozkładu normalnego = 1 n 2 n σ n 1 1 n 1 σ2 1 n D2 X n =D2 ∑ X k = 2 ∑ D2 X k = 2 ∑ σ 2 = 2 nσ 2 = n k=1 n n n k=1 n k=1 ( Zatem D2 X n = D2 U n , więc średnia z próby jest estymatorem najefektywniejszym wartości oczekiwanej rozkładu normalnego. Z powyŜszego wynika, Ŝe średnia z próby X n jest estymatorem zgodnym, nieobciąŜonym i najefektywniejszym wartości oczekiwanej rozkładu normalnego. 15.2.3. Estymatory wariancji rozkładu normalnego Estymatorami wariancji są statystyki 2 2 1 n 1 n 1 n 2 Sn 2 = ∑ ( X i -X n ) Sn o2 = ∑ ( X i -m ) Ŝn 2 = X i -X n ) ( ∑ n i=1 n i=1 n-1 i=1 Zbadamy własności tych estymatorów przy załoŜeniu, iŜ rozkład cechy jest normalny. nSn 2 nSn o2 W ppkt 14.2.3. stwierdziliśmy, Ŝe statystyki i mają rozkłady chi kwadrat z n-1 σ2 σ2 i n stopniami swobody oraz, Ŝe rozkład chi kwadrat z n stopniami swobody ma wartość oczekiwaną równą n i wariancję 2n. NieobciąŜoność10 E nS2n =n-1 σ2 oraz E E nSo2 n =n σ2 oraz E nS2n n = 2 ES2n 2 σ σ nSo2 n n = 2 ESo2 n 2 σ σ zatem ES2n = n-1 2 σ n 2 zatem ESo2 n =σ n 2 n n n-1 2 2 ESˆ 2n =E Sn = ES2n = σ =σ n-1 n-1 n-1 n 10 W 21.2 części VI Wybrane twierdzenia wraz z dowodami oceniono obciąŜoność wariancji bez załoŜenia o normalności rozkładu 15 STATYSTYKA MATEMATYCZNA Wnioski 2 2 Statystyki So2 n i Ŝn są estymatorami nieobciąŜonymi wariancji σ . Statystyka S2n jest estymatorem obciąŜonym wariancji σ 2 ale n-1 2 2 σ =σ lim ES2n = lim n →∞ n →∞ n czyli jest estymatorem asymptotycznie nieobciąŜonym wariancji σ 2 . Zgodność Przy badaniu zgodności estymatorów wariancji σ 2 wykorzystamy twierdzenie podane w punkcie 15.2.1. PoniewaŜ rozwaŜane estymatory wariancji są nieobciąŜone lub asymptotycznie nieobciąŜone, to zgodnie z tym twierdzeniem będą estymatorami zgodnymi, gdy ich wariancje zbieŜne są do zera. Obliczymy te wariancje 2 ( n-1) 4 nS2 nS2 n 2 D2 2n =2(n-1) oraz D 2 2n = 4 D 2 S2n , zatem D 2 S2n = σ →0 σ σ σ n2 o2 o2 n2 2σ 4 2 nSn 2 nSn o2 2 o2 D =2n oraz D = 4 ESn , zatem D Sn = →0 n σ2 σ2 σ n 2 n2 n 2 2 ( n-1) 4 2σ 4 2 2 σ = →0 D 2Sˆ 2n =D 2 Sn = D S = n 2 2 2 n-1 n-1 ( n-1) ( n-1) n Wniosek. Statystyki S 2n , Son 2 , Ŝ 2n są estymatorami zgodnymi wariancji σ 2 Efektywność ( Jeśli U n jest estymatorem najefektywniejszym wariancji σ 2 , to jego wariancja jest równa prawej stronie nierówności Rao-Cramera, czyli % = D2 U n gdzie: f σ2 (x)= 1 2 ∞ ∂ n ∫ 2 lnf σ2 (x) f σ2 (x)dx ∂ σ -∞ = {ozn.} = 2 2 1 e-(x-m) /(2σ ) σ 2π Zatem 1 1 (x-m) 2 lnf σ2 (x)=- lnσ 2 -ln 2 2 2π 2σ ∂ 1 (x-m)2 (x-m)2 -σ 2 lnf (x)=+ = 2 ∂σ 2 σ 2σ 2 2σ 4 2σ 4 2 2 ∞ (x-m) 2 -σ 2 ∂ M = n ∫ 2 lnf σ2 (x) f σ2 (x)dx = n ∫ f 2 (x)dx = 2σ 4 σ ∂σ -∞ -∞ ∞ ∞ ∞ ∞ n 4 2 2 4 = 8 ∫ (x-m) f σ2 (x)dx-2σ ∫ (x-m) f σ2 (x)dx+σ ∫ f σ2 (x)dx = 4σ - ∞ -∞ -∞ 4 n 1 2σ n = 8 µ 4 -2σ 4 +σ 4 = 8 3σ 4 -2σ 4 +σ 4 = 8 = 4 4σ 2σ 4σ 2σ 4 ( 1 2σ D2 U n = = 1 n n 4 2σ 16 1 M PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Porównując otrzymany wynik z wcześniej obliczonymi wariancjami estymatorów stwierdzamy, Ŝe ( 2σ 4 2 o2 2 D Sn =D U n = n ( 2 4 D U 2σ 2σ 4 n-1 e n = 2 2n = : = n n-1 n D Sˆ n ( D 2 U n 2σ 4 2(n-1)σ 4 n = : = D 2S2n n n2 n-1 Wnioski z powyŜszych równości Statystyka So2 n = 1 n 2 ( Xi -m ) jest estymatorem najefektywniejszym wariancji σ2 rozkładu ∑ n i=1 normalnego. 2 1 n X i -X n ) nie jest estymatorem najefektywniejszym wariancji σ2 rozkładu ( ∑ n-1 i=1 normalnego, ma efektywność (n-1)/n, jest więc estymatorem asymptotycznie najefektywniejszym. Statystyka Ŝ2n = 2 1 n X i -X n ) jest estymatorem asymptotycznie najefektywniejszym wariancji σ2 ( ∑ n i=1 rozkładu normalnego. Statystyka S2n = PoniewaŜ statystyka ta nie jest estymatorem nieobciąŜonym, więc nie moŜe być estymatorem najefektywniejszym i nie moŜna mówić o efektywności tego estymatora. Estymatory odchylenia standardowego Estymatory odchylenia standardowego przedstawione są w tabeli 15.2. ZauwaŜmy, Ŝe pierwiastek kwadratowy estymatora nieobciąŜonego wariancji σ2 nie musi być estymatorem nieobciąŜonym odchylenia standardowego σ. 15.2.4. Metoda największej wiarygodności otrzymywania estymatorów Cecha X populacji ma rozkład zaleŜny od s parametrów Q1, ... , Qs (X1, ... , Xn) – próba (x1, ... , xn) – realizacja próby. Funkcja wiarygodności jest to funkcja s zmiennych Q1, ... , Qs • • w przypadku cechy populacji X skokowej przyporządkowuje kaŜdemu moŜliwemu punktowi (Q1, ... , Qs) prawdopodobieństwo otrzymania realizacji próby (x1, ... , xn) L(Q1, ... , Qs) = P(X1 = x1, … , Xn = xn) = P(X1 = x1) … P(Xn = xn) w przypadku cechy populacji X ciągłej przyporządkowuje kaŜdemu moŜliwemu punktowi (Q1, ... , Qm) gęstość próby w punkcie będącym realizacją próby (x1, ... , xn) L(Q1, ... , Qs) = f (x1, ... , xn) = f1(x1) … fn(xn) Metoda największej wiarygodności (MNW) otrzymywania estymatorów polega na wyznaczeniu, ˆ , ..., Q ˆ , parametrów Q1, ... , Qs, by funkcja wiarygodności dla danej realizacji próby, takich ocen Q 1 s ˆ ˆ w punkcie ( Q , ..., Q ) osiągała wartość największą. 1 s Estymatory, których wartościami są oceny parametrów Q1, ... ,Qs uzyskiwanymi metodą największej wiarygodności nazywamy estymatorami największej wiarygodności (ENW). 17 STATYSTYKA MATEMATYCZNA Interpretacja MNW opiera się na następującej intuicji: skoro otrzymano realizację próby (x1, ... , xn), to musiała ona być bardziej wiarygodna od innych realizacji, tzn. w przypadku cechy skokowej prawdopodobieństwo uzyskania takiej realizacji powinno być największe, natomiast w przypadku cechy ciągłej gęstość próby dla otrzymanej realizacji powinna być największa. ENW mają rozkłady asymptotycznie normalne i są estymatorami zgodnymi oraz asymptotycznie nieobciąŜonymi i asymptotycznie najefektywniejszymi ( przy dość ogólnych załoŜeniach). Przykład 15.2 Wyznaczymy metodą największej wiarogodności na podstawie próby (x1 , x 2 ,..., x n ) estymator wartości oczekiwanej cechy X o rozkładzie N(m,σ) Uwzględniając, Ŝe gęstość rozkładu normalnego ma postać − 1 f (x) = e σ 2π otrzymuje się funkcję wiarogodności w postaci − 1 L(m) = e σ 2π (x1 − m)2 2σ 2 − 1 ... e σ 2π (x − m) 2 2 σ2 (x n − m) 2 2σ 2 n 1 n ( x i − m) 1 − 2 σ2 ∑ i=1 = e σ 2π 2 Przy poszukiwaniu maksimum funkcji L(m) wygodniej posługiwać się logarytmem tej funkcji, gdyŜ łatwiej jest znaleźć maksimum lnL(m), aniŜeli maksimum L(m), a obie funkcja L(m) i ln L(m) przyjmują maksimum w tym samym punkcie, co funkcja, a na ogół. Logarytm funkcji L(m) jest równy 1 1 1 + n ln − 2 σ 2 π 2σ Po zróŜniczkowaniu względem parametru m otrzymujemy ln L(m) = n ln n ∑ (x i − m) 2 i =1 d ln L(m) 1 n 1 n 1 = − 2 ∑ (x i − m) = 2 ∑ x i − 2 n ⋅ m dm σ i =1 σ i =1 σ Po przyrównaniu pochodnej do zera otrzymujemy 1 σ2 n ∑x i − i =1 1 ˆ =0 n⋅m σ2 skąd 1 n ∑ xi n i =1 Zatem estymator wartości oczekiwanej cechy X o rozkładzie N(m,σ) jest równy średniej arytmetycznej elementów próby. Druga pochodna jest równa m̂ = d2 d d ln L(m) d 1 ln L(m) = = 2 2 dm dt dm dt σ n ∑x i =1 i − 1 1 n ⋅m = − 2 n < 0 2 σ σ czyli m̂ zapewnia maksimum funkcji L(m) Kolejne przykłady wyznaczania estymatorów metoda największej wiarogogodności zamieszczono w punkcie 21.3. części VI Wybrane twierdzenia wraz z dowodami: • Estymator parametru p rozkładu zero-jedynkowego. • Estymator parametru Θ rozkładu wykładniczego. • Estymator parametru λ rozkładu Poissona. 18 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 15.2.5. Zestawienie estymatorów parametrów rozkładu zmiennej losowej i ich własności Tabela 15.2. Zestawienie estymatorów Parametr Wartość oczekiwana m rozkładu normalnego Estymator Zgodny NieobciąŜony Najefektywniejszy 1 n ∑ Xk n k=1 TAK TAK TAK 2 1 n X i -X n ) ( ∑ n i=1 TAK Asymptotycznie nieobciąŜony Brak oceny11 1 n 2 ( Xi -m ) ∑ n i=1 TAK TAK TAK 2 1 n X i -X n ) ( ∑ n-1 i=1 TAK TAK Asymptotycznie najefektywniejszy TAK Asymptotycznie nieobciąŜone Asymptotycznie najefektywniejsze TAK TAK DuŜa efektywność dla małych prób TAK TAK Efektywność 1/(π-2) TAK TAK TAK TAK TAK TAK Xn = S2n = Wariancja σ2 rozkładu normalnego S02 n = Ŝ2n = S0n , Ŝn , Sn Odchylenie standardowe Parametr λ rozkładu Poissona Parametr p rozkładu zerojedynkowego 11 Własności estymatora U n = ( X max -X min ) d n Xmax – największy element w próbie Xmin – najmniejszy element w próbie dn – współczynnik liczbowy, tak dobrany, by estymator był nieobciąŜony n 1 Un = π/2 ∑ X k -m n k=1 Xn = 1 n ∑ Xk n k=1 Yn/n, gdzie Yn oznacza liczbę jedynek w próbie Statystyka jest estymatorem asymptotycznie najefektywniejszym wariancji rozkładu normalnego, ale poniewaŜ statystyka ta nie jest estymatorem nieobciąŜonym, więc nie moŜe być estymatorem najefektywniejszym i nie moŜna mówić o efektywności tego estymatora. 19 STATYSTYKA MATEMATYCZNA 15.3. Estymacja przedziałowa 15.3.1. Uwagi wstępne Oszacowanie przedziałowe nieznanego parametru polega na wyznaczeniu przedziału ufności. X – cecha populacji, Q – parametr rozkładu cechy X, 1 - α - poziom ufności ( 0< α <1). * ** Jeśli istnieją dwie statystyki U*n , U** n takie, Ŝe P(U n ≤ Q ≤ U n )=1-α to przedział losowy 12 <U*n ; U** n > nazywamy przedziałem ufności parametru Q na poziomie ufności 1 - α. (15.1) * ** Jeśli na podstawie próby obliczymy wartości u*n , u** n statystyk Un , Un , to otrzymujemy liczbowy przedział < u*n ; u** n > (15.2) będący wartością (realizacją) przedziału (15.1). Parametr Q moŜe naleŜeć do przedziału (15.2) lub nie naleŜeć. Jeśli jednak poziom ufności 1 - α jest bliski jedności, to bardzo rzadko będziemy otrzymywać liczbowe przedziały ufności (15.2) do których parametr Q nie naleŜy. Granice przedziału ufności są zmiennymi losowymi. Zatem dla róŜnych realizacji próby otrzymujemy na ogół róŜne realizacje przedziałów ufności. Gdybyśmy oszacowanie przedziałowe powtórzyli wiele razy, to częstość realizacji, do których szacowany parametr naleŜy byłaby bliska poziomowi ufności i tak np. jeśli próbę powtórzono 100 razy i poziom ufności przyjęto 0,99, to częstość tych realizacji, do których parametr naleŜy byłaby bliska 0,99, a więc średnio tylko do jednej ze 100 realizacji szacowany parametr nie będzie naleŜał. Błąd bezwzględny. Błąd względny Jeśli realizacja (15.2) ma postać <u n - ε; u n + ε> , to liczbę ε nazywamy błędem bezwzględnym, zaś ε liczbę δ= błędem względnym oszacowania parametru na poziomie istotności 1 - α. un Na poniŜszym rysunku przedstawiono kilka z moŜliwych realizacji przedziałów ufności dla wartości oczekiwanej. m Rys. 15.4. Ilustracja szacowania m za pomocą przedziałów ufności Niektóre z nich pokrywają prawdziwą wartość parametru m, a niektóre nie. Sumarycznie, tzn. odnosząc się do wszystkich realizacji przedziałów ufności otrzymywanych tą metodą naleŜy stwierdzić, Ŝe z częstością bliską 1-α pokrywają prawdziwą wartość parametru. 12 RozwaŜa się takŜe jednostronne przedziały ufności postaci (-∞; Un> lub <Un;-∞). 20 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 15.3.2. Wyznaczenie przedziału ufności dla wartości oczekiwanej rozkładu normalnego Dla zilustrowania sposobu postępowania przy określeniu przedziału ufności wyznaczymy go dla wartości oczekiwanej rozkładu normalnego w dwóch przypadkach: przy znanej i nieznanej wariancji. Znana wariancja. Cecha X ma rozkład normalny N(m,σ), σ jest znane. Do budowy przedziału ufności na poziomie 1 – α wybieramy statystykę do oszacowania wartości oczekiwanej w postaci średniej arytmetycznej próby X n , która jak wiadomo (21-3.1) jest σ estymatorem najefektywniejszym. Jak wiadomo13, średnia arytmetyczna ma rozkład X n : N(m, ) n zaleŜny od wartości oczekiwanej m. Standaryzujemy X n , tzn. przekształcamy ją w statystykę U n Un = Statystyka Un ma rozkład N(0,1)14 . Xn − m σ n Wyznaczamy przedział liczbowy < −u α , u α > tak aby P[− u α ≤ Xn − m ≤ uα ] = 1− α σ n (15-3.2) gdzie uα zaleŜy od poziomu ufności 1 - α. Rozwiązujemy nierówność pod znakiem prawdopodobieństwa względem m σ σ −u α ≤ Xn − m ≤ u α n n σ σ −Xn − u α ≤ −m ≤ − X n + u α n n σ σ Xn + uα ≥ m ≥ Xn − uα n n σ σ Xn − uα ≤ m ≤ Xn + u α (15-3.3) n n ZaleŜność (15-3.3 ) określa szukany przedział ufności, spełnia on warunek σ σ (15-3.4) P(X n − u α ≤ m ≤ Xn + uα ) = 1− α n n Dla jego określenia naleŜy jeszcze wyznaczyć uα. Uwzględniając (3.6-2) i rozkład normalny Un P(− u α ≤ U n ≤ u α ) = P(U n ≤ u α ) − P(U n ≤ − u α ) = φ(u α ) − φ(− u α ) qdzie Φ jest dystrybuantą rozkładu normalnego N(0,1). PoniewaŜ Φ (−u α ) = 1 − Φ (u α ) - patrz poniŜszy rysunek 13 14 Podpunkt 19.1.1 części VI Wybrane twierdzenia z dowodami Podpunkt 20.5.5 części VI Wybrane twierdzenia z dowodami 21 STATYSTYKA MATEMATYCZNA Rysunek 15.14a. Wyznaczanie granicy przedziału ufności to P(− u α ≤ U n ≤ u α ) = φ(u α ) − 1 + φ(u α ) = 2φ(u α ) − 1 Uwzględniając (15-3.2) mamy równanie do wyznaczenia uα 2φ(u α ) − 1 =1-α Zatem uα wyznacza się z zaleŜności φ(u α ) = 1 − α 2 (15-3.5) Uwagi dotyczące przedziału ufności (15.3) 1. PołoŜenie końców przedziału jest losowe (bo średnia z próby ma wartość zaleŜną od realizacji próby). 2. Długość przedziału jest stała. 3. Długość przedziału zaleŜy od poziomu ufności 1–α (bo u α zaleŜy od α), im większy poziom ufności, tym dłuŜszy przedział ufności – patrz rys. 15.3. 4. Długość przedziału jest odwrotnie proporcjonalna do pierwiastka liczebności próby, zatem ze wzrostem liczebności próby zwiększa się dokładność oszacowania, jednak nadmierne powiększanie próby nie jest korzystne, bowiem powoduje małe zwiększanie się dokładności. 5. Długość przedziału ufności zaleŜy od odchylenia standardowego σ cechy X. Jeśli X oznacza wynik pomiaru, to σ oznacza dokładność pomiaru, a więc zwiększanie dokładności pomiarów powoduje zmniejszenie błędu oszacowania. Z powyŜszych uwag wynika, Ŝe potrzebny jest kompromis między zaufaniem do oszacowania (poziomem ufności), a błędem oszacowania, bowiem zwiększenie ufności powoduje zwiększenie błędu, zmniejszenie błędu powoduje zmniejszenie ufności oszacowania. Stosowanie przedziału ufności (15.3) wymaga spełnienia załoŜenia, Ŝe odchylenie standardowe σ jest znane. ZałoŜenie to w zagadnieniach praktycznych jest niezmiernie rzadko spełnione. Nieznana wariancja Cecha X ma rozkład normalny N(m,σ), σ jest znane.. Konstrukcja przedziału ufności dla wartości oczekiwanej rozkładu normalnego, gdy σ nie jest znane wymaga innego, niŜ poprzednio przekształcenia średniej z próby, mianowicie wykorzystujemy twierdzenie, Ŝe statystyka X -m Un = n n-1 Sn ma rozkład Studenta z n-1 stopniami swobody15. Dalej postępujemy podobnie jak poprzednio. 15 Podpunkt 21.1.2 części VI Wybrane twierdzenia z dowodami 22 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Wyznaczamy liczbę u α tak, by P(-u α ≤ U n ≤ u α )=1- α co jest równowaŜne wyraŜeniu P( U n ≥ u α )=α Liczbę u α spełniającą powyŜszy związek odczytujemy z tablic rozkładu Studenta z n-1 stopniami swobody i poziomu prawdopodobieństwa α (pkt 6 części VII „Tablice statystyczne”) lub znajdujemy ją przy pomocy programu komputerowego. Mamy X -m P(-u α ≤ n n-1 ≤ u α )=1-α Sn Rozwiązując względem m występującą w powyŜszym związku nierówność otrzymujemy przedział ufności uS uS <X n - α n ;X n + α n > przedział ufności dla wartości oczekiwanej rozkładu normalnego n-1 n-1 uS ε= α n błąd bezwzględny (połowa długości przedziału ufności) n-1 Tym razem nie tylko końce przedziału ufności są losowe, takŜe losowa jest długość przedziału ufności. Próba o duŜej liczności RozwaŜymy jeszcze jedną sytuację. Nie mamy informacji, Ŝe rozkład cechy jest normalny, za to wiemy, Ŝe próba jest liczna. Wówczas statystyka X n ma rozkład w przybliŜeniu normalny, σ N m, ). Postępując, jak przy konstrukcji przedziału (15.3) i zastępując σ odchyleniem n standardowym z próby ( o ile σ nie jest znane) otrzymujemy przedział ufności uS uS <X n - α n ;X n + α n > - przedział ufności dla wartości oczekiwanej dowolnego rozkładu. n n Podsumowanie Znalezione powyŜej trzy przedziały ufności dla wartości oczekiwanej oraz przedziały ufności dla innych parametrów są przedstawione w tabeli 15.3. Uogólniając powyŜszej przedstawione postępowanie naleŜy stwierdzić, Ŝe konstrukcja przedziału ufności dla parametru Q polega na: 1. Wybraniu statystyki o rozkładzie zaleŜnym od Q, najlepiej by statystyka ta była estymatorem najefektywniejszym tego parametru lub estymatorem o wysokiej efektywności. 2. Przekształceniu wybranej statystyki w statystykę U n wyraŜoną wzorem, w którym występuje Q. Rozkład U n powinien być znany i zaleŜeć tylko od Q. 3. Wyznaczeniu przedziału liczbowego <u1 ;u 2 > , tak by P(u1 ≤ U n ≤ u 2 )=1-α . 4. Rozwiązaniu względem Q nierówności u1 ≤ U n ≤ u 2 . 23 STATYSTYKA MATEMATYCZNA 15.3.3. Tabela przedziałów ufności Tabela 15.3. Zestawienie przedziałów ufności Parametr Wartość oczekiwana m Rozkład cechy Normalny N(m,σ), σ - jest znane Normalny N(m,σ), σ - nie jest znane Dowolny Liczna próba n ≥ 100 Wariancja σ2 Normalny N(m,σ) nS2 nS2 ; u1 u 2 Odchylenie standardowe σ Normalny N(m,σ), nS2 nS2 ; u1 u2 Wskaźnik struktury p Rozkład zerojedynkowy P(X = 1) = p, P ( X = 0) = 1 − p liczna próba n ≥ 100 Wartość oczekiwana m Wartość oczekiwana m Wyznaczanie liczby u α Przedział ufności σ uα σu <X− ; X+ α > n n <X− S uα <X− W − uα n −1 S uα n Su α ; X+ ; X+ n −1 Su α n α 2 Φ -dystrybuanta rozkładu N(0,1) P(| Tn −1 |≥ u α ) = α Tn-1 zmienna losowa o rozkładzie Studenta z n-1 stopniami swobody α Φ (u α ) = 1 − 2 Φ -dystrybuanta N(0,1) α P(Yn −1 ≥ u 1 ) = 2 α P(Yn −1 ≥ u 2 ) = 1 − 2 Yn-1 ma rozkład χ2 z n – 1 stopniami swobody α P(Yn −1 ≥ u 1 ) = 2 α P(Yn −1 ≥ u 2 ) = 1 − 2 Yn-1 ma rozkład χ2 z n – 1 stopniami swobody α Φ (u α ) = 1 − 2 Φ -dystrybuanta rozkładu normalnego N(0,1) Φ (u α ) = 1 − > > W(1 − W) W(1 − W) ; W + uα n n W - wskaźnik struktury w próbie W=Yn/n Yn – licznba jedynek w próbie 24 Nr PU-1 PU-2 PU-3 PU-4 PU-5 PU-6 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Przykład 15.3 Badano ceny drukarek Canon BC250 w 40 wylosowanych punktach sprzedaŜy. Otrzymano, Ŝe średnia cena drukarki wynosi 358,37. Zakładając, Ŝe cena drukarki w całej populacji ma rozkład normalny N(m, σ) na poziomie ufności 1-α = 0,95 wyznaczymy na podstawie 40 elementowej próby przedział ufności dla średniej ceny drukarki przyjmując, Ŝe odchylenie standardowe populacji jest równe 20. Rozwiązanie. Zastosujemy przedział ufności PU-1: <X- σ uα n ; X+ σ uα n > . PoniewaŜ 1-α = 0,95, czyli α = 0.05 α α = 0.025. Równanie do wyznaczenia uα ma postać Φ(u α )=1- = 0,975, stąd uα=1,96, więc błąd 2 2 σu 20 ⋅1,96 bezwzględny, czyli połowa długości przedziału ufności ε= α = = 6,198. n 40 Średnia arytmetyczna ceny jest równa x = 358,37. i Zatem szukanym przedziałem ufności jest przedział <358,37–6,2;358,37+6,2 = <352,17;364,57> ε 6,2 Błąd względny δ= 100%= 100% = 1,55%. x 358,37 σ uα Długość połowy przedziału ufności równą ε = zwraca funkcja UFNOŚĆ arkusza Excel na n podstawie odchylenia standardowego σ i liczebności próby. Zwracamy uwagę, Ŝe otrzymany wynik jest identyczny jak obliczony powyŜej. 25 STATYSTYKA MATEMATYCZNA Przykład 15.4 Dla danych z przykładu 15.3 obliczymy błędy bezwzględny i względny oszacowania parametru m na poziomie ufności 1 - α = 0,99. Rozwiązanie α Mamy Φ(u α )=1- = 0,995, stąd u α =2,576 , więc błąd bezwzględny, czyli połowa długości 2 σu ε 8,15 20 ⋅ 2,576 przedziału ufności ε = α = =8,15, błąd względny δ = = =2,27% x 358,37 n 40 Widzimy, Ŝe powiększanie poziomu ufności (zaufania do otrzymanego oszacowania) powoduje powiększenie obu błędów bezwzględnego i względnego. Dlatego w praktyce nie moŜna przyjmować zbyt duŜych poziomów ufności, gdyŜ prowadzi to do duŜych błędów oszacowania (przedziały ufności mają wtedy duŜą długość). Niektórzy praktycy przyjmują, Ŝe oszacowanie jest: • Bardzo dobre, gdy błąd względny jest równy najwyŜej 2%; • Dobre, gdy błąd względny jest zawarty między 2% i 5%; • Dostateczne, gdy błąd względny jest zawarty między 5% i 10%; • Niedostateczne, gdy błąd względny jest większy od 10%. Przykład 15.5 Na poziomie 0,95 obliczmy przedział ufności dla średniej ceny monitorów 17 calowych na podstawie 12 elementowej próby: 733, 685, 761, 812, 708, 735, 639, 730, 703, 694, 714, 664 zakładając, Ŝe cena ma rozkład normalny. Rozwiązanie Stosujemy przedział ufności PU-2 <XObliczamy: x = 714,83 oraz s Su α Su α ; X+ > n-1 n-1 1 10 2 ∑ (x i − 714,83) =43,19 12 i =1 Liczba u α spełnia związek P(|Tn-1| ≥ u α )=α , który dla danych zadania przybiera postać P(|T11| ≥ u α ) = 0,01. Z tablicy rozkładu Studenta dla 11 stopni swobody i poziomu prawdopodobieństwa 0,05 (pkt 6 części VII „Tablice statystyczne”) odczytujemy, Ŝe u α = 2,201, więc Su α 43,19 ⋅ 2,201 95, 064 ε= = = =28,66 . Zatem przedział ufności jest równy 3, 317 n-1 11 < 8, 6 − 0, 23 ; 8, 6 + 0, 23 > = < 8, 37 ; 8, 63 > ŝ u 45,11 ⋅ 2, 201 99, 287 Długość połowy przedziału ufności równą ε ' = α = = 28,66 zwraca = 3, 464 n 12 narzędzie Statystyka opisowa modułu Analiza danych pakietu Excel Kolumna1 Średnia Błąd standardowy Mediana Tryb Odchylenie standardowe Wariancja próbki Poziom ufności (95,0%) 714,8333333 13,02261048 711 #N/D! 45,11164601 2035,060606 28,6625724 Zwraca się uwagę, Ŝe otrzymany wynik jest identyczny jak obliczony powyŜej. 26 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Przykład 15.6 Jako miarę dokładności przyrządu przyjęto odchylenie standardowe pomiarów dokonanych tym przyrządem. Zakładamy, Ŝe pomiary pochodzą z populacji normalnej N(m,σ). Dokonano 20 pomiarów i otrzymano wariancję z próby 6,5. Na poziomie ufności 0,9 oszacuj przedziałem ufności wariancję i odchylenie standardowe wszystkich moŜliwych pomiarów. Rozwiązanie Dane n = 20, s2 =6,5, 1- α = 0, 9, rozkład cechy populacji N(m, σ). Stosujemy przedziały ufności PU-4 i PU-5 nS2 nS2 ; u1 u 2 nS2 nS2 ; u1 u2 , Liczby u1 i u2 spełniają związki P(Yn-1 ≥ u1 )= α 2 P(Yn-1 ≥ u 2 )=1- α 2 w których Yn-1 oznacza zmienną losową o rozkładzie χ2 z n-1 stopniami swobody. 0,1 =0,05 2 0,1 P(Y19 ≥ u 2 )=1=0,95 2 P(Y19 ≥ u1 )= Z tablicy rozkładu χ2 (pkt 5 części VII „Tablice statystyczne”) odczytujemy, Ŝe u1 = 30,1 u2 = 10,1 Przedział ufności dla wariancji 20 ⋅ 6,5 20 ⋅ 6, 5 ; =< 4,3;12, 9 > 30,1 10,1 Przedział ufności dla odchylenia standardowego < 4, 3 ; 12, 9 > = < 2,1 ; 3, 6 > Przykład 15.7 Na 400 obrotów anteny radarowej obiekt znajdujący się w obszarze obserwacji radaru został wykryty 350 razy. Literą p oznaczamy prawdopodobieństwo wykrycia obiektu przy jednym obrocie anteny (niezawodność radaru). Znajdziemy przedział ufności dla p na poziomie ufności 0,95. Rozwiązanie Niech X będzie zmienną losową przyjmującą wartość 1, gdy w jednym obrocie anteny obiekt został wykryty, zaś wartość 0, gdy nie został wykryty. Zmienna losowa X ma rozkład zerojedynkowy z parametrem p. Prawdopodobieństwo p oszacujemy przedziałem ufności PU-6 W-u α W(1-W) W(1-W) ; W+u α n n gdzie w jest wskaźnikiem struktury w próbie (oszacowaniem wskaźnika struktury p w populacji) k w = , k - liczba jedynek w próbie. n Dla danych w zadaniu mamy w= k 350 = = 0,875 = 87,5% n 400 27 STATYSTYKA MATEMATYCZNA α 0,05 Φ(u α )=1- =1=0,975 ⇒ u α =1,96 2 2 w(1-w) 0,875 ⋅ 0,125 ε = uα =1,96 =3,2% n 400 <87,5%-3,2% ; 87,5%+3,2%>= <84,2% ; 90,7%> Odp. Niezawodność radaru z ufnością 0,95 jest zawarta między 84,2% a 90,7%. 15.3.4. Wyznaczanie wielkości próby Zagadnienie Wyznaczyć liczebność próby n tak by błąd bezwzględny oszacowania parametru przedziałem ufności wynosił ε , przy poziomie ufności 1 - α . Zasady wyznaczania wielkości próby podano w poniŜej tabeli. Tabela 15.4. Wyznaczanie liczebności próby n przy poziomie ufności 1 - α ZałoŜenia Cecha X ma rozkład normalny N(m, σ), σ jest znana16 Cecha X ma rozkład normalny N(m, σ), σ nie jest znana Etapy wyznaczania liczebności próby 1) Wyznaczamy liczbę uα : Φ(u α )=1 σu 2) Obliczamy n = α ε α 2 2 Nr LP-1 1) Pobieramy próbę o małej liczebności n0 (wstępną próbę) i szacujemy odchylenie standardowe σ za pomocą odchylenia standardowego s0 z tej próby 2 s u 2) Obliczamy n = 0 α + 1 ε LP-2 Rozkład cechy 3) Jeśli n-n0 > 0, to naleŜy powiększyć próbę o n-n0 elementów. X nie jest znany. Jeśli Próba jest liczna n – n0 ≤ 0, to poprzestajemy na pobraniu wstępnej próby. Cecha X ma rozkład zerojedynkowy. Próba jest liczna. Dokładność oszacowania dokładnością ε 17 1) Wyznaczamy liczbę uα : Φ(u α )=1- α 2 u α2 k gdzie ε2 w − oszacowanie wskaźnika na podstawie wstępnej próby, w(1 − w) w ≤ 0,5 k = 0, 25 nie mamy Ŝadnych informacji o w 0, 21 jesli wiemy, Ŝe wadliwość nie moŜe przekroczyć 30% 2) Obliczamy n = Uwaga: Przy obliczaniu n zawsze przyjmujemy zaokrąglenie w górę 16 17 Patrz przedział ufności PU-1 Patrz przedział ufności PU-6 28 LP-3 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Przykład 15.8 W doświadczeniu chemicznym bada się czas trwania reakcji chemicznej. Czas ten modelujemy zmienną losową X o rozkładzie normalnym N(m, 5 sek). Ile razy naleŜy powtórzyć to doświadczenie, by oszacować przedziałem ufności średni czas m trwania tej reakcji na poziomie ufności 0,95 tak, by błąd bezwzględny wynosił 2 s? Rozwiązanie Korzystamy z zasady LP-1 podanej w tabeli 15.3 σ uα n = ε 2 Φ (u α ) = 1 − α 0, 05 = 1− = 0,975 ⇒ uα=1,96, 2 2 2 1,96 ⋅ 5 n= ≈ 24 2 Odp. NaleŜy doświadczenie powtórzyć 24 razy. Przykład 15.9 Cecha X populacji ma rozkład normalny o nieznanych parametrach. W celu oszacowania wartości oczekiwanej przedziałem ufności o długości 1, na poziomie ufności 0,96, pobrano wstępną 5- elementową próbę i otrzymano odchylenie standardowe s0=0,8. Jak wielką próbę naleŜy pobrać? Rozwiązanie Korzystamy z zasady LP-2 podanej w tabeli 15.3 Φ (u α ) = 1 − α 0, 04 = 1− = 0,98 ⇒ u α = 2, 05 2 2 2 2 0,8 ⋅ 2, 05 s u n = 0 α +1= + 1 ≈ 12 ε 0,5 Odp. NaleŜy pobrać próbę 12 elementową, czyli naleŜy dobrać jeszcze 7 elementów. Przykład 15.10 Cecha X populacji ma rozkład normalny N(m, σ), σ nie jest znana. Jak wielką próbę naleŜy pobrać, by na poziomie ufności 0, 98 oszacować wartość oczekiwaną m z błędem, co najwyŜej równym 0,5, gdy na podstawie wstępnej próby 50 elementowej otrzymano odchylenie standardowe 3,0? Rozwiązanie Korzystamy z zasady LP-2 podanej w tabeli 15.3 1 – α = 0, 98 ε = 0,5 n 0 = 50 s0 = 3, 0 α 0, 04 Φ (u α ) = 1 − = 1 − = 0, 98 ⇒ uα = 2,05 2 2 2 2 3, 0 ⋅ 2, 05 s u n = 0 α +1 = + 1 ≈ 153 ε 0,5 Odp. NaleŜy wziąć próbę 153 elementową, naleŜy więc jeszcze dobrać 103 elementy. 29 STATYSTYKA MATEMATYCZNA Przykład 15.11 Mamy oszacować przedziałem ufności wadliwość p partii towaru na poziomie ufności 1- α = 0,96, z dokładnością ε = 0,05. Jak wielka powinna być próba? Rozwiązanie α 0,04 Φ(u α )=1- =1=0,98 ⇒ uα = 2,05 2 2 w(1-w) n = u α2 ε2 Jeśli nie mamy Ŝadnych informacji o wadliwości w, to w miejsce iloczynu w(1-w) podstawiamy ¼ (największą wartość iloczynu). 1/4 ≈ 421 0,052 Jeśli natomiast wiemy, Ŝe wadliwość nie moŜe przekroczyć 30%, to iloczyn w (1-w) nie moŜe 0,21 przekroczyć liczby 0,3 ⋅ 0,7 = 0,21, zatem n=2,052 ≈ 353 0,052 n = 2,052 15.3.5. Wykorzystanie arkusza Excel Lp Zakres analizy statystycznej 1. Estymacja długości połowy przedziału ufności dla wartości oczekiwanej przy znanej wariancji 2. Estymacja długości połowy przedziału ufności dla wartości oczekiwanej przy nieznanej wariancji Funkcje statystyczne Narzędzia statystyczne UFNOŚĆ STATYSTYKA OPISOWA 30 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 16. WERYFIKACJA HIPOTEZ 16.1 Wprowadzenie 16.1.1. Uwagi wstępne Teoria weryfikacji hipotez zajmuje się metodami sprawdzania hipotez statystycznych. Hipoteza statystyczna to kaŜde przypuszczenie dotyczące nieznanego rozkładu badanej cechy (cech). Hipoteza dotycząca jedynie wartości parametrów cechy nazywa się hipotezą parametryczną, natomiast hipoteza precyzująca, do jakiego typu rozkładów naleŜy rozkład cechy populacji, nosi nazwę hipotezy nieparametrycznej. Przykład 16.1 Wiemy, Ŝe cecha X populacji ma rozkład N(m, 3). Przypuszczenie, Ŝe „wartość oczekiwana cechy X jest równa 5” jest hipotezą parametryczną. ZałóŜmy teraz, Ŝe nie mamy Ŝadnej informacji o rozkładzie cechy X populacji. Przypuszczenie „rozkład cechy X jest normalny” jest hipotezą nieparametryczną. Test statystyczny jest to metoda weryfikacji (sprawdzania) hipotez statystycznych, przy czym • Test parametryczny jest to test do weryfikacji hipotez parametrycznych. • Test nieparametryczny jest to test do weryfikacji hipotez nieparametrycznych. Zajmiemy się najpierw hipotezami i testami parametrycznymi dla jednej i dwóch prób. Rozpatrzmy cechę X populacji, o rozkładzie zaleŜnym od parametru Q ∈ Ω, gdzie Ω jest podzbiorem zbioru liczb rzeczywistych, zwanym przestrzenią parametru. O parametrze Q wysuwamy dwie hipotezy: • Hipotezę zerową, (główną, sprawdzaną), Ŝe parametr Q ma wartość równą Q0∈ Ω, co zapisujemy H0 (Q = Q0) i czytamy: hipoteza H zero, Ŝe parametr Q jest równy Q zero. • Hipotezę alternatywną, Ŝe parametr Q przyjmuje dowolną wartość z przestrzeni parametru róŜną od Q0, co zapisujemy H1 ( Q∈ Ω- Q0) W zagadnieniach tu rozwaŜanych hipoteza alternatywna będzie miała jedną z czterech poniŜszych postaci H1 (Q ≠ Q0), H1 (Q > Q0), H1 (Q < Q0), H1 (Q = Q1). (16.1) Przy weryfikacji hipotez podejmujemy jedną z dwu decyzji • Odrzucić hipotezę zerową i przyjąć alternatywną. • Przyjąć hipotezę zerową i odrzucić alternatywną. PoniewaŜ decyzje przy weryfikacji hipotez podejmujemy na podstawie próby, więc decyzja moŜe być błędna mimo iŜ test został wykonany poprawnie. Hipoteza zerowa odzwierciedla z reguły pytanie, na które naleŜy uzyskać odpowiedź. Występują równieŜ przypadki, Ŝe taką rolę spełnia hipoteza alternatywna, ale łatwiej jest weryfikować hipotezę zerową. Hipotezę alternatywną ustala się na podstawie przesłanek, jakimi dysponuje się przed pobraniem próby, tzn. postać hipotezy alternatywnej określona jest wiedzą o problemie badawczym nie opierającą się o wnioski z analizy prób. Tak więc hipoteza alternatywna wyraŜa skrystalizowane a priori przypuszczenie o treści róŜnej od treści hipotezy sprawdzanej. Opis testu parametrycznego X - cecha populacji, Q – parametr rozkładu cechy X. Wysuwamy hipotezy: zerową H0 (Q = Q0) i alternatywną H1, która ma jedną z postaci (16.1). 31 STATYSTYKA MATEMATYCZNA Postępowanie przy weryfikacji powyŜszych hipotez jest następujące 1. Wybieramy pewną statystykę U n o rozkładzie zaleŜnym od parametru Q oraz pewną liczbę α z przedziału (0,1) i wyznaczamy podzbiór K zbioru liczb rzeczywistych tak by spełniony był warunek P(U n ∈ K/Q=Q0 ) = α (16.2) czyli by prawdopodobieństwo, iŜ statystyka Un przyjmie wartość ze zbioru K, przy załoŜeniu, Ŝe prawdziwa jest hipoteza zerowa było równe α. 2. Pobieramy próbę18 i obliczamy wartość un statystyki Un 3. Podejmujemy decyzje odrzucamy H0 , gdy un∈K przyjmujemy H0, gdy u n ∉ K (16.3) (16.4) Wykorzystywaną statystykę Un nazywamy sprawdzianem, zbiór K – zbiorem krytycznym, a liczbę α poziomem istotności. Przy weryfikacji hipotez przyjmuje się mały poziom istotności (bliski 0, ale dodatni). Uzasadnienie podejmowanych decyzji: • Decyzja (16.3): Jeśli hipoteza H0 (Q = Q0) jest prawdziwa, to prawdopodobieństwo zdarzenia Un∈K jest zgodnie z (16.2) równe α, a więc tak małe, Ŝe uwaŜamy, iŜ zajście tego zdarzenia jest w praktyce niemoŜliwe. PoniewaŜ jednak to zdarzenie dla pobranej próby zaszło, więc wnioskujmy, Ŝe załoŜenie, przy którym prawdopodobieństwo tego zdarzenia zostało obliczone jest nieprawdziwe. Stąd teŜ odrzucamy H0. • Decyzja (16.4): Jeśli zdarzenie Un∈K, przy załoŜeniu, Ŝe hipoteza H0 (Q = Q0) jest prawdziwa, nie zaszło, to nie ma powodu, by twierdzić, Ŝe H0 nie jest prawdziwa, bowiem nie ma nic nadzwyczajnego w fakcie, Ŝe nie zaszło zdarzenie o małym prawdopodobieństwie. Dlatego hipotezę H0 przyjmujemy lub ostroŜniej: mówimy, Ŝe nie ma podstaw do odrzucenia tej hipotezy. Przy podejmowaniu decyzji moŜna zawsze popełnić jeden z dwu błędów • Błąd I rodzaju - błąd polegający na odrzuceniu hipotezy zerowej H0, gdy ta hipoteza jest prawdziwa. Odrzucenie H0, gdy jest ona prawdziwa moŜna jako zdarzenie losowe zapisać Un∈K/Q=Q0. Prawdopodobieństwo tego zdarzenia, zgodnie ze wzorem (16.2) jest równe poziomowi istotności α, zatem prawdopodobieństwo błędu I rodzaju P(U n ∈ K/Q = Q 0 )=α . • Błąd II rodzaju - błąd polegający na przyjęciu hipotezy zerowej H0, gdy ta hipoteza jest fałszywa. Przypuśćmy, Ŝe hipoteza alternatywna jest postaci H1(Q = Q1). Wtedy błąd II rodzaju: przyjęcie H0, gdy ta hipoteza jest fałszywa, jako zdarzenie losowe moŜna zapisać U n ∉ K/Q=Q1 , a prawdopodobieństwo tego zdarzenia oznaczmy β, zatem prawdopodobieństwo błędu II rodzaju P(U n ∉ K/Q=Q1 )=β . Jak widzimy prawdopodobieństwo błędu I rodzaju jest równe poziomowi istotności α, a więc jest znane na podstawie metody weryfikacji, natomiast prawdopodobieństwo błędu II rodzaju wymaga obliczenia, co wcale nie musi być łatwe, dlatego często rezygnujemy z jego wyznaczania. 18 WyróŜnia się dwa rodzaje prób: niepowiązane i powiązane. JeŜeli wartości określonej cechy mierzone są u róŜnych elementów to otrzymywane próby nazywamy niepowiązanymi. Z kolei jeŜeli wartości cechy mierzone sa u tych samych elementów np. w róŜnych momentach czasu to otrzymywane próby nazywamy powiązanymi. 32 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE W zaleŜności od postaci hipotezy alternatywnej przyjmuje się róŜną postać zbioru krytycznego. I tak: Zbiór krytyczny prawostronny jest to zbiór postaci K =< k 2 ; ∞) . Wzór (16.2) przybiera teraz postać P(U n ≥ k 2 /Q=Q 0 )=α Rys. 16.1. Prawostronny zbiór krytyczny Zbiór krytyczny lewostronny jest to zbiór postaci K = ( −∞; k1 > . Wzór (16.2) przybiera teraz postać P(U n ≤ k1 /Q=Q 0 )=α Jeśli gęstość statystyki Un / Q=Q0 ma wykres symetryczny względem osi Oy (rozkład normalny, rozkład Studenta), to zbiór krytyczny lewostronny moŜna zapisać w postaci K = ( −∞;−k > . Wzór (16.2) przybiera teraz postać P( U n ≥ k | Q = Q 0 ) = α identyczną jak dla zbioru krytycznego prawostronnego. Rys. 16.2. Lewostronny zbiór krytyczny Zbiór krytyczny dwustronny jest to zbiór postaci K = (−∞; k1 > ∪ < k 2 ; ∞) . Zbiór ten w przypadku symetrycznego względem osi Oy rozkładu statystyki Un / Q=Q0 przyjmuje postać K=(-∞;-k>∪<k;∞) W pierwszym przypadku liczby k1 i k2 wyznaczamy z relacji Rys. 16.3. Dwustronny zbiór krytyczny P(U n ≤ k1 /Q=Q0 )=α/2 P(U n ≥ k 2 /Q = Q0 )=α/2 W drugim przypadku liczba k spełnia relację P(|U n | ≥ k)=α Zbiór krytyczny naleŜy wybrać tak, by przy ustalonym prawdopodobieństwie (poziomie istotności), prawdopodobieństwo błędu II rodzaju było najmniejsze. • Jeśli hipoteza alternatywna ma postać H1 (Q > Q0), to przyjmujemy prawostronny. • Jeśli hipoteza alternatywna ma postać H1 (Q < Q0), to przyjmujemy lewostronny. • Jeśli hipoteza alternatywna ma postać H1 (Q ≠ Q0), to przyjmujemy dwustronny. 33 błędu I rodzaju zbiór krytyczny zbiór krytyczny zbiór krytyczny STATYSTYKA MATEMATYCZNA 16.1.2. Pzykład konstrukcji testu parametrycznego do weryfikacji hipotezy o wartości oczekiwanej Badana jest cecha X populacji generalnej ma rozkład normalny N(m,σ), przy czym σ jest znane. O wartości oczekiwanej wysuwamy hipotezy: • zerową H0 (m=m0) • alternatywną H1 (m>m0) a) ZałóŜmy, Ŝe hipoteza zerowa jest prawdziwa i Ŝe przyjęto hipotezę alternatywną postaci H1 (m>m0). Hipotezy weryfikujemy na podstawie o próbę (x1 , x 2 ,..., x n1 ) przy poziomie istotności α. Wtedy róŜnica X n − m 0 obliczona na podstawie próby powinna przyjąć wartość bliską zeru, bowiem statystyka X n jest estymatorem najefektywniejszym parametru m. Natomiast, gdy róŜnica ta jest duŜa (ze względu na kształt hipotezy alternatywnej powinna być dodatnia), to moŜna sądzić, Ŝe hipoteza zerowa jest fałszywa. Wygodniej jest posługiwać się postacią standaryzowaną statystyki X n − m 0 , czyli statystyką Un = Xn − m0 σ/ n Statystyka Un/m = m0 ma rozkład normalny N(0,1). Mała wartość tej statystyki przemawia za przyjęciem hipotezy zerowej, natomiast duŜa wartość za przyjęciem hipotezy alternatywnej. Dlatego zbiór krytyczny przyjmujemy prawostronny (potwierdza się zasada wyboru zbioru krytycznego K = <k ; ∞)) na danym poziomie istotności α. Liczba k spełnia związek P(Un ≥ k/m = m0). Stąd 1 − Φ ( k ) = α , czyli Φ(k)=1-α . Liczba k jest liczbą graniczną w tym sensie, Ŝe przyjmujemy, iŜ wartości un statystyki Un, obliczone na podstawie próby są duŜe, gdy un ≥ k, natomiast są małe w przeciwnym przypadku. Zatem Jeśli un ≥ k, czyli u n ∈ K , to H0 odrzucamy i przyjmujemy H1 Jeśli un < k, czyli u n ∉ K , to H0 przyjmujmy i odrzucamy H1 b) ZałóŜmy teraz, Ŝe hipoteza alternatywna ma postać H1 (m< m0). TakŜe w tym przypadku mała wartość statystyki Un przemawia za przyjęciem hipotezy zerowej, natomiast duŜa wartość bezwzględna, ale ujemna za przyjęciem hipotezy alternatywnej. Dlatego zbiór krytyczny przyjmujemy lewostronny K = (-∞ ; -k> na danym poziomie istotności α. Liczba k spełnia związek P(Un ≤ -k/m = m 0 )=α . Stąd Φ(-k) = α ⇒ 1-Φ(k) = α , czyli Φ(k)=1-α . c) ZałóŜmy wreszcie, Ŝe hipoteza alternatywna ma postać H1 (m≠m0). W tym jak i w poprzednich przypadkach mała wartość statystyki Un przemawia za przyjęciem hipotezy zerowej, natomiast wartości o duŜym module (dodatnie lub ujemne) za przyjęciem hipotezy alternatywnej. Dlatego zbiór krytyczny przyjmujemy dwustronny K=(-∞; -k> ∪ < k;∞) na danym poziomie istotności α. Liczba k spełnia związek α P( U n ≥ k/m=m 0 ) = α . Stąd 2 [1-Φ(k)] = α , czyli Φ(k)=12 Przykład 16.2 Czas wykonania detalu modelowany jest zmienną losową o rozkładzie normalnym N(m, 2 min.). W celu weryfikacji hipotez: zerowej, Ŝe średni czas wykonania detalu wynosi 3 min i alternatywnej, Ŝe wynosi 4,6 min., pobrano próbę 9 elementową, której średnia wyniosła 3,4 min. Zweryfikujemy powyŜsze hipotezy na poziomie istotności 0,015. Rozwiązanie X - zmienna losowa oznaczająca czas wykonania detalu, Rozkład zmiennej losowej X: N(m, 2 min.) Hipotezy: H0 (m =3), H1 (m =4,6) Poziom istotności: α = 0,015 34 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Liczebność próby n = 9 Średnia z próby x 9 = 3,4 Sprawdzian Un = X-m 0 σ/ n . Wartość sprawdzianu u 9 = 3, 4 − 3, 0 2/ 9 = 0, 6 Zbiór krytyczny prawostronny K = <k; ∞) Liczba k spełnia związek Φ(k) =1- α = 1- 0,015 =0,985 ⇒ k = 2,17 (na podstawie tablicy – pkt 4 części VII „Tablice statystyczne”). . K = <2,17 ; ∞) u9 = 0,6 PoniewaŜ u 9 ∉ K , więc hipotezę H0 przyjmujemy. Przy podjęciu tej decyzji moŜna popełnić błąd drugiego rodzaju. Obliczymy prawdopodobieństwo tego błędu. X -3,0 β=P(U n ∉ K/Q=Q1 )=P(U 9 <2,17/m=4,6)=P 9 <2,17/m=4,6 = 2/ 9 X -4,6 1,6 =P 9 <2,17/m=4,6 =Φ(-0,23)=1-Φ(0,23)=0,4 2/ 9 2/ 9 Odp. Hipotezę, Ŝe średni czas wykonania detalu wynosi 3 min. naleŜy przyjąć. Prawdopodobieństwo, Ŝe powyŜsza decyzja jest błędna wynosi 0,4, a więc jest wysokie, dlatego moŜna polecić podjęcie ostroŜniejszej decyzji: nie ma podstaw do odrzucenia powyŜszej hipotezy. 16.1.3. Pzykład konstrukcji testu parametrycznego do weryfikacji hipotezy o równości wartości oczekiwanych Zakładamy, Ŝe badane cechy X i Y populacji generalnej są niezaleŜne i mają rozkłady normalne X : N(m1 , σ1 ) oraz Y : N(m 2 , σ2 ) , przy czym σ1 i σ2 są znane. O wartościach oczekiwanych wysuwamy hipotezy: • zerową H0 (m1=my2 • alternatywną H1 (m1≠m2) Hipotezy weryfikujemy na podstawie niezaleŜnych prób (x1 , x 2 ,..., x n1 ) i (y1 , y 2 ,..., y n 2 ) na poziomie istotności α. Do weryfikacji hipotezy wykorzystujemy średnie arytmetyczne z prób X n1 = 1 n1 1 Xi Yn 2 = ∑ n1 i =1 n2 n2 ∑Y i (16.5) i =1 które są estymatorami nieobciąŜonymi i najefektywniejszymi wartości oczekiwanych – patrz tabela 15.2. Gdyby hipoteza H0 była prawdziwa, wówczas róŜnica pomiędzy średnimi arytmetycznymi X n1 i Yn 2 nie powinna być zbyt duŜa. Jak wiadomo, średnie arytmetyczne X n1 i Yn 2 mają rozkłady X n1 : N(m1 , σ1 σ ) Yn 2 : N(m 2 , 2 ) n1 n2 35 STATYSTYKA MATEMATYCZNA Zatem zmienna losowa X n1 − Yn 2 ma rozkład: σ12 σ 22 + ) n1 n 2 N(m1 − m 2 , czyli zmienna (X n1 − Yn 2 ) − (m1 − m 2 ) σ12 σ22 + n1 n 2 ma rozkład N(0,1). JeŜeli załoŜymy, Ŝe hipoteza H o : m1 = m 2 jest prawdziwa, to m1 − m 2 = 0 i wobec tego zmienna X n1 − Yn 2 U n1 ,n 2 = σ12 σ 22 + n1 n 2 będzie miała rozkład normalny N(0,1). Znajdziemy taką liczbę kα, aby przy ustalonym α był spełniony warunek P U n1 ,n 2 > k α = α ( ) (16-3.4) Jest on równowaŜny warunkowi { } P −k α ≤ U n1 ,n 2 ≤ k α = 1 − α Ale { } P −k α ≤ U n1 ,n 2 ≤ k α = P(U n1 ,n 2 ≤ k α ) − P((U n1 ,n 2 ≤ −k α ) = φ(k α ) − φ(−k α ) qdzie Φ jest dystrybuantą rozkładu normalnego N(0,1). PoniewaŜ Φ (− u α ) = 1 − u α to { } P −k α ≤ U n1 ,n 2 ≤ k α = φ(k α ) − 1 + φ(k α ) = 2φ(k α ) − 1 Równanie do wyznaczenia kα ma postać 2φ(k α ) − 1 =1-α Zatem uα wyznacza się z zaleŜności α 2 Na podstawie uα wyznacza się zbiór krytyczny (−∞; −k α ) ∪ (k α ; ∞) . φ(u α ) = 1 − 36 (16-3.5) PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 16.1.4. Uwagi o weryfikacji hipotez parametrycznych Uwaga 1. O związku poziomu istotności z decyzjami JeŜeli odrzuci się hipotezę zerową na danym poziomie istotności, to odrzuci się ją takŜe na kaŜdym poziomie istotności większym od danego. JeŜeli przyjmie się hipotezę zerową na danym poziomie istotności, to przyjmie się ją takŜe na kaŜdym poziomie istotności mniejszym od danego. Czytelnik jest proszony o wykonanie ilustracji graficznej powyŜszych twierdzeń. Uwaga 2. O granicznym poziomie istotności Graniczny poziom istotności (oznaczenie α̂ ) to liczba taka, Ŝe dla wszystkich poziomów istotności α ≥ αˆ hipotezę zerową odrzucamy natomiast dla wszystkich poziomów istotności α < αˆ hipotezę zerową przyjmujemy. α̂ wyznacza się na podstawie rozkładu sprawdzianu Un , przykładowo dla prawostronnego zbioru ˆ krytycznego α̂ = P(U n ≥ k/Q=Q 0 ) , gdzie k̂ jest otrzymaną wartością sprawdzianu. Uwaga 3. O odrzucaniu hipotezy zerowej Jeśli w wyniku testowania hipotez otrzymaliśmy decyzję o odrzuceniu hipotezy zerowej na danym poziomie istotności i poziom graniczny jest mniejszy od danego, to moŜna ją takŜe odrzucić na poziomie równym poziomowi granicznemu, więc moŜna zmniejszyć prawdopodobieństwo popełnienia błędu II rodzaju, zatem utwierdzić się bardziej w przekonaniu, Ŝe podjęliśmy właściwą decyzję. Przykład 16.3 Cecha X populacji ma rozkład normalny N(m,2). O parametrze m wysunięto hipotezy H0(m = 3) i H1(m = 1), które postanowiono zweryfikować na poziomie istotności 0,025. W tym celu pobrano próbę 16 elementową i otrzymano średnią z próby równą 1,5. Zweryfikujemy te hipotezy i obliczymy poziom graniczny. Rozwiązanie X − m0 1, 5 − 3, 0 Sprawdzian Un= . Wartość sprawdzianu u16 = = −3 2 / 16 σ/ n Zbiór krytyczny prawostronny K =( -∞; -k> Liczba k spełnia związek Φ(k) =1- α = 1- 0,025 =0,975 ⇒ k =1,96. K = (- ∞; -1,96> PoniewaŜ u 16 ∈ K , więc hipotezę H0 odrzucamy, na poziomie istotności 0,025. Poziom graniczny α̂ spełnia zaleŜność Φ(-3)=1-αˆ =0,99865 α̂ ≈ 0,00135 Wniosek. Hipotezę H0 naleŜy odrzucić na poziomie istotności równym 0,00135 (a więc bardzo małym), co utwierdza nas w podjętej wcześniej decyzji - decyzja na podstawie poziomu istotności α oraz poziomu granicznego α̂ , poniewaŜ α̂ ≈ 0,00135<.0,025=α. Uwaga 4. O hipotezie alternatywnej NaleŜy podkreślić, Ŝe decyzja o wysunięciu hipotezy alternatywnej w postaci H1(Q>Q0) lub w postaci H1(Q<Q0) nie moŜe być podjęta na podstawie wyników próby, powinna natomiast wynikać z analizy rozwaŜanego zjawiska i stosowanych testów. Jeśli więc nie mamy dostatecznie mocnych argumentów za przyjęciem hipotezy alternatywnej w jednej z dwu powyŜszych postaci, to zaleca się przyjąć postać H1(Q≠Q0). Konsekwencją tego faktu jest stosowanie zbioru krytycznego dwustronnego, natomiast przy poprzednich hipotezach alternatywnych stosuje się zbiory krytyczne jednostronne. NaleŜy jeszcze podkreślić, Ŝe przy stosowaniu testów opartych na zbiorach krytycznych dwustronnych (testów dwustronnych) otrzymuje się większe prawdopodobieństwo błędu II rodzaju, niŜ przy stosowaniu testów jednostronnych. 37 STATYSTYKA MATEMATYCZNA Uwaga 5. O analogii przedziału ufności oraz zbioru krytycznego W tym miejscu zwraca się uwagę na analogię przedziału ufności budowanego w ramach estymacji parametrycznej oraz zbioru krytycznego określanego przy konstrukcji testu parametrycznego do weryfikacji hipotez o parametrach rozkładu. PokaŜemy to na przykładzie cechy X o nieznanej wartości oczekiwanej, która ma rozkład N(m, σ) ze znanym σ. Rys. 16.4. Związek pomiędzy przedziałem ufności a zbiorem krytycznym 16.2. Testy parametryczne dla jednej próby 16.2.1. Testy do weryfikacji hipotezy o wartości oczekiwanej ZałoŜymy, Ŝe badana cecha X populacji generalnej ma rozkład normalny N(m, σ), przy czym σ jest znane. W podpunkcie 16.1.3. pokazaliśmy w jaki sposób konstruuje się test do weryfikacji hipotez: • zerowej H0 (m=m0) • alternatywnej H1 (m>m0) Tak samo postępuje się przy konstrukcji testu dla innych hipotez alternatywnych: H1 (m< m0) lub H1 (m≠m0). W analogiczny sposób konstruuje się testy w dwóch innych przypadkach: • σ nieznane • σ nieznane, próba liczna Zostały one przedstawione w tabeli 16.1. 38 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Tabela 16.1. Zestawienie testów do weryfikacji hipotezy o wartości oczekiwanej na podstawie próby o liczności n Nr testu TP-1 TP-2 TP-3 Rozkład cechy N(m,σ) N(m,σ) Dowolny Warunki stosowania σ znane σ nieznane σ nieznane, próba liczna Hipoteza zerowa H 0 (m=m0 ) H 0 (m=m0 ) H 0 (m=m0 ) Sprawdzian X − m0 X − m0 X-m 0 σ/ n S / n −1 S/ n Rozkład sprawdzianu pod warunkiem m=m0 N(0,1) Studenta z n-1 stopniami swobody N(0,1) TP-3 Wariant testu Hipoteza alternatywna Zbiór krytyczny TP-1 TP-2 A H1 (m>m0 ) < k ; ∞) Φ (k ) = 1 − α P(| Tn −1 | ≥ k ) = 2α B H 1 (m<m 0 ) ( −∞ ; − k > Φ (k ) = 1 − α P(| Tn −1 | ≥ k ) = 2α C H1 (m ≠ m0 ) ( −∞ ; − k > ∪ < k ; ∞) α 2 P(| Tn −1 | ≥ k ) = α Φ (k) = 1 − 39 Φ (k ) = 1 − α Φ (k) = 1 − α 2 STATYSTYKA MATEMATYCZNA Przykład 16.4 Czasy wykonania pewnego złoŜonego zestawienia (w sekundach) w zaleŜności od danych były następujące: 123 146 151 149 162 133 142 156 155 137 Zweryfikować na poziomie α = 0,05 hipoezę H0 (m=140) względem H1 (m>140) przy załoŜeniu, Ŝe rozpatrywany czas ma rozkład N(m, σ), w dwóch przypadkach: a) σ = 12 b) σ nieznane Rozwiązanie a) σ = 12 Wykorzystujemy test TP-1. Na podstawie próby obliczamy średni czas wykonania zestawienia x =145,4. X − m0 145, 4 − 140 5, 4 5, 4 Wartość sprawdzianu U n = jest równa u10 = = = = 1, 423 12 / 3,163 3, 794 σ / 10 12 / 10 Z tablic rozkładu normalnego wyznaczamy wartość k dla której Φ (k) = 1 − α = 0,95 otrzymując k=1,64. Zatem zbiór krytyczny ma postaćK= < 1,64 ; ∞) . Wartość sprawdzianu nie naleŜy do zbioru krytycznego, czyli hipotezę zerową przyjmujemy. Wysunięte hipotezy moŜna zweryfikować korzystając z funkcji statystycznej TEST.Z arkusza kalkulacyjnego Excel, podając wartość oczekiwaną 140 z H0 w polu X oraz odchylenie standardowe 12 w polu Sigma. Wynik formuły to krytyczny poziom istotności α̂ ≈ 0,0774 przy weryfikacji hipotezy dla prawostronnego zbioru krytycznego. PoniewaŜ α̂ ≈ 0,0774 > 0.05 = α więc H0 przyjmujemy19. MoŜemy na zakończenie przekonać się, Ŝe rzeczywiście α̂ ≈ 0,0774 jest krytycznym poziomem istotności. Wstawiając wartość sprawdzianu u10=1,423 do funkcji ROZKLAD.NORMALNY.S otrzymujemy 0,9226 . 19 Patrz uwaga 2 w punkcie 16.1.4. 40 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Otrzymany wynik 0,9226 = 1 - α̂ = 1 - 0,0774. b) σ nieznane. Zamiast testu TP-1 wykorzystamy test TP-2, a uwzględniając postać hipotezy alternatywnej jego wersję TP-2C. Na podstawie próby obliczamy: • średni czas wykonania zestawienia x =145,4. 1 10 • wariancję z próby s 2 = ∑ (x i − x)2 = 126,24, czyli s = s 2 = 126, 24 = 11, 24 10 i =1 Zatem wartość sprawdzianu U n = X − m0 S / n −1 u10 = 145, 4 − 140 145, 4 − 140 = = 1, 44 3, 75 11, 24 / 9 Z tablic rozkładu Studenta P(| T9 | ≥ k) = 0,1 otrzymujemy k=1,833. Uwzględniając postać H1 zbiór krytyczny jest następujący K= < k ; ∞) = < 1,833 ; ∞) . Wartość sprawdzianu nie naleŜy do zbioru krytycznego, czyli nie ma podstaw do odrzucenia hipotezy zerowej. Wysunięte hipotezy moŜna zweryfikować korzystając z funkcji statystycznej TEST.Z arkusza kalkulacyjnego Excel, podając wartość oczekiwaną 140 z H0 w pole X oraz nie wypełniając pola Sigma. 41 STATYSTYKA MATEMATYCZNA Wynik formuły jest równy krytycznemu poziomowi istotności α̂ = 0,0747 dla prawostronnego zbioru krytycznego krytycznego. PoniewaŜ α̂ ≈ 0,0747 > 0.05 = α więc H0 przyjmujemy. MoŜemy na zakończenie sprawdzić, czy rzeczywiście α̂ ≈ 0,07467 jest krytycznym poziomem istotności. Wstawiając wartość sprawdzianu u10=1,44 do funkcji ROZKLAD.T otrzymujemy 0,0918. Otrzymany wynik 0,0918 jest róŜny od α̂ = 0,0747. Spowodowane jest to tym, Ŝe w arkuszu Excel wykorzystano rozkład normalny, co oznacza, Ŝe zastosowany został test dla prób o duŜych licznościach, mimo Ŝe liczność próby wynosiła zaledwie 10. Dowodem tego jest wstawienie ROZKLAD.NORMALNY.S wartości 42 sprawdzianu u10=1,44 do funkcji PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Otrzymany wynik 0,925 jest równy w przybliŜeniu 1 - α̂ = 1 – 0,0747 16.2.2. Testy do weryfikacji hipotezy o wariancji i odchyleniu standardowym Cecha X populacji ma rozkład normalny N(m, σ), parametr m moŜe być znany lub nieznany. Hipoteza zerowa H0 (σ = σ0) Tabela 16.2. Testy do weryfikacji hipotezy o wariancji i odchyleniu standardowym Hipoteza alternatywna H1 (σ>σ 0 ) Sprawdzian Un Rozkład sprawdzianu Zbiór krytyczny K < k2 ; ∞ ) H1 (σ<σ 0 ) nS 2n Wyznaczanie liczby k P(Yn-1 ≥ k 2 )=α σ o2 2 Rozkład χ z n-1 stopniami swobody < 0 ; k1 > P(Yn-1 ≥ k1 )=1-α TP-4B <0 ; k1 > ∪ P(Yn-1 ≥ k1 )=α/2 P(Yn-1 ≥ k 2 )=1-α/2 TP-4C H1 (σ ≠ σ 0 ) ∪ < k 2 ; ∞) Nr testu TP-4A Yn-1 zmienna losowa o rozkładzie χ2 z n-1 stopniami swobody Uwaga Hipoteza H0 (σ = σ0), jest równowaŜna hipotezie H0 (σ2 = σ02 ), hipoteza H1 (σ>σ 0 ) jest równowaŜna hipotezie H1 (σ2 > σ02 ), itd., zatem hipoteza o odchyleniu standardowym jest równowaŜna odpowiedniej hipotezie o wariancji, co wykorzystuje się przy weryfikacji hipotez o tym parametrze. Przykład 16.4 Popyt na pewien towar modelujemy zmienną losową X o rozkładzie normalnym. W próbie 10 elementowej otrzymaliśmy średnią 1250 kg i odchylenie standardowe 50 kg. a) Na poziomie istotności 0,02 sprawdzimy hipotezy H0(m = 1350 kg) i H1(m ≠1350 kg) b) Na poziomie istotności 0,05 sprawdzimy hipotezy H0(σ =45) i H1(σ >45) Rozwiązanie Cecha populacji X - popyt na towar. Rozkład cechy X: normalny N(m, σ), parametry m i σ nie są znane. Liczebność próby n = 10. Charakterystyki próby x10 =1250 kg, s10 =50 kg a) Stosujemy test TP – 2C. Sprawdzian U n = X − m0 S / n −1 Zbiór krytyczny K= (−∞ ; − k > ∪ < k ; ∞) 43 jego wartość u10 = 1250 − 1350 = −6 50 / 9 STATYSTYKA MATEMATYCZNA Wyznaczanie liczby k P(| Tn −1 | ≥ k ) = α . P(|T9 | ≥ k) = 0, 02 ⇒ k = 2,821 (na podstawie tablicy rozkładu Studenta – pkt 6 części VII „Tablice statystyczne”) K = (−∞ ; − 2,821 > ∪ < 2,821, ; ∞) ⇒ u10 ∈ K ⇒ H 0 odrzucamy u10 = −6 nS2n 10 ⋅ 502 , jego warto ść u = = 12,34 10 σ 2o 452 Zbiór krytyczny K = (k; ∞). Wyznaczanie liczbę k P(Yn-1 ≥ k) = α b) Stosujemy test TP – 4A. Sprawdzian U n = P(Y9 ≥ k) = 0, 05 ⇒ k = 16,919 (na podstawie tablicy rozkładu χ2 – pkt 5 części VII „Tablice statystyczne”). K = (16,919; ∞) ⇒ u10 ∉ K ⇒ H 0 przyjmujemy u10 = 12,34 Przykład 16.5 Dokonano 10 pomiarów natęŜenia prądu. Otrzymano z tej próby wariancję 2,3. Zakładamy, Ŝe natęŜenie to jest zmienną losową o rozkładzie normalnym. Na poziomie istotności 0,04 sprawdź hipotezy: zerową, Ŝe natęŜenie prądu ma wariancję równą 2 i alternatywną, Ŝe natęŜenie prądu ma wariancję róŜną od 2. Rozwiązanie X – natęŜenie prądu 2 Rozkład cechy X: normalny N(m, σ). Liczebność próby n =10. Wariancja z próby s10 =2,3 2 2 Hipotezy H0 (σ = 2,0) H1 (σ ≠ 2,0) Poziom istotności α =0,04 nS2n 10 ⋅ 2,3 , jego wartość u10 = = 11,5 2 σo 2, 0 Zbiór krytyczny K= < 0 ; k1 > ∪ < k 2 ; ∞) P(Yn-1 ≥ k 2 ) = α / 2 ⇒ P(Y9 ≥ k 2 ) = 0, 02 ⇒ k2 = 19,679 P(Yn-1 ≥ k1 ) = 1 − α / 2 ⇒ P(Y9 ≥ k1 ) = 0,98 ⇒ k1 =2,532 K = < 0 ; 2,532 > ∪ < 19,679 ; ∞) u10 =11,5 PoniewaŜ u10 ∉ K, więc hipotezę H0 przyjmujemy. Stosujemy test TP-4C. Sprawdzian Un= 16.2.3. Testy do weryfikacji hipotezy o wskaźniku struktury Cecha X populacji ma rozkład zerojedynkowy P(X=1)=p, P(X=0)=1-p, Hipoteza zerowa H 0 (p = p 0 ) . Próba liczna n ≥100 p ∈ (0;1) Tabela 16.3. Test do weryfikacji hipotezy o wskaźniku struktury Hipoteza alternatywna H1 (p > p0 ) H1 (p < p0 ) H1 (p ≠ p0 ) Sprawdzian U n Rozkład sprawdzianu W-p 0 n p 0 (1-p 0 ) Asymptotycznie normalny N(0,1) Zbiór krytyczny K Wyznaczanie liczby k Nr testu < k ; ∞) ) Φ (k ) = 1 − α TP-5A (−∞; k > ( −∞; k) Φ(k ) = 1 − α TP-5B α 2 TP-5C ( −∞ ; − k > ∪ < k ; ∞) W – wskaźnik struktury w próbie, w= r/n, r – liczba jedynek w próbie. Φ – dystrybuanta rozkładu normalnego N(0,1) 44 Φ (k) = 1 − PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Przykład 16.6 W próbie 1000 osób uprawnionych do głosowania, 320 osób oświadczyło, Ŝe będzie głosować w wyborach na pewną partię. Czy otrzymany wynik jest sprzeczny z przypuszczeniem, Ŝe na tą partię moŜe głosować 35% wyborców? Sprawdzimy odpowiednie hipotezy na poziomie istotności 0,02. Rozwiązanie X – zmienna losowa przyjmująca wartość 1, gdy wyborca będzie głosował na daną partię, wartość 0, gdy nie będzie głosował na tą partię. Zmienna losowa X na rozkład zerojedynkowy P (X = 1) = p, P(X = 0) = 1 − p Liczebność próby n =1000. Liczba jedynek w próbie r = 320 r 320 Wskaźnik struktury w próbie w = = = 0,32 n 1000 Poziom istotności α = 0,02 Hipotezy H 0 (p=0,35), H1 (p < 0,35) Stosujemy test TP-5B W − p0 0,32 − 0,35 n . Wartość sprawdzianu u n = 1000 = −2 Sprawdzian Un = 0,35 ⋅ 0,65 p 0 (1 − p 0 ) Zbiór krytyczny K = (−∞ ; − k > Φ ( k ) = 1 − α = 0,98 ⇒ k = 2, 05 K = (−∞;−2,05 > un = -2 PoniewaŜ u10 ∉ K, więc hipotezę H0 przyjmujemy. Otrzymany wynik nie przeczy przypuszczeniu, Ŝe na partię moŜe głosować 35% wyborców. 16.3. Testy parametryczne dla dwóch prób 16.3.1. Testy do porównywania wartości oczekiwanych dla prób niezaleŜnych ZałoŜymy, Ŝe badana cecha X populacji generalnej ma rozkład normalny N(m, σ), przy czym σ jest znane. W podpunkcie 16.1.3. pokazaliśmy w jaki sposób konstruuje się test do weryfikacji hipotez: • zerowej H0 (m1=m2) • alternatywnej H1 (m1≠m2) Tak samo postępuje się przy konstrukcji testu dla innych hipotez alternatywnych: H1 (m1>m2) lub H1 (m1< m2) W analogiczny sposób konstruuje się testy w trzech innych przypadkach: • σ1 σ2 są równe i nieznane • σ1 σ2 nie są równe i nieznane • próby są liczne, n1, n2 ≥ 100 Wszystkie rozpatrzone dotąd testy zostały przedstawione w tabeli 16.4. 45 STATYSTYKA MATEMATYCZNA Tabela 16.4 . Zestawienie testów do porównywania dwóch wartości oczekiwanych na podstawie niezaleŜnych prób o licznościach n1, n2 Nr testu TP-6 TP-7 Rozkłady cech N(m1 ,σ1 ), N(m 2 ,σ 2 ) N(m1,σ), N(m2,σ) TP-8 test Studenta dla nieznanych wariancji Dowolny Warunki stosowania σ1 i σ 2 są znane σ nieznane σ1 σ2 są nieznane Hipoteza zerowa H 0 ( m1 = m 2 ) H 0 ( m1 = m 2 ) H 0 (m 1 = m 2 ) próby są liczne n1, n2 ≥ 100 H 0 ( m1 = m 2 ) X−Y X−Y Nazwa testu test Studenta X-Y Sprawdzian 2 1 X-Y 2 2 1 1 2 ⋅ S12 S22 TP-9 Dowolny S12 S22 + n1 n 2 σ σ + 2 n1 n 2 n S +n 2S2 n1 +n 2 n1 +n 2 -2 n1n 2 Rozkład sprawdzianu N(0,1) Studenta z n1+n2-2 stopniami swobody Studenta - patrz poniŜej asymptotycznie N(0,1) TP-6 TP-7 TP-8 TP-9 Nr testu Hipoteza alternatywna Zbiór krytyczny A H1 (m1 >m 2 ) < k ; ∞) + n1 − 1 n 2 − 1 P( Tdef ≥ k) = 2α df = Φ(k ) = 1 − α B H 1 (m 1 <m 2 ) P( Tn1 + n 2 − 2 ≥ k) = 2α (a + b) 2 a2 b2 + n1 − 1 n 2 − 1 gdzie: a = ( −∞ ; − k > s12 n1 − 1 b= C H1 (m1 ≠ m 2 ) ( −∞ ; − k > ∪ < k ; ∞) Φ (k) = 1 − α 2 P(| Tn1+ n 2 −2 | ≥ k) = α 46 Φ (k ) = 1 − α s 22 n2 −1 P( Tdef ≥ k) = α def jak powyŜej Φ (k) = 1 − α 2 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Przykład 16.7 W celu określenia struktury zatrudnienia w pewnej firmie obliczono liczbę zatrudnionych kobiet i męŜczyzn w kolejnych 8 miesiącach otrzymując następujące wyniki: MęŜczyźni 195 187 175 146 194 191 194 206 Kobiety 219 233 190 210 214 247 225 197 Chcemy sprawdzić hipotezę o równości wartości oczekiwanych ilości zatrudnionych kobiet i męŜczyzn, względem hipotezy alternatywnej bedącej jej zaprzeczeniem, przy załoŜeniu, Ŝe liczby zatrudnionych mają rozkłady normalny o takich samych wariancjach20 oraz przyjmując poziom istotności 0,05. Rozwiązanie Na podstawie prób obliczamy średnie i wariancje z próby Średnia z próby x = MęŜczyŜni Kobiety 186, 0 216,875 294,5 301,3594 1 n ∑ xi n i=1 Wariancja z próby s 2 = 1 n ∑ (x i − x)2 n i=1 Zatem wartość sprawdzianu dla testu TP-7 U n1 ,n 2 = X-Y 2 1 1 n S +n 2S22 n1 +n 2 n1 +n 2 -2 n1n 2 jest równa −30,875 −30,875 −30,875 = = = −3, 3464 294,5+301, 36 85,1227 9, 2262 8s +8s 16 s +s 7 14 64 7 Granice zbioru krytycznego wyznaczamy z zalezności P(| Tn1 + n2 − 2 | ≥ k ) = α , która po uwzględnieniu u 8,8 = x-y 2 1 2 2 = x-y 2 1 2 2 = danych ma postać P(| T14 | ≥ k ) = 0,05 , zatem k=2,145. Zbiór krytyczny jest więc równy K= (−∞ ; − k > ∪ < k ; ∞) = (−∞ ; − 2,145 > ∪ < 2,145 ; ∞) Wartość sprawdzianu naleŜy więc do zbioru krytycznego, więc odrzucamy hipotezę H0 na korzyść statystyki H1. Oznacza to, Ŝe średnie liczby zatrudnionych kobiet i męŜczyzn nie są równe. Wysunięte hipotezy moŜna zweryfikować korzystając z arkusza kalkulacyjnego Excel na dwa sposoby, co zilustrowano poniŜej. 1. Wykorzystujemy funkcję statystyczną TEST.T Po wpisaniu danych w komórki a1:p1 i a2:p2 oraz ustalając parametry testu: Typ = 2 - test dla równych wariancji i Ślady = 2 - test dwustronny. 20 Równość wariancji w populacji naleŜ y sprawdzić testem do porównywania wariancji, otrzymany wynik potwierdzi lub nie słuszność przyjętego załoŜenia – test opisano w punkcie 16.3.3. 47 STATYSTYKA MATEMATYCZNA Wynik formuły ≈ 0,0048 jest równy jest równy granicznemu poziomowi istotności α̂ , wyznaczonemu na podstawie wartości wskaźnika obliczonego bez wykorzystania programu komputerowego, co zilustrowano poniŜej. PoniewaŜ α̂ ≈0,0048 < 0,05 = α hipotezę zerową naleŜy odrzucić21. 21 Patrz uwaga 2 w punkcie 16.1.4. 48 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 2. Wykorzystujemy narzędzie pakietu Analiza danych: Test t: z dwiema próbami zakładający równe wariancje wpisując wcześniej dane w komórki a1:p1 i a2:p2. Test t: z dwiema próbami zakładający równe wariancje Średnia Wariancja Obserwacje Wariancja sumaryczna RóŜnica średnich wg hipotezy df t Stat Zmienna 1 186 336,571429 8 340,491071 0 14 -3,3464481 P(T<=t) jednostronny 0,00239888 Test T jednostronny 1,76131012 P(T<=t) dwustronny 0,00479775 Test t dwustronny 2,14478668 Komentarz Zmienna 2 216,875 344,410714 8 Sprawdzian Graniczny poziom istotności Granica zbioru krytycznego Graniczny poziom istotności Granica zbioru krytycznego Za pomocą otrzymanej tabelki weryfikujemy wysunięte hipotezy na dwa sposoby, pamiętając, Ŝe hipoteza alternatywna jest zaprzeczeniem hipotezy zerowej: • W oparciu o zbiór krytyczny. PoniewaŜ t Stat=-3,3464481 ∈ K = (−∞ ; − 2,145 > ∪ < 2,145 ; ∞) więc odrzucamy hipotezę H0 na korzyść hipotezy H1. • W oparciu o graniczny poziom istotności PoniewaŜ α̂ =0,00479775 < 0,05 = α hipotezę zerową naleŜy odrzucić na korzyść hipotezy Ho. Na zakończenie zwracamy uwagę, Ŝe otrzymaliśmy taką samą wartość sprawdzianu t Stat ≈ -3,346 i granicę zbioru krytycznego ≈ 2,14 jakie otrzymano wcześniej bez programu komputerowego oraz taką samą wartość krytycznego poziomu istotności P(T<=t) dwustronny ≈0,0048, jaką otrzymano z wykorzystaniem funkcji statystycznej TEST.T. 49 STATYSTYKA MATEMATYCZNA Przykład 16.8 Porównywano czas rozwiązywania pewnego testu przez członków dwóch zespołów analityków (w minutach). Z1 188 192 187 178 179 175 177 178 185 Z2 190 179 185 186 183 184 179 180 190 190 Chcemy sprawdzić hipotezę o równości średniego czasu rozwiązywaniu testu w obu zespołach, względem hipotezy alternatywnej bedącej jej zaprzeczeniem, przy załoŜeniu, Ŝe czasy rozwiązywania testu mają rozkłady normalne z róŜnymi wariancjami22 oraz przyjmując poziom istotności 0,05. Rozwiązanie Na podstawie prób obliczamy: Średnia z próby x = 1 n ∑ xi n i =1 Wariancja z próby s 2 = 1 n (x i − x) 2 ∑ n i =1 X Y x = 182, 9 y = 184, 0 s12 = 34, 09 s 22 = 16, 0 Zgodnie z załoŜeniem o nierówności wariancji stosujemy TP-8 Wartość sprawdzianu U n1,n 2 = X−Y S12 S22 n1 − 1 n 2 − 1 + jest równa 182,9 − 184, 0 1,1 1,1 1,1 =− =− =− = −0, 457 2, 406 34, 09 16 3.788 + 2 5, 788 + 9 8 Sprawdzian ma rozkład Studenta z liczbą stopni swobody równą un n 1 2 = df = (a + b)2 a2 b2 + n1 − 1 n 2 − 1 gdzie: a = s12 s2 i b= 2 n1 − 1 n2 −1 s12 34, 09 s2 16 = = 3,79 i b = 2 = = 2,0 n1 − 1 9 n2 −1 8 Zatem liczba stopni swobody (3, 79 + 2, 0)2 5, 792 33, 52 df = = = = 15,96 2 2 1, 6 + 0,5 2,1 3, 79 2, 0 + 9 8 Dla danych z przykładu a = czyli przyjmujemy liczbę stopni swobody równą 16. Z tablic rozkładu Studenta wyznaczamy liczbę k dla której P( Tdf ≥ k) = α otrzymując k=2,12. 22 Co moŜna sprawdzić testem do porównywania wariancji – patrz przykład 16.10 50 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Czyli zbiór krytyczny ma postać: K=(-∞ ; -1,746>∪<1,746 ; ∞). PoniewaŜ u n n ∉ K ⇒ H0 przyjmujemy. 1 2 Wysunięte hipotezy moŜna zweryfikować korzystając z arkusza kalkulacyjnego Excel na dwa sposoby, co ilustrują poniŜsze rysunki 1. Wykorzystując funkcję statystyczną TEST.T po wpisaniu danych w komórki a1:p1 i a2:p2 oraz ustalając parametry testu: Typ = 3 - test dla róŜnych wariancji i Ślady = 2 - test dwustronny. Wynik formuły 0,653 jest równy jest równy granicznemu poziomowi istotności α̂ , wyznaczonemu na podstawie wartości wskaźnika obliczonego bez wykorzystania programu komputerowego, co zilustrowano poniŜej. 51 STATYSTYKA MATEMATYCZNA PoniewaŜ α̂ =0,653 > 0,05 = α hipotezę zerową H0 przyjmujemy23. 2. Wykorzystując narzędzie pakietu Analiza danych: Test t: z dwiema próbami zakładający nierówne wariancje wpisując wcześniej dane w komórki a1:a10 i g1:g9. Otrzymane wyniki są następujące: Komentarz Test t: z dwiema próbami zakładający nierówne wariancje Zmienna 1 Zmienna 2 Średnia 182,9 184 Wariancja 37,87777778 18 Obserwacje 10 9 RóŜnica średnich wg hipotezy 0 df 16 Sprawdzian t Stat -0,457232151 Graniczny P(T<=t) jednostronny 0,326825607 poziom istotności Granica zbioru krytycznego Test T jednostronny 1,745883669 Graniczny poziom istotności P(T<=t) dwustronny 0,653651213 Granica zbioru Test t dwustronny 2,119905285 krytycznego Za pomocą otrzymanej tabelki weryfikujemy wysunięte na dwa sposoby, pamiętając, Ŝe hipoteza alternatywna jest zaprzeczeniem hipotezy zerowej: • W oparciu o zbiór krytyczny. PoniewaŜ t Stat=--0,457232151 ∉ ∈ K = (−∞ ; − 2,12 > ∪ < 2,12 ; ∞) więc hipotezę H0 przyjmujemy. • W oparciu o graniczny poziom istotności PoniewaŜ α̂ =0,653651213 > 0,05 = α hipotezę zerową Ho przyjmujemy. Na zakończenie zwracamy uwagę, Ŝe otrzymaliśmy taką samą wartość sprawdzianu t Stat ≈ -0,457 i granice zbioru krytycznego ≈ 2,12 jakie wcześniej bez programu komputerowego oraz taką samą wartość krytycznego poziomu istotności P(T<=t) dwustronny ≈0,653, jaką otrzymano z wykorzystaniem funkcji statystycznej TEST.T. 23 Patrz uwaga 2 w punkcie 16.1.4. 52 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Przykład 16.9 Badano dwa typy samochodów ze względu na maksymalną prędkość. W 100 pomiarach maksymalnej prędkości I typu otrzymano średnią maksymalną prędkość 205,4 km/h i odchylenie standardowe 4,5 km/h, natomiast w 144 pomiarach maksymalnej prędkości II typu samochodów otrzymano średnią maksymalną prędkość 207,3 km/h i odchylenie standardowe 6,8 km/h. Czy moŜna twierdzić, Ŝe średnia maksymalna prędkość dla obu typów samochodów jest jednakowa, czy teŜ naleŜy przyjąć, iŜ dla typu I jest mniejsza niŜ dla II typu? Sprawdź odpowiednie hipotezy na poziomie istotności 0,01. Rozwiązanie X – maksymalna prędkość I typu samochodów. Y - maksymalna prędkość II typu samochodów. Rozkłady obu cech nie są znane. X n1 = 100 x = 205,4 s1 = 4,5 Liczebności prób Średnie z prób Odchylenia standardowe z prób Y n2 = 144 y = 207,3 s2 = 6,8 Poziom istotności α = 0,01 Wartości oczekiwane m1 = EX m2 = EY Hipotezy: H0 (m1 = m2), H1 (m1 < m2) Z uwagi na duŜą liczebność prób stosujemy test TP-9. X−Y 205,4 − 207,3 Sprawdzian U= . Wartość sprawdzianu u = = −2,63 2 2 2 2 S1 S2 4,5 6,8 + + n1 n 2 100 144 Zbiór krytyczny K = (−∞ ; − k > , gdzie Φ (k ) = 1 − α =0,99 ⇒ k = 2,33 K = (−∞ ; − 2,33 > u = -2,63 PoniewaŜ u ∈ K , więc hipotezę H0 odrzucamy i przyjmujemy hipotezę alternatywną, Ŝe średnia maksymalna prędkość jest mniejsza dla samochodów typu I. Przy podjęciu takiej decyzji zagraŜa popełnienie błędu I rodzaju, którego prawdopodobieństwo α =0,01 jest jak widać małe. Graniczny poziom istotności α̂ = Φ (u) = Φ (−2, 63) = 1 − Φ (2, 63) = 0, 004 i jest znacznie mniejszy od α, co utwierdza nas jeszcze bardziej o słuszności podjętej decyzji. 16.3.2. Testy do porównywania wartości oczekiwanych – próby zaleŜne Z populacji losujmy n elementów i mierzymy wartości cechy X w dwóch momentach (np. wartość ciśnienia tętniczego przed podaniem leku i w godzinę po podaniu leku). Otrzymujemy dwie próby n elementowe dla dwóch cech: cechy X1 – wartość badanej cechy w momencie początkowym i cechy X2 – wartość badanej cechy w momencie końcowym. Cechy te nie muszą być niezaleŜne, zatem próby są powiązane. Aby sprawdzić hipotezę, Ŝe wartości oczekiwane obu cech są równe, naleŜy sprawdzić hipotezę, Ŝe wartość oczekiwana zmiennej losowej Y = X1 - X2 jest równa zeru na podstawie próby, której wartościami są róŜnice wartości prób dla obu cech. Zakładamy, Ŝe cecha Y ma rozkład normalny, co moŜna sprawdzić przy pomocy odpowiedniego testu (patrz rozdział o testach nieparametrycznych). Wtedy rozwaŜane poniŜej testy są szczególnym przypadkiem testów TP - 4, 5, 6 (dla m 0 =0). Hipoteza zerowa H 0 (m1 = m 2 ) . 53 STATYSTYKA MATEMATYCZNA Tabela 16..6 Testy do porównywania wartości oczekiwanych prób powiązanych, rozkład normalny Hipoteza alternatywna H1 (m1 >m 2 ) H1 (m1 <m 2 ) H1 (m1 ≠ m 2 ) Sprawdzian Un Rozkład sprawdzianu (k ; ∞ ) P( Tn −1 ≥ k) = 2α Nr testu TP-10A (−∞ ; − k ) P( Tn −1 ≥ k) = 2α TP-10B (−∞ ; − k ) ∪ ∪ (k ; ∞) P(| Tn −1 | ≥ k) = α TP-10C Zbiór krytyczny K Wyznaczanie liczby k Y n-1 . SY Rozkład Studenta z n – 1 stopniami swobody Tn-1- zmienna losowa o rozkładzie Studenta z n-1 stopniami swobody. Opisany powyŜej test nosi nazwę test Studenta dla prób powiązanych. Przykład 16.10 W pewnej firmie informatycznej przed wprowadzeniem nowej technologii projektowania oprogramowania sprawdzono jej skuteczność przez porównanie czasów projektowania róŜnorodnych modułow z wykorzystaniem dotychczasowej i nowej technologii. Sprawdzenia tego dokonano na podstawie próby 16-elementowej. Elementy tej próby określone w minutach podano poniŜej. X1 – czas projektowania modułu z wykorzystaniem dotychczasowej technologii, a X2 – czas projektowania modułu z wykorzystaniem nowej tetechnologii. X1 405 125 540 100 200 30 1200 265 90 206 18 489 590 310 995 75 X2 334 150 520 95 212 30 1055 200 85 129 14 440 610 208 880 25 Rozwiązanie Przyjmując załoŜenie, Ŝe czasy projektowania modułów podelgaja rozkładom normalnym będziemy weryfikować hipotezę zerową, Ŝe nowa technologia nie zmienia czasu projektowania wobec hipotezy alternatywnej, Ŝe go skraca. Wysuwamy hipotezy H0(m1 = m2), H1(m1 > m2), które zweryfikujemy na poziomie istotności 0,05. Zastosujemy test Studenta dla prób powiązanych TP-10B. Y n − 1 , gdzie Y jest średnią Y = X2 – X1, rozkład sprawdzianu U n / m1 = m 2 SY jest rozkładem Studenta z n-1 stopniami swobody Sprawdzian: U n = Na podstawie próby otrzymujemy, Ŝe y= − 40,69 s 2y =2493,59 . PoniewaŜ n=16 zatem u16 = y s 2y n −1 = −40, 6875 16 − 1 = −0,8147 ⋅ 3,87 = −3,15 49,94 Dla określenia zbioru krytycznego K= (−∞ ; − k > wyznaczamy liczbę k: P(| Tn-1 | ≥ k) = 2α P(| T15 | ≥ k) = 0,1 ⇒ k = 1, 753 wykorzystano tablice rozkładu Studenta dla 15 stopni swobody i prawdopodobieństwa 0.1 (funkcja dotyczy rozkładu dwustronnego, a nam potrzebny jest zbiór jednostronny). Zatem zbiór krytyczny K= (−∞ ; − 1,753 > PoniewaŜ u16 ∈ K , więc hipotezę zerową odrzucamy, co oznacza, Ŝe nowa technologia skraca czas projektowania modułów. Wysunięte hipotezy moŜna zweryfikować korzystając z arkusza kalkulacyjnego Excel na dwa sposoby. 1. Wykorzystując funkcję statystyczną TEST.T po wpisaniu danych w komórki a1:p1 i a2:p2 oraz ustalając parametry testu: Typ = 1 - test dla prób powiązanych (test sparowany) i Ślady = 1 - test jednostronny. 54 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Wynik formuły 0,0033 jest równy jest równy granicznemu poziomowi istotności α̂ , wyznaczonemu na podstawie wartości wskaźnika obliczonego bez wykorzystania programu komputerowego, co zilustrowano poniŜej. PoniewaŜ α̂ =0,0033 < 0,05 = α hipotezę zerową H0 odrzucamy24. 24 Patrz uwaga 2 w punkcie 16.1.4. 55 STATYSTYKA MATEMATYCZNA 2. Wykorzystując narzędzie pakietu Analiza danych: Test t: par skojarzonych z dwiema próbami dla średniej wpisując wcześniej dane w komórki a1:a16 i b1:b16. Otrzymane wyniki były następujące: Średnia Wariancja Obserwacje Korelacja Pearsona RóŜnica średnich wg hipotezy df t Stat P(T<=t) jednostronny Zmienna 1 352,375 118367,7167 16 0,992224891 0 15 -3,155688486 Zmienna 2 311,6875 97734,3625 16 0,00326497 Test T jednostronny 1,753050325 P(T<=t) dwustronny 0,006529939 Test T dwustronny 2,131449536 Komentarz Sprawdzian Graniczny poziom istotności Granica zbioru krytycznego Graniczny poziom istotności Granica zbioru krytycznego Za pomocą otrzymanej tabelki weryfikujemy wysunięte hipotezy na dwa sposoby, pamiętając, Ŝe hipoteza alternatywna jest jest jednostronna: • W oparciu o zbiór krytyczny. PoniewaŜ t Stat=- 3,155688486 ∉ ∈ K = (−∞ ; − 1,175> więc hipotezę H0 odrzucamy. • W oparciu o graniczny poziom istotności PoniewaŜ α̂ =0,00326497 < 0,05 = α hipotezę zerową Ho odrzucamy. Na zakończenie zwracamy uwagę, Ŝe otrzymaliśmy taką samą wartość sprawdzianu t Stat ≈ 3,15 i granicę zbioru krytycznego ≈ 1,75 jakie otrzymano wcześniej bez programu komputerowego oraz taką samą wartość krytycznego poziomu istotności P(T<=t) jednostronny ≈0,003, jaką otrzymano z wykorzystaniem funkcji statystycznej TEST.T 56 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 16.3.3. Testy do porównywania wariancji Badane są dwie populacje: pierwsza ze względu na cechę X, druga ze względu na cechę Y. Zakładamy, Ŝe cechy te są niezaleŜne o rozkładach normalnych odpowiednio N(m1,σ1), N(m2,σ2). ( Hipoteza zerowa H0 σ12 = σ22 ) Tabela 16.7. Testy do porównywania wariancji, N(m1,σ1) N(m2,σ2) Hipoteza alternatywna Sprawdzian U n1n 2 Rozkład sprawdzianu H1 (σ12 >σ 22 ) 2 1 U n1 ,n 2 = 2 2 H1 (σ <σ ) H1 (σ12 ≠ σ 22 ) Zbiór krytyczny K Wyznaczanie liczby Nr testu k1 i k2 Ŝ2n1 < k2 ; ∞ ) P(F ≥ k 2 ) = α TP-11A Ŝ2n 2 (0 ; k1 > P(F ≥ k1 ) = 1 − α TP-11B Rozkład Snedecora z parą (n1-1, n2 –1) stopni swobody. (0 ; k1 > ∪ < k 2 ; ∞) P(F ≥ k 2 ) = α / 2 TP-11C P(F ≥ k1 ) = 1 − α / 2 F - zmienna losowa o rozkładzie Snedecora z parą (n1-1, n2 –1) stopni swobody. Przykład 16.11 Porównywano czas rozwiązywania pewnego testu przez członków dwóch zespołów analityków (w minutach). Z1 188 192 187 178 179 175 177 178 185 Z2 190 179 185 186 183 184 179 180 190 190 Chcemy sprawdzić hipotezę o równości wariancji przy załoŜeniu, Ŝe czasy rozwiązywania testu mają rozkłady normalne i przyjmując poziom istotności 0,05. Rozwiązanie Z1 Z2 Średnie z prób x = 182,7 y = 184,0 Wariancje z prób s12 = 34, 09 s 22 = 16, 0 Sprawdzimy hipotezy ( ) ( a) H 0 σ12 = σ22 H1 σ12 > σ22 ) Do weryfikacji hipotez stosujemy test TP-11A., wartość sprawdzianu u11,10 = 34, 09 = 2,1306 16, 0 Zbiór krytyczny K = < k 2 ; ∞) , przy czym P(F ≥ k 2 ) = α , gdzie F to zmienna losowa o rozkładzie Snedecora z parą (n1-1, n2-1) stopni swobody, w rozwiązywanym przykładzie z parą (9, 8) stopni swobody. Zatem P(F ≥ k 2 ) = 0, 05 ⇒ k 2 = 3,39 , czyli K =< 3,39 ; ∞) . PoniewaŜ u11,10 = 2,1306 ∉ K =< 3,13 ; ∞), więc hipotezę H0, Ŝe wariancje (a takŜe odchylenia standardowe) są sobie równe przyjmujemy. Wysunięte hipotezy moŜna zweryfikować korzystając z arkusza kalkulacyjnego Excel na dwa sposoby, co ilustrują poniŜsze rysunki 1. Wykorzystując funkcję statystyczną TEST.F po wpisaniu danych w komórki a22:j22 i a23:i23. 57 STATYSTYKA MATEMATYCZNA Wynik formuły 0,30816 jest równy jest równy granicznemu poziomowi istotności α̂ , wyznaczonemu na podstawie wartości wskaźnika obliczonego bez wykorzystania programu komputerowego, co zilustrowano poniŜej. Otrzymano dwa razy mniejszy wynik, poniewaŜ w funkcji TEST.F przyjęty jest dwustronny zbiór krytyczny. W przypadku testu jednostronnego α̂ =0,150 > 0,05 = α więc hipotezę zerową H0 przyjmujemy. 2. Wykorzystując narzędzie pakietu Analiza danych: Test F: z dwiema próbami dla wariancji wpisując wcześniej dane w komórki a1:p1 i a2:p2. 58 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Otrzymane wyniki są następujące: Test F: z dwiema próbami dla wariancji Średnia Wariancja Obserwacje df F Zmienna 1 182,9 37,877778 10 9 2,104321 P(F<=f) jednostronny 0,154081 Test F jednostronny 3,3881302 Komentarz Zmienna 2 184 18 9 8 Sprawdzian Graniczny poziom istotności Granica zbioru krytycznego Za pomocą otrzymanej tabelki weryfikujemy wysunięte hipotezy na dwa sposoby, pamiętając, Ŝe hipoteza alternatywna jest jest jednostronna: • W oparciu o zbiór krytyczny. PoniewaŜ t Stat=2,104321 ∈ ∉ K = < 3,39; ∞ ) więc hipotezę H0 przyjmujemy. • W oparciu o graniczny poziom istotności PoniewaŜ α̂ =0,154081 > 0,05 = α hipotezę zerową Ho przyjmujemy. Na zakończenie zwraca się uwagę, Ŝe otrzymaliśmy taką samą wartość sprawdzianu F ≈ 2,1, taką samą wartość krytycznego poziomu istotności P(T<=t) jednostronny ≈0,15 oraz granicę zbioru krytycznego Test F jednostronny ≈ 3,39 jakie otrzymano wcześniej bez programu komputerowego. 16.3.4. Testy do porównywania wskaźników struktury Badane są dwie cechy X i Y róŜnych populacji o rozkładach zerojedynkowych, P (X = 1) = p1 , P (X = 0) = 1 − p1 , P (Y = 1) = p 2 , P(Y = 0) = 1 − p 2 , Cechy X i Y są zmiennymi losowymi niezaleŜnymi. Z populacji, której badana jest cecha X pobrano próbę n1 elementową, z drugiej populacji pobrano próbę n 2 elementową. Obie próby są liczne n1, n2 ≥100. Hipoteza zerowa: H 0 (p1 = p 2 ) 59 natomiast STATYSTYKA MATEMATYCZNA Tabela 16.8. Testy do porównywania wskaźników struktury, próby liczne Hipoteza alternatywna H1 (p1 >p 2 ) H1 (p1 <p 2 ) H1 (p1 ≠ p 2 ) Sprawdzian U n1n 2 Rozkład sprawdzianu W1 − W2 Zbiór krytyczny K < k ; ∞) (−∞ ; − k > n1 + n 2 n1 n 2 Rozkład asymptotycznie normalny N(0,1) W (1 − W ) ⋅ (−∞; −k > ∪ ∪ < k; ∞) Wyznaczanie liczby k Nr testu Φ (k ) = 1 − α TP-12A Φ(k ) = 1 − α TP-12B α 2 TP-12C Φ (k) = 1 − W1, W2 wskaźniki struktury z obu prób, w 1 = r1 / n 1 , w 2 = r2 / n 2 , w próbach o liczebnościach n1 i n2 r +r w= 1 2 n1 + n 2 Φ – dystrybuanta rozkładu normalnego N(0,1). r1 , r2 - liczby jedynek Przykład 16.12 Porównywano wadliwość dwu partii towaru. Z pierwszej partii pobrano próbę 200 elementową i zanotowano w niej 10 sztuk wadliwych. Z drugiej partii pobrano próbę 150 elementową. Było w niej 12 sztuk wadliwych. Czy wadliwości obu partii są takie same, czy teŜ naleŜy przyjąć, Ŝe wadliwość pierwszej partii jest mniejsza niŜ drugiej? Sprawdź odpowiednie hipotezy na poziomie istotności 0,06. Rozwiązanie X – zmienna losowa przyjmująca wartość 1, gdy z pierwszej partii wybrano sztukę wadliwą lub wartość 0, gdy wybrano sztukę dobrą. Y – zmienna losowa przyjmująca wartość 1, gdy z drugiej partii wybrano sztukę wadliwą lub wartość 0, gdy wybrano sztukę dobrą. Zmienne losowe X i Y są niezaleŜne i mają rozkłady zerojedynkowe z parametrami odpowiednio p1 , p2 Wskaźniki struktury p1 i p2 są wadliwościami partii pierwszej i drugiej. P(X = 1) = p1 , P(X = 0) = 1 − p1 , P(Y=1)=p 2 , P(Y=0)=1-p2 . Liczebności prób n1=200 n2=150. Liczby sztuk wadliwych w próbach r1=10 r2=12. Hipotezy H0 (p1 = p2), H1 (p1 < p2). Poziom istotności α = 0,06 Stosujmy test TP-35. Wadliwości w próbach (wskaźniki struktury) r r r +r 10 12 10 + 12 22 w1 = 1 = = 0,05 , w 2 = 2 = = 0,08 w = 1 2 = = = 0,063 n 1 200 n 2 150 n 1 + n 2 200 + 150 350 W1 − W2 Sprawdzian U = n + n2 W(1 − W ) ⋅ 1 n1 n 2 Wartość sprawdzianu w1 − w 2 0,05 − 0,08 u= = = −1,14 n1 + n 2 200 + 150 0,063 ⋅ 0,932 ⋅ w (1 − w ) ⋅ 200 ⋅ 150 n1 n 2 Zbiór krytyczny K = (−∞ ; − k > Φ (k ) = 1 − α = 0,94 ⇒ k = 1,55 K = (-∞; -1,55> PoniewaŜ u 10 ∉ K, więc hipotezę H0 przyjmujemy. MoŜna twierdzić, Ŝe wadliwości obu partii są sobie równe. 60 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Uwagi: W przypadku konieczności zweryfikowania hipotez dotyczących wskaźników struktury • przy próbach niepowiązanych o małych liczebnosciach naleŜy zastosować test dokładny Fishera25 • przy próbach powiązanych naleŜy zastosować test Mc Nemary26. 16.4. Testy nieparametryczne dla jednej próby 16.4.1. Ocena losowości próby Istotne znaczenie ma sprawdzenie, czy próba jest losowa, bowiem losowość jest podstawowym załoŜeniem zdecydowanej większości metod estymacji i testów statystycznych. Wysuwamy hipotezy H0 ( Pobrana próba jest losowa) H1 (Pobrana próba nie jest losowa) Hipotezy te weryfikujemy przy pomocy testu serii. 1. Wyznaczamy medianę z próby i transformujemy próbę wg zasady: - jeśli element próby ma wartość mniejszą od mediany, to przyporządkowujemy mu liczbę 0, - jeśli element próby ma wartość większą od mediany, to przyporządkowujemy mu liczbę 1, - jeśli element próby ma wartość równą medianie, to odrzucamy go z próby. 2. Sprawdzian: statystyka Un oznaczająca liczbę serii w transformowanej próbie. 3. Rozkład sprawdzianu zaleŜy od liczebności n0 oraz n1 zer lub jedynek w transformowanej próbie i jest stablicowany (pkt 8 części VII „Tablice statystyczne”). Z tablic tych moŜna odczytać liczbę uα taką, Ŝe P(Un ≤ uα) = α. 4. Zbiór krytyczny dwustronny K = (0; k1> ∪ (k2 ; ∞) Liczby k1 i k2 wyznaczamy z tablicy rozkładu ilości serii P(Un > k2) = α/2 P(Un ≤ k1) = α/2 5. Obliczamy na podstawie próby wartość un statystyki Un, czyli obliczamy liczbę serii w próbie transformowanej. 6. Podejmujemy decyzje - jeśli un ∈ K, to H0 przyjmujemy, - jeśli un ∉ K, to H0 nie przyjmujemy. Uzasadnienie Jeśli hipoteza zerowa jest prawdziwa, to w transformowanej próbie powinna być umiarkowana liczba serii. Gdyby bowiem serii było mało np. byłyby tylko dwie serie, to oznaczałoby, Ŝe w próbie najpierw kolejno występują elementy o wartościach mniejszych od mediany, a następnie kolejno elementy większe od mediany ( lub na odwrót). Próba taka z oczywistego powodu nie byłaby losowa. Gdyby serii było duŜo np. tyle ile jest elementów próby, to oznaczałoby, Ŝe na przemian w próbie występują elementy większe i mniejsze od mediany. Taką próbę teŜ byłoby trudno uznać za losową. Zatem duŜa i mała liczba serii w próbie transformowanej przemawia za odrzuceniem hipotezy zerowej, natomiast umiarkowana liczba serii przemawia za przyjęciem tej hipotezy. Dlatego zbiór krytyczny przyjmujemy dwustronny. Przykład 17.1 W celu zbadania struktury wieku pracowników duŜej firmy pobrano próbę 16 pracowników i zbadano ich wiek (liczbę lat ukończonych). Otrzymano następującą próbę. 38 34 30 42 27 38 41 20 21 23 18 42 28 40 31 43 Czy próba ta jest losowa? 25 26 Zostanie opisany w II części podręcznika Zostanie opisany w II części podręcznika 61 STATYSTYKA MATEMATYCZNA Rozwiązanie 1. Sortujemy dane niemalejąco 18 20 21 23 27 28 30 31 34 38 38 40 41 42 42 43 Mediana wieku jest równa 31 + 34 me = = 32,5 2 PoniŜej przedstawiono poszczególne elementy próby przed i po transformacji 38 34 30 42 27 38 41 20 21 23 18 42 28 40 31 43 1 1 0 1 0 1 1 0 0 0 0 1 0 1 0 1 2. Sprawdzian: statystyka Un oznaczająca liczbę serii w transformowanej próbie. 3. Poziom istotności α = 0,05 4. Zbiór krytyczny dwustronny K = (0; k1> ∪ (k2 ; ∞) Liczby k1 i k2 wyznaczmy z tablicy rozkładu ilości serii (pkt 8 części VII „Tablice statystyczne”) P(U n ≤ k1 )=0,05/2 =0,025 P(U n >k 2 )=1-α/2 =0,975 dla n0 = n1 = 8 (liczby zer i jedynek w próbie transponowanej) mamy k1 = 4, k2 =13 Zatem K = (0; 4> ∪ <13 ; ∞) 5. Liczba serii w próbie transponowanej un =11 6. PoniewaŜ un ∉ K, to hipotezę zerową H0, Ŝe próba jest losowa przyjmujemy. Uwaga Jeśli próba jest liczna, to statystka Un – liczna serii w transponowanej próbie ma rozkład asymptotycznie normalny o parametrach m= 2n 0 n1 +1, n σ= 2n 0 n1 (2n 0 n1 -n) n 2 (n-1) 16.4.2. Test zgodności chi kwadrat Dana jest dystrybuanta F(x). Hipoteza zerowa H0 (Cecha X populacji ma rozkład określony dystrybuantą F(x)) Hipoteza alternatywna H1 (Cecha X populacji nie ma rozkładu określonego dystrybuantą F(x)). Weryfikacja powyŜszych hipotez za pomocą tzw. testu χ2 przebiega następująco: 1. Pobieramy liczną próbę (n ≥80). Prezentujemy ją w szeregu rozdzielczym przedziałowym w r klasach, przy czym: • Pierwsza i ostatnia klasa szeregu rozdzielczego powinny mieć postać A1 = (-∞; a1), Ar = <ar; ∞) i do kaŜdej z nich powinno naleŜeć co najmniej 5 elementów próby. • Do pozostałych klas powinno naleŜeć co najmniej 10 elementów próby. • Klas nie moŜe być mniej niŜ 4. 2. Obliczamy na podstawie próby oceny parametrów wchodzących w skład dystrybuanty F(x) uzyskane metodą największej wiarygodności. 3. Przyjmujemy, Ŝe hipoteza H0 jest prawdziwa tzn., Ŝe rozkład cechy X jest określony dystrybuantą F(x), przy czym parametry dystrybuanty są równe ocenom uzyskanym w punkcie 2. 4. Dla kaŜdego przedziału klasowego Ai = <ai; ai+1) obliczamy prawdopodobieństwa pi =P(X ∈ Ai )=P(a i ≤ X<a i+1 )=F(a i+1 )-F(a i ) dla i =1, ... , r 62 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 5. Obliczamy (n i -npi ) 2 u n =∑ npi i=1 r gdzie ni jest liczebnością klasy Ai. 6. Wyznaczamy zbiór krytyczny prawostronny K = <k; ∞), k wyznaczamy z tablicy rozkładu χ2 z r-s-1stopniami swobody i dla prawdopodobieństwa α równemu poziomowi istotności – pkt 5 części VII „Tablice statystyczne”, s jest liczbą parametrów szacowanych na podstawie próby metodą największej wiarygodności. 7. Podejmujemy decyzję: • odrzucamy hipotezę H0, gdy un ∈ K • przyjmujemy hipotezę H0, gdy un ∉ K Test χ2 opiera się na twierdzeniu: Statystyka (Ni -npi )2 npi i=1 gdzie: Ni - zmienna losowa oznaczająca liczebność klasy Ai, której wartością jest liczbą un określona w punkcie 5 ma dla licznej próby rozkład w przybliŜeniu χ2 z r-s-1 stopniami swobody, gdzie s jest liczbą parametrów szacowanych na podstawie próby metodą największej wiarygodności. Uzasadnienie postępowania ni - liczba elementów próby naleŜących do klasy Ai (liczebność empiryczna klasy Ai) npi - oczekiwana liczba elementów naleŜących do klasy Ai, przy załoŜeniu prawdziwości hipotezy zerowej (liczebność teoretyczna klasy Ai). Jeśli hipoteza H0 jest prawdziwa, to róŜnica ni - npi powinna być mała dla i = 1, ... , r, zatem liczba un powinna być takŜe mała. Dlatego zbiór krytyczny przyjmujemy prawostronny K = <k; ∞). Jeśli un ∈ K tzn. un ≥ k, to uznajemy, Ŝe un jest duŜe i H0 odrzucamy, w przeciwnym przypadku H0 przyjmujemy. Przykład 17.3 Za pomocą arkusza kalkulacyjnego Exel wygenerowano 120 liczb losowych z rozkładu jednostajnego z przedziału (0 ; 1). Otrzymano następujące liczby, po uporządkowaniu ich niemalejąco (kolumnami). r Un =∑ 0,002 0,003 0,006 0,017 0,022 0,036 0,046 0,053 0,055 0,061 0,064 0,079 0,090 0,090 0,095 0,115 0,136 0,141 0,148 0,154 0,157 0,163 0,166 0,176 0,188 0,189 0,217 0,227 0,236 0,251 0,253 0,254 0,256 0,261 0,265 0,286 0,297 0,301 0,317 0,323 0,332 0,333 0,341 0,349 0,356 0,360 0,369 0,381 0,385 0,387 0,393 0,395 0,403 0,407 0,411 0,422 0,425 0,426 0,459 0,472 0,472 0,473 0,480 0,483 0,489 0,490 0,496 0,511 0,516 0,537 0,540 0,542 0,587 0,600 0,605 0,610 0,610 0,611 0,633 0,638 0,655 0,661 0,663 0,667 0,702 0,721 0,724 0,726 0,747 0,759 0,770 0,776 0,807 0,810 0,825 0,827 0,829 0,830 0,851 0,855 0,864 0,867 0,870 0,885 0,899 0,910 0,918 0,921 0,922 0,927 0,927 0,944 0,946 0,962 0,967 0,983 0,989 0,996 0,998 0,998 Sprawdzimy, przy pomocy testu chi kwadrat, na poziomie istotności 0,05, czy rzeczywiście pochodzą z tego rozkładu. 63 STATYSTYKA MATEMATYCZNA Rozwiązanie Cecha X – liczba losowa Wysuwamy hipotezy H0 (Cecha X ma rozkład jednostajny w przedziale ( 0;1))27 H1 (Cecha X nie ma rozkładu jednostajnego) 1. Prezentujemy dane w szeregu rozdzielczym przedziałowym w 10 klasach Ai ni (-∞ ; 0,1) 15 <0,1 ; 0,2) 11 <0,2 ; 0,3) 11 <0,3 ; 0,4) 15 <0,4 ; 0,5) 15 <0,5 ; 0,6) 6 <0,6 ; 0,7) 11 <0,7 ; 0,8) 8 <0,8 ; 0,9) 13 <0,9 ; ∞) 15 Razem 120 2. Nie ma parametrów wchodzących w skład dystrybuanty rozkładu jednostajnego w przedziale (0;1) (patrz gęstość (17.1)). 3. Przyjmujemy, Ŝe hipoteza H0 jest prawdziwa. 4. PoniewaŜ gęstość jest stała więc pi = const = 0,1 oraz npi = 12 5. (n i − npi )2 ni pi n pi Ai npi (-∞ ; 0,1) 15 0,1 12 0,75 <0,1 ; 0,2) 11 0,1 12 0,08 <0,2 ; 0,3) 11 0,1 12 0,08 <0,3 ; 0,4) 15 0,1 12 0,75 <0,4 ; 0,5) 15 0,1 12 0,75 <0,5 ; 0,6) 6 0,1 12 3,00 <0,6 ; 0,7) 11 0,1 12 0,08 <0,7 ; 0,8) 8 0,1 12 1,33 <0,8 ; 0,9) 13 0,1 12 0,08 <0,9 ; ∞) 15 0,1 12 0,75 Razem 120 1,0 120 un =7,95 6. Wyznaczamy zbiór krytyczny prawostronny K = <k; ∞). Liczbę k wyznaczamy z tablicy rozkładu chi kwadrat z r – s – 1 = 10 – 0 – 1 = 9 stopniami swobody i poziomu istotności 0,05. Otrzymujemy k =16,916, zatem K =<16,016; ∞). 7. u n ∉ K ⇒ H0 przyjmujemy. 27 1 dla x ∈ (0,1) tzn. jej gęstość wyraŜa się wzorem f (x) = (17.1) 0 dla x ∉ ( 0,1) 64 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 16.4.3. Ocena normalności rozkładu Posiadanie informacji, Ŝe rozkład cechy populacji jest normalny ma podstawowe znaczenie w statystyce, bowiem przy tym załoŜeniu prawdziwa jest przewaŜająca liczba twierdzeń, teoria statystyki jest najprostsza i do zastosowań praktycznych nie potrzeba zwykle pobierać licznych prób. Podamy wersję testu zgodności χ2 dostosowaną do sprawdzania hipotezy, Ŝe cecha populacji ma rozkład normalny. Stosujemy go, gdy próba jest liczna (n ≥ 80)28, Hipoteza zerowa H0 (Cecha X populacji ma rozkład normalny). Hipoteza alternatywna H1 (Cecha X populacji nie ma rozkładu normalnego). Weryfikacja powyŜszych hipotez za pomocą testu χ2 przebiega następująco: 1. Pobieramy liczną próbę (n ≥80). Prezentujemy ją w szeregu rozdzielczym klasowym w r klasach. 2. Obliczamy: x - średnią z próby i s - odchylenie standardowe z próby według wzorów x= 1 r ∑ n i x% i , n i=1 s= 1 r ∑ n i (x% i -x)2 ~x i - środek klasy Ai n i=1 3. Przyjmujemy, Ŝe cecha X ma rozkład normalny N( x , s). 4. Dla kaŜdego przedziału klasowego Ai =< a i ;a i+1 ) obliczamy prawdopodobieństwo a -x X-x a i+1 -x a -x a -x pi =P(X ∈ Ai )=P(a i ≤ X<a i+1 )=P( i ≤ < )=Φ( i+1 )-Φ( i ) s s s s s r (n i -npi ) 2 5. Obliczamy u n =∑ , gdzie ni jest liczebnością klasy Ai. npi i=1 6. Wyznaczamy zbiór krytyczny prawostronny K =< k; ∞) , gdzie k wyznaczamy z tablicy rozkładu χ2 dla r – 3 stopniami swobody i dla prawdopodobieństwa α (równemu poziomowi istotności) – pkt 5 części VII „Tablice statystyczne”. 7. Podejmujemy decyzję: • odrzucamy hipotezę H0, gdy un ∈ K • przyjmujemy hipotezę H0, gdy un ∉ K Przykład 17.4 Badano wynagrodzenie (w zł) pracowników pewnego przedsiębiorstwa (cecha X populacji). Z grupy pracowników pobrano próbę 200 elementową. Otrzymane wyniki prezentowane są w poniŜszym szeregu rozdzielczym przedziałowym Nr klasy i 1 2 3 4 5 6 7 8 9 10 28 Wynagrodzenie <ai, ai+1) <600 ; 800) <800 ; 1000) <1000 ; 1200) <1200 ; 1400) <1400 ; 1600) <1600 ; 1800) <1800 ; 2000) <2000 ; 2200) <2200 ; 2400) <2400 ;2600) Suma Liczebność ni 2 10 20 30 56 42 21 13 5 1 200 W przypadku konieczności zweryfikowania hipotez o podleganiu cechy rozkładowi normalnemu w oparciu o próbę o małej liczebnosci naleŜ y zastosować test Shapiro-Wilka. Zostanie on opisany w drugiej części podręcznika 65 STATYSTYKA MATEMATYCZNA Na poziomie istotności α = 0,05 sprawdzimy hipotezy: H0 (Cecha X populacji ma rozkład normalny) i H1 (Cecha X populacji nie ma rozkładu normalnego). Obliczenia x i s Środek Nr Wynagrodzenie Liczebność klasy klasy <ai; ai+1) ni ~ xi i 1 <600 ; 800) 2 700 2 <800 ; 1000) 10 900 3 <1000 ; 1200) 20 1100 4 <1200 ; 1400) 30 1300 5 <1400 ; 1600) 56 1500 6 <1600 ; 1800) 42 1700 7 <1800 ; 2000) 21 1900 8 <2000 ; 2200) 13 2100 9 <2200 ; 2400) 5 2300 10 <2400 ;2600) 1 2500 Suma 200 x= ~ xini n i (~ x i − x) 2 1400 9000 22000 39000 84000 71400 39900 27300 11500 2500 308000 1411200 4096000 3872000 1728000 89600 1075200 2721600 4076800 2888000 921600 22880000 308000 22880000 = 1540 [zł], s 2 = = 114400 [zł], s = 114400 = 338, 2 [zł] 200 200 Obliczenia u200 PoniewaŜ do kaŜdej ze skrajnych klas powinno naleŜeć co najmniej 5 elementów łączymy w jedną klasę klasy pierwszą i drugą danego szeregu rozdzielczego - otrzymujemy pierwszą klasę nowego szeregu, którą ze względu na wymagania, jaką postać ma mieć ta klasa zapisujemy (-∞;1000). Z tych samych powodów łączymy klasy 8, 9 i 10 w jedną klasę i zapisujmy ją w postaci <2000; ∞ ). i 1 2 3 4 5 6 7 <ai; ai+1) ( − ∞ ; 1000) <1000 ; 1200) <1200 ; 1400) <1400 ; 1600) <1600 ; 1800) <1800 ; 2000) <2000 ; ∞ ) ni 12 20 30 56 42 21 19 − ∞ 1000 a i -x s −∞ 1000 1200 1400 1600 1800 2000 -1,60 -1,01 -0,41 0,18 0,77 1,36 ai ai+1 1200 1400 1600 1800 2000 ∞ a i+1 -x a -x a -x Φ i Φ i+1 s s s -1,60 -1,01 -0,41 0,18 0,77 1,36 ∞ 0 0,05517 0,15737 0,33945 0,57041 0,77899 0,91311 0,0552 0,1574 0,3395 0,5704 0,779 0,9131 1 Suma pi npi 0,05517 11,03 0,10220 20,44 0,18208 36,42 0,23095 46,19 0,20858 41,72 0,13412 26,82 0,08689 17,38 1,00000 200,00 (n i -np1 ) 2 npi 0,084659 0,009499 1,130557 2,083142 0,001933 1,264544 0,151291 4,73 u200= 4,73. Wyznaczamy zbiór krytyczny prawostronny K = <k; ∞). Liczbę k odczytujemy z tablicy rozkładu χ 2 dla r – 3 = 7 – 3 = 4 stopni swobody i prawdopodobieństwa α = 0,05. (pkt 5 części VII „Tablice statystyczne”). Mamy k = 9,488, więc K = <9,488; ∞). PoniewaŜ u200= 4,73 ∉ K , więc hipotezę, Ŝe cecha ma rozkład normalny przyjmujemy. Hipotezę tę moŜna dopiero odrzucić na poziomie istotności 0,32, gdyŜ zbiór krytyczny K = <4,73; ∞) otrzymujemy właśnie na tym poziomie. W powyŜszym przykładzie dane statystyczne były pogrupowane w przedziałach o jednakowej długości (z wyjątkiem pierwszego i ostatniego). Test chi kwadrat moŜna stosować takŜe przy innych sposobach grupowania danych, na przykład przy grupowaniu w przedziały o jednakowych prawdopodobieństwach teoretycznych pi przyjęcia wartości z tych przedziałów. Prawdopodobieństwa te są obliczane, przy załoŜeniu, iŜ prawdziwa jest hipoteza, Ŝe rozkład cechy jest normalny. Przy tej metodzie grupowania liczebności npi są jednakowe dla kaŜdego przedziału. 66 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Przykład 17. 5 Padano zuŜycie surowca na jednostkę produkcji (Cecha X populacji). Pobrano próbę 100 elementową i otrzymano wyniki: 35 43 25 65 28 72 96 51 48 80 91 35 40 76 80 23 67 63 84 20 49 73 89 21 31 12 28 45 38 90 69 38 66 49 57 52 62 25 60 40 41 17 63 48 77 23 30 84 32 56 32 81 15 69 51 74 46 34 54 49 91 51 82 38 53 12 63 49 68 48 58 43 60 41 63 68 54 74 32 51 34 50 29 55 69 16 24 34 41 31 50 18 45 63 40 38 34 67 47 24 Sprawdzimy hipotezy H0 (X ma rozkład normalny), H1 (X nie ma rozkładu normalnego), stosując test chi-kwadrat, dla danych pogrupowanych w przedziały o równych liczebnościach teoretycznych. Rozwiązanie Pogrupujemy dane w r = 10 klasach, a więc teoretyczna liczebność klasy wynosi takŜe 10, gdyŜ próba liczy 100 elementów, prawdopodobieństwo przyjęcia wartości przez X z danej klasy wynosi p = 0,1. Na podstawie próby wyznaczamy x = 50 i s =20,5. Zakładamy, Ŝe cecha X ma rozkład normalny X − 50 N(50;20,5), czyli zmienna losowa Y = ma rozkład normalny N(0, 1). 20,5 Przedziały (klasy) wyznaczamy następująco: Ai = <ai-1 ;ai) Prawy koniec ai klasy o numerze i spełnia związek P(X < ai) = ip = 0,1i, zatem X-50 a i -50 a -50 P(X<a i )=P < =Φ i =0,1i 20,5 20,5 20,5 Z tablicy dystrybuanty rozkładu normalnego (pkt 4 części VII „Tablice statystyczne”) wyznaczamy a -50 liczbę ki, taką, Ŝe i =k i 20,5 a stąd ai =50 + 20,5ki dla i = 1, 2, ..., 9 Prawe końce klas zostały wyznaczone, a to wystarcza do wyznaczenia klas, gdyŜ lewy koniec klasy jest równy prawemu poprzedniej klasy, zaś koniec lewy pierwszej klasy jest równy -∞. Sortujemy próbę niemalejącą i wyznaczamy liczebności klas. 12 32 43 54 69 12 32 45 54 69 15 32 45 55 69 16 34 46 56 72 17 34 47 57 73 18 34 48 58 74 20 34 48 60 74 21 35 48 60 76 23 35 49 62 77 23 38 49 63 80 24 38 49 63 80 24 38 49 63 81 25 38 50 63 82 25 40 50 63 84 28 40 51 65 84 28 40 51 66 89 29 41 51 67 90 30 41 51 67 91 31 41 52 68 91 31 43 53 68 96 Dalej postępujemy jak w poprzednim przykładzie: obliczmy wartość sprawdzianu, który dla danych 1 r w tym przykładzie przyjmuje postać u n = ∑ (n i -10) 2 . 10 i=1 67 STATYSTYKA MATEMATYCZNA Otrzymane wyniki przedstawia poniŜsza tabela. i 0,1i ki ai=20,5ki+50 KlasyAi 1 2 3 4 5 6 7 8 9 10 0, 1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 -1,28 -0,84 -0,52 -0,25 0,00 0,25 0,52 0,84 1,28 ∞ 23,7 32,7 39,2 44,8 50,0 55,2 60,8 67,5 76,3 ∞ (- ∞ ; 23,7) <23,7 ; 32,7) <32,7 ; 39,2) <39,2 ; 44,8) <44,8 ; 50,0) <50,0 ; 55,2) <55,2 ; 60,8) <60,8 ; 67,5) <67,5 ; 76,3) <76,3 ; ∞) Suma Liczebności ni 10 13 10 8 11 11 5 10 10 12 100 (ni -10)2 0 9 0 4 1 1 25 0 0 4 44 44 = 4, 4 . Zbiór krytyczny prawostronny K = <k ; ∞). Liczbę k 10 wyznaczmy z tablicy rozkładu chi kwadrat dla r-3 = 10 -3 = 7 stopni swobody i poziomu istotności 0,05. Otrzymujemy k = 14,067, zatem K = <14,067 ; ∞). PoniewaŜ un ∉ K więc przyjmujemy hipotezę, cecha X ma rozkład normalny. Wyznaczymy jeszcze graniczny poziom istotności, αˆ = P(Y7 ≥ 4,4) , gdzie Y7 ma rozkład chi kwadrat z 7 stopniami swobody. Na podstawie programu komputerowego otrzymujemy αˆ = 0,73 (tablice są za mało dokładne), co świadczy o bardzo dobrej zgodności rozkładu w próbie z rozkładem hipotetycznym. Zatem wartość sprawdzianu u n = 16.4.4. Test niezaleŜności chi kwadrat Populację badamy ze względu na dwie cechy X i Y , czyli ze względu na zmienną losową dwuwymiarową (X, Y). Ze względu na cechę X populację dzielimy na r grup, zaś ze względu na cechę Y na s grup, zatem ze względu na obie cechy na r ⋅ s grup. Cechy X i Y wyraŜone są więc w skali nominalnej. Zmienna losowa dwuwymiarowa jest skokowa o funkcji prawdopodobieństwa P(X = i, Y = j) = pij dla i = 1, 2, … , r; j = 1, 2, … , s. Podamy teraz test, oparty na teście chi kwadrat, do weryfikacji hipotez o niezaleŜności cech X i Y populacji. Jak wiemy z rachunku prawdopodobieństwa zmienne losowe skokowe są niezaleŜne wtedy i tylko wtedy, gdy P(X = i, Y = j) = P(X = i) P(Y = j) lub w innym zapisie pij = pi.p.j dla i = 1, 2, … , r; j = 1, 2, … , s. Zatem hipoteza H0 (Cechy X i Y są niezaleŜne) moŜe być zastąpiona hipotezą: H0 (Rozkład zmiennej losowej dwuwymiarowej (X, Y) jest skokowy o funkcji prawdopodobieństwa P(X = i, Y = j) = pi. p.j dla i = 1, 2, … , r; j = 1, 2, … , s). Pobieramy z populacji próbę i klasyfikujemy ją ze względu na obie cechy. Oznaczenia: nij - liczba elementów próby naleŜących do grupy o numerze i ze względu na cechę X oraz do grupy o numerze j ze względu na cechę Y, ni. – liczba elementów próby naleŜących do grupy o numerze i ze względu na cechę X, n.j - liczba elementów próby naleŜących do grupy o numerze j ze względu na cechę Y, ni., n.j - liczebności brzegowe. n i. =n i1 +n i2 +…+n is′ n .j =n1j +n 2j +…+n rj′ n = n 1. + n 2. + K + n r. = n .1 + n .2 + K + n .s . 68 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Liczebności te moŜna przedstawić w postaci podanej poniŜej tabeli korelacyjnej Y X 1 2 . r n.j 1 2 n11 n21 … nr1 n.1 n12 n22 … nr2 n.2 … s … n1s n2s … … … nrs … n.s ni. n1. n2. … nr. n. n. j n i⋅ , zaś parametru p.j jest . n n r (n -np ) 2 Wzór na wartość sprawdzianu w teście chi kwadrat u n =∑ i i przybiera teraz postać npi i=1 r s n i. n.j (n ij -nˆ ij )2 , gdzie n̂ ij = . u n =∑∑ n̂ ij n i=1 j=1 Oszacowaniem metodą największej wiarygodności parametru pi. jest Wielkość un jest wartością statystyki Un o rozkładzie w przybliŜeniu chi kwadrat z liczbą stopni swobody równą liczbie wszystkich grup ze względu na obie cechy minus liczba parametrów szacowanych metodą największej wiarygodności minus jeden. Wszystkich grup jest r·s. Parametrów pi jest r, ale naleŜy oszacować tylko r -1 parametrów, gdyŜ r ∑ p =1 i. i z tej równości wyznaczmy r-ty parametr, z tego samego powodu szacujemy tylko s-1 i-1 parametrów p.j. Zatem statystyka Un ma rozkład w przybliŜeniu chi kwadrat o (r-1)(s-1) stopniach swobody, gdyŜ r ⋅ s − (r − 1) − (s − 1) − 1 = rs − r − s − 1 = r(s − 1) − (s − 1) = (r − 1)(s − 1) Przyjmujemy zbiór krytyczny prawostronny K = < k; ∞). Liczbę k odczytujemy z rozkładu chi kwadrat dla (r-1)(s-1) stopni swobody. Jeśli wartość sprawdzianu un ∈ K, to odrzucamy hipotezę zerową H0, Ŝe cechy są niezaleŜne, w przeciwnym przypadku przyjmujemy H0. Przykład 17. 7 W trzech grupach A, B i C pewnej uczelni przeprowadzono egzamin ze statystyki. Postanowiono zbadać, czy istnieje zaleŜność między przynaleŜnością studenta do danego wydziału, a wynikiem egzaminu? Wprowadzamy zmienną losową X przyjmującą wartość 1, gdy student jest z grupy A, liczbę 2, gdy z grupy B oraz liczbę 3, gdy jest z grupy C oraz zmienną losową Y przyjmującą wartość 1, gdy student zdał egzamin lub wartość 0, gdy nie zdał egzaminu. Wysuwamy hipotezy H0 (Cechy X i Y są niezaleŜne) H1 (Cechy X i Y są zaleŜne) Wyniki badania przedstawione są w 6 klasach. Liczebności tych klas oraz liczebności brzegowe zawiera poniŜsza tabela. Y 1 0 ni. X 1 35 5 40 2 45 15 60 3 20 10 30 n.j 100 30 130 69 STATYSTYKA MATEMATYCZNA Obliczamy: - tabelę wartości n̂ ij j 1 30,77 46,15 23,08 i 1 2 3 - tabelę wartości 0 9,23 13,85 6,92 (n ij -nˆ ij )2 n̂ ij j i 1 2 3 1 0,58 0,03 0,41 0 1,94 0,10 1,37 Wartość sprawdzianu to suma zawartości komórek powyŜszej tabeli, jest ona równa un = 4,43. Przyjmujemy poziom istotności α = 0,01. Zbiór krytyczny dla tego testu jest prawostronny K = < k ; ∞) . Liczbę k odczytujemy z tablicy rozkładu chi kwadrat dla (r-1)(s-1) = (3-1)(2-1) = 2 i poziomu prawdopodobieństwa α = 0,01. Mamy k = 9,210, zatem K = < 9,210 ; ∞). PoniewaŜ un ∉ K, więc brak jest podstaw do odrzucenia hipotezy zerowej, co oznacza Ŝe wynik egzaminu nie zaleŜy od grupy, do której student jest zapisany. Hipotezy moŜna zweryfikować bezpośrednio wykorzystując funkcję statystyczną TEST.CHI arkusza Excel. Dane dotyczą liczebności klas nij oraz wartości n̂ ij , które naleŜy wcześniej obliczyć. Wynik formuły 0,10937 jest równy jest równy granicznemu poziomowi istotności α̂ , wyznaczonemu na podstawie wartości wskaźnika un = 4,43 obliczonego bez wykorzystania programu komputerowego, co zilustrowano poniŜej. PoniewaŜ α̂ =0,109 > 0,05 = α więc hipotezę zerową H0 przyjmujemy. 70 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Na zakończenie zweryfikujemy wysunięte hipotezy korzystając z pakietu IBM SPSS Statistics wybierając po wpisaniu danych do 2 kolumn (do pierwszej oznaczenie wydziałow , a do drugiej oznaczenie wyniku egzaminu – dane sa zapisane w 2 kolumnach i 130 wierszach) w kolejności: Analiza → Opis statystyczny → Tabele krzyŜowe i wybierając statystykę Chi-kwadrat: 71 STATYSTYKA MATEMATYCZNA Otrzymane wyniki są następujące: Otrzymaliśmy taką samą wartość statystyki chi-kwadrat = 4,424 jak obliczoną bez wykorzystania programu komputerowego i taką samą graniczną wartość poziomu istotności 0,110 jaką obliczono z wykorzystaniem arkusza Excel. Uwaga KaŜda teoretyczna liczebność n̂ ij powinna wynosić co najmniej 5. Jeśli tak nie jest, to naleŜy dodać do siebie dwa sąsiednie wiersze lub kolumny. Sprawdzian moŜna łatwo obliczyć w przypadku r = s = 2. Wtedy dane zapisane są w tzw. tabeli czteropolowej Y X 1 2 1 2 A C A+C B D B+D A+B C+D n Wtedy sprawdzian przyjmuje postać Un = n(AD-BC) 2 (A+B)(A+C)(B+D)(C+D) i ma rozkład (przy załoŜeniu prawdziwości hipotezy zerowej) asymptotycznie chi kwadrat z jednym stopniem swobody. Uwaga W częśći II podręcznika opisano kolejny test do badania niezaleŜności cech populacji oparty na teorii serii. 72 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Przykład 17.8 Badano wyniki egzaminu końcowego wśród absolwentów gimnazjów duŜych miast (powyŜej 100 tys. mieszkańców) i małych miast (do 100 tys. mieszkańców). Wprowadzamy cechy X i Y, X = 1, gdy absolwent zdawał egzamin w duŜym mieście, X=0, gdy zdawał w małym mieście, natomiast Y =1, gdy absolwent zdał egzamin, Y = 0, gdy nie zdał egzaminu. Wysuwamy hipotezy H0 (Cechy X i Y są niezaleŜne), H1 (Cechy X i Y są zaleŜne).Wyniki próby przedstawione są w tabeli Y 1 0 ni. X 1 360 40 400 0 280 20 300 n.j 640 60 700 Obliczamy wartość sprawdzianu un = 700 ⋅ (360 ⋅ 20 − 40 ⋅ 260)2 = 2, 43 400 ⋅ 640 ⋅ 60 ⋅ 300 Zbiór krytyczny K = <k ; ∞). Przyjmujemy poziom istotności 0,05. Liczbę k wyznaczamy z tablicy rozkładu chi kwadrat dla jednego stopnia swobody i poziomu istotności 0,05, otrzymujemy k = 3,841, zatem K = <3,841 ; ∞). PoniewaŜ un ∉ K, więc hipotezę zerową, Ŝe wynik egzaminu nie zaleŜy od tego, czy absolwent zdawał egzamin w duŜym czy w małym mieście naleŜy przyjąć. 16.5. Testy nieparametryczne dla dwóch prób 16.5.1. Test zgodności rozkładów dla prób niepowiązanych (test Wilcoxona) RozwaŜamy cechy X i Y dwóch populacji. Z kaŜdej populacji pobierany próbę o liczebności odpowiednio równej n1 i n2 (liczebność mniejszej próby oznaczamy n1). Wysuwamy hipotezę zerową, Ŝe rozkłady obu cech są jednakowe. PoniewaŜ rozkład zmiennej losowej określa jej dystrybuanta więc hipotezę zerową moŜna zapisać w postaci H0( FX = FY)29 gdzie: FX i FY są dystrybuantami zmiennych losowych X oraz Y, FX(u) = P(X < u), FY(u) = P(Y < u). Równość FX =FY oznacza, Ŝe dla kaŜdej liczby rzeczywistej u mamy FX(u) = FY(u). Hipotezę alternatywną przyjmujemy w jednej z trzech postaci: H1( FX >FY) lub H1( FX <FY) lub H1( FX ≠FY) Nierówność FX >FY oznacza, Ŝe dla kaŜdej liczby rzeczywistej u mamy FX(u) > FY(u), podobnie rozumiemy nierówność FX <FY. Natomiast wyraŜenie FX ≠ FY oznacza, Ŝe istnieje liczba rzeczywista u taka, Ŝe FX (u) ≠ FY(u). Aby sprawdzić hipotezy zerową i alternatywną łączymy obie próby w jedną próbę o liczebności n = n1 + n2 i porządkujemy ją niemalejąco. Następnie rangujemy elementy uporządkowanej próby, tzn. numerujemy jej elementy kolejnymi liczbami naturalnymi, poczynając od liczby 1. Jeśli w uporządkowanej próbie występują elementy jednakowe, to kaŜdemu z nich przypisujemy tę samą rangę, równą średniej arytmetycznej rang tych elementów, gdyby były one róŜne np. gdyby elementy o numerach 10, 11 i 12 były sobie równe, to kaŜdemu z nich przypisujemy rangę 11, gdyby elementy 15 i 16 były sobie równe, to kaŜdemu z nich przypisujemy rangę 15,5. 29 Patrz pkt 28.1 73 STATYSTYKA MATEMATYCZNA Sprawdzianem testu do weryfikacji wysuniętych hipotez (testu Wilcoxona) jest statystyka Un = suma rang elementów próby o mniejszej liczebności. Rozkład sprawdzianu, przy załoŜeniu prawdziwości hipotezy zerowowej jest dla niewielkich liczebności prób stablicowany (pkt 11 części VII „Tablice statystyczne”. Natomiast, gdy min(n1, n2) ≥ 4 i n1 + n2 ≥ 20, to rozkład sprawdzianu jest w przybliŜeniu N(m, σ), gdzie m= n1 ( n1 +n 2 +1) 2 σ= , n1n 2 ( n1 +n 2 +1) . 12 Przykład 16.10 Analizujemy czas wykonania pewnego zadania przez dwie grupy pracowników. Otrzymane wyniki były następujące: Grupa 1 – cecha X 77,0 54,6 99,9 94,1 98,6 99,9 99,9 72,0 90,2 77,6 100,0 100,0 96,0 92,9 97,2 100,0 Grupa 2 – cecha Y 60,5 86,2 66,3 100,0 Wysunięto hipotezy H0 (Rozkłady cech X i Y mają jednakowe rozkłady), czyli H0(FX=FY). H1 (Rozkłady cech X i Y nie mają jednakowych rozkładów), H1( FX≠FY). Hipotezy te zweryfikujemy za pomocą testu Wilcoxona na poziomie istotności 0,05. Wyniki obu prób oraz ich łączenie i rangowanie elementów próby połączonej przedstawione są w poniŜszej tabeli. Obliczamy rangi elementów obu prób. Lp. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 I próba II próba wynik Ranga wynik ranga 54,6 1 60,5 2 66,3 3 72,0 4 77,0 5 77,6 6 86,2 7 90,2 8 92,2 9 94,1 10 96,0 11 97,2 12 98,6 13 99,9 15 99,9 15 99,9 15 100,0 18,5 100,0 18,5 100,0 18,5 100,0 18,5 Uwzględniając, Ŝe n1 = 4, n2 =16 wyznaczamy wartość sprawdzianu un = suma rang elementów próby o mniejszej liczności un = 2 + 3 + 7 + 18.5 = 30.5 74 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Skorzystamy z asymptotycznej własności statystyki Un: Un ma rozkład w przybliŜeniu normalny N(m, σ), gdzie m= n1 ( n1 +n 2 +1) =42 , σ= n1n 2 ( n1 +n 2 +1) =10,58 . 12 2 U 42 Czyli statystyka ma rozkład w przybliŜeniu normalny N(0,1), przy załoŜeniu U*n = n 10,58 prawdziwości hipotezy zerowej. Przyjmujemy zbiór krytyczny dwustronny, na poziomie istotności 0,05 K = (-∞ ; -k> ∪ <k ; ∞). Liczba k spełnia związek Φ(k) = 1 –α/2 =0,975 ⇒ k = 1,96 u -42 30,5-42 K= (-∞ ; -1,96> ∪ <1,96 ; ∞) u*n = n = =-1,09 10,58 10,58 PoniewaŜ un ∉ ,K, więc nie ma podstaw, by twierdzić, Ŝe cechy X i Y mają róŜne rozkłady, co oznacza, Ŝe .przyjmujemy hipotezę zerową. Obliczymy jeszcze krytyczny poziom istotności αˆ Spełnia on związek Φ (1, 09) = 1 − Stąd αˆ = 2(1 − Φ (1, 09)) = 2(1 − 0,8621) = 0, 2758 . 2 Na zakończenie zweryfikujemy wysunięte hipotezy korzystając z pakietu IBM SPSS Statistics wybierając po wpisaniu danych do 2 kolumn (do pierwszej wyniki pomiarów , a do drugiej określenie której grupy dotyczą) w kolejności: Analiza → Testy nieparametryczne → Próby niezaleŜne30 oraz określając Testowane zmienne i Zmienną grupującą. Otrzymany wynik Istotność = 0,275 jest taki sam jak wyznaczony bez wykorzystania programu komputerowego graniczny poziom istotności. 16.5.2. Test zgodności rozkładów dla prób powiązanych (test rangowanych znaków) Z populacji losujemy n elementów i badamy wartości cechy X w dwóch momentach początkowym i końcowym. Niech X1 będzie cechą oznaczającą wartości cechy X w momencie początkowym, a X2 cechą oznaczającą wartości cechy X w momencie końcowym. Otrzymujemy dwie próby (powiązane) n elementowe, pierwsza próba (x11, x12, … , x1n), druga próba (x21, x22, … , x2n). Obliczamy róŜnice x1i – x2i między elementami I i II próby, sortujemy je niemalejąco i rangujemy (numerujemy) liczbami od 1 do n. Przyjmujemy sprawdzian Un = suma rang róŜnic dodatnich Dla liczności 3 ≤ n ≤ 20 rozkład dokładny statystyki Un jest stablicowany (pkt 12 części VII „Tablice statystyczne”). Dla n > 20 statystyka ta ma rozkład asymptotycznie normalny N(m, σ), gdzie m= 30 n ( n+1) 4 , σ= n ( n+1)( 2n+1) . 24 W pakiecie IBM SPSS Statistics test ten nosi nazwę Test U Manna-Whitney’a dla prób niezaleznych 75 STATYSTYKA MATEMATYCZNA Przykład 16.11 Na poziomie istotności α=0,001 weryfikuje się hipotezę o równości stochastycznej czasu wykonywania pewnego zadania przed i po szkoleniu. Uwzględnia się, Ŝe dotychczasowe badania wykazały skrócenie czasu wykonywania zadania na skutek szkolenia. Zatem weryfikowane hipotezy mają postać: H 0 FX1 = FX2 ( ) H1 (FX1 > FX2 ) X1 – czas wykonania zadania przed szkoleniem, X2 - czas wykonania zadania po szkoleniu. Przebieg wyznaczania rang przedstawiono w poniŜszej tabeli: i x1i x2i x1i-xi2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 0,71 2,2 2,12 1,40 3,24 2,79 3,59 1,90 0,81 2,54 0,60 1,31 1,28 1,93 3,84 0,08 0,20 0,11 0,17 0,12 0,36 0,21 0,53 0,13 0,18 0,19 0,22 0,29 0,19 0,22 0,49 0,32 0,51 2,09 1,95 1,28 2,88 2,58 3,06 1,77 0,63 2,35 0,38 1,02 1,09 1,71 3,35 -0,24 Uporządkowane Rangi róŜnice róŜnic -0,24 1 0,38 2 0,51 3 0,63 4 1,02 5 1,09 6 1,28 7 1,71 8 1,77 9 1,95 10 2,09 11 2,35 12 2,58 13 2,88 14 3,06 15 3,35 16 Z podanej tabeli otrzymuje się sumę rang dla róŜnic dodatnich Un = 135. Przyjmujemy zbiór krytyczny prawostronny K = <k ; ∞). Z tablicy wyznaczamy k = 122, zatem hipotezę zerową H0, Ŝe cechy mają jednakowy rozkład naleŜy odrzucić. Na zakończenie zweryfikujemy wysunięte hipotezy korzystając z pakietu IBM SPSS Statistics wybierając po wpisaniu danych do 2 kolumn (do pierwszej wyniki pomiarów z I okresu , a do drugiej z II okresu) w kolejności: Analiza → Testy nieparametryczne → Testy tradycyjne → Dwie próby zaleŜne → Test Wilcoxona31. 31 W pakiecie IBM SPSS Statistics test ten nosi nazwę Test znaków rangowanych Wilcoxona 76 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Otrzymane wyniki są następujące: Otrzymano taką samą wartość statystyki Suma rang dodatnich = 135 16.6. Algorytmizacja obliczeń 16.6.1. Wykorzystanie arkusza Excel Lp Zakres analizy statystycznej Funkcje statystyczne Narzędzia statystyczne 1. Weryfikacja hipotezy o wartości oczekiwanej przy znanej i nieznanej wariancji TEST.Z - 2. Weryfikacja hipotezy o równości wartości oczekiwanych przy równych wariancjach TEST.T Test t: z dwiema próbami zakładający równe wariancje 3. Weryfikacja hipotezy o równości wartości oczekiwanych przy róŜnych wariancjach TEST.T Test t: z dwiema próbami zakładający nierówne wariancje 4. Weryfikacja hipotezy o równości wartości oczekiwanych przy próbach powiązanych TEST.T Test t: par skojarzonych z dwiema próbami dla średniej 5. Weryfikacja hipotezy o równości wariancji TEST.F Test F: z dwiema próbami dla wariancji 6. Weryfikacja hipotezy o niezaleŜności cech TEST.CHI - 77 STATYSTYKA MATEMATYCZNA 16.6.2.Zasady wyboru testu przy dwóch próbach Na poniŜszym rysunku przedstawiono schemat blokowy wyboru testów do oceny istotności róŜnic rozkładu określonej cechy w dwóch warunkach. Początek Czy próby powiązane NIE TAK Skala cechy PRZEDZ. PORZĄDK. Skala cechy NOMINALNA NOMINALNA PRZEDZ. PORZĄDK. Czy cecha ma rozkład normalny18 Małe liczności prób Czy cecha ma rozkład normalny18 TAK NIE TAK NIE Test Studenta dla prób powiązanych Test rangowanych znaków NIE Czy wariancje cechy przy 2 warunkach równe TAK NIE Test Studenta dla prób niepowiązanych Test Cochrana - Coxa TAK Czy próby powiązane Test Wilcoxona TAK NIE Test McNemara Test chi kwadrat Test dokładny Fishera Koniec Rys. 18.1. Schemat blokowy wyboru testów statystycznych do oceny istotności róŜnic rozkładu cechy w dwóch róŜnych warunkach Wszystkie te testy zostały opisane lub wspomniane32 w dotychczasowych rozwaŜaniach. 32 W zaleŜności od liczebności póby stosuje się test zgodności chi-kwadrat lub test Shapiro-Wilka. Test McNemary i test dokładny Fishera, a takŜe test Shapiro-Wilka umoŜliwiający ocenę normalności rozkładu na podstawie prób o małych liczebnościach zostały opisane w części drugiej podręcznika. 78 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 17. ANALIZA KORELACJI I REGRESJI DWÓCH ZMIENNYCH 17.1. Wprowadzenie Badamy populację ze względu na dwie cechy, które modelujemy zmiennymi losowymi X i Y. Mówimy wówczas, Ŝe populacja jest badana ze względu na zmienną losową dwuwymiarową (X, Y), zaś populację nazywamy populacją dwuwymiarową. Próba z populacji dwuwymiarowej jest to ciąg n wyrazowy zmiennych losowych dwuwymiarowych (17.1) (X1 ,Y1 ), (X 2 ,Y2 ), ...,(X n ,Yn ) 33 niezaleŜnych (dwuwymiarowo) o jednakowym rozkładzie takim jak rozkład zmiennej losowej dwuwymiarowej (X, Y). KaŜdy ciąg (x1 ,y1 ), (x 2 ,y 2 ), ...,(x n ,yn ) (17.2) będący wartością próby (17.1) nazywamy realizacją próby z populacji dwuwymiarowej. Przedmiotem rozwaŜań w tym rozdziale będą następujące zagadnienia oparte o próbę z populacji dwuwymiarowej: • Analiza korelacji, tzn. wywnioskowanie o sile związku liniowego między cechami X i Y. • Analiza regresji (prowadzona, jeŜeli siła związku liniowego jest duŜa) aproksymowanie związku między cechami zaleŜnością liniową. Podstawą rozwaŜań będą statystyki z próby dwuwymiarowej (X1 ,Y1 ),(X 2 ,Y2 ), ...,(X n ,Yn ) 1 n 1 n Xi , Y= ∑ Yi - średnie z próby odpowiednio cechy X i cechy Y ∑ n i=1 n i=1 n 1 1 n X 2 = ∑ X i2 , Y 2 = ∑ Yi2 - momenty rzędu 2 z próby odpowiednio cechy X i cechy Y n i=1 n i=1 n 1 1 n S2X = ∑ (X i -X)2 , S2Y = ∑ (Yi -Y)2 - wariancje z próby odpowiednio cechy X i Y n i=1 n i=1 n 1 (XY) = ∑ X i Yi - moment rzędu 2 z próby mieszany cech X i Y n i=1 X= 1 n 1 n (Xi -X) 2 , SY2 = (Yi -Y) 2 - odchylenia standardowe z próby cechy X i Y ∑ ∑ n i=1 n i=1 n 1 COVXY = ∑ (X i -X)(Yi -Y) - kowariancja z próby cech X i Y n i=1 COVXY R= - współczynnik korelacji Pearsona z próby cech X i Y. SXSY S2X = Związki między statystykami SX 2 =X 2 -(X) 2 , SY 2 =Y 2 -(Y)2 COVXY =(XY)-XY R= 33 (XY)-XY 2 X -(X) 2 Y 2 -(Y) 2 Zmienne losowe dwuwymiarowe (X1,Y1) i (X2,Y2) są niezaleŜne (dwuwymiarowo) jeśli dystrybuanta zmiennej losowej czterowymiarowej (X1,Y1,X2,Y2) jest równa iloczynowi dystrybuant zmiennych losowych dwuwymiarowych (X1,Y1) i (X2,Y2). 79 STATYSTYKA MATEMATYCZNA 17.2. Analiza korelacji 17.2.1. Uwagi wstępne Jak juŜ było powiedziane, w dziale statystyki zwanym analizą korelacji bada się czy istnieje zaleŜność między cechami populacji i jaka jest siła tej zaleŜności. Ograniczymy się do badania istnienia i siły związku liniowego. Jak juŜ wiemy do tego celu słuŜy współczynnik korelacji ρ badanych cech populacji. Rzecz jednak w tym, Ŝe w zagadnieniach praktycznych wartość tego współczynnika nie jest znana. NaleŜy zatem wnioskować o ρ na podstawie próby. Stąd nazwa działu statystyki, który podaje reguły wnioskowania o tym parametrze. Analiza korelacji opiera się na poniŜszych twierdzeniach, które są prawdziwe przy załoŜeniu, Ŝe zmienna losowa dwuwymiarowa (X, Y) ze względu na którą badana jest populacja ma rozkład normalny o współczynniku korelacji ρ . 1-ρ 2 Tw.17.1. Współczynnik korelacji z próby R ma rozkład asymptotycznie normalny N ρ, . n (Zgodność rozkładu R z rozkładem normalnym jest dobra dopiero dla wielkich prób n ≥ 500). 1 1+R Tw.17.2. Statystyka U n = ln ma rozkład asymptotycznie normalny 2 1-R 1 1+ρ N ln , 2 1-ρ 1 . n-3 (Zgodność rozkładu Un z rozkładem normalnym jest dobra nawet dla niewielkich prób n ≥ 20). R Tw.17.3. Jeśli cechy X i Y są nieskorelowane (ρ = 0), to statystyka U n = n-2 ma rozkład 1-R 2 Studenta z n –2 stopniami swobody. Uwaga: PoniewaŜ załoŜono, Ŝe (X,Y) ma rozkład normalny i ρ = 0, więc cechy X i Y są niezaleŜne. 17.2.2. Estymacja współczynnika korelacji cech populacji Przyjmujemy, Ŝe estymatorem współczynnika korelacji ρ cech X i Y populacji jest współczynnik korelacji R z próby34. Jego wartość wyznaczana na podstawie próby (x1 , y1 ),..., (x n , y n ) wynosi r= cov xy sxs y 1 n ∑ (x − x)(yi − y) n i =1 i = = x⋅y−x⋅y n 1 n 2 1 2 x 2 − (x)2 y 2 − (y)2 ∑ (x i − x) ∑ (yi − y) n i =1 n i =1 Estymator R jest estymatorem zgodnym i asymptotycznie nieobciąŜonym współczynnika ρ. Do wyznaczania oceny r estymatora R wygodnie jest korzystać ze wzoru r= n n n n ∑ x i yi - ∑ x i ∑ yi i=1 i=1 i=1 n n n∑ xi2 - ∑ xi i=1 i=1 34 2 n n n ∑ yi 2 - ∑ yi i=1 i=1 2 Współczynnik ten nazywany jest często współczynnikiem korelacji Pearsona. Jest on estymatorem uzyskanym metodą momentów oraz przy załoŜeniu, Ŝe (X, Y) ma rozkład normalny - metodą największej wiarogodności. 80 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE A. Jeśli cechy X i Y populacji mają łączny rozkład normalny o współczynniku korelacji ρ i liczebność próby n ≥ 20 , to przedziałem ufności dla ρ , na poziomie ufności 1− α jest przedział e2A − 1 e 2A +1 ; e2B − 1 e 2B +1 , gdzie A = uα uα 1 1+ R 1 1+ R , B = ln − + ln 2 1− R 2 1− R n −3 n −3 α 2 W konstrukcji tego przedziału ufności korzystamy z tw. 17.2. u α wyznaczamy z równości Φ (u α ) = 1 − Przykład 17.1 Przy badaniu zaleŜności cech X i Y otrzymano na podstawie próby 25 elementowej współczynnik korelacji 0,63. Na poziomie ufności 0,98 oszacujemy przedziałem ufności współczynnik korelacji ρ obu cech. Zakładamy, Ŝe cechy te mają łączny rozkład normalny. Rozwiązanie α = 0, 99 ⇒ u α = 2,33 2 uα 1 1+ r 1 1 + 0, 63 a = ln − = ln − 2 1− r n − 3 2 1 − 0, 63 uα 1 1+ r 1 1 + 0, 63 b = ln + = ln + 2 1− r n − 3 2 1 − 0, 63 Φ (u α ) = 1 − e2a − 1 e 2a + 1 ; e 2a − 1 e 2a + 1 = e2⋅0,245 − 1 e2⋅0,245 + 1 ; 2, 33 = 0, 245 25 − 3 2,33 = 1, 238 25 − 3 ⋅ e 21,238 −1 e2⋅1238 + 1 =< 0, 24 ; 0,83 > Odp. <0,24 ; 0,83> B. Jeśli cechy X i Y populacji mają łączny rozkład normalny o współczynniku korelacji ρ , to przedziałem ufności dla ρ , na poziomie ufności 1 – α jest przedział R − uα 1− R2 ; R + uα 1− R2 , gdzie Φ (u α ) = 1 − α , dla licznej próby n ≥ 500 2 n n Przy konstrukcji tego przedziału ufności korzystamy z tw. 17.1. Przykład 17.2 Badano zaleŜność między prędkością samochodu (cecha X) a jego drogą zatrzymania (cecha Y). Na podstawie próby 900 elementowej otrzymano współczynnik korelacji 0,85. Zakładając, Ŝe (X, Y) ma rozkład normalny, oszacuj współczynnik korelacji cech X i Y na poziomie ufności 0,96. Rozwiązanie n = 900 r = 0,85, 1 – α = 0,96 α Φ (u α ) = 1 − = 1 – 0,04/2= 0,98 ⇒ u α =2,05 2 1-r 2 1-0,852 r-ε: r+ε ε = u α =2,05 = 0,019 n 900 <0,85 – 0,019; 0,85 + 0,019> = <0,831; 0,869> Odp. <0,831; 0,869> 81 STATYSTYKA MATEMATYCZNA 17.2.3. Weryfikacja hipotez o współczynniku korelacji Badana jest populacja ze względu na zmienną losową dwuwymiarową (X, Y) o rozkładzie normalnym i współczynniku korelacji ρ, którego wartość nie jest znana. O współczynniku ρ wysuwamy hipotezy: zerową H 0 (ρ=ρ0 ) i alternatywną w postaci H1 (ρ=ρ1 ) lub H1 (ρ>ρ0 ) lub H1 (ρ < ρ0 ) lub H1 (ρ ≠ ρ0 ) . PowyŜsze hipotezy zerową i alternatywną naleŜy zweryfikować na poziomie istotności α. Przyjmujemy, Ŝe sprawdzianem jest statystyka 1 1+R 1 1+ρ0 U n = ln - ln n-3 2 1-R 2 1-ρ0 Rozkład statystyki U n /ρ0 dla n ≥ 20 mało róŜni się od rozkładu normalnego N(0, 1) (tw. 17.2). PowyŜsze informacje i sposób wyznaczenia zbioru krytycznego przedstawiamy w tabeli Tabela 17.1. Testy do weryfikacji hipotezy o współczynniku korelacji H1 H1 (ρ>ρ0 ) H1 (ρ < ρ0 ) H1 (ρ ≠ ρ0 ) Sprawdzian Un Rozkład sprawdzianu 1 1+R 1 1+ρ0 - ln ln n-3 2 1-R 2 1-ρ0 W przybliŜeniu N(0,1) dla liczebności próby n > 20 < k ;∞ ) Wyznaczanie liczby k Φ (k) = 1 − α Nr testu KR-1 (−∞ ; − k > Φ (k) = 1 − α KR-2 Zbiór krytyczny K (−∞ ; − k > ∪ < k ; ∞ ) Φ (k) = 1 − α / 2 KR-3 Przykład 17.3 Badano zaleŜność między ceną jednostkową towaru (cecha X) a popytem na ten towar (cecha Y). Na podstawie próby 28 elementowej otrzymano współczynnik korelacji - 0,86. Na poziomie istotności 0,03 sprawdzimy hipotezy: zerową, Ŝe współczynnik korelacji w populacji jest równy -0,90 i alternatywną, Ŝe jest większy od - 0,90. Rozwiązanie n = 28, r = -0,86, α = 0,03, H 0 (ρ = -0,90) , H1 (ρ > -0,90) Stosujemy test nr KR-1. Obliczamy wartość sprawdzianu 1 1+r 1 1+ρ0 1 1-0,86 1 1-0,90 un = ln - ln - ln n-3 = ln 28-3=0,89 2 1+0,86 2 1+0,90 2 1-r 2 1-ρ0 Wyznaczamy zbiór krytyczny K = < k ; ∞ ), Φ (k) = 1 − α = 1 – 0,03 = 0, 97 ⇒ k = 1,88 K = < 1,88 ; ∞ ) Podejmujemy decyzję: poniewaŜ u n ∉ K , więc hipotezę zerową przyjmujemy. Na zakończenie rozwaŜań zajmiemy się weryfikacją hipotez o istotności współczynnika korelacji. Badana jest populacja ze względu na zmienną losową dwuwymiarową (X, Y) o rozkładzie normalnym, o współczynniku korelacji ρ, którego wartość nie jest znana. O współczynniku ρ wysuwamy hipotezę zerową H 0 (ρ = 0) tzn., Ŝe wartość współczynnika korelacji jest nieistotna i jedną z poniŜszych hipotez alternatywnych • H1 (ρ = ρ1 ) - wartość współczynnika korelacji jest istotna i równa ρ1 , • H1 (ρ > 0) - wartość współczynnika korelacji jest istotnie dodatnia, • H1 (ρ < 0) - wartość współczynnika korelacji jest istotnie ujemna, • H1 (ρ ≠ 0) - wartość współczynnika korelacji jest istotna. PowyŜsze hipotezy zerową i alternatywną naleŜy zweryfikować na poziomie istotności α. Uwaga: Hipoteza zerowa H 0 (ρ = 0) oznacza, Ŝe zmienne losowe są nieskorelowane, a poniewaŜ z załoŜenia mają dwuwymiarowy rozkład normalny, więc są niezaleŜne. 82 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Przyjmujemy, Ŝe sprawdzianem jest statystyka Un = R n-2 1-R 2 Rozkład statystyki U n / ρ = 0 ma rozkład Studenta z n-2 stopniami swobody (tw.17.3). PowyŜsze informacje i sposób wyznaczenia zbioru krytycznego przedstawiamy w tabeli. Tabela17.2. Testy do weryfikacji hipotezy o istotności współczynnika korelacji H1 Sprawdzian Un Rozkład sprawdzianu H1 (ρ > 0) H1 (ρ < 0) H1 (ρ ≠ 0) Un = Zbiór krytyczny K K = < k ;∞ ) R n−2 K = (−∞ ; − k > 1− R2 Studenta z n – 2 stopniami K= (−∞ ; − k > ∪ < k ; ∞ ) swobody Wyznaczanie liczby k P ( Tn-2 ≥ k ) = 2α Nr testu KR-4 P ( Tn-2 ≥ k ) = 2α KR-5 P ( Tn-2 ≥ k ) = α KR-6 Tn-2 - zmienna losowa o rozkładzie Studenta z n – 2 stopniami swobody. Przykład 17.4. Z populacji dwuwymiarowej o rozkładzie normalnym pobrano próbę 11 elementową i obliczono, Ŝe współczynnik korelacji z tej próby wynosi 0,2. Na poziomie istotności 0,01 sprawdź czy współczynnik w populacji badanych cech jest istotny. Rozwiązanie n =11, r = 0,2, α = 0,01, H 0 (ρ = 0) , H1 (ρ ≠ 0) Stosujemy test KR-6. Wartość sprawdzianu na podstawie próby r 0,2 un = n-2= 11-2=0,61 2 1-r 1-0,22 Zbiór krytyczny K = (−∞ ; − k > ∪ < k ; ∞ ) Wyznaczanie k: P ( T9 ≥ k ) = 0, 01 ⇒ k = 3,25, K = (−∞ ; − 3,25 > ∪ < 3,25 ; ∞ ) Decyzja: poniewaŜ u α ∉ K , więc hipotezę zerową H 0 (ρ = 0) przyjmujemy. Odp. Nie ma podstaw do twierdzenia, Ŝe współczynnik korelacji jest istotny. 83 STATYSTYKA MATEMATYCZNA Przykład 17.4a Na zakończenie obliczymy współczynnik korelacji dla danych z przykładu 2.24 podanego w części „Statystyka opisowa” korzystając z pakietu IBM SPSS Statistics wybierając po wpisaniu danych do 2 kolumn (do pierwszej wyniki egzaminu z matematyki, a do drugiej wyniki egzaminu ze statystyki) w kolejności: Analiza → Korelacje parami → Współczynnik korelacji Pearsona. Otrzymane wyniki są następujące: Otrzymaliśmy oczywiście taki sam wynik z dodatkową oceną, Ŝe współczynnik korelacji jest istotnie róŜny od zera na poziomie istotności 0,01. 17.2.4. Współczynnik korelacji Spearmana Współczynnik korelacji Spearmana słuŜy do badania siły związku liniowego między cechami niemierzalnymi w skali porządkowej. Losujemy z populacji n elementów. Porządkujemy je wg wariantów pierwszej cechy i rangujemy, następnie porządkujemy wg wariantów drugiej cechy, takŜe rangujemy. W ten sposób otrzymujemy ciąg n wyrazowy par liczb rzeczywistych, który jest próbą z populacji dwuwymiarowej, badanej ze względu na zmienną losową dwuwymiarową (X, Y), gdzie X i Y są modelami cech. Współczynnik korelacji Spearmana cech w skali porządkowej jest to współczynnik korelacji Pearsona rang tych cech i wyraŜa się wzorem 6su r'=1, n ( n 2 -1) n gdzie: su - suma kwadratów róŜnic pomiędzy rangami elementów próby, tzn. su= ∑ [k i -li ]2 , przy czym i=1 (k i ,li ) - rangi elementu próby o numerze i. PoniewaŜ współczynnik Spearmana r’ jest szczególnym przypadkiem współczynnika korelacji (Pearsona), więc ma wszystkie jego własności i tak: -1 ≤ r’ ≤ 1 r′ = 1 ⇔ , gdy kaŜdy element próby ma rangi obu cech jednakowe r′ = −1 ⇔ , gdy suma rang obu cech populacji jest stała Jeśli rangi ki i si w kaŜdej parze rang (k i ,li ) są wartościami zmiennych losowych niezaleŜnych, to r′ = 0 . 84 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE W wypadku występowania takich samych elementów próby, czego konsekwencją jest przyporządkowanie im takich samych rang (równych średniej arytmetycznej rang przy róŜnej wartości elementów) nie moŜna obliczać współczynnika korelacji Spearmana, gdyŜ wzór na ten współczynnik został wyprowadzony przy załoŜeniu, iŜ wszystkie rangi ki są róŜne i wszystkie rangi li są róŜne. MoŜna wprawdzie w tej sytuacji wprowadzać pewne poprawki, w rezultacie czego wzór na współczynnik ulega zmianie, wydaje się jednak, Ŝe prościej jest obliczyć wówczas współczynnik korelacji Pearsona. Współczynnik korelacji Spearmana moŜna takŜe stosować do badania siły korelacji liniowej cech w skali przedziałowej, naleŜy jednak najpierw przetransformować próbę na skalę porządkową. Przykład 17.5 Z populacji pracowników pewnej firmy pobrano próbę 16 elementową, w celu zbadania siły korelacji liniowej między wiekiem - X, a wagą - Y. X 28 34 30 42 27 38 41 20 21 23 18 42 28 40 31 43 Y 77 54,6 99,9 94,1 98,6 99,9 99,9 72 90,2 77,6 100 100 96.0 92,9 97,2 100 Próby posortowane wg wieku Wiek Waga 18 100 20 72 21 90,2 23 77,6 27 98,6 28 77 28 96.0 30 99,9 31 97,2 34 54,6 38 99,9 40 92,9 41 99,9 42 94,1 42 100 43 100 Rangi wieku 1 2 3 4 5 6,5 6,5 8 9 10 11 12 13 14,5 14,5 16 Próby posortowane wg wagi Wiek Waga 34 54,6 20 72 28 77 23 77,6 21 90,2 40 92,9 42 94,1 28 96 31 97,2 27 98,6 30 99,9 38 99,9 41 99,9 18 100 42 100 43 100 Rangi wieku 10 2 6,5 4 3 12 14,5 6,5 9 5 8 11 13 1 14,5 16 Rangi wagi Kwadrat róŜnicy rang 1 2 3 4 5 6 7 8 9 10 12 12 12 15 15 15 Suma 81 0 12,25 0 4 36 56,25 2,25 0 25 16 1 1 196 0,25 1 432 Zatem su = 432, czyli współczynnik korelacji Spearmana 6su 6 ⋅ 432 r'=1= 1− = 0, 364706 2 26 ⋅ 255 n ( n -1) Współczynnik korelacji rang r1 = 0,360004, współczynnik korelacji w próbie r = 0,30568. Na zakończenie zweryfikujemy wysunięte hipotezy korzystając z pakietu IBM SPSS Statistics wybierając po wpisaniu danych do 2 kolumn (do pierwszej wyniki pomiarów wagi , a do drugiej wyniki pomiarów wzrostu) w kolejności: Analiza → Korelacje parami → Współczynnik korelacji Spearman. 85 STATYSTYKA MATEMATYCZNA Otrzymane wyniki są następujące: Otrzymany wartość współczynnika = 0,36 jest taka sama jak wyznaczona wyznaczony. Dodatkowo został wyznaczony graniczny poziom istotności. 86 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE 17.2.5. Współczynnik korelacji Cramera Badamy siłę zaleŜności stochastycznej dwóch cech populacji X i Y. Cechę X dzielimy na r grup, zaś Y na s grup, zatem wszystkich grup otrzymujemy rs. Stosując oznaczenia z punktu 17.6 obliczamy wartość sprawdzianu z testu chi kwadrat zastosowanego do badania niezaleŜności cech r s (n ij -nˆ ij )2 (17.3) u n = ∑∑ n̂ ij i=1 j=1 n n.j gdzie: n̂ ij = i. n Współczynnik korelacji Cramera jest to parametr v określony wzorem u v= n w gdzie: un - jest określone wzorem (17.3), a w = n ⋅ min (r-1,s-1) , Współczynnik Cramera przyjmuje wartości z przedziału <0,1>. Interpretacja Z rozwaŜań przeprowadzonych w punkcie 17.6 wynika, Ŝe gdy un jest równe zeru, to cechy są niezaleŜne, natomiast, gdy ma wartość maksymalną, to moŜna wykazać iŜ zaleŜność między cechami jest funkcyjna. Zatem współczynnik Cramera im bliŜszy jest zeru, tym bardziej zaleŜność stochastyczna cech słabnie, im bliŜszy jest 1, tym zaleŜność ta staje się mocniejsza, aby w przypadku v =1 stać się zaleŜnością funkcyjną. Zatem: współczynnik Cramera cech X i Y jest miarą siły zaleŜności stochastycznej cech X i Y populacji. Przykład 17.6 Obliczymy współczynnik Cramera cechy X - skuteczność leczenia i cechy Y - płeć pacjenta, na podstawie danych przedstawionych w tabeli kontygencyjnej Skuteczność leczenia Razem 1 2 3 1 4 2 2 8 2 12 2 1 15 Razem 16 4 3 23 Płeć Obliczenia n̂ ij 5,6 10,4 1,4 2,6 1,0 2,0 PoniewaŜ kolumny druga i trzecia są mało liczne, łączymy je w jedną kolumnę j i 1 2 n.j 1 2 ni. 4 12 16 4 3 7 8 15 23 PoniewaŜ dane zgrupowane są w 4 klasach, więc stosujemy wzór ( patrz punkt 17.6) un = n(ad-bc) 2 23 ⋅ (4 ⋅ 3 − 4 ⋅12) 2 = = 2, 22 (a+b)(a+c)(b+d)(c+d) 8 ⋅16 ⋅15 ⋅ 7 v= 2, 22 = 0,32 23 ⋅1 87 STATYSTYKA MATEMATYCZNA 17.3. Analiza regresji 17.3.1. Uwagi wstępne Jeśli w analizie korelacji stwierdzono, Ŝe siła zaleŜności liniowej cech populacji jest duŜa (współczynnik korelacji ρ ma moduł bliski jedności), to zaleŜność stochastyczną cech moŜna aproksymować zaleŜnością liniową, czyli wyznaczyć regresję linową cechy Y względem cechy X (lub odwrotnie) i prostą regresji. Jak juŜ wiemy regresja liniowa wyraŜa się wzorem ) Y = α Y X + β Y regresja liniowa (teoretyczna) cechy Y względem cechy X ) y = α Y x + β Y równanie prostej regresji cechy Y względem cechy X Współczynniki regresji α Y i β Y są wyznaczone zgodnie z zasadą najmniejszych kwadratów, tzn. tak, by funkcja g(α,β) = E[Y – (αX + β)]2 miała w punkcie (αY , βY) wartość najmniejszą. σY ρ, βY = m 01 − α Y m10 (pkt 4.5) σX Jednak w zagadnieniach praktycznych nie są znane wartości α Y i β Y współczynników regresji. Dlatego muszą być one oszacowane na postawie próby. Na podstawie tej zasady obliczamy, Ŝe α Y = 17.3.2. Estymatory współczynników regresji Wyznaczymy estymatory AY oraz BY współczynników regresji α Y i β Y . Metoda m omentów Jak juŜ wiemy metoda momentów estymacji parametrów polega na przyjęciu, Ŝe estymatorem momentu populacji jest będący jego odpowiednikiem moment z próby, natomiast estymatorem funkcji momentów w populacji jest ta sama funkcja momentów z próby. Stosując tą metodę S stwierdzamy, Ŝe estymatorem parametru α Y jest statystyka A Y = Y R , zaś estymatorem SX współczynnika βY jest statystyka BY = Y − A Y X . Metoda największej wiarygodności Zakładamy dodatkowo, Ŝe cecha Y ma rozkład normalny N( α Y x + βY , σ) ), dla kaŜdego x. MoŜna s wykazać, Ŝe estymatory współczynników regresji mają postać: α Y = Y r, βY = y − α Y x . sY Zatem są one są identyczne z estymatorami otrzymanymi metodą momentów. Metoda najmniejszych kwadratów Metoda najmniejszych kwadratów znajdowania estymatorów współczynników regresji α Y i βY polega na wyznaczeniu takich ocen tych parametrów, by funkcja n K(α Y , βY ) = ∑ (yi − α Y x i − βY )2 i =1 dla tych ocen miała wartość najmniejszą. Porównując tę funkcję z funkcją S(α Y , βY ) stwierdzamy, Ŝe funkcja K ma wartość najmniejszą w tym punkcie, w którym funkcja S ma wartość największą, a więc oceny i estymatory współczynników regresji uzyskane metodą najmniejszych kwadratów są identyczne, jak w metodzie największej wiarygodności. Podsumowanie Estymatorami współczynników regresji są S współczynnika α Y statystyka A Y = Y R (17.4) SX współczynnika βY statystyka BY = Y − A Y X 88 (17.5) PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Regresja liniowa z próby Zmienną losową ) Y = a YX + bY nazywamy regresją liniową z próby (empiryczną) cechy Y względem cechy X, zaś równanie ) y = a Y x + bY równaniem prostej regresji z próby cechy Y względem cechy X, gdzie aY i bY są wartościami (obliczonymi na podstawie próby) statystyk (17.4) i (17.5). W poniŜszej tabeli w pierwszej kolumnie podane są wzory na współczynniki regresji liniowej oraz na niektóre parametry związane z tą regresją, druga kolumna zawiera estymatory parametrów z pierwszej kolumny, natomiast trzecia kolumna zawiera oceny tych parametrów. Tabela 17.3. Podstawowe wzory w analizie regresji liniowej Nazwa parametru z populacji Wzór na parametr Współczynnik regresji α Y cechy Y względem cechy X σ αY = Y ρ σX Nazwa parametru z próby Wzór na parametr Wzór na realizację parametru Współczynnik regresji A Y z próby cechy Y względem cechy X AY = n n n i =1 i =1 i =1 2 n ∑ x i yi − ∑ x i ⋅ ∑ yi SY R SX = n n n ∑ xi2 − ∑ xi i =1 i =1 Współczynnik regresji BY z próby cechy Y względem cechy X Współczynnik regresji βY cechy Y względem cechy X βY = m01 − α Y m10 sY cov XY r= = sX s 2X aY = bY = y − a Y x BY = Y − A Y X Wariancja resztowa cechy Y względem cechy X ) ) σ2r = D 2 (Y − Y) = E(Y − Y)2 = = σY 2 (1 − ρ2 ) Odchylenie standardowe resztowe cechyY względem cechy X ) σr = D(Y − Y) = σY 1 − ρ2 Wariancja resztowa z próby cechy Y względem cechy X S2r = ) 2 1 n ∑ (Yi − Yi ) 35 n − 2 i =1 s 2r = ) 2 1 n ∑ (Yi − Yi ) n − 2 i=1 Sr = n 2 2 (1 − r 2 )s Y ≈ (1 − r 2 )s Y n−2 = Odchylenie standardowe resztowe z próby cechy Y względem cechy X 1 n ) 2 ∑ (yi − yi ) = n − 2 i =1 sr = 1 n ) ( yi − yi ) 2 = ∑ n − 2 i =1 n (1 − r 2 )s Y ≈ 1 − r 2 s Y n−2 = Współczynnik 2 2 Współczynnik determinacji ν cechy Y względem cechy X 2 υ = σY) 2 σY 2 =1 − σr 2 σY 2 =r 2 V determinacji z próby cechy Y względem cechy X n ∑ (yˆ i − y) 2 v 2 = i =n1 = r2 2 ∑ (yi − y) n ∑ (yˆ i − y) 2 n ) 2 ∑ (yi − yi ) v 2 = i =n1 = 1 − i =n1 = r2 2 2 ∑ (yi − y) ∑ (yi − y) i =1 i =1 i =1 35 Podzielenie sumy n ) 2 ∑ (Yi − Yi ) i =1 przez n-2, a nie przez n powoduje, Ŝe statystyka wariancji resztowej σ2r w populacji 89 S2r jest estymatorem nieobciąŜonym STATYSTYKA MATEMATYCZNA Przykład 17.7 Chcemy zbadać, czy zysk pewnej firmy zalezy od wielkości produkcji na podstawie danych przedstawionych w poniŜszej tabeli. Produkcja xi Zysk yi 19,2 19,0 19,5 21,4 19,6 21,6 23,7 24,2 26,5 28,3 73,1 86,2 104,7 121,2 161,5 142,5 172,2 196,0 207,1 227,5 Rozwiązanie Z wykorzystaniem arkusza Excel wykonujemy obliczenia pomocnicze Lp xi yi (x i )2 (yi )2 x i ⋅ yi 1 19,2 73,1 368,64 5343,61 1403,52 2 19 86,2 361 7430,44 1637,8 3 19,5 104,7 380,25 10962,09 2041,65 4 21,4 121,2 457,96 14689,44 2593,68 5 19,6 161,5 384,16 26082,25 3165,4 6 21,6 142,5 466,56 20306,25 3078 7 23,7 172,2 561,69 29652,84 4081,14 8 24,2 196 585,64 38416 4743,2 9 26,5 207,1 702,25 42890,41 5488,15 10 28,3 227,5 800,89 51756,25 6438,25 Suma 223 1492 5069,04 247529,6 34670,79 Parametry próby wynosza więc Produkcja Zysk 10 10 ∑ xi Średnia 223 x= = = 22,3 10 10 i =1 s 2x = Wariancja 1 10 2 2 ∑ (x i ) − (x) = 10 i =1 = 506,904 − (22, 3)2 = 506,904 − 497, 29 = 9, 614 y= ∑ yi i =1 = 24752,96 − (149, 2)2 = = 24752,96 − 22260, 64 = 2492,32 1 34670, 79 − 22, 3 ⋅149, 2 = 3467, 079 − 3327,16 = 139,919 10 Współczynniki regresji cov XY 139,919 aY = = = 14,554 9, 614 s 2X b Y = y − a Y x = 149, 2 − 14,554 ⋅ 22,3 = 149, 2 − 324,55 = −175,35 Współczynnik korelacji 90 1492 = 149, 2 10 10 1 10 2 2 s 2y = ∑ (yi ) − (y) = 10 i =1 Kowariancja cov XY =x ⋅ y − x ⋅ y= = PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE r= cov XY s 2x s 2y = 139,919 139, 919 139, 919 = = = 0,904 9, 614 2492,32 3,1 ⋅ 49, 931 154, 76 Wariancja resztowa cechy Y względem cechy X n 10 10 s 2r = (1 − r 2 )s 2Y = (1 − 0, 9042 ) ⋅ 2492,32 = ⋅ 0,183 ⋅ 2492,32 = 570,12 n−2 8 8 n (1 − r 2 )s Y = 23,88 Odchylenie standardowe resztowe cechyY względem cechy X s r = n−2 Współczynnik determinacji ν 2 cechy Y względem cechy X v 2 = r 2 = 0, 9042 = 0,817 PowyŜsze wynki moŜna otrzymać z wykorzystaniem narzędzia Regresja pakietu Analiza danych arkusza Excel. Wyniki składają się z kilku części. PoniŜej zamieszczono część zawierającą wyniki obliczone w niniejszym przykładzie. Współczynniki -175,3468796 14,55367173 Przecięcie Zmienna X1 Statystyki regresji Wielokrotność R R kwadrat Dopasowany R kwadrat Błąd standardowy Obserwacje 0,903905245 0,817044693 0,794175279 23,87422264 10 Narzędzie oblicza takŜe wartości funkcji regresji oraz róznice pomiędzy uzyskanymi i obliczonymi wartościami zmiennej zaleŜnej. Podano je poniŜej uzupełniając o wartości uzyskane oraz o sumy w/w róŜnic – patrz uzupełnienie podane na końcu części „Statystyka opisowa”. . 91 STATYSTYKA MATEMATYCZNA yi ŷi yi - ŷi 73,1 86,2 104,7 121,2 161,5 142,5 172,2 196 207,1 227,5 104,08 101,17 108,45 136,10 109,91 139,01 169,58 176,85 210,33 236,52 Razem yi - ŷi >0 yi - ŷi <0 -30,98 -14,97 -3,75 -14,90 51,59 3,49 2,62 19,15 -3,23 -9,02 0,0 0 0 0 0 51,59 3,49 2,62 19,15 0 0 76,85 -30,98 -14,97 -3,75 -14,90 0 0 0 0 -3,23 -9,02 -76,85 17.3.3. Rozkłady estymatorów współczynników regresji Analiza regresji opiera się na poniŜszych twierdzeniach, które są prawdziwe przy załoŜeniu, Ŝe zmienna losowa dwuwymiarowa (X,Y) ze względu na którą badana jest populacja ma rozkład normalny o współczynniku korelacji ρ. Tw. 17.4. Estymatory A Y i BY współczynników regresji liniowej α Y i βY mają rozkłady normalne A Y : N(α Y , σ1 ) oraz BY : N(βY , σ2 ) , są więc estymatorami nieobciąŜonymi parametrów. (MoŜna wykazać, Ŝe są takŜe estymatorami zgodnymi tych parametrów) Tw. 17.5. S1 = Estymatorem Sr n ∑ Xi2 i =1 − nX odchylenia standardowego σ1 estymatora AY jest tych statystyka (tzw. błąd standardowy oceny α Y ), zaś estymatorem odchylenia standardowego 2 n Sr ∑ Xi 2 σ2 estymatora BY jest statystyka S2 = Tw. 17.6. Statystyki U n = AY − αY S1 i =1 (tzw. błąd standardowy oceny βY ). n 2 n ∑ Xi − nX 2 i =1 BY − β Y oraz U n = mają rozkłady Studenta z n – 2 stopniami S2 swobody. 17.3.4. Estymacja przedziałowa współczynników regresji Zajmiemy się teraz wyznaczeniem przedziałów ufności dla współczynników regresji. Mamy: yˆ = α Y x + β y - prosta regresji z populacji cechy Y względem cechy X ŷ = a Y x + b Y - prosta regresji z próby, aY - jest oceną na podstawie próby α Y bY - jest oceną na podstawie próby współczynnika βY ŷ = a Y x + b Y - prosta regresji z próby jest oceną prostej regresji populacji ŷ = a Y x + βY . 92 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Przedział ufności dla współczynnika α Y na poziomie ufności 1 − α A Y − u α S1 ; A Y + u α S1 Przedział ufności dla współczynnika βY na poziomie ufności 1− α B Y − u αS2 ; B Y + u αS2 Liczba u α spełnia w obu przypadkach związek P( Tn −2 ≥ u α ) = α gdzie: Tn −2 - zmienna losowa o rozkładzie Studenta z n –2 stopniami swobody. PowyŜsze przedziały konstruujemy w typowy sposób na podstawie twierdzenia 17.4 – 17.6. Przykład 17.8 Na poziomie ufności 1− α wyznaczymy przedziały ufności dla współczynników regresji obliczonych w przykładzie 17.7. Korzystając z wyników obliczonych w przykładzie otrzymujemy wartości statystyk S1 i S2 s1 = sr = n ∑ x i2 − nx 2 23,88 5069, 04 − 10 ⋅ 22,32 = 23,88 23,88 23,88 = = = 2, 44 9,8 5069, 04 − 4972, 9 96,14 i =1 n s r ∑ x i2 s2 = i =1 n = 23,88 5069, 04 23,88 ⋅ 71,197 1700,19 = = = 54,83 31, 01 10 ⋅ 96,14 961, 4 n ∑ x i2 − nx 2 i =1 Wyznaczamy liczbe u 0,05 z warunku P( T8 ≥ u 0,05 ) = 0, 05 otrzymując u 0,05 =2,306 Zatem połowy przedziałow ufności są równe u α s1 = 2,306 ⋅ 2, 44 = 5, 62 u α s 2 = 2, 306 ⋅ 54,83 = 126, 43 Wykorzystując powyŜsze wyniki częściowe otrzymujemy przedziały ufności w postaci: Współczynnik α Y aY − uα s1 ; aY + uα s1 = < 14, 55 − 5, 62;14, 55 + 5, 62 >=< 8,83; 20,17 > Współczynnik βY bY − uα s 2 ; bY + uα s 2 = < −175,35 − 126, 43; − 175, 35 + 126, 43 >=< −301, 78; − 48,92 > Korzystając z narzędzia Regresja pakietu Analiza danych arkusza Excel – patrz przykład 5.17, otrzymujemy bezpośrednio granice przedziałów ufności: Dolne 95% Górne 95% Przecięcie -301,76232 -48,931439 Zmienna X 1 8,93883332 20,1685101 93 STATYSTYKA MATEMATYCZNA 17.3.5. Weryfikacja hipotez o współczynnikach regresji Wysuwamy hipotezy o współczynniku regresji α Y z populacji. Hipoteza zerowa: H 0 (α Y = α 0 ) i hipoteza alternatywna w jednej z trzech postaci przedstawionej w poniŜszej tabeli. Tabela 17.4. Testy do weryfikacji hipotezy o współczynniku regresji αY H1 Sprawdzian U n Rozkład sprawdzianu H1 (α Y > α0 ) A Y − α0 S1 H1 (α Y < α 0 ) Studenta z n-2 stopniami H1 (α Y ≠ α 0 ) swobody Un = Zbiór krytyczny K Wyznaczanie liczby k Nr testu K = < k ;∞ ) P ( Tn − 2 ≥ k ) = 2α KR-7 K = (−∞ ; − k > P ( Tn − 2 ≥ k ) = 2α KR-8 K= = (−∞ ; − k > ∪ < k ; ∞ ) P ( Tn −2 ≥ k ) = α KR-9 Tn − 2 oznacza zmienną losową o rozkładzie Studenta z n-2 stopniami swobody. σY ρ σY Wysuwamy hipotezy o współczynniku regresji βY z populacji. Hipoteza zerowa: H 0 (βY = β0 ) i hipoteza alternatywna w jednej z trzech postaci przedstawionej w poniŜszej tabeli. Uwaga. Hipoteza H 0 (α Y = 0) jest równowaŜna hipotezie H 0 (ρ = 0) , bo α Y = Tabela 17.5. Testy do weryfikacji hipotezy o współczynniku regresji βY H1 Sprawdzian U n Rozkład sprawdzianu H1 (βY > β0 ) B Y − β0 S2 H1 (βY < β0 ) Studenta z n-2 stopniami H1 (βY ≠ β0 ) swobody Un = Zbiór krytyczny K Wyznaczanie liczby k Nr testu K = < k ;∞ ) P ( Tn − 2 ≥ k ) = 2α KR-10 K = (−∞ ; − k > P ( Tn − 2 ≥ k ) = 2α KR-11 K= = (−∞ ; − k > ∪ < k ; ∞ ) P ( Tn −2 ≥ k ) = α KR-12 Tn − 2 oznacza zmienną losową o rozkładzie Studenta z n-2 stopniami swobody. Informacje zawarte w powyŜszych dwóch tabelach wynikają z ogólnej zasady weryfikacji hipotez i z tw. 17.6. Przykład 17.9 Na poziomie istotności α=0,05 zweryfikujemy hipotezy dotyczące zerowej wartości współczynników regresji obliczonych w przykładzie 17.7., względem hipotez alternatywnych bedących zaprzeczeniem hipotezy zerowej. Współczynnik regresji α Y Hipotezy H 0 (α Y = 0) H1 (α Y ≠ 0) Sprawdzian u10 = aY s1 Zbiór krytyczny K= = (−∞ ; − k > ∪ < k ; ∞ ) P ( T8 ≥ k ) = 0, 05 Wykorzystując wyniki z przykładów 17.7 i 17.8 otrzymujemy a 14,554 Wartość sprawdzianu u10 = Y = = 5,96 s1 2, 44 Zbiór krytyczny K= = (−∞ ; − k > ∪ < k ; ∞ ) = <-∞;-2,306> ∪ <2,306; ,306> PoniewaŜ u10 ∈ K hipotezę zerową naleŜy odrzucić co dowodzi istotności współczynnika regresji α Y 94 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Współczynnik regresji βY Hipotezy H0 (α Y = 0) H1 (α Y ≠ 0) Sprawdzian u10 = Zbiór krytyczny K= = (−∞ ; − k > ∪ < k ; ∞ ) bY s2 P ( T8 ≥ k ) = 0, 05 Wykorzystując wyniki z przykładów 17.7 i 17.8 otrzymujemy b −175, 35 = −3,198 Wartość sprawdzianu u10 = u10 = Y = s2 54,83 Zbiór krytyczny K= = (−∞ ; − k > ∪ < k ; ∞ ) = <-∞;-2,306> ∪ <2,306; ,306> PoniewaŜ u10 ∉ K brak jest podstaw do odrzucenia hipotezy zerowej. Korzystając z narzędzia Regresja pakietu Analiza danych arkusza Excel – patrz przykład 5.17, otrzymujemy bezpośrednio wartości sprawdzianów: t Stat Przecięcie -3,198585777 Zmienna X 1 5,977167056 95 STATYSTYKA MATEMATYCZNA 18. WPROWADZENIE DO ZAAWANSOWANYCH METOD STATYSTYCZNYCH 18.1. Charakterystyka zaawansowanych metod statystycznych Zaawansowane metody statystyczne są metodami wielowymiarowymi, tzn. analizują próby wielowymiarowe, składające się z wyników pomiaru określonej liczby zmiennych. Pojęcie próby wielowymiarowej jest uogólnieniem pojęcia próby dwuwymiarowej. Model I Populacja jest badana ze względu na k cech X1, X2, …,Xk, czyli ze względu na zmienną losową k-wymiarową (X1, X2, …,Xk). Taką populację nazywamy populacją k-wymiarową. Próba z populacji k-wymiarowej jest to macierz X11 X12 . . . X1k X 21 X 22 . . . X 2k . . . X= (20.1) . . . . . . X n1 X n2 . . . X nk gdzie zmienne losowe k-wymiarowe występujące niezaleŜne. 36 KaŜdą macierz x11 x12 . x 21 x 22 . . . x= . . . . x n1 x n2 . w poszczególnych wierszach są k-wymiarowo . . . . . . x1k x 2k . . . x nk (20.2) będącą wartością próby (20.1) nazywa się realizacją próby z populacji k-wymiarowej albo macierzą danych (wyników). Wiersze macierzy (20.2) są wartością cechy (X1, X2, …,Xk) kolejnych elementów populacji wybranych do próby, natomiast kolumny są realizacjami prób jednowymiarowych ze względu na kolejne zmienne Xj, j=1,2,…,k. Element xij oznacza wartość cechy Xj elementu próby o numerze i. Przyjmujemy oznaczenia: x1j x 2j . - realizacja próby jednowymiarowej ze względu na cechę Xj (20.3) x.j = . . xn j j xi. = [ x i1, x i2 ,K , x ik ] - realizacja próby wielowymiarowej dla elementu próby o numerze i, 36 (20.4) Pojęcie to jest prostym uogólnieniem pojęcia niezaleŜności dwuwymiarowej – patrz odnośnik 12 z punktu 18.1. 96 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE Wektor x.j określony wzorem (20.3) jest realizacją próby jednowymiarowej ze względu na cechę Xj. Wektor xi. określony wzorem (20.4) nazywamy obserwacją. Wprowadzone pojęcia obrazuje rysunek 20.1. Cechy X1 X2 1 2 Numery elementu próby … i P … Xj … Xk Obserwacja r ó xij … b n a Rys. 18.1. Ilustracja macierzy danych Macierz danych moŜna przedstawić jako tabelę z liczbą wierszy równą liczbie elementów oraz liczbą kolumn równą liczbie cech. W ramach obserwacji mogą występować wszystkie badane cechy lub określony ich podzbiór. Mogą być takŜe utworzone nowe cechy jako zadane funkcje cech mierzonych. Macierz danych moŜe zostać określona przez podanie jej obiektów składowych lub określona warunkami nałoŜonymi na wybrane cechy obserwacji. W tym wypadku liczba obiektów w grupie danych nie jest ustalona a priori. Macierz danych moŜe być przedstawiona w postaci: x1. x x = 2. = [x.1, x.2 ,..., x.k ] (20.5) M x n. Przedstawiony model moŜe dotyczyć takŜe jednej cechy X rozpatrywanej w k momentach lub w k warunkach, czyli analogicznie jak poprzednio zmiennej losowej k-wymiarowej (X1, X2, …,Xk). Analizie podlegają wartości tej zmiennej uzyskane u uzyskane kolejnych elementów populacji wybranych do próby. MoŜe występować takŜe przypadek mieszany w którym występują zarówno cechy rozpatrywane tylko w jednym momencie lub w jednym warunku, jak i te same cechy rozpatrywane w róŜnych momentach, jak i w róŜnych warunkach. W kaŜdym z opisanych przypadków analizowane próby nazywane są próbami powiązanymi. 97 STATYSTYKA MATEMATYCZNA Model II Model II jest rozszerzeniem modelu I. Badanych jest J populacji ze względu na k cech X1, X2, …,Xk, czyli ze względu na zmienną losową k-wymiarową (X1, X2, …,Xk). Przedmiotem analizy jest J macierzy danych, kaŜdą z których tworzą próby nj elementowe. Przykładowo przy dwóch populacjach macierze te mają postać: a11 a12 a 21 a 22 . . a= . . . . a n11 a n1 2 . . . . . . . . . a1k a 2k . . . a n1k b12 b11 b 21 b 22 . . b= . . . . b n 21 b n 2 2 . . . . . . . . . b1k b 2k . . . b n 2k Przykładowo a11 to wartość cechy X1 uzyskana u 1 elementu pierwszej populacji, b11 to wartość tej samej cechy X1 uzyskana u pierwszego elementu drugiej populacji. W tym przypadku moŜna wprowadzić wszystkie analogiczne pojęcia jak w modelu I. W modelu II analizowane próby dotyczące tej samej zmiennej losowej, pochodzące z róŜnych populacji, nazywane są próbami niepowiązanymi. Tylko przypadkowo próby te mają takie same liczebności. PoniŜej krótko scharakteryzowano opisane w niniejszej części podręcznika zaawansowane metody statystyczne. Ocena istotności róŜnic rozkładu w więcej niŜ dwóch warunkach. Dla rozwiązania tego problemu przeznaczonych jest szereg metod. Jedną z nich jest analiza wariancji, stanowiąca rozszerzenie testu Studenta. Analiza regresji wykorzystywana jest do szukania związku funkcyjnego pomiędzy tzw. zmienną zaleŜną i określoną liczbą tzw. zmiennych niezaleŜnych. Najczęściej przyjmuje się związek liniowy. W przypadku małej liczby zmiennych niezaleŜnych szuka się teŜ związku w postaci wielomianu. MoŜliwe jest ustalenie a priori zmiennych niezaleŜnych, które ujmowane są w równaniu regresji lub teŜ określenie tylko ich zbioru. W tym przypadku do równania wprowadzane są tylko te zmienne, które charakteryzuje określony współczynnik korelacji cząstkowej ze zmienną zaleŜną. Analiza czynnikowa pozwala na podział analizowanych zmiennych na określoną liczbę grup, z których kaŜda kształtowana jest samoistnie przez oddzielny czynnik. Analiza korelacji kanonicznej wykorzystywana jest do wyznaczania związku liniowego pomiędzy dwoma grupami zmiennych. MoŜna traktować ją więc jako uogólnienie analizy regresji. Analiza skupień wykorzystywana jest do podziału zbioru określonych elementów na grupy, których obiekty są podobne do siebie w określonym sensie. Obiektami mogą być zarówno dowolne elementy materialne, opisane wybranymi cechami, jak i cechy opisujące rozpatrywane elementy materialne. Wielowymiarowa analiza wariancji (MANOVA) wykorzystywana jest do weryfikacji hipotez o równości kilku wektorów wartości oczekiwanych. Jest ona rozszerzeniem analizy wariancji (ANOVA) albowiem rozpatruje ona powyŜszą hipotezę dla kilku wartości oczekiwanych. MANOVA stosowana jest w powiązaniu z analizą dyskryminacji, której waŜnym krokiem jest zastąpienie wielu cech naturalnych małą liczbą zmiennych abstrakcyjnych bez zmniejszenia zróŜnicowania grup. MoŜliwe jest teŜ wybranie cech najbardziej róŜnicujących. W ramach tej analizy prowadzona jest klasyfikacja na podstawie cech abstrakcyjnych. Stopień jej zgodności z podziałem a priori świadczy poglądowo o występującym zróŜnicowaniu grup. NaleŜy podkreślić wyjątkowo duŜe znaczenie analiz wielowymiarowych, wykorzystujących naturalne powiązania pomiędzy poszczególnymi cechami. Właśnie to stanowi o ich bardzo istotnym znaczeniu. MoŜna zilustrować ten fakt następującymi przykładami: 98 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE − Wartości współczynników korelacji cząstkowej róŜnią się na ogół w znacznym stopniu od wartości współczynników korelacji Pearsona; − Cechy róŜniące dwie populacje wielowymiarowe nie muszą podlegać istotnie zróŜnicowanym rozkładom przy ocenie wyizolowanej; − Postać związku pomiędzy dwoma zbiorami cech w wielu przypadkach jest sprzeczna z wartościami współczynników korelacji pomiędzy parami cech uwzględnianych zbiorów. W ramach tych analiz moŜna dokonywać porównania rozkładów cech, oceniać korelacje oraz budować i weryfikować modele matematyczne analizowanych zjawisk. Poszczególne metody umoŜliwiają przeprowadzenie analiz z róŜnych punktów widzenia. W wielu przypadkach dopiero łączne ich zastosowanie powoduje otrzymanie wartościowych wniosków. Przykładowo: − Łączne zastosowanie analizy regresji i analizy korelacji kanonicznej pozwala na identyfikację nieznanych zaleŜności pomiędzy rozpatrywanymi cechami; − W analizie dyskryminacji przedmiotem obliczeń są zbiory danych dotyczące grup określonych elementów wyróŜnionych a priori. Analiza skupień prowadzona dla tych elementów moŜe być wykorzystana do zweryfikowania takiego podziału; − W analizie czynnikowej uzyskuje się podział rozpatrywanych cech na podzbiory kształtowane oddzielnie przez poszczególne czynniki. Analiza skupień prowadzona dla tych cech moŜe być wykorzystana do weryfikacji otrzymanego podziału. Dwuwymiarowe i wielowymiarowe analizy statystyczne umoŜliwiają rozwiązywanie 3 rodzajów problemów: 1. Ocena istotności zaleŜności statystycznej pomiędzy cechami; 2. Skupianie elementów (obiektów lub cech); 3. Ocena istotności róŜnic rozkładu cechy. W pierwszej z poniŜszych tabel podano metody statystyczne i klasy testów statystycznych umoŜliwiające rozwiązywanie powyŜszych problemów. Podane w tabeli metody oznaczone numerami 1, 9 i 10 dotyczą klas testów statystycznych. Tabela 18.1.Metody statystyczne i klasy testów statystycznych Ocena istotności zaleŜności statystycznej pomiędzy cechami Skupianie elementów (obiektów i cech) Ocena istotności róŜnic rozkładu cechy 1. Ocena istotności korelacji dwóch cech 6. Analiza skupień dla obiektów 9. Ocena istotności róŜnic rozkładu cechy w dwóch warunkach 2. Regresja wielomianowa jednej cechy 7. Analiza czynnikowa 10. Ocena istotności róŜnic rozkładu cechy w wielu warunkach 3. Regresja liniowa kilku cech 8. Analiza skupień dla cech 11. Wielowymiarowa analiza wariancji i analiza dyskryminacji 4. Regresja wielomianowa kilku cech 5. Korelacja kanoniczna Wszystkie wskaźniki i metody statystyczne przedstawiono w kolejnej tabeli. 99 STATYSTYKA MATEMATYCZNA Tabela 18.2. Wskaźniki i metody statystyczne Liczba macierzy danych Liczba cech 1 2 ≥2 1 ANALIZA JEDNOWYMIAROWA Błędy grube Centyle Estymacja parametrów rozkładu Ocena normalności Ocena losowości ANALIZA DWYWYMIAROWA Test niezaleŜności Współczynnik Pearsona Współczynnik Spearmana Współczynnik Cramera ANALIZA WIELOWYMIAROWA Regresja liniowa, wielomianowa i potęgowa Analiza czynnikowa Analiza skupień dla cech i obiektów Korelacja kanoniczna 2 ANALIZA DWUWYMIAROWA Testy Studenta Test Cochrana-Coxa Test rangowanych znaków Test Wilcoxona Test dokładny Fishera Test McNemara Test chi kwadrat ≥2 ANALIZA WIELOWYMIAROWA Analiza wariancji Test qx Test Kruskala-Wallisa Test Friedmana Test Góralskiego Test Cochrana ANALIZA WIELOWYMIAROWA Wielowymiarowa analiza wariancji i analiza dyskryminacji 18.2. Algorytmizacja wyboru metod statystycznych Na poniŜszym rysunku przedstawiono algorytm wyboru metod statystycznych z zakresu określanego na podstawie charakterystyk analizowanych danych. 100 PODSTAWY PROBABILISTYKI Z PRZYKŁADAMI ZASTOSOWAŃ W INFORMATYCE ZAUTOMATYZOWANY WYBÓR ZAKRESU, PRZEDMIOTU I RODZAJU ANALIZY STATYSTYCZNEJ POCZĄTEK LICZBA CECH M=1 TAK A LICZBA MACIERZY DANYCH K=2 NIE TAK CZY OBLICZAĆ CENTYLE TAK NIE NIE PODAJ PRZEDMIOT ANALIZY L1 - liczba macierzy danych L2 - liczba cech B LICZBA MACIERZY DANYCH K=1 TAK NIE LICZBA MACIERZY DANYCH DO ANALIZY L1=2 NIE TAK LICZBA CECH M=1 TAK LICZBA MACIERZY DANYCH DO ANALIZY L1=2 TAK NIE PODAJ PRZEDMIOT ANALIZY L1 - liczba grup danych LICZBA CECH DANYCH DO ANALIZY L2=1 TAK LICZBA CECH DANYCH DO ANALIZY L2=1 NIE NIE TAK NIE M C C M N M PODAJ ZAKRES ANALIZY 1 - ocena zaleŜności 2 - skupianie elementów 1 KONIEC OCENY ISTOTNOŚCI 2 TAK NIE LICZBA CECH M≥3 LICZBA CECH M=2 TAK NIE TAK NIE LICZEBNOŚĆ PRÓB N≥3 PODAJ PRZEDMIOT ANALIZY L1 - liczba cech I zbioru L2 - liczba cech II zbioru NIE TAK TAK NIE PODAJ PRZEDMIOT ANALIZY 1 - obiekty 2 - cechy LICZBA CECH I ZBIORU L1=1 TAK LICZEBNOŚĆ PRÓB N≥3 NIE 1 2 L LICZBA CECH II ZBIORU L2=1 TAK NIE 2 D G TAK PODAJ RODZAJ ANALIZY 1 - analiza skupień 2 - analiza czynnikowa NIE PODAJ RODZAJ ANALIZY 1 - regresja liniowa dla poanych cech 2 - regresja liniowa z wyborem cech 3 - regresja wielomianowa 0 - koniec analizy regresji PODAJ RODZAJ ANALIZY 1 - korelacje 2 - regresja potęgowa 3 - koniec analizy 1 LICZBA CECH II ZBIORU L2=1 0 0 1 2 3 E F H 1 2 K I KONIEC SKUPIANIA CECH TAK NIE J KONIEC SKUPIANIA ELEMENTÓW TAK KONIEC OCENY ZALEśNOŚCI NIE NIE TAK KONIEC ANALIZY STATYSTYCZNEJ NIE OZNACZENIA: Metody statystyczne, oznaczone zgodnie A z poniŜszym wykazem: A - Wyznaczanie parametrów rozkładu B - Wyznaczanie centyli C - Ocena istotności róŜnic rozkładu w 2 warunkach D - Ocena istotoności korelacji dwóch cech E - Regresja liniowa dla podanych cech F - Regresja liniowa z wyborem cech G - Regresja potęgowa H - Regresja wielomianowa I - Analiza czynnikowa J - Analiza korelacji kanonicznej K - Analiza skupień dla cech L - Analiza skupień dla obiektów M - Ocena istotności róŜnic rozkładu w wielu warunkach N - Manova i analiza dyskryminacji TAK KONIEC Rysunek 20.2. Algorytm wyboru zakresu, przedmiotu i rodzaju analizy statystycznej 101