Wprowadzenie i statystyka opisowa Populacja – jest pojmowana jako zbiór wyników wszystkich pomiarów, którymi badacz jest zainteresowany. Pupulacje nazywa się też uniwersum Próba – jest podzbiorem wyników pomiarów wybranych z populacji. Pobierania próby dokonuję się z reguły w sposób losowy, tj. w taki sposób, żeby każda możliwa próba złożona z n elementów miała taką samą szansę, że zostanie wybrana. Tak wybraną próbę nazywa się prostą próba losową lub krócej próbą losową P-tym percentylem w zbiorze liczb (uporządkowanych wg wielkości) jest taka wartość, poniżej której znajduję się P% liczb z tego zbioru. Miejsce P-tego percentyla określa wzór: (n+1)P/100, gdzie n jest liczbą elementów zbioru Pierwszy kwartyl to 25-ty percentyl, czyli wartość, poniżej której znajduję się jedna czwarta wyników obserwacji (kwartyl dolny) Drugi kwartyl – jest 50-ty percentyl, który obliczyliśmy w przykładzie, jest to najważniejszy kwartyl, mający specjalną nazwę mediana (kwartyl środkowy) Mediana – jest to 50-ty percentyl, czyli wartość, poniżej której znajduję się połowa obserwacji. Trzeci kwartyl – jest to 75-ty percentyl, czyli wartość, poniżej której znajduje się trzy czwarte wyników obserwacji (kwartyl górny) Odstępem międzykwartylowym nazywamy różnicę między trzecim, a pierwszym kwartylem Dominantą w zbiorze danych jest to wartość, która w tym zbiorze występuję najczęściej Średnią zbioru wyników obserwacji, zwaną także przeciętną, jest suma wartośći wszystkich wyników podzielona przez liczbę elementów tego zbioru. Rozstępem w zbiorze wyników obserwacji nazywamy różnicę między największą i najmniejszą zaobserwowaną wartością Wariancją w zbiorze wyników obserwacji nazywamy przeciętne kwadratowe odchylenie poszczególnych wyników do ich średniej Odchyleniem standardowym w zbiorze wyników obserwacji nazywamy (dodatni) pierwiastek kwadratowy z wariancji Grupę danych, których wartości mieszczą się w granicach jednego z ustalonych przez nas przedziałów, nazywamy klasą. Histogram jest wykresem utworzonym ze słupków o różnej wysokości. Wysokość słupka reprezentuję częstość, z jaką pojawiły się wyniki obserwacji należące do klasy reprezentowanej przez słupek. Sąsiedzie słupki mają wspólne boki Względną częstością, odpowiadającą danej klasie, jest liczba wyników obserwacji należących do tej klasy (liczebność klasy) podzielona przez liczbę wszystkich obserwacji Medianę dla pogrupowanych danych szacuję się wg wzoru: L+(j/f)W, gdzie L jest dolną granicą klasy medialnej, f jest liczebnością klasy medialnej, W jest rozpiętością przedziału wartości odpowiadającego klasie medialnej, j jest liczbą danych, które trzeba minąć po osiągnięciu L, żeby dojść do mediany. Kurtoza jest miarą spłaszczenia rozkładu częstości (które przedstawiamy spiczastości) Średnia jest miarą tendencji w zbiorze wyników obserwacji, a standardowe odchylenie – miarą ich rozproszenia 36-37 do wydrukowania Prawdopodobieństwo Przez zbiór rozumiemy zespół jakichkolwiek elementów. Zbiorem uniwersalnym jest zbiór, którego elementami są wszystkie obiekty rozważane w danej sytuacji. Zbiór uniwersalny oznaczamu tu przez X Zbiorem pustym jest zbiór nie zawierający żadnego elementu. Oznaczamy przez Dopełnienem zbioru A jest zbiór zawierający wszystkie elementy zbioru uniwersalnego X, które nie są elementami zbioru A. Dopełnienie zbioru A oznaczamy przez i nazywany często „nie A”. Iloczynem (przekrojem) zbirów A i B, oznaczanym przez nazywamy zbiór tych wszystkich elementów, które równocześnie są elementami zbioru A i zbioru B Sumą (połączeniem) zbiorów A i B, oznaczanym przez nazywamy zbiór wszystkich tych elementów, które nalezą albo do zbioru A, albo do zbioru B, albo do obu. Eksperymentem nazywamy proces, który prowadzi do jednego z możliwych wyników. Nazywamy je wynikami obserwacji lub wynikami pomiaru. Przestrzeń prób jest zbiorem wszystkich możliwych wyników eksperymentu . Jest ona zbiorem uniwersalnym X związanym z danym eksperymentem. Zdarzeniami są podzbiory w przestrzeni próby. Są to zbiory pewnych zdarzeń elementarnych. Mówimy, że zaszło dane zdarzenie, jeżeli w wyniku eksperymentu zaszło zdarzenie będące elementem podzbioru odpowiadającego temu zdarzeniu. Przy założeniu równej możliwości zdarzeń elementarnych, prawdopodobieństwo zdarzenia A jest względną miarą A w stosunku do miary przestrzeni prób X. Prawdopodobieństwo zdarzenia A: P(A) = |A|/|X| Prawdopodobieństwo jest miarą niepewności. Prawdopodobieństwo zdarzenia A jest liczbową miarą naszego przekonania, że zdarzenie to zajdzie. Dla dowolnego zdarzenia A: 0 <= P(A) < 1 Losowe pobieranie próby z wielkiej populacji implikuję niezależność wyników losowań. Pojęcia kombinatoryczne: Jeżeli istnieje n zdarzeń, a zdarzenie i może się zrealizować na N sposobów, to liczba sposobów, na które może się zrealizować ciąg n zdarzeń, jest równa N1, N2, … , Nn. Dla każdej liczby naturalnej n, definiujemy n silnia jako iloczyn n*(n-1)(n-2)*…*1. Wartość n silnia oznaczamy przez n! Liczba n! jest liczbą sposobów, na które można uporządkować (ustawić w kolejności) n obiektów. Przyjmujemy umownie, że 0! = 1. Wariacjami (rozmieszczeniami) nazywamy uporządkowane podzbiory r-elementowe wybrane ze zbioru n obiektów. Liczbę wariacji r-elementowych, które można utworzyć ze zbioru n obiektów, oznaczamy przez nPr: nPr = n!/(n-r)! Kombinacjami nazywamy r-elementowe podzbiory wybrane ze zbioru n obiektów, niezależnie od porządku (kolejności) elementów. Liczbę kombinacji oznaczamy przez (n r), który symbol czytamy: n po r. Używa się też oznaczenia nCr. Liczbą kombinacji r-elementowych ze zbioru n obiektów wyznacza wzór: nCr = n!/r!(n-r)! Zmienne losowe: Zmienną losową jest zmienna, która przyjmuje różne wartości liczbowe, wyznaczone przez los. Zmienna losowa jest skokowa (dyskretna), gdy może przyjmować wartości ze zbioru najwyżej przeliczalnego. Zmienna losowa ciągła może przyjmować wartości z dowolnego przedziału liczbowego. Możliwe wartości takiej zmiennej tworzą zbiór nieprzeliczalnie nieskończony. Skumulowaną funkcją rozkładu (dystrybuantą) skokowej zmiennej losowej X jest funkcja: Oczekiwana wartość skokowej zmiennej losowej X jest równa sumie wszystkich możliwych wartości tej zmiennej mnożonych przez ich prawdopodobieństwa Twierdzenie Czebyszewa – dla dowolnej zmiennej losowej o średniej i odchyleniu standardowym oraz dla dowolnej liczby k > 1: Doświadczenia Bernouliego to ciągi doświadczeń spełniających następujące warunki: 1. Są dwa możliwe wyniki każdego doświadczenia, nazywane sukcesem i porażką. Wyniki te wykluczają się i dopełniają 2. Prawdopodobieństwo sukcesu, oznaczone przez p, pozostaje takie samo od doświadczenia do doświadczenia. Prawdopodobieństwo porażki, oznaczone przez q, równe jest 1-p. 3. Doświadczenia są od siebie niezależne. Znaczy to, że wynik któregokolwiek doświadczenia nie ma wpływu na wynik pozostałych doświadczeń. Zmienna losowa X, będąca liczbą sukcesów w serii n doświadczeń Bernouliego, w każdym z których p jest prawdopodobieństwem sukcesu, podlega rozkładowi dwumianowemu z parametrami n oraz p. Nazywamy ją dwumianową zmienną losową. Rozkład Poissona jest wygodny do scharakteryzowania zmiennej losowej będącej liczbą zajść pewnego zdarzenia w określonym przedziale czasu. Gdzie jest średnią rozkładu (i równocześnie jego wariancją), e jest podstawą logarytmów naturalnych (e=2,71828) Ciągła zmienną losową to taka zmienna losowa, która może przyjmować dowolne wartości z pewnego przedziału liczbowego. Prawdopodobieństwa związane z ciągła zmienną losową X są wyznaczane przez funkcję gęstości prawdopodobieństwa zmiennej losowej. Ta funkcja, oznaczana f(x) ma następujące własności: 1. f(x) >= 0 dla wszystkich x 2. Prawdopodobieństwo, że X przyjmie wartość między a i b jest równe mierze pola pod krzywą (wykresem) f(x) między punktami a i b. 3. Całe pole pod krzywą (wykresem) f(x) ma miarę 1.0. Rozkład normalny: Skumulowana funkcja rozkładu prawdopodobieństwa (dystrybuanta) ciągłej zmiennej losowej: F(x)=P(X<=x) – miara pola pod wykresem funkcji f(x) między najmniejszą możliwą wartością X a punktem x. Standaryzowaną normalną zmienną losową Z jest normalna zmienna losowa o średniej i odchyleniu standardowym Rozkład normalny jest granicznym rozkładem prawdopodobieństwa w wielu sytuacjach. Pobieranie próby i rozkład z próby: Parametrami populacji lub po prostu populacji, nazywa się liczbowe charakterystyki całej populacji. Statystyką z próby, lub po prostu statystyka, nazywa się liczbową charakterystykę próby. Estymatorem parametru populacji jest statystyka z próby używana do oszacowania parametru. Oceną lub szacunkiem parametru jest konkretna wartość liczbowa estymatora z danej próby. Jeżeli jako ocenę (szacunek) podajemy jedną wartość liczbową, nazywamy ją oceną punktową (szacunkiem punktowym) parametru populacji Frakcją (częstością) w populacji, p , jest liczba elementów w populacji należących do pewnej kategorii, którą się interesujemy, podzielona przez liczbę wszystkich elementów populacji. Rozkład statystyki z próby jest rozkładem prawdopodobieństwa wszystkich możliwych wartości, jakie ta statystyka może przyjąć, jeżeli obliczamy ja na podstawie badania losowych prób o tych samych rozmiarach pobranych z określonej populacji. Rozkład średniej z próby, X, to rozkład prawdopodobieństwa wszystkich wartości, jakie może przybrać losowa zmienna X, gdy próba o liczebności n jest pobierana z określonej populacji. Centralne twierdzenie graniczne: jeżeli pobieramy próbę z populacji o średniej odchyleniu standardowym i odchyleniu standardowym i skończonym , gdy liczebność próby wzrasta nieograniczenie, czyli dla „dostatecznie dużych n”: Estymator jest nieobciążony, jeżeli jego wartość oczekiwana jest równa parametrowi populacji, do oszacowania którego służy. Systematyczne odchylanie się wartości estymatora od szacowanego parametru nazywa się obciążeniem estymatora. Estymator jest efektywny, jeżeli ma niewielką wariancję (a tym samym niewielkie odchylenie standardowe). Estymator jest zgodny, jeżeli prawdopodobieństwo, ze jego wartość będzie bliska wartośći szacowanego parametru wzrasta wraz ze wzrostem liczebności próby. Estymator jest dostateczny, jeżeli wykorzystuje wszystkie informacje o szacowanym parametrze, które są zawarte w danych (w próbie) Liczba stopni swobody jest równa liczbe wszystkich pomiarów (która nie musi być równa liczbe wyników obserwacji) pomniejszonej o liczbę wszystkich ograniczeń narzuconych na te pomiary. Ograniczeniem jest każda wielkość, która zostaje obliczona na podstawie tych samych pomiarów. Przedziały ufności: Przedziałem ufności nazywamy przedział liczbowy, o którym przypuszczamy, że mieści się w nim nieznany parametr populacji. Z przedziałem tym związana jest miara ufności (pewności), że ten przedział naprawdę zawiera interesujący nas parametr, zwana poziomem ufności. Jeżeli pobieramy próby o tej samej liczebności z tej samej populacji, to im wyższy jest poziom ufności, tym szerszy jest przedział ufności. Jeżeli pobieramy próbę z tej samej populacji, to przy ustalonym poziomie ufności im liczniejsza próba, tym węższy jest przedział ufności. Ilekroć nie jest znane (a rozkład w populacji jest normalny) właściwym rozkładem, którym powinniśmy się posługiwać, jest rozkład t przy n-1 stopniach swobody. Przy dużej liczbie stopni swobody dobrym przybliżeniem rozkładu t jest rozkład Z. Rozkład chi-kwadrat jest rozkładem prawdopodobieństwa sumy kwadratów niezależnych, standaryzowanych, normalnych zmiennych losowych. Średnia rozkładu chi-kwadrat jest równa liczbie stopni swobody, df. Wariancja tego rozkładu jest równa liczbie stopni swobody pomnożonej przez dwa. Sprawdzania (testowanie) hipotez: Hipotezą zerową, oznaczona przez , jest hipoteza o wartości jednego (lub wielu) parametru populacji. Tę hipotezę traktujemy jako prawdziwą, dopóki nie uzyskamy informacji statystycznych dostatecznych do zmiany naszego stanowiska Hipotezą alternatywną, oznaczaną przez (?), jest hipoteza przypisująca parametrowi (parametrom) populacji wartość niezgodną z przypisaną mu (im) przez hipotezę zerową. Sprawdzianem lub statystyką testu nazywamy statystykę z próby, której wartość obliczona na podstawie wyników obserwacji jest wykorzystywana do ustalenia czy możemy hipotezę zerową odrzucić, czy jej odrzucić nie możemy. Regułą ustalającą warunki, pod którymi można odrzucić hipotezę zerową, nazywamy regułą decyzyjną testu hipotezy statystycznej. Poziomem istotności testu hipotezy statystycznej jest prawdopodobieństwo popełnienia błędu pierwszego rodzaju (oznaczona zwykle przez a) Obszarem odrzucenia hipotezy statystycznej jest taki zbiór liczb, że jeżeli sprawdzian przyjmie wartość z tego zbioru, to hipotezę zerową odrzucimy. Obszar odrzucenia nazywa się też obszarem krytycznym. Obszar krytyczny wyznaczają punkty (wartości) krytyczne. Obszar krytyczny ustalany jest tak, by przed pobraniem próby prawdopodobieństwo a, że sprawdzian znajdzie się w tym obszarze, przy założeniu, że hipoteza zerową jest prawdziwa, było równe a. Obszarem nieodrzucenia (przyjęcia) hipotezy statystycznej (też wyznaczonym przez punkty krytyczne) jest taki zbiór liczb, że jeżeli sprawdzian przyjmie wartość z tego zbioru, to hipotezy zerowej nie odrzucimy. Obszar nieodrzucenia (przyjęcia) jest wyznaczony tak, by przed pobraniem próby prawdopodobieństwo, że sprawdzian znajdzie się w tym obszarze przy założeniu, że hipoteza zerowa jest prawdziwa, było równe 1-a Testem dwustronnym jest test, którego obszar odrzucenia składa się z wartości położonych pod dwoma „ogonami” krzywej gęstości rozkładu sprawdzianu (przy założeniu prawdziwości hipotezy zerowej) Mówimy, że wynik badania statystycznego jest istotny na poziomie istotności a, gdy wynik ten skłania nas do odrzucenia hipotezy zerowej na podstawie testu, w którym zastosowano poziom istotności a. Wybór jedno- lub dwustronnego testu hipotezy statystycznej jest wyznaczony przez potrzebę działania. Jeżeli działanie będzie podjęte, gdy parametr przekroczy pewną wartość a, to alternatywną hipotezą będzie, że parametr jest większy od a i zostanie zastosowany test prawostronny. Jeżeli działanie zostanie podjęte tylko wtedy, gdy uznamy, że parametr przyjmie wartość mniejszą od a, to alternatywną hipotezą będzie, że parametr ma wartość mniejszą niż a i zostanie zastosowany test lewostronny Jeżeli działanie zostanie podjęte, gdy wartość parametru zostanie uznana albo za większą, albo za mniejszą od a, to zostanie zastosowany test dwustronny. W przypadku testów jednostronnych prawdopodobieństwo popełnienia błędu pierwszego rodzaju, a, wyobraża pole pod jednym „ogonem” krzywej gęstości Wartością p jest najniższy poziom istotności a, przy którym hipoteza zerowa mogłaby być odrzucona przy otrzymanej wartości sprawdzianu. Wartość p, to prawdopodobieństwo otrzymania takiej wartości sprawdzianu, jaką otrzymaliśmy – lub wartości skrajniejszej – przy założeniu, że hipoteza zerowa jest prawdziwa. Gdy wartość p jest mniejsza od 0,01, wynik eksperymentu jest bardzo istotny Gdy wartość p jest mniejsza od 0,01 do 0,05, wynik eksperymentu jest istotny Gdy wartość p znajduje się między 0,05, a 0,1, wynik eksperymentu przez pewnych statystyków jest uważany za mało istotny, a przez niektórych za nieistotny Gdy wartość p jest większa od 0,1, wynik eksperymentu przez większość statystyków jest uważany za nieistotny. W przypadku testu prawostronnego wartość p jest miarą pola pod krzywą gęstości rozkładu na prawo od otrzymanej wartości sprawdzianu, jeżeli ta wartość jest dodatnia. W przypadku testu lewostronnego wartość p jest miarą pola pod krzywą gęstości rozkładu na lewo od otrzymanej wartości sprawdzianu, jeżeli ta wartość jest ujemna. W przypadku testu dwustronnego wartość p jest miarą sumy dwóch pól pod krzywą gęstości rozkładu znajdujących się na prawo od dodatniej i na lewo od ujemnej wartości sprawdzianu. Przy danym poziomie istotności a odrzuć hipotezę zerową wtedy i tylko wtedy, gdy a >= p Mocą testu hipotezy statystycznej jest prawdopodobieństwo odrzucenia hipotezy zerowej, gdy jest ona fałszywa. Czynniki wpływające na moc testu hipotezy statystycznej 1. Moc zależy od odległości między wartością parametru zakładaną w hipotezie zerowej, a prawdziwą wartością parametru. Im większa odległość, tym większa moc. 2. Moc zależy od wielkości odchylenia standardowego w populacji. Im mniejsze odchylanie, tym większa moc. 3. Moc zależy od liczebności próby. Im liczniejsza próba, tym większa moc. 4. Moc zależy od poziomu istotności testu. Im niższy poziom istotności, tym mniejsza moc testu. Rozkład F jest rozkładem ilorazu dwóch niezależnych zmiennych losowych chi-kwadrat, z których każda podzielona jest przez właściwą dla niej liczbę stopni swobody. Analiza wariancji: ANOVA jest statystyczna metodą rozstrzygania o istnieniu różnie między średnimi w kilku populacjach Założenia niezbędne do stosowania analizy wariancji: 1. Próby zostały pobrane niezależnie od siebie z każdej z r populacji 2. W każdej z r badanych populacji rozkład jest normalny o tej samej wariancji tych populacjach mogą, lecz nie muszą, być równe. . Średnie w Sprawdzian używany w ANOVA: Podstawowa zasady analizy wariancji: Jeżeli średnie w r populacjach są różne (tzn. co najmniej dwie z tych średnich są różne), to jest prawdopodobne, że odchylenia wyników obserwacji od odpowiadających im średnich z prób będą małe w porównaniu z odchyleniami r średnich od średniej ogólnej . Przez błąd albo odchylenie losowe rozumiemy różnicę między wynikiem obserwacji a średnią z odpowiedniej próby. Przez odchylenia wynikające z zabiegu rozumiemy odchylenia średniej z próby pobranej z danej populacji od średniej ogólnej. Zasada sumy kwadratów. Suma kwadratów odchyleń całkowitych (SST), zwaną całkowitą sumę kwadratów, jest sumą dwóch składników: sumy kwadratów odchyleń zbiegowych (SSTR) i sumy kwadratów błędów (SSE): SST = SSTR+SSE Gdy zerowa hipoteza ANOVA jest prawdziwa tj. gdy średnie we wszystkich populacjach są jednakowe to MSTR i MSE są dwoma niezależnymi estymatorami wspólnej wariancji . Przy założeniach ANOVA, jeżeli hipoteza zerowa jest prawdziwa, to iloraz MSTR/MSE ma rozkład F i liczbach stopni swobody r-1 w liczniku i n-r w mianowniku Średnie z prób (średnie grupowe) populacjach , są nieobciążonymi estymatorami odpowiednich średnich w Średni kwadratowy błąd MSE jest nieobciążonym estymatorem wspólnej wszystkich populacjom wariancji Studentyzowany rozkład rozstępu, q, jest rozkładem prawdopodobieństwa o liczbie stopni swobody r oraz n-r Sprawdzianem przy testowaniu każdej z hipotez jest bezwzględna wartość różnicy między porównanymi średnimi z próby. Model statystyczny jest układem równań i założeń, który ujmuje istotne cechy charakterytyczne pewnej rzeczywistej sytuacji. Modelem o ustalonych efektach jest model, w którym poziomy badanych czynników (czyli zabiegi) są z góry ustalone. Wnioski są ważne tylko w odniesieniu do zbadanych poziomów (zabiegów) Modelem o efektach losowych jest model, w którym poziomy badanych czynników (zabiegi) są wybierane losowo z całej populacji poziomów. Wnioski są ważne dla całej populacji poziomów (zabiegów) Całkowicie ulosowiony plan eksperymentu to plan, w którym elementy są przydzielane do zabiegów w sposób losowy. W konsekwencji każdy badany element ma taką samą szansę, że zostanie poddany dowolnemu zabiegowi. Mówimy, że występują interakcja dwóch czynników, jeżeli efekt uzyskany przy danym poziomie jednego czynnika zależy od poziomu drugiego czynnika. (Poziomy czynników utożsamiamy z zabiegami). Jeżeli interakcja nie zachodzi, to mówimy, że czynniki są addytywne. Współczynnik determinacji r2 jest opisową miarą siły liniowego związku między zmiennymi, czyli miarą dopasowania linii regresji do danych.