Wprowadzenie i statystyka opisowa
Populacja – jest pojmowana jako zbiór wyników wszystkich pomiarów, którymi badacz jest
zainteresowany. Pupulacje nazywa się też uniwersum
Próba – jest podzbiorem wyników pomiarów wybranych z populacji. Pobierania próby dokonuję się z
reguły w sposób losowy, tj. w taki sposób, żeby każda możliwa próba złożona z n elementów miała
taką samą szansę, że zostanie wybrana. Tak wybraną próbę nazywa się prostą próba losową lub
krócej próbą losową
P-tym percentylem w zbiorze liczb (uporządkowanych wg wielkości) jest taka wartość, poniżej której
znajduję się P% liczb z tego zbioru. Miejsce P-tego percentyla określa wzór: (n+1)P/100, gdzie n jest
liczbą elementów zbioru
Pierwszy kwartyl to 25-ty percentyl, czyli wartość, poniżej której znajduję się jedna czwarta wyników
obserwacji (kwartyl dolny)
Drugi kwartyl – jest 50-ty percentyl, który obliczyliśmy w przykładzie, jest to najważniejszy kwartyl,
mający specjalną nazwę mediana (kwartyl środkowy)
Mediana – jest to 50-ty percentyl, czyli wartość, poniżej której znajduję się połowa obserwacji.
Trzeci kwartyl – jest to 75-ty percentyl, czyli wartość, poniżej której znajduje się trzy czwarte
wyników obserwacji (kwartyl górny)
Odstępem międzykwartylowym nazywamy różnicę między trzecim, a pierwszym kwartylem
Dominantą w zbiorze danych jest to wartość, która w tym zbiorze występuję najczęściej
Średnią zbioru wyników obserwacji, zwaną także przeciętną, jest suma wartośći wszystkich wyników
podzielona przez liczbę elementów tego zbioru.
Rozstępem w zbiorze wyników obserwacji nazywamy różnicę między największą i najmniejszą
zaobserwowaną wartością
Wariancją w zbiorze wyników obserwacji nazywamy przeciętne kwadratowe odchylenie
poszczególnych wyników do ich średniej
Odchyleniem standardowym w zbiorze wyników obserwacji nazywamy (dodatni) pierwiastek
kwadratowy z wariancji
Grupę danych, których wartości mieszczą się w granicach jednego z ustalonych przez nas
przedziałów, nazywamy klasą.
Histogram jest wykresem utworzonym ze słupków o różnej wysokości. Wysokość słupka reprezentuję
częstość, z jaką pojawiły się wyniki obserwacji należące do klasy reprezentowanej przez słupek.
Sąsiedzie słupki mają wspólne boki
Względną częstością, odpowiadającą danej klasie, jest liczba wyników obserwacji należących do tej
klasy (liczebność klasy) podzielona przez liczbę wszystkich obserwacji
Medianę dla pogrupowanych danych szacuję się wg wzoru: L+(j/f)W, gdzie L jest dolną granicą klasy
medialnej, f jest liczebnością klasy medialnej, W jest rozpiętością przedziału wartości
odpowiadającego klasie medialnej, j jest liczbą danych, które trzeba minąć po osiągnięciu L, żeby
dojść do mediany.
Kurtoza jest miarą spłaszczenia rozkładu częstości (które przedstawiamy spiczastości)
Średnia jest miarą tendencji w zbiorze wyników obserwacji, a standardowe odchylenie – miarą ich
rozproszenia
36-37 do wydrukowania
Prawdopodobieństwo
Przez zbiór rozumiemy zespół jakichkolwiek elementów.
Zbiorem uniwersalnym jest zbiór, którego elementami są wszystkie obiekty rozważane w danej
sytuacji. Zbiór uniwersalny oznaczamu tu przez X
Zbiorem pustym jest zbiór nie zawierający żadnego elementu. Oznaczamy przez
Dopełnienem zbioru A jest zbiór zawierający wszystkie elementy zbioru uniwersalnego X, które nie są
elementami zbioru A. Dopełnienie zbioru A oznaczamy przez
i nazywany często „nie A”.
Iloczynem (przekrojem) zbirów A i B, oznaczanym przez
nazywamy zbiór tych wszystkich
elementów, które równocześnie są elementami zbioru A i zbioru B
Sumą (połączeniem) zbiorów A i B, oznaczanym przez
nazywamy zbiór wszystkich tych
elementów, które nalezą albo do zbioru A, albo do zbioru B, albo do obu.
Eksperymentem nazywamy proces, który prowadzi do jednego z możliwych wyników. Nazywamy je
wynikami obserwacji lub wynikami pomiaru.
Przestrzeń prób jest zbiorem wszystkich możliwych wyników eksperymentu . Jest ona zbiorem
uniwersalnym X związanym z danym eksperymentem.
Zdarzeniami są podzbiory w przestrzeni próby. Są to zbiory pewnych zdarzeń elementarnych.
Mówimy, że zaszło dane zdarzenie, jeżeli w wyniku eksperymentu zaszło zdarzenie będące
elementem podzbioru odpowiadającego temu zdarzeniu.
Przy założeniu równej możliwości zdarzeń elementarnych, prawdopodobieństwo zdarzenia A jest
względną miarą A w stosunku do miary przestrzeni prób X.
Prawdopodobieństwo zdarzenia A: P(A) = |A|/|X|
Prawdopodobieństwo jest miarą niepewności. Prawdopodobieństwo zdarzenia A jest liczbową miarą
naszego przekonania, że zdarzenie to zajdzie.
Dla dowolnego zdarzenia A: 0 <= P(A) < 1
Losowe pobieranie próby z wielkiej populacji implikuję niezależność wyników losowań.
Pojęcia kombinatoryczne:
Jeżeli istnieje n zdarzeń, a zdarzenie i może się zrealizować na N sposobów, to liczba sposobów, na
które może się zrealizować ciąg n zdarzeń, jest równa N1, N2, … , Nn.
Dla każdej liczby naturalnej n, definiujemy n silnia jako iloczyn n*(n-1)(n-2)*…*1. Wartość n silnia
oznaczamy przez n! Liczba n! jest liczbą sposobów, na które można uporządkować (ustawić w
kolejności) n obiektów. Przyjmujemy umownie, że 0! = 1.
Wariacjami (rozmieszczeniami) nazywamy uporządkowane podzbiory r-elementowe wybrane ze
zbioru n obiektów. Liczbę wariacji r-elementowych, które można utworzyć ze zbioru n obiektów,
oznaczamy przez nPr: nPr = n!/(n-r)!
Kombinacjami nazywamy r-elementowe podzbiory wybrane ze zbioru n obiektów, niezależnie od
porządku (kolejności) elementów. Liczbę kombinacji oznaczamy przez (n r), który symbol czytamy: n
po r. Używa się też oznaczenia nCr. Liczbą kombinacji r-elementowych ze zbioru n obiektów wyznacza
wzór: nCr = n!/r!(n-r)!
Zmienne losowe:
Zmienną losową jest zmienna, która przyjmuje różne wartości liczbowe, wyznaczone przez los.
Zmienna losowa jest skokowa (dyskretna), gdy może przyjmować wartości ze zbioru najwyżej
przeliczalnego.
Zmienna losowa ciągła może przyjmować wartości z dowolnego przedziału liczbowego. Możliwe
wartości takiej zmiennej tworzą zbiór nieprzeliczalnie nieskończony.
Skumulowaną funkcją rozkładu (dystrybuantą) skokowej zmiennej losowej X jest funkcja:
Oczekiwana wartość skokowej zmiennej losowej X jest równa sumie wszystkich możliwych wartości
tej zmiennej mnożonych przez ich prawdopodobieństwa
Twierdzenie Czebyszewa – dla dowolnej zmiennej losowej o średniej
i odchyleniu standardowym
oraz dla dowolnej liczby k > 1:
Doświadczenia Bernouliego to ciągi doświadczeń spełniających następujące warunki:
1. Są dwa możliwe wyniki każdego doświadczenia, nazywane sukcesem i porażką. Wyniki te
wykluczają się i dopełniają
2. Prawdopodobieństwo sukcesu, oznaczone przez p, pozostaje takie samo od doświadczenia
do doświadczenia. Prawdopodobieństwo porażki, oznaczone przez q, równe jest 1-p.
3. Doświadczenia są od siebie niezależne. Znaczy to, że wynik któregokolwiek doświadczenia nie
ma wpływu na wynik pozostałych doświadczeń.
Zmienna losowa X, będąca liczbą sukcesów w serii n doświadczeń Bernouliego, w każdym z których p
jest prawdopodobieństwem sukcesu, podlega rozkładowi dwumianowemu z parametrami n oraz p.
Nazywamy ją dwumianową zmienną losową.
Rozkład Poissona jest wygodny do scharakteryzowania zmiennej losowej będącej liczbą zajść
pewnego zdarzenia w określonym przedziale czasu.
Gdzie jest średnią rozkładu (i równocześnie jego wariancją), e jest podstawą logarytmów
naturalnych (e=2,71828)
Ciągła zmienną losową to taka zmienna losowa, która może przyjmować dowolne wartości z
pewnego przedziału liczbowego. Prawdopodobieństwa związane z ciągła zmienną losową X są
wyznaczane przez funkcję gęstości prawdopodobieństwa zmiennej losowej. Ta funkcja, oznaczana
f(x) ma następujące własności:
1. f(x) >= 0 dla wszystkich x
2. Prawdopodobieństwo, że X przyjmie wartość między a i b jest równe mierze pola pod krzywą
(wykresem) f(x) między punktami a i b.
3. Całe pole pod krzywą (wykresem) f(x) ma miarę 1.0.
Rozkład normalny:
Skumulowana funkcja rozkładu prawdopodobieństwa (dystrybuanta) ciągłej zmiennej losowej:
F(x)=P(X<=x) – miara pola pod wykresem funkcji f(x) między najmniejszą możliwą wartością X a
punktem x.
Standaryzowaną normalną zmienną losową Z jest normalna zmienna losowa o średniej
i
odchyleniu standardowym
Rozkład normalny jest granicznym rozkładem prawdopodobieństwa w wielu sytuacjach.
Pobieranie próby i rozkład z próby:
Parametrami populacji lub po prostu populacji, nazywa się liczbowe charakterystyki całej populacji.
Statystyką z próby, lub po prostu statystyka, nazywa się liczbową charakterystykę próby.
Estymatorem parametru populacji jest statystyka z próby używana do oszacowania parametru.
Oceną lub szacunkiem parametru jest konkretna wartość liczbowa estymatora z danej próby. Jeżeli
jako ocenę (szacunek) podajemy jedną wartość liczbową, nazywamy ją oceną punktową (szacunkiem
punktowym) parametru populacji
Frakcją (częstością) w populacji, p , jest liczba elementów w populacji należących do pewnej
kategorii, którą się interesujemy, podzielona przez liczbę wszystkich elementów populacji.
Rozkład statystyki z próby jest rozkładem prawdopodobieństwa wszystkich możliwych wartości,
jakie ta statystyka może przyjąć, jeżeli obliczamy ja na podstawie badania losowych prób o tych
samych rozmiarach pobranych z określonej populacji.
Rozkład średniej z próby, X, to rozkład prawdopodobieństwa wszystkich wartości, jakie może
przybrać losowa zmienna X, gdy próba o liczebności n jest pobierana z określonej populacji.
Centralne twierdzenie graniczne: jeżeli pobieramy próbę z populacji o średniej
odchyleniu standardowym
i odchyleniu standardowym
i skończonym
, gdy liczebność próby wzrasta
nieograniczenie, czyli dla „dostatecznie dużych n”:
Estymator jest nieobciążony, jeżeli jego wartość oczekiwana jest równa parametrowi populacji, do
oszacowania którego służy.
Systematyczne odchylanie się wartości estymatora od szacowanego parametru nazywa się
obciążeniem estymatora.
Estymator jest efektywny, jeżeli ma niewielką wariancję (a tym samym niewielkie odchylenie
standardowe).
Estymator jest zgodny, jeżeli prawdopodobieństwo, ze jego wartość będzie bliska wartośći
szacowanego parametru wzrasta wraz ze wzrostem liczebności próby.
Estymator jest dostateczny, jeżeli wykorzystuje wszystkie informacje o szacowanym parametrze,
które są zawarte w danych (w próbie)
Liczba stopni swobody jest równa liczbe wszystkich pomiarów (która nie musi być równa liczbe
wyników obserwacji) pomniejszonej o liczbę wszystkich ograniczeń narzuconych na te pomiary.
Ograniczeniem jest każda wielkość, która zostaje obliczona na podstawie tych samych pomiarów.
Przedziały ufności:
Przedziałem ufności nazywamy przedział liczbowy, o którym przypuszczamy, że mieści się w
nim nieznany parametr populacji. Z przedziałem tym związana jest miara ufności (pewności),
że ten przedział naprawdę zawiera interesujący nas parametr, zwana poziomem ufności.
Jeżeli pobieramy próby o tej samej liczebności z tej samej populacji, to im wyższy jest poziom
ufności, tym szerszy jest przedział ufności.
Jeżeli pobieramy próbę z tej samej populacji, to przy ustalonym poziomie ufności im
liczniejsza próba, tym węższy jest przedział ufności.
Ilekroć nie jest znane (a rozkład w populacji jest normalny) właściwym rozkładem, którym
powinniśmy się posługiwać, jest rozkład t przy n-1 stopniach swobody. Przy dużej liczbie
stopni swobody dobrym przybliżeniem rozkładu t jest rozkład Z.
Rozkład chi-kwadrat jest rozkładem prawdopodobieństwa sumy kwadratów niezależnych,
standaryzowanych, normalnych zmiennych losowych.
Średnia rozkładu chi-kwadrat jest równa liczbie stopni swobody, df. Wariancja tego rozkładu
jest równa liczbie stopni swobody pomnożonej przez dwa.
Sprawdzania (testowanie) hipotez:
Hipotezą zerową, oznaczona przez
, jest hipoteza o wartości jednego (lub wielu) parametru
populacji. Tę hipotezę traktujemy jako prawdziwą, dopóki nie uzyskamy informacji statystycznych
dostatecznych do zmiany naszego stanowiska
Hipotezą alternatywną, oznaczaną przez
(?), jest hipoteza przypisująca parametrowi
(parametrom) populacji wartość niezgodną z przypisaną mu (im) przez hipotezę zerową.
Sprawdzianem lub statystyką testu nazywamy statystykę z próby, której wartość obliczona na
podstawie wyników obserwacji jest wykorzystywana do ustalenia czy możemy hipotezę zerową
odrzucić, czy jej odrzucić nie możemy.
Regułą ustalającą warunki, pod którymi można odrzucić hipotezę zerową, nazywamy regułą
decyzyjną testu hipotezy statystycznej.
Poziomem istotności testu hipotezy statystycznej jest prawdopodobieństwo popełnienia błędu
pierwszego rodzaju (oznaczona zwykle przez a)
Obszarem odrzucenia hipotezy statystycznej jest taki zbiór liczb, że jeżeli sprawdzian przyjmie
wartość z tego zbioru, to hipotezę zerową odrzucimy. Obszar odrzucenia nazywa się też obszarem
krytycznym. Obszar krytyczny wyznaczają punkty (wartości) krytyczne. Obszar krytyczny ustalany
jest tak, by przed pobraniem próby prawdopodobieństwo a, że sprawdzian znajdzie się w tym
obszarze, przy założeniu, że hipoteza zerową jest prawdziwa, było równe a.
Obszarem nieodrzucenia (przyjęcia) hipotezy statystycznej (też wyznaczonym przez punkty
krytyczne) jest taki zbiór liczb, że jeżeli sprawdzian przyjmie wartość z tego zbioru, to hipotezy
zerowej nie odrzucimy. Obszar nieodrzucenia (przyjęcia) jest wyznaczony tak, by przed pobraniem
próby prawdopodobieństwo, że sprawdzian znajdzie się w tym obszarze przy założeniu, że hipoteza
zerowa jest prawdziwa, było równe 1-a
Testem dwustronnym jest test, którego obszar odrzucenia składa się z wartości położonych pod
dwoma „ogonami” krzywej gęstości rozkładu sprawdzianu (przy założeniu prawdziwości hipotezy
zerowej)
Mówimy, że wynik badania statystycznego jest istotny na poziomie istotności a, gdy wynik ten skłania
nas do odrzucenia hipotezy zerowej na podstawie testu, w którym zastosowano poziom istotności a.
Wybór jedno- lub dwustronnego testu hipotezy statystycznej jest wyznaczony przez potrzebę
działania. Jeżeli działanie będzie podjęte, gdy parametr przekroczy pewną wartość a, to alternatywną
hipotezą będzie, że parametr jest większy od a i zostanie zastosowany test prawostronny.
Jeżeli działanie zostanie podjęte tylko wtedy, gdy uznamy, że parametr przyjmie wartość mniejszą od
a, to alternatywną hipotezą będzie, że parametr ma wartość mniejszą niż a i zostanie zastosowany
test lewostronny
Jeżeli działanie zostanie podjęte, gdy wartość parametru zostanie uznana albo za większą, albo za
mniejszą od a, to zostanie zastosowany test dwustronny.
W przypadku testów jednostronnych prawdopodobieństwo popełnienia błędu pierwszego rodzaju, a,
wyobraża pole pod jednym „ogonem” krzywej gęstości
Wartością p jest najniższy poziom istotności a, przy którym hipoteza zerowa mogłaby być odrzucona
przy otrzymanej wartości sprawdzianu.
Wartość p, to prawdopodobieństwo otrzymania takiej wartości sprawdzianu, jaką otrzymaliśmy – lub
wartości skrajniejszej – przy założeniu, że hipoteza zerowa jest prawdziwa.
Gdy wartość p jest mniejsza od 0,01, wynik eksperymentu jest bardzo istotny
Gdy wartość p jest mniejsza od 0,01 do 0,05, wynik eksperymentu jest istotny
Gdy wartość p znajduje się między 0,05, a 0,1, wynik eksperymentu przez pewnych statystyków jest
uważany za mało istotny, a przez niektórych za nieistotny
Gdy wartość p jest większa od 0,1, wynik eksperymentu przez większość statystyków jest uważany za
nieistotny.
W przypadku testu prawostronnego wartość p jest miarą pola pod krzywą gęstości rozkładu na prawo
od otrzymanej wartości sprawdzianu, jeżeli ta wartość jest dodatnia.
W przypadku testu lewostronnego wartość p jest miarą pola pod krzywą gęstości rozkładu na lewo od
otrzymanej wartości sprawdzianu, jeżeli ta wartość jest ujemna.
W przypadku testu dwustronnego wartość p jest miarą sumy dwóch pól pod krzywą gęstości rozkładu
znajdujących się na prawo od dodatniej i na lewo od ujemnej wartości sprawdzianu.
Przy danym poziomie istotności a odrzuć hipotezę zerową wtedy i tylko wtedy, gdy a >= p
Mocą testu hipotezy statystycznej jest prawdopodobieństwo odrzucenia hipotezy zerowej, gdy jest
ona fałszywa.
Czynniki wpływające na moc testu hipotezy statystycznej
1. Moc zależy od odległości między wartością parametru zakładaną w hipotezie zerowej, a
prawdziwą wartością parametru. Im większa odległość, tym większa moc.
2. Moc zależy od wielkości odchylenia standardowego w populacji. Im mniejsze odchylanie, tym
większa moc.
3. Moc zależy od liczebności próby. Im liczniejsza próba, tym większa moc.
4. Moc zależy od poziomu istotności testu. Im niższy poziom istotności, tym mniejsza moc testu.
Rozkład F jest rozkładem ilorazu dwóch niezależnych zmiennych losowych chi-kwadrat, z których
każda podzielona jest przez właściwą dla niej liczbę stopni swobody.
Analiza wariancji:
ANOVA jest statystyczna metodą rozstrzygania o istnieniu różnie między średnimi w kilku
populacjach
Założenia niezbędne do stosowania analizy wariancji:
1. Próby zostały pobrane niezależnie od siebie z każdej z r populacji
2. W każdej z r badanych populacji rozkład jest normalny o tej samej wariancji
tych populacjach mogą, lecz nie muszą, być równe.
. Średnie
w
Sprawdzian używany w ANOVA:
Podstawowa zasady analizy wariancji:
Jeżeli średnie w r populacjach są różne (tzn. co najmniej dwie z tych średnich są różne), to jest
prawdopodobne, że odchylenia wyników obserwacji od odpowiadających im średnich z prób będą
małe w porównaniu z odchyleniami r średnich od średniej ogólnej .
Przez błąd albo odchylenie losowe rozumiemy różnicę między wynikiem obserwacji a średnią z
odpowiedniej próby.
Przez odchylenia wynikające z zabiegu rozumiemy odchylenia średniej z próby pobranej z danej
populacji od średniej ogólnej.
Zasada sumy kwadratów. Suma kwadratów odchyleń całkowitych (SST), zwaną całkowitą sumę
kwadratów, jest sumą dwóch składników: sumy kwadratów odchyleń zbiegowych (SSTR) i sumy
kwadratów błędów (SSE): SST = SSTR+SSE
Gdy zerowa hipoteza ANOVA jest prawdziwa tj. gdy średnie we wszystkich populacjach są jednakowe
to MSTR i MSE są dwoma niezależnymi estymatorami wspólnej wariancji
.
Przy założeniach ANOVA, jeżeli hipoteza zerowa jest prawdziwa, to iloraz MSTR/MSE ma rozkład F i
liczbach stopni swobody r-1 w liczniku i n-r w mianowniku
Średnie z prób (średnie grupowe)
populacjach
, są nieobciążonymi estymatorami odpowiednich średnich w
Średni kwadratowy błąd MSE jest nieobciążonym estymatorem wspólnej wszystkich populacjom
wariancji
Studentyzowany rozkład rozstępu, q, jest rozkładem prawdopodobieństwa o liczbie stopni swobody
r oraz n-r
Sprawdzianem przy testowaniu każdej z hipotez jest bezwzględna wartość różnicy między
porównanymi średnimi z próby.
Model statystyczny jest układem równań i założeń, który ujmuje istotne cechy charakterytyczne
pewnej rzeczywistej sytuacji.
Modelem o ustalonych efektach jest model, w którym poziomy badanych czynników (czyli zabiegi) są
z góry ustalone. Wnioski są ważne tylko w odniesieniu do zbadanych poziomów (zabiegów)
Modelem o efektach losowych jest model, w którym poziomy badanych czynników (zabiegi) są
wybierane losowo z całej populacji poziomów. Wnioski są ważne dla całej populacji poziomów
(zabiegów)
Całkowicie ulosowiony plan eksperymentu to plan, w którym elementy są przydzielane do zabiegów
w sposób losowy. W konsekwencji każdy badany element ma taką samą szansę, że zostanie poddany
dowolnemu zabiegowi.
Mówimy, że występują interakcja dwóch czynników, jeżeli efekt uzyskany przy danym poziomie
jednego czynnika zależy od poziomu drugiego czynnika. (Poziomy czynników utożsamiamy z
zabiegami). Jeżeli interakcja nie zachodzi, to mówimy, że czynniki są addytywne.
Współczynnik determinacji r2 jest opisową miarą siły liniowego związku między zmiennymi, czyli
miarą dopasowania linii regresji do danych.
Download

Wprowadzenie i statystyka opisowa