statystyka

advertisement
Adam Zaborski - Statystyka
STATYSTYKA
Statystyka jest nauką dotyczącą gromadzenia, organizacji i interpretacji danych, dostarczającą
narzędzi do przewidywania i prognozowania na podstawie danych i modeli statystycznych.
Istnieją trzy rodzaje kłamstw: kłamstwa, cholerne kłamstwa i statystyka.
Statystyka jest jak bikini: pokazuje to co sugestywne a zakrywa to co życiowe.
Bardzo łatwo można manipulować wynikami poprzez wybór odpowiedniej próbki. Takie
manipulacje niekoniecznie muszą być zamierzone i celowe, mogą wynikać z
nieuświadomionych uprzedzeń badających. Wykresy używane do podsumowania danych
również mogą być mylące. Różnica statystycznie znacząca może nie mieć praktycznego
znaczenia.
Na przykład, chcemy zapalić silnik. Zauważamy, że za każdym razem gdy nie możemy
uruchomić silnika nie możemy włączyć także świateł. Możliwy jest zatem wniosek, że awaria
świateł powoduje niemożność uruchomienia silnika. Ale przecież oba zjawiska naprawdę są
spowodowane rozładowaniem akumulatora (i prawdopodobnie złym działaniem alternatora).
Wybrany podzbiór z całej populacji nazywany jest próbką.
Adam Zaborski - Statystyka
Jeśli próbka ma posłużyć do odwzorowania całej populacji, istotne jest aby była
reprezentatywna.
Najczęściej badana jest jedynie próbka z całej populacji a wnioski są wyciągane odnośnie
całej populacji.
Statystyka opisowa – podsumowuje dane numerycznie lub graficznie (np. średnia, odchylenie
standardowe dla wielkości ciągłych, częstość i procentowość dla danych dyskretnych czy
kategoryzowanych).
Statystka wnioskowania dostarcza wniosków odnośnie całej populacji: odpowiedzi tak/nie na
zapytania, oszacowanie liczbowe charakterystyk, opis korelacji, modelowanie zależności
(regresji), ekstrapolacja, interpolacja i inne techniki modelowania.
Powszechnym błędem jest przyjmowanie częstości statystycznej (wyrażonej w %) jako
prawdopodobieństwa (również w %). Taka sama jednostka obu zmiennych nie oznacza
jednak że zmienne są takie same.
Na przykład, w statystyce 95 % oznacza, że coś wydarzy się w 95% na 100 powtórzeń. To
niedokładnie to samo co 95% prawdopodobieństwo zdarzenia,
Adam Zaborski - Statystyka
Dokładność i precyzja
Czy zawsze potrzebujemy dokładnej wartości jakiejś wielkości? Oczywiście że nie. Czasem
potrzebujemy jedynie jakościowych informacji albo zgrubne oszacowanie nam wystarcza.
Weźmy pod uwagę osiadanie budynku. Załóżmy że obok budynku wykonywano głębokie
wykopy. Chcemy jedynie informacji czy osiadanie przebiega nadal, czy jest to proces
zakończony. Odpowiedź na to pytanie możemy uzyskać drogą prostego doświadczenia
naklejenia markerów a niekoniecznie działania zasługującego na miano pomiaru.
Dokładność pomiaru to stopień zbliżenia pomiaru do rzeczywistej wartości mierzonej
wielkości.
Precyzja, zwana też powtarzalnością lub odtwarzalnością, to stopień w jakim powtarzane
pomiary w niezmienionych warunkach dają takie same wyniki.
Choć w języku potocznym oba słowa oznaczają to samo, są celowo rozróżniane w kontekście
naukowych metod badawczych.
Adam Zaborski - Statystyka
System pomiarowy może być dokładny ale nieprecyzyjny, precyzyjny ale niedokładny,
dokładny i precyzyjny albo niedokładny i nieprecyzyjny.
Na przykład, jeśli jakiś pomiar zawiera błąd systematyczny, dokładność jest niewielka.
Pomiar jest uznawany za prawidłowy jeśli jest zarówno dokładny jak i precyzyjny. Związane
z tym określenia to szum (dla wielkości nielosowych) oraz błąd (zmienność losowa).
Dokładność to poprawność pomiaru, precyzja to możliwość odnotowania mniejszych różnic.
Adam Zaborski - Statystyka
Najlepiej dokładność i precyzję obrazuje analogia do tarczy strzeleckiej:
Duża dokładność, mała precyzja i duża precyzja, mała dokładność
Poza dokładnością i precyzją mamy jeszcze czułość, czyli najmniejszą zmianę mierzonej
wielkości wychwytywaną pomiarem. Uwaga: nie wolno sztucznie zawyżać czułość przyrządu
pomiarowego ponad ustaloną przez wytwórcę: zazwyczaj – jeśli nie powiedziano inaczej –
jest to najmniejsza działka na skali przyrządu.
Powszechną konwencją w nauce i technice jest wyrażanie dokładności i precyzji poprzez
liczbę cyfr znaczących. Na przykład::
8 x 103 m oznacza 800 metrów (margines błędu nieznany, nieokreślony)
8.0 x 103 oznacza margines błędu 50 metrów
8.00 x 103 oznacza margines błędu 5 metrów
Adam Zaborski - Statystyka
8.000 x 103 oznacza margines błędu 50 centymetrów.
Rozkład normalny
(rozkład Gaussa) jest ciągłym rozkładem prawdopodobieństwa w postaci krzywej
“dzwonowej” z maksimum dla wartości średniej:
f ( x) 
gdzie:
x 
1
2
2
e
2 2
 – średnia, określa położenie centralnego maksimum krzywej
 2 – wariancja, określa “szerokość” krzywej, niektórzy używają odwrotności
nazywanej precyzją, jeśli jest równa zero, funkcja gęstości prawdopodobieństwa nie istnieje:
jest wtedy funkcją delta-Diraca, równą nieskończoność dla średniej i zero wszędzie indziej.
Rozkład o średniej 0 i wariancji 1 nazywany jest rozkładem normalnym standardowym: pole
pod krzywą jest równe 1 i ½ w wykładniku daje szerokość krzywej (połowa odległości
pomiędzy punktami przegięcia) również równą 1.
Adam Zaborski - Statystyka
Rozkład normalny funkcji gęstości prawdopodobieństwa
Rozkład normalny jest często używany do opisu, przynajmniej przybliżonego, zmiennych
które wykazują tendencję skupiania się wokół średniej. Zakłada się że błąd obserwacji
podlega rozkładowi normalnemu, i rozrzut jest obliczany przy takim założeniu.
Na podstawie centralnego twierdzenia granicznego, pod pewnymi założeniami suma
pewnej liczby zmiennych losowych ze skończoną wartością średniej i wariancji zmierza do
rozkładu normalnego przy rosnącej liczbie zmiennych.
Adam Zaborski - Statystyka
Ze wszystkich rozkładów, rozkład normalny odpowiada maksimum entropii. Dwa estymatory
σ i s różnią się poprzez (n-1) zamiast n (dla całej populacji).
Kiedy na wynik pomiaru wpływa duża liczba niewielkich efektów addytywnych i
niezależnych, ich rozkład losowy jest bliski normalnemu.
Błędy pomiaru w fizyce eksperymentalnej są często przyjmowane według rozkładu
normalnego.
Niektóre inne rozkłady: dwumianowy, Poissona, chi-kwadrat, Studenta, mogą być
aproksymowane rozkładem normalnym, jeśli próbka jest duża.
Średnia
-
arytmetyczna, (AM): średnia arytmetyczna wartości; niekoniecznie to samo co
wartość środkowa (mediana), albo największa (moda); na przykład średni dochód jest
zawyżony przez niewielką liczbę osób o wysokich dochodach, tak że większość ma
dochody poniżej średniej; mediana dochodu jest poziomem dochodu takim, że połowa
populacji ma dochody powyżej a połowa poniżej tej wartości; moda dochodu to
najpowszechniej występujący dochód, faworyzuje liczną grupę osób z niższym
dochodem
Adam Zaborski - Statystyka
-
średnia geometryczna, (GM), jest użyteczna dla zbiorów dodatnich liczb
interpretowanych zgodnie z ich iloczynem a nie sumą, np. szybkość wzrostu
harmoniczna średnia, (HM), używana jest dla zbiorów liczb definiowanych w relacji
do pewnej jednostki, np. prędkość
powyższe średnie spełniają nierówności:
(AM) >= (GM) >= (HM).
Średnia populacji a średnia próbki:
- Średnia populacji jest wielkością losową a nie stałą.
- Średnia próbki może się różnić od średniej populacji, zwłaszcza dla małych próbek,
ale z prawa wielkich liczb wynika że im większa próbka tym bardziej średnia próbki
będzie bliższa średniej populacji.
Wariancja
Opisuje rozrzut wartości od wartości średniej. Jednostką wariancji jest pierwiastek z jednostki
zmiennej. Z tego powodu częściej używa się odchylenia standardowego.
Adam Zaborski - Statystyka
Odchylenie standardowe
Jest to pierwiastek kwadratowy z wariancji, stanowi miarę zmienności czy rozrzutu; czy dane
są bardzo blisko średniej czy bardziej rozrzucone.
Odchylenie standardowe jest często używane do określania przedziału ufności we
wnioskowaniu statystycznym. SD, przeciwnie do wariancji ma jednostkę taką samą jak
zmienna.
Krzywa dzwonowa. Każde pasmo ma szerokość równą SD (68%, 95%, 99.7%)
Adam Zaborski - Statystyka
Przedział ufności
Używany jest do wskazania wiarygodności oszacowania. Zwiększając poziom ufności,
zwiększamy przedział ufności.
Przedział ufności jest zawsze określany poprzez określony poziom ufności, zwykle wyrażony
w procentach; mówi się o “95% przedziale ufności”. Punkty skrajne tego przedziału nazywa
się granicami ufności.
Formalnie 95% przedział ufności oznacza, że przy powtarzaniu próbkowania w niezmiennych
warunkach, przedział będzie zawierał prawdziwe wartości w 95 % przypadków. Nie oznacza
to, że prawdopodobieństwo iż prawdziwa wartość jest w przedziale ufności wynosi 95%. (Jest
To prawda dla tzw. przedziałów zaufania w statystyce Bayesa).
Obliczenie przedziału ufności wymaga założeń odnośnie do natury procesu oszacowania, np.
że rozkład populacji z której pobrano próbkę jest rozkładem normalnym.
Cechami pożądanymi są:
- stabilność (przedział ufności nie zmienia się)
Adam Zaborski - Statystyka
-
optymalność (przedział ufności określa się z jak największej ilości danych)
niezmienności (niezależność od współrzędnych)
Skośność
Jest to miara asymetrii rozkładu prawdopodobieństwa zmiennej wokół średniej.
Adam Zaborski - Statystyka
Rozkład t-Studenta
Jest to ciągły rozkład prawdopodobieństwa używany w problemach określania średniej dla
populacji o rozkładzie normalnym przy małej próbce.
Używamy go, gdy (jak to jest prawie w każdym zadaniu statystyki) odchylenie standardowe
populacji nie jest znane i ma być wyznaczone na podstawie danych.
Są ogólnie dwa rodzaje problemów:
1. rozmiar próbki jest tak duży, że można traktować wariancję jako pewną wartość
2. odchylenie standardowe jest nieznane.
Rozkład funkcji gęstości prawdopodobieństwa rozkładu t-Studenta przypomina krzywą
dzwonową o średniej 0 i wariancji 1, choć jest nieco niżej i szerzej. Gdy liczba stopni
swobody rośnie, rozkład t-Studenta zbliża się do rozkładu normalnego o średniej 0 i wariancji
1.
Adam Zaborski - Statystyka
Funkcja gęstości prawdopodobieństwa
Adam Zaborski - Statystyka
Często ustala się liczbę stopni swobody na niewielkim poziomie i szacuje się inne parametry
przyjmując stopnie swobody jako zadane. Niektórzy autorzy podają że już wartości pomiędzy
3 a 9 są często dobrym wyborem.
Praktyczne wzory
wartość średnia x m 
n
xi
i
odchylenie standardowe próbki z populacji: Sx 
przedział ufności   t ( n 1)
 x  x 
i
i
2
m
n 1
Sx
,
n
gdzie t (n1) - współczynnik rozkładu t-Studenta
Wynik ze spodziewaną częstością % jest zawarty w przedziale: x  x m   .
Adam Zaborski - Statystyka
Wzory i kolejność obliczeń:
Pomiar bezpośredni
wartość średnia xm
odchylenie standardowe S x
przedział ufności 
końcowy wynik x  xm  
Pomiar pośredni jednej zmiennej y  f ( x )
wartość średnia ym  f ( xm )
odchylenie standardowe S y  f ' ( x ) S x
przedział ufności  y
końcowy wynik y  y m  
Pomiar pośredni wielu wartości.
Dla funkcji wielu zmiennych y  f ( x1 ,, xk )
Adam Zaborski - Statystyka
wartość średnia ym dla i  1,, k
odchylenie standardowe Sxi dla i  1,, k
przedział ufności  xi dla i  1,, k
2
 f

 f

przedział ufności  y  
x1    
xk 
  x1

  xk

2
końcowe wyniki y  ym   y
r
1
2
3
4
5
6
7
8
TABLICA ROZKŁADU t – STUDENTA (DLA POZIOMU UFNOŚCI 95 %)
r
r
r
r
tr
tr
tr
tr
tr
12.706
9
2.262
17
2.110
25
2.060
60
2.000
4.303
10
2.228
18
2.101
26
2.056
3.182
11
2.201
19
2.093
27
2.052 100
1.980
2.776
12
2.179
20
2.086
28
2.048
2.571
13
2.160
21
2.080
29
2.045
1.960

2.447
14
2.145
22
2.074
30
2.042
2.365
15
2.131
23
2.069
2.306
16
2.120
24
2.064
40
2.021
r=n-1
Adam Zaborski - Statystyka
Przykład
P
P
h
b
a
l
a
M
Mamy 4 pomiary dla obciążania4 dla odciążania dla obu czujników, 16 pomiarów w sumie.
Obliczamy różnice(zmianę wskazań czujników), notują wyniki:
1.06, 1.08, 1.03, 1.04, 1.06, 1.07, 1.08, 1.09, 1.05, 1.06, 1.05, 1.07, 1.07, 1.07, 1.05, 1.04, 1.06
Mamy wzór końcowy:
,
Obliczamy:
-
średnia x  1.060 mm
Adam Zaborski - Statystyka
-
średnia E  208 GPa
odchylenie standardowe dla pomiaru ugięć:: S x  0.01633 mm
odchylenie standardowe dla pomiaru pośredniego modułu Younga: S E  3.208 GPa
-
przedział ufności:
końcowy wynik zapisujemy:
GPa
GPa
Download