Adam Zaborski – Statystyka STATYSTYKA Statystyka jest nauką dotyczącą gromadzenia, organizacji i interpretacji danych, dostarczającą narzędzi do przewidywania i prognozowania na podstawie danych i modeli statystycznych. Istnieją trzy rodzaje kłamstw: kłamstwa, cholerne kłamstwa i statystyka. Statystyka jest jak bikini: pokazuje to co sugestywne a zakrywa to co życiowe. Bardzo łatwo można manipulować wynikami poprzez wybór odpowiedniej próbki. Takie manipulacje niekoniecznie muszą być zamierzone i celowe, mogą wynikać z nieuświadomionych uprzedzeń badających. Wykresy używane do podsumowania danych również mogą być mylące. Różnica statystycznie znacząca może nie mieć praktycznego znaczenia. Na przykład, chcemy zapalić silnik. Zauważamy, że za każdym razem, gdy nie możemy uruchomić silnika nie możemy włączyć także świateł. Zatem możliwy jest wniosek, że awaria świateł powoduje niemożność uruchomienia silnika. Ale przecież oba zjawiska naprawdę są spowodowane rozładowaniem akumulatora (i prawdopodobnie złym działaniem alternatora). Wybrany podzbiór z całej populacji nazywany jest próbką. Adam Zaborski – Statystyka Jeśli próbka ma posłużyć do odwzorowania całej populacji, istotne jest aby była reprezentatywna. Najczęściej badana jest jedynie próbka z całej populacji a wnioski są wyciągane odnośnie całej populacji. Statystyka opisowa – podsumowuje dane numerycznie lub graficznie (np. średnia, odchylenie standardowe dla wielkości ciągłych, częstość i procentowość dla danych dyskretnych czy kategoryzowanych). Statystka wnioskowania dostarcza wniosków odnośnie całej populacji: odpowiedzi tak/nie na zapytania, oszacowanie liczbowe charakterystyk, opis korelacji, modelowanie zależności (regresji), ekstrapolacja, interpolacja i inne techniki modelowania. Powszechnym błędem jest przyjmowanie częstości statystycznej (wyrażonej w %) jako prawdopodobieństwa (również w %). Taka sama jednostka obu zmiennych nie oznacza jednak że zmienne są takie same. Na przykład, w statystyce 95 % oznacza, że coś wydarzy się w 95% na 100 powtórzeń. To niedokładnie to samo co 95% prawdopodobieństwo zdarzenia, Adam Zaborski – Statystyka Dokładność i precyzja Czy zawsze potrzebujemy dokładnej wartości jakiejś wielkości? Oczywiście że nie. Czasem potrzebujemy jedynie jakościowych informacji albo zgrubne oszacowanie nam wystarcza. Weźmy pod uwagę osiadanie budynku. Załóżmy że obok budynku wykonywano głębokie wykopy. Chcemy jedynie informacji czy osiadanie przebiega nadal, czy jest to proces zakończony. Odpowiedź na to pytanie możemy uzyskać drogą prostego doświadczenia naklejenia markerów a niekoniecznie działania zasługującego na miano pomiaru. Dokładność pomiaru to stopień zbliżenia pomiaru do rzeczywistej wartości mierzonej wielkości. Precyzja, zwana też powtarzalnością lub odtwarzalnością, to stopień w jakim powtarzane pomiary w niezmienionych warunkach dają takie same wyniki. Choć w języku potocznym oba słowa oznaczają to samo, są celowo rozróżniane w kontekście naukowych metod badawczych. Adam Zaborski – Statystyka System pomiarowy może być dokładny ale nieprecyzyjny, precyzyjny ale niedokładny, dokładny i precyzyjny albo niedokładny i nieprecyzyjny. Na przykład, jeśli jakiś pomiar zawiera błąd systematyczny, dokładność jest niewielka. Pomiar jest uznawany za prawidłowy jeśli jest zarówno dokładny jak i precyzyjny. Związane z tym określenia to szum (dla wielkości nielosowych) oraz błąd (zmienność losowa). Dokładność to poprawność pomiaru, precyzja to możliwość odnotowania mniejszych różnic. Adam Zaborski – Statystyka Najlepiej dokładność i precyzję obrazuje analogia do tarczy strzeleckiej: Duża dokładność, mała precyzja i duża precyzja, mała dokładność Poza dokładnością i precyzją mamy jeszcze czułość, czyli najmniejszą zmianę mierzonej wielkości wychwytywaną pomiarem. Uwaga: nie wolno sztucznie zawyżać czułość przyrządu pomiarowego ponad ustaloną przez wytwórcę: zazwyczaj – jeśli nie powiedziano inaczej – jest to najmniejsza działka na skali przyrządu. Powszechną konwencją w nauce i technice jest wyrażanie dokładności i precyzji poprzez liczbę cyfr znaczących. Na przykład:: 8 x 103 m oznacza 8000 metrów (8 km, margines błędu nieznany, nieokreślony) 8.0 x 103 oznacza margines błędu 50 metrów 8.00 x 103 oznacza margines błędu 5 metrów 8.000 x 103 oznacza margines błędu 50 centymetrów. Adam Zaborski – Statystyka Rozkład normalny (rozkład Gaussa) jest ciągłym rozkładem prawdopodobieństwa w postaci krzywej “dzwonowej” z maksimum dla wartości średniej: gdzie: – średnia, określa położenie centralnego maksimum krzywej – wariancja, określa “szerokość” krzywej, niektórzy używają odwrotności nazywanej precyzją, jeśli jest równa zero, funkcja gęstości prawdopodobieństwa nie istnieje: jest wtedy funkcją delta-Diraca, równą nieskończoność dla średniej i zero wszędzie indziej. Rozkład o średniej 0 i wariancji 1 nazywany jest rozkładem normalnym standardowym: pole pod krzywą jest równe 1 i ½ w wykładniku daje szerokość krzywej (połowa odległości pomiędzy punktami przegięcia) również równą 1. Adam Zaborski – Statystyka Rozkład normalny funkcji gęstości prawdopodobieństwa Rozkład normalny jest często używany do opisu, przynajmniej przybliżonego, zmiennych które wykazują tendencję skupiania się wokół średniej. Zakłada się że błąd obserwacji podlega rozkładowi normalnemu, i rozrzut jest obliczany przy takim założeniu. Na podstawie centralnego twierdzenia granicznego, pod pewnymi założeniami suma pewnej liczby zmiennych losowych ze skończoną wartością średniej i wariancji zmierza do rozkładu normalnego przy rosnącej liczbie zmiennych. Adam Zaborski – Statystyka Ze wszystkich rozkładów, rozkład normalny odpowiada maksimum entropii. Dwa estymatory σ i s różnią się poprzez (n-1) zamiast n (dla całej populacji). Kiedy na wynik pomiaru wpływa duża liczba niewielkich efektów addytywnych i niezależnych, ich rozkład losowy jest bliski normalnemu. Błędy pomiaru w fizyce eksperymentalnej są często przyjmowane według rozkładu normalnego. Niektóre inne rozkłady: dwumianowy, Poissona, chi-kwadrat, Studenta, mogą być aproksymowane rozkładem normalnym, jeśli próbka jest duża. Średnia - - arytmetyczna: średnia arytmetyczna wartości; niekoniecznie to samo co wartość środkowa (mediana), albo największa (moda); na przykład średni dochód jest zawyżony przez niewielką liczbę osób o wysokich dochodach, tak że większość ma dochody poniżej średniej; mediana dochodu jest poziomem dochodu takim, że połowa populacji ma dochody powyżej a połowa poniżej tej wartości; moda dochodu to najpowszechniej występujący dochód, faworyzuje liczną grupę osób z niższym dochodem średnia geometryczna jest użyteczna dla zbiorów dodatnich liczb interpretowanych zgodnie z ich iloczynem a nie sumą, np. szybkość wzrostu Adam Zaborski – Statystyka - harmoniczna średnia używana jest dla zbiorów liczb definiowanych w relacji do pewnej jednostki, np. prędkość powyższe średnie spełniają nierówności: AM >= GM >= HM. Średnia populacji a średnia próbki: - Średnia populacji jest wielkością losową a nie stałą. - Średnia próbki może się różnić od średniej populacji, zwłaszcza dla małych próbek, ale z prawa wielkich liczb wynika że im większa próbka tym bardziej średnia próbki będzie bliższa średniej populacji. Wariancja Opisuje rozrzut wartości od wartości średniej. Jednostką wariancji jest pierwiastek z jednostki zmiennej. Z tego powodu częściej używa się odchylenia standardowego. Adam Zaborski – Statystyka Odchylenie standardowe Jest to pierwiastek kwadratowy z wariancji, stanowi miarę zmienności czy rozrzutu; czy dane są bardzo blisko średniej czy bardziej rozrzucone. Odchylenie standardowe jest często używane do określania przedziału ufności we wnioskowaniu statystycznym. SD, przeciwnie do wariancji ma jednostkę taką samą jak zmienna. Krzywa dzwonowa. Każde pasmo ma szerokość równą SD (68%, 95%, 99.7%) Adam Zaborski – Statystyka Przedział ufności Używany jest do wskazania wiarygodności oszacowania. Zwiększając poziom ufności, zwiększamy przedział ufności. Przedział ufności jest zawsze określany poprzez określony poziom ufności, zwykle wyrażony w procentach; mówi się o “95% przedziale ufności”. Punkty skrajne tego przedziału nazywa się granicami ufności. Formalnie 95% przedział ufności oznacza, że przy powtarzaniu próbkowania w niezmiennych warunkach, przedział będzie zawierał prawdziwe wartości w 95 % przypadków. Nie oznacza to, że prawdopodobieństwo iż prawdziwa wartość jest w przedziale ufności wynosi 95%. (Jest To prawda dla tzw. przedziałów zaufania w statystyce Bayesa). Obliczenie przedziału ufności wymaga założeń odnośnie do natury procesu oszacowania, np. że rozkład populacji z której pobrano próbkę jest rozkładem normalnym. Cechami pożądanymi są: - stabilność (przedział ufności nie zmienia się) Adam Zaborski – Statystyka - optymalność (przedział ufności określa się z jak największej ilości danych) niezmienności (niezależność od współrzędnych) Skośność Jest to miara asymetrii rozkładu prawdopodobieństwa zmiennej. Adam Zaborski – Statystyka Rozkład t-Studenta Jest to ciągły rozkład prawdopodobieństwa używany w problemach określania średniej dla populacji o rozkładzie normalnym przy małej próbce. Używamy go, gdy (jak to jest prawie w każdym zadaniu statystyki) odchylenie standardowe populacji nie jest znane i ma być wyznaczone na podstawie danych. Są ogólnie dwa rodzaje problemów: 1. rozmiar próbki jest tak duży, że można traktować wariancję jako pewną wartość 2. odchylenie standardowe jest nieznane. Rozkład funkcji gęstości prawdopodobieństwa rozkładu t-Studenta przypomina krzywą dzwonową o średniej 0 i wariancji 1, choć jest nieco niżej i szerzej. Gdy liczba stopni swobody rośnie, rozkład t-Studenta zbliża się do rozkładu normalnego o średniej 0 i wariancji 1. Adam Zaborski – Statystyka Funkcja gęstości prawdopodobieństwa Adam Zaborski – Statystyka Często ustala się liczbę stopni swobody na niewielkim poziomie i szacuje się inne parametry przyjmując stopnie swobody jako zadane. Niektórzy autorzy podają że już wartości pomiędzy 3 a 9 są często dobrym wyborem. Praktyczne wzory wartość średnia x m n xi i odchylenie standardowe próbki z populacji: S x przedział ufności t ( n 1) x x i i 2 m n 1 Sx , n gdzie t ( n1) - współczynnik rozkładu t-Studenta Wynik ze spodziewaną częstością % jest zawarty w przedziale: x x m . Adam Zaborski – Statystyka Wzory i kolejność obliczeń: Pomiar bezpośredni wartość średnia x m odchylenie standardowe S x przedział ufności końcowy wynik x xm Pomiar pośredni jednej zmiennej y f ( x ) wartość średnia ym f ( xm ) odchylenie standardowe S y f ' ( x ) S x przedział ufności y końcowy wynik y y m Pomiar pośredni wielu wartości. Dla funkcji wielu zmiennych y f ( x1 ,, xk ) Adam Zaborski – Statystyka wartość średnia ym dla i 1,, k odchylenie standardowe S xi dla i 1,, k przedział ufności xi dla i 1,, k 2 f f przedział ufności y x1 xk x1 xk 2 końcowe wyniki y ym y r 1 2 3 4 5 6 7 8 TABLICA ROZKŁADU t – STUDENTA (DLA POZIOMU UFNOŚCI 95 %) r r r r t r t r t r t r t r 12.706 9 2.262 17 2.110 25 2.060 60 2.000 4.303 10 2.228 18 2.101 26 2.056 3.182 11 2.201 19 2.093 27 2.052 100 1.980 2.776 12 2.179 20 2.086 28 2.048 2.571 13 2.160 21 2.080 29 2.045 1.960 2.447 14 2.145 22 2.074 30 2.042 2.365 15 2.131 23 2.069 2.306 16 2.120 24 2.064 40 2.021 r=n-1 Adam Zaborski – Statystyka Przykład P P h b a l a M Mamy 4 pomiary dla obciążania4 dla odciążania dla obu czujników, 16 pomiarów w sumie. Obliczamy różnice(zmianę wskazań czujników), notują wyniki: 1.06, 1.08, 1.03, 1.04, 1.06, 1.07, 1.08, 1.09, 1.05, 1.06, 1.05, 1.07, 1.07, 1.07, 1.05, 1.04, 1.06 Mamy wzór końcowy: , Obliczamy: - średnia x 1.060 mm Adam Zaborski – Statystyka - średnia E 208 GPa odchylenie standardowe dla pomiaru ugięć:: S x 0.01633 mm odchylenie standardowe dla pomiaru pośredniego modułu Younga: S E 3.208 GPa - przedział ufności: końcowy wynik zapisujemy: GPa GPa