Rozdział 1 Statystyki

advertisement
Rozdział 1
Statystyki
Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego
X = (X1 , . . . , Xn ).
Uwaga 1 Statystyka jako funkcja wektora zmiennych losowych jest zmienną losową lub
wektorem losowym. Wyznaczenie rozkładu statystyki jest często bardzo trudnym zadaniem.
Przykład 1 (Momenty z próby) Momentem rzędu k z próby X = (X1 , . . . , Xn ) nazywamy
statystykę
n
1∑
Ak =
Xik .
n i=1
(1.1)
W szczególności, moment rzędu 1 z próby X = (X1 , . . . , Xn ) nazywamy średnią z próby
i oznaczamy przez X̄, czyli
X̄ =
n
1∑
Xi .
n i=1
(1.2)
Momentem centralnym rzędu k z próby X = (X1 , . . . , Xn ) nazywamy statystykę
Mk =
n
1∑
(Xi − X̄)k .
n i=1
(1.3)
W szczególności, moment centralny rzędu 2 z próby X = (X1 , . . . , Xn ) nazywamy wariancją z próby i oznaczamy przez S02 , czyli
S02
n
1∑
=
(Xi − X̄)2 .
n i=1
(1.4)
Często za definicję wariancji z próby przyjmuje się statystykę postaci
S2 =
n
1 ∑
n
S 2.
(Xi − X̄)2 =
n − 1 i=1
n−1 0
1
(1.5)
Twierdzenie 1 Jeżeli X = (X1 , . . . , Xn ) jest próbą z rozkładu normalnego N (µ, σ 2 ), to
(i) średnia X̄ z próby X ma rozkład normalny N (µ, σ 2 /n);
(ii) (n − 1)S 2 /σ 2 ma tzw. rozkład χ2 o n − 1 stopniach swobody;
(iii) zmienne losowe X̄ i S 2 są niezależne;
(iv) zmienna losowa
X̄ √
n
S
ma tzw. rozkład t-Studenta o n − 1 stopniach swobody.
Przykład 2 (Statystyki pozycyjne) W praktyce duże znaczenie mają tzw. statystyki pozycyjne z próby X = (X1 , . . . , Xn ). Statystykę Xi:n , której wartość jest równa i-tej co do
wielkości wartości w uporządkowanym rosnąco ciągu zmiennych losowych X1 , . . . , Xn nazywamy i-tą statystyką pozycyjną. Najczęściej wyznacza się pierwszą statystyką pozycyjną
(minimum), która jest postaci
X1:n = min{X1 , . . . , Xn }
(1.6)
oraz n-tą statystyką pozycyjną (maksimum), która jest postaci
Xn:n = max{X1 , . . . , Xn }.
2
(1.7)
Rozdział 2
Estymacja parametryczna
Estymacja parametryczna jest formą wnioskowania statystycznego, której zadaniem jest
oszacowanie nieznanych parametrów, bądź ich funkcji, na podstawie obserwacji realizacji
x obserwowalnego wektora losowego X o rozkładzie zależnym od tych parametrów.
W teorii estymacji wyróżniamy dwa podejścia: estymację punktową i estymację poprzez podanie tzw. zbioru ufności. W przypadku, gdy szacowany parametr jest parametrem rzeczywistym, w tym drugim podejściu, najczęściej konstruuje się tzw. przedział
ufności i estymację tego typu nazywamy estymacją przedziałową.
2.1
Estymacja punktowa
Definicja 2 Estymatorem parametru ϑ nazywamy statystykę ϑ̂ = T (X1 , . . . , Xn ), której
wartość, dla konkretnej realizacji (x1 , . . . , xn ) wektora losowego X = (X1 , . . . , Xn ), przyjmujemy za ocenę nieznanego parametru ϑ.
Otrzymaną na podstawie jednej konkretnej realizacji x wektora losowego X wartość estymatora ϑ̂ nazywamy oceną (oszacowaniem) nieznanego parametru ϑ.
2.1.1
Metody wyznaczania estymatorów
Istnieje szereg metod wyznaczania estymatorów punktowych. Do najczęściej stosowanych
zaliczamy: metodę momentów, metodę największej wiarogodności, metodę najmniejszych
kwadratów, metodę kwantyli, metodę podstawiania dystrybuanty empirycznej, metodę
podstawiania częstości, uogólnioną metodę momentów, metodę najmniejszej odległości,
metodę funkcji estymujących. W dalszej części wykładu omówimy dwie pierwsze metody
z wyżej wymienionych.
3
Metoda momentów
Metoda momentów polega na przyrównaniu pewnej liczby (najczęściej kolejnych) momentów z próby do odpowiednich momentów rozkładu, które są funkcjami nieznanych
parametrów. Wykorzystujemy tyle momentów ile jest parametrów do oszacowania i rozwiązując otrzymany układ równań ze względu na ϑ, uzyskujemy oceny tych parametrów.
Na przykład niech ϑ = (ϑ1 . . . , ϑk ) będzie nieznanym parametrem, który chcemy estymować na podstawie obserwacji x próby X = (X1 . . . , Xn ). Niech Aj =
1
n
∑n
i=1
Xij oznacza
moment rzędu j z próby X, a mj = E(X1j ) – moment rzędu j obserwowalnych zmiennych
losowych X1 , . . . , Xn (wektor X jest próbą, zatem zmienne losowe X1 , . . . , Xn mają ten
sam rozkład, więc E(X1j ) = . . . = E(Xnj )). Wówczas rozwiązując układ równań


A (X)


 1
···



 A (X)
k
=
m1 (ϑ1 , . . . , ϑk )
··· ···
=
mk (ϑ1 , . . . , ϑk )
ze względu na ϑ1 , . . . , ϑk , uzyskamy estymator ϑ̂ metodą momentów (MM) parametru ϑ.
Metoda momentów jest często bardzo prosta w użyciu, co pokazuje następujący przykład.
Przykład 3 Niech X = (X1 . . . , Xn ) będzie próbą z rozkładu Poissona P(λ) z parametrem
λ, który chcemy estymawać. W tym przypadku nieznany parametr jest jednowymiarowy
(k = 1) i do wyznaczenia estymatora parametru λ wystarczy przyrównać jeden moment
z próby do odpowiedniego momentu rozkładu Poissona. Wiadomo, że wartość oczekiwana
E(X) w rozkładzie Poissona jest równa λ, zatem m1 = λ i po przyrównaniu tego momentu
do odpowiedniego momentu z próby, czyli A1 = X̄, otrzymujemy równanie
X̄ = λ,
którego właściwie nawet nie musimy rozwiązywać (ze względu na λ). Estymatorem parametru λ w rozkładzie Poissona, uzyskanym metodą momentów, jest zatem λ̂ = X̄.
Zauważmy jednak, że do wyznaczenia estymatora parametru λ w rozkładzie Poissona
możemy również wykorzystać momenty centralne i przyrównać na przykład moment centralny rzędu 2 z próby do momentu centralnego rzędu 2 rozkładu. Stąd mamy równanie
M2 = S02 =
n
1∑
(Xi − X̄)2 = E[X1 − E(X1 )]2 = Var(X1 ) = λ
n i=1
i otrzymujemy drugi estymator parametru λ, uzyskany metodą momentów, postaci λ̂ = S02 .
4
Z powyższego przykładu widać, że metoda momentów może prowadzić do różnych
estymatorów nieznanego parametru i to jest jedną z jej wad.
Przykład 4 Niech X = (X1 . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ 2 , gdzie
µ ∈ R i σ > 0 są nieznanymi parametrami, które chcemy oszacować. Przyrównując pierwszy moment zwykły rozkładu N (µ, σ 2 , czyli µ, do momentu rzędu 1 z próby X, czyli X̄,
oraz drugi moment centralny rozkładu N (µ, σ 2 , czyli σ 2 , do momentu centralnego rzędu 2
z próby X, czyli S02 , otrzymujemy następujące estymatory nieznanych parametrów µ i σ
µ̂ = X̄, σ̂ = S0 .
Metoda największej wiarogodności
Niech X = (X1 , . . . , Xn ) będzie obserwowalnym wektorem losowym o rozkładzie, który
zależy od niezananego parametru ϑ = (ϑ1 , . . . , ϑk ) ∈ Θ. W przypadku, gdy wektor losowy
X jest typu ciągłego, oznaczmy przez f gęstość jego rozkładu, natomiast, gdy jest on
typu dyskretnego, oznaczmy przez p jego funkcję prawdopodobieństwa. Zauważmy, że
z założenia, że rozkład wektora losowego X zależy od nieznanego parametru ϑ, f lub p są
funkcjami nie tylko obserwacji x, ale również parametru ϑ. Fakt ten będziemy zaznaczać,
podając nieznany parametr w indeksie funkcji f lub p następująco: fϑ (x) lub pϑ (x).
Definicja 3 Funkcją wiarogodności obserwowalnego wektora losowego X nazywamy funkcję gęstości lub funkcję prawdopodobieństwa wektora X, traktowaną jako funkcję parametru
ϑ przy ustalonej wartości realizacji x. Funkcję wiarogodności oznaczamy przez L(ϑ; x).
Przykład 5 Niech X = (X1 . . . , Xn ) będzie próbą z rozkładu Poissona P(λ) z parametrem
λ. Rolę niezanego parametru ϑ pełni w tym przypadku parametr λ, k = 1 i Θ = (0, ∞).
Funkcja prawdopodobieństwa pλ wektora losowego X jest w tym przypadku postaci
pλ (x1 , . . . , xn ) =
n
∏
λx i
i=1
xi !
λ
∑n
exp(−λ) = ∏n
i=1
i=1
xi
xi !
exp(−nλ),
gdzie xi ∈ {0, 1, 2, . . .}, i = 1, . . . , n. Zatem funkcja wiarogodności L jest postaci
λ
∑n
L(λ; x1 , . . . , xn ) = ∏n
i=1
i=1
xi
xi !
exp(−nλ),
(2.1)
gdzie argumentem jest λ ∈ (0, ∞), natomiast x1 , . . . , xn traktowane są jako znane realizacje zmiennych losowych odpowiednio X1 , . . . , Xn .
5
Definicja 4 Oszacowaniem parametru ϑ, uzyskanym metodą największej wiarogodności,
nazywamy wartość ϑ̂, która spełnia następującą równość
L(ϑ̂; x1 , . . . , xn ) = max L(ϑ; x1 , . . . , xn ),
θ∈Θ̄
gdzie Θ̄ oznacza domknięcie zbioru Θ.
Uwaga 2 Dla konkretnej realizacji x obserwowalnego wektora losowego X może nie istnieć maksimum funkcji wiarogodności i w konsekwencji może nie istnieć oszacowanie
największej wiarogodności parametru ϑ. Można również podać przykłady, w których dla
konkretnej realizacji x obserwowalnego wektora losowego X istnieje nieskończenie wiele
wartości, dla których funkcja wiarogodności L przyjmuje wartość największą. Ponadto,
w praktyce, często oszacowanie największej wiarogodności możemy wyznaczyć jedynie numerycznie.
W celu wyznaczenia oszacowania największej wiarogodności parametru ϑ = (ϑ1 , . . . , ϑk )
należy wyznaczyć maksimum funkcji wiarogodności L na zbiorze Θ̄. Jeżeli funkcja L jest
różniczkowalna ze względu na ϑi , i = 1, . . . , k, to punktami podejrzanymi o ekstremum
funkcji L są rozwiązania układu równań wiarogodności postaci
∂L
= 0,
∂ϑi
i = 1, . . . , k. Funkcja wiarogodności jest najczęściej iloczynem funkcji zależnych od θ
i wyznaczenie pochodnej iloczynu, a następnie szukanie jej miejsc zerowych może być
trudnym zadaniem. Możemy jednak uprościć zadanie wyznaczenia maksimum funkcji L.
Korzystając z tego, że logarytm jest funkcją ściśle rosnącą, mamy, że funkcja L i funkcja
l := ln L mają maksima w tych samych punktach. W wielu przypadkach dużo prościej
wyznacza się pochodną funkcji l niż pochodną funkcji L. Równania postaci
∂l
= 0,
∂ϑi
i = 1, . . . , k, również nazywamy równaniami wiarogodności.
Przykład 6 W przypadku obserwacji próby z rozkładu Poissona P(λ) z parametrem λ,
funkcja wiarogodności jest postaci (2.1). W celu wyznaczenia oszacowania największej wiarogodności prametru λ, wyznaczymy maksimum funkcji wiarogodności L. Funkcja L jest
funkcją różniczkowalną ze względu na λ, ale jak widać, prościej będziemy mogli wyznaczyć
pochodną i miejsca zerowe pochodnej funkcji l = ln L, która jest w tym przypadku postaci
l(λ; x1 , . . . , xn ) = ln(λ)
n
∑
i=1
6
xi − ln(
n
∏
i=1
xi !) − nλ.
(2.2)
Równanie wiarogodności jest w tym przypadku postaci
∑n
′
i=1
l (λ; x1 , . . . , xn ) =
λ
xi
− n = 0.
Rozwiązaniem równania wiarogodności (2.2) jest λ̂ =
∑n
i=1
(2.3)
xi /n = x̄ i l′′ (λ̂) < 0, czyli λ̂
jest maksimum funkcji l i również L i jest zatem oszacowaniem największej wiarogodności
parametru λ.
2.1.2
Własności estymatorów
Dla danego parametru ϑ można utworzyć wiele estymatorów ϑ̂, ale pożądane jest by
charakteryzowały go pewne narzucone z góry własności optymalności. Do takich własności
zaliczamy:
• nieobciążoność,
• efektywność,
• zgodność.
Definicja 5 Estymator T = ϑ̂ nazywamy estymatorem nieobciążonym parametru ϑ, jeżeli
dla każdego θ ∈ Θ jego wartość oczekiwana jest równa szacowanemu parametrowi θ, tzn.
Eϑ (T ) = ϑ, ∀θ ∈ Θ.
Przykład 7 Średnia X z próby X = (X1 , . . . , Xn ) jest nieobciążonym estymatorem wartości oczekiwanej ϑ = E(Xi ).
Przykład 8 Wariancja S 2 z próby X = (X1 , . . . , Xn ) jest nieobciążonym estymatorem
wariancji σ 2 = E(X − EX)2 .
Definicja 6 Niech T1 i T2 będą dwoma nieobciążonymi estymatorami parametru ϑ. Jeżeli Var(T1 ) ¬ Var(T2 ), dla każdego θ ∈ Θ, to mówimy, że estymator T1 jest lepszy od
estymatora T2 .
Definicja 7 Estymator T = ϑ̂ nazywamy estymatorem najefektywniejszym parametru ϑ,
jeżeli jest niebciążony i jeżeli dla dowolnego estymatora nieobciążonego T1 , V arθ (T ) ¬
V arϑ (T1 ) dla każdego θ ∈ Θ. Estymator najefektywniejszy nazywany jest często estymatorem najlepszym.
7
Przykład 9 Jeżeli X1 , . . . , Xn jest próbą z rozkładu normalnego N (µ, σ 2 ), to średnia z
próby X i wariancja z próby S 2 są najlepszymi estymatorami odpowiednio µ i σ 2 .
Definicja 8 Estymator T = ϑ̂ nazywamy estymatorem zgodnym, jeżeli dla każdego dodatniego ϵ spełniony jest warunek
lim P (| T − ϑ |> ϵ) = 0.
n→∞
2.2
Estymacja przedziałowa
Niech X = (X1 , . . . , Xn ) będzie obserwowalnym wektorem losowym z rozkładu Pϑ , gdzie
ϑ ∈ Θ ⊆ R jest nieznanym parametrem, który chcemy oszacować. Metody estymacji
punktowej pozwalają uzyskiwać oceny punktowe nieznanych parametrów, przy czym na
ich podstawie nie potrafimy odpowiedzieć na pytanie jaka jest dokładność uzyskanej oceny.
Estymacja przedziałowa jest sposobem estymacji dającym możliwość oceny tej dokładności i polega na podaniu tzw. przedziałów ufności dla nieznanych parametrów (bądź funkcji
tych parametrów) danego rozkładu.
Definicja 9 Niech X = (X1 , . . . , Xn ) będzie obserwowalnym wektorem losowym o rozkładzie Pϑ , ϑ ∈ Θ ⊆ R. Przedziałem ufności dla parametru ϑ na poziomie ufności 1 − α,
0 < α < 1, w oparciu o wektor X, nazywamy losowy przedział (TL , TU ) spełniający następujące warunki:
• jego końce TL = TL (X), TU = TU (X) są funkcjami wektora X = (X1 , . . . , Xn ) i nie
zależą od szacowanego parametru ϑ i innych nieznanych parametrów, jeżeli takie
występują w modelu,
• prawdopodobieństwo pokrycia przez ten przedział nieznanego parametru ϑ wynosi co
najmniej 1 − α, dla każdego ϑ ∈ Θ, tzn.
Pϑ (TL (X) < ϑ < TU (X)) ­ 1 − α, ∀θ ∈ Θ.
2.2.1
Metody wyznaczania przedziałów ufności
Istnieje kilka metod konstrukcji przedziałów ufności. Jedna z nich polega na wykorzystaniu
tzw. funkcji centralnych (wiodących, estymujących).
Definicja 10 Niech X = (X1 , . . . , Xn ) będzie obserwowalnym wektorem losowym o rozkładzie Pϑ . Funkcję Q(X, ϑ) nazywamy funkcją centralną (wiodocą lub estymującą) dla
parametru ϑ, jeżeli jej rozkład prawdopodobieństwa nie zależy od ϑ.
8
Przykład 10 Niech X = (X1 , . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ02 ),
gdzie µ ∈ R jest nieznanym parametrem, a σ0 znaną liczbą dodatnią. Niech
Q(X, µ) =
√
n(X − µ)/σ0 ,
(2.4)
1 ∑n X . Można pokazać, że funkcja Q(X, µ) ma rozkład normalny N (0, 1),
gdzie X = n
i
i=1
niezależny od nieznanego parametru µ. Jest więc ona funkcją centralną dla parametru µ.
Przykład 11 Niech X = (X1 , . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ 2 ),
gdzie µ0 jest znane, a σ ∈ R+ jest nieznanym parametrem. Niech
S12
n
1∑
=
(Xi − µ0 )2 .
n i=1
Można pokazać, że funkcja
Q(X, σ 2 ) = nS12 /σ 2
(2.5)
ma rozkład χ2 z n stopniami swobody, niezależny od nieznanego parametru σ 2 . Jest więc
ona funkcją centralną dla parametru σ 2 .
Przykład 12 Niech X = (X1 , . . . , Xn ) będzie próbą z rozkładu normalnego N (µ, σ 2 ),
gdzie µ ∈ R i σ ∈ R+ są nieznanymi parametrami. Niech
1 ∑n X oraz S 2 = 1 ∑n (X − X)2 .
X=n
i
i=1
n − 1 i=1 i
Można pokazać, że funkcja
Q(X, µ) =
√
n(X − µ)/S
(2.6)
ma rozkład t Studenta z n − 1 stopniami swobody, niezależny od nieznanego parametru
µ i również niezależny od nieznanego parametru σ. Jest więc ona funkcja centralną dla
parametru µ.
Również można pokazać, że funkcja
Q(X1 , . . . , Xn , σ 2 ) =
√
n − 1S 2 /σ 2
(2.7)
ma rozkład χ2 z n − 1 stopniami swobody, niezależny od σ 2 i również niezależny od nieznanego parametru µ. Jest więc ona funkcją centralną dla parametru σ 2 .
9
Załóżmy teraz, że dysponujemy funkcją centralną Q(X, ϑ) dla parametru ϑ. Przedział
ufności dla parametru ϑ konstruuje się w następujący sposób. Wybieramy liczby a i b tak,
aby spełniały równość
Pϑ (a ¬ Q(X, ϑ) ¬ b) ­ 1 − α,
dla każdego ϑ ∈ Θ i zadanego α. W przypadku, gdy Q(X, ϑ) jest funkcją ciągłą i ściśle
monotoniczną parametru ϑ, to nierówność a ¬ Q ¬ b jest równoważna nierówności
TL (X, a, b) ¬ ϑ ¬ TU (X, a, b).
Stąd TL (X, a, b) oraz TU (X, a, b) są odpowiednio dolnym i górnym końcem 100(1 − α)%
przedziału ufności dla parametru ϑ. Jeżeli x = (x1 , . . . , xn ) jest realizacją obserwowalnego
wektora losowego X = (X1 , . . . , Xn ), to przedział
[TL (x, a, b), TU (x, a, b)]
nazywamy realizacją przedziału ufności dla parametru ϑ lub 100(1 − α)% oceną przedziałową parametru ϑ.
W konkretnym problemie funkcja centralna może nie istnieć lub może istnieć kilka
takich funkcji. W tym drugim przypadku należy wybrać funkcję optymalną ze względu na
pewne kryteria (np. długość przedziału ufności, który przy wykorzystaniu danej funkcji
otrzymamy). Często wybiera się funkcje centralne będące funkcjami statystyk dostatecznych, czy też optymalnych estymatorów punktowych. Przy konstrukcji przedziału ufności
oprócz problemu wyboru funkcji centralnej natrafiamy również na problem wyboru stałych a i b. Często, gdy dysponujemy już konkretną funkcją centralną, stałe a i b możemy
wybrać na nieskończenie wiele sposobów. Wówczas przy ich wyborze też powinniśmy kierować się spełnieniem pewnych kryteriów optymalności. Przykładem takiego kryterium
jest długość przedziału ufności lub wartość oczekiwana jego długości.
2.2.2
Przedziały ufności dla wartości średniej
Model I Populacja generalna ma rozkład normalny N (µ, σ 2 ). Wartość średnia µ jest
nieznana, odchylenie standardowe σ0 w populacji jest znane. Z populacji tej pobrano próbę
o liczebności n elementów, wylosowanych niezależnie. Korzystając z funkcji centralnej
Q(X, µ), określonej wzorem (2.4), otrzymujemy następujące granice ufności dla parametru
µ na poziomie ufności 1 − α
σ0
σ0
TL = X − z(1 − α2 ) √ , TU = X − z(α1 ) √ ,
n
n
10
gdzie z(p) oznacza kwantyl rzędu p standardowego rozkładu normalnego oraz α1 +α2 = α.
Można pokazać, że przyjmując α1 = α2 = α/2, otrzymamy najkrótszy przedział ufności
dla parametru µ w klasie przedziałów ufności na poziomie ufności 1 − α, skonstruowanych
przy użyciu funkcji centralnej określonej wzorem (2.4). Także w praktyce przyjmuje się
najczęściej następujące granice przedziału ufności dla parametru µ w rozkładzie normalnym, gdy σ0 jest znane
σ0
σ0
TL = X − z(1 − α/2) √ , TU = X + z(1 − α/2) √ .
n
n
√
Długość tego przedziału jest nielosowa i wynosi L = 2z(1 − α/2)σ0 / n.
(2.8)
Model II Populacja generalna ma rozkład normalny N (µ, σ 2 ). Nieznana jest zarówno
wartość średnia µ, jak i odchylenie standardowe σ w populacji. Z populacji tej pobrano
małą próbę o liczebności n elementów, wylosowanych niezależnie. Korzystając z funkcji
centralnej Q(X, µ), określonej wzorem (2.6), otrzymujemy następujące granice ufności dla
parametru µ na poziomie ufności 1 − α
S
S
TL = X − tn−1 (1 − α2 ) √ , TU = X + tn−1 (α1 ) √ ,
n
n
gdzie tn−1 (p), oznacza kwantyl rzędu p rozkładu Studenta z n − 1 stopniami swobody
oraz α1 + α2 = α. Można pokazać, że przyjmując α1 = α2 = α/2, otrzymamy przedział
ufności dla parametru µ o najmniejszej oczekiwanej długości w klasie przedziałów ufności
na poziomie ufności 1 − α, skonstruowanych przy użyciu funkcji centralnej określonej
wzorem (2.6). Także w praktyce przyjmuje się najczęściej następujące granice przedziału
ufności dla parametru µ w rozkładzie normalnym, gdy σ nie jest znane
S
S
TL = X − tn−1 (1 − α/2) √ , TU = X + tn−1 (1 − α/2) √ .
n
n
√
Długość tego przedziału jest losowa i wynosi L = 2tn−1 (1 − α/2)S/ n.
Model III Populacja generalna ma rozkład normalny N (µ, σ 2 ), bądź dowolny inny
rozkład o średniej µ i skończonej wariancji σ 2 (nieznanej). Z populacji tej pobrano do
próby n niezależnych obserwacji, przy czym rozmiar n próby jest duży. Wówczas można
pokazać, że zmienna losowa
Q(X, µ) =
√
n(X − µ)/S
ma w przybliżeniu standardowy rozkład normalny. Korzystając z tego faktu dolna TL
i górna TU granica przedziału ufności dla wartości oczekiwanej µ na poziomie ufności
równym w przybliżeniu 1 − α wyraża się wzorem (2.8) jak w modelu I, w którym zamiast
σ przyjmujemy wartość odchylenia standardowego S obliczonego z próby. Długość tego
√
przedziału jest losowa i wynosi L = 2z(1 − α/2)S/ n.
11
2.2.3
Przedziały ufności dla wariancji
Model I Populacja generalna ma rozkład normalny N (µ0 , σ 2 ). Odchylenie standardowe
σ w populacji nie jest znane, wartość średnia µ0 jest znana. Z populacji tej pobrano próbę
o liczebności n elementów, wylosowanych niezależnie. Korzystając z funkcji centralnej
Q(X, σ), określonej wzorem (2.5), otrzymujemy następujące granice ufności dla parametru
σ 2 na poziomie ufności 1 − α
TL =
nS12
nS12
,
T
=
,
U
χ2n (1 − α2 )
χ2n (α1 )
(2.9)
gdzie χ2n (p) oznacza kwantyl rzędu p rozkładu χ2n z n stopniami swobody oraz α1 +α2 = α.
W praktyce przyjmuje się najczęściej α1 = α2 = α/2. Długość otrzymanego w ten sposób
przedziału ufności jest losowa i wynosi nS12 [1/χ2n (α/2) − 1/χ2n (1 − α/2)].
Model II Populacja generalna ma rozkład normalny N (µ, σ 2 ) o nieznanych parametrach µ i σ. Z populacji tej wylosowano niezależnie do próby n elementów (n jest małe, tj.
n < 30). Korzystając z funkcji centralnej Q(X, σ), określonej wzorem (2.7), otrzymujemy
następujące granice ufności dla parametru σ 2 na poziomie ufności 1 − α
TL =
(n − 1)S 2
(n − 1)S 2
,
T
=
,
U
χ2n−1 (1 − α2 )
χ2n−1 (α1 )
(2.10)
gdzie χ2n−1 (p) oznacza kwantyl rzędu p rozkładu χ2n−1 z n − 1 stopniami swobody oraz
α1 + α2 = α. W praktyce przyjmuje się najczęściej α1 = α2 = α/2. Długość otrzymanego
w ten sposób przedziału ufności jest losowa i wynosi nS 2 [1/χ2n−1 (α/2) − 1/χ2n−1 (1 − α/2)].
Model III Populacja generalna ma rozkład normalny N (µ, σ 2 ), bądź dowolny inny
rozkład o średniej µ i skończonej wariancji σ 2 . Z populacji tej pobrano do próby n niezależnych obserwacji, przy czym rozmiar n próby jest duży. Wówczas można pokazać, że
zmienna losowa
√
Q(X, σ) =
2(n − 1)S/σ −
√
2n − 3
ma w przybliżeniu standardowy rozkład normalny. Korzystając z tego faktu dolna TL
i górna TU granica przedziału ufności dla odchylenia standardowego σ na poziomie ufności
równym w przybliżeniu 1 − α wyraża się następującym wzorem
√
√
√
√
TL = S 2n − 2/(z(1 − α2 ) + 2n − 3), TU = S 2n − 2/(z(α1 ) + 2n − 3), (2.11)
gdzie z(p) oznacza kwantyl rzędu p standardowego rozkładu normalnego oraz α1 +α2 = α.
12
Uwaga 3 Przedziały ufności na poziomie ufności 1 − α dla odchylenia standardowego σ
w modelu I i w modelu II otrzymujemy pierwiastkując granice ufności określone odpowiednio wzorami (2.9) i (2.10). Natomiast przedziały ufności na poziomie ufności 1 − α dla
wariancji σ 2 w modelu III otrzymujemy podnosząc do kwadratu granice ufności określone
wzorem (2.11).
2.2.4
Przedziały ufności dla prawdopodobieństwa sukcesu
Niech X = (X1 , . . . , Xn ) będzie próbą z rozkładu dwumianowego B(1, p), gdzie p ∈ (0, 1)
jest nieznanym parametrem. Oznaczmy X =
∑n
i=1
Xi . Wiadomo, że X ma rozkład B(n, p).
Na podstawie obserwacji zmiennej losowej X chcemy skonstruować przedział ufności, na
poziomie ufności 1 − α, dla parametru p. Granice ufności TL i TU będą zatem funkcjami
X, n i α takimi, że
Pp (TL (X, n, α) < p < TU (X, n, α)) ­ 1 − α.
Istnieje wiele metod konstrukcji przedziałów ufności dla parametru p (zobacz np. Blyth
i Still, 1983). Najczęściej metody te są dzielone na dwie grupy: przedziały ufności w
przypadku, gdy rozmiar n próby jest “mały” oraz przedziały ufności w przypadku, gdy
rozmiar próby jest “duży”.
Przypadek małego rozmiaru próby
Oznaczmy przez Beq (a, b) kwantyl rzędu q rozkładu beta z parametrami a, b. Dolna granica
przedziału ufności Cloppera-Pearsona dla parametru p, na poziomie ufności 1 − α jest
postaci

 0,
TL (X) =
 Be
gdy X = 0,
α/2 (X, n
− X + 1), gdy X ̸= 0,
natomiast górna granica przedziału ufności wyraża się wzorem

 1,
TL (X) = 
Be
gdy X = n,
1−α/2 (X
+ 1, n − X), gdy X ̸= n.
Powyższe przedziały ufności zostały zaproponowane przez Cloppera-Pearsona w roku
1934. Posiadają one wiele pożądanych własności, ale charakteryzują się dość dużą oczekiwaną długością i z tego powodu były modyfikowane w różny sposób.
13
Przypadek dużego rozmiaru próby
W przypadku, gdy rozmiar n próby X jest duży, przy wyznaczaniu przedziałów ufności
dla parametru p możemy skorzystać z następującej aproksymacji
√
n(p̂ − p)
√
∼ N (0, 1)
p̂(1 − p̂)
(2.12)
lub
√
n(p̂ − p)
√
p(1 − p)
∼ N (0, 1),
(2.13)
gdzie p̂ = X/n.
Korzystając z aproksymacji (2.12), otrzymujemy następujące granice ufności
√
TL (X, n, α) = p̂ − c p̂(1 − p̂)
(2.14)
i
√
TU (X, n, α) = p̂ + c p̂(1 − p̂),
(2.15)
gdzie
c=
z(1 − α/2)
√
,
n
(2.16)
i z(1−α/2) jest kwantylem rzędu 1−α/2 standardowego rozkładu normalnego. Natomiast
korzystając z aproksymacji (2.13) otrzymujemy następujące granice ufności
√
TL (X, n, α) =
2p̂ + c2 − c c2 + 4p̂(1 − p̂)
2(1 + c2 )
,
(2.17)
,
(2.18)
√
TU (X, n, α) =
2.2.5
2p̂ + c2 + c c2 + 4p̂(1 − p̂)
2(1 + c2 )
Przedziały ufności dla różnicy dwóch prawdopodobieństw
sukcesu
Istnieje co najmniej jedenaście metod konstrukcji przedziałów ufności dla różnicy dwóch
prawdopodobieństw sukcesu (zobacz np. Newcombe, 1998 i Prendergast, 2014).
14
Download