STATYSTYKA MATEMATYCZNA

advertisement
STATYSTYKA
MATEMATYCZNA
rachunek prawdopodobieństwa
treść
•
•
•
•
•
Zdarzenia losowe
pojęcie prawdopodobieństwa
prawo wielkich liczb
zmienne losowe
rozkłady teoretyczne zmiennych losowych
Zanim zajmiemy się wnioskowaniem statystycznym
musimy uświadomić sobie, Ŝe nigdy w 100% nie będziemy pewni
czy jest ono prawdziwe czy fałszywe. MoŜemy tylko takiego czy
innego wyniku wnioskowania oczekiwać z określonym
prawdopodobieństwem. To znaczy, Ŝe rezultat wnioskowania jest
zdarzeniem losowym. Musimy zatem zapoznać się z pojęciem
zdarzenia losowego i jego prawdopodobieństwa.
Zdarzenia losowe (przypadkowe) to takie zdarzenia, które
w danym kompleksie warunków mogą zajść lub nie zajść i mają
określone prawdopodobieństwo zajścia lub niezajścia.
W kaŜdym eksperymencie (doświadczeniu, badaniu)
statystycznym moŜna wyróŜnić zbiór wszystkich moŜliwych,
oddzielnych i nie dających rozłoŜyć się na prostsze wyników
obserwacji. Zbiór taki nazywamy zbiorem zdarzeń
elementarnych.
Np. rzut kostką: ZZE to 1,2,3,4,5,6 ale uzyskanie jednego z tych
moŜliwych zdarzeń jest zdarzeniem losowym.
Prawdopodobieństwo zdarzenia losowego jest teoretycznym
odpowiednikiem (względnej) częstości empirycznej (empirycznego
prawdopodobieństwa).
Definicja klasyczna (na podstawie Laplace`a 1812)
Prawdopodobieństwem P zdarzenia losowego A nazywamy
iloraz liczby zdarzeń elementarnych sprzyjających zdarzeniu A oraz
liczby wszystkich zdarzeń elementarnych, jednakowo moŜliwych i
wzajemnie się wykluczających.
a
P ( A) =
a+b
0 ≤ P ( A) ≤ 1
P (B ) = 1 − P ( A )
Definicja matematyczna (na podstawie von Misesa)
Prawdopodobieństwo zdarzenia losowego A jest granicą do
jakiej dąŜy częstość empiryczna, przy załoŜeniu, Ŝe liczebność
jednostek obserwacji dąŜy do nieskończoności.
lim pi = P( A)
n →∞
Definicja współczesna (na podstawie Kołmogorowa)
(Prawdopodobieństwo jest tu rozumiane jako miara na podzbiorach
zbioru zdarzeń elementarnych. Definicja zapisywana jest w formie
aksjomatów wynikających z teorii klasycznej Laplace`a)
* KaŜdemu zdarzeniu losowemu A odpowiada określona liczba
P(A) zwana prawdopodobieństwem zdarzenia losowego A
zawierająca się w granicach przedziału liczbowego od 0 do 1
0 ≤ P ( A) ≤ 1
** Prawdopodobieństwo zdarzenia pewnego (obejmującego
wszystkie elementy zbioru Ω) równa się jedności
P (Ω ) = 1
*** JeŜeli A1 , A2 , ..., An , ... jest ciągiem zdarzeń losowych parami
wykluczających się, to prawdopodobieństwo sumy tych zdarzeń jest
równe sumie prawdopodobieństw tych zdarzeń
P( A1 + A2 + ... + An + ...) = P ( A1 ) + P( A2 ) + ... + P( An ) + ...
Prawo wielkich liczb leŜy u podstaw badania prawidłowości
statystycznych. Po raz pierwszy opublikowane jako tzw. „Złote
twierdzenie Bernoulliego” w 1713 roku. W okresach późniejszych
bardziej uogólniane przez Poissona, Czebyszewa i innych.
Wzrostowi liczby jednostek obserwacji (ściślej - liczby
niezaleŜnych doświadczeń) odpowiada wzrastające
prawdopodobieństwo zmniejszania się bezwzględnej róŜnicy
między częstością empiryczną z próby a nieznanym co do
poziomu prawdopodobieństwem danego zdarzenia losowego.
lim P { pi − P ( A) ≤ ε} = 1
n →∞
ni
= pi
N
Na podstawie tego prawa formułowane są ogólniejsze twierdzenia
dotyczące procesów masowych.
Np.: DuŜa liczebność (masowość) próby powoduje, Ŝe odchylenia
na (+) i na (-) między częstością empiryczną i
prawdopodobieństwem mają tendencje do zmniejszania się.
Tendencja ta nie występuje w przypadku małych prób.
„Prawo wielkich liczb” moŜe być rozszerzane i na inne,
poza prawdopodobieństwem, parametry zbiorowości generalnej.
Np.: Wartość liczbowa średniej arytmetycznej z próby (x) jest tym
lepszym oszacowaniem średniej populacji generalnej (µ) im
liczebność losowej próby jest większa.
lim P = { x − µ ≤ ε } = 1
n →∞
(uogólnienie Czebyszewa)
Zmienne losowe:
Zmienna losowa (X) jest teoretycznym odpowiednikiem
(modelem) cechy statystycznej. Warianty cechy statystycznej
pojawiają się z określoną częstością empiryczną (szereg rozdzielczy)
a realizacjom zmiennej losowej odpowiadają prawdopodobieństwa
wyznaczone przez odpowiednią funkcję.
Definicja wg. podręcznika prof. Bruchwalda:
Zmienną losową (X) nazywamy funkcję o wartościach
rzeczywistych określoną na zbiorze zdarzeń elementarnych taką, Ŝe
dla dowolnych stałych a < b jest określone prawdopodobieństwo, iŜ
a < X <= b .
Podobnie jak w przypadku cech statystycznych zmienne
losowe dzielimy na skokowe (dyskretne) (Xs) oraz ciągłe (Xc).
Skokowe to takie, których zbiór moŜliwych realizacji jest skończony
(x1 , x2 , x3 , ..., xk) lub przeliczalny (x1 , x2 , x3 , ...).
P( X s = xi ) = pi
Czyli zmienna losowa skokowa przyjmuje wartości liczbowe (xi) z
prawdopodobieństwem (pi) (gdzie i = 1, 2, 3, ..., k lub i= 1, 2, 3, ... )
Ciągłe to takie, dla których istnieje taka nieujemna funkcja f(x) zwana
funkcją gęstości prawdopodobieństwa, Ŝe dla dowolnych przedziałów
(x1i < x2i) zachodzi:
x2 i
P( x1i < X c < x2i ) =
∫
x1i
natomiast:
P( X c = xi ) = 0
f ( x)dx = pi
Do metod prezentacji wnioskowania statystycznego niezbędne jest
pojęcie rozkładu zmiennej losowej:
W przypadku zmiennych losowych skokowych, odpowiednia dla
danej zmiennej funkcja określa rozkład prawdopodobieństwa
wszystkich moŜliwych realizacji tej zmiennej P(Xs = xi) = pi.
Dla zmiennych losowych ciągłych funkcja określa gęstość
prawdopodobieństwa, gdyŜ P(Xc = xi) = 0. Liczba wszystkich
moŜliwych zdarzeń dla Xc jest nieskończona.
P ( x < X c < x + ∆x )
f ( x ) = lim
∆x → 0
∆x
WaŜnym pojęciem w statystyce jest dystrybuanta zmiennej
losowej odpowiednik dystrybuanty empirycznej:
- dla Xs (skokowej):
F ( x ) = P( X s ≤ x ) = ∑ P( X s = xi )
xi ≤ x
- dla Xc (ciągłej):
F (x ) = P( X c < x ) =
x
∫ f ( x)dx
−∞
Dystrybuanta zmiennej losowej F(x) jest to prawdopodobieństwo
tego, Ŝe ta zmienna losowa przyjmie wartości <= x.
Wskaźniki charakteryzujące zmienne losowe:
Wartość oczekiwana (nadzieja matematyczna)
odpowiednik średniej arytmetycznej dla populacji:
- dla (Xs):
EX s = ∑ xi pi
- dla (Xc):
+∞
EX c =
∫ x f ( x)dx
−∞
ni
pi =
N
1
N
∑xn
i i
=µ
Wariancja zmiennej losowej:
D X s = ∑ (xi − EX s ) pi
2
2
- skokowej
+∞
- ciągłej
D Xc =
2
∫ (x − EX )
2
c
f ( x)dx
−∞
Teoretyczne rozkłady zmiennej losowej skokowej
- rozkład dwumianowy:
gdzie:
q=1-p
k = 0, 1, 2, ..., n
 n  k (n − k )
P( X s = k ) =   p q
k 
EX = np
D X = npq
2
DX = npq
(q + p )
n
Dwumian Newtona:
n
n↓
  =
 k  k ↓ (n − k ) ↓
przykłady:
p = 0,5
n = 10
Binomial Distribution
probability
0,25
Event prob.,Trials
0,5,10
0,2
0,15
0,1
0,05
0
0
1
2
3
4
5
x
6
7
8
9
10
p = 0,2
n = 10
Binomial Distribution
probability
0,4
Event prob.,Trials
0,2,10
0,3
0,2
0,1
0
0
1
2
3
4
5
6
7
8
9
10
x
p = 0,7
n = 10
Binomial Distribution
0,3
Event prob.,Trials
0,7,10
probability
0,25
0,2
0,15
0,1
0,05
0
0
1
2
3
4
5
x
6
7
8
9
10
p = 0,2
Binomial Distribution
n = 50
probability
0,15
Event prob.,Trials
0,2,50
0,12
0,09
0,06
0,03
0
0
10
20
30
40
50
x
inne rozkłady zmiennej losowej skokowej:
- Poissona
P( X = k ) =
λk
k↓
e −λ
EX = D X = λ
2
dla: k = 0, 1, 2, ...
λ >= 0
geometryczny:
P( X = n ) = pq
n −1
dla:
n = 1, 2, 3, ...
q = 1-p
1
EX =
p
1− p
D X= 2
p
2
Teoretyczne rozkłady zmiennej losowej ciągłej:
- rozkład normalny:
1
f ( x) =
e
σ 2Π
EX = µ
( x−µ )2
−
2σ 2
DX = σ
dla:
− ∞ < x < +∞
σ >0
f(x)
z=
N(20;2)
x−µ
σ
σ
14
1
−
2
16
18
z
1
f (z) =
e
2Π
z
2
σ
20
µ
22
f(z)
24
x
26
N(0;1)
1
2
z2
1
F ( z) =
e dz
∫
2Π −∞
−
-3
-2
-1
0
1
2
3
z
F(z) 1
1
F ( z) =
2Π
z
∫e
−
1
2
z2
dz
0.5
−∞
-3
-2
-1
Inne rozkłady zmiennej losowej ciągłej:
- jednostajny
- gamma
- beta
- wykładniczy
0
1
2
3 z
Przykłady: rozkład dwumianowy
xi
4
6
8
10
12
14
16
suma
µ = 7.80
σ = 2.35
ni
23
82
73
45
24
2
1
250
ki
0
1
2
3
4
5
6
niki
0
82
146
135
96
10
6
475
nk
∑
k=
P(X=k)
0.1177
0.3025
0.3242
0.1852
0.0595
0.0102
0.0007
1.0000
475
=
= 1.90
N
250
k 1.90
p= =
= 0.3167 ≅ 0.3
n
6
i i
n’
29.4
75.6
81.0
46.3
14.9
2.6
0.2
250
EX = np
EX
p=
n
rozkład normalny
xi
x<
<3
4
ni
0
xgi
xig - µ
zi=(xgi-µ
µ)/σ
σ
F(xgi)
3
-4.8
-2.04
0.0207
23
5
6
3.2
1.36
5.2
2.21
7.2
3.06
9.2
0
250
µ = 7.80
σ = 2.35
3.91
24.1
0.2499
62.5
0.3281
82.0
0.2181
54.5
0.0733
18.3
0.0125
3.1
0.0011
0.3
0.0000
1.0000
0.0
250
0.6950
0.9131
0.9864
0.9989
1
17
x>
>17
suma
0.51
2
15
16
1.2
0.0963
0.3669
24
13
14
-0.34
45
11
12
-0.8
ni’
5.2
0.1170
73
9
10
-1.19
82
7
8
-2.8
F(xgi) – F(xgi-1)
0.0207
1.0000
Porównanie częstości empirycznych z teoretycznymi
n
90
80
70
60
50
ne
ndw
40
30
20
nnor
10
0
x
0
2
4
6
8
10
12
14
16
18
20
90
80
70
60
50
ne
40
ndw
30
20
10
0
0
2
4
6
8
10
12
14
16
18
20
90
80
70
60
50
ne
nnor
40
30
20
10
0
0
2
4
6
8
10
12
14
16
18
20
Download