(Microsoft PowerPoint - Statystyka1st-Wyklad3

advertisement
Statystyka matematyczna
dla leśników
Wydział Leśny
Kierunek „leśnictwo”
Studia Stacjonarne I Stopnia
Rok akademicki 2013/2014
Wykład 3
Zmienna losowa i jej rozkłady
•
•
•
•
•
Zdarzenia losowe
Pojęcie prawdopodobieństwa
Prawo wielkich liczb
Zmienne losowe
Rozkłady teoretyczne zmiennych losowych
Zanim zajmiemy się wnioskowaniem
statystycznym musimy uświadomić sobie, że
nigdy w 100% nie będziemy pewni czy jest ono
prawdziwe czy fałszywe.
Możemy tylko takiego czy innego wyniku
wnioskowania oczekiwać z określonym
prawdopodobieństwem. To znaczy, że rezultat
wnioskowania jest zdarzeniem losowym.
Musimy zatem zapoznać się z pojęciem
zdarzenia losowego i jego prawdopodobieństwa.
Zdarzenia losowe (przypadkowe) to takie zdarzenia,
które w danym kompleksie warunków mogą zajść lub
nie zajść i mają określone prawdopodobieństwo
zajścia lub niezajścia.
W każdym eksperymencie (doświadczeniu, badaniu)
statystycznym można wyróżnić zbiór wszystkich
możliwych, oddzielnych i nie dających rozłożyć się na
prostsze wyników obserwacji. Zbiór taki nazywamy
zbiorem zdarzeń elementarnych (ZZE).
Np. rzut kostką: ZZE to 1,2,3,4,5,6, ale uzyskanie
jednego z tych możliwych zdarzeń jest zdarzeniem
losowym.
Prawdopodobieństwo zdarzenia losowego jest teoretycznym
odpowiednikiem (względnej) częstości empirycznej
(empirycznego prawdopodobieństwa).
Definicja klasyczna (na podstawie Laplace`a 1812)
Prawdopodobieństwem P zdarzenia losowego A nazywamy
iloraz liczby zdarzeń elementarnych sprzyjających zdarzeniu
A oraz liczby wszystkich zdarzeń elementarnych, jednakowo
możliwych i wzajemnie się wykluczających.
a
P ( A) =
a+b
0 ≤ P ( A) ≤ 1
P (B ) = 1 − P ( A )
Szereg rozdzielczy
xi
4
6
8
10
12
14
16
Σ
ni
23
82
73
45
24
2
1
250
Σni
23
105
178
223
247
249
250
pi
0,092
0,328
0,292
0,180
0,096
0,008
0,004
1,000
Σpi
0,092
0,420
0,712
0,892
0,988
0,996
1,000
Definicja matematyczna (na podstawie von Misesa)
Prawdopodobieństwo zdarzenia losowego A jest granicą, do
jakiej dąży częstość empiryczna, przy założeniu, że
liczebność jednostek obserwacji dąży do nieskończoności.
lim pi = P( A)
n →∞
Definicja współczesna (na podstawie Kołmogorowa)
(Prawdopodobieństwo jest tu rozumiane jako miara na
podzbiorach zbioru zdarzeń elementarnych. Definicja
zapisywana jest w formie aksjomatów wynikających z teorii
klasycznej Laplace`a)
* Każdemu zdarzeniu losowemu A odpowiada określona
liczba P(A) zwana prawdopodobieństwem zdarzenia
losowego A zawierająca się w granicach przedziału
liczbowego od 0 do 1
0 ≤ P ( A) ≤ 1
** Prawdopodobieństwo zdarzenia pewnego (obejmującego
wszystkie elementy zbioru Ω) równa się jedności
P(Ω ) = 1
*** Jeżeli A1 , A2 , ..., An , ... jest ciągiem zdarzeń losowych
parami wykluczających się, to prawdopodobieństwo sumy
tych zdarzeń jest równe sumie prawdopodobieństw tych
zdarzeń
P( A1 + A2 + ... + An + ...) = P( A1 ) + P ( A2 ) + ... + P( An ) + ...
Prawo wielkich liczb leży u podstaw badania prawidłowości
statystycznych. Po raz pierwszy opublikowane jako tzw. „Złote
twierdzenie Bernoulliego” w 1713 roku. W okresach późniejszych
bardziej uogólniane przez Poissona, Czebyszewa i innych.
Wzrostowi liczby jednostek obserwacji (ściślej - liczby
niezależnych doświadczeń) odpowiada wzrastające
prawdopodobieństwo zmniejszania się bezwzględnej różnicy
między częstością empiryczną z próby a nieznanym co do
poziomu prawdopodobieństwem danego zdarzenia losowego.
lim P { pi − P ( A) ≤ ε} = 1
n →∞
ni
= pi
N
Na podstawie tego prawa formułowane są ogólniejsze twierdzenia
dotyczące procesów masowych.
Np.: Duża liczebność (masowość) próby powoduje, że odchylenia na
(+) i na (-) między częstością empiryczną i prawdopodobieństwem
mają tendencje do zmniejszania się. Tendencja ta nie występuje w
przypadku małych prób.
„Prawo wielkich liczb” może być rozszerzane i na inne, poza
prawdopodobieństwem, parametry zbiorowości generalnej.
Np.: Wartość liczbowa średniej arytmetycznej z próby (x) jest tym
lepszym oszacowaniem średniej populacji generalnej (µ) im
liczebność losowej próby jest większa.
lim P = { x − µ ≤ ε } = 1
n →∞
(uogólnienie Czebyszewa)
Zmienne losowe:
Zmienna losowa (X) jest teoretycznym odpowiednikiem (modelem)
cechy statystycznej. Warianty cechy statystycznej pojawiają się z
określoną częstością empiryczną (szereg rozdzielczy) a realizacjom
zmiennej losowej odpowiadają prawdopodobieństwa wyznaczone
przez odpowiednią funkcję.
Definicja wg. podręcznika prof. Bruchwalda:
Zmienną losową (X) nazywamy funkcję o wartościach
rzeczywistych określoną na zbiorze zdarzeń elementarnych taką, że
dla dowolnych stałych a < b jest określone prawdopodobieństwo, iż
a < X <= b .
Podobnie, jak w przypadku cech statystycznych, zmienne losowe
dzielimy na skokowe (dyskretne) (Xs) oraz ciągłe (Xc).
Skokowe to takie, których zbiór możliwych realizacji jest skończony
(x1 , x2 , x3 , ..., xk) lub przeliczalny (x1 , x2 , x3 , ...).
P( X s = xi ) = pi
Czyli zmienna losowa skokowa przyjmuje wartości liczbowe (xi) z
prawdopodobieństwem (pi) (gdzie i = 1, 2, 3, ..., k lub i= 1, 2, 3, ... )
Ciągłe to takie, dla których istnieje taka nieujemna funkcja f(x) zwana
funkcją gęstości prawdopodobieństwa, że dla dowolnych przedziałów
(x1i < x2i) zachodzi:
x2 i
P( x1i < X c < x2i ) =
∫
f ( x)dx = pi
x1i
natomiast:
P( X c = xi ) = 0
Do metod prezentacji wnioskowania statystycznego niezbędne jest
pojęcie rozkładu zmiennej losowej:
W przypadku zmiennych losowych skokowych, odpowiednia dla
danej zmiennej funkcja określa rozkład prawdopodobieństwa
wszystkich możliwych realizacji tej zmiennej P(Xs = xi) = pi.
Dla zmiennych losowych ciągłych funkcja określa gęstość
prawdopodobieństwa, gdyż P(Xc = xi) = 0. Liczba wszystkich
możliwych zdarzeń dla Xc jest nieskończona.
P ( x < X c < x + ∆x )
f ( x ) = lim
∆x → 0
∆x
Ważnym pojęciem w statystyce jest dystrybuanta zmiennej
losowej odpowiednik dystrybuanty empirycznej:
- dla Xs (skokowej):
F ( x ) = P( X s ≤ x ) = ∑ P( X s = xi )
xi ≤ x
- dla Xc (ciągłej):
x
F (x ) = P( X c < x ) =
∫ f ( x)dx
−∞
Dystrybuanta zmiennej losowej F(x) jest to prawdopodobieństwo
tego, że ta zmienna losowa przyjmie wartości <= x.
Wskaźniki charakteryzujące zmienne losowe:
Wartość oczekiwana (nadzieja matematyczna) - odpowiednik
średniej arytmetycznej dla populacji:
- dla (Xs):
EX s = ∑ xi pi
- dla (Xc):
+∞
EX c =
∫ x f ( x)dx
−∞
ni
pi =
N
1
N
∑xn
i i
=µ
Wariancja zmiennej losowej:
D X s = ∑ (xi − EX s ) pi
2
2
- skokowej
+∞
- ciągłej
2
D Xc =
∫ (x − EX )
2
c
f ( x)dx
−∞
Teoretyczne rozkłady zmiennej losowej skokowej
- rozkład dwumianowy:
gdzie:
q=1-p
k = 0, 1, 2, ..., n
 n  k (n − k )
P( X s = k ) =   p q
k 
Rozkład dwumianowy
• Przykład funkcji rozkładu
prawdopodobieństwa
• Opisuje prawdopodobieństwo uzyskania k
sukcesów w n niezależnych próbach,
gdzie prawdopodobieństwo sukcesu w
jednej próbie wynosi p
Rozkład dwumianowy
Rozkład dwumianowy
Własności (r-d dwum.)
• Wykres funkcji rozkładu jest symetryczny
dla p = 0.5
• dla p < 0.5 rozkład jest skośny dodatnio
• dla p > 0.5 rozkład jest skośny ujemnie
Własności (r-d dwum.)
• Wartość oczekiwana E(X) = n * p
• Wariancja D2X = n p q
• Odchylenie standardowe
2
EX = np
D X = npq
DX = npq
(q + p )
n
Dwumian Newtona:
n
n!
  =
 k  k!(n − k )!
przykłady:
p = 0,5
n = 10
Binomial Distribution
probability
0,25
Event prob.,Trials
0,5,10
0,2
0,15
0,1
0,05
0
0
1
2
3
4
5
x
6
7
8
9
10
p = 0,2
n = 10
Binomial Distribution
probability
0,4
Event prob.,Trials
0,2,10
0,3
0,2
0,1
0
0
1
2
3
4
5
6
7
8
9
10
x
p = 0,7
n = 10
Binomial Distribution
0,3
Event prob.,Trials
0,7,10
probability
0,25
0,2
0,15
0,1
0,05
0
0
1
2
3
4
5
x
6
7
8
9
10
p = 0,2
Binomial Distribution
n = 50
probability
0,15
Event prob.,Trials
0,2,50
0,12
0,09
0,06
0,03
0
0
10
20
30
40
50
x
inne rozkłady zmiennej losowej skokowej:
- Poissona
P( X = k ) =
2
λk
k!
e −λ
EX = D X = λ
dla: k = 0, 1, 2, ...
λ >= 0
Przykłady: rozkład dwumianowy
xi
4
6
8
10
12
14
16
suma
µ = 7.80
σ = 2.35
ni
23
82
73
45
24
2
1
250
ki
0
1
2
3
4
5
6
niki
0
82
146
135
96
10
6
475
nk
∑
k=
P(X=k)
0.1177
0.3025
0.3242
0.1852
0.0595
0.0102
0.0007
1.0000
475
=
= 1.90
N
250
k 1.90
p= =
= 0.3167 ≅ 0.3
n
6
i i
n’
29.4
75.6
81.0
46.3
14.9
2.6
0.2
250
EX = np
EX
p=
n
geometryczny:
P( X = n ) = pq
n −1
dla:
n = 1, 2, 3, ...
q = 1-p
1
EX =
p
1− p
D X= 2
p
2
Teoretyczne rozkłady zmiennej losowej ciągłej:
- rozkład normalny:
−
1
f ( x) =
e
σ 2Π
EX = µ
( x−µ )2
2σ 2
DX = σ
dla:
− ∞ < x < +∞
σ >0
Rozkład normalny
• Najczęściej stosowany rozkład w
statystyce
• Podstawa wielu metod statystycznych:
estymacji, testów, regresji, korelacji,
analizy wariancji, ...
Rozkład normalny
• Opisuje zmienne, które mogą przybierać
postać nieskończonej liczby niezależnych
zdarzeń losowych
• Przykład rozkładu zmiennej ciągłej
• Jego funkcję gęstości
prawdopodobieństwa można opisać
następująco:
Rozkład normalny
• gdzie:
– x - zmienna
– µ - średnia arytmetyczna
– σ - odchylenie standardowe
Rozkład normalny
Własności (r-d normalny)
• Wartość funkcji gęstości rośnie dla x<µ i
maleje dla x>µ
• Funkcja gęstości ma maksimum w punkcie
x=µ
• Wartość oczekiwana zmiennej X wynosi
E(X)=µ
• Wariancja zmiennej X równa jest D2X =
σ2
Własności (r-d normalny)
• dla x = µ funkcja gęstości ma wartość
• rozkład ma 2 punkty przegięcia dla x=µ σix=µ+σ
• rozkład normalny jest symetryczny, a oś
symetrii zdefiniowana jest jako x = µ
Własności (r-d normalny)
• Im wariancja / odchylenie standardowe
jest mniejsze, tym funkcja gęstości jest
węższa
• funkcja prawdopodobieństwa
(dystrybuanta) jest całką z funkcji gęstości
prawdopodobieństwa
Własności (r-d normalny)
Standaryzowany r.n.
• Każdy rozkład normalny może być
znormalizowany, tj. doprowadzony do
postaci rozkładu o średniej 0 i odchyleniu
standardowym 1: N(0,1).
• Wartość oczekiwana standaryzowanego rdu normalnego równa jest zero (EZ = 0) a
odchylenie standardowe równe jest 1 (D2Z
= 1).
Standaryzowany r.n.
• Standaryzacja to zamiana zmiennej x na
z, gdzie:
• Funkcja gęstości prawdopodobieństwa tej
funkcji:
f(x)
z=
N(20;2)
x−µ
σ
σ
14
1
−
2
16
18
z
1
f (z) =
e
2Π
z
2
σ
20
µ
22
f(z)
24
x
26
N(0;1)
1
2
z2
1
F ( z) =
e dz
∫
2Π −∞
−
-3
-2
-1
0
1
2
3
z
F(z) 1
1
F ( z) =
2Π
z
∫e
−
1
2
z2
dz
0.5
−∞
-3
-2
-1
Inne rozkłady zmiennej losowej ciągłej:
- jednostajny
- gamma
- beta
- wykładniczy
0
1
2
3 z
Standaryzowany r.n.
Własności (r-d normalny)
• Pomiędzy µ - σ i µ + σ znajduje się około
68% wszystkich wartości zmiennej
• W przedziale od µ - 2*σ do µ + 2*σ jest
około 95% wszystkich wartości zmiennej
• W przedziale od µ - 3*σ do µ + 3*σ mamy
około 99,7% wszystkich obserwacji
Rozkład skumulowany
cumulative histogram
frequency
250
200
150
100
50
0
0
3
6
9
dk
12
15
18
Rozkład skumulowany
Rozkład skumulowany
Rozkład skumulowany
Rozkład skumulowany
rozkład normalny
xi
x<
<3
4
ni
0
xgi
xig - µ
zi=(xgi-µ
µ)/σ
σ
F(xgi)
3
-4.8
-2.04
0.0207
23
5
6
3.2
1.36
5.2
2.21
7.2
3.06
9.2
0
250
µ = 7.80
σ = 2.35
3.91
24.1
0.2499
62.5
0.3281
82.0
0.2181
54.5
0.0733
18.3
0.0125
3.1
0.0011
0.3
0.0000
1.0000
0.0
250
0.6950
0.9131
0.9864
0.9989
1
17
x>
>17
suma
0.51
2
15
16
1.2
0.0963
0.3669
24
13
14
-0.34
45
11
12
-0.8
ni’
5.2
0.1170
73
9
10
-1.19
82
7
8
-2.8
F(xgi) – F(xgi-1)
0.0207
1.0000
Porównanie częstości empirycznych z teoretycznymi
n
90
80
70
60
50
ne
ndw
40
30
20
nnor
10
0
x
0
2
4
6
8
10
12
14
16
18
20
90
80
70
60
ne
50
40
ndw
30
20
10
0
0
2
4
6
8
10
12
14
16
18
20
90
80
70
60
50
ne
nnor
40
30
20
10
0
0
2
4
6
8
10
12
14
16
18
20
•
•
•
•
•
•
•
•
•
•
•
Co to jest zdarzenie losowe? Przykłady.
Klasyczna definicja prawdopodobieństwa.
Współczesna definicja prawdopodobieństwa.
Co to jest zmienna losowa?
Typy zmiennych losowych.
Co to jest gęstość prawdopodobieństwa
zmiennej losowej?
Co to jest dystrybuanta zmiennej losowej?
Charakterystyka rozkładu dwumianowego.
Wyznaczanie częstości teoretycznych
zgodnych z rozkładem dwumianowym.
Charakterystyka rozkładu normalnego.
Wyznaczanie częstości teoretycznych
zgodnych z rozkładem normalnym.
Dziękuję za uwagę!
Download