RACHUNEK PRAWDOPODOBIEŃSTWA – wybrane zagadnienia

advertisement
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
RACHUNEK PRAWDOPODOBIE STWA – wybrane zagadnienia
PRAWDOPODOBIE STWO
Przykład
Rozpatrzmy jako do wiadczenie losowe jednokrotny rzut sze cienn kostk . Chocia nie potrafimy
przewidzie wyniku tego do wiadczenia to znamy mo liwe warianty wyniku - liczba oczek 1 ÷ 6.
Oprócz takich elementarnych wyników mog nas interesowa wyniki bardziej zło one na które
składa si by mo e wiele elementarnych wyników np. wypadła parzysta liczba oczek, liczba oczek
wi ksza ni 4. Szansa uzyskania poszczególnych elementarnych wyników wynosi 1/6, szanse
innych zdarze mo na obliczy .
Jak wida w tym i podobnych przykładach je li badamy do wiadczenie losowe to jego model
matematyczny powinien zawiera trzy elementy:
– zbiór mo liwych wyników do wiadczenia,
– zbiór zdarze ,
– ocen szansy zaj cia zdarze w skali [0, 1].
Te trzy elementy ł cznie nazywamy przestrzeni probabilistyczn .
(Ω, S , P) – przestrze
probabilistyczna
(matematyczny model zjawiska losowego),
Ω – zbiór wszystkich zdarze elementarnych,
S – zbiór zdarze , (podzbiory zbioru Ω),
P – prawdopodobie stwo (funkcja przyporz dkowuj ca zdarzeniom szans ich zaj cia).
P:S → R
Uwaga. Mówimy, e zaszło zdarzenie A je li wynikiem do wiadczenia jest dowolne zdarzenie
elementarne ω ∈ A (zdarzenie sprzyjaj ce dla A). Zatem zdarzenia identyfikujemy z podzbiorem
tych zdarze elementarnych, które mu sprzyjaj .
Poniewa zdarzenia s zbiorami to b dziemy stosowa działania na zbiorach do zapisu działa na
zdarzeniach.
suma zdarze A , B
iloczyn zdarze A , B
zdarzenie przeciwne do zdarzenia A
ró nica zdarze A , B
A∪B
A∩B
A′ = Ω − A
A−B
Mówimy, e:
zdarzenie A poci ga zdarzenie B gdy A ⊂ B
zdarzenia A , B wykluczaj si (s rozł czne) gdy A ∩ B = ∅ .
Aksjomaty prawdopodobie stwa:
(PI)
P ( A) ≥ 0
A ∈S
(PII) P(Ω) = 1
(PIII) P( A1 ∪ A2 ∪....) = P( A1 ) + P( A2 ) + .....
Ai ∈ S ; parami wykluczaj ce si .
1
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Własno ci prawdopodobie stwa
a) P(∅) = 0
b) P ( A ′ ) = 1 − P ( A)
gdzie
A ′ = Ω − A jest zdarzeniem przeciwnym
c) Je li zdarzenia A1,...An wykluczaj si , to P( A1 ∪ ... ∪ An ) = P( A1 ) + ... + P( An )
d) P ( A1 ∪ A2 ) = P ( A1 ) + P ( A2 ) − P ( A1 ∩ A2 )
e) P( A1 ) ≤ P( A2 )
A1 , A2 ∈ S ;
dla A1 ⊂ A2 A1, A2 ∈ S ;
f) Je li A1 ⊂ A2 , to P( A2 − A1 ) = P( A2 ) − P( A1 ) ,
Je li zdarze elementarnych jest sko czenie wiele i s one jednakowo prawdopodobne to mo emy
skorzysta z tzw. klasycznej definicji prawdopodobie stwa.
P ( A) =
A
Ω
=
liczba zdarze – elementarn ych sprzyjaj c ych
liczba wszystkich zdarze – elementarn ych
A∈ S
Tak okre lona funkcja P spełnia aksjomaty prawdopodobie stwa.
Uwaga.
Liczba mo liwych sposobów ustawienia n ró nych elementów w ci g czyli permutacji zbioru
n elementowego wynosi P n = n !
Liczba mo liwych ci gów długo ci k o mog cych powtarza si elementach ze zbioru
n elementowego czyli k wyrazowych wariacji z powtórzeniami zbioru n elementowego wynosi
k
Wn = n k .
Liczba mo liwych ci gów długo ci k o ró nych elementach ze zbioru n elementowego czyli
k
zbioru n elementowego ( k ≤ n) wynosi Vn =
k wyrazowych wariacji bez powtórze
k
n!
.
(n − k )!
n
Je li n = k, to Vn = Vn = Pn = .
Liczba mo liwych k elementowych podzbiorów zbioru n elementowego czyli k wyrazowych
n
n!
=
. Zauwa my,
k
k!(n − k )!
k
kombinacji zbioru n elementowego ( k ≤ n) wynosi C n =
Vnk
C =
bo w kombinacjach kolejno
k!
k
n
elementów nie jest istotna.
Dyskretna przestrze probabilistyczna.
Niech Ω = {ω1 , ω 2 ,...} ,
S = 2Ω
Je li okre limy prawdopodobie stwo dla zdarze jednoelementowych
P({ω i }) = pi
gdzie pi ≥ 0,
pi = 1
wtedy dla A = {ω i1 , ω i2 ,...} mamy
({
})
({ } { }
i
)
P ( A) = P ω i1 , ω i2 ,... = P ω i1 ∪ ω i2 ∪ ... =
({ }) ({ })
= P ω i1 + P ω i2 + ... = pi1 + pi2 + ...
2
e
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Tak okre lona funkcja P spełnia aksjomaty prawdopodobie stwa. Spełnienie aksjomatu PIII wynika
z faktu, e suma zbie nego szeregu liczb nieujemnych nie ulega zmianie przy dowolnym
grupowaniu i przestawianiu wyrazów tego szeregu.
1
Je li Ω = N i pi =
to otrzymujemy klasyczn definicj prawdopodobie stwa.
N
Prawdopodobie stwo geometryczne
Je li zdarzenia elementarne s podzbiorem o mierze sko czonej przestrzeni Rn (je li n = 1 to miar
jest długo , dla n = 2 pole, dla n = 3 obj to ) i s one jednakowo prawdopodobne to stosujemy
tzw. prawdopodobie stwo geometryczne.
miara A
A∈ S
miara Ω
Tak okre lona funkcja P spełnia aksjomaty prawdopodobie stwa.
P( A) =
Uwaga
Je li mamy mo liwo wielokrotnego powtarzania (niezale nie) do wiadczenia losowego w tych
samych warunkach to mo emy wyznaczy przybli on warto prawdopodobie stwa wybranego
zdarzenia A
P( A) ≈
k
= cz sto
n
zdarzenia A
gdzie
n – liczba wykonanych do wiadcze ;
k – liczba tych do wiadcze w których zaszło zdarzenie A.
Sposób ten stosuje si w statystyce.
PRAWDOPODOBIE STWO WARUNKOWE. NIEZALE NO
Prawdopodobie stwo warunkowe.
Oceniaj c szans zaj cia jakiego zdarzenia mo emy wykorzystywa dodatkowe informacje
o innych zdarzeniach, które zaszły (lub spekulowa o konsekwencjach ich zaj cia). Informacje te
mog wpływa na prawdopodobie stwo zaj cia rozpatrywanego zdarzenia lub nie.
Aby oceni stopie wpływu zaj cia jednego zdarzenia na szans
wprowadzamy nast puj ce okre lenie.
zaj cia innego zdarzenia
Je li P( B) > 0 , B ∈ S to okre lamy prawdopodobie stwo warunkowe dowolnego zdarzenia A
pod warunkiem, e zaszło zdarzenie B:
P( A B ) =
P( A ∩ B)
P( B)
A ∈S
Pisz c P ( A B ) b dziemy domy lnie zakłada , e P( B) > 0 .
Własno .
Je li (Ω, S, P ) jest przestrzeni probabilistyczn i P( B) > 0 , B ∈ S to
(Ω, S , P ) gdzie P* ( A) = P( A B),
*
A ∈ S jest równie przestrzeni probabilistyczn .
Okazuje si , e zaj cie zdarzenia A zwi ksza szanse zaj cia zdarzenia B wtedy i tylko wtedy, gdy
zaj cie zdarzenia B zwi ksza szanse zaj cia zdarzenia A.
3
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
P( A B) > P( A) ⇔ P( B A) > P( B)
(uzasadnienie: obie strony równowa no ci s na mocy definicji prawdopodobie stwa warunkowego
równowa ne nierówno ci P ( A ∩ B ) > P ( A) P ( B ) wi c s równowa ne mi dzy sob ).
Prawdopodobie stwo warunkowe mo na wykorzysta
iloczynu zdarze .
do wyznaczania prawdopodobie stwa
Przykład.
Je li przekazywany sygnał ma dotrze z punktu emisji do punktu B przez po redni punkt A i na
ka dym etapie mo e by zniekształcony z odpowiednim prawdopodobie stwem.
Niezniekształcony sygnał dotrze do punktu B pod warunkiem, e dotrze niezniekształcony do
punktu A. Zatem licz c prawdopodobie stwo dotarcia niezniekształconego sygnału do punktu B
mno ymy prawdopodobie stwo jego dotarcia do punktu A przez prawdopodobie stwo jego
dotarcia do B pod warunkiem, e do A sygnał dotarł.
Zatem intuicyjnie korzystamy z wzoru P( A ∩ B) = P( A) P( B A) wynikaj cego z okre lenia
P( B A) . Podobnie P( A ∩ B) = P( B) P( A B) .
Powy szy wzór mo na uogólni nast puj co:
Niech zdarzenia A1, A2, ..., An, spełniaj warunek
P ( A1 ∩ A2 ∩ ... ∩ An ) > 0
wtedy
P ( A1 ∩ A2 ∩ ... ∩ An ) = P ( A1 ) P ( A2 A1 ) ⋅ ... ⋅ P (An A1 ∩ A2 ∩ ... ∩ An -1 )
Powy szy wzór stanowi uzasadnienie metody drzewek cz sto stosowanej np. przy losowaniach
wieloetapowych, gał ziom odpowiadaj prawdopodobie stwa warunkowe, przemieszczanie si
wzdłu gał zi oznacza mno enie tych prawdopodobie stw.
Nast puj ce twierdzenie pozwala wyrazi prawdopodobie stwo dowolnego zdarzenia jako sumy
"wkładów" zupełnego układu zdarze do rozpatrywanego zdarzenia.
Twierdzenie (o prawdopodobie stwie całkowitym)
Niech zdarzenia A1, A2, ..., An, spełniaj warunki:
A1, A2, ..., An, s parami wykluczaj ce si , A1 ∪ A2 ∪ ... ∪ An =
(o takim układzie zdarze mówimy, e jest zupełny)
P(Ai) > 0, i = 1,2, ..., n.
wtedy dla dowolnego zdarzenia B
P ( B ) = P ( A1 ) P ( B A1 ) + P ( A2 ) P ( B A2 ) + .... + P ( An ) P ( B An ) =
n
i =1
P ( Ai ) P ( B Ai )
Dowód. Z zało enia o układzie zupełnym i definicji prawdopodobie stwa warunkowego mamy
P( B) = P
n
( B ∩ Ai ) =
i =1
n
i =1
P ( B ∩ Ai ) =
n
i =1
P ( Ai ) P ( B Ai )
Powy sze twierdzenie jest równie prawdziwe dla przeliczalnego zupełnego układu zdarze .
A1
A2
A3
A4
A5
A6
B
4
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Twierdzenie (Bayesa)
Niech zdarzenia A1, A2, ..., An, spełniaj warunki poprzedniego twierdzenia.
Wtedy dla dowolnego zdarzenia B takiego, e P(B) > 0 mamy:
P ( Ak B ) =
P ( Ak ) P ( B A k )
P(B)
=
P ( A k ) P ( B Ak )
P ( A1 ) P ( B A1 ) + P ( A2 ) P ( B A2 ) + .... + P ( An ) P ( B An )
=
P ( Ak ) P ( B A k )
n
i =1
P ( Ai ) P ( B Ai )
Zdarzenia A i B s niezale ne gdy
P ( A ∩ B) = P ( A) P ( B)
A, B ∈ S
Poj cie
to
powoduje,
e
teoria
prawdopodobie stwa
w porównaniu z teori miary i innymi działami matematyki.
Zauwa my , e je li zdarzenie A jest niezale ne od zdarzenia B to
ma
swoj
specyfik
P( A B) = P( A)
Ogólnie. Zdarzenia A1 , .. ., A n ( n ≥ 2) s niezale ne, je li
P( Ai1 ∩...∩ Aik ) = P( Ai1 ) ⋅ ... ⋅ P( Aik )
∀ 1 ≤ i1 ≤ i2 ≤ ... ≤ ik ≤ n, k ≥ 2
Np. trzy zdarzenia A , B i C s niezale ne wtedy i tylko wtedy, gdy
P ( A ∩ B ∩ C ) = P ( A ) P ( B ) P (C ) ,
P( A ∩ B) = P( A) P( B) , P ( A ∩ C ) = P ( A ) P ( C ) i P ( B ∩ C ) = P ( B ) P ( C ).
Uwaga.
Je li A, B niezale ne to A, B' s równie niezale ne.
ZMIENNA LOSOWA JEDNOWYMIAROWA
Aby mo na było wykorzysta aparat analizy matematycznej do badania prawdopodobie stwa,
wygodnie jest przenie wyniki do wiadczenia losowego ze zbioru zdarze elementarnych Ω,
specyficznego dla tego do wiadczenia do uniwersalnego zbioru R bardziej "przyjaznego" dla
operacji ró niczkowych i całkowych.
Zmienn losow X nazywamy funkcj
elementarnym liczby rzeczywiste.
(praktycznie ka d ) przyporz dkowuj c
X:
zdarzeniom

→ R
Okre laj c zmienn losow otrzymujemy mo liwo liczbowego opisu wyników do wiadczenia
losowego, mo emy te "odfiltrowa " zb dne informacje, które nas nie interesuj . Najcz ciej
bowiem wa ne s tylko pewne charakterystyki liczbowe zale ne od wyniku do wiadczenia.
Przykład zmiennych losowych
Dla przestrzeni probabilistycznej – dwa rzuty kostk .
X – suma oczek, (warto ci: 2, 3, ..., 12).
X – wynik rzutu o wi kszej liczbie oczek (warto ci: 1, 2, ..., 6).
5
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Stosujemy uproszczenia np.
- zapis
P(X < x)
oznacza
P({ω∈Ω: X(ω) < x}),
- zapis
P ( x1 < X < x 2 )
oznacza
P({ω∈Ω: x1 < X(ω) < x2}),
Zdarzeniom s przyporz dkowane podzbiory zbioru R, musimy tym podzbiorom przyporz dkowa
odpowiadaj ce im prawdopodobie stwa. Przyporz dkowanie to nazywamy rozkładem
prawdopodobie stwa zmiennej losowejX i oznaczamy PX.
(
PX ( B) = P X −1( B)
)
dla B ∈ Β(R),
B(R) - zbiory borelowskie
Tak okre lone PX spełnia aksjomaty prawdopodobie stwa.
X
Ω
B=X(A)
A=X-1(B)
P
R
PX
1
0
P(A)=PX(B)
Dla zmiennej losowej mo na zdefiniowa dystrybuant - funkcj rzeczywist , która wyznacza
rozkład zmiennej losowej jednoznacznie.
Dystrybuant zmiennej losowej X nazywamy funkcj F: R 
→ R okre lon wzorem:
Własno ci dystrybuanty:
F ( x ) = P ( X < x ) = PX (( −∞ , x ))
a) F jest funkcj niemalej c ,
b) F jest funkcj lewostronnie ci gł ,
c)
F ( −∞) = 0; F (∞) = 1 ,
d) dystrybuanta zmiennej losowej wyznacza jednoznacznie jej rozkład,
e) P ( a ≤ X < b) = F (b) − F ( a );
+
f) P( X = a ) = F ( a ) − F ( a );
a <b
gdzie F (a + ) oznacza granic
prawostronn , (je li a jest punktem ci gło ci dystrybuanty to P(X = a ) = 0).
Uwaga
Je li funkcja rzeczywista spełnia własno ci a), b), c) to jest dystrybuant pewnej zmiennej losowej,
jej rozkład jest wyznaczony jednoznacznie.
Zmienna losowa jest skokowa (dyskretna) je li zbiór wszystkich jej warto ci jest sko czony lub
przeliczalny.
Rozkład zmiennej losowej skokowej cz sto okre lamy za pomoc funkcji prawdopodobie stwa:
P( X = x k ) = pk
pk = 1; pk > 0 )
(własno :
k
Liczby pk nazywamy skokami, a warto ci xk punktami skokowymi.
6
L.Kowalski
Znaj c funkcj
dystrybuant
Wybrane zagadnienia z rachunku prawdopodobie stwa
prawdopodobie stwa zmiennej losowej skokowej mo na wyznaczy
F (x ) =
k
x k <x
oraz jej rozkład prawdopodobie stwa
jej
pk
P ( X ∈ B) =
pk
k
x k ∈B
Przykład
Zmienna ta przyjmuje warto ci 1, 2, 3 z prawdopodobie stwami odpowiednio
P( X = 1) = 0,2 ;
P( X = 2) = 0,6 ;
P( X = 3) = 0,2 .
Warto ci funkcji prawdopodobie stwa mo na zestawi w tabeli:
xk
pk
1
0,2
2
0,6
3
0,2
dla
x ≤1
dla 1 < x ≤ 2
dla 2 < x ≤ 3
dla
x>3
0
0,2
Jej dystrybuanta ma posta F ( x) =
0,8
1
1
0,8
0,2
1
2
3
Zauwa my, e punkty skokowe s punktami nieci gło ci dystrybuanty a skoki wyznaczaj
przyrosty dystrybuanty (jej skoki) w tych punktach.
Dla zmiennej losowej skokowej dystrybuanta jest zawsze kawałkami stała.
Zmienna losowa X o dystrybuancie F jest ci gła je li jej dystrybuanta da si przedstawi w postaci
x
F ( x) =
x ∈R
f (t )dt
−∞
gdzie f jest funkcj spełniaj c warunki:
∞
f ( x ) ≥ 0; x ∈ R;
f (t )dt = 1
−∞
i nazywamy j g sto ci prawdopodobie stwa zmiennej losowej X.
Własno ci zmiennej losowej ci głej:
a) P( X < a ) =
a
f ( x )dx = F (a ) ,
−∞
b) P (a ≤ X ≤ b) = P(a < X ≤ b) = P( a ≤ X < b) = P( a < X < b) =
b
a
7
f ( x)dx = F (b) − F (a)
L.Kowalski
c) P ( X > b) =
∞
Wybrane zagadnienia z rachunku prawdopodobie stwa
f ( x )dx = 1 − F (b) ,
b
d) P ( X = a ) = 0, dla dowolnego a ∈ R ; (brak punktów skokowych),
e) F jest funkcj ci gł i prawie wsz dzie ró niczkowaln
F ′ ( x ) = f ( x ) (równo
zachodzi dla
punktów ci gło ci g sto ci). Wyznaczaj c g sto
przez ró niczkowanie dystrybuanty,
w punktach w których F nie jest ró niczkowalna mo na przyj , e g sto jest równa zero.
Przykład.
Wyznaczymy warto ci c dla której funkcja
cx
dla
x ∈ (0 , 1]
0
dla
x ∉ (0 , 1]
jest g sto ci pewnej zmiennej losowej ci głej?
f ( x) =
∞
Aby g sto
f ( x)dx = 1 , musi by c > 0 i pole odpowiedniego trójk ta
była nieujemna i
−∞
prostok tnego równe 1. St d c = 2.
Dystrybuanta tej zmiennej losowej ma posta
dla
dla
dla
x
x ∈ (− ∞ ; 0]
F ( x ) = 0 dt = 0
x ∈ (0 , 1]
F ( x) =
x ∈ (1 , ∞ ]
−∞
0
−∞
0
0
1
x
−∞
0
1
F ( x) = 0dt + 2tdt + 0dt = 1
0
Ostatecznie
x
0dt + 2tdt = x 2
F ( x) = x
1
x ∈ (− ∞ ; 0]
dla
2
x ∈ (0, 1]
x ∈ (1, ∞ ]
dla
dla
Obliczymy prawdopodobie stwo P(0,25 ≤ X ≤ 0,75) .
0, 75
Sposób I. Za pomoc g sto ci P(0,25 ≤ X ≤ 0,75) =
2 xdx = x 2
0 , 25
0 , 75
0 , 25
= 0,5
Sposób II. Za pomoc dystrybuanty P(0,25 ≤ X ≤ 0,75) = F (0,75) − F (0,25) = 0,5
Uwagi o rozkładzie funkcji zmiennej losowej.
Je li X - skokowa, o funkcji prawdopodobie stwa P(X = xi) = pi, g - dowolna to funkcja
prawdopodobie stwa zmiennej losowej Y = g(X) ma posta :
g(x1)
g(x2)
...
g(xk)
p1
p2
...
pk
Po uporz dkowaniu rosn co warto ci g(xi) i zsumowaniu odpowiednich prawdopodobie stw.
Dokładniej
P(Y = y ) = P( g ( X ) = y ) = P
(X
{i: g ( xi ) = y }
= xi ) =
P( X = xi ) =
{i: g ( xi ) = y }
8
pi
{i: g ( x i ) = y }
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Przykład.
X - zmienna losowa skokowa o funkcji prawdopodobie stwa:
-4
-2
-1
0
1
0,4
0,1
0,1
0,1
0,1
wyznaczymy funkcj prawdopodobie stwa zmiennej losowej Y = sgnX .
sgn(-4) = sgn(-2) = sgn(-1) = -1.
sgn(0) = 0.
sgn(1) = sgn(2) = 1.
Zatem funkcja prawdopodobie stwa zmiennej losowej Y jest nast puj ca
-1
0
1
0,6
0,1
0,3
X - dana zmienna losowa ci gła o g sto ci f.
Wyznaczy g sto g(y) zmiennej losowej Y.
2
0,2
Y = g(X) ,
1) Je li g - ci le monotoniczna i ró niczkowalna w przedziale (a, b) koncentracji X to:
g ( y ) = f (h( y ) ) h ' ( y )
gdzie h = g-1.
Nale y pami ta o przekształceniu przedziału koncentracji.
Przykład.
Y = aX + b, wtedy g ( y ) = f
y −b 1
,
a
a
Przykład.
0
Je li X ma rozkład o g sto ci f ( x) =
e
−x
dla x ≤ 0
Y = X − 2,
dla x > 0
wtedy h( y ) = ( y + 2 ) , h′( y ) = 2( y + 2 ) , g(0) = -2, g(∞) = ∞,
2
g ( y) =
2) Je li g - przedziałami
(a, b) koncentracji X to:
dla x ≤ −2
0
2( y + 2) e
ci le
g ( y) =
− ( y + 2) 2
dla x > −2
monotoniczna
k
i =1
i
,
ró niczkowalna
w
przedziale
f (hi ( y) ) hi ( y )
'
gdzie hi - funkcje odwrotne do g dla poszczególnych przedziałów,
k - liczba warto ci funkcji odwrotnej odpowiadaj cych danemu y.
W niektórych zagadnieniach wyznaczania rozkładu funkcji zmiennej losowej najpierw
wyznaczamy dystrybuant rozkładu zmiennej losowej Y = g(X), wg schematu
FY ( y ) = P(Y < y ) = P(g ( X ) < y ) = P X ∈ g −1 ((−∞, y ) ) < y
nast pnie je li to mo liwe, wyznaczamy funkcj prawdopodobie stwa (gdy jest to rozkład
skokowy) lub g sto (gdy jest to rozkład ci gły).
(
)
9
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
PARAMETRY ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ
Własno ci rozkładu zmiennej losowej cz sto charakteryzujemy jej parametrami.
Jednym z podstawowych parametrów jest warto oczekiwana.
Warto oczekiwana. Oznaczenie EX lub m.
Dla zmiennej losowej skokowej
EX =
xi pi
i
(je li ewentualny szereg jest zbie ny bezwzgl dnie, takie szeregi s "odporne" np. na zmian
kolejno ci wyrazów).
Dla zmiennej losowej ci głej
∞
EX =
xf ( x ) dx
−∞
(je li ewentualna całka niewła ciwa jest zbie na bezwzgl dnie).
Przyjmuj c, e warto oczekiwana istnieje mamy te na uwadze, e ma sko czon warto .
Przykład
Dla zmiennej losowej o funkcji prawdopodobie stwa
xk
pk
-1
0,2
2
0,6
3
0,2
EX = −1 ⋅ 0,2 + 2 ⋅ 0,6 + 3 ⋅ 0,2 = 1,6 .
Interpretacja.
Warto oczekiwana wyznacza rodek ci ko ci masy jednostkowej rozło onej w punktach
skokowych.
0,2
-1
1,6
0,6
0,2
2
3
Mo na te powiedzie , e jest to rednia warto przyjmowana przez zmienn losow
(z uwzgl dnieniem wag jakimi s prawdopodobie stwa).
Przykład
Dla zmiennej losowej o g sto ci
f ( x) =
x ∈< 01
, >
2x
x ∉< 01
, >
0
1
1
0
0
EX = x ⋅ 2 xdx = 2 x 2 dx = 2
Własno ci warto ci oczekiwanej
a) Ec = c; c – stała,
b) E(aX) = aE(X),
c) E(X + Y) = EX + EY,
d) X, Y – niezale ne, to E(XY) = EX⋅EY.
10
x3 1 2
=
3 0 3
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Miar rozrzutu warto ci zmiennej losowej jest wariancja.
Wariancja. Oznaczenie D2X lub σ2 lub VX.
D2X = E(X – EX)2
Dla zmiennej losowej skokowej
D2 X =
Dla zmiennej losowej ci głej
D2 X =
( xi − EX ) 2 pi
∞
( x − EX ) 2 f ( x )dx
−∞
Własno ci wariancji
a) D2c = 0;
2
c – stała,
2
b) D (aX) = a D2(X),
c) D2(X + b) = D2X , b – stała,
2
2
2
d) X, Y – niezale ne, to D (X ± Y) = D X + D Y
e) D2X = E(X2) – (EX)2.
Uzasadnienie e)
D2X = E(X – EX)2 = E(X2 – 2XEX + (EX)2) = EX2 – 2EXEX + (EX)2 = E(X2) – (EX)2.
Je li rozrzut warto ci zmiennej losowej chcemy (np. z powodu interpretacji w zastosowaniach)
mierzy w tych samych jednostkach co X to stosujemy odchylenie standardowe.
Odchylenie standardowe. Oznaczenie DX lub σ.
DX =
Własno
Je li X ma warto
D2 X
oczekiwan m i odchylenie standardowe σ > 0
X −m
to zmienna losowa Y =
ma EY = 0 i DX = 1.
σ
Zmienn losow Y nazywamy zmienn losow standaryzowan .
Przykład
Dla zmiennej losowej o g sto ci f ( x ) =
1
2
3
0
II sposób (na podstawie własno ci e))
D2 X =
x−
1
2x
0
2
⋅ 2 xdx =2
2
D X = x ⋅ 2 xdx −
3
0
2
x ∈< 01
, >
2
zatem
mamy EX =
x ∉< 01
, >
3
2
1
x3 −
0
2
1
4 2 4
1
x + x dx =
3
9
18
=2 x 3dx −
0
4 1 4 1
= − =
9 2 9 18
Przykład
Je li niezale ne zmienne losowe Xi (i = 1, 2, ..., n) maj tak sam warto
oczekiwan m i takie
1 n
samo odchylenie standardowe σ > 0 to zmienna losowa X b d ca ich redni X =
X i ma
n i =1
EX = m ;
DX =
11
σ
n
L.Kowalski
Nierówno Czebyszewa.
Je li zmienna losowa X
ma
σ > 0 to dla dowolnego ε > 0 mamy
Wybrane zagadnienia z rachunku prawdopodobie stwa
warto
oczekiwan
m
i
odchylenie
standardowe
σ2
ε2
Z nierówno ci tej wynika, e wariancja (odchylenie standardowe) jest miar odchylenia warto ci
zmiennej losowej od warto ci oczekiwanej.
P( X − m ≥ ε ) ≤
Moment rz du k ( k - liczba naturalna)
mk = E (X k )
Zauwa my, e w szczególno ci m1 = EX = m, oraz własno e) dystrybuanty mo na zapisa
D2 X = m2 – m2 .
Własno . Je li istnieje mk to istnieje ms dla ka dego s < k.
Moment centralny rz du k ( k - liczba naturalna)
µk = E ( X − EX )k
Zauwa my, e w szczególno ci µ1 = 0, µ2 = D2X.
(
)
Za pomoc momentów wy szych rz dów okre lamy współczynnik asymetrii (sko no ci)
a=
µ3
σ3
k=
µ4
σ4
i współczynnik skupienia (kurtoz )
Wielko ci te s cz sto stosowane w statystyce.
Kwantylem rz du p (0 < p < 1) zmiennej losowej X o dystrybuancie F nazywamy liczb xp, tak ,
e
F (x p ) ≤ p ≤ F x +p
Zauwa my, e dla zmiennej losowej ci głej xp wyznaczymy z równo ci
F (x p ) = p
Kwantyl rz du 0,5 nazywamy median .
Kwantyle rz du 0,25 ; 0,5; 0,75 nazywamy kwartylami (drugi kwartyl jest median ).
Wielko ci te s cz sto stosowane w statystyce.
Kwantyle istniej dla ka dej zmiennej losowej, lecz nie zawsze s wyznaczone jednoznacznie.
( )
PODSTAWOWE ROZKŁADY PRAWDOPODOBIE STWA
Rozkłady skokowe
Rozkład dwupunktowy (zerojedynkowy)
Niech p ∈ ( 0, 1) b dzie ustalon liczb . Okre lamy:
P(X = 0) = q, P(X = 1) = p ; gdzie q = 1 – p.
Rozkład ten jest wykorzystywany w statystycznej kontroli jako ci. Mo na np. przyj , e X = 0 gdy
wyrób dobry, X = 1 gdy wyrób jest wadliwy, wtedy p = P(X = 1) traktujemy jako wadliwo
wyrobu.
12
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Rozkład dwumianowy
Dla danych p ∈ ( 0, 1) , n ∈ N okre lamy funkcj prawdopodobie stwa
n k n−k
gdzie q = 1 – p
p q
k
k = 0, 1, 2, ... , n.
Zauwa my, e gdy n = 1 to rozkład dwumianowy jest rozkładem zerojedynkowym.
P( X = k ) =
Je li przyjmiemy, e n oznacza liczb niezale nych do wiadcze z których ka de ko czy si
jednym z dwóch wyników: „sukcesem" (z prawdopodobie stwem p w ka dym do wiadczeniu) lub
„pora k ” i zmienna losowa X oznacza liczb „sukcesów” to powy szy wzór wyznacza
prawdopodobie stwo uzyskania dokładnie k sukcesów w n do wiadczeniach (próbach).
Rozkład Poissona
Dla λ > 0 okre lamy funkcj prawdopodobie stwa
P (X = k ) =
λk
k!
e − λ k = 0, 1, 2, ...
(warto ci tych prawdopodobie stw zawiera tablica rozkładu Poissona)
Rozkład Poissona (mo liwo odczytu w tablicy) mo e dla du ych n (praktycznie n ≥ 30) i małych
p (praktycznie p ≤ 0,2) przybli a rozkład dwumianowy (przybli enie Poissona)
n
k
p q
k
n−k
≈
λk
k!
e −λ
gdzie λ = n ⋅ p
Rozkłady ci głe
Rozkład jednostajny
Rozkład którego g sto
jest stała w pewnym przedziale nazywamy jednostajnym.
1
x ∈ ( a; b)
G sto rozkładu jednostajnego w (a, b) f ( x ) = b − a
0
x ∉ ( a; b)
Poniewa g sto ta ma o symetrii w punkcie x = (a + b)/2 to
EX = (a+b)/2
Poka emy, e
D2X = (b – a)2/12
Przykład
Najpierw obliczymy EX2
b
1
1 x3
EX = x
dx =
b−a
b−a 3
a
2
b
=
2
a
Zatem D 2 X = EX 2 − ( EX ) 2 =
1 b3 a3
a 2 + 2ab + b2
−
=
b−a 3
3
3
a 2 + 2ab + b 2
a+b
−
3
2
2
=
(b − a )2
12
Rozkład wykładniczy
Rozkład ten wyst puje cz sto w zagadnieniach rozkładu czasu mi dzy zgłoszeniami (awariami) lub
czasu oczekiwania na obsług w systemach kolejkowych.
G sto rozkładu wykładniczego o parametrze a > 0 ma posta f ( x) =
13
ae − ax
x>0
0
x≤0
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
dystrybuant tego rozkładu jest funkcja
F ( x) =
1 − e − ax
x>0
x≤0
0
Rozkład normalny
m ∈ R , σ ∈(0, + ∞)
Dla
f ( x) =
1
σ 2π
okre lamy g sto
−
e
( x − m)2
2σ 2
rozkładu
x∈R
W tablicy II dla x ∈ [0; 5) podano warto ci dystrybuanty Φ rozkładu N(0, 1)
Warto ci dystrybuanty dla argumentów ujemnych wyznaczamy na podstawie zale no ci
Φ (– x) = 1 – Φ (x)
Uwaga
Je li X ma rozkład N(m, σ) to zmienna losowa Y = (X – m)/σ ma rozkład N(0, 1)
(takie przekształcenie nazywamy standaryzacj ).
Przykład
Dochód miesi czny (zł) w pewnej populacji osób ma rozkład normalny N(1600; 300).
Jaki procent osób w tej populacji ma dochód miesi czny poni ej 1000 zł?
X – wysoko
miesi cznego dochodu
P( X < 1000) = P
X − 1600 1000 − 1600
<
= P(Y < −2 ) = Φ (−2) = 1 − Φ (2) = 1 − 0,9772 = 0,0228 = 2,28%
300
300
Prawo trzech sigm
Je li X ma rozkład N(m, σ) to
P (m − σ < X < m + σ ) = 0,683 ,
P (m − 2σ < X < m + 2σ ) = 0,955 ,
P(m − 3σ < X < m + 3σ ) = 0,997
wiadczy o tym, e chocia rozkład normalny ma g sto ró n od zera na całej
Ostatnia równo
prostej to praktycznie niemal wszystkie realizacje skupiaj si w przedziale
( m − 3σ , m + 3σ )
własno
t nazywamy prawem trzech sigm.
14
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
m
m – 3σ
m + 3σ
Interpretacja graficzna parametrów rozkładu N(m, σ)
Trzy rozkłady ci głe, które maj du e znaczenie w statystyce matematycznej:
– Rozkład chi kwadrat,
– Rozkład Studenta,
– Rozkład F – Snedecora
Przedstawione s w zestawieniu rozkładów ci głych.
Rozkłady te s stablicowane.
15
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Odczyt z tablicy (tablica III) dla rozkładu chi kwadrat.
(podobnie interpretujemy graficznie odczyt (tablica V) z tablicy F – Snedecora.)
P (Yn ≥ k ) = α
Uwaga.
1) Dla n = 1, 2 wykres g sto ci rozkładu chi kwadrat jest inny (tylko cz
malej ca wykresu)
2) dla n > 30 stosujemy przybli enie rozkładem normalnym.
Odczyt z tablicy (tablica IV) dla rozkładu Studenta.
P ( Tn ≥ k ) = α
Rozkłady i tablice zawiera oddzielne zestawienie.
FUNKCJA CHARAKTERYSTYCZNA
Funkcj ϕ : R → C (zespolon zmiennej rzeczywistej) okre lon wzorem
∞
ϕ (t ) = ϕ X (t ) = E (e itX ) = e itx dF ( x) ,
−∞
t∈R
nazywamy funkcj charakterystyczn zmiennej losowej X.
Zatem dla zmiennej losowej skokowej o funkcji prawdopodobie stwa P( X = xk ) = pk
ϕ (t ) =
pk e itxk ,
k
16
t∈R
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
natomiast dla zmiennej losowej ci głej o g sto ci f(x)
ϕ (t ) =
∞
f ( x)e itx dx ,
t∈R
−∞
Powy szy szereg i całka s bezwzgl dnie zbie ne do 1 (bo warto ci modułu zmiennej losowej
eitX ,
t ∈ R s równe 1 i odpowiednio
∞
pk = 1 ,
k
f ( x)dx =1 ), zatem funkcja charakterystyczna
−∞
zawsze istnieje.
Własno ci funkcji charakterystycznej.
a) ϕ (0) = 1, ϕ (t ) ≤ 1, t ∈ R ,
b) ϕ jest funkcj jednostajnie ci gł ,
itb
c) ϕ aX +b (t ) = e ϕ X (ta) ,
d) je li istnieje E X
EX k =
e)
f)
g)
h)
k
< ∞, k ≥ 1 , to ϕ jest funkcj klasy Ck oraz ϕ ( k ) (0) = i k EX k , czyli
ϕ (k ) (0)
,
ik
je li istnieje i jest sko czona pochodna ϕ (2 k ) (0) to EX 2 k < ∞, k ≥ 1
ϕ X (t ) = ϕ X (−t ) = ϕ − X (t )
je li X, Y - niezale ne zmienne losowe to ϕ X +Y (t ) = ϕ X (t )ϕY (t ) ,
funkcja charakterystyczna okre la rozkład zmiennej losowej jednoznacznie.
W szczególnych przypadkach mo na (korzystaj c z retransformaty) na podstawie funkcji
charakterystycznej wyznaczy rozkład zmiennej losowej .
Własno 1.
Je li funkcja charakterystyczna ϕ zmiennej losowej X jest bezwzgl dnie całkowalna, to X jest
zmienn losow ci gł i g sto jej wyra a si wzorem
f ( x) =
1
2π
∞
ϕ (t )e −itx dt
−∞
Własno 2.
Je li funkcja charakterystyczna ϕ zmiennej losowej X jest okresowa o okresie 2π, to X jest zmienn
losow skokow o warto ciach całkowitych i jej funkcja prawdopodobie stwa wyra a si wzorem
P( X = k ) =
1
2π
π
k - liczba całkowita
ϕ (t )e −itk dt
−π
ZMIENNA LOSOWA DWYWYMIAROWA (WIELOWYMIAROWA)
Je li Xi i = 1, 2, ..., n s zmiennymi losowymi w ustalonej przestrzeni probabilistycznej (Ω, S , P) to
ci g X = (X1 , X2 , ..., Xn) nazywamy zmienn losow n-wymiarow (wektorem losowym).
Zauwa my, e w tym przypadku ka demu zdarzeniu elementarnemu przyporz dkowujemy ci g
n liczb rzeczywistych.
X : Ω → Rn
W szczególno ci gdy n = 2 mamy dwuwymiarow zmienn losow (X, Y).
Zmienne losowe wielowymiarowe słu do modelowania takich do wiadcze losowych których
wyniki opisuje si układem wielu liczb rzeczywistych np. losowo wybranego człowieka mo emy
m.in. scharakteryzowa trzema liczbami: wzrostem, wag i wiekiem.
17
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Zmienna losowa 2-wymiarowa.
( )
P( X ,Y ) : Β R 2 → [0, 1] - rozkład prawdopodobie stwa zmiennej losowej (X,Y).
(
)
( )
P( X ,Y ) ( A) = P ( X , Y ) ( A) ,
−1
∀A ∈ Β R 2
Rozkłady prawdopodobie stwa zmiennych losowych X, Y nazywamy rozkładami brzegowymi.
Rozkład prawdopodobie stwa zmiennej losowej (X, Y) nazywamy rozkładem ł cznym.
Dystrybuanta
F ( x, y ) = P ( X < x , Y < y )
Własno ci dystrybuanty zmiennej losowej (X,Y).
a) F jest niemalej ca wzgl dem ka dego argumentu,
b) ∀x
lim F ( x, y ) = 0 ; ∀y
y →−∞
(lim F ( x, y) = 0);
x→−∞
,
lim F ( x, y ) = 1
x →∞
y →∞
c) F jest lewostronnie ci gła wzgl dem ka dego argumentu,
d)
∀x1 ≤ x2 ; ∀y1 ≤ y2 ; F (x2 , y2 ) − F (x1 , y 2 ) − F (x2 , y1 ) + F (x1 , y1 ) =
= P( x1 ≤ X < x2 ; y1 ≤ Y < y 2 ) ≥ 0
Je li F(x, y) jest dystrybuant zmiennej losowej (X,Y) to funkcje
FX ( x) = lim F ( x, y ) = F ( x, ∞);
y →∞
FY ( y) = lim F ( x, y ) = F (∞, y )
x→∞
s dystrybuantami odpowiednich rozkładów brzegowych.
Zmienne losowe X,Y
A, B na prostej mamy
niezale ne
s
gdy
dla
dowolnych
zbiorów
borelowskich
P( X ∈ A, Y ∈ B) = P( X ∈ A) P(Y ∈ B)
Zmienne losowe X,Y s niezale ne wtedy i tylko wtedy, gdy dla dowolnych x, y rzeczywistych
F(x, y) = FX(x)FY(y)
Dwuwymiarowa zmienna losowa (X, Y) ma rozkład skokowy je li zmienne losowe X i Y maj
sko czony lub przeliczalny zbiór warto ci.
Rozkład zmiennej losowej (X, Y) (ł czny rozkład zmiennych X i Y) okre la si za pomoc funkcji
prawdopodobie stwa lub dystrybuanty.
Funkcj prawdopodobie stwa skokowej zmiennej losowej (X, Y) przyjmuj cej warto ci
(xi, yj) jest
pij =P(X = xi, Y = yj) i, j = 1, 2, ...
przy czym pij ≥ 0 oraz
pij = 1
i
j
Dystrybuant F(x, y) skokowej zmiennej losowej (X, Y) jest funkcja rzeczywista
F ( x, y ) =
xi < x y j < y
pij
Funkcj prawdopodobie stwa skokowej zmiennej losowej (X, Y) przyjmuj cej warto ci (xi, yj)
mo na zapisa w postaci tablicy:
18
L.Kowalski
Y
Wybrane zagadnienia z rachunku prawdopodobie stwa
y1
y2
.......
yl
pi.
x1
x2
p11
p21
p12
p22
.......
.......
p1l
p2l
p1.
p2.
....
....
....
....
....
.....
xk
p.j
pk1
p.1
pk2
p.2
.......
......
pkl
p.l
pk.
1
X
gdzie
x1, x2, .... , xk – warto ci zmiennej losowej X,
y1, y2, .... , yl – warto ci zmiennej losowej Y,
p.j – sumy prawdopodobie stw w kolumnach, p.j =
pij
i
pi. – sumy prawdopodobie stw w wierszach, pi. =
pij .
j
Uwaga.
pij = 1 .
i, j
Rozkładem brzegowym
prawdopodobie stwa:
xi
pi.
x1
p1.
Rozkładem brzegowym
prawdopodobie stwa:
yj
p.j
y1
p.1
zmiennej
x2
p2.
zmiennej
y2
p.2
losowej
X
nazywamy
...
...
rozkład
okre lony
funkcj
rozkład
okre lony
funkcj
xk
pk.
losowej
Y
nazywamy
.......
......
yl
p.l
Je li zmienna losowa (X, Y) jest skokowa to zmienne losowe X i Y s niezale ne gdy dla ka dej
pary (xi, yj) (i, j = 1, 2, ...) spełniony jest warunek:
P(X = xi, Y = yj) = P(X = xi)P(Y = yj)
Warunek ten mo na równie zapisa w postaci
pij = pi.⋅p.j
Przykład.
Rzucamy dwa razy kostk . X - liczba parzystych oczek w pierwszym rzucie, tzn. X = 0 lub X = 1.
Y - liczba jedynek w obu rzutach, tzn. Y = 0 lub Y = 1, lub Y = 2.
Funkcja rozkładu prawdopodobie stwa tej zmiennej losowej dana jest tabelk :
Y
X
0
1
p.j
0
1
2
pi.
10/36
15/36
25/36
7/36
3/36
10/36
1/36
0
1/36
18/36
18/36
1
Rozkłady brzegowe wyznaczone s przez brzegowe warto ci tej tabeli.
Rozkład brzegowy zmiennej losowej X :
xi
pi.
0
18/36
1
18/36.
19
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Rozkład brzegowy zmiennej losowej Y :
yj
p.j
0
25/36
1
10/36
2
1/36
(X, Y) nazywamy zmienn losow ci gł je li jej dystrybuanta da si przedstawi w postaci
F ( x, y ) =
x y
f ( s, t )dsdt
− ∞− ∞
dla pewnej nieujemnej funkcji f zwanej g sto ci .
Uwaga.
1.
∞ ∞
f ( x, y )dxdy = 1
− ∞− ∞
2. W punktach ci gło ci funkcji f zachodzi:
∂ 2 F ( x, y )
= f ( x, y )
∂x∂y
3. Dla A ∈ Β( R 2 ) mamy P( X ,Y ) ( A) =
f ( x, y ) dxdy .
A
Maj c g sto rozkładu ł cznego g sto ci rozkładów brzegowych wyznaczamy nast puj co.
Je li f(x, y) jest g sto ci zmiennej losowej (X,Y) to funkcje
f X ( x) =
∞
f ( x, y )dy;
∞
fY ( y ) =
−∞
f ( x, y )dx
−∞
s g sto ciami odpowiednich rozkładów brzegowych.
Je li ł czny rozkład (X, Y) jest ci gły, to zmienne losowe X,Y s niezale ne wtedy i tylko wtedy,
gdy dla dowolnych x, y rzeczywistych
f(x, y) = fX(x)fY(y)
Przykład.
Funkcja f(x, y) jest g sto ci zmiennej losowej (X,Y).
f ( x, y ) =
c
dla 0 ≤ x ≤ 2, 0 ≤ y ≤ 2
0
dla innych x, y
Przez całkowanie lub z interpretacji geometrycznej wynika, e c = 0,25 (bo pole rozpatrywanego
kwadratu wynosi 4).
Przez całkowanie lub z interpretacji geometrycznej wynika, e dystrybuanta tego rozkładu ma
posta
0
0,25 xy
F ( x, y ) = 0,5 x
0,5 y
1
x≤0 ∨ y≤0
0 < x ≤ 2, 0 < y ≤ 2
0 < x ≤ 2, y > 2
0 < y ≤ 2, x > 2
x > 2, y > 2
Rozkłady brzegowe to rozkłady jednostajne na przedziale [0, 2].
Zauwa my, e zmienne losowe X,Y s niezale ne.
Przykład
Funkcja
rozkładu
(X, Y) dana jest tabelk :
prawdopodobie stwa
20
zmiennej
losowej
dwuwymiarowej
L.Kowalski
Y
X
Wybrane zagadnienia z rachunku prawdopodobie stwa
–1
1
–1
1/6
1/6
0
1/3
0
1
1/6
1/6
p.j
2/3
1/3
rozkład warunkowy zmiennej losowej X
prawdopodobie stwa
pi.
1/3
1/3
1/3
1
pod warunkiem, e Y = 1 jest okre lony przez funkcj
P(X= -1|Y = 1) = (1/6)/(1/3) = 1/2,
P(X= 0|Y = 1) = 0/(1/3) = 0,
P(X= 1|Y = 1) = (1/6)/(1/3) = 1/2,
Je li g sto
f1,...,k > 0 to rozkład zmiennej losowej ci głej (n - k) wymiarowej okre lonej wzorem:
f ( x k +1 , ..., x n | x1 , ..., x k ) =
f ( x1 , ..., xn )
f ( x1 , ..., x k )
nazywamy rozkładem warunkowym zmiennej losowej
( X 1 = x1 , ..., X k = xk ) .
( X k +1 ,
..., X n ) pod warunkiem,
Przykład.
Funkcja f(x, y) jest g sto ci zmiennej losowej (X,Y).
0,25
dla 0 ≤ x ≤ 2, 0 ≤ y ≤ 2
f ( x, y ) =
0
dla innych x, y
g sto
rozkładu warunkowego X|Y = 1 ma dla 0 < x < 2 posta 0,25/0,5 = 0,5; zatem
0
x ∉(0,2 )
f ( x | Y = 1) =
0,5
x ∈(0,2 )
Niezale no zmiennych losowych n - wymiarowych.
Zmienne losowe X1, X2, ..., Xn s niezale ne je li
F ( x1 , ..., x n ) = F1 ( x1 ) ⋅ F2 ( x2 )... ⋅ Fn ( x n ) dla dowolnych x1, x2, ..., xn ∈ Rn.
gdzie Fi - dystrybuanty rozkładów brzegowych jednowymiarowych.
Dla zmiennych losowych skokowych odpowiedni warunek ma posta :
P( X 1 = x1 j , ..., X n = xnj ) = P1 ( X 1 = x1 j ) ⋅ ... ⋅ Pn ( X n = xnj )
dla dowolnych x1 j , ..., x nj ∈ R n
Dla zmiennych losowych ci głych odpowiedni warunek ma posta :
f ( x1 , ..., xn ) = f1 ( x1 ) ⋅ f 2 ( x2 ) ⋅ ... ⋅ f n ( xn )
dla dowolnych x1, x2, ..., xn ∈ Rn.
Je li zmienne losowe X1, X2, ..., Xn s niezale ne to funkcje od nich te s niezale ne.
Wybrane parametry zmiennej losowej dwuwymiarowej
Kowariancj zmiennych losowych (X, Y) nazywamy wielko
Cov(X, Y) = E[(X – EX)(Y – EY)] = E(XY) – E(X)E(Y)
Dla zmiennej losowej skokowej (X, Y) mamy:
21
e
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
k
E(XY) =
l
i =1 j =1
Cov(X, Y) =
k
l
xi y j pij
xi y j pij − EX ⋅ EY
i =1 j =1
Dla zmiennej losowej ci głej (X, Y) mamy:
E(XY) =
Cov(X, Y) =
∞ ∞
xyf ( x, y )dxdy
−∞−∞
∞ ∞
xyf ( x, y )dxdy − EX ⋅ EY
−∞ − ∞
Uwaga
a) Dla zmiennych losowych niezale nych Cov(X, Y) = 0, zatem zmienne losowe niezale ne s
nieskorelowane (odwrotna własno nie zachodzi – patrz przykład),
2
b) Cov(X, X) = D X,
2
2
2
c) D (X + Y) = D X + D Y +2Cov(X, Y),
X, Y – dowolne zmienne losowe
Unormowan kowariancj nazywamy współczynnikiem korelacji mi dzy zmiennymi X i Y:
ρ = ρ ( X ,Y ) =
Cov( X , Y )
( DX ) ⋅ ( DY )
Współczynnik korelacji mierzy „sił ” zale no ci liniowej mi dzy zmiennymi
X i Y.
Własno ci współczynnika korelacji:
a) − 1 ≤ ρ ( X , Y ) ≤ 1
b) dla niezale nych zmiennych losowych współczynnik korelacji jest równy zero,
c) je eli współczynnik korelacji jest dodatni, to mi dzy zmiennymi X i Y istnieje zale no
liniowa
dodatnia, co oznacza, e ze wzrostem warto ci jednej zmiennej rosn rednie warto ci drugiej
zmiennej,
d) je eli współczynnik korelacji jest ujemny, to mi dzy zmiennymi X i Y istnieje zale no liniowa
ujemna, co oznacza, e ze wzrostem warto ci jednej zmiennej malej rednie warto ci drugiej
zmiennej,
e) je eli współczynnik korelacji jest równy 1 lub – 1, to mi dzy zmiennymi X i Y istnieje funkcyjna
zale no liniowa,
Je eli współczynnik korelacji jest równy 0 to mówimy, e zmienne losowe X i Y s
nieskorelowane.
Macierz
K=
D2 X
Cov( X ,Y )
Cov(Y , X )
D 2Y
nazywamy macierz kowariancji
Przykład
Funkcja rozkładu prawdopodobie stwa zmiennej losowej dwuwymiarowej
(X, Y) dana jest tabelk :
Y
X
–1
0
1
p.j
–1
0
1
pi.
1/6
1/3
1/6
2/3
0
0
0
0
1/6
0
1/6
1/3
1/3
1/3
1/3
1
22
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Obliczymy współczynnik korelacji mi dzy tymi zmiennymi.
Rozkład brzegowy zmiennej losowej X:
xi
pi.
–1
1/3
0
1/30
1
1/3
EX = 0
Rozkład brzegowy zmiennej losowej Y:
yj
p.j
–1
2/3
0
0
1
1/3
EY = – 1/3
Poniewa
E(XY) = (– 1)⋅(– 1) ⋅1/6 + – 1) ⋅1⋅1/6 + 1⋅ (– 1) ⋅1/6 + 1⋅1⋅1/6 = 0 ,
Cov(X, Y) = 0
to
ρ = 0.
EX⋅EY = 0;
Zatem zmienne X, Y s nieskorelowane.
Uwaga. Zauwa my, e powy sze zmienne losowe chocia s zale ne to s nieskorelowane.
Zakładamy, e macierz kowariancji K istnieje.
Regresja I rodzaju Y wzgl dem X = zbiór punktów (x, E(Y|x)).
Regresja I rodzaju X wzgl dem Y = zbiór punktów (E(X|y),y).
Gdzie E(Y|x), E(X|y) to warunkowe warto ci oczekiwane.
Linie regresji I rodzaju tylko w szczególnych przypadkach s liniami prostymi.
Twierdzenie.
E ((Y − ϕ ( X )) 2 ) osi ga warto
najmniejsz gdy ϕ ( x) = E (Y | x) z prawdopodobie stwem 1.
Je li poszukujemy funkcji liniowej minimalizuj cej wyra enie E ((Y − ϕ ( X )) 2 ) to otrzymamy prost
regresji zwan prost regresji II rodzaju.
σY
σ
x + mY − ρ Y m X .
σX
σX
σX
σ
y + mX − ρ X mY .
Regresja II rodzaju X wzgl dem Y to prosta x = ρ
σY
σY
Regresja II rodzaju Y wzgl dem X to prosta y =
ρ
Powy sze poj cia regresji mo na uogólni na przypadek n - wymiarowych zmiennych losowych.
W szczególno ci hiperpłaszczyzna regresji II rodzaju Zmiennej X1 wzgl dem zmiennych
X2, X3, ...,Xn ma równanie
x1 - EX1 = a12(x2 - EX2) + ...+ a1n(xn - EXn)
gdzie K1i s dopełnieniami algebraicznymi elementów k1i macierzy
kowariancji K.
Parametry zmiennej losowej n - wymiarowej.
T
Warto oczekiwana E ( X ) = [EX 1 , EX 2 , ..., EX n ] .
Moment (zwyczajny) rz du l1 + l2 + ...+ ln
23
a1i = −
K1i
K11
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
(
)
ml1 l2 ...ln = E X 1l1 X 2l2 ... X nln ,
Moment centralny rz du l1 + l2 + ...+ ln
(
)
µ l l ...l = E (X 1 − EX 1 ) ...(X n − EX n ) ,
Macierz kowariancji
K = [kij], gdzie
k ij = cov( X i , X j ) = E [( X i − EX i )(X j − EX j )] = E (X i X j ) − E ( X i )E (X j )
Uwaga kii = D2Xi, jest wariancj i - tej składowej.
Macierz K jest kwadratowa, symetryczna i słabo dodatnio okre lona (w szczególno ci ma
wyznacznik nieujemny).
Macierz korelacji R = [ρij], gdzie ρij = cov(Xi , X j )
1 2
n
l1
ln
DXi ⋅ DX j
Uwaga ρii = 1.
Rozkład normalny 2-wymiarowy
Zmienna losowa (X, Y) o rozkładzie normalnym 2-wymiarowym zale y od pi ciu parametrów: m1,
m2, σ1, σ2, ρ.
m1 = EX; m2 = EY; σ1 = DX; σ2 = DY; ρ = współczynnik korelacji.
Współczynnik korelacji musi spełnia warunek: ρ2 ≠ 1.
σ 12
ρσ 1σ 2
Macierz kowariancji K ma wtedy posta K =
G sto
ρσ 1σ 2
.
σ 22
rozkładu normalnego 2-wymiarowego N(m1, m2, σ1, σ2, ρ) mo na zapisa nast puj co:
f (x, y) =
1
2πσ1 σ 2 1 − ρ 2
⋅ exp −
1
2 1− ρ 2
(
)
(x − m1 )2 − 2ρ (x − m1 )( y − m2 ) + ( y − m2 )2
σ12
σ1 σ 2
σ 22
Twierdzenie
Dowolny rozkład brzegowy normalnego rozkładu 2-wymiarowego jest rozkładem normalnym.
Twierdzenie
Je li składowe normalnego rozkładu 2-wymiarowego s nieskorelowane to s niezale ne.
TWIERDZENIA GRANICZNE
Zbie no ci gu zmiennych losowych z prawdopodobie stwem 1 (prawie napewno)
Ci g zmiennych losowych (Xn) jest zbie ny do zmiennej losowej X z prawdopodobie stwem 1 je li
({
})
P ω : lim X n (ω ) = X (ω ) = 1
n →∞
redniokwadratowa zbie no ci gu zmiennych losowych
Ci g zmiennych losowych (Xn) jest redniokwadratowo zbie ny do zmiennej losowej X je li
(
lim E X n − X
n→∞
2
)= 0
Rozpatruj c ten rodzaj zbie no ci zakładamy, e dla wyst puj cych tu zmiennych losowych (Xn), X
istnieje sko czony moment rz du 2.
Niekiedy stosuje si zapis l.i.m. X n = X (skrót od „limit in mean”).
24
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
Stochastyczna zbie no ci gu zmiennych losowych
Ci g zmiennych losowych (Xn) jest stochastycznie (wg prawdopodobie stwa) zbie ny do zmiennej
losowej X je li
∧
lim P( X n − X < ε ) = 1
∧
lim P( X n − X ≥ ε ) = 0
ε >0
lub równowa nie
ε >0
n→∞
n→∞
Zbie no ci gu zmiennych losowych wg dystrybuant (wg rozkładu)
Ci g zmiennych losowych (Xn) jest zbie ny do zmiennej losowej X wg dystrybuant je li ci g ich
dystrybuant Fn jest zbie ny do dystrybuanty F w ka dym punkcie jej ci gło ci (F jest dystrybuant
zmiennej losowej X).
Zale no ci miedzy zbie no ciami.
ZBIE NO Z
PRAWDOPODOBIE STWEM 1
ZBIE NO
REDNIOKWADRATOWA
ZBIE NO
STOCHASTYCZNA
zbie no do stałej
(tzn. gdy granica ma rozkład
jednopunktowy)
ZBIE NO WG
DYSTRYBUANT
Uwaga.
Punktowa granica ci gu dystrybuant nie musi by dystrybuant .
Je li ci g funkcji charakterystycznych odpowiadaj cych rozpatrywanemu ci gowi dystrybuant jest
punktowo zbie ny do funkcji ci głej to granica tych dystrybuant jest dystrybuant .
Centralne twierdzenie graniczne Lindeberga – Levy'ego
Je li niezale ne zmienne losowe Xi (i = 1, 2, ..., n) maj taki sam rozkład oraz istnieje E(Xn) = m i
D2(Xn) = σ2 > 0 to ci g dystrybuant (Fn) standaryzowanych rednich arytmetycznych X n (lub
standaryzowanych sum n X )
i =1
i
n
Yn =
Xn −m
σ/ n
=
jest zbie ny do dystrybuanty Φ rozkładu N(0, 1).
Wniosek
Dla du ych n (w praktyce n ≥ 30)
25
i =1
X n − mn
σ n
L.Kowalski
Wybrane zagadnienia z rachunku prawdopodobie stwa
n
P a≤
i =1
X i − nm
σ n
< b ≅ Φ (b) − Φ ( a)
W przypadku szczególnym gdy Xi (i = 1, 2, ..., n) maja rozkład zerojedynkowy to powy sze
twierdzenie nazywamy twierdzeniem Moivre'a-Laplace'a
(zmienne losowe Yn =
n
i =1
X i maj rozkład dwumianowy).
Wniosek z twierdzenia Moivre'a-Laplace'a:
P a≤
Yi − np
npq
< b ≅ Φ (b) − Φ (a )
Uwaga. Powy sze twierdzenia wskazuj na wa n rol rozkładu normalnego.
Przykład
Wadliwo partii arówek wynosi 0,01. Z tej partii arówek wylosowano 625 arówek. Obliczy
prawdopodobie stwo, e w ród wylosowanych arówek b dzie mniej ni 10 wadliwych,
Rozwi zanie.
Yn – liczba wadliwych arówek w ród wylosowanych,
P(Yi < 10) = P
Yi − 625⋅ 0,01
10− 625⋅ 0,01
<
≅
625⋅ 0,01⋅ 0,99
625⋅ 0,01⋅ 0,99
≅ Φ(1,51) = 0,93448
Prawo wielkich liczb Chinczyna
(Xi) – ci g niezale nych zmiennych losowych o takim samym rozkładzie oraz niech istnieje E(Xi) =
m.
n
Wtedy ci g Yn = 1 X i jest zbie ny stochastycznie do m.
n
i =1
Wniosek
Dla du ych n je li istnieje D2(Xn) = σ2 > 0 to
∧
ε >0
P (Yn − m < ε ) ≅ 2Φ
ε n
−1
σ
Przypadek szczególny – prawo wielkich liczb Bernoulliego:
(Xi) – ci g niezale nych zmiennych losowych o rozkładzie dwumianowym wtedy ci g X n jest
n
stochastycznie zbie ny do p.
Wniosek
Dla du ych n:
∧
ε >0
P
Xn
ε n
− p < ε ≅ 2Φ
−1
n
pq
26
Download