sad7(3).

advertisement
DWUWYMIAROWE ZMIENNE LOSOWE
Rozkład łączny pary zmiennych losowych ( X , Y )
określonych na tej samej przestrzeni zdarzeń
elementarnych:
P(( X , Y )  A) , A - dowolny podzbiór zbioru par
wartości zmiennych X, Y.
Definicja. Dystrybuantą zmiennej losowej ( X , Y )
nazywamy funkcję
F ( x, y)  P( X  x, Y  y) ,
gdzie    x  ,    y  .
Twierdzenie. Łączny rozkład prawdopodobieństwa
zmiennej losowej ( X , Y ) określony jest jednoznacznie
przez jej dystrybuantę.
Zmienne dyskretne
Funkcja prawdopodobieństwa ( łącznego )
dwuwymiarowej zmiennej losowej dyskretnej:
f ( x, y)  P( X  x, Y  y) .
Własności:
(i)
f ( x, y)  0 , dla dowolnej pary wartości ( x, y) ,
(ii)
  f ( x, y )  1,
x y
(iii)
(iv)
P(( X , Y )  A) 
 f ( x, y ) ,
( x , y ) A
F ( x, y )    f ( s , t ) .
s x t  y
Przykład. W każdym z dwóch etapów teleturnieju
można otrzymać 0, 1, lub 2 punkty. Niech zmienne
losowe X, Y oznaczają liczby punktów uzyskane w
etapie I i II, odpowiednio, przez losowo wybranego
uczestnika. Funkcję prawdopodobieństwa łącznego
określa tabela:
Y
X
0
1
2
0,5
0,05
0,01
0,2
0,1
0,06
0,02
0,03
A
0
1
2
Znaleźć:
(a) f (2,2)  P( X  2, Y  2)
(b) P(Y  2)
(c) F (1,1) .
2
(a)
2
  f ( x, y ) = 1. Stąd
x 0 y 0
f (2,2) = A = 1 – ( 0,5 + 0,05 + 0,01 + 0,2 + 0,1 +
+ 0,06 + 0,02 + 0,03 ) = 1 – 0,97 = 0,03.
2
(b) P(Y  2)   P( X  x, Y  2) =
x 0
f (0,2)  f (1,2)  f (2,2) = 0,01 + 0,06 + 0,03 = 0,1.
(c) F (1,1) = P( X  1, Y  1) =
= f (0,0)  f (0,1)  f (1,0)  f (1,1) =
= 0,5 + 0,05 + 0,2 + 0,1 = 0,85.
Zmienne ciągłe
Zmienna losowa ( X ,Y ) jest dwuwymiarową ciągłą
zmienną losową, jeśli jej łączny rozkład prawdopodobieństwa określony jest przez funkcję gęstości łącznej
( łączną gęstość prawdopodobieństwa ), taką że
(i)
f ( x, y)  0
 
(ii)
  f ( x, y )dxdy  1
 
(iii)
P(( X , Y )  A)    f ( x, y )dxdy
A
W szczególności dla A  (, x]  (, y] :
x
y
F ( x, y ) = P( X  x, Y  y )    f ( s, t )dtds .
 
2
f ( x, y ) 
F ( x, y ) ,    x   ,    y   .
xy
Przykład. Zmienna losowa ( X , Y ) ma gęstość
prawdopodobieństwa
x  y
f ( x, y )  
gdy
 0
0  x  1,0  y  1
przeciwnie
Obliczyć
0, 5 1
P( X  0,5, Y  0,25) =   ( x  y )dydx =
0 0, 25
0, 5
2
1
 ( xy  y / 2) 0,25 dx =
0
0,5
 ( x  0,5  0,25x  0,625 / 2)dx = ?
0
.
Rozkłady brzegowe
Niech ( X , Y ) będzie dwuwymiarową zmienną losową o
rozkładzie prawdopodobieństwa określonym przez
funkcję f ( x, y) ( funkcja prawdopodobieństwa lub
gęstość ).
Rozkład brzegowy = rozkład prawdopodobieństwa
zmiennej losowej X lub zmiennej losowej Y.
(a) dla dyskretnych zmiennych X, Y , brzegowe
funkcje prawdopodobieństwa są postaci
f X ( x )  P ( X  x )   f ( x, y )
y
fY ( y )  P(Y  y )   f ( x, y )
x
(b) dla ciągłych zmiennych X, Y , brzegowe gęstości
są postaci

f X ( x)   f ( x, y )dy


fY ( y )   f ( x, y )dx .

D. (a)
f X (x)  P( X  x)  P( X  x, Y  y}) =
y
 P ( X  x, Y  y )   f ( x, y ) .
y
(b)
y
FX ( x)  P( X  x) = P( X  x,  Y  ) =
x 
  f ( s, t )dtds . Stąd
 

d
f X (x) 
FX (x) =  f ( x, t ) dt .
dx

Przykład. Dwuwymiarowa zmienna losowa ( X , Y )
ma gęstość
3( x  y ) 2 / 8
f ( x, y )  
0

gdy
 1  x  1,1  y  1
przeciwnie
Znaleźć gęstość zmiennej losowej X.
Niech  1  x  1.

31
f X ( x)   f ( x, y )dy =  ( x  y ) 2 dy 
8 1

31 2
2
 ( x  2 xy  y )dy =
8 1
1
3 2 1
3 2
2
3
=
x  .
[ x y  xy  y / 3]
4
4
1
8
(3x 2  1) / 4
gdy
f X ( x)  
0

1  x  1
.
przeciwnie
Gęstość zmiennej losowej Y ma identyczną postać.
Rozkłady warunkowe
(a) Niech ( X , Y ) będzie dyskretną zmienną losową
mającą funkcję prawdopodobieństwa f ( x, y) .
Niech y – ustalone oraz fY ( y )  0 .
Rozkład warunkowy zmiennej losowej X pod
warunkiem, że Y = y określa warunkowa funkcja
prawdopodobieństwa:
f ( x y) =
f ( x y) =
f ( x, y )
, x – dowolna wartość zmiennej X.
fY ( y )
P ( X  x, Y  y )
 P( X  x Y  y ) =
P (Y  y )
funkcja prawdopodobieństwa zmiennej X pod
warunkiem, że zmienna Y przyjęła wartość y.
Analogicznie:
f ( y x) =
Notacja:
f ( x, y )
= P(Y  y X  x) , gdzie f X ( x)  0 .
f X ( x)
f ( x y)  f X Y ( x y)
f ( y x)  fY X ( y x)
(b) Niech ( X , Y ) będzie ciągłą zmienną losową o
łącznej gęstości f ( x, y) .
Niech y – ustalone oraz fY ( y )  0 .
Warunkową gęstością prawdopodobieństwa zmiennej
losowej X pod warunkiem, że Y  y nazywamy funkcję
f ( x y) =
f ( x, y )
,    x  .
fY ( y )
Przykład. (kontynuacja)
 1  x  1,1  y  1
3( x  y ) 2 / 8
gdy
f ( x, y )  
przeciwnie
0

1  y  1
(3 y 2  1) / 4
fY ( y )  
gdy
przeciwnie
0

Niech  1  y  1 - ustalone.
3( x  y ) 2
3( x  y ) 2 / 8
f ( x y) =
=
dla x  [1,1]
2
2
6y  2
(3 y  1) / 4
f ( x y ) = 0 dla
x  [1,1].
Uwaga. Analogicznie określamy rozkład warunkowy
zmiennej losowej Y pod warunkiem X = x. Zatem
f ( x, y )
f ( y x) =
, gdzie y – dowolna wartość Y,
f X ( x)
x - ustalone, takie że f X ( x)  0 .
Notacja: f ( y x)  fY X ( y x) ,
f ( x y)  f X Y ( x y)
Przykład. (kontynuacja)
(a) Znaleźć rozkład brzegowy zmiennej Y, liczby
punktów uzyskanych w II etapie teleturnieju przez
losowo wybranego uczestnika.
(b) Wyznaczyć rozkład warunkowy Y pod warunkiem,
że w I etapie uzyskano 2 punkty, tzn. X = 2.
Y
X
0
1
2
0,5
0,05
0,01
0,2
0,1
0,06
0,02
0,03
0,03
0
1
2
Y
X
0
1
2
0,5
0,05
0,01
0,2
0,1
0,06
0,02
0,03
0,03
0
1
2
(a) fY ( y ) = f (0, y)  f (1, y)  f (2, y) . Stąd
Y
fY ( y )
(b) f ( y 2) =
0
0,72
1
0,18
2
0,1
f ( 2, y )
= ?
f X ( 2)
f (0 2) = fY X (0 2) = f (2,0) / f X (2) =
= 0,02/(0,02 + 0,03 + 0,03) =1/4,
f (1 2) = fY X (1 2) = f (2,1) / f X (2) =
=
0,03/0,08 = 3/8,
f (2 2) = fY X (2 2) = f (2,2) / f X (2) =
= 0,03/0,08 = 3/8.
Niezależne zmienne losowe
Definicja. Niech ( X , Y ) będzie dwuwymiarową
zmienna losową o dystrybuancie F ( x, y ) oraz
dystrybuantach brzegowych FX (x), FY ( y ) ,
x, y  (, ) . Zmienne losowe X, Y są niezależne,
jeśli
F ( x, y )  FX ( x) FY ( y ) ,
dla wszystkich wartości x, y.
Twierdzenie. Zmienne losowe X, Y są niezależne
wtedy i tylko wtedy gdy
f ( x, y )  f X ( x ) f Y ( y ) ,
dla wszystkich wartości x, y.
Wniosek. Poniższe warunki są równoważne:
(i) Zmienne losowe X, Y są niezależne.
(ii) f ( x y )  f X ( x) ,    x   , dla wszystkich y,
takich że fY ( y )  0 .
(iii) f ( y x)  fY ( y ) ,    y   , dla wszystkich x,
takich że f X ( x)  0 .
Przykład. ( kontynuacja )
Czy liczby punktów uzyskane w I i II etapie teleturnieju
przez losowo wybranego uczestnika są niezależnymi
zmiennymi losowymi ?
Y
X
0
1
2
0,5
0,05
0,01
0,2
0,1
0,06
0,02
0,03
0,03
0
1
2
f X (0)  f (0,0)  f (0,1)  f (0,2) = 0,5 + 0,05 +
+ 0,01 = 0,56.
fY (0)  f (0,0)  f (1,0)  f (2,0) = 0,5 + 0,2
+ 0,02 = 0,72.
Stąd
f (0,0)  0,5  0,56  0,72  f X (0) fY (0) ,
Zmienne losowe X , Y są zależne.
Przykład. ( kontynuacja ). Czy X, Y są niezależnymi
zmiennymi losowymi, jeśli ich łączna gęstość ma
postać:
3( x  y ) 2 / 8
f ( x, y )  
0

gdy
 1  x  1,1  y  1
przeciwnie
Dla x, y  [1,1] :
f X ( x)  (3x 2  1) / 4 oraz fY ( y)  (3 y 2  1) / 4 .
f ( x, y )  f X ( x ) f Y ( y ) .
Przykład. Czasy poprawnej pracy dwu podzespołów są
niezależnymi zmiennymi losowymi X, Y o rozkładach
wykładniczych z parametrami 1 , 2 , odpowiednio.
Średnie czasy pracy podzespołów wynoszą 1000
(godzin ) i 1200 ( godzin ). Obliczyć
prawdopodobieństwo zdarzenia takiego, że każdy
podzespół nie ulegnie awarii przed upływem 1500
godzin.
E ( X )  1 / 1  1000 (godz.),
E (Y )  1 / 2  1200 (godz.)
Stąd 1  1 / 1000 (1/godz.) 2  1 / 1200 (1/godz.).
P( X  1500, Y  1500) = P( X  1500) P(Y  1500) =
e  11500  e  2 1500 = e 1500 / 1000  e 1500 / 1200 =
= 0,2231 0,2865 = 0,0639.
Wartość oczekiwana. Kowariancja.
E[ g ( X , Y )] =   g ( x, y ) f ( x, y ) ,
x y
gdy X, Y są dyskretne,
 
E[ g ( X , Y )] =   g ( x, y ) f ( x, y )dxdy ,
 
gdy X, Y są ciągłe.
Uwaga. Dla g ( X , Y )  X lub g ( X , Y )  Y
otrzymujemy wartości oczekiwane brzegowych
zmiennych losowych X lub Y.
Np.
E[X ] =   xf ( x, y ) =  x  f ( x, y ) =
x y
x
y
=  xf X ( x)   X .
x
Stwierdzenie. Niech c będzie dowolną stałą, a
g ( X , Y ) , g1 ( X , Y ) , g 2 ( X , Y ) zmiennymi losowymi
jednowymiarowymi. Wówczas
E[cg ( X , Y )  cE[ g ( X , Y )] ,
E[ g1 ( X , Y )  g 2 ( X , Y )]  E[ g1 ( X , Y )]  E[ g 2 ( X , Y )].
D. Dowód jest bezpośrednią konsekwencją definicji
wartości oczekiwanej oraz własności całki i sumowania.
Stwierdzenie. Jeśli zmienne losowe X, Y są niezależne,
to
E ( XY )  E ( X ) E (Y ) .
D. Niezależność zmiennych jest równoważna
f ( x, y )  f X ( x) fY ( y ) . Stąd i z definicji wartości
oczekiwanej mamy
(a) (zmienne dyskretne )
E[ g ( X , Y )] =   g ( x, y ) f ( x, y ) .
x y
E ( XY ) =   xyf ( x, y ) =   xyf X ( x) fY ( y ) =
x y
x y
 xf X ( x) yfY ( y ) =  yfY ( y )   xf X ( x) =
x
y
y
x
E (Y ) E ( X )  E ( X ) E (Y ) .
(b) (zmienne ciągłe) Dowód analogiczny - Sumowanie
należy zastąpić całkowaniem.
Definicja. Niech X i Y będą zmiennymi losowymi o
łącznej funkcji prawdopodobieństwa ( gęstości )
f ( x, y) . Kowariancją zmiennych X i Y nazywamy
liczbę:
 XY  E[( X   X )(Y  Y )].
Uwaga.
Z definicji  XY oraz E[ g ( X , Y )] , przyjmując
g ( x, y )  ( x   X )( y  Y ) , otrzymujemy wzory:
 XY    ( x   X )( y  Y ) f ( x, y ) ,
x y
gdy X, Y są dyskretne
 
 XY    ( x   X )( y  Y ) f ( x, y )dxdy ,
 
gdy X, Y są ciągłe.
Notacja: Zamiast  XY często piszemy Cov (X,Y).
Interpretacja. Kowariancja określa pewną
współzależność między zmiennymi losowymi:
(a) Jeśli „dużym” wartościom zmiennej X
przewyższającym  X towarzyszą zwykle „duże”
wartości zmiennej Y przewyższające Y , a wartościom
X mniejszym od  X towarzyszą zwykle wartości Y
mniejsze od Y , to  XY > 0.
(b) Jeśli wartościom zmiennej X większym od  X
towarzyszą zwykle wartości Y mniejsze od Y
wartościom X mniejszym od  X towarzyszą zwykle
wartości Y większe od od Y , to  XY < 0.
Stwierdzenie. Cov(X,Y) = E ( XY )   X Y .
D. Cov(X,Y) = E[( X   X )(Y  Y )] =
= E ( XY  XY  Y X   X Y ) =
= E ( XY )  E ( XY )  E (Y X )   X Y =
= E ( XY )   X Y .
Twierdzenie. Jeśli zmienne losowe X i Y są
niezależne, to
Cov(X,Y) = 0.
D.
Dla niezależnych zmiennych losowych
E ( XY )  E ( X ) E (Y ) . Stąd oraz wzoru na
kowariancję mamy:
Cov(X,Y) = E ( XY )   X Y =
= E ( X ) E (Y )   X Y = 0.
Uwaga. Twierdzenie odwrotne nie jest na ogół
prawdziwe.
Twierdzenie. Dla dowolnych stałych a, b
Var( aX  bY ) =
a 2 Var(X) + b 2 Var(Y) + 2 ab Cov(X,Y).
D.
E{ (aX  bY )  (a X  bY )2 } =
E{ a( X   X )  b(Y  Y )2 } = E{ a( X   X ))2 }
+ E 2ab( X   X )(Y  Y ) + E{ b(Y  Y )2 } =
= a 2 Var(X) + 2abCov(X,Y) + b 2 Var(Y).
c.k.d.
Wniosek. Jeśli zmienne losowe X i Y są niezależne,
to
Var( aX  bY ) = a 2 Var(X) + b 2 Var(Y).
Definicja. Współczynnikiem korelacji między
zmiennymi losowymi X i Y nazywamy liczbę:
Cov( X , Y )
.

Var ( X ) Var (Y )
Przykład.   ?
Y
X
0
1
2
0,5
0,05
0,01
0,2
0,1
0,06
0,02
0,03
0,03
0
1
2
E (X ) =   x f ( x, y ) = 0 (0,5 + 0,05 + 0,01) +
x y
+ 1 (0,2 + 0,1 + 0,06) + 2 (0,02+0,03+0,03) = 0,52.
E (Y ) =   y f ( x, y ) = 0  (0,5 + 0,2 + 0,02) +
x y
+ 1 (0,05 + 0,1 + 0,03) + 2 (0,01+0,06+0,03) = 0,38.
Y
X
0
1
2
0,5
0,05
0,01
0,2
0,1
0,06
0,02
0,03
0,03
0
1
2
E ( XY ) =   xyf ( x, y ) = 0 + 0 + 0 + 0 + 1 1  0,1 +
x y
+ 1  2  0,06 + 2  1  0,03 + 2  2  0,03 = 0,31.
Cov(X,Y) = 0,31 – 0,52  0,38 = 0,1124.
E ( X 2 )  12  (0,2 + 0,1 + 0,06) +
+ 22  (0,02  0,03  0,03) = 0,68
E (Y 2 )  12  (0,05 + 0,1 + 0,03) +
+ 22  (0,01  0,06  0,03) = 0,58.
Var(X) = E ( X 2 )  [ E ( X )]2  0,68  0,522 = 0,4096
Var(Y) = E (Y 2 )  [ E (Y )]2  0,58  0,382 = 0,4356

0,1124
 0,2661.
0,4096  0,4356
Własności współczynnika korelacji
(i)
1    1
(ii)
Jeśli a i b są stałymi, oraz jeśli
Y = a + bX,
to
1
gdy
 
 1
b0
b0
(iii) Jeśli zmienne losowe X i Y są niezależne, to
  0.
(iv)
Jeśli   1, to między zmiennymi losowymi X, Y
istnieje liniowa zależność funkcyjna.
Interpretacja. Współczynnik korelacji jest miarą
zależności liniowej między zmiennymi losowymi.
Dwuwymiarowy rozkład normalny
Zmienna losowa ( X , Y ) ma dwuwymiarowy rozkład
normalny, jeśli ma gęstość postaci:


1
 q ( x, y )  ,
f ( x, y ) 
 exp 
2
2 X  Y
 2(1   )

1
gdzie
q ( x, y ) 
( x   X )2
 X2
 2
( x   X )( y  Y )
 XY

( y  Y ) 2
 y2
,
   x  ,    y   , stałe  X , Y ,  spełniają
warunki  X > 0,  Y > 0, 1    1.
Notacja: ( X , Y ) ~ N (  X , Y ,  X ,  Y ,  )
Twierdzenie. Jeśli ( X , Y ) ~ N (  X , Y ,  X ,  Y ,  ) , to
(i)
X ~ N ( X ,  X ) ,
(ii)
Cov(X,Y) =  .
Y ~ N ( Y ,  Y ) .
(iii) X, Y są niezależne wtedy i tylko wtedy gdy  = 0.
Twierdzenie. Zmienna losowa (X,Y) ma
dwuwymiarowy rozkład normalny wtedy i tylko wtedy
gdy zmienna losowa aX + bY ma rozkład normalny, a, b
są dowolnymi stałymi.
CIĄGI ZMIENNYCH LOSOWYCH
Niech X1, X 2 ,..., X n będą zmiennymi losowymi
określonymi na tej samej przestrzeni zdarzeń
elementarnych S .
F ( x1, x2 ,..., xn ) = P( X1  x1, X 2  x2 ,..., X n  xn ) =
dystrybuanta wektora losowego ( X1, X 2 ,..., X n ).
f ( x1, x2 ,..., xn ) = funkcja prawdopodobieństwa
łącznego lub funkcja gęstości łącznej wektora losowego
( X1, X 2 ,..., X n ).
Definicja. Zmienne losowe X1, X 2 ,..., X n są niezależne,
jeśli
F ( x1, x2 ,..., xn ) = FX 1 ( x1 ) FX 2 ( x2 )  ...  FX n ( xn ) ,
gdzie FX i ( x i )  P( X i  xi ) , i = 1,2,...,n.
Definicja.
E[ g ( X1, X 2 , , , , X n )] =
  ... g ( x1 , x2 ,..., xn ) f ( x1 , x2 ,..., xn ) ,
x1 x 2
xn
lub
 

 

  ...  g ( x1 , x2 ,..., x n ) f ( x1 , x2 ,..., xn )dx1dx2 ...dxn .
Stwierdzenie.
E (a1 X1  a2 X 2  ...  an X n ) =
a1E ( X1 )  a2 E ( X 2 )  ...  an E ( X n ) .
1 n
Wniosek. Niech X   X i , E ( X i )   , i = 1,2,..,n.
n i 1
E( X ) =  .
1
D. W stwierdzeniu trzeba przyjąć ai  , i = 1,2,..,n.
n
Stwierdzenie. Jeśli X1, X 2 ,..., X n są niezależnymi
zmiennymi losowymi, to
Var (a1 X1  a2 X 2  ...  an X n ) =
a12 Var( X 1 ) + a2 2 Var( X 2 ) + ... + a n 2 Var( X n ).
1
W szczególności, jeśli Var( X i ) =  2 oraz ai  ,
n
i = 1,2,..,n, to
2
Var( X ) =
.
n
Przykład. Dokonujemy n jednakowych, niezależnych
doświadczeń Bernoulli’ego o prawdopodobieństwie
sukcesu p, 0  p  1. Znaleźć wartość oczekiwaną i
wariancję zmiennej losowej Y będącej liczbą sukcesów.
Niech X i  1, gdy sukces w i-tym doświadczeniu,
X i  0, gdy porażka w i-tym doświadczeniu. Wówczas
X1, X 2 ,..., X n są niezależnymi zmiennymi losowymi o
funkcjach prawdopodobieństwa:
f X i (1)  p , f X i (0)  1  p .
Stąd:
E ( X i )  p , Var( X i ) = p(1  p) .
Liczba sukcesów =
Y  X1  X 2  ...  X n .
E (Y ) = E ( X1  X 2  ...  X n ) =
E ( X1 )  E ( X 2 )  ...  E ( X n ) = np .
Var(Y) =
Var( X 1 ) + Var( X 2 ) + ... + Var( X n ) = np(1  p)
Definicja. Prostą próbą losową o liczności n
nazywamy ciąg niezależnych zmiennych losowych
X1, X 2 ,..., X n określonych na przestrzeni zdarzeń
elementarnych S i takich, że każda ze zmiennych ma
taki sam rozkład.
Twierdzenie. ( CENTRALNE TWIERDZENIE
GRANICZNE)
Niech X1, X 2 ,..., X n będzie prostą próbą losową z
rozkładu o średniej  i wariancji  2 . Wówczas dla
dużych liczności próby n rozkład prawdopodobieństwa
standaryzowanej średniej ( = standaryzowanej sumy
X1  X 2  ...  X n ) jest bliski standardowemu
rozkładowi normalnemu N (0,1) , dokładniej dla
dowolnych liczb a, b,    a  b  
P( a 
X 
 b)  P(a  Z  b)  (b)  (a),
/ n
przy n   . Równoważnie rozkład średniej X jest
bliski rozkładowi normalnemu N (  ,  / n ) .
Przykład. Załóżmy, że rozkład codziennego dojazdu do
pracy jest w przybliżeniu rozkładem jednostajnym na
przedziale [0,5 godz., 1 godz. ] i że czasy dojazdów w
różne dni są niezależne. Obliczyć przybliżone
prawdopodobieństwo zdarzenia, że średni dzienny
dojazd w ciągu 30 dni przekroczy 0,8 godz.
Niech X i oznacza czas dojazdu w i-tym dniu ,
i  1,2,...,30 .
0,5  1 3
  E( X i ) 
 ,
2
4
2
(
1

0
,
5
)
1
 2  Var ( X i ) 
 .
12
48
3
1
E ( X )  , Var ( X ) 
4
30  48
P ( X  0,8) = P(
X  3/ 4
0,8  3 / 4

) 
1 /(30  48)
1 /(30  48)
P( Z  1,89)  1  (1,89)  0,03.
Download