1 Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych. 1. (Eg 48/6) Niech X1 , X2 , ..., Xn , ... będą niezależnymi zmiennymi losowymi o identycznym rozkła1 1 dzie o gęstości f (x) = 2√ 1 (x). Niech Un = (X1 ...Xn ) n . Wtedy: (asymptotyka Un − e−2 )? x (0,1) √ Odp: B-> limn→∞ P((Un − e−2 ) n < 4e−2 ) = 0, 977. Rozwiązanie. Zadanie polega na umiejętnym zastosowaniu CTG. Zauważmy, że Yi = − log Xi , i ∈ {1, ..., n} oraz t P(Yi > t) = P(Xi < e−t ) = e− 2 , t > 0. Czyli Yi ma rozkład Exp( 12 ), w szczególności EYi = 2, VarYi = 4. Zatem n √ √ 1X (Un − e−2 ) n = e−2 (exp( (Yi − 2) − 1) n. n i=1 Z mocnego prawa wielkich liczb wynika, że limn→∞ Pn i=1 (Yi − 2) = 0. Zatem n n (exp( 1 n n √ 1X 1X 1 X (Yi − 2)(1 + O( (Yi − 2) − 1) n = √ (Yi − 2)). n i=1 n i=1 n i=1 Czyli w sensie rozkładu n √ 1 X lim (Un − e−2 ) n = e−2 lim √ (Yi − 2) = 2e−2 Z, n→∞ n→∞ n i=1 gdzie Z ma rozkład N (0, 1). Stąd √ lim P((Un − e−2 ) n < 4e−2 ) = P(Z < 2) ' 0, 977. n→∞ 2. (Eg 50/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemy próbką X1 , ..., Xn z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej 4. Przeprowadzamy najmocniejszy test hipotezy H0 : µ = 0 przeciwko alternatywie H1 : µ = −1 na poziomie istotności α = 1/2. Niech βn oznacza prawdopodobieństwo błędu drugiego rodzaju, dla rozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka βn ) Odp: D-> limn→∞ βn e √ √ πn 2 n 8 = 1. Rozwiązanie. Najpierw znajdujemy błąd drugiego rodzaju czyli akceptacja hipotezy H0 w sytuacji gdy zachodzi H1 . Test najmocniejszy oparty jest na konstrukcji obszaru krytycznego wynikającej z Twierdzenia Neymana-Pearsona (o porównywaniu gęstości). Niech µ0 = 0, µ1 = −1 oraz niech fµ0 , fµ1 będą gęstościami rozkładu wektora (X1 , ..., Xn ) niezależnych zmiennych losowych o tym samym rozkładzie co zmienna X, odpowiednio X ∼ N (µ0 , 4), X ∼ N (µ1 , 4). W metodzie Neymana-Pearsona badamy iloraz wiarygodności, to znaczy fµ1 (x1 , ..., xn )/fµ0 (x1 , ..., Xn ). W przypadku rozkładów ciągłych nie potrzeba randomizacji, a obszar krytyczny ma postać K = {(x1 , ..., xn ) ∈ Rn : fµ1 (x1 , ..., xn )/fµ0 (x1 , ..., xn ) > C} dla stałej C dobranej tak aby Pµ0 ((X1 , ..., Xn ) ∈ K) = α. W naszym przypadku oznacza to konieczność znalezienia stałej C̄ takiej, że Pµ0 (X1 + ... + Xn < C̄) = 1 1 . 2 Oczywiście C̄ = 0. Błąd drugiego rodzaju wynosi √ βn = Pµ1 (X1 + ... + Xn > C̄) = P(−n + 2 nZ > 0), gdzie Z ma rozkład N (0, 1). Zatem zostaje zbadać asymptmpotykę √ n βn = P(Z > ). 2 Oczywiście P(Z > t) ' √1 e 2πt −t2 2 stąd √ πn n lim βn √ e 8 = 1. n→∞ 2 3. (Eg 51/4) Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach normalnych, przy tym EX = EY = 0, VarX = 3 i VarY = 1. Oblicz P(|X| < |Y |). Odp: A-> P(|X| < |Y |) = 0, 3333. Rozwiązanie. To zadanie ma czysto geometryczne rozwiązanie. Wystarczy wykorzystać rotacyjną √ niezmienniczość standardowego rozkładu normalnego nadto zauważyć, że X = 3X̄, gdzie X̄ ma rozkład N (0, 1). Zatem (X̄, Y ) ma standardowy rozkład normalny na R2 oraz √ 1 P(|X| < |Y |) = P( 3|X̄| < |Y |) = µS 1 ({α ∈ S 1 : | tg α| < √ }), 3 gdzie µS 1 jest miarą Lebesgue’a na okręgu jednostkowym unormowaną do 1. Oczywiście {α ∈ S 1 : | tg α| < √13 } = {α ∈ S 1 : |α| 6 π6 lub |π − α| 6 π6 } Zatem 1 1 µS 1 ({α ∈ S 1 : | tg α| < √ }) = . 3 3 4. (Eg 52/5) Załóżmy, że X, Y są zmiennymi o łącznym rozkładzie normalnym, EX = EY = 0, VarX = 2, VarY = 4 i Cov(X, Y ) = 1. Oblicz E(XY |X − Y = t), 3 2 Odp: C-> 47 − 16 t . Rozwiązanie. Potrzebujemy metody znajdowania bazy niezależnych liniowych funkcji od X, Y zawierającej X − Y . Szukamy α takiego, że X − αY będzie niezależne od X − Y . Wystarczy sprawdzić kowariancję Cov(X − Y, X − αY ) = 2 − α − 1 + 4α = 1 + 3α. Stąd α = − 13 . Wystarczy teraz rozpisać X, Y w znalezionej bazie. Mamy X = 14 [(X − Y ) + 3(X + 31 Y )] Y = 34 [−(X − Y ) + (X + 31 Y )] Niech Z = (X + 13 Y ), zmienną X − Y możemy traktować jako parametr t przy wyliczaniu warunkowej wartości oczekiwanej (bo jest niezależna od Z). Zatem 1 3 3 E(XY |X − Y = t) = E( (t + 3Z) (−t + Z)) = (−t2 + 3tEZ + 3EZ 2 ). 4 4 16 Oczywiście EZ = 0. Natomiast z dwuliniowości kowariancji i EZ 2 = VarZ = 2 + 2 4 28 + = . 3 9 9 3 2 Czyli E(XY |X − Y = t) = − 16 t + 74 . 2 5. (Eg 53/9) Mamy próbą prostą ((X1 , Y1 ), (X2 , Y2 ), ..., (X10 , Y10 )) z rozkładu normalnego dwuwymiarowego o nieznanych parametrach EXi = EYi = µ, VarXi = VarYi = σ 2 , Cov(Xi , Yi ) = σ 2 ρ. Niech 10 Zi = Xi + Yi , Ri = Xi − Yi , SZ2 = 10 1X 1X 2 (Zi − Z̄)2 , SR = (Ri − R̄)2 , 9 i=1 9 i=1 gdzie Z̄ oraz R̄ to odpowiednie średnie z próbki. Do testowania hipotezy H0 : ρ = alternatywie H1 : ρ 6= 13 możemy użyć testu o obszarze krytycznym postaci: 1 3 przeciwko SZ2 SZ2 < k , lub 1 2 2 > k2 , SR SR przy czym liczby k1 i k2 dobrane są tak, aby przy założeniu, że H0 jest prawdziwa P( SZ2 S2 < k1 ) = P( Z2 > k2 ) = 0, 05. 2 SR SR Liczby k1 i k2 są równe: ? Odp: D-> k1 = 0, 629 i k2 = 6, 358. Rozwiązanie. Zauważmy, że (Xi + Yi ) jest niezależne od (Xi − Yi ), istotnie Cov(Xi + Yi , Xi − Yi ) = VarXi − Cov(Xi , Yi ) + Cov(Yi , Xi ) − Var(Yi ) = 0. 2 To oznacza, że SZ2 i SR są niezależne. Wystarczy wyznaczyć ich rozkłady. Mamy Var(Xi + Yi ) = 2σ 2 + 2ρσ 2 = 2(1 + ρ)σ 2 . Analogicznie Var(Xi − Yi ) = 2σ 2 − 2ρσ 2 = 2(1 − ρ)σ 2 . 1 1 To oznacza, że Zi = [2(1 + ρ)] 2 σ Ẑi , Ri = [2(1 − ρ)] 2 R̂i , gdzie Ẑi , R̂i są niezależne z rozkładu N (0, 1). Zatem SZ2 1 + ρ ŜZ2 = . 2 2 SR 1 − ρ ŜR To oznacza, że aby wyznaczyć k1 , k2 należy wziąć wartości dla F9,9 i pomnożyć je przez przy H0 wynosi 2. Czyli k2 = 2 · 3, 1789 ' 6, 358 oraz k1 = 2 · (1/3, 1789) ' 0, 629 1+ρ 1−ρ , które 6. (Eg 54/9) Zmienne losowe X i Y są niezależne i zmienna X ma rozkład logarytmiczno-normalny LN (µ, σ 2 ), gdzie µ = 1 i σ = 2, a zmienna Y ma rozkład wykładniczy o wartości oczekiwanej 2. Niech S = X + Y . Wtedy E(S|X > e) jest równa? Odp: E-> 41, 26. Rozwiązanie. Przypomnijmy definicję E(S|X > e) = ES1X>e . P(X > e) Teraz zauważmy, że X = eY , gdzie Y ma rozkład N (1, 4), czyli Y = 1 + 2Z, gdzie Z ∼ N (0, 1). Zatem 1 P(X > e) = P(1 + 2Z > 1) = P(Z > 0) = . 2 3 Obliczamy 1 ES1X>e = EX1X>e + P(X > e)EY = Ee1+2Z 1Z>0 + 2 = 1 + eEe2Z 1Z>0 . 2 Należy obliczyć Ee2Z 1Z>0 = Z 0 ∞ x2 1 e2x √ e− 2 dx = e2 2π Zatem Ee 2Z 2 Z ∞ 1Z>0 = e −2 Z ∞ 0 2 1 1 √ e− 2 (x−2) . 2π x2 1 √ e− 2 dx = e2 P(Z > −2). 2π Ostatecznie E(S|X > e) = 2 + 2e3 P(Z > −2) ' 41, 26. 7. (Eg 55/4) Załóżmy, że zmienne losowe X, Y mają łączny rozkład normalny taki, że EX = 1, EY = 0, Var(X) = 2, Var(Y ) = 9, i Cov(X, Y ) = 3. Oblicz Cov(X 2 , Y 2 ). Odp: D-> 18. Rozwiązanie. Przypomnijmy, że ogólny wzór na k-ty moment zmiennej V rozkładzie N (0, σ 2 ) ma postać EV 2k = σ 2k (2k − 1)(2k − 3)...3 · 1, 2k+1 EV = 0 Aby obliczyć Cov(X 2 , Y 2 ) potrzebujemy policzyć EX 2 Y 2 . Po raz kolejny należy posłużyć się bazą złożoną z liniowych względem X, Y zmiennych niezależnych. Ściślej szukamy α takiego, że X − αY jest nieskorelowane z Y , a przez to niezależne bo (X, Y ) tworzą wektor gaussowski. Mamy Cov(Y, X − αY ) = 3 − 9α, stąd α = 31 . Niech Z = X − 31 Y , zachodzi EZ = 1, VarZ = 2 − 23 3 + 19 9 = 1. Dalej mamy rozkład X = Z + 13 Y , stąd 1 2 1 EX 2 Y 2 = E(Z + Y )2 Y 2 = EZ 2 EY 2 + EZEY 3 + EY 4 . 3 3 9 Drugi składnik powyżej jest zerem bo EY = 0, a stąd EY 3 = 0. Zauważmy jeszcze, że podobnie 1 EX 2 EY 2 = (EZ 2 + EY 2 )EY 2 . 9 Dlatego Cov(X 2 , Y 2 ) = 1 (EY 4 − (EY 2 )2 ). 9 Pozostaje zauważyć, że EY 4 = 3 · 92 oraz EY 2 = 9. Zatem Cov(X 2 , Y 2 ) = 1 (3 · 92 − 92 ) = 2 · 9 = 18. 9 4 8. (Eg 57/3) Niech X1 , X2 , ..., Xn będą niezależnymi zmiennymi losowymi z rozkładu normalnego o 2 wartości oczekiwanej Pn 0 i nieznanej wariancji σ . Rozważmy estymatory odchylenia standardowego σ postaci σ̂c = c i=1 |Xi |. Niech σ̂c̄ oznacza estymator o najmniejszym błędzie średniokwadratowym w klasie√rozważanych estymatorów. Wtedy c̄ jest równe ? 2π Odp: D-> π+2n−2 . Rozwiązanie. Niech X ma rozkład N (0, σ 2 ). Oczywiście E|X| = √ √ 2 σ, π zatem √ 2 f (c) = E(σ̂c̄ − σ) = Var(σ̂) + (Eσ̂ − σ) = nc Var(|X|) + (cn √ − 1)2 σ 2 = π √ 2 2 = nc2 (1 − )σ 2 + (cn √ − 1)2 . π π 2 2 2 Aby obliczyć punkt minimum znajdujemy z równania f 0 (c) = 0. Zachodzi √ 2 2 2 2 2 2 0 √ )σ . f (c) = 2nc(1 − )σ + 2(n c − n π π π stąd f 0 (c) = 0 dla √ √ 2 2π 2 . n( (n − 1) + 1)c = n √ czyli c = π π + 2n − 2 π 9. (Eg 58/4) Niech X1 , X2 , ..., Xn , ..., N będą zmiennymi losowymi. Zmienne X1 , X2 , ..., Xn , ... mają rozkład logarytmiczno-normalny LN (µ, σ 2 ), gdzie µ = 2, σ 2 = 4. Zmienna N ma rozkład Poissona PN o wartości oczekiwanej 2. Niech SN = i=1 Xi dla N > 0 oraz SN = 0 dla N = 0. Wtedy współczynnik asymetrii Odp: D-> E(SN −ESN )3 (VarSN )3/2 jest równy? e6 √ . 2 Rozwiązanie. Niech X ma rozkład LN (µ, σ 2 ), najpierw zauważmy, że E(SN − ESN )3 = EE[(SN − ESN )3 |N ] = EE[(SN − N EX + (N − EN )EX)3 |N ] = = EN E(X − EX)3 + 3EN (N − EN )EXE(X − EX)2 + E(N − EN )3 (EX)3 . Zauważmy, że 2 = EN = VarN = E(N − EN )2 = EN (N − EN ) = E(N − EN )3 (scentrowane momenty drugi i trzeci dla rozkładu Poissona są równe wartości oczekiwanej). Zatem E(SN − ESN )3 = 2(E(X − EX)3 + 3EXE(X − EX)2 + (EX)3 ) = 2EX 3 . Z definicji X = exp(Y ), gdzie Y ma rozkład N (µ, σ 2 ), a dalej Y = σZ + µ, gdzie Z ma rozkład N (0, 1). Przypomnijmy wzór n transformatę Laplace’cea dla rozkładu N (0, 1) E exp(λZ) = exp( λ2 ). 2 Stąd EX 3 = E exp(3σZ + 3µ) = e 9σ 2 2 +3µ = e24 . Zatem E(SN − ESN )3 = 2e24 . Analogicznie pokazujemy VarSN = E(SN − ESN )2 = EN E(X − EX)2 + VarN (EX)2 = 2EX 2 . 5 Mamy EX 2 = E exp(2σZ + 2µ) = e2σ 2 +2µ = e12 . czyli VarSN = E(SN − ESN )2 = 2e12 . Obliczamy 2e24 E(SN − ESN )3 e6 √ = = . 3 (VarSN )3/2 2 (2e12 ) 2 10. (Eg 59/1) Zmienna losowa X rozkład logarytmiczno-normalny LN (µ, σ 2 ), gdzie µ = 1 i σ 2 = 4. Wyznacz E(X−e|X>e) . EX Odp: C-> 1, 82. Rozwiązanie. Zauważmy, że X = eY , gdzie Y ma rozkład N (µ, σ 2 ), nadto Y = σZ + µ = 2Z + 1, gdzie Z pochodzi z rozkładu N (0, 1). Z definicji E(X − e|X > e) = E1X>e (X − e) . P(X > e) Obliczamy P(X > e) = P(2Z + 1 > 1) = P(Z > 0) = Zatem 1 . 2 1 E1X>e (X − e) = eE1Z>0 (e2Z − 1) = e(E1Z>0 e2Z − ). 2 Nadto E1Z>0 e2Z = Z ∞ e2x e− x2 2 0 a stąd E1Z>0 e2Z = e2 Z 1 √ dx = e2 2π ∞ e− −2 x2 2 Z ∞ e− (x−2)2 2 0 1 √ dx 2π 1 √ dx = e2 P(Z > −2). 2π Otrzymujemy E(X − e|X > e) = 2e3 P(Z > −2) − e z drugiej strony z transformaty Laplace’a EX = E exp(2Z + 1) = e3 . Czyli E(X − e|X > e) = 2P(Z > −2) − e−2 ' 1, 82. EX 11. (Eg 60/6) Zmienne losowe X1 , X2 , ..., X20 są niezależne o jednakowym rozkładzie normalnym o P5 wartości oczekiwanej 1 i wariancji 4. Niech S5 = i=1 Xi i E(S52 |S20 = 24) jest równa ? Odp: D-> 51. P20 Rozwiązanie. Niech S15 = i=6 Xi . Z jednej strony S20 = S5 + S15 nadto szukamy α takiego, że 0 = Cov(S5 + S15 , S5 − αS15 ) = Var(S5 ) − αVar(S15 ) = 5 · 4 − α15 · 4 = 20(1 − α3). Stąd α = 3. Oczywiście S5 = 1 1 1 1 [(S5 + S15 ) + 3(S5 − S15 )] = [S20 + 3(S5 − S15 )]. 4 3 4 3 6 Zatem E(S52 |S20 = ! 2 1 1 S20 + 3(S5 − S15 ) |S20 = 16 3 = 24) = E 1 2 1 9 1 3 S + S20 E(S5 − S15 ) + E(S5 − S15 )2 . 16 20 8 3 16 3 Sprawdzamy 1 15 80 1 ·4= . E(S5 − S15 ) = 0, E(S5 − S15 )2 = 5 · 4 + 3 3 9 3 Zatem E(S52 |S20 = 24) = 1 2 9 80 S20 + = 36 + 15 = 51. 16 16 3 12. (Eg 61/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemy próbką X1 , ..., Xn z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej 2. Przeprowadzamy najmocniejszy test hipotezy H0 : µ = 0 przeciwko alternatywie H1 : µ = 2 na poziomie istotności α = 21 . Niech βn oznacza prawdopodobieństwo błędu drugiego rodzaju, dla rozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka βn ). n Odp: E-> limn→∞ e−n /β√ = 1. 4πn Rozwiązanie. Niech f0 , f2 będą gęstościami odpowiednio N (0, 2), N (2, 2). Przypomnijmy, że test najmocniejszy Neymana Pearsona polega na porównaniu gęstości, czyli zbiór krytyczny ma postać f2 (x1 , ..., xn ) > C}, f0 (x1 , ..., xn ) K = {(x1 , ..., xn ) ∈ Rn : gdzie C jest stałą taką, że Pµ=0 ((X1 , ..., Xn ) ∈ K) = 1 . 2 Łatwo zauważyć, że K = {(x1 , ..., xn ) : n X xi > C̄}. i=1 Stąd szukamy stałej C̄ takiej, że Pµ=0 (X1 + ... + Xn > C̄) = 1 2 stąd C̄ = 0. Błąd drugiego rodzaju to akceptacja hipotezy H0 podczas, gdy zachodzi H1 . Oznacza to, że βn = Pµ=2 (X1 + ... + Xn 6 0). √ Przy µ = 2 zachodzi Xi = 2Zi + 2, gdzie Z, Zi , i = 1, 2, . . . będą niezależne z rozkładu N (0, 1). Stąd √ √ √ βn = P( 2(Z1 + ... + Zn ) 6 −2n) = P( 2nZ 6 −2n) = P(Z 6 − 2n). Ponieważ P(Z > t) ' 2 t √ 1 e− 2 2πt , więc lim n→∞ βn √ e−n / 4πn = 1. 7 13. (Eg 62/2) Niech X1 , X2 , X3 , ... będą niezależnymi zmiennymi losowymi o tym samym rozkładzie logarytmiczno normalnym parametrami µ ∈ R i σ > 0. Niech Tn oznacza estymator największej wiarygodności wariancji V 2 w tym modelu w oparciu o próbę X1 , X2 , ..., Xn . Niech µ = −0, 5 i σ = 1. Wtedy √ P(|Tn − V 2 | n > 10, 73) =? Odp: A-> 0, 134. Rozwiązanie. Zachodzi Xi = eYi , i = 1, 2, ..., n, gdzie Y, Y1 , Y2 , ..., Yn są niezależne i pochodzą z rozkładu N (µ, σ 2 ). Trzeba przypomnieć estymatory największej wiarygodności dla rozkładu normalnego n 1X 1 (Yi − Ȳ )2 . µ̄n = Ȳ = (Y1 + ... + Yn ), σ̄n2 = Y¯2 − (Ȳ )2 = n n i=1 Powyższe estymatory wykorzystujemy aby znaleźć estymator wariancji V 2 . Mamy V 2 = VarY = EY 2 − (EY )2 = e2σ 2 +2µ − eσ 2 +2µ = e − 1. Nadto z powyższego wzory wynika, że 2 2 Tn = e2µ̄n (e2σ̄n − eσ̄n ). Należy pamiętać, że µ̄n i σ̄n2 są niezależne. Mamy 2 2 Tn − V 2 = (e2µ̄n − e−1 )(e2σ̄n − eσ̄n )+ 2 2 + e−1 (e2σ̄n − e2 − eσ̄n − e). Z mocnego prawa wielkich liczb wynika, że µ̄n → µ, σ̄n2 → σ 2 prawie na pewno. Nadto √ √ √ 2µ̄n n(e − e−1 ) = ne−1 (e2µ̄n +1 − 1) = ne−1 (2µ̄n + 1)(1 + O(2µ̄n + 1)). Oczywiście w sensie słabej zbieżności lim √ n→∞ Stąd lim √ n→∞ n(2µ̄n + 1) = N (0, 4). 2 2 n(e2µ̄n − e−1 )(e2σ̄n − eσ̄n ) = A ' N (0, [2(e − 1)]2 ) Ściślej korzystając z σ̄n2 → σ 2 √ √ 2 2 lim n(e2µ̄n − e−1 )(e2σ̄n − eσ̄n ) = lim n(e2µ̄n − e−1 )(e2 − e) = A. n→∞ Analogicznie n→∞ √ 2 2 e2σ̄n − e2 + eσn − e = (2e2 − e) n(σ̄n2 − 1)(1 + O(σ̄n2 − 1)). W sensie słabej zbieżności lim n→∞ Zatem 2 √ n(σ̄n2 − 1) = N (0, 2). 2 lim e−1 (e2σ̄n − e2 − eσ̄n − e) = B ' N (0, 2[2e − 1]2 ). n→∞ Ostatecznie korzystając z niezależności µ̄n oraz σ̄n2 dostajemy dla niezależnych A i B √ lim n(Tn − V 2 ) = A + B ' N (0, [2(e − 1)2 ] + 2[2e − 1)]2 ). n→∞ Niech Z będzie z N (0, 1) otrzymujemy √ lim P(|Tn − V 2 | n > 10, 73) = P(|Z| > p n→∞ 10, 73 [2(e − 1)2 ] + 2[2(e − 2)]2 ) = 0, 134. Przedstawiona metoda ma swoją nazwę jako metoda delta. Powyższy przypadek szczególny można zebrać w ogólne twierdzenie. 8 Twierdzenie 1 (Metoda delta) Jeżeli dla ciągu zmiennych Tn mamy przy n → ∞ i h : R → R jest funkcją różniczkowalną w punkcie µ, to √ n(h(Tn ) − h(µ)) → N (0, σ 2 (h0 (µ))2 ), √ n(Tn − µ) → N (0, σ 2 ) w sensie zbieżności według rozkładu. 14. (Eg 63/7) Zmienna losowa (X, Y, Z) ma rozkład normalny z wartością oczekiwaną EX = 0, EY = EZ = 1 i macierzą kowariancji 1 1 0 1 4 2 . 0 2 4 Obliczyć Var(X(Y + Z)). Odp: D-> 17. Rozwiązanie. Stosujemy metodę z uniezależnianiem zmiennych. Z założenia wynika, że Cov(X, Y ) = 1 oraz Cov(X, Z) = 0, Cov(Y, Z) = 2. Zatem zmienne X i Z są niezależne, Wystarczy dobrać α i β tak aby Y − αX − βZ było niezależne (czyli równoważnie nieskorelowane) ze zmiennymi X i Z. Sprawdzamy, że Cov(Y − αX − βZ, X) = 1 − α, czyli α = 1 nadto Cov(Y − αX − βZ, Z) = 2 − 4β, czyli β = 1 . 2 Zatem baza liniowa składa się ze zmiennych niezależnych X, Ȳ = Y − X − 12 Z, Z, gdzie X ma rozkład N (0, 1), zmienna Ȳ ma rozkład N ( 12 , 2), a zmienna Z rozkład N (1, 4). Obliczamy Var(X(Y + Z)) = Var(XY ) + 2Cov(XY, XZ) + Var(XZ) = 1 1 = Var(X Ȳ ) + 2Cov(X Ȳ , X(X + Z)) + Var(X(X + Z))+ 2 2 1 + 2Cov(X Ȳ , XZ) + 2Cov(X(X + Z), XZ) + Var(XZ) = 2 1 = EX 2 EȲ 2 + EX 2 EȲ EZ + EX 4 − (EX 2 )2 + EX 2 EZ 2 + 4 1 1 5 + 2EX 2 EȲ EZ + 2EX 2 EZ 2 = (2 + ) + + 2 + + 1 + 10 = 17. 4 2 4 15. (Eg 64/9) Niech Y1 , Y2 , ..., Yn będą niezależnymi zmiennymi losowymi, przy czym zmienna Yi , i = 1, 2, ..., n, ma rozkład logarytmiczno-normalny LN i , 1), gdzie x1 , x2 , ..., xn są znanymi P(bx n liczbami, a b jest nieznanym parametrem. Załóżmy, że i=1 x2i = 4. Niech b̄ będzie estymatorem największej wiarogodności parametru b, a ḡ = exp(2b) estymatorem funkcji g(b) = exp(2b). Wtedy obciążenie estymatora ḡ Eb ḡ − g(b) jest równe √ Odp: B-> e2b ( e − 1). Rozwiązanie. Najpierw obliczamy wiarygodność dla zmiennych Z1 , Z2 , ..., Zn , gdzie Zi = ln Yi , czyli Zi ma postać N (bxi , 1). Obliczamy wiarygodność dla Z1 , ..., Zn n n L(b, z) = (2π)− 2 exp(− 9 1X (zi − bxi )2 ). 2 i=1 Rozwiązujemy równanie f 0 (b) = 0 dla f (b) = ln L(b, z). Wówczas n X hx, zi 1 (zi − bxi )xi = 0, czyli b = = hx, zi. hx, xi 4 i=1 Stąd n b̄ = 1X xi Z i . 4 i=1 Pozostaje zauważyć, że b̄ ma rozkład N (b, 41 ). Stąd 1 Eb ḡ − g(b) = Eb exp(2b̄) − e2b = e2b (e 2 − 1). 10