Funkcje charakterystyczne Funkcją charakterystyczną zmiennej losowej X nazywamy wartość przeciętną funkcji e itX , gdzie t jest zmienną rzeczywistą, a i – tzw. jednostką urojoną i oznaczamy jako: (t) = E(expitX) dla każdego t R. Zgodnie z definicją wartości przeciętnej funkcja charakterystyczne dla różnych typów zmiennych określają wzory: eitxk pk k (t ) eitx f ( x)dx Funkcja charakterystyczna dla zmiennej losowej ciągłej jest przekształceniem Fouriera funkcji gęstości prawdopodobieństwa f(x). Funkcja charakterystyczna (t) zmiennej losowej X jest funkcją zespoloną zmiennej rzeczywistej t i ma następujące własności: a) (0) = 1, b) dla każdego t R (t) = ( t ) , gdzie ( t ) oznacza liczbę zespoloną sprzężoną z ( – t), c) dla każdego t R (t) 1, d) (t) jest funkcją ciągłą na całej prostej, e) (t) jest funkcją rzeczywistą wtedy i tylko wtedy, gdy rozkład zmiennej losowej X jest symetryczny względem x = 0. f) k – ty moment zwykły (jeśli istnieje) zmiennej losowej X o funkcji charakterystycznej (różniczkowalnej) równa się: 1 k E ( X k ) k (k ) (0) , i g) jeśli funkcję charakterystyczną (t) można rozwinąć w szereg Maclaurina (t ) ak t k , gdzie k 0 ak ( k ) (0) k! , to dowolny moment zwykły można policzyć ze wzoru: k a k k! , ik h) funkcja charakterystyczna sumy dowolnej skończonej liczby niezależnych zmiennych losowych równa się iloczynowi funkcji charakterystycznych tych zmiennych, i) funkcja charakterystyczna funkcji zmiennej losowej Y = g(X) jest postaci: eitg ( xk ) pk k (t ) . itg ( x ) e f ( x)dx Przy badaniu rozkładów prawdopodobieństwa, można – tam gdzie jest to wygodniej – posługiwać się funkcjami charakterystycznymi, używając wzoru: 1 exp(itx ) exp(it ( x h) P ( x X x h ) F ( x h) F ( x ) (t )dt. 2 it Punkty x i x + h winny być punktami ciągłości dystrybuanty. Istnieją szczególne przypadki powyższej zależności: 1. Zakładając istnienie skończonej całki (t) dt , zachodzi zależność odwrotna do definicji funkcji charakterystycznej : 1 f ( x) F ' ( x) e itx (t )dt. 2 2. Dla funkcji charakterystycznej okresowej o okresie 2 powyższa całka przyjmuje wartości dyskretne 1 pk 2 e (t )dt , itx dla k = 0, 1, 2,..., przy czym nie wszystkie pk muszą być dodatnie, mimo że spełniają warunek normalizacyjny dla prawdopodobieństwa. Lp. Nazwa rozkładu 1 dwumianowy 2 Poissona Rozkład prawdopodobieństwa n pk p k q n k , k k = 0, 1, ..., n p, q > 0, p+q=1 e k pk , kN k! >0 f ( x) 3 równomierny 1 ba dla a < x < b f ( x) 4 normalny > 0, 5 gamma Funkcja charakterystyczna (t) = (peit + q)n (t) = exp(eit – 1) 1 eitb eita (t ) ba it ( x )2 1 exp 2 2 1 2 2 2 (t ) expit 2 t R x p 1 x f ( x) p exp ( p) x > 0, > 0, p > 0 (t ) 1 (1 it ) p Dwuwymiarowe zmienne losowe Przypuśćmy, że badamy pewną zbiorowość ze względu na dwie cechy np.: śrubki ze względu na średnicę i długość, ludzi ze względu na ciężar i wzrost, włókna bawełny ze względu na długość i wytrzymałość itp. Zdarzeniu elementarnemu (losowo wybrane: śrubka, człowiek, włókno) są przyporządkowane pary liczb rzeczywistych. W praktyce często jest spotykana sytuacja, gdy wynik eksperymentu wyrazić można za pomocą dwu zmiennych losowych. Chodzi wówczas o zbadanie statystycznej zależności występującej między tymi zmiennymi. Niech X oraz Y będą zmiennymi losowymi określonymi niekoniecznie na tej samej przestrzeni probabilistycznej. Parę (X, Y) zmiennych losowych X, Y nazywamy dwuwymiarową zmienną losową lub dwuwymiarowym wektorem losowym, a X oraz Y współrzędnymi. Dystrybuantą dwuwymiarowej zmiennej losowej (X, Y) nazywamy funkcję F zmiennych x, y, która dla każdej pary liczb rzeczywistych (x, y) R2 przyjmuje wartości równe prawdopodobieństwu zdarzenia polegającego na tym, że zmienna losowa X przyjmie wartości mniejszą od x i zmienna losowa Y przyjmie wartość mniejszą od y: F(x, y) = P(X < x, Y < y) dla (x, y) R2. F nazywa się także dystrybuantą łącznej zmiennej losowej (X, Y). Własności dystrybuanty dwuwymiarowej zmiennej losowej: a) Dla każdego x R i y lim F(x, y) = 0, dla każdego y R i x lim F(x, y) = 0. b) Dla x i y lim F(x, y) = 1. c) Dla dowolnych punktów (x1, y1), (x2, y2), takich że x1 x2 i y1 y2, zachodzi nierówność: F(x2, y2) F(x2, y1) F(x1, y2) F(x1, y1) 0. Zauważmy, że lewa strona powyższej nierówności jest równa P(x1 X < x2, y1 Y < y2). d) Dystrybuanta jest funkcją niemalejącą i co najmniej lewostronnie ciągłą względem każdego z argumentów x bądź y. y y2 y1 0 x1 x2 x Skokowa dwuwymiarowa zmienna losowa Dwuwymiarową skokową (dyskretną) zmienną losową nazywamy zmienną losową (X, Y), która przyjmuje skończoną, bądź przeliczalną liczbę wartości (xi, yk), każdą odpowiednio z prawdopodobieństwem: P(X = xi, Y = yk) = pik dla i, k N, przy czym p i ik 1. k Funkcję, która wartościom (xi, yk) przyporządkowuje odpowiednie prawdopodobieństwa pik, nazywamy funkcją prawdopodobieństwa dwuwymiarowej zmiennej losowej (X, Y). Dystrybuanta skokowej dwuwymiarowej zmiennej losowej jest sumą prawdopodobieństw postaci: Fik p jh . j i hk Znając funkcję prawdopodobieństwa można wyznaczyć dystrybuantę dwuwymiarowej zmiennej losowej (X, Y) i odwrotnie. Jeśli przyjmuje skończoną liczbę wartości wygodnie jest funkcje przedstawiać w tabeli dwudzielczej: xi yk y1 y2 ys pi. x1 p11 p12 p1s p1. x2 p21 p22 p2s p2. xm pm1 pm2 pms pm. p.k p.1 p.2 p.s 1 Rozkłady brzegowe (marginalne) skokowych zmiennych losowych definiujemy jako: pi. pik dla i N, p.k pik dla i N. k i Zauważmy, że np. pi. jest prawdopodobieństwem tego, że zmienna losowa X przyjmie wartość xi, bez względu na to, którą z wartości y1, y2, przyjmuje zmienna losowa Y. Jak widać z tabelki prawdopodobieństwa te zapisujemy na jej brzegach, po prawej i na dole. Dystrybuanty rozkładów brzegowych zmiennych losowych X i Y definiujemy: F1 ( x) pi. dla x R, p dla y R. xi x F2 ( y ) yk y .k Rozkłady warunkowe skokowych zmiennych losowych określają rozkłady prawdopodobieństwa zmiennej losowej X, pod warunkiem, że Y przyjmuje ustaloną wartość yk i zmiennej Y, pod warunkiem przyjęcia wartości xi przez zmienną X, co można zapisać jako: pik , p. k p P(Y = yk|X = xi) = ik . pi. P(X = xi|Y = yk) = Dystrybuanty rozkładów warunkowych zmiennych losowych X i Y definiujemy: pik , xi x p.k p F ( y xi ) P(Y y X xi ) ik . yk y pi . F ( x yk ) P ( X x Y yk ) Ciągła dwuwymiarowa zmienna losowa Dwuwymiarową ciągłą zmienną losową (X, Y) nazywamy zmienną losową, która równocześnie przyjmuje dowolne wartości z przedziału: zmienna X – (x, x + dx) i zmienna Y – (y, y + dy), odpowiednio w obszarze zmienności zmiennych X i Y, z prawdopodobieństwem wyrażającym się wzorem P(x < X ≤ x + dx, y < Y ≤ y + dy) = f(x, y)dxdy, a funkcja f(x, y) nazywa się gęstością rozkładu prawdopodobieństwa. Własności funkcji gęstości prawdopodobieństwa dwuwymiarowej zmiennej losowej typu ciągłego: 1. f ( x, y)dydx 1 . 2. W punktach (x, y) ciągłości f prawdziwa jest formuła: 2 F ( x, y ) f ( x, y ) . xy 3. Prawdopodobieństwo, że zmienna losowa (X, Y) przyjmuje wartości z przedziałów skończonych a ≤ X ≤ b, c ≤ Y ≤ d wyraża się wzorem P(a ≤ X ≤ b, c ≤ Y ≤ d) = b d a c dx f ( x, y)dy . Dystrybuanta rozkładu ciągłego określona jest całką F(x, y) = x y dx' ( x' , y' )dy' = P(X ≤ x, Y ≤ y). Dystrybuantę w punkcie (xo, yo) można traktować jako objętość bryły ograniczonej powierzchnią o równaniu z = f(x, y), płaszczyznami x = xo, y = yo i płaszczyzną 0xy. Rozkłady brzegowe ciągłych zmiennych losowych definiujemy jako: f1 ( x ) f ( x, y)dy, f 2 ( y) f ( x, y)dx. Funkcja f1 jest gęstością zmiennej losowej X a funkcja f2 jest gęstością zmiennej losowej Y. Rozkład brzegowy równa się polu płaszczyzny x = x1 tnącemu powierzchnią o równaniu z = f(x, y) i płaszczyznę 0xy. Dystrybuantę rozkładu brzegowego dwuwymiarowej zmiennej losowej ciągłej określają wzory: F1 ( x) F2 ( y ) x x y y dx' f ( x' , y' )dy f ( x' )dx' , 1 dy' f ( x' , y' )dx f 2 ( y ' )dy' . Między dystrybuantami rozkładów brzegowych a dystrybuantą dwuwymiarowej zmiennej losowej istnieją związki: F1 ( x) lim F ( x, y ) , y F2 ( y) lim F ( x, y) . x Rozkład warunkowy dwuwymiarowej ciągłej zmiennej losowej wyraża prawdopodobieństwo, że zmienna losowa X przyjmuje wartości z przedziału (x, x + dx) pod warunkiem, że zmienna losowa Y przyjmuje wartości z przedziału (y, y + dy) P(x < X ≤ x + dx | y < Y ≤ y + dy) f(x|y)dx, i podobnie dla zmiennej Y P(y < Y ≤ y + dy | x < X ≤ x + dx) f(y|x)dy. Funkcje f(x|y) i f(y|x) nazywamy gęstością warunkową zmiennej losowej X i Y. Korzystając z definicji na prawdopodobieństwo warunkowe funkcje gęstości warunkowej wyrażają się poprzez wzory: f(x|y) = f ( x, y ) , f 2 ( y) f(y|x) = f ( x, y ) . f1 ( x ) Funkcje gęstości warunkowej f(x|y) i f(y|x) spełniają warunek: 1 1 f ( x y ) dx f ( x , y ) dx f 2 ( y) 1 f 2 ( y ) f 2 ( y) 1 1 f ( y x)dy f1 ( x) f ( x, y)dy f1 ( x) f1 ( x) 1 Dystrybuanty rozkładów warunkowych wyznacza się według wzorów x x y y 1 F ( x y ) f ( x' y )dx' f ( x' , y )dx' , f 2 ( y ) 1 F ( y x) f ( y ' x)dy' f ( x, y ' )dy' . f ( x ) 1 Niezależność zmiennych losowych Jednym z ważniejszych pojęć rachunku prawdopodobieństwa jest pojęcie niezależności zmiennych losowych. Warunkiem koniecznym i wystarczającym niezależności ciągłych zmiennych losowych X, Y o gęstościach rozkładów brzegowych odpowiednio równych f1, f2 jest zachodzenie równości: f(x, y) = f1(x)f2(y) x, y R. dla Skokowe zmienne losowe X i Y są niezależne wtedy i tylko wtedy, gdy P(X = xi, Y = yk) = P(X = xi)P(Y = yk) dla i, k N, lub zapis w postaci: pik = pi.p.k dla i, k N. Z powyższych definicji i określenia rozkładów warunkowych wynika, że: X i Y są niezależnymi zmiennymi losowymi wtedy i tylko wtedy, gdy rozkłady warunkowe są równe odpowiednim rozkładom brzegowym, co dla ciągłej zmiennej losowej zapisujemy: f(xy) = f1(x), f(yx) = f2(y), a dla skokowej zmiennej losowej P(X = xiY = yk) = pi., P(Y = ykX = xi) = p.k . Funkcje dwuwymiarowej zmiennej losowej Rozważmy funkcje dwu zmiennych losowych X i Y: U = u(X, Y), V = v(X, Y), które są nowymi zmiennymi losowymi. Niech funkcje te będą ciągłe o ciągłych pochodnych cząstkowych w pewnym obszarze płaskim Q. Prawdopodobieństwo znalezienia zmiennych X, Y w obszarze Q na płaszczyźnie Oxy musi być równe prawdopodobieństwu znalezienia zmiennych U, V w obszarze R na płaszczyźnie Ouv odpowiadającym obszarowi Q na płaszczyźnie Oxy, czyli f ( x, y)dxdy g (u, v)dudv . Q R W całce po lewej stronie równości dokonuje się zamiany zmiennych korzystając z równań transformacyjnych łączących zmienne x, y ze zmiennymi u, v: x = x(u, v), y = y(u, v). Otrzymujemy R x, y f ( xu, v , yu, v J dudv u , v g u, v dudv , R gdzie jakobian tej transformacji jest postaci: x u x, y J u , v x v y u y v . Prawo transformacji gęstości rozkładu dwuwymiarowego dla funkcji dwu zmiennych jest postaci x, y g (u, v) f ( x, y) J . u , v Gęstości rozkładu dla kilku funkcji dwu zmiennych losowych Gęstość rozkładu zmiennej losowej U (w dwuwymiarowej zmiennej losowej (U, V)), będącej funkcją zmiennych losowych X, Y postaci U = u(X, Y) jest gęstością rozkładu brzegowego dwuwymiarowej zmiennej losowej (U, V), określoną wzorem: g1 (u ) g (u, v)dv . Gęstość rozkładu sumy zmiennych losowych U = X + Y jest postaci: f ( x, u x)dx . g1 (u ) Kiedy zmienne losowe X, Y są niezależne o gęstościach rozkładów brzegowych odpowiednio f1(x) i f2(y), wtedy g1 (u ) f ( x) f 1 2 (u x)dx . Tak zdefiniowaną funkcję nazywa się splotem (kompozycją) funkcji f1(x) i f2(y) i oznacza symbolem f1 f2 . Problem liczenia splotu dwu funkcji rozkładu pojawia się w spektroskopii widmowej. Rozkład natężeń w widmowej linii rezonansowej dany jest rozkładem Cauchy’ego. Wkład od losowych błędów instrumentalnych dany jest rozkładem Gaussa. Obserwator rejestruje splot obu rozkładów i w efekcie powiększenie szerokości widzianej linii. Gęstość rozkładu iloczynu zmiennych losowych U = XY jest postaci: g1 (u ) u 1 f x, x x dx . W przypadku niezależnych zmiennych losowych X, Y : g1 (u ) u 1 f ( x ) f dx . 1 2 x x Gęstość rozkładu ilorazu zmiennych losowych U = XY jest postaci: g1 (u ) f uy, y y dy . W przypadku niezależnych zmiennych losowych X, Y : g1 (u ) f ( x) f 1 2 x 1 dx . u x Charakterystyki liczbowe dwuwymiarowej zmiennej losowej Wartość przeciętna zmiennej losowej będącej funkcją zmiennych losowych X i Y, G = g(X, Y), jest liczbą określoną wzorem: g ( x, y ) f ( x, y )dxdy E (G ) . g ( xi , yk ) pik i k Wariancja zmiennej losowej będącej funkcją zmiennych losowych X i Y, G = g(X, Y), jest liczbą określoną wzorem: 2 g ( x, y ) E g ( x, y ) f ( x, y )dxdy D 2 (G ) . 2 g ( xi , yk ) E g ( xi , yk ) pik i k Momentem zwykłym mieszanym rzędu r + s dwuwymiarowej zmiennej losowej (X, Y) nazywamy wartość przeciętną (o ile istnieje) iloczynu zmiennych losowych X rY s i określamy wzorem: r s x y f ( x, y )dxdy rs xir yks pik i k dla r, s N. W szczególnych przypadkach gdy: a) r = 1 i s = 0 otrzymujemy wartość przeciętną zmiennej losowej X: 10 = E(X), b) r = 0 i s = 1 otrzymujemy wartość przeciętną zmiennej losowej Y: 01 = E(Y). Punkt S(10, 01) na płaszczyźnie 0xy nazywamy środkiem masy rozkładu prawdopodobieństwa dwuwymiarowej zmiennej losowej (X, Y). Momentem centralnym mieszanym rzędu r + s dwuwymiarowej zmiennej losowej (X, Y) nazywamy wartość przeciętną iloczynu odchyłek zmiennych i określamy wzorem: rs = E(X – E(X))r(Y – E(Y))s dla r, s N. Wzór ten ma następującą postać dla zmiennej ciągłej i dyskretnej: rs r s ( x 10 ) ( y 01 ) f ( x, y )dxdy ( xi 10 ) r ( y 01 ) s pik i k dla r, s N. Szczególne znaczenie mają momenty centralne rzędu drugiego: a) r = 2 i s = 0, wtedy 20 = D2(X) = E(X 10)2 jest wariancją w rozkładzie brzegowym zmiennej losowej X, b) r = 0 i s = 2, wtedy 02 = D2(Y) = E(Y 01)2 jest wariancją w rozkładzie brzegowym zmiennej losowej Y, c) r = 1 i s = 1, wtedy 11 = cov(X, Y) = E(X 10)(Y 01) nazywamy kowariancją zmiennych losowych X i Y. Momenty centralne dowolnego rzędu można wyrazić za pomocą momentów zwykłych, w szczególności dla momentów rzędy drugiego zachodzą związki: 20 = 20 102 D2(X) = E(X2) (E(X))2, 02 = 02 012 D2(Y) = E(Y2) (E(Y))2, 11 = 11 1001 cov(X, Y) = E(XY) E(X)E(Y). Dla niezależnych zmiennych losowych X i Y cov(X, Y) = 0. Wektor wartości przeciętnych E(X), E(Y) w rozkładach brzegowych w przypadku dwuwymiarowej zmiennej losowej jest odpowiednikiem wartości przeciętnej zmiennej jednowymiarowej. Macierz momentów centralnych rzędu drugiego (macierz kowariancji) jest odpowiednikiem wariancji zmiennej jednowymiarowej, oznacza się ją przez: M 20 M 11 M 11 D 2 ( X ) cov(X , Y ) . M 02 cov( X , Y ) D 2 (Y ) Jest to macierz symetryczna o nieujemnym wyznaczniku. Linie regresji I-go rodzaju Oprócz powyżej zdefiniowanych momentów, wykorzystujących zwykłe funkcje rozkładu gęstości prawdopodobieństwa f(X, Y), można wykorzystać funkcje gęstości warunkowej i zdefiniować momenty warunkowe dwuwymiarowej zmiennej losowej. Pierwszy moment zwykły w rozkładzie warunkowym (wartość przeciętna) zmiennej losowej X jest postaci 1 E ( X Y y ) x P ( X x Y y ) i xi pik k i i k p i .k m1(y) = E ( X Y y ) xf ( x y )dx 1 xf ( x, y )dx f 2 ( y ) a dla zmiennej Y 1 E ( Y X x ) y P ( Y y X x ) yk pik i k k i p i i. k m2(x) = . 1 E (Y X x) yf ( y x)dy yf ( x, y )dy f1 ( x) Jeśli X i Y są niezależnymi zmiennymi losowymi, to E(XY = y) = m1(y) = 10 a E(YX = x) = m2(x) = 01. Linią regresji I-go rodzaju zmiennej losowej X względem Y i Y względem X nazywamy zbiór punktów o współrzędnych (x, y) R2 spełniających odpowiednio równania: x = m1(y), y = m2(x). Linie regresji I-go rodzaju mają pewną własność, a mianowicie: Średnie odchylenie kwadratowe zmiennej losowej X od pewnej funkcji h(Y) zmiennej losowej Y jest najmniejsze, gdy funkcja ta z prawdopodobieństwem 1 jest równa przeciętnej wartości warunkowej, a więc zachodzi EX m1 (Y ) min EX h(Y ) , 2 2 h m1(Y) = h(Y). Podobnie średnie odchylenie kwadratowe zmiennej losowej Y od pewnej funkcji g(X) zmiennej losowej X jest najmniejsze, gdy funkcja ta z prawdopodobieństwem 1 jest równa przeciętnej wartości warunkowej, a więc zachodzi E Y m2 ( X ) min EY g ( X ) , 2 2 g m2(X) = g(X). Równości te opisują statystyczne zależności między zmiennymi. W celu ilościowego opisu tej zależności używany jest parametr zwany współczynnikiem korelacji, będący miarą tego, w jakim stopniu wartości zmiennych skupiają się dokoła linii regresji: (X , Y ) cov(X , Y ) D 2 ( X ) D 2 (Y ) cov(X , Y ) XY M 11 . M 20 M 02 Ponieważ dla niezależnych zmiennych losowych kowariancja równa jest zero, to także współczynnik korelacji się zeruje. Zmienne X i Y nazywamy nieskorelowanymi. Odwrotna implikacja nie musi być prawdziwa. Współczynnik korelacji jest wielkością bezwymiarową, ograniczoną zawsze do przedziału 1, +1. Graniczne wartości osiąga przy liniowej zależności między zmiennymi X i Y: X = a bY i Y = A BX. Dla pośrednich wartości współczynnika korelacji pary liczb (xi, yi) układają się w pewnym elipsoidalnym obszarze na płaszczyźnie 0xy. Przedstawione powyżej zagadnienia, polegające na określeniu zależności regresyjnej na podstawie znajomości funkcji rozkładu zmiennych X i Y, nazywamy zagadnieniami regresyjnymi pierwszego rodzaju. Proste regresji II-go rodzaju Prostą regresji drugiego rodzaju zmiennej losowej Y względem losowej X nazywamy prostą o równaniu y = ax + b, którego współczynniki a, b są tak dobrane, średnie odchylenie kwadratowe zmiennej losowej Y od zmiennej losowej aX + b było najmniejsze (ze względu na wartości stałych a i b), tzn. EY – (aX + b)2 k(a, b) = min. Okazuje się, że dla dowolnej dwuwymiarowej zmiennej losowej (X, Y), dla której w rozkładach brzegowych istnieją skończone wariancje X2, Y2, istnieje dokładnie jedna prosta y = ax + b, która ma powyższe własności o współczynnikach określonych wzorami: a Y , X b Y Y , X X gdzie X = E(X), Y = E(Y). Stąd równanie prostej regresji II-go rodzaju zmiennej losowej Y względem losowej X jest postaci: y Y Y x X X , lub w postaci y Y x ( Y Y X ) ax b . X X Prostą regresji drugiego rodzaju zmiennej losowej X względem losowej Y nazywamy prostą o równaniu x = y + , którego współczynniki , są tak dobrane, średnie odchylenie kwadratowe zmiennej losowej X od zmiennej losowej Y + było najmniejsze (ze względu na wartości stałych i ), tzn. EX – (Y + )2 h(,) = min. Okazuje się, że dla dowolnej dwuwymiarowej zmiennej losowej (X, Y), dla której w rozkładach brzegowych istnieją skończone wariancje X2, Y2, istnieje dokładnie jedna prosta x = y + , która ma powyższe własności o współczynnikach określonych wzorami: X , Y X X , Y Y gdzie X = E(X), Y = E(Y). Stąd równanie prostej regresji II-go rodzaju zmiennej losowej X względem losowej Y jest postaci: x X X y Y Y , lub w postaci x X y ( X X Y ) y . Y Y Podstawiając obliczone współczynniki a, b oraz , do równań definicyjnych, wyznaczymy minimalne wartości przeciętne odpowiednich odchyleń kwadratowych: E(Y – aX – b)2 = Y2(1 – 2), E(X – Y – )2 = X2(1 – 2). Otrzymano w ten sposób wariancję regresji Y względem X i wariancję regresji X względem Y. Czasami nazywa się je wariancjami resztowymi (resztkowymi). Sens ich jest następujący: wariancja Y jest równa Y2, a po odjęciu od Y „najlepszego” przybliżenia drugiej zmiennej w postaci funkcji liniowej aX + b, wariancja tej reszty (tj. różnicy Y – aX – b) – stąd nazwa – przyjmuje wartość najmniejszą Y2(1 – 2). Podobnie jest dla zmiennej losowej X. Metodę wyznaczania prostych regresji II-go rodzaju nazywamy metodą najmniejszych kwadratów. Dwuwymiarowy rozkład normalny Wśród rozkładów dwuwymiarowych zmiennych losowych, szczególnie ważną rolę ze względu na liczne zastosowania spełnia dwuwymiarowy rozkład normalny. Jest to rozkład typu ciągłego o funkcji gęstości prawdopodobieństwa: f ( x, y ) 1 2 1 2 ( x 1 )2 1 ( x 1 )( y 2 ) ( y 2 )2 exp 2 . 2 2 1 2 22 1 2 2(1 ) 1 Parametry są równe: 1 = E(X), 2 = E(Y), 12 = D2(X), 22 = D2(Y), jest współczynnikiem korelacji zmiennych losowych X i Y. Własności dwuwymiarowego rozkładu normalnego: 1. Jeśli dwuwymiarowa zmienna losowa (X, Y) ma rozkład normalny a zmienne X i Y są nieskorelowane ( = 0) i tym samym niezależne to jej funkcja gęstości przyjmuje postać: ( x 1 ) 2 ( y 2 ) 2 f ( x, y ) exp . 2 2 2 1 2 2 2 1 2 1 2. Rozkłady brzegowe i rozkłady warunkowe tego rozkładu są jednowymiarowymi rozkładami normalnymi. 3. Linie regresji I-go rodzaju są liniami prostymi opisanymi równaniami prostych regresji II-go rodzaju. Centralne twierdzenie graniczne Twierdzenia graniczne rachunku prawdopodobieństwa są twierdzeniami, które uzasadniają szczególnie duże znaczenie rozkładu normalnego w statystyce matematycznej. Zajmują się granicznymi rozkładami sum lub średnich arytmetycznych (najczęściej) zmiennych losowych, gdy liczba składników zmierza do nieskończoności. Twierdzenia graniczne dotyczące zbieżności ciągów funkcji prawdopodobieństwa lub funkcji gęstości nazywa się twierdzeniami granicznymi lokalnymi. We wcześniejszych partiach materiału wykazano, że rozkład dwumienny (uważany za rozkład sumy niezależnych zmiennych zerojedynkowych) zdąża, przy rosnącej liczbie tych zmiennych, do rozkładu Poissona, lub do rozkładu normalnego przy spełnieniu pewnych dodatkowych założeń co do prawdopodobieństwa p. Są to przykłady granicznych twierdzeń lokalnych. Twierdzenia graniczne dotyczące zbieżności ciągów dystrybuant nazywa się twierdzeniami granicznymi integralnymi. Mają one ważniejsze znaczenie – szczególnie w zastosowaniach. Należą do nich prawa wielkich liczb oraz szereg twierdzeń granicznych, z których do najważniejszych należy: Centralne twierdzenie graniczne Lindeberga-Levy’ego Jeżeli ciąg niezależnych zmiennych losowych Xn ma ten sam rozkład o wartości przeciętnej 1 i skończonej wariancji 2, to ciąg Fn dystrybuant standaryzowanych średnich arytmetycznych X n (albo – co na jedno wychodzi – standaryzowanych sum n X i 1 i ) n Yn X n 1 X i 1 i n1 n n jest zbieżny do dystrybuanty F rozkładu N(0, 1): lim Fn ( y ) n 1 2 exp( 1 2 t 2 )dt F ( y ) . Wynika stąd, że dla dużych n (w praktyce już rzędu kilkunastu) można stosować przybliżenie wyrażając prawdopodobieństwo przez funkcję Laplace’a: P(y1 < Yn y2) (y2) (y1). Powyższe twierdzenie stosuje się dla zmiennych losowych dyskretnych jak i ciągłych. Rysunki przedstawiają funkcje gęstości sumy n niezależnych zmiennych losowych o jednakowym rozkładzie równomiernym na przedziale 0, 1. Jeżeli w powyższym twierdzeniu zmienne losowe Xn mają rozkłady dwupunktowe to ten szczególny przypadek twierdzenia nazywa się twierdzeniem Moivre’a-Laplace’a. Jeśli Xn = n X i 0 i jest ciągiem zmiennych losowych o rozkładzie dwumianowym z parametrami (n, p) (o wartości przeciętnej 1 = np i wariancji 2 = npq) oraz Yn jest ciągiem standaryzowanych zmiennych losowych: Yn X n np , npq to dla każdej pary wartości y1 < y2 zachodzi wzór: X np lim P y1 n y2 ( y2 ) ( y1 ) . n npq Okazuje się, że przy spełnieniu pewnych dodatkowych założeń nie jest konieczny warunek, żeby wszystkie zmienne Xi miały ten sam rozkład prawdopodobieństwa. Wystarcza założenie, że wszystkie mają skończone wartości średnie, wariancje i momenty centralne trzeciego rzędu i że żadna nie ma zdecydowanie przeważającego wpływu na sumę X i . Nawet założenie i całkowitej niezależności zmiennych losowych może być zastąpione przez założenie znacznie słabsze. Centralne twierdzenie graniczne przyjmuje wtedy postać w sformułowaniu Lapunowa: Średnia arytmetyczna zmiennych losowych Xi Zn X1 X 2 X n , n ma w granicy rozkład normalny o wartości oczekiwanej E (Z n ) 1 E( X i ) n i i wariancji D 2 (Z n ) 1 n2 D i 2 (Xi ). W praktyce bardzo często na obserwowaną zmienną losową składa się bardzo wiele małych przyczynków. Jeśli posiadają one skończone i niezbyt się różniące wartości średnie i wariancje, to łączny rozkład obserwowanej zmiennej dąży do rozkładu normalnego, niezależnie od rodzaju rozkładu statystycznego tych składowych. I to jest istota centralnego twierdzenia granicznego. Prawa wielkich liczb Niech Xn będzie ciągiem zmiennych losowych, dla których E(Xi) = i < oraz Xn 1 n Xi, n i 1 E( X n ) 1 n i . n i 1 Słabe prawo wielkich liczb zachodzi jeżeli dla losowego ciągu Xn i dla dowolnego > 0 prawdziwa jest zbieżność: lim P( X n E ( X n ) ) 0 . n Mówimy, że ( X n E ( X n )) 0 według prawdopodobieństwa (stochastycznie, według miary P). Mocne prawo wielkich liczb zachodzi jeżeli dla losowego ciągu Xn prawdziwa jest równość P lim ( X n E ( X n )) 0 1 n Mówimy, że ( X n E ( X n )) 0 z prawdopodobieństwem 1 (prawie na pewno, prawie wszędzie). Prawo to zachodzi przy założeniu istnienia wspólnie ograniczonych wariancji (D2(Xi) C). Kołmogorow udowodnił, że mocne prawo wielkich liczb może zachodzić bez powyższego założenia, jednak przy przyjęciu założenia o jednakowym rozkładzie i niezależności zmiennych.