Współczynnik korelacji liniowej

advertisement
Parametry dwuwymiarowych zmiennych losowych
Dwuwymiarowa zmienna losowa: zdarzenie elementarne można opisać za pomocą
uporządkowanej pary liczb (xi, yi), np. pomiary prądu i napięcia na oporniku.
Kowariancja
 xy  EX  E ( X ),Y  E (Y )  cov( X , Y )
dla zmiennej losowej ciągłej
 
 xy     x   x  y   y  f ( x)dxdy


dla próby n-elementowej wylosowanej z populacji
1 n
S xy   xi  x  y i  y 
n i 1
gdy xy=0, to te dwie zmienne są niezależne.
Współczynnik korelacji liniowej

  xy
dla populacji generalnej
 x y
r
S xy
dla próby
SxSy
(1)
Współczynnik r jest estymatorem zgodnym (ale obciążonym, E(r)) współczynnika .
Współczynnik korelacji musi być zawarty w przedziale (-1, +1). Gdy =0, to nie zachodzi
korelacja, zmienna X nie wpływa na zmienną Y. Korelacja jest maksymalna, gdy =1.
Wzory do obliczania kowariancji i współczynnika korelacji liniowej
S xy 


1
1
  xi  x  y i  y    x i y i  y  x i  x  y i   x y 
i

1
i 1
i 1
i 1
n
n i 1
n
n
n
n
n
n
 xi y i
i 1
n
n
y
 xi
i 1
n
n
x
 yi
i 1
n

1
( nx y ) 
n
n

 xi y i
i 1
n
 yx  x y  x y 
1 n
1 n n
 xi y i  2  xi  y i
n i 1
n i 1 i 1
(2)
 xi  x 
n
S x2 
i 1
n
2


 
 

n
1 n 2
1 n 2
1 n 2
2
2
2
2
 xi  2 x  xi  nx   xi  2nx  nx   xi  nx 
i

1
i

1
i

1
i

1
n
n
n
 
(3)
1 n
1 n 2
  xi2  2  xi
n i 1
n i 1
Zatem współczynnik korelacji liniowej z próby
n
r
S xy
n
n
n x i yi   x i  yi

i 1
 
i 1
i 1
 
n  x 2   x  n  y 2  n y 
 i 1 i i 1 i   i 1 i i 1 i 
Wzór powyższy otrzymuje się po podstawieniach równań (2) i (3) do (1) oraz pomnożeniu
licznika i mianownika przez n2.
Wnioskowanie dotyczące korelacji. Odpowiadamy na pytanie, czy istnieje korelacja pomiędzy
dwiema zmiennymi.
2
2
Sx Sy
n
n
2
n
2
Hipoteza zerowa:
H0: =0 (nie ma korelacji)
Hipoteza alternatywna
Ha: >0
Funkcją testową jest zmienna losowa Studenta t o (n-2) stopniach swobody
t
r
n2
1 r 2
0.40
0.35
0.30
0.25
0.20
1-
/2
0.15
/2
Z tablic rozkładu Studenta
odczytujemy – dla wcześniej
przyjętego poziomu istotności  wartość krytyczną tn-2,. Jeżeli
obliczona wartość t znajduje w
dwustronnym obszarze krytycznym
(-, - tn-2,), (tn-2,, +), to H0 należy
odrzucić na korzyść hipotezy Ha
0.10
0.05
0.00
-3
-2
-1
-t
0
1
2
t
n,
3
n,
Regresja liniowa
Równanie wiążące dwie zmienne losowe, wchodzące w skład dwuwymiarowej zmiennej
losowej nazywa się równaniem regresji. Gdy równanie to jest liniowe, mówimy o regresji
liniowej.
Dla populacji
Dla próby
y=x+
y=ax+b
,  - współczynniki regresji
a, b – współczynniki regresji
liniowej w populacji
liniowej dla próby
Współczynnik kierunkowy prostej a i współczynnik przesunięcia b są estymatorami
współczynników  i . Empiryczne współczynniki regresji liniowej a i b oblicza się metodą
najmniejszych kwadratów. W metodzie tej minimalizowana jest pewna funkcja S(a, b) zależną od współczynników a i b - będąca sumą kwadratów odchyłek punktów
doświadczalnych od poszukiwanej prostej. Ogólne równanie na funkcję S można zapisać w
postaci

S   w( xi )xi  X i   w( yi ) yi  Yi 
n
i 1
2
2

gdzie (xi, yi) są zmierzonymi parami punktów, (Xi, Yi) odpowiadającymi im punktami na
prostej, w(xi) i w(yi) – wagami, odpowiednio x-ową i y-ową punktu i-tego. Wagi są
odwrotnościami kwadratów niepewnościami odpowiednich punktów pomiarowych,
2
2
w( y i )  1 /   y i  , gdzie  oznacza odchylenie standardowe. W
zatem w( xi )  1 /  xi  ,
zależności od naszej wiedzy o niepewnościach mierzonych punktów pomiarowych można
rozpatrzyć 5 przypadków wyznaczania prostej metodą najmniejszych kwadratów.
(I)
Gdy y=ax+b jest prostą regresji cechy Y względem X. Jest to historycznie pierwszy
rozpatrzony wariant metody dopasowania prostej do wyników eksperymentalnych (Legendre,
Laplace, Gauss). Można go nazwać normalną metodą najmniejszych kwadratów (ang.
normal least squares). Stosujemy ten przypadek wtedy, gdy niepewnościami  obarczone są
1
jedynie wielkości yi, zatem Xi=xi. Przyjmujemy, że wszystkie wagi są równe 2 . Odchyłka i
tego punktu (xi, yi) od linii prostej będzie równa  y  y i  axi  b . Zaznaczona jest ona
odcinkiem prostej na rysunku poniżej. Suma kwadratów S, którą minimalizujemy będzie
równa S 
1

2
2
  i .Aby wyznaczyć współczynniki a i b różniczkujemy S względem a i
n
i 1
względem b, a otrzymane pochodne
przyrównujemy do
S
S
 0,
 0 . Mamy zatem
zera:
a
b
układ dwu równań z dwiema
niewiadomymi:
n
  y i  a  bxi   0
 i 1
n
  y i  a  bxi xi  0
 i 1
Rozwiązując ten układ równań
otrzymamy
20
15
Y
10
5
0
-5
0
2
4
6
8
10
X
n
a
n
n
n xi y i   xi  y i
i 1
i 1
n
n  xi   xi
2
i 1
b
 
i 1
n
2
n
n
i 1
i 1
n
n
2
 xi  y i   xi  xi y i
n
 
i 1
i 1
n
n xi   xi
i 1
2
i 1
2
i 1
Powyższe wzory na współczynniki a i b można także zapisać w zwięzłej postaci:
ar
Sy
S xy S y
SxSy Sx

S xy
b  y  ax
S x2
Otrzymana prosta przechodzi przez punkt ( x , y ) .
(II)
Gdy y=a’x+b’ jest prostą regresji cechy X względem Y. Stosujemy ten
przypadek wtedy, gdy niepewnościami obarczone są jedynie wielkości xi. Wtedy metoda
najmniejszych kwadratów daje
następujące wzory na a’ i b’:
20
Sx

15
Y
10
2
1 Sy Sy
a' 

r S x S xy
5
b'  y  a ' x
0
-5
0
2
4
6
X
8
10
Także ta prosta przechodzi przez punkt ( x , y ) . Gdy współczynnik korelacji r ma wartość 1,
to proste (II) i (I) pokrywają się. Gdy 0<r<1, to obie proste przecinają się w punkcie ( x , y ) ,
tworząc pewien kąt między sobą.
(III) Gdy y=a’’x+b’’ jest prostą regresji ortogonalnej. Stosujemy ten przypadek wtedy,
gdy niepewnościami o takiej samej wielkości obarczone są zarówno x jak i y, jak
również i wtedy, gdy niepewności nie są znane. Model ten nazywany jest także
modelem standardowym z wagami (ang. standard weighting model). Zakładamy,
że wagi w funkcji S są wszystkie takie same i równe jedności. Odchyłką  jest w
tym przypadku odcinek prostopadły do
20
linii prostej (rysunek obok), zatem

y
i minimalizowana suma
1 a2
 axi  b 
kwadratów S  
.
i 1
1 a2
Metoda najmniejszych kwadratów
daje następujące wzory na a’’ i b’’:
n
y
15
2
10
i
Y

5
0
Sy  Sx 
2
a' ' 
2
S
2
y
-5
 S x   4S xy
2
2
0
2
2
4
6
8
10
X
2S xy
b' '  y  a ' ' x
Model standardowy z niezależnymi wagami
(IV)
W modelu tym (ang. standard independent weighting model) niepewności występują zarówno
dla xi jak i dla yi. Wszystkie niepewności x-owe są takie same, tzn. w(xi)=w1, a także
wszystkie niepewności y-owe są równe, tzn. w(yi)=w2. Dla każdego punktu pomiarowego (xi,
yi) wprowadzamy efektywną wagę (taką samą), zdefiniowaną następująco
w1 w2
w
w1  a 2 w2
co spowoduje, że funkcja sumy kwadratów S przyjmie postać
n
S (a, b)  w ( yi  axi  b) .
i 1
Przyrównanie pochodnych cząstkowych tej funkcji do zera daje nam dwa równani, z których
można obliczyć współczynniki a i b;
1/ 2
2
2
2
2
2
2
n
2
n
n
2
n
  2

2
2
2
2






w2 n  y i   y i  w1  xi  n  xi
w n y i   y i  w1  xi  n  xi
 i 1

 i 1
  2  

 i 1
 
w1 
i 1
i 1
i 1
i 1
i 1
a
 
  
n
n
n
n
n
n
2 w2 n  x i  y i   x i y i
2 w2 n  x i  y i   x i y i

 w2 
i 1
i 1
i 1
i 1
i 1
i 1



 
b
n
n
i 1
i 1


 
 


 
 y i  a  xi
n
Równanie na współczynnik a daje dwie wartości; jedna (właściwa) odpowiada minimum
funkcji S, druga odpowiada maksimum funkcji S dla dowolnej linii prostej przechodzącej
przez punkt ( x , y ) .
(V)
Model z niezależnymi wagami
W modelu tym nierównymi niepewnościami obarczone są xi i yi. Wprowadźmy efektywną
wagę i-tego punktu
w( xi ) w( yi )
w( xi )  a 2 w( yi )
Wtedy funkcja S przyjmie postać
wi 
n
S (a, b)   wi ( yi  b  axi )
i 1
Przyrównanie pochodnych cząstkowych tej funkcji do zera daje nam dwa równani, z których
współczynników a i b nie można wyznaczyć analitycznie, a jedynie metodą iteracji.
Download