Rozdział 2 Klasyczna metoda najmniejszych kwadratów

advertisement
Wybrane zagadnienia ekonometrii z wykorzystaniem
programu Statistica
Marcin Kurpas
UPGOW – Uniwersytet Partnerem Gospodarki Opartej na Wiedzy Uniwersytet Śląski w
Katowicach, ul. Bankowa 12, 40-007 Katowice, http://www.us.edu.pl
Publikacja jest współfinansowana z Unii Europejskiej w ramach Europejskiego Funduszu
Społecznego.
Skrypt jest dystrybuowany bezpłatnie.
2
Spis treści
1 Wstęp
1.1 Czym jest ekonometria? . . . .
1.2 Podstawowe pojęcia ekonometrii
1.2.1 Zmienne modelu . . . .
1.2.2 Parametry strukturalne .
1.2.3 Dane statystyczne . . . .
1.3 Etapy badań ekonometrycznych
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Klasyczna metoda najmniejszych kwadratów
2.1 Jednorównaniowy liniowy model ekonometryczny z jedną zmienną objaśniającą . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Wyznaczenie parametrów modelu liniowego z jedną zmienną objaśniającą
metodą najmniejszych kwadratów . . . . . . . . . . . . . . . . . . . . . .
2.3 Uogólnienie na model wielowymiarowy . . . . . . . . . . . . . . . . . . .
2.4 Klasyczna metoda najmniejszych kwadratów - założenia . . . . . . . . .
2.5 Twierdzenie Gaussa-Markowa . . . . . . . . . . . . . . . . . . . . . . . .
2.6 Ocena stopnia dopasowania modelu ekonometrycznego do danych empirycznych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8 KMNK w Statistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8.1 Wykres rozrzutu . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8.2 Szacowanie parametrów modelu . . . . . . . . . . . . . . . . . . .
2.8.3 Statystyczna istotność modelu . . . . . . . . . . . . . . . . . . . .
3 Weryfikacja
3.1 Wartość
3.2 Badanie
3.3 Badanie
3.4 Badanie
3.5 Badanie
3.6 Zadania
założeń KMNK
średnia reszt . . . . . . . . . . . . . . . .
losowości . . . . . . . . . . . . . . . . . .
normalności rozkładu składnika losowego
autokorelacji . . . . . . . . . . . . . . . .
homoskedastyczności . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
4 Metody doboru zmiennych objaśniających
4.0.1 Wykresy rozrzutu . . . . . . . . . .
4.0.2 Korelacie Pearsona . . . . . . . . .
4.0.3 Eliminacja zmiennych kwazistałych
3
do
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
6
6
7
9
11
. 11
.
.
.
.
13
15
17
18
.
.
.
.
.
.
20
24
24
24
26
28
.
.
.
.
.
.
31
31
32
33
35
37
39
modelu
41
. . . . . . . . . . . . . . . . 41
. . . . . . . . . . . . . . . . 42
. . . . . . . . . . . . . . . . 44
4
SPIS TREŚCI
4.1
4.0.4 Regresja krokowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.0.5 Metoda Hellwiga . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5 Szacowanie parametrów modeli w przypadku autokorelacji i heteroskedastyczności
49
5.0.1 Ważona metoda najmniejszych kwadratów . . . . . . . . . . . . . . 50
5.0.2 Metoda Cochrane’a-Orcutta . . . . . . . . . . . . . . . . . . . . . . 51
6 Prognozowanie na podstawie modelu ekonometrycznego
53
7 Nieliniowe modele ekonometryczne
57
7.1 Linearyzowalne modele ekonometryczne . . . . . . . . . . . . . . . . . . . . 57
8 Funkcja produkcji
8.1 Wstęp . . . . . . . . . . . . . . . . . . . . .
8.1.1 Zastosowanie funkcji produkcji . . . .
8.2 Funkcja produkcji Cobba-Douglasa . . . . .
8.2.1 Linearyzacja funkcji Cobba-Douglasa
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
61
63
63
9 Ekonometryczna analiza rynku i popytu konsumpcyjnego
65
9.1 Podstawowe pojęcia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
9.1.1 Ekonometryczne modele popytu dochodowego . . . . . . . . . . . . 67
10 Dodatek
69
Rozdział 1
Wstęp
1.1
Czym jest ekonometria?
Pierwszym pytaniem, jakie należy sobie zadać rozpoczynając przygodę z ekonometrią jest
”czym zajmuje się ekonometria?”. Odpowiedź, w dość ogólnej postaci, jest następująca:
ekonometria to nauka, która zajmuje się badaniem związków przyczynowo–skutkowych
między zjawiskami ekonomicznymi i społecznymi oraz ilościowym opisem tych relacji. Celem badań ekonometrycznych jest również konfrontacja teorii ekonomicznych z praktyką,
a także prognozowanie, na podstawie pewnych przesłanek, o rozwoju zjawisk ekonomicznych. Powyższe sformułowanie, jak już napisaliśmy, jest dość ogólne, ponieważ metody
ekonometrii znajdują zastosowanie także w badaniu zjawisk przyrodniczych, technicznych,
socjalnych, medycynie lub w naukach o sporcie. Pojęcie ekonometria zostało sformułowane
(tak się przynajmniej uważa) przez norweskiego uczonego Ragnara Frischa, współzałożyciela Towarzystwa ekonometrycznego, pierwszego edytora czasopisma Econometrica. W
1969 roku Frisch (wraz z Janem Tinbergenem) został uhonorowany pierwszą Nagrodą
Nobla w w dziedzinie ekonomii.
1.2
Podstawowe pojęcia ekonometrii
Czym jest model ekonometryczny?
Podstawowym pojęciem ekonometrii (również narzędziem ekonometryka) jest model ekonometryczny. Model ekonometryczny jest uproszczoną wersją rzeczywistości, ponieważ
zjawiska ekonomiczne są na ogół bardzo złożone. Jest to układ równań stochastycznych
(w najprostszym przypadku jedno równanie), który z pewną dokładnością opisuje rzeczywiste zależności pomiędzy rozpatrywanymi zjawiskami ekonomicznymi. Pierwszym,
który zwrócił uwagę na probabilistyczną istotę modelu ekonometrycznego był również
Norweg, i również laureat Nagrody Nobla w dziedzinie ekonomii Tryvge Haavelmo. Wg
niego, modele deterministyczne nie są konsystentne z obserwacjami ekonomicznymi, dlatego niewłaściwe jest stosowanie modeli deterministycznych do niedeterministycznych danych. Składnikami modelu ekonometrycznego są zmienne oraz *parametry strukturalne*.
Dodatkowym składnikiem jest czynnik losowy, którego obecność wynika z przybliżonego
charakteru (niedokładności) badanej zależności.
5
6
1.2.1
ROZDZIAŁ 1. WSTĘP
Zmienne modelu
Zmienne modelu możemy podzielić na dwie grupy: zmienne objaśniane - których zmienność (zachowanie) będziemy chcieli wyjaśnić za pomocą modelu, oraz zmienne objaśniające czyli takie, które wpływają na zachowanie się zmiennej objaśnianej - objaśniają zmienność zmiennej objaśnianej. Czasem zdarza się (np. w modelach wielorównaniowych), że
zmienne objaśniane pełnią rolę również zmiennych objaśniających. Wtedy taki podział
nie jest do końca jednoznaczny. Dlatego wprowadzono podział na zmienne endogeniczne
- wszystkie zmienne objaśniane modelu, które mogą występować również jako zmienne
objaśniające (w tym samym modelu) oraz zmienne egzogeniczne - zmienne, które w danym modelu pełnią wyłącznie rolę zmiennych objaśniających. Zakres niniejszego skryptu
ogranicza się jedynie do prostych modeli, w których zmienne objaśniane nie będą pełniły
roli zmiennych objaśniających. Będziemy zatem używali podziału na zmienne objaśniane
i objaśniające.
Innym podziałem zmiennych, o którym warto wspomnieć, jest podział na zmienne ilościowe i zmienne jakościowe. Zmienne ilościowe przyjmują wartości liczbowe (są mierzalne)
np. liczba sprzedanych samochodów, liczba urodzeń, dochód na członka rodziny. Zmienne
jakościowe przyjmują wartości słowne i dotyczą takich cech jak np. płeć, wykształcenie.
Takie zmienne powodują pewne utrudnienia w procesie mierzenia relacji ekonomicznych,
istnieją jednak metody zastąpienia ich zmiennymi ilościowymi np. poprzez wprowadzenie
zmiennych zero-jedynkowych.
1.2.2
Parametry strukturalne
Wnioskowanie na podstawie modelu ekonometrycznego o zależnościach ekonomicznych
może mieć miejsce dopiero po oszacowaniu parametrów strukturalnych modelu. Parametry
strukturalne to współczynniki, które wiążą ze sobą zmienne objaśniane i objaśniające. Dla
prostych liniowych modeli ekonometrycznych, będą one współczynnikami proporcjonalności pomiędzy zmiennymi objaśniającymi a objaśnianą (np. podobnie jak opór elektryczny
jest współczynnikiem proporcjonalności pomiędzy napięciem przyłożonym do obwodu, a
prądem płynącym w tym obwodzie). Wartości parametrów strukturalnych dla danego
zjawiska ekonomicznego na ogół nie są znane i wymagają wyznaczenia na podstawie danych obserwacyjnych. Dlatego też, w modelu ekonometrycznym (wyznaczanym w procesie
modelowania) występują estymatory parametrów strukturalnych, a nie same parametry.
Chcielibyśmy, aby wartości estymatorów parametrów strukturalnych były jak najbliższe
parametrom strukturalnym tzn. aby model teoretyczny w jak największym stopniu odzwierciedlał prawdziwe zależności ekonomiczne. Jak zobaczymy nie jest to zadanie proste
ze względu na złożoność zjawisk, które chcemy opisywać.
Trzecim składnikiem modelu jest element losowy. Obecność składnika losowego świadczy o stochastycznym charakterze modelu. Czynnik losowy odzwierciedla wpływ drugorzędnych, jawnie niewyróżnionych czynników, niedoskonałość danych statystycznych, a
także nieprzewidywalne zachowanie podmiotów ekonomicznych.
Model ekonometryczny, nie precyzując jego postaci matematycznej, możemy zapisać
jako związek funkcyjny pomiędzy zmiennymi
Yk = fk (Xk , ξk ),
(1.1)
1.2. PODSTAWOWE POJĘCIA EKONOMETRII
7
gdzie Yk jest k-tą obserwacją zmiennej objaśnianej, Xk jest wektorem obserwacji zmiennych objaśniających, ξk jest elementem losowym. Indeks k = 1, 2 . . . n numeruje równania
w modelu, a liczba n to ilość obserwacji danej wielkości.
Modele ekonometryczne można sklasyfikować ze względu na różne cechy. Poniżej wypiszemy najczęściej spotykane podziały:
• ze względu na postać analityczną modelu: modele liniowe, nieliniowe (sprowadzalne
do liniowych, niesprowadzalne do liniowych),
• ze względu na ilość równań modelu: jednorównaniowe, wielorównaniowe,
• ze względu na rolę czynnika czasu: modele statyczne (niezależne od czasu), modele
dynamiczne (zależne od czasu np. modele trendu).
Powyższy podział nie jest tylko zabiegiem formalnym, lecz ma swoje podstawy statystyczne: od typu i postaci modelu zależą metody szacowania jego parametrów.
1.2.3
Dane statystyczne
Podstawową wiedzę o zjawiskach ekonomicznym uzyskuje się na podstawie zebranych danych statystycznych. Dane statystyczne to wyniki powtarzanych pomiarów danej cechy
np. zarobków, wykształcenia itp.. Pomiaru danej cechy dokonuje się zwykle na pewnym
podzbiorze populacji zwanym próbą. Populacja to zbiorowość obiektów (osób, przedmiotów, faktów) podobnych pod względem pewnych cech. Przykładowo, chcemy zbadać średni
wzrost Polaków. Zatem populacją będą wszyscy obywatele Polski. Łatwo sobie wyobrazić,
że dokonanie pomiaru ok 40 milionów ludzi byłoby bardzo czasochłonne i statystycznie
nieuzasadnione. Dlatego wybiera się losowo próbę statystyczną - pewien podzbiór populacji np. 1000 osób z różnych regionów kraju i na tym podzbiorze dokonuje się pomiaru
oraz analizy statystycznej. Jeśli próba losowa jest dostatecznie liczna, to jest próbą reprezentatywną i wyniki badań można uogólnić na całą populację, tzn. z dużym prawdopodobieństwem można sądzić że rozkład danej cechy w populacji (w naszym przykładzie
wzrostu Polaków) jest taki sam jak w wybranej próbie.
Dane statystyczne również możemy podzielić na rodzaje: dane mogą dotyczyć zmienności danej cechy w zależności od chwili czasu, w którym ją mierzymy - takie dane noszą
nazwę szeregów czasowych (np. kursy walut lub indeksy giełdowe); zmienności danej cechy
w ustalonym czasie, ale w odniesieniu do różnych obiektów - dane przekrojowe (np. średni
dochód gospodarstwa domowego w województwie Małopolskim). Dane stanowiące połączenie dwóch poprzednich rodzajów danych noszą nazwę danych panelowych i składają się
z danych dla wielu obiektów, z których każdy jest obserwowany w kilku okresach czasu.
Dysponując surowymi danymi trudno jest wyciągnąć wnioski o zależności pomiędzy
badanymi zjawiskami ekonomicznymi. Dopiero przetworzenie tych danych z zastosowaniem narzędzi ekonometrycznych np. zbudowanie na ich podstawie modelu ekonometrycznego pozwala na określenie ilościowych związków przyczynowo-skutkowych dla danego
zjawiska.
8
ROZDZIAŁ 1. WSTĘP
Tabela 1.1: Przykład danych przekrojowych: liczba mieszkańców Polski w 2010 roku w
danym województwie. Źródło: GUS.
Województwo
liczba mieszkańców
Dolnośląskie
2877840
Kujawsko-pomorskie
2069543
Lubelskie
2151895
Lubuskie
1011024
Łódzkie
2534357
Małopolskie
3310094
Mazowieckie
5242911
Opolskie
1028585
Podkarpackie
2103505
Podlaskie
1188329
Pomorskie
2240319
Śląskie
4635882
Świętokrzyskie
1266014
Warmińsko-mazurskie
1427241
Wielkopolskie
3419426
Zachodniopomorskie
1693072
Tabela 1.2: Przykład szeregu czasowego: cena dolara amerykańskiego zarejestrowana w
ciągu kilku dni. Źródło: FOREX.
Data
Cena w PLN za jednostkę
22.01.2014
3.0608
23.01.2014
3.048
22.01.2014
3.0682
21.01.2014
3.0660
20.01.2014
3.0620
19.01.2014
3.0730
1.3. ETAPY BADAŃ EKONOMETRYCZNYCH
1.3
9
Etapy badań ekonometrycznych
Badanie procesów ekonomicznych odbywa się wieloetapowo i wymaga zarówno wiedzy
statystycznej, jak i merytorycznej dotyczącej danego problemu. Pierwszym etapem badań
jest zapoznanie się ze zjawiskiem ekonomicznym, którego analizę chcemy wykonać. Wiedza na temat praw rządzących danym zjawiskiem jest niezbędna na późniejszych etapach
i jej brak może doprowadzić do błędnych decyzji (np. źle dobrane zmienne objaśniające
lub analityczna postać modelu) lub do błędnych wniosków. Kolejnym etapem jest dobór zmiennych objaśniających do modelu. Jest to zadanie wymagające szczególnej uwagi.
Może się bowiem zdarzyć, że źle dobrane zmienne nie będą w wystarczającym stopniu
wyjaśniały kształtowania się zmiennej objaśnianej lub, co gorsza, ekonometryk podejmie
decyzję o zmianie postaci analitycznej modelu, który dla dobrze dobranych zmiennych
objaśniających dawałby poprawne wyniki. Dobór zmiennych do modelu można podzielić na dwa etapy: wybór potencjalnych zmiennych objaśniających bazujących na wiedzy
merytorycznej, a następnie jego weryfikacja za pomocą narzędzi statystycznych.
Następnym krokiem jest wybór postaci analitycznej modelu. To zadanie również należy do niełatwych, ponieważ dużą rolę odgrywa w nim znajomość teorii ekonometrii,
modelowanego zjawiska oraz doświadczenie. Po dokonaniu wyboru zmiennych objaśniających i postaci modelu przystępuje się do estymacji parametrów strukturalnych modelu.
W tym celu stosuje się rożne metody np. metodę najmniejszych kwadratów lub metodę
największej wiarygodności, które są zaimplementowane w wielu pakietach statystycznych,
zarówno komercyjnych (np. Statistica, STATA, SAS), jak i bezpłatnych (np. R, Gretl).
Wybór metody szacowania parametrów strukturalnych nie może być przypadkowy, ponieważ zależy od postaci analitycznej modelu oraz cech charakteryzujących dane statystycznych. Jest to ściśle związane z własnościami estymatorów uzyskanych konkretną metodą
estymacji.
10
ROZDZIAŁ 1. WSTĘP
Rozdział 2
Klasyczna metoda najmniejszych
kwadratów
Uwagi wstępne
W poprzednim rozdziale podaliśmy ogólną postać modelu ekonometrycznego, jako związku pomiędzy zmiennymi objaśnianymi i objaśniającymi. W następnych będziemy zajmowali się jedną postacią modelu ekonometrycznego, która jest bardzo powszechnie stosowana, mianowicie modelem liniowym. Do estymacji parametrów strukturalnych modelu
będziemy stosować klasyczną metodę najmniejszych kwadratów (KMNK). Jak zobaczymy, wybór tej metody jest nieprzypadkowy.
2.1
Jednorównaniowy liniowy model ekonometryczny z jedną zmienną objaśniającą
Jest to najprostsza wersja modelu liniowego i chociaż najczęściej nie wystarcza do poprawnego opisu zjawisk ekonomicznych, jego zaletą jest prostota zrozumienia i interpretacji.
Jednorównaniowy model liniowy z jedną zmienną objaśniającą możemy zapisać w
następującej postaci:
yi = β0 + β1 xi + i , i = 1, 2, . . . , n,
(2.1)
gdzie βi są nieznanymi parametrami strukturalnymi modelu, yi - i-tą obserwacją zmiennej
objaśnianej, xi - i-tą obserwacją zmiennej objaśniającej, a i zmienną losową. Zmienne yi
oraz xi są nam znane (ich wartości zostały zebrane np. w wyniku przeprowadzenia badania
ankietowego).
Wartości parametrów strukturalnych βk nie są znane, więc zadaniem ekonometryka
jest wyznaczenie takich wartości estymatorów parametrów strukturalnych, które będą
najbliższe tym parametrom. Konstruuje się więc model teoretyczny, w którym parametry
strukturalne β zastępuje się ich estymatorami b:
ŷi = b0 + b1 xi , i = 1, 2, . . . , n,
(2.2)
przy czym przez ŷi oznaczyliśmy wartość teoretyczną zmiennej objaśnianej (wyznaczoną
z modelu), a bk estymatory parametrów strukturalnych βk .
11
12
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
Rysunek 2.1: Schematyczne przedstawienie idei modelu ekonometrycznego. Punkty oznaczają dane eksperymentalne, linia oznacza model teoretyczny wyznaczony na podstawie
danych eksperymentalnych. Różnice pomiędzy wartościami teoretycznymi i obserwowanymi to reszty ei . Dane umowne.
Uwaga
Oznaczenia ŷi będziemy używali w celu podkreślenia, że wartość ta jest wartością teoretyczną, wyznaczoną z oszacowanego już modelu. Wartość empiryczną zmiennej objaśnianej oznaczamy yi .
Ponieważ model teoretyczny z reguły nie tłumaczy w stu procentach rozpatrywanego
zjawiska ekonomicznego (np. ze względu na złą jakość danych, zbyt małą próbę lub złą
postać funkcyjną modelu), wartości teoretyczne zmiennej objaśnianej wyznaczone z modelu mogą różnić się od wartości empirycznych. Ich różnice nazywa się resztami modelu:
ei = yi − ŷi , i = 1, 2, . . . , n.
(2.3)
Widać, że reszty będą w pewien sposób odzwierciedlały dopasowanie modelu teoretycznego do danych empirycznych.
Wprowadźmy wielkość, która będzie opisywała dopasowanie modelu do danych empirycznych. Zdefiniujmy ją jako sumę wszystkich reszt:
η=
n
X
ei ,
(2.4)
i=1
gdzie n jest wielkością próby (liczbą obserwacji danej cechy). Na pierwszy rzut oka wydaje
się, że przypadek η = 0 oznaczać będzie idealnie dopasowany model. Niestety, jest to
bardzo zła miara dopasowania, ponieważ w metodzia najmniejszych kwadratów suma
reszt jest zawsze równa zeru
n
X
ei = 0. Reszty dodatnie (powyżej prostej na rysunku 2.1)
i=1
są przeciwne do reszt ujemnych (poniżej prostej na rysunku 2.1) i wzajemnie się znoszą.
2.2. WYZNACZENIE PARAMETRÓW MODELU LINIOWEGO Z JEDNĄ ZMIENNĄ OBJAŚNIAJĄC
Lepszą miarą dopasowania jest suma modułów reszt
n
X
η1 =
|ei |.
(2.5)
i=1
W tym przypadku dodatnie i ujemne reszty nie znoszą się i im większe są reszty ei ,
tym większa jest wartość η1 . Niestety ta funkcja nie jest ”ładną” funkcją matematyczną,
ponieważ nie jest wszędzie różniczkowalna, co powoduje pewne trudności w szukaniu jej
minimum. Dlatego jako miary dopasowania używa się sumy kwadratów reszt
χ=
n
X
e2i .
(2.6)
i=1
W następnym rozdziale pokażemy, że stosując miarę dopasowania (2.6), jesteśmy w
stanie wyznaczyć jednoznacznie takie wartości estymatorów parametrów strukturalnych
b0 i b1 , dla których χ osiąga minimum.
2.2
Wyznaczenie parametrów modelu liniowego z jedną zmienną objaśniającą metodą najmniejszych
kwadratów
Najczęściej stosowaną metodą wyznaczenia ocen bk w parametrycznych modelach liniowych jest metoda najmniejszych kwadratów. Polega ona na wyznaczeniu takich oszacowań
b0 i b1 , dla których suma kwadratów reszt (2.6) jest najmniejsza
χ=
n
X
e2i → min.
(2.7)
i=1
Z równania 2.3 wynika, że przy danych wielkościach xi i yi reszty są funkcjami ocen
parametrów strukturalnych:
χ(b0 , b1 ) =
n
X
e2i =
i=1
n
X
(yi − ŷi )2 =
i=1
n
X
(yi − b0 − b1 xi )2 .
(2.8)
i=1
Chcemy zatem zminimalizować χ(b0 , b1 ) ze względu na parametry b0 i b1 .
Warunkiem koniecznym, aby funkcja miała minimum w punkcie, jest znikanie jej pierwszych pochodnych cząstkowych w tym punkcie:
∂χ(b0 , b1 )
= 0,
∂b0
∂χ(b0 , b1 )
= 0.
∂b1
(2.9)
(2.10)
Zatem,
Pn
∂χ(b0 , b1 )
∂(
=
∂b0
=
n
X
i=1
i=1 (yi
− b0 − b1 xi )2 )
∂
=
∂b0
(2b0 − 2(yi − b1 xi )) = −2
Pn
n
X
i=1
i=1
[(yi − b1 xi ) − b0 ]2
∂b0
(yi − b0 − b1 xi ) = 0
(2.11)
14
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
∂χ(b0 , b1 )
∂
=
∂b1
Pn
i=1
= −2
n [(yi − b0 ) − b1 xi ]2 X
=
−2xi (yi − b0 ) + 2b1 x2i
∂b1
i=1
n X
xi yi − xi b0 − b1 x2i = −2
i=1
n
X
xi (yi − b0 − b1 xi ) = 0. (2.12)
i=1
Ponieważ obydwa warunki muszą być spełnione jednocześnie, otrzymujemy układ równań:

n
X



(yi

 −2




 −2
i=1
n
X
− b0 − b1 x i ) = 0 ,
(2.13)
xi (yi − b0 − b1 xi ) = 0.
i=1
Wchodząc ze znakiem sumy pod nawiasy i dzieląc obydwa równania przez (-2) otrzymujemy:

n
X



yi







i=1
n
X
−
n
X
b1 xi − nb0 = 0,
i=1
xi yi − b0
i=1
n
X
x i − b1
i=1
n
X
(2.14)
x2i = 0,
i=1
gdzie
n
X
b0 = b0
n
X
1 = b0 n.
i=1
i=1
Jeśli pierwsze równanie w (2.14) podzielimy przez n i dokonamy podstawienia
n
n
1X
1X
yi = ȳ,
xi = x̄
n i=1
n i=1
(2.15)
gdzie x̄ oznaczana średnią arytmetyczną z xi , to otrzymamy:
n
n
1X
1X
y i − b1
xi − b0 = ȳ − b1 x̄ − b0 = 0.
n i=1
n i=1
(2.16)
Z tego równania możemy wyliczyć wartość parametru b0 :
b0 = ȳ − b1 x̄
(2.17)
i wstawić do drugiego równania w (2.14)



b0 = ȳ − b1 x̄,
n
n
X
X

xi yi − (ȳ − b1 x̄)
xi


i=1
− b1
i=1
Analogicznie, stosując podstawienie
n
X
i=1
xi = nx̄
n
X
i=1
x2i = 0.
(2.18)
2.2. WYZNACZENIE PARAMETRÓW MODELU LINIOWEGO Z JEDNĄ ZMIENNĄ OBJAŚNIAJĄC
otrzymujemy:



b0 = ȳ − b1 x̄,
n
X

xi yi − nx̄ȳ


2
+ nb1 x̄ − b1
i=1
n
X
i=1
Policzmy, czemu są równe wyrażenia
n
X
(xi − x̄)2 oraz
i=1
n
X
(xi − x̄)2 =
i=1
=
(2.19)
x2i = 0.
n
X
(xi − x̄)(yi − ȳ):
i=1
n
X
(x2i − 2x̄xi + x¯2 )
i=1
n
X
(2.20)
x2i − 2nx̄x̄ + nx̄2 =
i=1
n
X
i=1
i=1
n
X
=
x2i − nx̄2
i=1
n
X
(xi − x̄)(yi − ȳ) =
n
X
xi yi − ȳ
n
X
xi − x̄
i=1
n
X
yi + x̄ȳ
n
X
i=1
1
(2.21)
i=1
xi yi − nx̄ȳ
i=1
Wstawiając te wyrażenia do drugiego równania w (2.19) i po kilku przekształceniach
otrzymujemy:


b0








b1







= ȳ − b1 x̄,
n
X
(xi − x̄)(yi − ȳ)
=
i=1
(2.22)
.
n
X
(xi − x̄)2
i=1
Otrzymaliśmy rozwiązanie warunku koniecznego na istnienie ekstremum funkcji χ(b0 , b1 ).
Pozostało nam sprawdzenie warunku wystarczającego na istnienie minimum. Ponieważ
mamy do czynienia z funkcją dwóch zmiennych, musimy policzyć zarówno drugie pochodne po bk jak i pochodne mieszane.
A=
 2
∂ χ(b0 , b1 )


∂b20
 2
 ∂ χ(b0 , b1 )
∂b0 b1
Jeśli det(A) > 0, oraz pochodna
det(A) = 4n


∂ 2 χ(b0 , b1 )
2n
2nx̄

n


∂b0 b1 
X
=
2
x
∂ 2 χ(b0 , b1 ) 
2nX̄ 2
i
i=1
∂b21

(2.23)
∂ 2 χ(b0 , b1 )
> 0 to funkcja ma lokalne minimum. Ponieważ
∂b20
n
X
i=1
!
x2i
− nx̄
2
= 4n
n
X
!
2
(xi − x̄)
>0
i=1
oraz 2n > 0, to w b0 i b1 danymi przez (2.22) funkcja χ(b0 , b1 ) ma minimum.
(2.24)
16
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
Wniosek
Użycie metody najmniejszych kwadratów do znalezienia wartości estymatorów bk parametrów strukturalnych βk pozwoliło na znalezienie takich wartości bk , dla których suma
kwadratów reszt osiąga minimum. Oznacza to, że o ile reszty mają rozkład normalny
(patrz np. [6]), inne metody estymacji mogą dać co najwyżej tak samo dobre oszacowania
parametrów strukturalnych.
2.3
Uogólnienie na model wielowymiarowy
W poprzednim rozdziale zdefiniowaliśmy liniowy (względem parametrów i zmiennych objaśnianych) model ekonometryczny z jedną zmienną objaśniającą. W tym rozdziale wprowadzimy ogólniejszy zapis modelu z dowolną liczbą zmiennych objaśniających.
Rozważmy zatem model liniowy
yi = β0 + β1 x1i + β2 x2i + . . . + βk xki + i , i = 1, 2, . . . , n,
(2.25)
gdzie:
yi - jest i-tą obserwacją zmiennej objaśnianej, xki - i-tą obserwacją k−tej zmiennej objaśniającej, a i zmienną losową.
Obserwacje zmiennych objaśnianych dla całej próby tworzą wektor jednokolumnowy

Y=






y1
y2
..
.


.


(2.26)
yn
Dla k− tej zmiennej objaśniającej jej wektor obserwacji jest postaci



Xk = 


xk1
xk2
..
.



.


(2.27)
xkn
Łatwo zauważyć, że wektory obserwacji dla wszystkich zmiennych objaśniających, dla
całej próby o liczebności n tworzą macierz postaci



X=


1 x11 x21 . . . xk1
1 x12 x22 . . . xk2
.. ..
..
..
..
. .
.
.
.
1 x1n x2n . . . xkn



,


(2.28)
gdzie pierwsza kolumna (złożona z jedynek) odpowiada stałej w modelu (parametrowi
β0 ).
Wektor parametrów β oraz czynników losowych i również są jednokolumnowy



β =


β1
β2
..
.
βk



,


(2.29)
2.4. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW - ZAŁOŻENIA 17

i =





1
2
..
.



.


(2.30)
n
Stosując powyższy zapis, model (2.25) możemy zapisać jako
β + .
Y = Xβ
(2.31)
Analogicznie jak robiliśmy to w rozdziale poprzednim, można wyprowadzić warunki
na istnienie minimum funkcjonału χ(bb), który ma następującą postać
χ(bb) = χ(b0 , b1 , . . . , bk ) =
n
X
e2i ,
(2.32)
i=1
gdzie reszty
ei = y − b0 − b1 x1i − b2 x2i . . . − bk xki .
(2.33)
Warunkiem koniecznym istnienia ekstremum jest zerowanie się wszystkich pochodnych
cząstkowych pierwszego rzędu
∂χ(bb)
= 0, l = 1, 2, . . . , k,
∂bl
(2.34)
a warunkiem wystarczającym na istnienie minimum jest dodatnio określona macierz drugich pochodnych
∂ 2 χ(bb)
> 0.
(2.35)
∂bb2
Poniżej podamy tylko wynik obliczeń, zainteresowanych szczegółami rachunkowymi odsyłamy np. do książki [4] lub do skryptu [6].
Z powyższych warunków na minimum funkcjonału χ(bb) otrzymujemy następującą postać wektora estymatorów parametrów strukturalnych:
b = XT X
−1
XT Y,
(2.36)
gdzie XT oznacza macierz transponowaną do macierzy X, a (XT X)−1 jest macierzą odwrotną do macierzy XT X.
2.4
Klasyczna metoda najmniejszych kwadratów - założenia
Aby powyższy formalizm szacowania wartości estymatorów parametrów strukturalnych
mógł nosić nazwę klasycznej metody najmniejszych kwadratów (KMNK), muszą być spełnione pewne założenia [3, 2], co daje nam większe możliwości wnioskowania statystycznego.
18
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
1. Istnieje liniowa zależność pomiędzy zmienną objaśnianą i objaśniającymi. Zmienne
objaśniające xi są nielosowe, a ich wartości są traktowane jako stałe w powtarzających się próbkach (pomiarach).
2. Wartości oczekiwane składników losowych są równe zeru: E() = 0.
3. Wariancje składników losowych są stałe, tzn. D2 () = E( T ) = σ 2I , σ 2 < ∞.
X ) = k + 1 ¬ n, gdzie r() oznacza rząd macierzy.
4. r(X
5. Składniki losowe i , i = 1, 2, . . . , n mają rozkład normalny.
Interpretacja założeń
Pierwsze założenie o nielosowości i stałości w próbach zmiennych objaśniających oznacza, że wartości tych zmiennych są znane (założone z góry) np. chcąc zbadać wpływ
intensywności stosowania środków ochrony roślin na zbiór ziemniaków wybiera się trzy
gospodarstwa. Każdy z rolników stosuje ten sam środek ochrony roślin, ale z różną, lecz
stałą intensywnością (pierwszy rolnik spryskuje pole raz w miesiącu, drugi dwa razy a
trzeci trzy razy). Bada się ile ton ziemniaków pierwszej klasy zbierze każdy z gospodarzy. Plony ziemniaków są oczywiście zmienną losową, lecz ilość środka ochrony roślin nie,
ponieważ jest z góry ustalona.
Drugie założenie, o zerowej wartości oczekiwanej składnika losowego oznacza, że zakłócenia od poszczególnych składników losowych mają tendencję do wzajemnego znoszenia
się. Konsekwencją tego założenia jest równość E[yi |x1i , . . . , xki ] = β X, która nadaje następującą interpretację liczbową parametrom modelu: wartość parametru βl mówi o ile
średnio zmieni się wartość zmiennej objaśnianej y, gdy zmienna objaśniająca xl zmieni
się o jednostkę, przy niezmienionych wartościach pozostałych zmiennych.
Trzecie założenie oznacza jednorodność wariancji składnika losowego (tzw. homoskedastyczność). Dodatkowo, E(i , j ) = 0 (lub cov(i , j ) = 0) dla i 6= j co oznacza, że
składniki losowe są nieskorelowane, a ich rozkład jest niezależny od zmiennych objaśniających i taki sam dla wszystkich obserwacji.
Czwarte założenie mówi, że rząd macierzy zmiennych objaśniających jest mniejszy lub
równy liczbie obserwacji. Jest to założenie algebraiczne, lecz niezbędne do jednoznacznego
wyznaczenia wartości estymatorów parametrów strukturalnych.
Ostatnie, piąte założenie nie musi być spełnione w klasycznej metodzie najmniejszych
kwadratów, ale ułatwia wnioskowanie statystyczne i weryfikację modelu ekonometrycznego.
Należy podkreślić, że nie jesteśmy w stanie sprawdzić założeń dotyczących składnika
losowego przed oszacowaniem parametrów modelu. Procedurę tę wykonuje się za pomocą
odpowiednich testów statystycznych już dla otrzymanego modelu. Dlatego też czasem zdarza się, że model trzeba poprawić (zastosować inne metody estymacji) lub nawet odrzucić,
ponieważ nie są spełnione założenia KMNK.
Na koniec jeszcze jedna uwaga odnośnie nazwy powyższej metody. Słowo klasyczna
nie występuje tu przypadkowo i nie może być pominięte. Istnieją bowiem inne metody
estymacji parametrów modelu liniowego, które różnią się od KMNK i które stosuje się, gdy
któreś z założeń KMNK nie są spełnione (np. ważona metoda najmniejszych kwadratów).
2.5. TWIERDZENIE GAUSSA-MARKOWA
2.5
19
Twierdzenie Gaussa-Markowa
Twierdzenie 2.5.1. Estymator parametrów strukturalnych
b = XT X
−1
XT y
(2.37)
wyznaczony klasyczną metodą najmniejszych kwadratów jest estymatorem zgodnym, nieobciążonym i najefektywniejszym w klasie liniowych estymatorów wektora parametrów β
[4].
Wyjaśnijmy pokrótce te własności.
Estymator zgodny
Estymator b jest zgodny, jeśli że wraz ze wzrostem liczebności próby, tj. n → ∞ jest
stochastycznie zbieżny do szacowanego parametru, tzn.
lim P (|b(n) − β| < δ) = 1,
n→∞
(2.38)
gdzie δ jest dowolnie małą liczbą dodatnią, a {b(n) } ciągiem estymatorów.
Inaczej mówiąc, wraz ze wzrostem liczebności próby n prawdopodobieństwo, że estymator b różni się o dowolnie małą liczbę od estymowanego parametru β dąży do jedności.
Stąd wynika, że zwiększenie liczebności próby prowadzi do uzyskania mniejszych błędów
estymacji.
Estymator nieobciążony
Estymator jest nieobciążony, jeśli jego wartość oczekiwana jest równa wartości szacowanego parametru, tzn.
E(b) = β.
(2.39)
Estymator, który nie jest nieobciążony nazywa się obciążonym, a różnicę
Θ = E(b) − β
(2.40)
nazywa się obciążeniem estymatora.
Jeśli Θ > 0, to estymator b daje przeciętnie za wysokie oceny parametru strukturalnego
β, jeśli Θ < 0, to estymator b daje przeciętnie za niskie oceny parametru strukturalnego
β.
Estymator jest asymptotycznie nieobciążony, jeśli obciążenie estymatora dąży do zera
wraz ze wzrostem próby: lim (E(b(n) − β)) = 0.
n→∞
Estymator najefektywniejszy
Niech będzie dany zbiór m estymatorów Γl , l = 1, 2, . . . , m tego samego parametru β.
Efektywność e (Γl ) estymatora Γl to stosunek wariancji estymatora odznaczającego się
najmniejszą wariancją Γmin , do wariancji tego estymatora:
ef f (Γl ) =
σ 2 (Γmin )
.
σ 2 (Γl )
(2.41)
20
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
f
Jak łatwo można zauważyć, dla estymatora najefektywniejszego ef f Γef
l
wszystkich estymatorów mających większą wariancję ef f < 1.
2.6
= 1, a dla
Ocena stopnia dopasowania modelu ekonometrycznego do danych empirycznych
Oszacowanie parametrów modelu ekonometrycznego metodą najmniejszych kwadratów
jest zadaniem stosunkowo prostym. Większość programów statystycznych wykonuje to
zadanie prawie natychmiastowo. Jednak samo wyliczenie ocen estymatorów b nie wystarcza, aby móc formułować wnioski na podstawie otrzymanego modelu. Najpierw należy
sprawdzić, czy otrzymany model w wystarczającym stopniu wyjaśnia zachowanie zmiennej objaśnianej oraz czy jest poprawny pod względem statystycznym i merytorycznym.
Ekonometria dysponuje narzędziami do oceny stopnia dopasowania modelu teoretycznego
do danych empirycznych. Poniżej omówimy kilka z nich.
Odchylenie standardowe reszt
Dopasowanie modelu do danych empirycznych moglibyśmy ocenić na podstawie wariancji składnika losowego σ 2 (). Niestety składowe wektora (1 , . . . , n ) nie są wielkościami
obserwowanymi i wyliczenie wariancji σ 2 () jest niemożliwe. Trzeba poszukać innej drogi.
W poprzednim rozdziale wprowadziliśmy pojęcie reszt modelu (2.3), jako różnicę wartości empirycznej i teoretycznej zmiennej objaśnianej. Jeśli zapiszemy to równanie nieco
dokładniej zobaczymy, że reszty modelu będą odpowiednikami czynnika losowego:
e = y − ŷ =⇒ y = ŷ + e → Xβ + = Xb + e
(2.42)
Twierdzenie 2.6.1. W klasycznym modelu regresji liniowej nieobciążonym i zgodnym
estymatorem wariancji składnika losowego σ 2 () jest
Se2 =
n
X
1
eT e
e2 .
=
n − (k + 1)
n − k − 1 i=1 i
(2.43)
Odchylenie standardowe reszt, zwane również standardowym błędem szacunku jest definiowane jako pierwiastek z wariancji reszt
Se =
v
u
u
t
n
X
1
e2 .
n − (k + 1) i=1 i
(2.44)
We wzorach (2.43,2.44) suma kwadratów reszt nie jest dzielona przez liczebność próby
n, a przez liczebność próby pomniejszoną o liczbę zmiennych objaśniających n − (k + 1).
Wielkość ta nazywana jest stopniami swobody równania (2.25). Warto o tym pamiętać
np. podczas pisania własnych procedur do estymacji KMNK np. w programach Excel czy
Matlab, gdzie domyślnie suma kwadratów reszt dzielona jest przez liczebność próby.
Standardowy błąd estymacji informuje, o ile przeciętnie wartości teoretyczne odchylają
się od wartości empirycznych zmiennej objaśnianej. Jest więc oczywiste, że im mniejszy
jest standardowy błąd estymacji, tym lepiej model odzwierciedla rzeczywistą sytuację.
2.6. OCENA STOPNIA DOPASOWANIA MODELU EKONOMETRYCZNEGO DO DANYCH EMPIR
Macierz wariancji–kowariancji estymatorów b
Zanim przejdziemy do macierzy kowariacji estymatorów b, przypomnijmy definicję kowariancji. Kowariancja jest miarą jednoczesnej zmienności dwóch zmiennych (ang. co-vary).
Z jednej strony, kowariancja dwóch zmiennych jest dodatnia, jeśli zmieniają się one w tym
samym kierunku względem ich wartości oczekiwanej (np. obie zmienne przyjmują wartości
powyżej ich wartości oczekiwanej). Z drugiej strony, kowariancja dwóch zmiennych jest
ujemna, jeśli kierunek ich zmienności względem wartości oczekiwanych jest przeciwny (np.
jeśli jedna zmienna przyjmuje wartości powyżej jej wartości oczekiwanej, druga przyjmuje
wartości mniejsze niż wartość oczekiwana). Jeśli nie istnieje liniowa zależność pomiędzy
zmiennymi, wtedy ich kowariancja jest równa zeru.
Kowariancję dwóch zmiennych możemy zapisać w postaci:
D2 (Xi , Xj ) ≡ cov(Xi , Xj ) = E [(Xi − µi )(Xj − µj )] ,
(2.45)
gdzie µi(j) = E(Xi(j) ) jest wartością oczekiwaną zmienej Xi(j) . Można pokazać, że macierz
wariancji-kowariancji wektora estymatorów b ma postać
D2 (b) = S2e XT X
−1
.
(2.46)
Elementy diagonalne djj , j = 1, . . . , k macierzy kowariancji są wariancjami estymatorów
bi , a ich pierwiastki kwadratowe noszą nazwę standardowych błędów szacunku Sbj
parametrów βj
q
(2.47)
Sbj = djj .
Standardowy błąd szacunku Sbj informuje nas o ile średnio wartość estymatora bj oszacowanego KMNK różni się od prawdziwej wartości parametru βj . Wynika stad, że im
większy błąd szacunku, tym bardziej wynik estymacji różni się od prawdziwej wartości
parametru strukturalnego. Dlatego istotne jest, aby wartość Sbj była jak najmniejsza. W
szczególności ważne jest, aby Sbj nie było porównywalne (tego samego rzędu) z bj . W
pracy [2] autorzy sugerują, że standardowy błąd szacunku nie powinien być większy niż
50% dla dużych prób (gdy liczba stopni swobody jest większa niż 20).
Błędy względne estymatorów
Kolejną wielkością, która niesie informację o stopniu dopasowania modelu do danych jest
błąd względny estymatora bi
V (bi ) =
S(bi )
· 100%.
|bi |
(2.48)
Przyjmuje się, że granicą dopuszczalności błędu jest V (bi ) ¬ 50%.
Współczynnik determinancji i współczynnik zbieżności
W poprzednim rozdziale zdefiniowaliśmy, jako miarę dopasowania modelu do danych,
wariancję reszt. Miara ta, mimo iż jest bardzo dobra, jest dość niewygodna w użyciu
ze względu na fakt, że wyrażona jest w jednostkach zmiennej objaśnianej. Dodatkowo,
22
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
wariancja reszt skaluje się razem ze zmiennymi, tzn. załóżmy, że zmienna objaśniana i
objaśniająca wyrażone są w PLN: X[P LN ], Y [P LN ]. Wtedy Se również będzie wyrażone
w tych jednostkach np. Se = 10PLN. Jeżeli jednak wyrazimy zmienną objaśniającą w
P LN , a objaśnianą w tysP LN wtedy Se = 0.01tys PLN. To powoduje, że na pierwszy rzut
oka model stał się lepiej dopasowany, co oczywiście jest nieprawdą. Dlatego lepiej stosować
miary dopasowania, które nie zależą od jednostek, w których wyrażone są zmienne. Taką
miarą jest współczynnik determinancji R2 .
Współczynnik determinancji
n
X
e2i
i=1
.
R2 = 1 − X
n
2
(yi − y)
(2.49)
i=1
Zanim omówimy znaczenie R2 wprowadźmy następujące oznaczenia:
T SS =
ESS =
n
X
(yi − ȳ) - (Total Sum of Squares) całkowita zmienność zmiennej objaśnianej,
i=1
n
X
(ŷi − ȳ) - (Explained Sum of Squares) część zmienności zmiennej objaśnianej
i=1
wytłumaczonej przez model,
RSS =
n
X
e2i - (Residual Sum of Squares) część zmienności zmiennej objaśnianej nie
i=1
wytłumaczonej przez model.
Zachodzi przy tym zależność
T SS = ESS + RSS.
(2.50)
Jeśli zapiszemy równanie (2.49) w postaci
R2 =
ESS
,
T SS
(2.51)
to od razu widzimy interpretację współczynnika determinancji. Określa on, w jakim stopniu model tłumaczy zmienność zmiennej objaśniającej. Wartości R2 należą do przedziału
[0; 1]. Jeśli R2 = 0, to model w ogóle nie opisuje zmienności zmiennej objaśnianej, jeśli
R2 = 1 - model całkowicie tłumaczy zmienność zmiennej objaśnianej.
Współczynnik zbieżności
Współczynnik zbieżności określa, jaka część całkowitej zmienności zmiennej objaśnianej,
jaka nie została wyjaśniona przez model
2
Pn
φ = Pn
2
i=1 ei
i=1 (yi
−
y)2
=
RSS
T SS
(2.52)
φ2 przyjmuje również wartości z przedziału [0; 1], przy czym możemy go określić szybko
na podstawie zależności φ2 = 1 − R2 .
2.6. OCENA STOPNIA DOPASOWANIA MODELU EKONOMETRYCZNEGO DO DANYCH EMPIR
Niescentrowany współczynnik determinancji
Współczynnik determinancji określony równaniem (2.49) jest dobrą miarą jedynie dla
modelu liniowego, który zawiera wyraz wolny (b0 ). Jeśli model nie będzie zawierał wyrazu wolnego (ale jest modelem liniowym), należy zastosować jako miarę dopasowania
niescentrowany współczynnik determinancji
2
RN
Pn
e2i
2
i=1 yi
= 1 − Pni=1
(2.53)
Skorygowany współczynnik determinancji
Wyobraźmy sobie sytuację, że oszacowaliśmy KMNK model liniowy oraz sprawdziliśmy
dopasowanie modelu do danych za pomocą współczynnika determinancji na poziomie
R2 = 0.6. Uważamy, że takie dopasowanie modelu jest zbyt małe i chcemy dodać do
modelu nową zmienną objaśniającą. Wyznaczamy zatem nowy model wzbogacony o tą
zmienną i obliczamy współczynnik determinancji. Okazuje się, że w takim przypadku, nie
możemy porównać współczynników determinancji dla modeli z k oraz k + 1 zmiennymi
objaśniającymi. Przyczyną tego jest fakt, że współczynnik determinancji nie jest odporny na wprowadzenie kolejnej zmiennej, tzn. nawet jeśli nowa zmienna nie wniesie żadnej
informacji do modelu, R2 może wzrosnąć dając nam błędną informację o stopniu dopasowania modelu (w populacji) do danych. Taki efekt nazywa się efektem katalizy. W
przypadku, gdy chcemy porównywać modele z tą samą zmienną objaśnianą i różną liczbą
zmiennych objaśniających (różną liczbą stopni swobody) powinniśmy użyć skorygowanego
współczynnika determinancji R̄2
n
X
R̄2 = R2 −
e2i /(n − k − 1)
k
i−1
,
(1 − R2 ) = 1 − X
n
n−k−1
2
(yi − ȳ) /(n − 1)
(2.54)
i=1
gdzie n − k − 1 jest liczbą stopni swobody (n−liczebność próby, k−liczba zmiennych
objaśniających).
Skorygowany współczynnik determinancji ma jednak pewne wady: może przyjmować
wartości ujemne oraz nie możemy go interpretować jako części zmienności zmiennej objaśnianej wyjaśnionej przez model.
Współczynnik korelacji wielorakiej
Współczynnik korelacji wielorakiej
R, będący pierwiastkiem kwadratowym ze współczyn√
nika determinancji R = R2 , interpretuje się jako siłę związku liniowego pomiędzy zmienną objaśnianą a wszystkimi zmiennymi objaśniającymi.
24
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
Tabela 2.1: Typowe wartości przyjmowane przez współczynnik determinancji R2 . Źródło
[4].
modele oparte na danych przekrojowych
(np.dane dotyczące przedsiębiorstw lub gospodarstw domowych) 0.05-0.4
modele oparte na zagregowanych danych przekrojowych
(np. statystyki międzynarodowe)
0.3-0.7
modele szeregów czasowych dla danych
rocznych lub kwartalnych
> 0.9
modele oparte na przyrostach zmiennych makroekonomicznych
0.7-0.9
2.7
Zadania
Zadanie 1
W tabeli 2.2 podano trzy wektory reszt modelu oszacowanego różnymi metodami. Odpowiedz na pytanie, który z modeli został oszacowany metodą najmniejszych kwadratów.
Odpowiedź uzasadnj.
e1i
3
4
-2
4
-1
0
4
-7
2
7
4
2
5
-2
e2i
6
2
4
-5
-2
3
9
-1
2
-5
-2
7
4
3
e3i
7
2
-2
4
-3
-5
-3
7
6
3
1
6
2
3
Tabela 2.2: Wektory reszt dla modelu ekonometrycznego oszacowanego trzema różnymi
metodami.
2.8
KMNK w Statistica
W tym rozdziale zapoznamy się z podstawowymi narzędziami dostępnymi w programie
Statistica służącymi do oszacowania parametrów modelu KMNK. Posłużymy się przykładem, w którym będziemy chcieli odpowiedzieć na pytanie, jaki wpływ na sprzedaż
produktu ma jego cena oraz środki przeznaczone na reklamę. Dane do analizy zamieszczone są w Tabeli 10.1 w rozdziale 10.
2.8. KMNK W STATISTICA
2.8.1
25
Wykres rozrzutu
Pierwszym krokiem, który zawsze należy zrobić przed rozpoczęciem estymacji parametrów
modelu jest analiza wykresów rozrzutu wartości zmiennej objaśnianej względem zmiennych objaśniających. To bardzo proste narzędzie pozwala, na podstawie wzrokowej oceny,
na wyciągnięcie wielu informacji na temat zależności pomiędzy zmiennymi np. ocenić czy
istnieje widoczna zależność pomiędzy zmiennymi oraz czy zależność ta ma charakter liniowy czy nieliniowy. Wykresy rozrzutu w programie Statistica możemy zrobić wybierając z
menu Wykresy → Wykresy 2W → Wykresy rozrzutu. Wybierając tę opcję na ekranie
pojawi się okno wyboru zmiennych i opcji do wykresu (Rysunek 2.2).
Rysunek 2.2: Okno kreatora wykresu rozrzutu w programie Statistica.
Aby wybrać zmienne, dla których chcemy zrobić wykresy klikamy na przycisk Zmienne.
Jako zmienną X wybieramy obydwie zmienne objaśniające (trzymając klawisz Ctrl) tj.
Wydatki reklama i Indeks ceny (Rysunek 2.3), a jako zmienną Y sprzedaż, czyli zmienną objaśnianą. Wybierając obydwie zmienne objaśniające jednocześnie, otrzymamy dwa
wykresy rozrzutu dla każdej z osobna.
Rysunek 2.3: Okno kreatora wykresu rozrzutu w programie Statistica.
W efekcie otrzymujemy dwa wykresy rozrzutu z automatycznie dopasowaną przez
Statistica krzywą regresji.
Na podstawie wykresów 2.4 i 2.5 możemy stwierdzić, że w pierwszym przypadku zależność pomiędzy zmienną Sprzedaż a Indeks ceny jest silna i ujemna (im większa cena
produktu tym mniejsza jego sprzedaż), natomiast zależność liniową pomiędzy Sprzedażą
26
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
Rysunek 2.4: Wykres rozrzutu zmiennej Sprzedaż względem zmiennej Indeks ceny wraz z
dopasowaną krzywą regresji. Równanie dopasowanej krzywej znajduje się nad wykresem.
a Wydatkami na reklamę jest raczej słaba.
W ten sam sposób robimy wykres rozrzutu zmiennych objaśniających względem siebie.
Pozwoli on nam ocenić, czy zmienne objaśniające są ze sobą w jakiś sposób związane.
Wykres pokazano na Rysunku 2.6. Punkty na wykresie rozmieszczone są losowo i nie
układają się w żaden szczególny wzór co oznacza, że nie ma związku liniowego (przynajmniej dokonując wzrokowej oceny) pomiędzy zmiennymi Indeks ceny i Wydatki na
reklamę. Taki związek byłby oczywiście niepożądany (patrz założenia KMNK).
2.8.2
Szacowanie parametrów modelu
Oszacowania wartości parametrów modelu za pomocą metody najmniejszych kwadratów
dokonuje się wybierając z menu Statystyka → Regresja wieloraka. Pojawi się nam
na ekranie okno wyboru zmiennych zależnych i niezależnych (Rysunek 2.7), w którym
jako zmienną zależną wybieramy Sprzedaż a jako niezależne Indeks ceny oraz Wydatki na
reklamę (Rysunek 2.8).
Następnie wybieramy w oknie regresji OK, w wyniku czego otrzymujemy okno z wynikami regresji (Rysunek 2.9).
W oknie Wyniki regresji wielorakiej pojawia się wiele wielkości, których wartości
trzeba zinterpretować:
• współczynnik korelacji wielorakiej R
• współczynnik determinancji R2
2.8. KMNK W STATISTICA
27
Rysunek 2.5: Wykres rozrzutu zmiennej Sprzedaż względem zmiennej Wydatki na reklamę
wraz z dopasowaną krzywą regresji. Równanie dopasowanej krzywej znajduje się nad
wykresem.
• skorygowany współczynnik determinacji P opraw.R2
• wartość statystyki F oraz p-wartość dla testu F
• błąd standardowy estymacji
Na podstawie R oraz R2 (0.95) możemy stwierdzić bardzo dobre dopasowanie modelu
regresji do danych empirycznych. Ponadto wszystkie zmienne są statystycznie istotne
(podświetlone na czerwono, patrz rozdział 2.8.3), oraz cały model jest statystycznie istotny
(p-wartość dla testu F jest mniejsza od poziomu istotności α = 0.05). Wybierając opcję
Podsumowanie regresji otrzymamy arkusz wyników przedstawiony na Rysunku 2.10.
Jak widać, wszystkie parametry modelu są statystycznie istotne (podświetlenie na
czerwono), z p-wartością dla testu t-Studenta (patrz rozdział 2.8.3) podaną w ostatniej
kolumnie. Wyraz wolny jest również istotny statystycznie. Możemy zatem zapisać nasz
model w formie matematycznej
ŷ = 118.91 + 7.91 · Indeks ceny + 1.86 · Wydatki reklama ± 4.886
(2.55)
Standardowe błędy szacunku parametrów są małe w przypadku zmiennej Indeks ceny
(≈ 1.1) i zmiennej Wydatki reklama (≈ 0.68) i akceptowalne w przypadku wyrazu wolnego (≈ 6.35).
Otrzymany model możemy zinterpretować następująco:
28
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
Rysunek 2.6: Wykres rozrzutu zmiennej Indeks ceny względem zmiennej Wydatki na
reklamę wraz z dopasowaną krzywą regresji. Równanie dopasowanej krzywej znajduje się
nad wykresem.
zwiększając (zmniejszając) indeks ceny o jednostkę, średnia sprzedaż maleje (wzrasta) o
7.91, przy pozostałych parametrach (wydatki na reklamę) nie zmienionych. Zwiększając
(zmniejszając) wydatki na reklamę o jednostkę, średnia sprzedaż rośnie (maleje) o 1.86,
przy niezmienionych wartościach pozostałych zmiennych. Ocena b0 różni się średnio od
parametru β0 o 6.35, ocena b1 różni się średnio od β1 o 1.1, a ocena b2 różni się średnio od
β2 o 0.68. Szacując cały model, mylimy się średnio o 4.89. Z powyższego modelu możemy wywnioskować, że większy wpływ na konsumpcję ma cena produktu, a nie dochody.
Zwróćmy również uwagę, że ta tendencja jest już widoczna na etapie tworzenia wykresów rozrzutu (Rysunek 2.4 i 2.5), gdzie zaobserwowaliśmy silny związek liniowy pomiędzy
konsumpcją i ceną, a słaby związek pomiędzy konsumpcją a dochodem.
2.8.3
Statystyczna istotność modelu
Program Statistica automatycznie wykonuje testy istotności statystycznej zarówno całego
modelu, jak i poszczególnych jego składników. Wyniki tych testów otrzymujemy w postaci
wartości statystyki i p-wartości, która jest znacznie wygodniejsza w użyciu.
2.8. KMNK W STATISTICA
Rysunek 2.7: Okno regresji wielorakiej.
Rysunek 2.8: Wybór zmiennych do modelu regresji.
Rysunek 2.9: Okno z wynikami oszacowania parametrów modelu MNK.
29
30
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
Rysunek 2.10: Okno podsumowania regresji wielorakiej w Statistica.
Testowanie istotności całego modelu
Ten test bada jednoczesną istotność statystyczną całego układu zmiennych objaśniających, a stawiane hipotezy dotyczą zestawu parametrów. Hipoteza zerowa
H0 : β0 = β1 = β2 = . . . = βk = 0,
(2.56)
[czyt. wszystkie parametry strukturalne modelu są, statystycznie, równe zeru (nieistotne
statystycznie różne od zera)], jest testowana wobec hipotezy alternatywnej
H1 : ∨i∈{0,1,2,...,k} βi 6= 0,
(2.57)
(czyt. przynajmniej jeden z parametrów strukturalnych jest różny od zera). Statystyka
testowa
n − k − 1 R2 − 1
(2.58)
F =
k
R2
ma rozkład F Snedecora z m1 = k i m2 = n − k − 1 stopniami swobody (R2 jest współczynnikiem determinancji). Jeśli wartość statystyki F wyznaczonej na podstawie próby,
dla przyjętego poziomu istotności α, jest większa od wartości krytycznej F ∗ , czyli F ­ F ∗
to hipotezę zerową odrzucamy na rzecz hipotezy alternatywnej. Jeśli F < F ∗ to nie ma
podstaw do odrzucenia H0 . Ponieważ odczytywanie wartości krytycznych statystyki jest
kłopotliwe, stosuje się p wartość jako wyznacznik do odrzucenia bądź przyjęcia hipotezy
zerowej. Jeżeli:
p ¬ α odrzucamy H0 ,
p > α nie ma podstaw do odrzucenia H0 .
(2.59)
W naszym przykładzie (Rysunek 2.10) p < 0.0000, czyli jest mniejsze od przyjętego
poziomu istotności α = 0.05 (wartość domyślnie stosowana w programie Statistica), więc
odrzucamy hipotezę zerową (2.56) o wszystkich parametrach (statystycznie) równych zeru,
na rzecz hipotezy alternatywnej H1 .
Testowanie istotności statystycznej pojedynczej zmiennej
Istotność statystyczna całego modelu nie oznacza automatycznie statystycznej istotności
wszystkich jego składników. Do testowania istotności statystycznej jednej zmiennej stosuje
się test t-Studenta (jest to również test parametryczny). Test ma za zadanie stwierdzić,
2.8. KMNK W STATISTICA
31
czy dana zmienna objaśniająca ma istotny wpływ na zmienną objaśnianą. Podobnie jak
w poprzednim przypadku, w programie Statistica, test jest wykonywany automatycznie i
prezentowane są tylko jego wyniki. Statystyka testowa:
tbi =
bi
Sbi
(2.60)
ma rozkład t Studenta z n−k −1 stopniami swobody, gdzie bi - jest wartością estymatora,
a Sbi jest jego odchyleniem standardowym.
Jeśli dla przyjętego poziomu istotności α
|tbi | ­ t∗α , odrzucamy H0 , zmienna jest statystycznie istotna,
(2.61)
∗
|tbi | < tα , nie ma podstaw do odrzucenia H0 , zmienna jest statystycznie nieistotna.
Analogicznie jak dla testu F , jeśli obliczona p wartość jest mniejsza od poziomu istotności
p ¬ α to odrzucamy H0 , w przeciwnym razie nie ma podstaw do odrzucenia H0 .
32
ROZDZIAŁ 2. KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW
Rozdział 3
Weryfikacja założeń KMNK
W poprzednim rozdziale oszacowaliśmy metodą najmniejszych kwadratów parametry modelu ekonometrycznego. Jak już napisaliśmy w rozdziale 2.4, aby metoda najmniejszych
kwadratów była klasyczną metodą najmniejszych kwadratów, muszą być spełnione założenia KMNK. W tym rozdziale dokonamy weryfikacji założeń KMNK bazując na modelu
z poprzedniego rozdziału. Trzeba podkreślić, że analiza założeń KMNK nie jest tylko
formalnym zabiegiem pozwalającym na dopisanie do nazwy Metoda Najmniejszych Kwadratów przymiotnika klasyczna. Jest ona weryfikatorem poprawności całego modelu i bez
wykonania analizy składnika losowego, a konkretniej reszt modelu które są estymatorami
składników losowych, wyciąganie jakichkolwiek wniosków na temat modelowanego zjawiska jest nieuzasadnione i nie ma żadnego sensu. Praktyka zawodowa powinna być taka,
że po otrzymaniu końcowej wersji modelu, od razu przystępujemy do analizy reszt.
Zgodnie z założeniami KMNK, musimy sprawdzić, czy reszty modelu spełniają założenia losowości,stałości wariancji, braku skorelowania i normalności rozkładu
oraz czy wartość średnia reszt jest równa zeru. Analizę reszt w Statistica wykonujemy wybierając w oknie wyników regresji zakładkę Reszty,założenia,predykcja (Rysunek
3.1).
Po wybraniu tej zakładki pojawi się okno, w którym wybieramy opcję wykonaj analizę
reszt.
W efekcie pojawia się okno z opcjami analizy reszt (Rysunek 3.2).
3.1
Wartość średnia reszt
Wartość średnią reszt możemy sprawdzić wybierając w zakładce Podstawowe w oknie
analizy reszt (Rysunek 3.2) opcję Podsumowanie: Reszty i przewidywane. Otrzymamy
tabelę za wartościami reszt oraz wyliczoną średnią reszt (estymator wartości oczekiwanej
składnika losowego) i inne statystyki opisowe. Jak widać z Rysunku 3.3, średnia z reszt
jest równa zeru, więc podstawowa konsekwencja założeń KMNK jest spełniona.
33
34
ROZDZIAŁ 3. WERYFIKACJA ZAŁOŻEŃ KMNK
Rysunek 3.1: Okno podsumowania regresji. Analiza reszt dostępna w zakładce Reszty,założenia,predykcja.
Rysunek 3.2: Opcje zakładki Reszty,założenia,predykcja.
3.2
Badanie losowości
Weryfikacja tego założenia ma na celu zbadanie poprawności postaci analitycznej modelu.
Do tego celu możemy wykorzystać zarówno wzrokową ocenę rozkładu reszt, jak i testy
statystyczne. W pierwszym przypadku, jeśli reszty modelu spełniają założenie losowości,
to na wykresie reszt w funkcji wartości obserwowanych (zarówno dla zmiennych objaśniających, jak i zmiennej objaśnianej) reszty powinny układać się w miarę losowo i nie
wykazywać regularności (np. kolejnych serii reszt dodatnich i ujemnych). Na Rysunku
3.4 pokazano wykres reszt modelu względem empirycznych wartości zmiennej objaśniającej. Reszty rozkładają się nieregularnie więc możemy sądzić, że założenie losowości jest
spełnione.
Podobnie sytuacja wygląda na wykresach reszt względem zmiennych objaśniających
(Rysunek 3.5 i 3.6): nie widzimy żadnych regularności. Możemy zatem przyjąć losowy
charakter reszt.
Test serii
Jeśli na podstawie wykresów reszt względem zmiennych obserwowanych nie potrafimy
jednoznacznie stwierdzić czy ich charakter jest losowy, możemy skorzystać z testu serii.
3.2. BADANIE LOSOWOŚCI
35
Rysunek 3.3: Podsumowanie analizy reszt. Pod podwójną kreską znajdują się niektóre
statystyki opisowe. Średnia z reszt modelu jest równa zeru.
Procedura testowa jest następująca:
• porządkujemy reszty niemalejąco względem wybranej zmiennej objaśniającej (lub
czasowej jeśli taka występuje)
• jeśli reszta ma wartość ujemną (dodatnią) oznaczamy ją symbolem A (B). W wyniku
tej operacji otrzymamy naprzemiennie serie znaków A i B.
• zliczamy liczbę serii dodatnich i ujemnych, a następnie z tablic testu serii dla liczby
n1 reszt dodatnich i liczby n2 reszt ujemnych odczytujemy wartości krytyczne S1∗ i
S2∗ dla poziomu istotności odpowiednio α2 i 1− α2 (test serii jest testem dwustronnym)
• stawiamy hipotezę zerową o losowym doborze jednostek do próby (o w przypadku
modelu normalnego prowadzi do hipotezy o liniowej postaci modelu)
H0 : yi = β0 + β1 x1i + . . . + βk xki + i
(3.1)
wobec hipotezy alternatywnej
H1 : yi 6= β0 + β1 x1i + . . . + βk xki + i
(3.2)
• jeżeli całkowita liczba serii (suma serii dodatnich i ujemnych) S spełnia warunek
S1∗ ¬ S ¬ S2∗ to nie ma podstaw do odrzucenia hipotezy (3.1) o losowości reszt, w
przeciwnym razie hipotezę zerową należy odrzucić.
36
ROZDZIAŁ 3. WERYFIKACJA ZAŁOŻEŃ KMNK
Rysunek 3.4: Wykres reszt modelu względem obserwowanych wartości zmiennej objaśnianej.
3.3
Badanie normalności rozkładu składnika losowego
Jak już wcześniej napisaliśmy, założenie o normalności rozkładu składnika losowego nie
jest konieczne do stosowania KMNK. Jego niespełnienie utrudnia jednak wnioskowanie
statystyczne. Dokładniej mówiąc, chodzi o test t Studenta i test F , których użyliśmy
do sprawdzenia istotności całego modelu (test F ) i jego poszczególnych składników (test
t). Testy te są tzw. testami parametrycznymi, które mają dużą moc testu, lecz testowana zmienna powinna mieć rozkład normalny. Co prawda testy te są odporne na małe
odchylenia od normalności, lecz jeśli odchylenia są znaczne, wtedy oceny istotności współczynników regresji mogą być zaburzone.
Zgodność rozkładu reszt z rozkładem normalnym możemy sprawdzić na dwa sposoby:
wybierając opcję Reszty, założenia predykcja→Podstawowe→Wykres normalności
reszt. Otrzymamy wykres z prostą normalności oraz resztami (Rysunek 3.7). Im bliżej
prostej będą układały się punkty, tym rozkład reszt bardziej będzie zbliżony do normalnego. W tym przypadku trudno dopatrzeć się poważnych odstępstw od rozkładu normalnego.
Drugim sposobem zbadania normalności rozkładu jest użycie testu statystycznego.
Bardzo często stosowanym testem normalności (jest to tzw. test zgodności) jest test
Shapiro-Wilka. Jest to test nieparametryczny i może być stosowany dla małych prób, lub
dla przypadków gdy wymagania testów parametrycznych nie są spełnione. W Statistica.
do badania normalności możemy użyć również nieparametrycznych testów KołmogorowaSmirnowa (K-S) i testu Lillieforsa. Test opiera się na porównaniu rozkładu w próbie z
teoretycznym rozkładem normalnym przy założeniu, że znamy średnią i odchylenie standardowe w populacji. Jeśli ten warunek nie jest spełniony stosuje się test Lillieforsa (zwany
3.4. BADANIE AUTOKORELACJI
37
Rysunek 3.5: Wykres reszt modelu względem obserwowanych wartości zmiennej Wydatki
na reklamę.
inaczej testem K-S z poprawką Lillieforsa). Najpierw musimy jednak skopiować obliczone
w procesie analizy reszt wartości reszt. Wracamy do arkusza reszt, zaznaczamy odpowiednią kolumnę i klikając prawym przyciskiem myszy, z menu podręcznego wybieramy Kopiuj
z nagłówkami. Wracamy do arkusza danych i w menu Wstaw wybieramy Dodaj zmienne. Pojawi się okno specyfikacji zmiennej (Rysunek 3.8), w którym jako nazwę zmiennej
wpisujemy Reszty, a w polu Wstaw po wpisujemy nazwę zmiennej Wydatki reklama.
Test Shapiro-Wilka znajdziemy wybierając w menu Statystyka → Statystyki podstawowe
i tabele → Normalność. Wybieramy zmienną Reszta, zaznaczmy opcje testy normalności
K-S i Lillieforsa oraz test Shapiro-Wilka, a następnie klikamy przycisk Histogramy.
W efekcie otrzymamy histogram z dopasowaną krzywą normalną (Rysunek 3.10) oraz obliczone wartości statystyk i p-wartości dla testów Kołmogorowa-Smirnowa, Lillieforsa i
Shapiro-Wilka (u góry wykresu, Rysunek 3.10). Zgodnie z definicją, ponieważ p ­ α nie
mamy podstaw do odrzucenia hipotezy zerowej o normalności rozkładu reszt. Czytelnika
zainteresowanego pozostałymi opcjami okna Normalność odsyłamy do pozycji [5].
3.4
Badanie autokorelacji
Autokorelacja składnika losowego oznacza, że wartości reszt modelu nie są od siebie niezależne. Jeśli reszta ei jest skorelowana z resztą ei±1 to mówimy o autokorelacji pierwszego
rzędu. Analogicznie, korelacja pomiędzy resztami ei oraz ei±k oznacza autokorelację ktego rzędu.
Występowanie autokorelacji wynika z pewnej bezwładności zjawisk ekonomicznych, dlatego często obserwowana jest dla danych w postaci szeregów czasowych i nie zawsze wynika
38
ROZDZIAŁ 3. WERYFIKACJA ZAŁOŻEŃ KMNK
Rysunek 3.6: Wykres reszt modelu względem obserwowanych wartości zmiennej Indeks
ceny.
z błędów modelowania danego zjawiska. Autokorelacja składnika losowego może wynikać
również z nieuwzględnienia w modelu (jako zmiennej objaśniającej) opóźnionej zmiennej
objaśnianej, ze złej postaci funkcyjnej modelu lub ze złej jakości danych statystycznych
[2].
Jako miarę autokorelacji składnika losowego wykorzystuje się współczynnik autokorelacji. W niniejszym podręczniku ograniczymy się jedynie do autokorelacji pierwszego rzędu.
Wtedy współczynnik autokorelacji z próby ρ̂ pomiędzy resztą ei a ei−1 dany jest wzorem:
n
X
ρ̂ =
ei ei−1
i=1
n
X
e2i
i=1
n
X
!1/2 .
(3.3)
e2i−1
i=1
Współczynnik ρ̂ przyjmuje wartości z przedziału [−1; 1].
Autokorelację pierwszego rzędu składnika losowego możemy zbadać za pomocą testu
Durbina-Watsona. Test ten w programie Statistica jest dostępny w menu analizy reszt
w zakładce Więcej→Statystyka Durbina-Watsona. Po wybraniu tej opcji otrzymamy
wyliczony współczynnik autokorelacji (Rysunek 3.11) oraz wartość statystyki d D-W:
X
d=
(ei − ei−1 )2
i=1,n
X
e2i
(3.4)
i=1,n
Wnioskowanie na podstawie tej statystyki jest dość złożone i nie zawsze daje się rozstrzygnąć czy autokorelacja występuje. Dodatkowo, wymagane jest aby analizowany model
3.4. BADANIE AUTOKORELACJI
39
Rysunek 3.7: Wykres normalności reszt. Im punkty bardziej odległe od prostej, tym mniejsza zgodność rozkładu reszt modelu z rozkładem normalnym.
Rysunek 3.8: Okno dodawania zmiennych do arkusza.
miał wyraz wolny, składniki resztowe miały rozkład normalny, liczba obserwacji była
większa niż 15 oraz aby w modelu nie występowała jawna opóźniona zmienna objaśniana
w charakterze zmiennej objaśniającej.
Procedura testowania wymaga odczytania z tablic górnej dU i dolnej dL wartości krytycznej, a następnie porównania ich z wartością statystyki wyznaczonej z próby (3.4).
Przypadek ρ̂ < 0
Jeśli ρ̂ < 0, to testujemy hipotezę zerową H0 :ρ = 0 wobec hipotezy alternatywnej H1 :ρ <
0. Jeżeli:
• d ¬ 4 − dU , nie ma podstaw do odrzucenia H0 (brak autokorelacji)
• d ­ 4 − dL , odrzucamy H0 (autokorelacja dodatnia)
40
ROZDZIAŁ 3. WERYFIKACJA ZAŁOŻEŃ KMNK
Rysunek 3.9: Okno wyboru testu normalności.
• 4 − du < d < dL , test D-W nie daje rozstrzygnięcia
Przypadek ρ̂ > 0
Jeśli ρ̂ > 0, to testujemy hipotezę zerową H0 :ρ = 0 wobec hipotezy alternatywnej H1 :ρ >
0. Jeżeli:
• d ­ dU , nie ma podstaw do odrzucenia H0 (brak autokorelacji)
• d ¬ dL , odrzucamy H0 (autokorelacja dodatnia)
• dL < d < dU , test D-W nie daje rozstrzygnięcia
W przypadku naszego modelu liczebność próby n = 75, liczba zmiennych niezależnych
k = 2. Odczytane z tablic wartości krytyczne dL = 1.57 i dU = 1.68, a współczynnik
autokorelacji ρ̂ = −0.094. Wobec powyższego, zachodzi związek d < 4 − dU i nie ma
podstaw do odrzucenia hipotezy zerowej o braku autokorelacji.
3.5
Badanie homoskedastyczności
Homoskedastyczność, inaczej stałość wariancji, jest kolejnym założeniem KMNK które
musimy zweryfikować. Fakt występowania heteroskedastyczności nie zawsze oznacza zły
wybór modelu lub niską jakość danych statystycznych. Zdarza się, np. w medycynie przy
badaniu zależności temperatury ciała od stężenia γ-globuliny, że wariancja nie jest stała
[5]. Dlatego, jak już podkreśliliśmy, niezwykle istotne jest posiadanie przynajmniej podstawowej wiedzy na temat badanego zjawiska.
Bardzo często stosuje się w tym celu ocenę wzrokową rozkładu reszt względem wartości przewidywanych (teoretycznych) lub kwadratów reszt względem wartości przewidywanych. Opcja druga, jeśli występuje heteroskedastyczność (wariancja nie jest stała)
powinna dodatkowo wzmocnić efekt i ułatwić jego zaobserwowanie.
3.5. BADANIE HOMOSKEDASTYCZNOŚCI
41
Rysunek 3.10: Histogram reszt modelu wraz z dopasowaną krzywą normalną. Nad wykresem obliczone wartości statystyk i p-wartości dla testów Kołmogorowa-Smirnowa, Lillieforsa i Shapiro-Wilka. Nie ma podstaw do odrzucenia hipotezy o normalności rozkładu
reszt.
Rysunek 3.11: Wartość statystyki Durbina-Watsona (D-W) oraz wyliczony współczynnik
autokorelacji.
Test Goldfelda - Quandt’a
Jest to test parametryczny, w którym przyjmuje się jako założenie, że wariancja reszt
wzrasta wraz ze wzrostem kwadratu zmiennej objaśniającej, która jest źródłem heteroskedastyczności (którą podejrzewamy o jej wywołanie). Algorytm testowania jest następujący:
1. Porządkujemy niemalejąco reszty względem zmiennej objaśniającej, którą podejrzewamy o wywołanie heteroskedastyczności.
2. Tak otrzymany wektor reszt dzielimy na trzy podgrupy, z czego dwie skraje mają
taką samą liczność ñ = (n − c)/2, gdzie c jest licznością grupy środkowej (liczność
grup skrajnych musi być większa niż liczba zmiennych objaśniających).
3. Dla każdej ze skrajnych podgrup l = 1, 2 oblicza się sumę kwadratów reszt Sl2 =
1
el .
ñ−k−1 i
42
ROZDZIAŁ 3. WERYFIKACJA ZAŁOŻEŃ KMNK
Rysunek 3.12: Opcje zakładki Wykr. rozrzutu. w analizie reszt.
Rysunek 3.13: Wykres reszt względem wartości przewidywanych (teoretycznych). Wzrokowa ocena sugeruje stałość wariancji.
4. Obliczamy iloraz
S22
,
S12
który ma rozkład F Snedecora z m1 = m2 = ñ − k − 1 stopniami swobody.
R=
(3.5)
5. Testujemy prawdziwość hipotezy zerowej H0 : σ1 = σ2 wobec alternatywnej H1 :
σ1 6= σ2
Jeśli R < F ∗ to nie ma podstaw do odrzucenia hipotezy H0 - składnik losowy jest
homoskedastyczny, jeśli R ­ F ∗ odrzucamy H0 na rzecz H1 - występuje heteroskedastyczność składnika losowego.
Przeprowadzenie testu Goldfelda-Quandt’a w Statistica jest bardzo proste. Zaznaczamy
kolumnę jednej zmiennej objaśniającej i kolumnę reszt. Następnie z menu Dane wybieramy opcję Sortuj po czym wybieramy obie zmienne do sortowania (w oknie sortowania)
3.5. BADANIE HOMOSKEDASTYCZNOŚCI
43
i opcję rosnąco. Tak posortowane reszty dzielimy na dwie grupy (opis poniżej) i wybierając Statystyka→Statystyki podstawowe i tabele wybieramy Statystyki opisowe
i zakładkę Więcej. Zaznaczamy opcję Wariancja (Rysunek 3.14).
Rysunek 3.14: Okno statystyk podstawowych. Do wyboru przypadków dla których chcemy
obliczyć statystyki służy opcja Select Cases .
Aby wyliczyć wariancję dla poszczególnych podgrup, skorzystamy z opcji wyboru przypadków Select Cases. Po jej wybraniu wyświetli się okno z warunkami selekcji przypadków (Rysunek 3.15). Selekcji możemy dokonać na dwa sposoby: albo wybierając przypadki, dla których chcemy przeprowadzić obliczenia (Włącz przypadki) albo wybierając
przypadki, które chcemy wykluczyć z analizy (Wyłącz przypadki).
Z naszej próby wybraliśmy dwie podgrupy o liczności ñ = 30. Zaznaczamy więc
opcję Włącz przypadki→Określone przez i w polu Numer przypadku wpisujemy zakres pierwszej podgrupy 1 − 30 (Rysunek 3.15). Wyliczona w ten sposób wariancja S12 =
22.7894. Analogicznie, dla drugiej grupy wpisujemy przypadki 46 − 75 i otrzymujemy
wariancję S22 = 23.998 (Rysunek 3.16).
Następnie obliczamy iloraz R = S22 /S12 = 1.053. Pozostaje jeszcze wyliczenie wartości
krytycznej statystyki F Snedecora. Możemy to zrobić za pomocą wbudowanego modułu
Statystyka → Kalkulator prawdopodobieństwa (Rysunek 3.17). Wybieramy z listy
rozkład F , następnie zaznaczamy opcję Oblicz X z p oraz ustalamy poziom istotności
na poziomie α = 0.05 (w kalkulatorze prawdopodobieństwa zaznaczamy opcję 1-p oraz w
polu p: wpisujemy 0.05 (patrz Rysunek 3.17). W polach liczby stopni swobody df 1 i df 2
wpisujemy 27 (ñ − k − 1 = 27, Rysunek 3.17) dla obydwu podgrup i wybieramy Oblicz.
44
ROZDZIAŁ 3. WERYFIKACJA ZAŁOŻEŃ KMNK
Rysunek 3.15: Okno selekcji przypadków uwzględnianych w analizie.
Rysunek 3.16: Obliczone wariancje podgrup
Porównując obliczoną wartość krytyczną statystyki F ∗ = 1.905 z R = 1.053 (R < F ∗ )
możemy stwierdzić, że nie ma podstaw do odrzucenia hipotezy H0 o homoskedastyczności
składnika losowego.
3.6
Zadania
Zadanie 1
Za pomocą testu Shapiro-Wilka zbadać normalność rozkładu zmiennych z tabeli 10.1.
Zadanie 2
Wykonaj ponownie analizę reszt rozważanego modelu. Przejdź do okna Podsumowanie
→ Reszty i przewidywane. Odpowiedz na pytanie co oznaczają kolumny Odległość
Mahalanobisa, Odległość Cooka (patrz np. [5, 7]) oraz Usunięte reszty. Do czego
mogą przydać się te wielkości?
3.6. ZADANIA
Rysunek 3.17: Kalkulator prawdopodobieństwa w Statistica
45
46
ROZDZIAŁ 3. WERYFIKACJA ZAŁOŻEŃ KMNK
Rozdział 4
Metody doboru zmiennych
objaśniających do modelu
Wprowadzenie
Wybór zmiennych objaśniających do modelu ekonometrycznego jest zadaniem niezwykle
ważnym. Po pierwsze, w modelu powinny znaleźć się tylko takie zmienne, które rzeczywiście kształtują zachowanie zmiennej objaśnianej. Ten punkt doboru zmiennych powinien
być przeprowadzony zawsze jako pierwszy. Jeśli chcemy modelować wybrane zjawisko
społeczne, musimy dysponować odpowiednia wiedzą merytoryczną na jego temat np. nieuzasadnionym wydaje się fakt uwzględnienia w modelowaniu zachowania rynków kursów
walut, uwzględnienie jako zmiennej objaśniającej powierzchni państwa. Wiedzy tej nie
musimy zdobywać sami, często zleceniodawca dostarcza zbiór zmiennych, które uważa
za potencjalnie istotne w modelowaniu danego zjawiska. Po drugie, żadna zmienna objaśniające nie powinna powielać informacji wnoszonej przez inną zmienną objaśniającą
(zmienne objaśniające nie powinny być ze sobą skorelowane). Po trzecie, zmienne powinny mieć odpowiednio duży zakres zmienności (jeśli wszystkie punkty leżą bardzo blisko
siebie, może istnieć wiele prostych, które da się dopasować do takiej chmury punktów).
Jak widać, zmienna powinna spełniać wiele kryteriów aby być dobrą zmienną objaśniającą. Poniżej podamy kilka metod statystycznych wyboru zmiennych objaśniających do
modelu ekonometrycznego.
4.0.1
Wykresy rozrzutu
Najprostszym i szybkim sposobem wstępnej oceny jakie zmienne będą w głównej mierze
kształtowały zmienność zmiennej niezależnej jest wykonanie wykresów rozrzutu zmiennej objaśnianej względem objaśniających oraz i-tej zmiennej objaśniającej w funkcji j-tej
zmiennej objaśniającej. Wykresy rozrzutu pozwalają wzrokowo ocenić czy istnieje związek
pomiędzy wartościami zmiennych i czy związek ten ma charakter liniowy (przynajmniej
jeśli chodzi o zmienną objaśnianą). Pamiętamy, że założeniem KMNK jest to, aby pomiędzy zmienną objaśnianą a objaśniającymi zachodziła silna korelacja liniowa. Ponadto,
zmienne objaśniające nie powinny być ze sobą skorelowane. Na Rysunkach 4.1 – 4.3 przedstawione są wykresy rozrzutu wszystkich zmiennych względem siebie, z dopasowaną przez
Statistica krzywą regresji (nie należy mylić dopasowanych do wykresu rozrzutu dwóch
47
48ROZDZIAŁ 4. METODY DOBORU ZMIENNYCH OBJAŚNIAJĄCYCH DO MODELU
zmiennych krzywej regresji z wielowymiarową regresją wieloraką). Widzimy (Rysunek
Rysunek 4.1: Wykres rozrzuty zmiennej zależnej Sprzedaż od zmiennej niezależnej Indeks
ceny wraz z dopasowaną krzywą regresji.
4.1), że istnieje silny związek liniowy pomiędzy zmienną Sprzedaż a zmienną Indeks ceny.
Możemy również stwierdzić, po znaku współczynnika dopasowanej prostej (patrz góra rysunku), że im niższa będzie cena, tym sprzedaż powinna rosnąć. Związek z drugą zmienną
objaśniającą jest nieco słabszy oraz korelacja pomiędzy zmiennymi ma znak dodatni (im
więcej wydajemy na reklamę, tym większa jest sprzedaż). Ostatni z wykresów rozrzutu
(Rysunek 4.3) jest równie ważny dla dalszych rozważań. Punkty na wykresie rozłożone są
przypadkowo i trudno doszukać się związku pomiędzy tymi zmiennymi. Zatem możemy
uznać (na tym etapie po dokonaniu oceny wzrokowej), że zmienne objaśniające nie są ze
sobą skorelowane.
4.0.2
Korelacie Pearsona
Ilościowy opis siły liniowego związku pomiędzy zmiennymi oddaje współczynnik korelacji
Pearsona. Stosowanie współczynnika Pearsona do opisu korelacji ma swoje ograniczenia:
• zmienne powinny mieć rozkład normalny, lub zbliżony do normalnego,
• jest czuły na obserwacje odstające,
• wykrywa tylko liniową zależność.
49
Rysunek 4.2: Wykres rozrzuty zmiennej zależnej Sprzedaż od zmiennej niezależnej Wydatki na reklamę wraz z dopasowaną krzywą regresji.
Współczynnik Pearsona z próby (na podstawie obserwacji par zmiennych (x, y)) jest
wyrażony wzorem:
Pn
(xi − x̄)(yi − ȳ)
qP
(4.1)
rab = qP i=1
n
n
2
2
(x
−
x̄)
(y
−
ȳ)
i=1 i
i=1 i
1 Pn
1 Pn
2
i=1 xi , ȳ =
i=1 yi Wprowadzając oznaczenie na wariancję z próby Sx i
n
n
Sy2 oraz kowariancję covxy
n
1X
Sx2 =
(xi − x̄)2
(4.2)
n i=1
gdzie x̄ =
Sy2
covxy =
n
1X
(yi − ȳ)2
=
n i=1
n
1X
(xi − x̄)(yi − ȳ)
n i=1
otrzymujemy
covxy
.
Sx Sy
covxx
=
=1.
Sx2
rxy =
Ponieważ covxx = Sx2 (covyy = Sy 2 ), rxx
Własności współczynnika korelacji:
(4.3)
(4.4)
(4.5)
50ROZDZIAŁ 4. METODY DOBORU ZMIENNYCH OBJAŚNIAJĄCYCH DO MODELU
Rysunek 4.3: Wykres rozrzuty zmiennej niezależnej Indeks ceny od zmiennej niezależnej Wydatki na reklamę. Punkty rozłożone losowo, trudno zauważyć istnienie związku
pomiędzy zmiennymi.
• rxy = ryx ,
• rxy ∈ [−1, 1],
• rxx = 1.
Jeżeli |rxy | = 1 to mówimy o ścisłej zależności liniowej pomiędzy x i y, jeżeli |rxy | = 0, o
braku związku liniowego.
Obliczając współczynnik korelacji, możemy na podstawie wartości korelacji określić
współzależność zmiennych objaśnianej z objaśniającymi oraz zmiennych objaśniających ze
sobą. Pozwala to na wstępną eliminację z modelu zmiennych objaśniających nieskorelowanych ze zmienną objaśnianą, oraz na wychwycenie skorelowanych ze sobą zmiennych objaśniających. Korelacje Pearsona w programie Statistica obliczamy wybierając Statystyka
→ Statystyki podstawowe i tabele → Macierze korelacji. Otworzy się okno wybory zmiennych (Rysunek 4.4), w którym możemy wybrać jedną lub dwie listy zmiennych.
Wybierając jedną listę zmiennych, Statistica obliczy współczynniki korelacji pomiędzy
wszystkimi zaznaczonymi zmiennymi (wszystkimi kombinacjami zmiennych). Wybierając drugą opcję, możemy obliczyć korelacje pomiędzy wybraną zmienną (np. zmienną
objaśnianą) a pozostałymi zmiennymi (np. objaśniającymi) bez uwzględniania korelacji
pomiędzy tymi ostatnimi.
Obliczmy korelacje Pearsona pomiędzy wszystkimi zmiennymi dla rozważanego modelu. W oknie 4.4 wybieramy Jedna lista zmiennych, a następnie zaznaczamy wszystkie
51
Rysunek 4.4: Okno korelacji programu Statistica.
zmienne i wybieramy opcję Podsumowanie w oknie 4.4. Otrzymamy okno wyników korelacji (Rysunek 4.5). Na podstawie obliczonych korelacji widzimy, że najsilniej ze zmienną
objaśnianą Sprzedaż skorelowana jest zmienna Indeks ceny i jest to korelacja ujemna
(im większa wartość zmiennej tym mniejsza Sprzedaż ). Możemy zatem wnioskować, że
zmienna Indeks ceny w największym stopniu kształtuje zmienność zmiennej objaśnianej.
Ponadto widzimy, że zmienne objaśniające (Indeks ceny i Wydatki na reklamę) są bardzo
Rysunek 4.5: Wyniki obliczeń współczynnika korelacji Pearsona. Korelacje istotne statystycznie (na poziomie istotności α=0.05) są automatycznie podświetlone na czerwono.
słabo skorelowane ze sobą i nie występuje pomiędzy nimi współzależność liniowa.
4.0.3
Eliminacja zmiennych kwazistałych
Jednym z najprostszych kryteriów wstępnej filtracji zmiennych jest eliminacja zmiennych,
których zmienność (przedział zaobserwowanych wartości) jest mała. Zwykle, im szerszy
52ROZDZIAŁ 4. METODY DOBORU ZMIENNYCH OBJAŚNIAJĄCYCH DO MODELU
zbiór wartości przyjmuje dana zmienna, tym bardziej widoczny jest charakter jej zmienności oraz dokładniej możemy zbadać jej związek ze zmienną objaśnianą. Wprowadza się
zatem miarę zmienności jako współczynnik zmienności
V =
S
∗ 100%,
x̄
(4.6)
gdzie S jest odchyleniem standardowym z próby, a x̄ jest średnią arytmetyczną zmiennej
z próby. W odróżnieniu do odchylenia standardowego, które określa bezwzględne zróżnicowanie cechy, V jest miarą względną. Wartości współczynnika zmienności najczęściej
podaje się w procentach. W procedurze doboru zmiennych na podstawie współczynnika
zmienności, odrzuca się te cechy, których zmienność V jest mniejsza od pewnej wartości
krytycznej V ∗ . Niestety nie ma uniwersalnej wartości V ∗ dla wszystkich zjawisk ekonomicznych i wartość tą należy przyjąć arbitralnie oraz na podstawie wiedzy na temat
analizowanego zjawiska.
4.0.4
Regresja krokowa
Metoda regresji krokowej polega na sekwencyjnym doborze zmiennych do modelu, w celu uzyskania najlepszego zestawu zmiennych. Istnieją dwie odmiany tej metody: regresja
krokowa postępująca oraz regresja krokowa wsteczna. W obydwu odmianach tej metody
decyzja o wprowadzeniu lub odrzuceniu zmiennej z modelu podejmowana jest na podstawie cząstkowego testu F Snedecora (czasami wykorzystuje się zamiast testu F Snedecora
równoważny test t-Studenta). Metoda regresji krokowej jest bardzo często stosowaną metodą doboru zmiennych objaśniających.
Regresja krokowa postępująca
W tej odmianie regresji krokowej dobór zmiennych polega na sekwencyjnym dokładaniu
zmiennych do modelu. Załóżmy, że mamy M potencjalnych zmiennych objaśniających.
Wtedy procedura doboru zmiennych jest następująca:
• w pierwszym kroku tworzymy M oddzielnych modeli z jedną zmienną objaśniającą
xj .
• Następnie dokonujemy sprawdzenia istotności tej zmiennej xj poprzez cząstkowy
test F Snedecora. Jeśli wartość statystyki Fj jest większa od wartości progowej Fin
(w programie Statistica wartość tą nazywa się F do wprowadzania, to zmienna zostaje wprowadzona do modelu. Jeśli kilka zmiennych będzie statystycznie istotnych
wprowadzana jest ta, która ma największą wartość statystyki Fin .
• W następnych krokach z pozostałych M − 1 zmiennych konstruuje się modele z
dwiema zmiennymi objaśniającymi, z których jedna została wybrana w poprzednim korku. Analogicznie, wyznacza się statystyki Fj , a do modelu wprowadza się
zmienną, która ma największą i większą od Fin wartość statystyki F .
• Po wprowadzaniu drugiej zmiennej, ponownie bada się istotność pierwszej zmiennej
w modelu z dwoma zmiennymi. Jeśli w nowym modelu ta zmienna jest nieistotna
53
statystycznie lub F < Fout (Fout w programie Statistica nazywa się F do usuwania), zostaje ona odrzucona, a procedurę doboru drugiej zmiennej powtarzamy z
pozostałymi M − 1 zmiennymi.
• Procedurę powtarza się tak długo, aż nie wyczerpie się zbiór zmiennych lub żadna
z pozostałych zmiennych nie będzie mogła być wprowadzona ze względu na zbyt
małą wartość statystyki F .
Regresja krokowa wstecz
W regresji krokowej wstecz modelem wyjściowym jest model ze wszystkimi M zmiennymi. W kolejnych krokach usuwa się z modelu te zmienne, których wartość statystyki F
jest najmniejsza i mniejsza od wartości progowej Fout . Procedura jest powtarzana aż do
uzyskania najlepszego modelu.
4.0.5
Metoda Hellwiga
Metoda Hellwiga doboru zmiennych objaśniających do modelu jest metodą rodzimą i bazuje na sile wzajemnych korelacji liniowych, jakie istnieją pomiędzy zmienną objaśnianą
i objaśniającą, oraz korelacji pomiędzy zmiennymi objaśniającymi. Spośród wszystkich
możliwych kombinacji zmiennych objaśniających wybiera się tą, w której zmienne objaśniające są najsilniej związane ze zmienną objaśnianą a ich wzajemne korelacje są najsłabsze.
Jako miarę korelacji wykorzystuje się współczynnik korelacji Pearsona r.
Sposób doboru zmiennych do modelu jest następujący.
1. w pierwszym kroku tworzymy wszystkie możliwe kombinacje potencjalnych zmiennych objaśniających tzn. ze zbioru wszystkich potencjalnych zmiennych {x1 , x2 , . . . , xk }
tworzymy L = 2k − 1 kombinacji Kl (l = 1, 2, . . . , L), zaczynając od kombinacji z
jedną zmienną objaśniającą, potem z dwiema zmiennymi objaśniającymi, z trzema
i tak dalej (kolejność umowna), aż do wyczerpania możliwości.
2. Dla każdej kombinacji Kl obliczamy tzw. pojemność indywidualną nośnika informacji :
r2
hlj = X j
,
(4.7)
|rij |
i∈{Kl }
gdzie indeks i przebiega po wszystkich numerach zmiennych należących do kombinacji Kl , l jest numerem kombinacji, rj jest współczynnikiem korelacji Pearsona
pomiędzy j-tą zmienną objaśniającą w kombinacji a zmienną objaśnianą, a rij jest
współczynnikiem korelacji Pearsona pomiędzy i-tą i j-tą zmienną objaśniającą w
danej kombinacji.
3. Następnie, dla każdej kombinacji Kl oblicza się integralną pojemność informacyjną
zdefiniowaną jako sumę pojemności indywidualnych w danej kombinacji:
X
Hl =
j∈Kl
hlj , l = 1, 2, . . . , L.
(4.8)
54ROZDZIAŁ 4. METODY DOBORU ZMIENNYCH OBJAŚNIAJĄCYCH DO MODELU
4. Jako końcowy zestaw zmiennych objaśniających wybieramy ten, który charakteryzuje się największą wartością integralnej pojemności informacyjnej.
Przykład
Dla danych z tabeli 10.3 dobrać zmienne do modelu za pomocą metody Hellwiga.
Pierwszym krokiem jest zbadanie normalności rozkładu zmiennych, ponieważ wsp. korelacji Pearsona jest czuły na duże odstępstwa od rozkładu normalnego. Do tego celu
użyjemy testu Shapiro–Wilka (patrz rozdział 3.3). Otrzymujemy następujące wartości
p − value (tabela 4.1), na podstawie których (na poziomie istotności α=0.05) nie ma
podstaw do odrzucenia hipotezy o normalności rozkładu dla każdej zmiennej. Następnie
Tabela 4.1: Obliczone p-wartości dla testu Shapiro-Wilka dla zmiennych za tabeli 10.3.
zmienna
p-wartość
y: poziom sportowy
0.072
x1 : masa ciała
0.692
x2 : wytrzymałość
0.404
x3 : siła
0.656
obliczamy współczynniki korelacje Pearsona. Wyniki przedstawia Rysunek 4.6. Teraz mu-
Rysunek 4.6: Wyniki obliczeń współczynnika korelacji Pearsona dla danych z tabeli 10.3.
simy wypisać wszystkie możliwe kombinacje zmiennych objaśniających. Ponieważ mamy
trzy potencjalne zmienne, otrzymujemy 23 − 1 = 7 kombinacji: K1 = {x1 }, K2 = {x2 },
K3 = {x3 }, K4 = {x1, x2}, K5 = {x1 , x3 }, K6 = {x2 , x3 }, K7 = {x1 , x2 , x3 }. Dla każdej
kombinacji liczymy integralne pojemności informacyjne Hl .
• H1 = h11 =
r12
0.3357322
=
= 0.113
|r11 |
1
• H2 = h22 =
r22
0.45568602
=
= 0.21
|r22 |
1
• H3 = h33 =
r32
0.6076872
=
= 0.37
|r33 |
1
• H4 = h41 + h42 =
r12
r22
0.113
0.21
+
=
+
= 0.269
|r11 | + |r12 | |r22 | + |r21 |
1 + 0.202 1 + 0.202
4.1. ZADANIA
55
• H5 = h51 + h53 =
r12
r32
0.113
0.37
+
=
+
= 0.357
|r11 | + |r13 | |r33 | + |r31 |
1 + 0.353 1 + 0.353
• H6 = h62 + h63 =
r32
0.21
0.37
r22
+
=
+
= 0.461
|r22 | + |r23 | |r33 | + |r32 |
1 + 0.258 1 + 0.258
• H7 = h71 + h72 + h73
r12
0.113
h71 =
=
= 0.073
|r11 | + |r21 | + |r31 |
1 + 0.202 + 0.353
0.21
r22
=
= 0.144
h72 =
|r12 | + |r22 | + |r32 |
0.202 + 1 + 0.258
r32
0.37
=
= 0.23
h73 =
|r13 | + |r23 | + |r33 |
0.353 + 0.258 + 1
H7 = 0.073 + 0.144 + 0.23 = 0.447
Największą integralną pojemność informacyjną ma kombinacja K6 (H6 = 0.461), więc
zgodnie z ideą metody Hellwiga, w modelu powinny znaleźć się zmienne x2 i x3 (wytrzymałość oraz siła).
4.1
Zadania
Zadanie 1
Dla danych z tabeli 10.1 dobrać zmienne do modelu stosując metodę Hellwiga.
Zadanie 2
Dla tych samych danych oszacować model stosując metodę regresji krokowej wstecz najpierw stosując domyślne ustawienia wartości statystyk F do wprowadzania i usuwania.
Następnie zmienić wartość F do usuwania na 4 i porównać wyniki.
56ROZDZIAŁ 4. METODY DOBORU ZMIENNYCH OBJAŚNIAJĄCYCH DO MODELU
Rozdział 5
Szacowanie parametrów modeli w
przypadku autokorelacji i
heteroskedastyczności
Uogólniona metoda najmniejszych kwadratów
Zgodnie z założeniami KMNK (patrz rozdział 2.4) wariancja składnika losowego jest stała: D2 () = σ 2I , gdzie I jest macierzą jednostkową. Jeśli wariancja składnika losowego
nie jest stała, powyższa równość nie zachodzi. Ponadto, z uwagi na fakt, że estymator
X T X )−1 staje się obciążonym estymatorem wariancji
wariancji składnika losowego Se2 (X
składnika losowego D2 (), również macierz wariancji-kowariancji estymatorów parameX T X )−1 . Niespełnienie założeń
trów strukturalnych (2.46) nie jest równa D 2 (bb) = Se2 (X
stałości wariancji lub braku autokorelacji składników losowych uniemożliwia stosowanie
KMNK do szacowania parametrów strukturalnych modelu liniowego. Wiąże się to z utratą pewnych własności estymatorów: estymatory nie są już najefektywniejsze i nie mają
najmniejszej wariancji. Wariancja składników losowych, a co za tym idzie standardowe
błędy szacunku, bywają niedoszacowane. Skutkuje to zawyżaniem statystyki t Studenta [2], na podstawie których testowana jest istotność parametrów strukturalnych modelu
(w efekcie, w rzeczywistości statystycznie nieistotne parametry modelu będą wykazywały
fałszywą istotność).
W takich przypadkach należy stosować tzw. Uogólnioną Metodę Najmniejszych Kwadratów (UMNK), w której macierz wariancji-kowariancji składnika losowego zapisuje się
w postaci
D2 () = σ 2Ω ,
(5.1)
gdzie Ω jest macierzą symetryczną i dodatnio określoną (UMNK można stosować jedynie
w tych przypadkach, w których macierz D2 () da się zapisać w postaci (5.1)). Wtedy
estymator parametrów strukturalnych modelu wyraża się wzorem [2]
b = (X
X T Ω−1X )−1X T Ω−1Y ,
(5.2)
a estymator macierzy wariancji-kowariancji b jako
X T Ω −1X )−1 ,
Ω (bb) = Se2 (X
57
(5.3)
58ROZDZIAŁ 5. SZACOWANIE PARAMETRÓW MODELI W PRZYPADKU AUTOKORELACJI I H
przy czym
Se2 =
e T Ω −1e
n−k−1
(5.4)
jest estymatorem wariacji składnika losowego.
5.0.1
Ważona metoda najmniejszych kwadratów
Metoda ta jest szczególną postacią UMNK i stosuje się ją, gdy model jest heteroskedastyczny i nie występują autokorelacje reszt lub w przypadkach, gdy w sposób zamierzony
chcemy wzmocnić wpływ pewnych obserwacji na kształtowanie się zmiennej objaśnianej
(patrz np. [5] str 82). Ideą tej metody jest zastosowanie dla każdej obserwacji nieujemnej
wagi, której celem jest zrównoważenie wariacji czynnika losowego poprzez zmniejszenie
znaczenia obserwacji z większą wariancją lub, w drugim przypadku, zwiększenie znaczenia obserwacji bardziej istotnych.
Ponieważ nie występują autokorelacje, macierz Ω jest macierzą diagonalną, której elementy diagonalne (w najprostszym przypadku) są równe modułom z reszt wyjściowego modelu
oszacowanego KMNK (modelu z heteroskedastycznym składnikiem losowym). Macierz do
niej odwrotna Ω −1 zawiera wtedy odwrotności modułów reszt
1

 |ê1 |



Ω
−1
=

 0



 0



 ...


 0




0
0
1
|ê2 |
0
...
0
0
0
0
...
...
0
0
1
0 ... 0
|ê3 |
... ... ... ...
0
0 
0
0
0
0
...
0
0
0
...
0
...
1
|ên−1 |
0
0
0
...
0
0
0
1
|ên |



















(5.5)
Procedura ważonej MNK jest następująca: w pierwszym kroku szacujemy parametry
modelu KMNK. Następnie konstruuje się model pomocniczy, w którym rolę zmiennej
objaśniającej pełnią moduły reszt ỹi = |ei | wcześniej wyznaczonego modelu (zmienne
objaśniające zostawiamy takie same). Z oszacowanych wartości teoretycznych ỹi wyznacza
się wagi wi = 1/ỹi , które są diagonalnymi elementami macierzy (5.5). W kolejnym kroku
tworzy się model ekonometryczny
wi yi = β0 wi + β1 (wi x1i ) + . . . + βk (wi xki ) + i ,
(5.6)
gdzie yi są pierwotnymi obserwacjami zmiennej objaśnianej. Tak skonstruowany model
szacujemy ponownie KMNK, ponieważ estymatory parametrów strukturalnych są zgodne
i asymptotycznie najefektywniejsze.
Główną zaletą tej metody jest możliwość wykorzystania regresji liniowej w sytuacjach
gdy dane statystyczne są różniej jakości.
59
Ważona MNK w Statistica
W programie Statistica procedurę estymacji parametrów ważoną MNK możemy przeprowadzić albo za pomocą dołączonego do pakietu programu (modułu Statistica) napisanego
w języku Visual Basic, albo ręcznie korzystając z opcji regresji.
5.0.2
Metoda Cochrane’a-Orcutta
Tą wersję UMNK stosuje się w przypadku wystąpienia autokorelacji pierwszego rzędu.
Nazwa tej metody pochodzi od nazwisk dwóch statystyków: Donalda Cochrane’a i Guy’a
Orcutt’a, a jej idea opiera się na transformacji autoregresyjnej pierwszego rzędu zmiennej
objaśnianej i zmiennych objaśniających, a następnie oszacowania wartości estymatorów
KMNK. Załóżmy, że test Durbina-Watsona wykazał istnienie autokorelacji pierwszego rzędu reszt modelu, oraz że współczynnik autokorelacji wynosi ρ. Transformacji pierwotnych
zmiennych dokonujemy za pomocą macierzy T :
T y = T βX + T gdzie macierz T ma postać
√
T =









1−ρ 0
0 0
−ρ
1
0 0
0
−ρ 1 0
...
... ... ...
0
0
0 0
0
0
0 0
(5.7)

... 0
0
0
... 0
0
0


... 0
0
0

. . . . . . . . . . . .


. . . −ρ 1
0
. . . 0 −ρ 1
(5.8)
gdzie ρ jest współczynnikiem autokorelacji wyznaczonym z próby. Po dokonaniu transformacji należy ponownie oszacować parametry modelu KMNK. Niestety, powyższa transformacja nie gwarantuje usunięcia autokorelacji reszt za pierwszym podejściem. Dlatego
też, po oszacowaniu parametrów nowego modelu, ponownie trzeba wykonać test sprawdzający występowanie autokorelacji. W przypadku ponownego wystąpienia autokorelacji
powyższą metodę należy zastosować ponownie.
60ROZDZIAŁ 5. SZACOWANIE PARAMETRÓW MODELI W PRZYPADKU AUTOKORELACJI I H
Rozdział 6
Prognozowanie na podstawie modelu
ekonometrycznego
Wszystkie poprzednie rozdziały skryptu były poświęcone zagadnieniom związanym z tworzeniem modelu ekonometrycznego. W tym rozdziale omówimy krótko praktyczne zastosowanie modelu ekonometrycznego. Najczęstszym wykorzystaniem oszacowanego i zweryfikowanego modelu ekonometrycznego jest predykcja ekonometryczna, czyli wnioskowanie
na podstawie modelu o przyszłych, nieznanych wartościach zmiennej objaśnianej. Ograniczymy się do jednorównaniowego liniowego modelu ekonometrycznego.
Prognoza nie zawsze musi dotyczyć zjawisk zależnych od czasu (przyszłości), chociaż
takie wykorzystanie modeli jest najczęstsze. Może również dotyczyć wartości zmiennej objaśnianej dla nieznanych, np. większych niż zaobserwowane w próbie, wartości zmiennych
objaśniających.
Zmienna objaśniana, dla której konstruuje się prognozę, nazywa się zmienną prognozowaną, natomiast okres (lub przedział wartości, jeśli prognoza nie dotyczy przedziału
czasu) nazywa się horyzontem prognozy.
Założenia teorii predykcji
Podobnie, jak w przypadku modeli ekonometrycznych, aby predykcja ekonometryczna
była formalnie (statystycznie) poprawna, muszą być spełnione pewne założenia:
• wartości estymatorów parametrów strukturalnych, w którym zmienna prognozowana
jest zmienną objaśnianą, są znane (oszacowane)
• model ekonometryczny jest pozytywnie zweryfikowany
• wartości zmiennych objaśniających dla horyzontu prognozy są znane lub oszacowane
• rozkład składnika losowego jest stacjonarny
• postać analityczna modelu i jego parametry strukturalne są stabilne
61
62ROZDZIAŁ 6. PROGNOZOWANIE NA PODSTAWIE MODELU EKONOMETRYCZNEGO
Prognoza punktowa
Załóżmy, że chcemy przewidzieć wartość zmiennej objaśnianej (prognozowanej) y ∗ , dla
wartości danych wektorem zmiennych objaśnianych X ∗ . Jeśli wyjściowy model ekonometryczny ma postać
y = X T β + ,
(6.1)
to prognozowana wartość y ∗ jest równa [3]
y ∗ = (X ∗ )T β + 0 ,
(6.2)
gdzie wektor zmiennych objaśniających X ∗ jest równy


1
 
 x1 
 

 x2  .
X∗ = 
 . 
 .. 
 
(6.3)
xk
Uwaga
W równaniu (6.2) występuje transponowany wektor X ∗ , wobec czego iloczyn (X ∗ )T β jest
iloczynem skalarnym dwóch wektorów.
Z twierdzenia Gaussa-Markowa (rozdział 2.5) wiemy, że
ŷ = (X)T b
(6.4)
jest najefektywniejszym, nieobciążonym estymatorem wartości oczekiwanej zmiennej objaśnianej E(y|X) (lub po prostu y - z własności nieobciążoności). Podobnie, prognoza ŷ p
ŷ p = (X ∗ )T b
(6.5)
jest najefektywniejszym, nieobciążonym estymatorem wartości oczekiwanej prognozy E(y ∗ |X ∗ )
(lub y ∗ ).
Wtedy błąd prognozy możemy wyrazić jako różnicę
β − b )T X ∗ + 0 ,
ep = y ∗ − ŷ p = (β
(6.6)
a wariancja reszt jest równa [2]
(6.7)
(6.8)
X T X )−1 X ∗ .
D2 (ep ) = σ 2 1 + (X ∗ )T (X
Estymatorem wariancji (6.7) jest
X T X )−1 X ∗ ,
S 2 (ep ) = Se2 1 + (X ∗ )T (X
gdzie Se2 jest wariancją reszt modelu. Wtedy średni błąd predykcji ex ante dany jest
jako odchylenie standardowe błędu prognozy
V∗ =
q
q
X T X )−1 X ∗
S 2 (ep ) = Se 1 + (X ∗ )T (X
(6.9)
Błąd predykcji ex ante oznacza błąd jaki możemy popełnić stosując prognozę zanim poznamy prawdziwą (zaobserwowaną) wartość zmiennej prognozowanej. Jeśli znamy
prawdziwą wartość prognozowanej zmiennej, możemy ją porównać z wcześniejszą prognozą i otrzymamy błąd predykcji ex post.
63
Prognoza przedziałowa
W poprzednim rozdziale zajmowaliśmy się tzw. prognozą punktową, czyli predykcją dokładnej wartości zmiennej prognozowanej. Innym rodzajem prognozy jest prognoza przedziałowa. Polega ona na wyznaczeniu przedziału ufności dla prognozowanej wartości
zmiennej y ∗ . Wykorzystujemy w tym celu średni błąd predykcji ex ante (6.9):
(ŷ p − t∗ V ∗ , ŷ p + t∗ V ∗ ) ,
(6.10)
gdzie ŷ p jest prognozą punktową, V ∗ średnim błędem predykcji ex ante, a t∗ jest wartością
statystyki t-Studenta dla n − k − 1 stopni swobody, dla której
P (ŷ p − t∗ V ∗ < y ∗ < ŷ p + t∗ V ∗ ) = 1 − α,
(6.11)
α jest zadanym poziomem istotności. Przedział (6.10) nazywamy 1−α procentowym przedziałem predykcji (lub 1 − α procentowym przedziałem ufności dla predykcji). Mówimy
wtedy, że z prawdopodobieństwem 1 − α, prawdziwa wartość zmiennej prognozowanej
znajduje się w tym przedziale.
64ROZDZIAŁ 6. PROGNOZOWANIE NA PODSTAWIE MODELU EKONOMETRYCZNEGO
Rozdział 7
Nieliniowe modele ekonometryczne
Wstęp
W poprzednich rozdziałach do opisu zjawisk ekonomicznych, a dokładniej do ich modelowania, stosowaliśmy klasyczną metodę regresji liniowej. Jednym z założeń tej metody jest
istnienie liniowego związku pomiędzy zmiennymi objaśniającymi a zmienną objaśnianą.
Dlatego, jak już napisaliśmy w poprzednich rozdziałach, niezwykle ważnym etapem modelowania ekonometrycznego jest określenie charakteru związku pomiędzy zmienną objaśnianą i objaśniającymi. Można to zrobić wzrokowo tworząc wykresy rozrzutu zmiennych.
Na etapie stosowania KMNK wystarczy nam jedynie odpowiedź na pytanie czy związek
jest liniowy czy nie.
Co zrobić w przypadku, gdy związek ten nie ma charakteru liniowego? Zdarza się tak np.
przy opisie relacji dochody-wydatki, czy w opisie produkcji. W tych przypadkach niestety
nie możemy użyć KMNK do analizy. Są jednak (dla pewnej klasy przypadków) metody,
które pozwalają na sprowadzenie modelu nieliniowego do modelu liniowego. Transformacja, która pozwala przejść z modelu nieliniowego do liniowego nosi nazwę linearyzacji. W
następnym rozdziale będziemy omawiać właśnie takie modele.
7.1
Linearyzowalne modele ekonometryczne
Jak już napisaliśmy, modele linearyzowalne to takie, które przy pomocy pewnej transformacji da się sprowadzić do modelu liniowego. Wtedy do estymacji parametrów modelu
możemy użyć KMNK. Wydaje się więc, że problem nieliniowości jest łatwo rozwiązywalny. Niestety praktyka wygląda nieco inaczej, ponieważ aby dokonać linearyzacji modelu,
musimy najpierw określić charakter związku nieliniowego tzn. określić jakiego typu funkcja (np. wielomianowa, wykładnicza czy logarytmiczna) najlepiej pasuje opisuje zależność
pomiędzy zmiennymi. Po raz kolejny, bardzo pomocny jest wykres rozrzutu, z którego
możemy z grubsza oszacować charakter związku. Jeśli nie ma pewności co do postaci
analitycznej np. mamy dwie lub trzy możliwości, wtedy najlepiej oszacować model dla
wszystkich przypadków i wybrać ten, który charakteryzuje się najlepszym dopasowaniem
do danych empirycznych.
W Tabeli 7.1 podaliśmy kilka typów związków nieliniowych wraz z odpowiednią transformacją i modelem po transformacji.
65
66
ROZDZIAŁ 7. NIELINIOWE MODELE EKONOMETRYCZNE
Tabela 7.1: Tabela transformacji modeli nieliniowych do modeli liniowych. Źródło [5].
Postać matematyczna
Transformacja
Model po transformacji
Y = aX b
a0 = log a,Y 0 = log Y ,X 0 = log X
Y 0 = a0 + bX 0
Y = abX
Y 0 = log Y , a0 = log a, b0 = log b
Y 0 = a0 + Xb0
Y = a + bX + cX 2
X1 = X,X2 = X 2
Y = a + bX1 + c + X2
2
n
Y = a0 + a1 X + a2 X . . . an X
X1 = X, X2 = X 2 , . . . Xn = X n Y = a0 + a1 X1 + . . . an Xn
Y = a + Xb
X 0 = 1/X
Y = a + bX 0
aX
Y =
Y 0 = 1/Y, X 0 = 1/X
Y = a1 + ab X 0
b+X
Y = a + b ln X
X 0 = ln X
Y = a + bX 0
Program Statistica dostarcza szereg narzędzi wspomagających pracę z nieliniowymi
modelami ekonometrycznymi począwszy od możliwości dopasowania różnego typu krzywych do danych empirycznych (co ułatwia określenie postaci związku funkcyjnego) po
narzędzia do transformacji zmiennych i linearyzowania modelu. Zobrazujmy to przykładem. Dane do przykładu znajdują się w Tabeli 10.2 w rozdziale 10.
Zaczynamy od wykresu rozrzutu zmiennych. Z menu Wykresy wybieramy Wykres rozrzutu
Rysunek 7.1: Wykres rozrzutu zmiennych z Tabeli 10.2. Na pierwszy rzut oka widać, że
nie jest to funkcja liniowa.
2W, po czym wybieramy zmienne do wykresu. W głównym menu wykresów rozrzutu odznaczamy opcję Dopasuj: liniowa (aby samodzielnie spróbować określić rodzaj zależności).
Otrzymujemy wykres przedstawiony na Rysunku 7.1.
7.1. LINEARYZOWALNE MODELE EKONOMETRYCZNE
67
Rysunek 7.2: Zaawansowane opcje wykresów rozrzutu pozwalają wybrać funkcję analityczną, która ma być dopasowana do danych z wykresu.
Skorzystajmy teraz z zaawansowanych opcji wykresów rozrzutu. W głównym oknie
Wykres rozrzutu 2W wybieramy zakładkę Więcej i z okna Dopasuj wybieramy jedną z
funkcji (Rysunek 7.2), które Statistica ma dopasować do danych empirycznych. Wyniki
tej operacji dla kilku różnych funkcji zamieszczone są na rysunkach poniżej (Rysunki
7.3,7.4,7.5,7.6).
Widać, że funkcja wielomianowa pasuje do danych najlepiej. W oknie wykresu możemy zobaczyć wzór analityczny dopasowanej funkcji. Ma on ogólną postać Y = aX + bX 2 .
Odpowiada to funkcji Funkcja kwadratowa z Tabeli 7.1. Dokonamy więc podanej w tej
tabeli transformacji zmiennej X a następnie przeprowadzimy estymację parametrów modelu.
Z menu Statystyka wybieramy Zaawansowane modele liniowe i nieliniowe → Linearyzowana
regresja nieliniowa, a następnie wybieramy zmienne do modelu (zmienną X oraz Y )
i klikamy OK. Na ekranie pojawi się okno wyboru transformacji nieliniowych, w którego zaznaczamy opcję X**2. Następnie przechodzimy do wyboru zmiennych objaśnianej
i objaśniających, gdzie zaznaczamy jako objaśnianą Y , a jako zmienne objaśniające X
oraz V 1 ∗ ∗2 (Rysunek 7.7). Jak widać, po zaznaczeniu odpowiedniego typu transformacji, Statistica stworzyła nowe zmienne (przetransformowane), których kolejność jest taka
sama jak kolejność oryginalnych zmiennych (V 5 ∗ ∗2 to przetransformowana zmienne X,
V 6 ∗ ∗2 to przetransformowana zmienna Y ). W kolejnym kroku wybieramy opcję OK w
oknie regresji, w wyniku czego otrzymujemy wynikowy model (Rysunek 7.8).
Jak widać zarówno cały model (statystyka F) jak i wszystkie parametry modelu są
istotne, model jest bardzo dobrze dopasowany (Poprawione R2 = 0.95). Przetransformowany model możemy zapisać w postaci
Y = 4.67 + 0.05X − 0.000036X 2 ± 1.17
(7.1)
68
ROZDZIAŁ 7. NIELINIOWE MODELE EKONOMETRYCZNE
Rysunek 7.3: Wykres rozrzutu z dopasowaną funkcją liniową.
Model trzeba jeszcze zweryfikować pod względem normalności rozkładu reszt. W tym
przypadku reszty mają rozkład normalny. a ich wartość średnia jest równa 0 (sprawdzenie
pozostawiamy Czytelnikowi).
7.1. LINEARYZOWALNE MODELE EKONOMETRYCZNE
Rysunek 7.4: Wykres rozrzutu z dopasowaną funkcją logarytmiczną.
Rysunek 7.5: Wykres rozrzutu z dopasowaną funkcją wykładniczą.
69
70
ROZDZIAŁ 7. NIELINIOWE MODELE EKONOMETRYCZNE
Rysunek 7.6: Wykres rozrzutu z dopasowaną funkcją wielomianową.
Rysunek 7.7: Okno wyboru zmiennych do modelu zlinearyzowanego.
Rysunek 7.8: Okno wynikowe regresji liniowej dla modelu zlinearyzowanego.
7.1. LINEARYZOWALNE MODELE EKONOMETRYCZNE
Rysunek 7.9: Okno podsumowania regresji liniowej dla modelu zlinearyzowanego.
71
72
ROZDZIAŁ 7. NIELINIOWE MODELE EKONOMETRYCZNE
Rozdział 8
Funkcja produkcji
8.1
Wstęp
Jednym z zadań ekonometrii jest analiza i modelowanie procesu produkcyjnego. W szczególności dotyczy to analizy zależności pomiędzy nakładami i zasobami produkcyjnymi a
efektami (wielkością) produkcji. Głównym narzędziem ekonometrycznym stosowanym w
tej analizie jest funkcja produkcji. Funkcja produkcji jest modelem ekonometrycznym (najczęściej nieliniowym), w którym zmienną objaśnianą jest wielkość produkcji, a zmiennymi
objaśniającymi są nakłady poszczególnych czynników produkcji. Dwoma najważniejszymi
czynnikami produkcji są:
• praca L - rozumiana jako siła robocza (w tym również kapitał ludzki od którego
zależy jakość pracy)
• kapitał K - np. pieniądz, budynki, samochód itp..
Innym czynnikiem produkcji (w zależności od typu produkcji) są surowce, z których produkowane są dobra. Surowce można również klasyfikować jako kapitał produkcyjny. W
ekonomii klasycznej (do początków XXw) podstawowym czynnikiem produkcji była również ziemia, lecz dziś traktowana jest jako składowa kapitału produkcyjnego.
Czynniki produkcji charakteryzują się tym, że mogą być (do pewnego stopnia) wzajemnie zastępowane, oraz że w procesie produkcji wytwarzają nową wartość. Ponadto, są
one wyczerpywalne tzn. w procesie produkcji następuje ich zużycie i muszą być odnawiane.
Proces odnawiania czynników produkcji nazywa się inwestowaniem.
W ogólnym zapisie matematycznym funkcję produkcji możemy wyrazić jako
y = f (L, K),
gdzie y jest wielkością produkcji.
8.1.1
Zastosowanie funkcji produkcji
Badanie funkcji produkcji sprowadza się do wyznaczenia jej charakterystyk:
73
(8.1)
74
ROZDZIAŁ 8. FUNKCJA PRODUKCJI
• produktu całkowitego P C,
Produkt całkowity jest to teoretyczna wartość produkcji przy ustalonych lub prognozowanych nakładach K i L
P C = ŷ
(8.2)
• produktu przeciętnego P Pi
Produkt przeciętny to przeciętna wielkość produkcji przypadająca na jednostkę itego czynnika produkcji przy ustalonych pozostałych czynnikach produkcji:
P Pi =
ŷ
,
xi
(8.3)
gdzie P Pi jest produktem przeciętnym względem i-tego czynnika produkcji, ŷ produkt całkowity, xi - i-ty czynnik produkcji.
• produktu krańcowego P Ki
Produkt krańcowy (marginalny) to przyrost wielkości produkcji spowodowany przyrostem i-tego czynnika produkcji, przy niezmienionych pozostałych czynnikach produkcji.
∆y
P Ki =
(8.4)
∆xi
• elastyczności produkcji Ei ,
Elastyczność produkcji względem i-tego czynnika produkcji to względna zmiana
wielkości produkcji na skutek zmiany i-tego czynnika produkcji o jeden procent,
przy stałych pozostałych czynnikach produkcji
Ei =
xi ∆y
P Ki
∆y ∆xi
:
=
=
ŷ
xi
ŷ ∆xi
P Pi
(8.5)
• efektu skali produkcji ESP ,
Efekt skali produkcji informuje o ile procent wzrośnie wielkość produkcji, jeżeli wartość wszystkich czynników produkcji wzrośnie jednocześnie o 1%
ESP =
k
X
Ei .
(8.6)
i=1
– Jeżeli ESP < 1 to mówimy o malejącej wydajności czynników produkcji
(produkcja wzrasta wolniej niż nakłady),
– jeżeli EP S = 1 to mówimy o stałej wydajności czynników produkcji
(produkcja wzrasta w tym samym tempie co nakłady)
– jeżeli EP S > 1 to mówimy o rosnącej wydajności czynników produkcji
(produkcja wzrasta szybciej niż nakłady)
8.2. FUNKCJA PRODUKCJI COBBA-DOUGLASA
8.2
75
Funkcja produkcji Cobba-Douglasa
Jedną z ważniejszych funkcji produkcji jest funkcja Cobba-Douglasa. Sformułowana przez
szwedzkiego ekonomistę Knuta Wicksel’a została zweryfikowana na danych empirycznych
przez Paula Douglasa i Charlesa Cobba. Oryginalna postać funkcji uwzględniała dwa
główne czynniki produkcji : pracę i kapitał:
y = f (K, L) = β0 K β1 Lβ2 e ,
(8.7)
gdzie K, L ­ 0 oznaczają odpowiednio kapitał i pracę, a parametry β0 , β1 , β2 mają wartości dodatnie, oznacza czynnik losowy.
Funkcję Cobba-Douglasa możemy uogólnić na większą liczbę czynników kształtujących
produkcję. Zapisujemy ją wtedy w postaci:
f (x1 , x2 , . . . , xk ) = β0 xβ1 1 xβ2 2 . . . xβkk e = β0 e
k
Y
βj
xj
(8.8)
j=1
Własności funkcji Cobba-Douglasa
• jest nieujemna,
• jest rosnąca ze względu na każdy xi
Dalsza cześć rozdziału będzie poświęcona oryginalnej wersji (8.7) funkcji Cobba-Douglasa,
tzn. funkcji z dwoma czynnikami produkcji.
8.2.1
Linearyzacja funkcji Cobba-Douglasa
Funkcję Cobba-Douglasa można przetransformować do postaci liniowej i szacować jej
parametry KMNK. Logarytmując obustronnie równanie (8.7) otrzymamy jego liniową
wersję
ln y = ln b0 + b1 ln K + b2 ln L,
(8.9)
gdzie bi są estymatorami parametrów βi .
Dla zlinearyzowanej funkcji Cobba-Douglasa (np. dla 8.9) elastyczność produkcji Ei =
bi , wobec czego efekt skali produkcji można zapisać jako ESP = b1 + b2 + . . . + bk .
Izokwanta
Jeżeli funkcja produkcji jest funkcją dwóch czynników produkcji, to relację pomiędzy wielkością produkcji a tymi czynnikami możemy przedstawić na płaszczyźnie za pomocą tzw.
izokwanty. Jak już napisaliśmy, czynniki produkcji mogą się do pewnego stopnia zastępować. Z tego powodu, tę samą ilość produkcji możemy otrzymać dla różnych kombinacji
pracy i kapitału. Zbiór wszystkich kombinacji pracy i kapitału, które dają taką samą
wielkość produkcji jest właśnie izokwantą (Rysunek 8.1). Im dalej znajduje się krzywa
od początku układu współrzędnych, tym większa jest produkcja. Izokwantę nazywa się
również krzywą jednakowej produkcji.
76
ROZDZIAŁ 8. FUNKCJA PRODUKCJI
Rysunek 8.1: Przykłady izokwant. Na osiach znajdują się czynniki produkcji, każda krzywa
reprezentuje stałą wielkość produkcji dla różnych kombinacji nakładów.
Rozdział 9
Ekonometryczna analiza rynku i
popytu konsumpcyjnego
Ekonometryczna analiza rynku jest jedną z głównych analiz ekonometrycznych i jedną
z ważniejszych. Pojęcie to jest bardzo szerokie. Może dotyczyć np. analizy rynków pracy, popytu i podaży, analizy rynków finansowych lub walutowych. Niniejszy rozdział jest
krótkim wprowadzeniem do szerokiego tematu, jakim jest zastosowanie modeli ekonometrycznych do badania rynków. Zainteresowanym szczególnie rynkami finansowymi polecamy dwie prace dostępne na stronie www.ekonofizyka.pl w zakładce Skrypty dla studentów :
”Wprowadzenie do funkcjonowania rynków finansowych”, ”Wybrane zagadnienia analizy rynków finansowych”, a także pracę ”Komputerowe modelowanie zjawisk rynkowych”
(również na www.ekonofizyka.pl ).
9.1
Podstawowe pojęcia
Popyt to skłonność nabywcy do zakupu określonej ilości dobra lub usługi. Określa on, jak
dużo danego dobra lub usługi nabywca (rynek) jest skłonny kupić po określonej cenie.
Poziom popytu na dany towar wyznaczany jest zarówno przez czynniki rynkowe, takie
jak cena towaru lub usługi, poziom dochodu nabywców oraz ich oczekiwania, ceny innych
towarów, jak również przez czynniki pozarynkowe np. upodobania nabywców, poziom
wykształcenia lub płeć. Matematyczny opis omawianej zależności nazywa się funkcją
(krzywą) popytu.
Funkcje popytu są niezwykle przydatne. Pozwalają zobrazować, i w dużym stopniu
przewidzieć, jak rynek reaguje na zmianę cen i przychodów. Załóżmy, że przychód konsumenta rośnie. Czy będzie on nabywał więcej czy mniej dobra x1 ? Jeśli będzie nabywał go
więcej, wtedy dobro x1 nazywa się dobrem normalnym (Rysunek 9.1, panel lewy). Jeśli
będzie nabywał go mniej, wtedy takie dobro nazywamy dobrem podrzędnym (Rysunek 9.1,
panel prawy).
Jak zmieni się sytuacja jeśli zamiast przychodu konsumenta wzrośnie cena produktu?
Musimy tu rozważyć dwa przypadki: gdy zmieni się cena dobra, które chcemy nabyć
(x1 ), oraz przypadek gdy zmieni się cena innego dobra (x2 ). W przypadku pierwszym,
gdy cena dobra x1 rośnie a popyt na to dobro spada, to dobro takie nazywamy dobrem
zwyczajnym, a gdy popyt na dobro x1 rośnie (wraz z rosnącą ceną), dobro takie nazywamy
77
78ROZDZIAŁ 9. EKONOMETRYCZNA ANALIZA RYNKU I POPYTU KONSUMPCYJNEGO
Rysunek 9.1: Wykres zależności popytu od dochodu. Lewy panel: popyt na dobra normalne, prawy panel: popyt na dobra podrzędne.
Rysunek 9.2: Wykres zależności popytu od dochodu. Zależność przedstawia popyt na
dobra normalne.
dobrem Giffena (Rysunek 9.2).
W przypadku drugim, jeśli popyt na dobro x1 rośnie wraz ze wzrostem ceny innego
dobra x2 , to dobra takie nazywamy substytucyjnymi. Jeśli cena jednego z nich rośnie,
zastępujemy dobro x1 je innym, tańszym (x2 ).
Badanie związków popytu z czynnikami kształtującymi popyt nazywa się badaniem
elastyczności popytu, a siłę związku współczynnikiem elastyczności popytu. Ze względu na
czynnik kształtujący popyt, możemy wyróżnić dwa rodzaje elastyczności popytu: dochodową i cenową.
Cenowa elastyczność popytu
Ed(p) =
∆Q/Q
∆P/P
(9.1)
gdzie ∆Q/Q jest procentową zmianą zapotrzebowania na dane dobro, a ∆P/P jest procentową zmianą ceny dobra. ∆Q (∆P )- przyrost zapotrzebowania (ceny) na produkt, Q
(P ) - zapotrzebowanie (cena produktu) na produkt przed zmianą.
Współczynnik elastyczności Ed(p) interpretujemy następująco: np. jeśli cena produktu wzrośnie o 5% a popyt na produkt zmaleje o 5%, wtedy elastyczność popytu dla
początkowej ceny i popytu Ed(p) = −1; jeśli cena produktu wzrośnie o 5% a popyt na produkt również wzrośnie o 5%, wtedy elastyczność popytu dla początkowej ceny i popytu
Ed(p) = 1.
9.1. PODSTAWOWE POJĘCIA
79
Wartość
Interpretacja
|Ed() | = 0
popyt doskonale nieelastyczny (sztywny)
0 < |Ed() | < 1 popyt relatywnie nieelastyczny (słabo elastyczny)
|Ed() | = 1
popyt proporcjonalny
|Ed() | > 1
popyt elastyczny
Tabela 9.1: Zestawienie wartości bezwzględnych współczynników elastyczności popytu
oraz ich interpretacja.
Rysunek 9.3: Graficzne przedstawienie prawa Engla. Źródło:www.wikipedia.org
Dochodowa elastyczność popytu
Ed(i) =
∆Q/Q
∆I/I
(9.2)
gdzie ∆Q/Q jest procentową zmianą zapotrzebowania na dane dobro, a ∆I/I jest procentową zmianą dochodu nabywców, ∆I- przyrost dochodu, I - wielkość dochodu przed
zmianą.
Elastyczność popytu klasyfikuje się na podstawie bezwzględnej wartości współczynników elastyczności. Ich zestawienie, wraz z interpretacją przedstawia Tabela 9.1.
9.1.1
Ekonometryczne modele popytu dochodowego
W XIX wieku, niemiecki ekonomista i statystyk Ernst Engel prowadził badania dotyczące
zmian wydatków na żywność pod wpływem zmian dochodów. Doszedł on do wniosku, że
wraz ze zwiększaniem się dochodu, względny udział wydatków na żywność w ogólnych
wydatkach maleje. Prawo to jest prawem empirycznym i nosi nazwę Prawa Engla.
Krzywe stosowane do opisu zależności pomiędzy dochodem a popytem (wydatkami)
nazywane są krzywymi Engla. Poniżej prezentujemy postacie funkcyjne najczęściej stosowanych krzywych [2]:
• postać liniowa
ŷi = b0 + b1 xi + . . . + bk xki ,
(9.3)
ŷi = b0 xb1i1 xb2i2 . . . xbkik ,
(9.4)
• postać potęgowa
80ROZDZIAŁ 9. EKONOMETRYCZNA ANALIZA RYNKU I POPYTU KONSUMPCYJNEGO
które można sprowadzić do postaci liniowej przez obustronne logarytmowanie.
• funkcja Workinga (postać wykładnicza z odwrotnością)
1
1
ŷi = exp b0 + b1
+ . . . + bk
,
x1i
xki
(9.5)
którą można sprowadzić do postaci liniowej przez obustronne logarytmowanie i podstawienie x̃ = 1/x. Przetransformowany model ma postać ỹi = b0 +b1 x̃1i +. . .+bk x̃ki .
Dysponując liniową wersją modelu, możemy oszacować jego parametry klasyczną metodą najmniejszych kwadratów. Metoda ta jest dostępna w Statistica w menu Statystyka→Regresja
wieloraka. Możemy również skorzystać z opcji linearyzowalnych modeli regresji, lub samodzielnie wybrać specyfikację modelu.
Rozdział 10
Dodatek
81
82
ROZDZIAŁ 10. DODATEK
Tabela 10.1: Tabela z danymi wykorzystanymi do konstrukcji modelu w rozdziale 2.8.
Oznaczenia: Y - Sprzedaż [tys. $], X1 - Indeks ceny [tys. $], X2 - wydatki na reklamę
[tys.$]. Źródło: dane przykładowe z programu Gretl.
Y
X1 X 2
Y
X1 X2
Y
X1 X2
86.1 4.83 2.9 76.5 5.35 2.3 73.7
6
2.9
84.1 4.86 2.9 82.1 5.37 2.8 73.7 6.02 2.2
84.7 4.89 3.1 86.1 5.41 2.4 75 6.05 2.2
83.8 4.94 0.9 81.3 5.45 2 82.2 6.14 2.7
83.9 4.96 1.1 67.6 5.46 1 84.3 6.16 1.5
83.3 4.98 0.6 76.6 5.48 2.8 76.4 6.2
3
80.6 5.02 2 69.9 5.54 0.5 67.4 6.22 0.7
89.3 5.02 1.5 73.7 5.56 1 74.4 6.22 1.3
87.6 5.04 2.1 75.7 5.59 2.1 79.2 6.22 1.2
80.4 5.05 2.9 79.5 5.62 1.2 78.1 6.24 1.9
73.1 5.08 1.3 62.4 5.63 0.8 81 6.24 0.7
84.2 5.08 2.8 73.7 5.68 0.9 73.2 6.25 1.7
88.1 5.1 2.1 73.2 5.69 1.3 69 6.33 3.1
91.2 5.1 1.6 78.8 5.69 3 73.7 6.35 1.4
74.2 5.11 0.7 78.1 5.7 0.7 71.2 6.37 0.5
86.5 5.11 2.5 75.4 5.71 0.7 73.6 6.39 3.1
84.3 5.2 2.3 82.2 5.73 1.7 68.7 6.41 1.1
75 5.21 0.8 79.7 5.76 2.3 70.3 6.41 1.3
80.3 5.22 1.7 81.2 5.83 1.8 80.2 6.41 3.1
88 5.22 1.6 73.2 5.85 1.8 68.6 6.45 2.8
73.6 5.23 0.8 75.2 5.86 3.1 69.1 6.47 2.7
81 5.23 1.1 73.7 5.88 1.1 69.7 6.47 1.9
80.2 5.28 3.1 70.7 5.89 1.5 75.7 6.47 2.5
84.7 5.33 2.1 66 5.93 2.8 64.5 6.49 0.5
85.9 5.34 1.8 71.8 5.98 1.5 71.8 6.49 2.9
83
Tabela 10.2: Dane do modelu przykłady z modelem zlinearyzowanym, Źródło: opracowanie
własne.
X
Y
X
Y
X
Y
235 14.870 264 16.411 470 23.197
274 15.063 413 20.932 292 18.968
206 14.066 355 19.972 136 12.012
164 13.959 304 17.261 403 22.283
153 13.730 191 13.682 109 9.709
391 18.192 387 20.459 362 17.314
399 19.376 227 16.272 250 13.914
247 17.445 64 8.240 181 14.126
213 13.427 49 7.840 328 16.119
434 18.333 382 18.958 466 18.997
297 16.027 491 23.045 118 9.777
273 17.845 200 14.001 325 20.011
440 19.088 29 5.224 49 7.420
426 21.053 219 13.911 491 23.045
215 13.343 258 15.259 345 18.017
37 5.839 375 19.171 279 18.708
396 20.099 298 17.608 56 7.708
22 4.128 472 21.943 97 9.947
235 15.176 80 9.928 257 16.352
87 8.301 424 22.239 134 12.386
442 21.655 271 14.980 483 23.076
189 13.335 160 13.788 292 18.113
296 17.377 187 13.265 212 15.143
146 11.237 286 17.081 200 13.859
130 12.086 438 20.091 389 21.301
159 12.105 68 7.751 371 18.491
99 10.945
84
ROZDZIAŁ 10. DODATEK
Tabela 10.3: Dane do użyte do wyznaczenia zmiennych modelu metodą Hellwiga. Źródło:
opracowanie własne.
poziom sportowy masa ciała wytrzymałość siła
5
76.6
52.5
28
5
63.7
45
40
4.75
60.5
25
37
4.75
70.7
30
35
5
63.8
40
38
4.25
69.2
20
33
4.5
66.2
40
21
4
69.8
40
29
4.5
74.7
30
29
4.25
67.8
50
24
4.25
72.5
30
29
3.75
65.9
40
26.5
4.25
67.2
32.5
18
4
65.5
20
20
4.25
62.9
40
29
4.25
71.7
40
21
4.25
67.8
15
27
3.75
72.6
42.5
33
4
75.8
22.5
12
3.75
80.3
25
3.75
82.4
20
21
3.5
74.8
12.5
33
3.25
77.2
25
17
3.25
78.5
20
15
3
66.8
28
19
3
73.3
30
30
3.25
76.7
35
17
3
66.7
15.5
19
3
68
27.5
11
Bibliografia
[1] S. Bartosiewicz, M. Czekała, J. Dziechciarz, K. Jajuga, E. Nowak, Z. Panasiewicz, W.
Pluta, C. Szmigiel ”Estymacja modeli ekonometrycznych”, Wydawnictwo Naukowe
PWN 1989
[2] B. Borkowski, H, Dudek, W. Szczesny ”Ekonometria wybrane zagadnienia”, Wydawnictwo Naukowe PWN 2003
[3] W. H. Greene, ”Econometric analisys”, Prentice Hall, New Jersey 2002
[4] M. Gruszczyński, T. Kuszewski, M. Podgórska ”Ekonometria I Badania Operacyjne.
Podręcznik Dla Studiów Licencjackich”, Wydawnictwo Naukowe PWN 2009
[5] Andrzej Stanisz ”Przystępny kurs statystyki z zastosowaniem STATISTICA PL na
przykładach z medycyny”, Tom 1 i 2, StatSoft Polska 2006
[6] J. Syska, Metoda najwiekszej wiarygodnosci i informacja Fisher’a w fizyce i ekonofizyce
[7] J. Syska, Współczesne metody analizy regresji wspomagane komputerowo
85
Download