A -Alternatywna hipoteza analizy wariancji ANOVA mówi, że średnie we wszystkich badanych populacjach są jednakowe, zaś zerowa hipoteza uważa, że nie wszystkie średnie są jednakowe. +Analiza regresji zakłada, ze zmienna niezależna nie ma charakteru losowego, analiza korelacji zakłada zaś, ze obie zmienne X i Y są zmiennymi losowymi. B +Błędem pierwszego rodzaju nazywamy odrzucenie zerowej hipotezy, która jednak jest prawdziwa. +Błędem drugiego rodzaju nazywany przyjęcie hipotezy zerowej, która jednak jest fałszywa. D +Dominanta (moda) w zbiorze danych jest to ta wartość, która w tym zbiorze występuje najczęściej. -Dominanta (moda) to taka wartość wyniku obserwacji (lub wartość między dwoma wynikami obserwacji), która leży w środku zbioru danych (po jego uporządkowaniu). +Dominanta, mediana i średnia są miarami tendencji centralnej w zbiorze danych lub w populacji.. +Dla zdarzeń niezależnych prawdziwe jest stwierdzenie: prawdopodobieństwo iloczynu dwóch zdarzeń równe jest iloczynowi prawdopodobieństw każdego ze zdarzeń. -Dla zdarzeń niezależnych prawdziwe jest stwierdzenie: prawdopodobieństwo sumy dwóch zdarzeń równe jest sumie prawdopodobieństw każdego ze zdarzeń E +Estymator jest nie obciążony, gdy jego wartość oczekiwana jest równa parametrowi populacji, do oszacowania którego służy. +Estymator jest dostateczny, jeżeli wykorzystuje wszystkie informacje o szacowanym parametrze, które są zawarte w danych ( w próbie). +Estymator jest efektywny, jeżeli ma możliwie niewielką wariancję +Estymator jest zgodny, jeżeli prawdopodobieństwo, że jego wartość będzie bliska szacowanego parametru, wzrasta wraz ze wzrostem liczebności próby G -Gdy liczebność n próby wzrasta, to rozkład frakcji z próby zbliża się do rozkładu normalnego o średniej p będącej frakcją w populacji i odchyleniu standardowym +Gdy zerowa hipoteza ANOVA jest prawdziwa, to MSTR (średni kwadratowy efekt zabiegu) i MSE (średni kwadratowy błąd) są dwoma niezależnymi nieobciążonymi estymatorami tej samej wspólnej wariancji. J +Jeśli pobieramy próby o tej samej liczebności z tej samej populacji, to im wyższy jest poziom ufności, tym węższy jest przedział ufności. +Jeśli pobieramy próbę z tej samej populacji, to przy ustalonym poziomie ufności im liczniejsza jest próba, tym węższy jest przedział ufności ?Jeśli pobieramy próby o tej samej liczebności z różnych populacji, to im większy jest rozrzut w populacji, tym szerszy jest przedział ufności. ?Jeśli pobieramy próby o tej samej liczebności z różnych populacji, to im mniej jest wszystkich elementów w populacji, tym szerszy jest przedział ufności. K +Korelacja między dwiema zmiennymi losowymi jest miarą siły liniowego związku między tymi zmiennymi. L +Losowanie ze zwracaniem to losowanie niezależne -Liczba stopni swobody jest zwykle mianownikiem oszacowań wariancji z próby. M +Minimalna wymagana liczebność próby dla oszacowania parametru populacji jest tym większa, im węższy ma być wymagany przedział ufności. -Mocą testu statystycznego jest prawdopodobieństwo odrzucenia hipotezy zerowej, gdy jest ona prawdziwa. +Moc testu zależy od odległości pomiędzy wartością parametru zakładaną w hipotezie zerowej a prawdziwą wartością parametru. Im większa odległość, tym większa moc. +Moc testu zależy od wielkości odchylenia standardowego w populacji. Im mniejsze odchylenie, tym większa moc -Moc testu zależy od liczebności próby. Im liczniejsza próba, tym mniejsza moc +Moc testu zależy od poziomu istotności testu Im niższy poziom istotności, tym mniejsza moc testu. +Model regresji wielorakiej zakłada liniową zależność zmiennej zależnej od więcej niż jednej zmiennej niezależnej. +Metody analizy regresji wielorakiej są wykorzystywane do rozwiązywania zagadnień regresji wielomianowej. +Macierz korelacji jest wykorzystywana do wykrywania współliniowości zmiennych objaśniających w regresji wielorakiej. N -Normalny rozkład prawdopodobieństwa jest rozkładem niesymetrycznym i wielomodalnym. O +Odchyleniem standardowym w zbiorze wyników obserwacji nazywamy pierwiastek kwadratowy ze średniej. -Odchyleniem standardowym zmiennej losowej jest oczekiwana wartość kwadratu odchylenia tej zmiennej od jej średniej P +Przy przedziałowej (interwalowej) skali pomiarowej umiemy przypisać znaczenie różnicy między wynikami obserwacji obiektów +Przy porządkowej skali pomiarowej wyniki obserwacji obiektów mogą być uporządkowane w zależności od jakiegoś ich parametru. -Poziomem istotności testu nazywany prawdopodobieństwo popełnienia błędu drugiego rodzaju. R -Rozkład t-Studenta jest wykorzystywany do określania przedziałów ufności dla frakcji przy małych próbach. +Rozkład t-Studenta jest rozkładem niesymetrycznym, prawostronnie skośnym. +Rozkład normalny standaryzowany jest wykorzystywany do określania przedziałów ufności dla frakcji przy dużej próbie losowej. +Rozkład F jest rozkładem dwóch ilorazu dwóch niezależnych zmiennych losowych chi -kwadrat, z których każda podzielona jest przez właściwą dla niej liczbę stopni swobody. -Rozkłady F i chi-kwadrat są rozkładami symetrycznymi, o średniej równej zero. +Rozkład chi-kwadrat jest rozkładem prawdopodobieństwa sumy kwadratów niezależnych standaryzowanych normalnych zmiennych losowych S -Skala przedziałowa (interwalowa) musi zawierać naturalne zero. +Skumulowaną funkcją rozkładu (dystrybuantą) zmiennej losowej jest funkcja, której wartością dla każdego x jest prawdopodobieństwo tego, że zmienna losowa przyjmie wartość nie większą niż x. +Standaryzowaną normalną zmienną losową jest normalna zmienna losowa o średniej równej zeru i odchyleniu standardowym równym jeden -Standardowy błąd średniej z próby jest równy ilorazowi odchylenia standardowego w populacji przez liczebność próby. +Siłę korelacji między dwiema zmiennymi mierzy współczynnik korelacji, którego estymatorem z próby jest tzw. współczynnik determinacji Fishera. +Średnia rozkładu chi-kwadrat jest równa liczbie stopni swobody. Wariancja tego rozkładu jest równa liczbie stopni swobody pomnożonej przez dwa. T -Test Tukeya wolno przeprowadzać, gdy hipoteza zerowa ANOVA o nierówności średnich w badanych populacjach nie zostanie odrzucona. +Test Tukeya pozwala na równoczesne wykonanie porównań wszystkich badanych średnich według schematu „każda z każdą" przy tym samym poziomic istotności. -Testem zachodzenia liniowego związku między zmiennymi X i Y w prostej liniowej analizie regresji jest test na wyraz wolny prostej regresji. W +Wartość oczekiwana skokowej zmiennej losowej jest równa sumie wszystkich możliwych wartości tej zmiennej mnożonych przez ich prawdopodobieństwa. +Wariancją w zbiorze wyników obserwacji nazywamy przeciętne kwadratowe odchylenie poszczególnych wyników od ich średniej. -Wariancja i odchylenie standardowe są najczęściej stosowanymi miarami tendencji centralne +Wariancja rozkładu dwumianowego jest równa iloczynowi liczby doświadczeń, prawdopodobieństwa sukcesu i prawdopodobieństwa porażki j. +Wariancje w każdej z r badanych populacji są jednakowe +Warunkiem niezależności dwóch zdarzeń A i B jest, aby prawdopodobieństwo warunkowe zdarzenia A pod warunkiem B było równe prawdopodobieństwu bezwarunkowemu zdarzenia A. +Współczynnik zmienności będący stosunkiem odchylenia standardowego do średniej jest względną miarą rozrzutu (rozproszenia). -Współczynnik kowariancji wielorakiej R2 mierzy część zmienności zmiennej zależnej, która została wyjaśniona oddziaływaniem zmiennych objaśniających występujących w modelu regresji wielorakiej. +W przypadku ilorazowej skali pomiarowej znaczenie ma nie tylko różnica miedzy wynikami obserwacji obiektów, ale i iloraz wyników tych obserwacji. Z +Zdarzenia niezależne są zdarzeniami wzajemnie się wykluczającymi.