Wieloczynnikowa analiza wariancji

Z testwiki
Wersja z dnia 19:02, 2 mar 2025 autorstwa imported>Blakocha (właściwy link)
(różn.) ← poprzednia wersja | przejdź do aktualnej wersji (różn.) | następna wersja → (różn.)
Przejdź do nawigacji Przejdź do wyszukiwania

Wieloczynnikowa analiza wariancji jest testem statystycznym służącym ocenie wpływu wielu zmiennych niezależnych (czynników) na wartość rozpatrywanej zmiennej zależnej. Za analizę wieloczynnikową przyjmuje się taką, w której mamy do czynienia z co najmniej dwoma zmiennymi niezależnymi (czynnikami klasyfikującymi).

Założenia

Wyniki uzyskane metodą analizy wieloczynnikowej uznaje się za prawdziwe, o ile spełnione są następujące założenia:

Teoria

Omówmy podstawy analizy wieloczynnikowej na przykładzie 2-czynnikowej analizy wariancji.

Podobnie jak w przypadku analizy jednoczynnikowej, tak i teraz wpływ zmiennych niezależnych na zmienną zależną weryfikowany jest z uwzględnieniem wielu ich poziomów – dla przykładu, zmienna niezależna pn. „satysfakcja pacjenta z terapii lekowej” może być rozpatrywana na 4 poziomach: terapia lekiem I, terapia lekiem II, terapia lekiem III, terapia przy użyciu placebo. Analiza wieloczynnikowa prowadzi zatem do wskazania, jak na zmienną zależną wpływają:

  • czynniki klasyfikujące (zmienne niezależne) – oznaczane z reguły wielkimi literami (A, B, C itd.);
  • wzajemne interakcje między czynnikami klasyfikującymi (zmiennymi niezależnymi) – oznaczane poprzez wskazanie współzależnych czynników (AB, AC itd.);
  • poziomy czynników klasyfikujących (zmiennych niezależnych) – oznaczane z reguły małymi literami (a, b, c itd.).

Co istotne, ponieważ wieloczynnikowa analiza wariancji uwzględnia interakcję czynników (zmiennych niezależnych) między sobą – czyni to niezasadnym metodologicznie wielokrotne stosowanie jednoczynnikowych analiz wariancji dla każdego z rozpatrywanych czynników kwalifikujących.

Załóżmy zatem, że spełnione są ww. założenia, a we wszystkich podgrupach wyznaczonych przez czynniki klasyfikujące A (niech tworzy go a-poziomów) i B (niech tworzy go b-poziomów) znajduje się taka sama liczba obserwacji (k).

Układ hipotez zerowych jest następujący:

  • HA0: Czynnik A nie wpływa na zmienną zależną.
  • HB0: Czynnik B nie wpływa na zmienną zależną.
  • HAB0: Wzajemna interakcja czynników AB nie wpływa na zmienną zależną.

Dla każdego z czynników A, B (źródeł zmienności) oraz interakcji AB wyznaczany jest osobny zestaw parametrów, na które składają się: liczba stopni swobody (υz), suma kwadratów odchyleń (SSz) oraz średni kwadrat odchyleń (MSz). Parametry te stanowią podstawę do obliczenia wartości statystyki testowej (Fz). Statystyka Fz ma, przy założeniu prawdziwości hipotezy zerowej, rozkład F Snedecora o liczbie stopni swobody odpowiadającej υz i czynnikowi losowemu e (błąd).

Komplet przydatnych wzorów, z uwzględnieniem powyższych uwarunkowań, zestawiono poniżej:

  • liczba stopni swobody: υA=a1, υB=b1, υAB=(a1)(b1), e=nab.
  • suma kwadratów odchyleń: SSA=bki=1a(yiy)2, SSB=akj=1b(yjy)2, SSAB=ki=1aj=1b(yijyiyj+y)2, SSe=i=1aj=1bl=1k(yijlyij)2.
  • średni kwadrat odchyleń: MSA=SSAυA=SSAa1, MSB=SSBυB=SSBb1, MSAB=SSABυAB=SSAB(a1)(b1), MSe=SSeυe=SSenab.
  • statystyka testowa: FA=MSAMSe, FB=MSBMSe, FAB=MSABMSe.
  • wartość krytyczna odczytywana z tablic: FvA,ve, FvB,ve, FvAB,ve.

Jeżeli w świetle dokonanych szacunków, przy ustalonej wartości poziomu istotności α, odczytana z tablic wartość krytyczna Fvz,ve jest mniejsza od wyliczonej wartości statystyki testowej Fz – odrzucamy hipotezę zerową H0 na rzecz hipotezy alternatywnej H1[1].

Zobacz też

Przypisy

Szablon:Przypisy