Paradoks Lindleya: Różnice pomiędzy wersjami

Z testwiki
Przejdź do nawigacji Przejdź do wyszukiwania
imported>Blakocha
jęz.
 
(Brak różnic)

Aktualna wersja na dzień 15:29, 31 lip 2024

Rozkład wartości p dla H1 ilustrujący, że przy wysokiej mocy wartości istotne statystycznie mogą nadal być bardziej prawdopodobne dla H0
Rozkład wartości p dla H0 i H1 przy mocy testu ~90%. Znaczna część wartości p poniżej progu istotności 0,05 pozostaje bardziej prawdopodobna dla hipotezy zerowej niż alternatywnej, co skutkuje rozbieżnością rezultatów podejścia częstościowego i bayesowskiego w tym obszarze.

Paradoks Lindleyapozorny paradoks polegający na rozbieżności rezultatów przeprowadzonych na podstawie tych samych danych testów hipotez statystycznych metodami wnioskowania częstościowego i bayesowskiego. Pierwsze podejście oszacowuje prawdopodobieństwo ekstremalnych danych przy założeniu hipotezy zerowej: P(Xx|H0). Drugie podejście oszacowuje prawdopodobieństwo obu hipotez przy założeniu danych: P(H0|Xx)/P(H1|Xx). Choć obie perspektywy są równie poprawne arytmetycznie, odpowiadają na inne pytania, przez co mogą uzyskiwać różne odpowiedzi.

Wczesne omówienie problemu przedstawił m.in. Jeffreys w 1939[1], a jego najbardziej znaną prezentację jako „paradoks” opublikował w 1957 Lindley[2] (stąd druga stosowana nazwa: paradoks Jeffreysa-Lindleya).

Niezgodność może pojawić się niezależnie od tego, czy w podejściu bayesowskim używano subiektywnego prawdopodobieństwa zaczątkowego. W badaniu o wysokiej mocy statystycznej silna prawoskośność rozkładu wartości p dla hipotezy zerowej sprawia, że wartości poniżej progu istotności mogą być bardziej prawdopodobne dla hipotezy zerowej, nawet o ortodoksyjnie nieinformatywnym rozkładzie jednostajnym. Test częstościowy zakwalifikuje je jednak jako „istotną statystycznie” przesłankę na rzecz przyjęcia, że hipoteza zerowa jest fałszywa[3]. W ocenie Lindleya, „teoria statystyczna nie znajduje usprawiedliwienia dla mechanicznej praktyki stosowania jednego kryterium istotności[2]”.

Późniejsi autorzy omówili problem m.in. w kontekście fizyki[4], uczenia maszynowego[5], finansów[6], czy epidemiologii[7]. Pułapki interpretacyjne, jakie tworzy, mogą być częściowo łagodzone przez przedstawianie w badaniach miar wielkości efektu, stosowanie przedziałów ufności, oraz testowanie konkretnych hipotez alternatywnych zamiast hipotezy zerowej[8] (do czego służą procedury takie jak testy równoważności[9]).

Przypisy

Szablon:Przypisy