Paradoks Lindleya: Różnice pomiędzy wersjami
imported>Blakocha jęz. |
(Brak różnic)
|
Aktualna wersja na dzień 15:29, 31 lip 2024

Paradoks Lindleya – pozorny paradoks polegający na rozbieżności rezultatów przeprowadzonych na podstawie tych samych danych testów hipotez statystycznych metodami wnioskowania częstościowego i bayesowskiego. Pierwsze podejście oszacowuje prawdopodobieństwo ekstremalnych danych przy założeniu hipotezy zerowej: Drugie podejście oszacowuje prawdopodobieństwo obu hipotez przy założeniu danych: Choć obie perspektywy są równie poprawne arytmetycznie, odpowiadają na inne pytania, przez co mogą uzyskiwać różne odpowiedzi.
Wczesne omówienie problemu przedstawił m.in. Jeffreys w 1939[1], a jego najbardziej znaną prezentację jako „paradoks” opublikował w 1957 Lindley[2] (stąd druga stosowana nazwa: paradoks Jeffreysa-Lindleya).
Niezgodność może pojawić się niezależnie od tego, czy w podejściu bayesowskim używano subiektywnego prawdopodobieństwa zaczątkowego. W badaniu o wysokiej mocy statystycznej silna prawoskośność rozkładu wartości p dla hipotezy zerowej sprawia, że wartości poniżej progu istotności mogą być bardziej prawdopodobne dla hipotezy zerowej, nawet o ortodoksyjnie nieinformatywnym rozkładzie jednostajnym. Test częstościowy zakwalifikuje je jednak jako „istotną statystycznie” przesłankę na rzecz przyjęcia, że hipoteza zerowa jest fałszywa[3]. W ocenie Lindleya, „teoria statystyczna nie znajduje usprawiedliwienia dla mechanicznej praktyki stosowania jednego kryterium istotności[2]”.
Późniejsi autorzy omówili problem m.in. w kontekście fizyki[4], uczenia maszynowego[5], finansów[6], czy epidemiologii[7]. Pułapki interpretacyjne, jakie tworzy, mogą być częściowo łagodzone przez przedstawianie w badaniach miar wielkości efektu, stosowanie przedziałów ufności, oraz testowanie konkretnych hipotez alternatywnych zamiast hipotezy zerowej[8] (do czego służą procedury takie jak testy równoważności[9]).