Informacja Fishera
Informacja Fishera – miara ilości informacji o jednym lub wielu nieznanych parametrach jaką niesie obserwowalna związana z nimi zmienna losowa [1]. Może być rozumiana jako średnia dokładność oszacowania, jaką daje obserwacja danych – tj. wartość oczekiwana brzegowej wiarygodności estymatora parametru względem obserwacji danych W przypadku jednego parametru i zmiennej ciągłej, oraz przy założeniu określonego statystycznego modelu ich wzajemnej zależności wyraża ją równanie:
Jest to więc druga pochodna, czyli pochodna gradientu funkcji prawdopodobieństwa, pozwalająca wyrazić szybkość jego zmian przy jej maksimum. Innymi słowy, informacja Fishera opisuje jak bardzo rozkład wiarygodności estymatora parametru względem obserwacji zmiennej losowej jest skupiony blisko maksimum, czyli jaką wariancją się cechuje.
Dla porównania, entropia Shannona wyraża globalny średni przyrost informacji, jaką daje obserwacja danych, w estymatorze histogramowym przyjmując postać:
Ronald Fisher opisał informację Fishera także jako wewnętrzną dokładność krzywej błędu (intrinsic accuracy of an error curve)[1]. W przypadku wielu parametrów jej wynik ma postać macierzy Hessego. Ma postaci zarówno dla zmiennych ciągłych, jak i dyskretnych.
Miara ta występuje w wielu obszarach matematyki, statystyki i teorii informacji[2], w szczególności stanowi główną część nierówności Craméra-Rao. Zasada nieoznaczoności Heisenberga może być traktowana jako szczególny przypadek minimum Craméra-Rao[3], a oba wzory opierają się na nierówności Cauchy’ego-Schwarza. Entropię Shannona i informację Fishera, oraz inne miary informacji łączy tożsamość de Bruijna[4][5] i dywergencja Kullbacka-Leiblera.
Obliczanie
Informacja Fishera dla głównych rozkładów prawdopodobieństwa może być wyprowadzona analitycznie. Inne przypadki można oszacowywać np. przy pomocy metod Monte Carlo[6][7].
Rozkład zero-jedynkowy
Dla rozkładu zero-jedynkowego (Bernoulliego) informacja Fishera to:
Rozkład normalny
Dla jednowymiarowego rozkładu normalnego (Gaussa) informacja Fishera wynosi:
Wielowymiarowy rozkład normalny
Dla wielowymiarowego rozkładu normalnego informacja Fishera to:
Wyprowadzenie
Równoważność dwóch form informacji Fishera dla jednego parametru i ciągłej zmiennej można wyprowadzić z użyciem reguły Leibniza (zakładając potrzebne warunki regularności), zaczynając od różniczkowania poniższej tożsamości[8][9] po parametrze
Czego rezultatem jest:
W następnych przekształceniach:
Pochodna jest nazywana funkcją wynikową, a informacja Fishera jest zdefiniowana jako jej wariancja, czyli:
Nierówność Craméra-Rao
Nierówność Craméra-Rao wyraża odwrotną zależność pomiędzy wariancją estymatora parametru a informacją Fishera estymatora, w przypadku skalarnym: