Informacja Fishera

Z testwiki
Wersja z dnia 21:10, 4 sie 2024 autorstwa imported>Blakocha (jęz.)
(różn.) ← poprzednia wersja | przejdź do aktualnej wersji (różn.) | następna wersja → (różn.)
Przejdź do nawigacji Przejdź do wyszukiwania

Informacja Fishera – miara ilości informacji o jednym lub wielu nieznanych parametrach θ, jaką niesie obserwowalna związana z nimi zmienna losowa X[1]. Może być rozumiana jako średnia dokładność oszacowania, jaką daje obserwacja danych – tj. wartość oczekiwana brzegowej wiarygodności estymatora parametru θ względem obserwacji danych X. W przypadku jednego parametru i zmiennej ciągłej, oraz przy założeniu określonego statystycznego modelu ich wzajemnej zależności P(x;θ) wyraża ją równanie:

(θ)=E[(θlogP(X|θ))2|θ]=(θlogP(x|θ))2P(x|θ)dx.

Jest to więc druga pochodna, czyli pochodna gradientu funkcji prawdopodobieństwa, pozwalająca wyrazić szybkość jego zmian przy jej maksimum. Innymi słowy, informacja Fishera opisuje jak bardzo rozkład wiarygodności estymatora parametru względem obserwacji zmiennej losowej jest skupiony blisko maksimum, czyli jaką wariancją się cechuje.

Dla porównania, entropia Shannona wyraża globalny średni przyrost informacji, jaką daje obserwacja danych, w estymatorze histogramowym przyjmując postać:

H(X)=𝕏f(x)logf(x)dx.

Ronald Fisher opisał informację Fishera także jako wewnętrzną dokładność krzywej błędu (intrinsic accuracy of an error curve)[1]. W przypadku wielu parametrów jej wynik ma postać macierzy Hessego. Ma postaci zarówno dla zmiennych ciągłych, jak i dyskretnych.

Miara ta występuje w wielu obszarach matematyki, statystyki i teorii informacji[2], w szczególności stanowi główną część nierówności Craméra-Rao. Zasada nieoznaczoności Heisenberga może być traktowana jako szczególny przypadek minimum Craméra-Rao[3], a oba wzory opierają się na nierówności Cauchy’ego-Schwarza. Entropię Shannona i informację Fishera, oraz inne miary informacji łączy tożsamość de Bruijna[4][5] i dywergencja Kullbacka-Leiblera.

Obliczanie

Informacja Fishera dla głównych rozkładów prawdopodobieństwa może być wyprowadzona analitycznie. Inne przypadki można oszacowywać np. przy pomocy metod Monte Carlo[6][7].

Rozkład zero-jedynkowy

Dla rozkładu zero-jedynkowego (Bernoulliego) informacja Fishera to:

(θ)=nθ(1θ).

Rozkład normalny

Dla jednowymiarowego rozkładu normalnego (Gaussa) informacja Fishera wynosi:

(θ)=[1σ20012σ4].

Wielowymiarowy rozkład normalny

Dla wielowymiarowego rozkładu normalnego informacja Fishera to:

(θ)m,n=12tr(Σ1ΣθmΣ1Σθn).

Wyprowadzenie

Równoważność dwóch form informacji Fishera dla jednego parametru i ciągłej zmiennej można wyprowadzić z użyciem reguły Leibniza (zakładając potrzebne warunki regularności), zaczynając od różniczkowania poniższej tożsamości[8][9] po parametrze θ:

1=P(x|θ)dx.

Czego rezultatem jest:

0=θ1

W następnych przekształceniach:

0=θ1=θP(x|θ)dx=θP(x|θ)dx
θP(x|θ)dx=θP(x|θ)P(x|θ)P(x|θ)dx=(θlogP(x|θ))P(x|θ)dx
E[θlogP(x|θ)]=(θlogP(x|θ))P(x|θ)dx=0.

Pochodna θlogP(x|θ) jest nazywana funkcją wynikową, a informacja Fishera jest zdefiniowana jako jej wariancja, czyli:

x(θ)=E[(θlogP(x|θ))2].

Nierówność Craméra-Rao

Nierówność Craméra-Rao wyraża odwrotną zależność pomiędzy wariancją estymatora parametru θ a informacją Fishera estymatora, w przypadku skalarnym:

Var(θ^)1(θ).

Przypisy

Szablon:Przypisy