Nierówność Rao-Craméra

Z testwiki
Wersja z dnia 14:22, 15 lut 2023 autorstwa imported>EmptyBot (int.)
(różn.) ← poprzednia wersja | przejdź do aktualnej wersji (różn.) | następna wersja → (różn.)
Przejdź do nawigacji Przejdź do wyszukiwania

Twierdzenie Craméra-Rao (zwane również nierównością Craméra-Rao lub nierównością informacyjną) podaje, jaki jest minimalny możliwy średniokwadratowy błąd estymatora (nie ma estymatorów, które miałyby mniejszy średni błąd kwadratowy).

W swojej najprostszej postaci nierówność stwierdza, że wariancja estymatora nieobciążonego jest nie mniejsza niż odwrotność informacji Fishera.

Następujące sformułowania nierówności wymienione są od najprostszej do bardziej ogólnej wersji. Wszystkie sformułowania wymagają pewnych warunków regularności spełnianych przez wiele „porządnych” rozkładów prawdopodobieństwa. Warunki te wymienione są poniżej.

Parametr skalarny, przypadek nieobciążony

Załóżmy, że θ jest nieznanym deterministycznym parametrem, który jest estymowany przy pomocy obserwacji x z rozkładu prawdopodobieństwa o gęstości f(x;θ). Wariancja dowolnego nieobciążonego estymatora θ^ parametru θ jest wtedy ograniczona z dołu przez odwrotność informacji Fishera I(θ):

var(θ^)1I(θ).

Przypomnijmy, że informacja Fishera I(θ) jest dana przez

I(θ)=nE[[θlnf(X;θ)]2].

Wtedy efektywność estymatora nieobciążonego θ^ jest zdefiniowana jako

e(θ^)=1I(θ)var(θ^)

czyli minimalna możliwa wariancja estymatora nieobciążonego podzielona przez rzeczywistą wariancję. Zatem na mocy twierdzenia mamy, że e(θ^)1.

Parametr skalarny, przypadek ogólny

Bardziej ogólna postać ograniczenia może być otrzymana przez rozważanie nieobciążonego estymatora T(X) funkcji ψ(θ) parametru θ. Nieobiążoność rozumiemy w tym przypadku jako: E{T(X)}=ψ(θ). Ograniczenie przyjmuje postać

var(T)[ψ(θ)]2I(θ)

gdzie ψ(θ) jest pochodną ψ(θ), i I(θ) jest informacją Fishera zdefiniowaną powyżej.

Podobnie możemy otrzymać ograniczenie wariancji estymatora obciążonego z danym obciążeniem. Rozważmy estymator θ^ z obciążeniem b(θ)=E{θ^}θ, i niech ψ(θ)=b(θ)+θ. Na mocy powyższego wyniku, dowolny nieobciążony estymator o wartości oczekiwanej ψ(θ) ma wariancję większą lub równą (ψ(θ))2/I(θ). Zatem dowolny estymator θ^ o obciążeniu danym funkcją b(θ) spełnia

var(θ^)[1+b(θ)]2I(θ).

Oczywiście, nieobciążona wersja ograniczenia jest szczególnym przypadkiem z b(θ)=0.

Przypadek wielowymiarowy

Aby rozszerzyć nierówność Craméra-Rao na przypadek wielowymiarowy, zdefiniujmy wektor parametrów

θ=[θ1,θ2,,θd]Td

z funkcją gęstości prawdopodobieństwa f(x;θ) spełniającą dwa warunki regularności poniżej.

Macierz informacji Fishera jest d×d macierzą dla której element Im,k jest zdefiniowany jako

Im,k=E[ddθmlnf(x;θ)ddθklnf(x;θ)].

Niech 𝑻(X) będzie estymatorem dowolnej funkcji wektorowej parametrów, 𝑻(X)=(T1(X),,Tn(X))T, i oznaczmy jego wektor wartości oczekiwanej E[𝑻(X)] przez ψ(θ). Wtedy nierówność Craméra-Rao stwierdza że macierz kowariancji dla 𝑻(X) spełnia

covθ(𝑻(X))ψ(θ)θ[I(θ)]1(ψ(θ)θ)T

gdzie:

  • nierówność macierzy AB oznacza, że macierz AB jest nieujemnie określona,
  • ψ(θ)/θ jest macierzą, dla której ij th element jest dany przez ψi(θ)/θj.

Jeśli 𝑻(X) nieobciążonym estymatorem θ (to znaczy, ψ(θ)=θ), wtedy nierówność Craméra-Rao sprowadza się do

covθ(𝑻(X))I(θ)1.

Warunki regularności

Następujące dwa słabe warunki regularności gęstości prawdopodobieństwa f(x;θ) i estymatora T(X) są konieczne:

  • Informacja Fishera jest zawsze zdefiniowana; równoważnie x takie że f(x;θ)>0,
θlnf(x;θ)
istnieje i jest skończone.
  • Operacje calkowania po x i różniczkowania ze względu na θ są przemienne; to znaczy,
θ[T(x)f(x;θ)dx]=T(x)[θf(x;θ)]dx
wszędzie gdzie prawa strona jest skończona.

Szablon:Kontrola autorytatywna