Entropia krzyżowa

Z testwiki
Przejdź do nawigacji Przejdź do wyszukiwania

Entropia krzyżowa – wartość używana w teorii informacjiSzablon:R. Wykorzystywana do oceny nietrafności rozkładu względem drugiego rozkładu hipotetycznie prawdziwegoSzablon:R.

Definicja

Wzór na entropię krzyżową dyskretnej zmiennej losowej X o zbiorze wartości {x1,x2,...,xn} i zdefiniowanych na nich rozkładach prawdopodobieństw p i qSzablon:R:

H(p,q,X)=i=1np(xi)logq(xi).

Interpretując entropię krzyżową jako miarę nietrafności, za p przyjmuje się rozkład traktowany jako prawdziwy, a za q rozkład ocenianySzablon:R.

Własności

PonieważSzablon:R

H(p,q)=i=1np(xi)logq(xi)=i=1np(xi)logp(xi)i=1np(xi)logq(xi)p(xi),

entropię krzyżową można interpretować jako sumę entropii dla rzeczywistego rozkładu prawdopodobieństwa p oraz miary dywergencji Kullbacka-Leiblera między p i qSzablon:R:

H(p,q)=H(p)+dKL(p,q).

Traktując entropię krzyżową jako nietrafność q względem p, można traktować ją jako sumę nietrafności związanej z niepewnością H(p) i nietrafności związanej z błędem q względem pSzablon:R.

Przypisy

Błąd rozszerzenia cite: Znacznik <ref> o nazwie „good”, zdefiniowany w <references>, nie był użyty wcześniej w treści.
Błąd rozszerzenia cite: Znacznik <ref> o nazwie „kerridge”, zdefiniowany w <references>, nie był użyty wcześniej w treści.

Szablon:Kontrola autorytatywna