Entropia binarna

Z testwiki
Przejdź do nawigacji Przejdź do wyszukiwania
Entropia zmiennej losowej X przyjmującej wartość 0 lub 1.

Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1.

Jeśli X=1 zachodzi z prawdopodobieństwem Pr(X=1)=p, a X=0 zachodzi z prawdopodobieństwem Pr(X=0)=1p, to entropia Shannona wynosi:

H(X)=Hb(p)=plog2p+(1p)log2(1p),

gdzie:

0log0 jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny.

W przypadku kiedy p=12, entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit.

Funkcja entropii binarnej Hb(p), w odróżnieniu od entropii Shannona H(X), przyjmuje jako argument liczbę rzeczywistą p zamiast rozkładu prawdopodobieństwa X.

Pochodna

Pochodna funkcji entropii binarnej może być zapisana za pomocą funkcji logitowej:

ddpHb(p)=logit2(p)=log2(p1p).

Zobacz też

Linki zewnętrzne