Łączny rozkład prawdopodobieństwa

Z testwiki
Przejdź do nawigacji Przejdź do wyszukiwania
Czarne punkty uzyskane z pomiaru dwóch zmiennych losowych X, Y – większej gęstości punktów w pobliżu danego punktu (x, y) odpowiada większe łączne prawdopodobieństwo, że X przyjmie wartość w pobliżu x, a Y w pobliżu y. Pokazano też rozkłady brzegowe P(X=x) oraz P(Y=y).

Łączny rozkład prawdopodobieństwa[1] (rzadziej wspólny rozkład prawdopodobieństwa, Szablon:Ang.) – rodzaj rozkładu prawdopodobieństwa, który zmiennym losowym X, Y, .... przypisuje prawdopodobieństwo, iż zmienne X, Y, .... przyjmą określone wartości (ciągłe lub dyskretne, należące do specyficznych dla każdej z nich zbiorów wartości).

Jeśli mamy tylko dwie zmienne losowe, to rozkład nazywamy dwuwymiarowym, a dla większej liczby zmiennych losowych rozkład nazywamy wielowymiarowym.

Łączny rozkład prawdopodobieństwa może zostać wyrażony także jako łączna dystrybuanta, łączna funkcja gęstości prawdopodobieństwa (w przypadku zmiennych ciągłych) lub łączna funkcja masy prawdopodobieństwa (w przypadku zmiennych dyskretnych). Te z kolei mogą być wykorzystywane do znalezienia dwóch innych rodzajów rozkładów: rozkładu brzegowego (czyli rozkładu prawdopodobieństwa dla jakiejś jednej zmiennej losowej bez odniesienia do pozostałych zmiennych) oraz rozkładu warunkowego (czyli rozkładu prawdopodobieństwa dla wybranego podzbioru zmiennych losowych przy ustalonych wartościach pozostałych zmiennych).

Przykład

Rozważmy rzut sześcienną kostką do gry i skonstruujmy następujące zmienne: A = 1, jeśli wypadnie liczba parzysta (2, 4 lub 6), oraz A = 0, jeśli wypadnie liczba nieparzysta (1, 3 lub 5). Analogicznie, B = 1, jeśli wypadnie liczba pierwsza (2, 3 lub 5), oraz B = 0, jeśli wypadnie inna liczba (1, 4 lub 6).

1 2 3 4 5 6
A 0 1 0 1 0 1
B 0 1 1 0 1 0

Wtedy łączny rozkład prawdopodobieństwa dla A i B, wyrażony jako funkcja masy prawdopodobieństwa, wynosi

P(A=0,B=0)=P{1}=16,
P(A=1,B=0)=P{4,6}=26,
P(A=0,B=1)=P{3,5}=26,
P(A=1,B=1)=P{2}=16.

Ważne rodzaje rozkładów

Nazwanymi przykładami rozkładów łącznych są: wielowymiarowy rozkład normalny, rozkład wielomianowy, ujemny rozkład wielomianowy, wielowymiarowy rozkład hipergeometryczny i rozkład eliptyczny.

Dystrybuanta

Łączny rozkład prawdopodobieństwa dla pary zmiennych losowych może być wyrażona w terminie ich dystrybuanty:

F(x,y)=P(Xx,Yy).

Funkcja gęstości lub funkcja masy

Rozkłady dyskretne

Łączna funkcja masy prawdopodobieństwa dla dwóch zmiennych losowych dyskretnych jest równa

P(X=x i Y=y)=P(Y=yX=x)P(X=x)=P(X=xY=y)P(Y=y).

Łączny rozkład prawdopodobieństwa n zmiennych losowych dyskretnych X1,X2,,Xn jest równy

P(X1=x1,,Xn=xn)=P(X1=x1)× P(X2=x2X1=x1)× P(X3=x3X1=x1,X2=x2)× × P(Xn=xnX1=x1,X2=x2,,Xn1=xn1).

Tożsamość ta jest znana w teorii prawdopodobieństwa pod nazwą reguła łańcuchowa.

Ponieważ są to prawdopodobieństwa, w przypadku dwóch zmiennych mamy

ijP(X=xi i Y=yj)=1,

które uogólniają n zmiennych losowych dyskretnych X1,X2,,Xn do

ijkP(X1=x1i,X2=x2j,,Xn=xnk)=1.

Rozkłady ciągłe

Łączna funkcja gęstości prawdopodobieństwa fX,Y(x,y) dla zmiennych losowych ciągłych wynosi

fX,Y(x,y)=fYX(y|x)fX(x)=fXY(xy)fY(y),

gdzie fYX(yx) i fXY(xy) dają rozkład warunkowy, gdzie Y równa się X=x, a X równa się Y=y, natomiast fX(x) i fY(y) dają rozkład brzegowy odpowiednio dla X i Y.

Ponieważ są to rozkłady prawdopodobieństwa, po połączeniu ich uzyskamy:

xyfX,Y(x,y)dydx=1.

Łączny rozkład dla zmiennych niezależnych

Jeśli dla zmiennych losowych dyskretnych P(X=x i Y=y)=P(X=x)P(Y=y) dla wszystkich x i y całkowicie zmiennych losowych ciągłych fX,Y(x,y)=fX(x)fY(y) dla wszystkich x i y, wtedy x i y są uważane za niezależne. Oznacza to, że pozyskiwanie informacji o wartości jednej lub więcej zmiennych losowych prowadzi do rozkładu warunkowego innych zmiennych, który jest identyczny do rozkładu bezwarunkowego (brzegowego), zatem nie zmienne są źródłem informacji o zmiennych losowych.

Łączny rozkład dla zmiennych zależnych warunkowo

Jeśli podzbiór A zmiennych X1,,Xn jest warunkowo zależny od innego podzbioru B tych zmiennych, wówczas łączny rozkład P(X1,,Xn) można zapisać jako P(B)P(AB). Dzięki temu rozkład ten można skutecznie przedstawić za pomocą mniejszych wielowymiarowych rozkładów prawdopodobieństwa P(B) oraz P(AB). Zależności warunkowe (ang. conditional independence relations) tego typu mogą być modelowane za pomocą sieci bayesowskich.

Zobacz też

Przypisy

Szablon:Przypisy

Bibliografia