Funkcja tworząca prawdopodobieństwa

Funkcja tworząca prawdopodobieństwa dyskretnej zmiennej losowej – przedstawienie szeregu potęgowego (funkcji tworzącej) funkcji masy prawdopodobieństwa zmiennej losowej. Funkcje tworzące prawdopodobieństwa są często wykorzystywane ze względu na ich zwięzły opis ciągu prawdopodobieństw P ( X = k ) {\displaystyle \mathbb {P} (X=k)} w funkcji rozkładu prawdopodobieństwa zmiennej losowej X {\displaystyle X} oraz do połączenia z dobrze rozwiniętą teorią szeregów potęgowych z nieujemnymi współczynnikami.

Definicja formalna

Przypadek jednowymiarowy

Jeżeli X {\displaystyle X} jest dyskretną zmienną losową o wartościach ze zbioru nieujemnych liczb całkowitych { 0 , 1 , } , {\displaystyle \{0,1,\dots \},} to funkcja tworząca prawdopodobieństwo X jest definiowana jako[1]

G X ( z ) = E ( z X ) = k = 0 P ( X = k ) z k . {\displaystyle G_{X}(z)=\mathbb {E} (z^{X})=\sum _{k=0}^{\infty }\mathbb {P} (X=k)z^{k}.}

Indeksy w oznaczeniach G X {\displaystyle G_{X}} i P X {\displaystyle P_{X}} są często używane do podkreślenia, że te oznaczenia odnoszą się do konkretnej zmiennej losowej X {\displaystyle X} i do jej rozkładu. Szereg potęgowy jest zbieżny bezwzględnie co najmniej dla wszystkich liczb zespolonych z , {\displaystyle z,} takich że | z | 1. {\displaystyle |z|\leqslant 1.} W wielu przykładach promień zbieżności jest większy.

Przypadek wielowymiarowy

Jeśli X = ( X 1 , , X d ) {\displaystyle X=(X_{1},\dots ,X_{d})} jest dyskretną zmienną losową o wartościach w d {\displaystyle d} -wymiarowej kracie nieujemnych liczb całkowitych { 0 , 1 , } d , {\displaystyle \{0,1,\dots \}^{d},} wtedy funkcję tworząca prawdopodobieństwa X jest zdefiniowana jako

G ( z ) = G ( z 1 , , z d ) = E ( z 1 X 1 z d X d ) = x 1 , , x d = 0 p ( x 1 , , x d ) z 1 x 1 z d x d , {\displaystyle G(z)=G(z_{1},\dots ,z_{d})=\mathbb {E} {\big (}z_{1}^{X_{1}}\ldots z_{d}^{X_{d}}{\big )}=\sum _{x_{1},\dots ,x_{d}=0}^{\infty }p(x_{1},\dots ,x_{d})z_{1}^{x_{1}}\ldots z_{d}^{x_{d}},}

gdzie p {\displaystyle p} jest funkcją masy prawdopodobieństwa X . {\displaystyle X.} Szereg potęgowy jest zbieżny bezwzględnie co najmniej na wszystkich złożonych wektorach z = ( z 1 , , z d ) C d {\displaystyle z=(z_{1},\dots ,z_{d})\in C_{d}} z max { | z 1 | , , | z d | } 1. {\displaystyle \max\{|z_{1}|,\dots ,|z_{d}|\}\leqslant 1.}

Właściwości

Szeregi potęgowe

Funkcje tworzące prawdopodobieństwo spełniają wszystkie warunki szeregów potęgowych o współczynnikach nieujemnych. W szczególności, G ( 1 ) = 1 , {\displaystyle G(1^{-})=1,} gdzie G ( 1 ) = lim z 1 G ( z ) {\displaystyle G(1^{-})=\lim _{z\to 1^{-}}G(z)} od dołu, ponieważ prawdopodobieństwa muszą sumować się do jedynki. Wynika z tego, że promień zbieżności każdej funkcji tworzącej prawdopodobieństwa musi być równy co najmniej 1 na mocy twierdzenia Abela dla szeregów potęgowych o nieujemnych współczynnikach.

Prawdopodobieństwa i wartości oczekiwane

Następujące własności pozwalają na wyprowadzenie różnych podstawowych wielkości związanych z X : {\displaystyle X{:}}

1. Funkcja gęstości prawdopodobieństwa X {\displaystyle X} można wyznaczyć za pomocą pochodnej G {\displaystyle G}

p ( k ) = P ( X = k ) = G ( k ) ( 0 ) k ! . {\displaystyle p(k)=\mathbb {P} (X=k)={\frac {G^{(k)}(0)}{k!}}.}

2. Z Własności 1 wynika, że jeśli zmienne losowe X {\displaystyle X} i Y {\displaystyle Y} mają równe funkcje tworzące prawdopodobieństwa, G X = G Y , {\displaystyle G_{X}=G_{Y},} to P X = P Y . {\displaystyle P_{X}=P_{Y}.} To znaczy, że jeśli X {\displaystyle X} i Y {\displaystyle Y} mają funkcje tworzące prawdopodobieństwa, to mają identyczne rozkłady.

3. Normalizacja funkcji gęstości prawdopodobieństwa może być wyrażona poprzez funkcje tworzące wzorem:

E ( 1 ) = G ( 1 ) = i = 0 f ( i ) = 1. {\displaystyle \mathbb {E} (1)=G(1^{-})=\sum _{i=0}^{\infty }f(i)=1.}

Wartość oczekiwana X {\displaystyle X} jest wyrażona jako

E ( X ) = G ( 1 ) . {\displaystyle \mathbb {E} (X)=G'(1^{-}).}

Bardziej ogólnie, k {\displaystyle k} -ty moment silni E ( X ) n = E ( X ( X 1 ) ( X k + 1 ) ) , {\displaystyle \mathbb {E} (X)_{n}=\mathbb {E} (X(X-1)\dots (X-k+1)),} X {\displaystyle X} jest dany przez

E ( X ! ( X k ) ! ) = G ( k ) ( 1 ) , k 0. {\displaystyle {\textrm {E}}\left({\frac {X!}{(X-k)!}}\right)=G^{(k)}(1^{-}),\quad k\geqslant 0.}

Więc wariancja X {\displaystyle X} jest wyrażona przez

Var ( X ) = G ( 1 ) + G ( 1 ) [ G ( 1 ) ] 2 . {\displaystyle \operatorname {Var} (X)=G''(1^{-})+G'(1^{-})-[G'(1^{-})]^{2}.}

4. G x ( e t ) = M X ( t ) , {\displaystyle G_{x}(e^{t})=M_{X}(t),} gdzie X {\displaystyle X} jest zmienną losową, G ( t ) {\displaystyle G(t)} funkcją tworzącą prawdopodobieństwa, a M ( t ) {\displaystyle M(t)} jest funkcją tworzącą momenty.

Funkcje niezależnych zmiennych losowych

Funkcje tworzące prawdopodobieństwo są szczególnie przydatne przy zajmowaniu się funkcjami niezależnych zmiennych losowych. Na przykład:

  • Jeśli X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} jest ciągiem niezależnych (i niekoniecznie o identycznym rozkładzie) zmiennych losowych i
S n = i = 1 n a i X i , {\displaystyle S_{n}=\sum _{i=1}^{n}a_{i}X_{i},}
gdzie ai są stałymi, wtedy funkcja tworząca prawdopodobieństwa jest dana przez
G S n ( z ) = E ( z S n ) = E ( z i = 1 n a i X i ) = G X 1 ( z a 1 ) G X 2 ( z a 2 ) G X n ( z a n ) . {\displaystyle G_{S_{n}}(z)=\mathbb {E} (z^{S_{n}})=\mathbb {E} (z^{\sum _{i=1}^{n}a_{i}X_{i}})=G_{X_{1}}(z^{a_{1}})G_{X_{2}}(z^{a_{2}})\ldots G_{X_{n}}(z^{a_{n}}).}
Na przykład jeśli
S n = i = 1 n X i , {\displaystyle S_{n}=\sum _{i=1}^{n}X_{i},}
to funkcja tworząca prawdopodobieństwa G   S n   ( z ) , {\displaystyle G\ Sn\ (z),} jest dana przez
G S n ( z ) = G X 1 ( z ) G X 2 ( z ) G X n ( z ) . {\displaystyle G_{S_{n}}(z)=G_{X_{1}}(z)G_{X_{2}}(z)\ldots G_{X_{n}}(z).}
Z powyższego wynika również, że funkcja tworząca prawdopodobieństwa różnicy dwóch niezależnych zmiennych losowych S = X 1 X 2 {\displaystyle S=X_{1}-X_{2}} jest
G S ( z ) = G X 1 ( z ) G X 2 ( 1 / z ) . {\displaystyle G_{S}(z)=G_{X_{1}}(z)G_{X_{2}}(1/z).}
  • Przypuśćmy, że N {\displaystyle N} jest także niezależną dyskretną zmienną losową przyjmującą wartości nieujemnych liczb całkowitych, z funkcją tworzącą prawdopodobieństwa G N . {\displaystyle G_{N}.} Jeśli x 1 , x 2 , , X n {\displaystyle x_{1},x_{2},\dots ,X_{n}} są niezależnymi i {\displaystyle i} i o identycznych rozkładach ze wspólną funkcją tworzącą prawdopodobieństwa G X , {\displaystyle G_{X},} wtedy
G S N ( z ) = G N ( G X ( z ) ) . {\displaystyle G_{S_{N}}(z)=G_{N}(G_{X}(z)).}
Można to zobaczyć, stosując twierdzenie o całkowitej wartości oczekiwanej, jak następuje:
G S N ( z ) = E ( z S N ) = E ( z i = 1 N X i ) = E ( E ( z i = 1 N X i | N ) ) = E ( ( G X ( z ) ) N ) = G N ( G X ( z ) ) . {\displaystyle G_{S_{N}}(z)=\mathbb {E} (z^{S_{N}})=\mathbb {E} (z^{\sum _{i=1}^{N}X_{i}})=\mathbb {E} {\big (}\mathbb {E} (z^{\sum _{i=1}^{N}X_{i}}|N){\big )}=\mathbb {E} {\big (}(G_{X}(z))^{N}{\big )}=G_{N}(G_{X}(z)).}
Ten ostatni fakt jest przydatny w badaniach procesu Galtona-Watsona.
  • Przypuśćmy znowu że N {\displaystyle N} jest także niezależną, dyskretna zmienną losową o wartości ze zbioru nieujemnych liczb całkowitych, z funkcją tworzącą prawdopodobieństwa G N . {\displaystyle G_{N}.} Jeżeli x 1 , x 2 , , X n {\displaystyle x_{1},x_{2},\dots ,X_{n}} są niezależnymi zmiennymi losowymi, ale nie o identycznych rozkładach, gdzie G X i {\displaystyle G_{X_{i}}} oznacza funkcję tworzącą prawdopodobieństwa X i , {\displaystyle X_{i},} wtedy
G S N ( z ) = i 1 f i k = 1 i G X i ( z ) . {\displaystyle G_{S_{N}}(z)=\sum _{i\geqslant 1}f_{i}\prod _{k=1}^{i}G_{X_{i}}(z).}
Dla X i {\displaystyle X_{i}} o identycznych rozkładach X i , {\displaystyle X_{i},} to upraszcza się do tożsamości powyżej. Ogólny przypadek jest czasami przydatny do uzyskania dekompozycji S N {\displaystyle S_{N}} poprzez funkcje tworzące.

Przykłady

  • Funkcja tworząca prawdopodobieństwa zmiennej losowej stałej równej c , {\displaystyle c,} to znaczy P ( X = c ) = 1 , {\displaystyle \mathbb {P} (X=c)=1,} jest
G ( z ) = z c . {\displaystyle G(z)=z^{c}.}
  • Funkcja tworząca prawdopodobieństwa dwumianowej zmiennej losowej, liczba sukcesów w n , {\displaystyle n,} próbach z prawdopodobieństwem p {\displaystyle p} sukcesu w każdej próbie, jest
G ( z ) = ( ( 1 p ) + p z ) n . {\displaystyle G(z)=\left((1-p)+pz\right)^{n}.}
Należy pamiętać, że jest to n {\displaystyle n} -krotny funkcji tworzącej prawdopodobieństwa losowej zmiennej Bernoulliego z parametrem p . {\displaystyle p.}
  • Funkcja tworząca prawdopodobieństwa zmiennej losowej dwumianowej ujemnej, liczba niepowodzeń które nastąpiły przed r {\displaystyle r} -tym sukcesem z prawdopodobieństwem sukcesu p {\displaystyle p} w każdej próbie, jest
G ( z ) = ( p 1 ( 1 p ) z ) r . {\displaystyle G(z)=\left({\frac {p}{1-(1-p)z}}\right)^{r}.}
Pamiętajmy że jest to r {\displaystyle r} -krotny produkt funkcji tworzącej prawdopodobieństwa geometrycznej zmiennej losowej.
G ( z ) = e λ ( z 1 ) . {\displaystyle G(z)={\textrm {e}}^{\lambda (z-1)}.}

Pojęcia pokrewne

Funkcja tworząca prawdopodobieństwa jest przykładem funkcji tworzącej ciąg: zobacz także formalne szeregi potęgowe. Jest to czasem nazywane transformatą Z funkcji masy prawdopodobieństwa.

Inne funkcje tworzące zmiennych losowych obejmują funkcję generowania momentów, funkcję charakterystyczną i funkcję tworzącą kumulanty.

Przypisy

  1. http://web.archive.org/web/20080221192419/http://www.am.qub.ac.uk/users/g.gribakin/sor/Chap3.pdf