Distribución Bernoulli

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada.
Busca fuentes: «Distribución Bernoulli» – noticias · libros · académico · imágenes
Este aviso fue puesto el 24 de diciembre de 2014.
Bernoulli
Parámetros 0 < p < 1 {\displaystyle 0<p<1}
Dominio x = { 0 , 1 } {\displaystyle x=\{0,1\}\,}
Función de probabilidad (fp) p x ( 1 p ) 1 x {\displaystyle p^{x}(1-p)^{1-x}}
Función de distribución (cdf) { 0 x < 0 1 p 0 x < 1 1 x 1 {\displaystyle {\begin{cases}0&x<0\\1-p&0\leq x<1\\1&x\geq 1\end{cases}}}
Media p {\displaystyle p\,}
Mediana N/A
Moda { 0 q > p 0 , 1 q = p 1 q < p {\displaystyle {\begin{cases}0&q>p\\0,1&q=p\\1&q<p\end{cases}}}
Varianza p ( 1 p ) {\displaystyle p(1-p)\,}
Coeficiente de simetría q p p q {\displaystyle {\frac {q-p}{\sqrt {pq}}}}
Curtosis 3 p 2 3 p + 1 p ( 1 p ) {\displaystyle {\frac {3p^{2}-3p+1}{p(1-p)}}}
Entropía q ln ( q ) p ln ( p ) {\displaystyle -q\ln(q)-p\ln(p)\,}
Función generadora de momentos (mgf) 1 p + p e t {\displaystyle 1-p+pe^{t}\,}
Función característica 1 p + p e i t {\displaystyle 1-p+pe^{it}\,}
[editar datos en Wikidata]

En teoría de probabilidad y estadística, la distribución Bernoulli (o distribución dicotómica), nombrada así por el matemático suizo Jacob Bernoulli, es una distribución de probabilidad discreta, dónde el valor 1 {\displaystyle 1} (éxito) ocurre con la probabilidad p {\displaystyle p} y el valor 0 {\displaystyle 0} (fracaso) con la probabilidad q = 1 p {\displaystyle q=1-p} .

Un experimento al cual se aplica la distribución de Bernoulli se conoce como Ensayo de Bernoulli o simplemente ensayo y la serie de esos experimentos como experimento Bernoulli.

Definición

Si X {\displaystyle X} es una variable aleatoria discreta que mide el "número de éxitos" y se realiza un único experimento con dos posibles resultados denominados éxito y fracaso, se dice que la variable aleatoria X {\displaystyle X\,} se distribuye como una Bernoulli de parámetro p {\displaystyle p\,} con 0 < p < 1 {\displaystyle 0<p<1} y escribimos X Bernoulli ( p ) {\displaystyle X\sim \operatorname {Bernoulli} (p)} .

Función de Probabilidad

Su función de probabilidad es

P [ X = x ] = p x ( 1 p ) 1 x x = 0 , 1 {\displaystyle \operatorname {P} [X=x]=p^{x}(1-p)^{1-x}\qquad x=0,1}

lo anterior es equivalente a escribir

P [ X = x ] = { 1 p si  x = 0 p si  x = 1 {\displaystyle \operatorname {P} [X=x]={\begin{cases}1-p&{\mbox{si }}x=0\\p&{\mbox{si }}x=1\end{cases}}}

en ocasiones también suele escribirse como

P [ X = x ] = p x + ( 1 p ) ( 1 x ) x = 0 , 1 {\displaystyle \operatorname {P} [X=x]=px+(1-p)(1-x)\qquad x=0,1}

Función de Distribución

La función de distribución acumulada de una variable aleatoria X Bernoulli ( p ) {\displaystyle X\sim \operatorname {Bernoulli} (p)} está dada por

F ( x ) = { 0 x < 0 1 p 0 x < 1 1 x 1 {\displaystyle F(x)={\begin{cases}0&x<0\\1-p&0\leq x<1\\1&x\geq 1\end{cases}}}

Propiedades

Si X {\displaystyle X} es una variable aleatoria tal que X Bernoulli ( p ) {\displaystyle X\sim \operatorname {Bernoulli} (p)} entonces la variable aleatoria X {\displaystyle X} cumple algunas propiedades.

Media

Su media está dada por

E [ X ] = p {\displaystyle \operatorname {E} \left[X\right]=p}

Esta se demuestra fácilmente utilizando la definición de esperanza

E [ X ] = 0 P [ X = 0 ] + 1 P [ X = 1 ] = p {\displaystyle {\begin{aligned}\operatorname {E} [X]&=0\cdot \operatorname {P} [X=0]+1\cdot \operatorname {P} [X=1]\\&=p\end{aligned}}}

con lo anterior es fácil obtener una expresión para E [ X 2 ] {\displaystyle \operatorname {E} [X^{2}]} pues

E [ X 2 ] = x = 0 1 x 2 p x ( 1 p ) 1 x = p ( 1 p ) 1 1 = p {\displaystyle {\begin{aligned}\operatorname {E} [X^{2}]&=\sum _{x=0}^{1}x^{2}p^{x}(1-p)^{1-x}\\&=p(1-p)^{1-1}\\&=p\end{aligned}}}

Varianza

Teniendo E [ X 2 ] {\displaystyle \operatorname {E} [X^{2}]} y E [ X ] {\displaystyle \operatorname {E} [X]} puede deducirse que la varianza de X {\displaystyle X} está dada por

Var [ X ] = E [ X 2 ] E [ X ] 2 = p p 2 = p ( 1 p ) {\displaystyle {\begin{aligned}\operatorname {Var} \left[X\right]&=\operatorname {E} [X^{2}]-\operatorname {E} [X]^{2}\\&=p-p^{2}\\&=p\left(1-p\right)\end{aligned}}}


Otras propiedades

El n {\displaystyle n} -ésimo momento de la variable aleatoria X {\displaystyle X} es

E [ X n ] = p {\displaystyle \operatorname {E} \left[X^{n}\right]=p}

Su función generadora de momentos está dada por

M X ( t ) = 1 p + p e t {\displaystyle M_{X}(t)=1-p+pe^{t}}

Su función generadora de probabilidad está dada por

G X ( t ) = 1 p + p t {\displaystyle G_{X}(t)=1-p+pt}

La función característica está dada por

φ X ( t ) = 1 p + p e i t {\displaystyle \varphi _{X}(t)=1-p+pe^{it}}

Moda

M = { 0 p < 1 / 2 0 , 1 p = 1 / 2 1 p > 1 / 2 {\displaystyle M={\begin{cases}0&p<1/2\\0,1&p=1/2\\1&p>1/2\end{cases}}}

Asimetría (Sesgo)

γ 1 = q p q p {\displaystyle \gamma _{1}={\frac {q-p}{\sqrt {qp}}}}

Curtosis

γ 2 = 6 p 2 6 p + 1 p ( 1 p ) {\displaystyle \gamma _{2}={\frac {6p^{2}-6p+1}{p(1-p)}}}

La Curtosis tiende a infinito para valores de p {\displaystyle p} cercanos a 0 o a 1, pero para p = 1 2 {\displaystyle p={\frac {1}{2}}} la distribución de Bernoulli tiene un valor de curtosis menor que el de cualquier otra distribución, igual a -2.

Como caso particular de la distribución binomial

La distribución Bernoulli es un caso especial de la distribución binomial con n = 1 {\displaystyle n=1} , esto es Bernoulli ( p ) Bin ( 1 , p ) {\displaystyle \operatorname {Bernoulli} (p)\equiv \operatorname {Bin} (1,p)} .

Distribuciones Relacionadas

  • Si X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} son n {\displaystyle n} variables aleatorias independientes e identicamente distribuidas con X i Bernoulli ( p ) {\displaystyle X_{i}\sim \operatorname {Bernoulli} (p)} entonces la variable aleatoria X 1 + X 2 + + X n {\displaystyle X_{1}+X_{2}+\dots +X_{n}} sigue una distribución binomial con parámetros n {\displaystyle n} y p {\displaystyle p} , es decir
i = 1 n X i Bin ( n , p ) {\displaystyle \sum _{i=1}^{n}X_{i}\sim \operatorname {Bin} (n,p)}

Ejemplos

Ejemplo 1

Se quiere lanzar una moneda y obtener la probabilidad de que salga cruz, se trata de un solo experimento con dos resultados posibles: el éxito se considerará sacar cruz y valdrá p = 0.5 {\displaystyle p=0.5} . El fracaso será que salga cara y vale q = 1 p = 1 0.5 = 0.5 {\displaystyle q=1-p=1-0.5=0.5} .

La variable aleatoria X {\displaystyle X} mide el "número de cruces que salen en un lanzamiento" y sólo existirán dos resultados posibles: 0 (no salga cruz, es decir, salir cara) y 1 (salga cruz), por lo tanto, la variable aleatoria X {\displaystyle X} se distribuirá como una Bernoulli con parámetro p = 0.5 {\displaystyle p=0.5} , es decir, X Bernoulli ( 0.5 ) {\displaystyle X\sim \operatorname {Bernoulli} (0.5)} , por lo que

P [ X = 0 ] = f ( 0 ) = 0.5 0 0.5 1 = 0.5 P [ X = 1 ] = f ( 1 ) = 0.5 1 0.5 0 = 0.5 {\displaystyle {\begin{aligned}\operatorname {P} [X=0]&=f(0)=0.5^{0}0.5^{1}=0.5\\\operatorname {P} [X=1]&=f(1)=0.5^{1}0.5^{0}=0.5\end{aligned}}}

Ejemplo 2

Se lanza un dado y se quiere hallar la probabilidad de que salga un 6.

Cuando lanzamos un dado tenemos 6 posibles resultados:

Ω = { 1 , 2 , 3 , 4 , 5 , 6 } {\displaystyle \Omega =\{1,2,3,4,5,6\}}

Estamos realizando un único experimento (lanzar el dado una sola vez).

Se considera éxito sacar un 6, por lo tanto, la probabilidad según la Regla de Laplace (casos favorables dividido entre casos posibles) será 1/6.

p = 1 / 6 {\displaystyle p=1/6}

Se considera éxito sacar un 6, por tanto, se considera fracaso sacar cualquier otro resultado.

q = 1 p = 1 1 / 6 = 5 / 6 {\displaystyle q=1-p=1-1/6=5/6}

La variable aleatoria X medirá "número de veces que sale un 6", y solo existen dos valores posibles, 0 (que no salga 6) y 1 (que salga un 6).

Por tanto, la variable aleatoria X se distribuye como una Bernoulli de parámetro p {\displaystyle p} = 1/6

X Bernoulli ( 1 / 6 ) {\displaystyle X\sim \operatorname {Bernoulli} (1/6)}

La probabilidad de que obtengamos un 6 viene definida como la probabilidad de que X sea igual a 1.

P ( X = 1 ) = f ( 1 ) = ( 1 / 6 ) 1 ( 5 / 6 ) 0 = 1 / 6 = 0.1667 {\displaystyle P(X=1)=f(1)=(1/6)^{1}*(5/6)^{0}=1/6=0.1667}

La probabilidad de que NO obtengamos un 6 viene definida como la probabilidad de que X sea igual a 0.

P ( X = 0 ) = f ( 0 ) = ( 1 / 6 ) 0 ( 5 / 6 ) 1 = 5 / 6 = 0.8333 {\displaystyle P(X=0)=f(0)=(1/6)^{0}*(5/6)^{1}=5/6=0.8333}

Véase también

Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q391371
  • Commonscat Multimedia: Bernoulli distribution / Q391371

  • Wd Datos: Q391371
  • Commonscat Multimedia: Bernoulli distribution / Q391371