Método delta

En estadística, el método delta es un método para derivar un aproximado de la distribución de probabilidad para una función de un estimador estadístico asintóticamente normal a partir del conocimiento de la limitación de varianza. En términos más generales, el método delta puede ser considerado como una generalización del teorema del límite central.[1]

Demostración en el caso Univariado

La demostración de este resultado es bastante sencilla bajo el supuesto de que g′(θ) es continua . Para comenzar, utilizamos el teorema del valor medio:

g ( X n ) = g ( θ ) + g ( θ ~ ) ( X n θ ) , {\displaystyle g(X_{n})=g(\theta )+g'({\tilde {\theta }})(X_{n}-\theta ),}

donde θ ~ {\displaystyle {\tilde {\theta }}} queda entre Xn y θ. Tenga en cuenta que, dado que X n P θ {\displaystyle X_{n}\,{\xrightarrow {P}}\,\theta } implica que θ ~ P θ {\displaystyle {\tilde {\theta }}\,{\xrightarrow {P}}\,\theta } y dado que g′(θ) es continua, aplicando el teorema de mapeo continuo se obtienes

g ( θ ~ ) P g ( θ ) , {\displaystyle g'({\tilde {\theta }})\,{\xrightarrow {P}}\,g'(\theta ),}

donde P {\displaystyle {\xrightarrow {P}}} denota la convergencia en la probabilidad.

Reordenando los términos y multiplicando por n {\displaystyle {\sqrt {n}}} nos da

n [ g ( X n ) g ( θ ) ] = g ( θ ~ ) n [ X n θ ] . {\displaystyle {\sqrt {n}}[g(X_{n})-g(\theta )]=g'({\tilde {\theta }}){\sqrt {n}}[X_{n}-\theta ].}

Dado que:

n [ X n θ ] D N ( 0 , σ 2 ) {\displaystyle {{\sqrt {n}}[X_{n}-\theta ]{\xrightarrow {D}}{\mathcal {N}}(0,\sigma ^{2})}}

por los suposición de, se deduce de inmediato de apelación al Teorema de Slutsky de que

n [ g ( X n ) g ( θ ) ] D N ( 0 , σ 2 [ g ( θ ) ] 2 ) . {\displaystyle {{\sqrt {n}}[g(X_{n})-g(\theta )]{\xrightarrow {D}}{\mathcal {N}}(0,\sigma ^{2}[g'(\theta )]^{2})}.}

Con lo que queda demostrado lo indicado.

Motivación del método delta multivariado

Por definición, un estimador consistente B converge en probabilidad a su verdadero valor β, y a menudo por el teorema del límite central se pueden aplicar para obtener normalidad asintótica:

n ( B β ) D N ( 0 , Σ ) , {\displaystyle {\sqrt {n}}\left(B-\beta \right)\,{\xrightarrow {D}}\,N\left(0,\Sigma \right),}

donde n es el número de observaciones y Σ es una matriz de covarianza (simétrica positivo semi-definida). Supongamos que queremos para estimar la varianza de una h función de la estimador de B. Manteniendo solo los primeros dos términos de la serie Taylor , y el uso de la notación vector para la gradiente de , podemos estimar h (B) como se

h ( B ) h ( β ) + h ( β ) T ( B β ) {\displaystyle h(B)\approx h(\beta )+\nabla h(\beta )^{T}\cdot (B-\beta )}

lo que implica la varianza de h (B) es aproximadamente el

Var ( h ( B ) ) Var ( h ( β ) + h ( β ) T ( B β ) ) = Var ( h ( β ) + h ( β ) T B h ( β ) T β ) = Var ( h ( β ) T B ) = h ( β ) T C o v ( B ) h ( β ) = h ( β ) T ( Σ / n ) h ( β ) {\displaystyle {\begin{aligned}\operatorname {Var} \left(h(B)\right)&\approx \operatorname {Var} \left(h(\beta )+\nabla h(\beta )^{T}\cdot (B-\beta )\right)\\&=\operatorname {Var} \left(h(\beta )+\nabla h(\beta )^{T}\cdot B-\nabla h(\beta )^{T}\cdot \beta \right)\\&=\operatorname {Var} \left(\nabla h(\beta )^{T}\cdot B\right)\\&=\nabla h(\beta )^{T}\cdot Cov(B)\cdot \nabla h(\beta )\\&=\nabla h(\beta )^{T}\cdot (\Sigma /n)\cdot \nabla h(\beta )\end{aligned}}}

Uno puede utilizar el teorema del valor medio (para las funciones reales de varias variables) para ver que este no se basa en tomar aproximación de primer orden.

Por lo tanto, El método delta implica que:

n ( h ( B ) h ( β ) ) D N ( 0 , h ( β ) T Σ h ( β ) ) {\displaystyle {\sqrt {n}}\left(h(B)-h(\beta )\right)\,{\xrightarrow {D}}\,N\left(0,\nabla h(\beta )^{T}\cdot \Sigma \cdot \nabla h(\beta )\right)}

o en términos univariados,

n ( h ( B ) h ( β ) ) D N ( 0 , σ 2 ( h ( β ) ) 2 ) . {\displaystyle {\sqrt {n}}\left(h(B)-h(\beta )\right)\,{\xrightarrow {D}}\,N\left(0,\sigma ^{2}\cdot \left(h^{\prime }(\beta )\right)^{2}\right).}

Ejemplo

Supongamos que Xn es Binomial con parámetros p y la n. Desde

n [ X n n p ] D N ( 0 , p ( 1 p ) ) , {\displaystyle {{\sqrt {n}}\left[{\frac {X_{n}}{n}}-p\right]\,{\xrightarrow {D}}\,N(0,p(1-p))},}

podemos aplicar el método Delta con g (θ) = log (θ) para ver

n [ log ( X n n ) log ( p ) ] D N ( 0 , p ( 1 p ) [ 1 / p ] 2 ) {\displaystyle {{\sqrt {n}}\left[\log \left({\frac {X_{n}}{n}}\right)-\log(p)\right]\,{\xrightarrow {D}}\,N(0,p(1-p)[1/p]^{2})}}

Por lo tanto, la varianza de log ( X n n ) {\displaystyle \log \left({\frac {X_{n}}{n}}\right)} es aproximadamente

1 p p n . {\displaystyle {\frac {1-p}{p\,n}}.\,\!}

Por otra parte, si p ^ {\displaystyle {\hat {p}}} and q ^ {\displaystyle {\hat {q}}} son estimaciones de los diferentes tipos de grupo de muestras independientes de tamaños n y m respectivamente, entonces el logaritmo de la estimación de riesgo relativo p ^ q ^ {\displaystyle {\frac {\hat {p}}{\hat {q}}}} aproximadamente él está normalmente distribuida con varianza que puede ser estimada por los 1 p ^ p ^ n + 1 q ^ q ^ m {\displaystyle {\frac {1-{\hat {p}}}{{\hat {p}}\,n}}+{\frac {1-{\hat {q}}}{{\hat {q}}\,m}}} . Esto es útil para construir una prueba de hipótesis o para hacer un intervalo de confianza para el riesgo relativo.

Nota

El método delta se utiliza a menudo en una forma que es esencialmente idéntica a la anterior, pero sin el supuesto de que X n o B es asintóticamente normal. A menudo el único contexto es que la varianza es "pequeña". Los resultados a continuación, solo dan aproximaciones a los medios y covarianzas de las cantidades transformadas. Por ejemplo, las fórmulas presentadas en Klein (. 1953, p 258) son:

Var ( h r ) = i ( h r B i ) 2 Var ( B i ) + i j i ( h r B i ) ( h r B j ) Cov ( B i , B j ) Cov ( h r , h s ) = i ( h r B i ) ( h s B i ) Var ( B i ) + i j i ( h r B i ) ( h s B j ) Cov ( B i , B j ) {\displaystyle {\begin{aligned}\operatorname {Var} \left(h_{r}\right)=&\sum _{i}\left({\frac {\partial h_{r}}{\partial B_{i}}}\right)^{2}\operatorname {Var} \left(B_{i}\right)+\\&\sum _{i}\sum _{j\neq i}\left({\frac {\partial h_{r}}{\partial B_{i}}}\right)\left({\frac {\partial h_{r}}{\partial B_{j}}}\right)\operatorname {Cov} \left(B_{i},B_{j}\right)\\\operatorname {Cov} \left(h_{r},h_{s}\right)=&\sum _{i}\left({\frac {\partial h_{r}}{\partial B_{i}}}\right)\left({\frac {\partial h_{s}}{\partial B_{i}}}\right)\operatorname {Var} \left(B_{i}\right)+\\&\sum _{i}\sum _{j\neq i}\left({\frac {\partial h_{r}}{\partial B_{i}}}\right)\left({\frac {\partial h_{s}}{\partial B_{j}}}\right)\operatorname {Cov} \left(B_{i},B_{j}\right)\end{aligned}}}

donde hr es el résimo elemento de h(B) y Bi es el iésimo elemento de B. La única diferencia es que Klein declaró estos como identidades, mientras que son en realidad aproximaciones.

Referencias

  1. Oehlert, G. W. (1992). A note on the delta method. The American Statistician, 46(1), 27-29.

Bibliografía adicional

  • Casella, G. and Berger, R. L. (2002), Statistical Inference, 2nd ed.
  • Cramér, H. (1946), Mathematical Models of Statistics, p. 353.
  • Davison, A. C. (2003), Statistical Models, pp. 33-35.
  • Greene, W. H. (2003), Econometric Analysis, 5th ed., pp. 913f.
  • Klein, L. R. (1953), A Textbook of Econometrics, p. 258.
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q1132714
  • Wd Datos: Q1132714