Método delta

Em Inferência estatística, o Método Delta é uma técnica utilizada para aproximar um vetor aleatório através de uma expansão de Taylor. é um método simples, mas útil, para deduzir a distribuição assintótica de variáveis.[1]

O Teorema do Limite Central pode ser considerado como um caso particular do Método Delta. Assim deve começar por familiarizar-se com este teorema.

O teorema do limite central afirma que a soma de um número suficientemente elevado de variáveis aleatórias identicamente distribuídas tem uma distribuição semelhante a uma distribuição Normal.

Verificadas certas condições, o Método Delta permite concluir que uma função (não apenas a soma) de um número suficientemente elevado de variáveis aleatórias também tem uma distribuição semelhante a uma distribuição Normal.

Enunciado formal do Método Delta

Ver artigo principal: variável aleatória
Ver artigo principal: Teorema de Mann-Wald
  • Seja uma função contínua g : D R k R m {\displaystyle g:D\subset {\mathbb {R} ^{k}}\rightarrow \mathbb {R} ^{m}} definida num subconjunto de R k {\displaystyle \mathbb {R} ^{k}} chamado "D" e diferenciável no ponto μ {\displaystyle \mu } .
  • Sejam Yn vetores aleatórios que assumem valores no domínio da função g, tal que E [ Y n ] = μ {\displaystyle E\left[Y_{n}\right]=\mu }
  • Seja Y um vetor aleatório (no caso particular de esse vetor aleatório ter dimensão 1X1, teremos uma variável aleatória, mas aqui vamos apresentar o enunciado geral).
  • Lembre-se que d {\displaystyle {\xrightarrow {d}}} designa uma convergência em distribuição.
  • Suponha que r n [ Y n μ ] d Y {\displaystyle r_{n}\left[Y_{n}-\mu \right]{\xrightarrow {d}}Y} quando r n {\displaystyle r_{n}\rightarrow \infty } .

Então[1] ,

r n [ g ( Y n ) g ( μ ) ] d g ( μ ) Y {\displaystyle r_{n}\left[g\left(Y_{n}\right)-g\left(\mu \right)\right]{\xrightarrow {d}}g'\left(\mu \right)Y}

Caso particular: distribuição normal

Seja Y n {\displaystyle Y_{n}} uma sucessão de variáveis aleatórias tais que

n [ Y n μ ] d N ( 0 , σ 2 ) , {\displaystyle {{\sqrt {n}}[Y_{n}-\mu ]\,{\xrightarrow {d}}\,N(0,\sigma ^{2})},} .

onde σ 2 {\displaystyle \sigma ^{2}} é a variância da distribuição Normal e μ {\displaystyle \mu } é o valor esperado de Y n {\displaystyle Y_{n}} . Estes valores têm de existir e serem finitos.

Considere também uma função "g" diferenciável em μ {\displaystyle \mu } .

  • Método Delta de 1ª ordem: Considere o caso em que, para o valor especifico μ {\displaystyle \mu } , g ( μ ) 0 {\displaystyle g'(\mu )\neq 0} .Então:
n [ g ( Y n ) g ( μ ) ] d N ( 0 , σ 2 [ g ( μ ) ] 2 ) {\displaystyle {{\sqrt {n}}[g(Y_{n})-g(\mu )]\,{\xrightarrow {d}}\,N(0,\sigma ^{2}[g'(\mu )]^{2})}} [2][3]
  • Método delta de 2ª ordem: Considere agora o caso em que, para o valor especifico μ {\displaystyle \mu } , g ( μ ) = 0 {\displaystyle g'\left(\mu \right)=0} mas que g ( μ ) 0 {\displaystyle g''\left(\mu \right)\neq 0} . Então,
n [ g ( Y n ) g ( μ ) ] d σ 2 g ( μ ) 2 χ 1 2 {\displaystyle {\sqrt {n}}\left[g(Y_{n})-g(\mu )\right]{\xrightarrow {d}}\sigma ^{2}{\frac {g''\left(\mu \right)}{2}}\chi _{1}^{2}} ,[4] porque o quadrado de uma distribuição normal padrão é uma qui-quadrado χ 1 2 {\displaystyle \chi _{1}^{2}} [3] .
  • Método Delta de ordens superiores: Considere finalmente o caso em que a função g é "r" vezes derivável e que, para o valor especifico μ {\displaystyle \mu } , g ( μ ) = g ( μ ) = . . . = g ( r 1 ) ( μ ) = 0 {\displaystyle g'\left(\mu \right)=g''\left(\mu \right)=...=g^{(r-1)}\left(\mu \right)=0} mas que a r-ésima derivada g ( r ) ( μ ) 0 {\displaystyle g^{(r)}\left(\mu \right)\neq 0} . Então,
( n ) r [ g ( Y n ) g ( μ ) ] d σ 2 g ( r ) ( μ ) r ! Y r {\displaystyle \left({\sqrt {n}}\right)^{r}\left[g(Y_{n})-g(\mu )\right]{\xrightarrow {d}}\sigma ^{2}{\frac {g^{(r)}\left(\mu \right)}{r!}}Y^{r}} [5]

Exemplos

Exemplo 1

Do Teorema do Limite Central sabemos que ( n ) [ X ¯ n μ ] d N ( 0 , σ 2 ) {\displaystyle {\sqrt {(}}n)[{\overline {X}}_{n}-\mu ]{\xrightarrow {d}}N(0,\sigma ^{2})} .

Consideremos agora g ( x ) = 1 / x {\displaystyle g(x)=1/x} , sabemos que g ( x ) = 1 / x 2 {\displaystyle g'(x)=-1/x^{2}} que para x {\displaystyle \forall x\in } IR\{0} é diferente de 0.

Então estamos nas condições do Método Delta e podemos afirmar que ( n ) [ g ( X ¯ n ) g ( μ ) ] d N ( 0 , σ 2 [ g ( μ ) ] 2 ) = ( n ) [ 1 / X ¯ n 1 / μ ] d N ( 0 , σ 2 / μ 4 ) {\displaystyle {\sqrt {(}}n)[g({\overline {X}}_{n})-g(\mu )]{\xrightarrow {d}}N(0,\sigma ^{2}[g'(\mu )]^{2})={\sqrt {(}}n)[1/{\overline {X}}_{n}-1/\mu ]{\xrightarrow {d}}N(0,\sigma ^{2}/\mu ^{4})} .[6]

Nota:

g ( x ) = ( 1 / x ) = 1 / x 2 {\displaystyle g'(x)=(1/x)'=-1/x^{2}}

[ g ( x ) ] 2 = [ 1 / x 2 ] 2 = 1 / x 4 {\displaystyle [g'(x)]^{2}=[-1/x^{2}]^{2}=1/x^{4}}

[ g ( μ ) ] 2 = 1 / μ 4 {\displaystyle [g'(\mu )]^{2}=1/\mu ^{4}}

Exemplo 2

Ver artigo principal: distribuição de Bernoulli

Suponha Y 1 , Y 2 , . . . , Y n {\displaystyle Y_{1},Y_{2},...,Y_{n}} variáveis aleatórias independentes com distribuição de Bernoulli (p). O parâmetro de interesse típico é p = E [ Y ] {\displaystyle p=E\left[Y\right]} , a probabilidade de sucesso, mas outro parâmetro popular é ( p ) / ( 1 p ) {\displaystyle {\left(p\right)/\left(1-p\right)}} , que mede a chance. Por exemplo, se os dados representam os resultados de uma moeda viciada com p=2/3 para "cara", então a moeda tem chance 2:1 de mostrar o resultado "cara".

Vamos considerar a utilização de ( p ^ ) / ( 1 p ^ ) {\displaystyle {\left({\hat {p}}\right)/\left(1-{\hat {p}}\right)}} como uma estimativa para ( p ) / ( 1 p ) {\displaystyle {\left(p\right)/\left(1-p\right)}} . Ou seja, vamos jogar a moeda "n" vezes, contar o número de caras e obter p ^ = ( i = 1 N Y i ) / n {\displaystyle {\hat {p}}=\left(\sum _{i=1}^{N}Y_{i}\right)/n} a partir desta amostra de n observações, e utilizar este p estimado ( p ^ {\displaystyle {\hat {p}}} ) como estimativa para o verdadeiro parâmetro p. Nosso interesse, agora, é saber a variância de ( p ^ ) / ( 1 p ^ ) {\displaystyle {\left({\hat {p}}\right)/\left(1-{\hat {p}}\right)}} . O método delta permite obter uma resposta aproximada, já que uma resposta exata não é possível.

Vamos então definir a função g ( p ) = p 1 p {\displaystyle g(p)={\frac {p}{1-p}}} . Portanto, g ( p ) = 1 ( 1 p ) 2 {\displaystyle g'(p)={\frac {1}{\left(1-p\right)^{2}}}} .

Pelo método delta, teremos que:

V a r ( p ^ 1 p ^ ) [ g ( p ) ] 2 V a r ( p ^ )   [ 1 ( 1 p ) 2 ] 2 p ( 1 p ) n {\displaystyle {\begin{matrix}Var\left({\frac {\hat {p}}{1-{\hat {p}}}}\right)&\approx &\left[g'(p)\right]^{2}Var\left({\hat {p}}\right)\\\ &\approx &\left[{\frac {1}{\left(1-p\right)^{2}}}\right]^{2}{\frac {p\left(1-p\right)}{n}}\end{matrix}}} [3]

Demonstração

Sabemos que ( n ) [ Y n μ ] d N ( 0 , σ 2 ) <=> ( n ) [ Y n μ σ ] d N ( 0 , 1 ) {\displaystyle {\sqrt {(}}n)[Y_{n}-\mu ]{\xrightarrow {d}}N(0,\sigma ^{2})<=>{\sqrt {(}}n)[{\frac {Y_{n}-\mu }{\sigma }}]{\xrightarrow {d}}N(0,1)}

Sabemos também que g ( μ ) 0 {\displaystyle g'(\mu )\neq 0} , existe e é finito.

O desenvolvimento em série de Taylor de g ( Y n ) {\displaystyle g(Y_{n})} em torno de valor μ {\displaystyle \mu } é

g ( Y n ) = g ( μ ) + g ( μ ) [ y n μ ] + o 1 <=> {\displaystyle g(Y_{n})=g(\mu )+g'(\mu )[y_{n}-\mu ]+o_{1}<=>}

onde o 1 0 {\displaystyle o_{1}\rightarrow 0} quando Y n μ {\displaystyle Y_{n}\rightarrow \mu }

g ( Y n ) g ( μ ) = g ( μ ) [ Y n μ ] + 0 1 <=> {\displaystyle g(Y_{n})-g(\mu )=g'(\mu )[Y_{n}-\mu ]+0_{1}<=>}

g ( Y n ) g ( μ ) = g ( μ ) σ [ Y n μ σ ] + 0 1 <> {\displaystyle g(Y_{n})-g(\mu )=g'(\mu )\sigma [{\frac {Y_{n}-\mu }{\sigma }}]+0_{1}<>}

g ( Y n ) g ( μ ) = g ( μ ) σ [ Y n μ σ ] + 0 1 <=> {\displaystyle g(Y_{n})-g(\mu )=g'(\mu )\sigma [{\frac {Y_{n}-\mu }{\sigma }}]+0_{1}<=>}

( n ) g ( Y n ) g ( μ ) = g ( μ ) σ ( n ) [ Y n μ σ ] + 0 1 <=> {\displaystyle {\sqrt {(}}n)g(Y_{n})-g(\mu )=g'(\mu )\sigma {\sqrt {(}}n)[{\frac {Y_{n}-\mu }{\sigma }}]+0_{1}<=>} usando o teorema de Slutsky

( n ) g ( Y n ) g ( μ ) = g ( μ ) σ ( n ) [ Y n μ σ ] + 0 1 d N ( 0 , σ 2 [ g ( μ ) ] 2 ) {\displaystyle {\sqrt {(}}n)g(Y_{n})-g(\mu )=g'(\mu )\sigma {\sqrt {(}}n)[{\frac {Y_{n}-\mu }{\sigma }}]+0_{1}{\xrightarrow {d}}N(0,\sigma ^{2}[g'(\mu )]^{2})}

logo

n [ g ( Y n ) g ( μ ) ] d N ( 0 , σ 2 [ g ( μ ) ] 2 ) {\displaystyle {{\sqrt {n}}[g(Y_{n})-g(\mu )]{\xrightarrow {d}}N(0,\sigma ^{2}[g'(\mu )]^{2})}}

Ver também

Referências

  1. a b VAN DER VAART, A. Asymptotic statistics. 1998. new York: Cambridge University Press. capítulo 3, Delta Method. Página 25 e 26.
  2. Pestana, D. e Velosa, S. (2002). Introdução à Probabilidade e Estatística. Fundação Calouste Gulbenkian, Lisboa.
  3. a b c CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da 2ª edição norte-americana. São Paulo: Centage learning, 2010. Páginas 215 a 217
  4. PAPANICOLAOU, Alex.Taylor Approximation and the Delta Method. 2009. Página 5. Disponível em: <http://www.stanford.edu/class/cme308/notes/TaylorAppDeltaMethod.pdf>. Acesso em: 13 de julho de 2011.
  5. HUNTER, David R. Statistics 553: Asymptotic Tools.Chapter 5- The Delta Method and Applications, Página 61.Disponível em <http://www.stat.psu.edu/~dhunter/asymp/lectures/ANGELchpt05.pdf>. Acesso em: 13 de julho de 2011.
  6. Alves, I.; Gomes, I. e Sousa, L. (2007). Fundamentos e Metodologias da Estatistica. Centro de Estatística e Aplicações, Lisboa.
  • Portal da matemática
  • Portal de probabilidade e estatística