Deltametoden

Deltametoden er innen statistikk en metode for å lage en tilnærmet sannsynlighetsfordeling for funksjonen av en testobservator. Metoden kan også regnes som en generalisering av sentralgrenseteoremet,

Envariabel deltametode

Anta en følge av tilfeldige variable X n {\displaystyle X_{n}} som tilfredsstiller

n ( X n θ ) L N ( 0 , σ 2 ) {\displaystyle {\sqrt {n}}(X_{n}-\theta ){\xrightarrow {L}}N(0,\sigma ^{2})}

der θ {\displaystyle \theta } og σ 2 {\displaystyle \sigma ^{2}} er konstanter, og L {\displaystyle {\xrightarrow {L}}} betyr konvergens i distribusjon/lov. Anta at g ( ) {\displaystyle g()} er en kontinuerlig funksjon, så vil

n ( g ( X n ) g ( θ ) ) L N ( 0 , σ 2 [ g ( θ ) ] 2 ) {\displaystyle {\sqrt {n}}(g(X_{n})-g(\theta )){\xrightarrow {L}}N(0,\sigma ^{2}[g'(\theta )]^{2})}

Bevis i envariabeltilfellet

For en kontinuerlig funksjon g {\displaystyle g} , sier middelverdisetningen at

g ( X n ) = g ( θ ) + g ( θ ~ ) ( X n θ ) {\displaystyle g(X_{n})=g(\theta )+g'({\tilde {\theta }})(X_{n}-\theta )}

hvor θ ~ {\displaystyle {\tilde {\theta }}} ligger mellom X n {\displaystyle X_{n}} og θ {\displaystyle \theta } . Siden X n P θ {\displaystyle X_{n}{\xrightarrow {P}}\theta } må også θ ~ P θ {\displaystyle {\tilde {\theta }}{\xrightarrow {P}}\theta } . Hvis vi omarrangerer likningen litt og ganger med n {\displaystyle {\sqrt {n}}} får vi

n ( g ( X n ) g ( θ ) ) = g ( θ ) n ( X n θ ) {\displaystyle {\sqrt {n}}(g(X_{n})-g(\theta ))=g'(\theta ){\sqrt {n}}(X_{n}-\theta )}

og ettersom n ( X n θ ) P N ( 0 , σ 2 ) {\displaystyle {\sqrt {n}}(X_{n}-\theta ){\xrightarrow {P}}N(0,\sigma ^{2})} g ( θ ) n ( X n θ ) P N ( 0 , σ 2 [ g ( θ ) ] 2 ) {\displaystyle g'(\theta ){\sqrt {n}}(X_{n}-\theta ){\xrightarrow {P}}N(0,\sigma ^{2}[g'(\theta )]^{2})} og beviset er fullført.

Eksempel

Man ønsker ofte å utføre hypotesetester for parametere i sannsynlighetsfordelinger. I poissonfordelingen betyr dette å teste hypotesen om λ = λ 0 {\displaystyle \lambda =\lambda _{0}} mot λ λ ^ {\displaystyle \lambda \neq {\hat {\lambda }}} . Der λ ^ {\displaystyle {\hat {\lambda }}} er den observerte, eller estimerte parameteren. Sentralgrenseteoremet gir da at

n ( λ ^ λ 0 ) N ( 0 , λ 0 ) {\displaystyle {\sqrt {n}}({\hat {\lambda }}-\lambda _{0})\sim N(0,\lambda _{0})}

Problemet med denne testobservatoren er at variansen avhenger helt og holdent på λ {\displaystyle \lambda } . Så spredningen i estimatet avhenger av parameteren vi prøve å estimere. Dette problemet kan man komme rundt med deltametoden. Bruk at g ( λ ) = λ {\displaystyle g(\lambda )={\sqrt {\lambda }}} :

n ( ( λ ^ λ 0 ) N ( 0 , λ 0 1 ( 2 λ 0 ) 2 ) = N ( 0 , 1 4 ) {\displaystyle {\sqrt {n}}({\sqrt {(}}{\hat {\lambda }}-{\sqrt {\lambda _{0}}})\sim N(0,\lambda _{0}{\frac {1}{(2{\sqrt {\lambda _{0}}})^{2}}})=N(0,{\frac {1}{4}})}

Litteratur

  • E. L. Lehman (1998), Elements of Large Sample Theory, Springer
Autoritetsdata