Testen allgemeiner linearer Hypothesen

In der Testtheorie ist das Testen allgemeiner linearer Hypothesen, Testen linearer Hypothesen,[1] allgemeine lineare Hypothesentests die Verallgemeinerung von Testproblemen in Regressionsmodellen. Dieses Testverfahren erlaubt im Vergleich zum t-Test das Testen mehrerer Nullhypothesen bezüglich einer Gruppe von Parametern in linearen Einzelgleichungsmodellen. Unter multiplen Hypothesentests versteht man zum einen den F-Test für das multiple Regressionsmodell, welcher sich dadurch auszeichnet, dass die Teststatistik des Hypothesentests unter der Nullhypothese einer F-Verteilung folgt und den t-Test für das multiple Regressionsmodell. Bei einem gewöhnlichen F-Test wird lediglich eine Einzelgleichung getestet.

Ausgangslage

Da viele Variablen des Interesses nicht nur von einer unabhängigen Variablen abhängen, betrachtet man häufig eine abhängige Variable, die durch mehrere unabhängige Variablen erklärt werden sollen. Zum Beispiel ist die Gesamtproduktion einer Volkswirtschaft von dessen Kapitaleinsatz, Arbeitseinsatz und dessen Fläche abhängig. Solch eine multiple Abhängigkeit kommt der Realität viel näher und man gibt die Annahme der einfachen linearen Regression auf, bei der die Variable des Interesses nur von einer Variablen abhängt. Um solch eine multiple Abhängigkeit zu modellieren, betrachten man als Ausgangslage ein typisches multiples lineares Regressionsmodell oder genauer gesagt ein die Normalverteilungsannahme einschließendes klassisches lineares Modell mit { y i , x i k } i = 1 , , n , k = 1 , , K {\displaystyle \{y_{i},x_{ik}\}_{i=1,\dots ,n,k=1,\dots ,K}} für n {\displaystyle n} . Hierbei bezeichnen die y i {\displaystyle y_{i}} die zufälligen Zielgrößen (einfachheitshalber im Folgenden kleingeschrieben und damit nicht deren Realisierung gemeint) und die x i {\displaystyle x_{i}} bezeichnen die fixen Regressoren. Hierbei ist zu beachten, dass zusätzlich zur Dimension der unabhängigen Variablen auch eine zeitliche Dimension hinzugefügt wird, wodurch sich ein lineares Gleichungssystem ergibt, was sich auch matriziell darstellen lässt. Der Zusammenhang zwischen der abhängigen Variablen und den unabhängigen Variablen kann wie folgt dargestellt werden

y i = β 0 + x i 1 β 1 + x i 2 β 2 + + x i K β K + ε i = x i β + ε i , i = 1 , 2 , , n {\displaystyle y_{i}=\beta _{0}+x_{i1}\beta _{1}+x_{i2}\beta _{2}+\ldots +x_{iK}\beta _{K}+\varepsilon _{i}=\mathbf {x} _{i}^{\top }{\boldsymbol {\beta }}+\varepsilon _{i},\quad i=1,2,\dotsc ,n} .

In Vektor-Matrix-Form auch


( y 1 y 2 y n ) ( n × 1 ) = ( 1 x 11 x 12 x 1 K 1 x 21 x 22 x 2 K 1 x n 1 x n 2 x n K ) ( n × p ) ( β 0 β 1 β K ) ( p × 1 ) + ( ε 1 ε 2 ε n ) ( n × 1 ) {\displaystyle {\begin{pmatrix}y_{1}\\y_{2}\\\vdots \\y_{n}\end{pmatrix}}_{(n\times 1)}\quad =\quad {\begin{pmatrix}1&x_{11}&x_{12}&\cdots &x_{1K}\\1&x_{21}&x_{22}&\cdots &x_{2K}\\\vdots &\vdots &\vdots &\ddots &\vdots \\1&x_{n1}&x_{n2}&\cdots &x_{nK}\end{pmatrix}}_{(n\times p)}\quad \cdot \quad {\begin{pmatrix}\beta _{0}\\\beta _{1}\\\vdots \\\beta _{K}\end{pmatrix}}_{(p\times 1)}\quad +\quad {\begin{pmatrix}\varepsilon _{1}\\\varepsilon _{2}\\\vdots \\\varepsilon _{n}\end{pmatrix}}_{(n\times 1)}}

oder in kompakter Schreibweise

y = X β + ε {\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }}}

Hier stellt β {\displaystyle {\boldsymbol {\beta }}} einen Vektor von unbekannten Parametern dar (bekannt als Regressionskoeffizienten), die mithilfe der Daten geschätzt werden müssen. Des Weiteren wird angenommen, dass der Erwartungswert des Vektors der Fehlerterme ε {\displaystyle {\boldsymbol {\varepsilon }}} (in allen Komponenten) 0 ist: E ( ε ) = 0 {\displaystyle \operatorname {E} ({\boldsymbol {\varepsilon }})={\boldsymbol {0}}} . Diese Annahme bedeutet, dass das Modell grundsätzlich für korrekt gehalten wird und die beobachtete Abweichung als zufällig angesehen wird oder von vernachlässigbaren äußeren Einflüssen herrührt. Hierbei nimmt man von der Datenmatrix X R n × p {\displaystyle \mathbf {X} \in \mathbb {R} ^{n\times p}} an, dass sie vollen (Spalten-)Rang hat, das heißt, es gilt Rang ( X ) = p = K + 1 {\displaystyle {\mbox{Rang}}({\boldsymbol {X}})=p=K+1} . Ferner erwartet man für die Kovarianzmatrix der Fehler, dass Cov ( ε ) = σ 2 I n {\displaystyle {\mbox{Cov}}({\boldsymbol {\varepsilon }})=\sigma ^{2}\mathbf {I} _{n}} gilt. Des Weiteren wird angenommen, dass die Gauß-Markow-Annahmen gelten, damit man obiges Modell effizient und unverzerrt mittels der Methode der kleinsten Quadrate schätzen kann.

Allgemeine lineare Hypothese

Eine allgemeine Nullhypothese umfasst eine Anzahl von a {\displaystyle a} linearen Restriktionen an die Koeffizienten. Man kann diese allgemeine lineare Hypothese, also die Hypothese bei der das Interesse daran liegt sie zu verwerfen, formulieren als

H 0 : ( R 1 R 2 R a ) ( a × p ) ( β 0 β 1 β K ) ( p × 1 ) = ( r 1 r 2 r a ) ( a × 1 ) {\displaystyle H_{0}:{\begin{pmatrix}{\boldsymbol {R}}_{1}\\{\boldsymbol {R}}_{2}\\\vdots \\{\boldsymbol {R}}_{a}\end{pmatrix}}_{(a\times p)}\quad \cdot \quad {\begin{pmatrix}\beta _{0}\\\beta _{1}\\\vdots \\\beta _{K}\end{pmatrix}}_{(p\times 1)}\quad =\quad {\begin{pmatrix}r_{1}\\r_{2}\\\vdots \\r_{a}\end{pmatrix}}_{(a\times 1)}}

beziehungsweise[2]

H 0 : R β = r {\displaystyle H_{0}:{\boldsymbol {R}}{\boldsymbol {\beta }}={\boldsymbol {r}}}

mit p = K + 1 {\displaystyle \quad p=K+1} , der ( a × p ) {\displaystyle (a\times p)} -Hypothesenmatrix R {\displaystyle {\boldsymbol {R}}} und dem ( a × 1 ) {\displaystyle (a\times 1)} -Vektor der Restriktionen r {\displaystyle {\boldsymbol {r}}} und dem ( p × 1 ) {\displaystyle (p\times 1)} -Vektor der Regressionskoeffizienten und den ( 1 × p ) {\displaystyle (1\times p)} -Zeilenvektoren R i {\displaystyle {\boldsymbol {R}}_{i}} . Das Testproblem lautet dann

H 0 : R β = r gegen H 1 : R β r {\displaystyle H_{0}:{\boldsymbol {R}}{\boldsymbol {\beta }}={\boldsymbol {r}}\quad {\mbox{gegen}}\quad H_{1}:{\boldsymbol {R}}{\boldsymbol {\beta }}\neq {\boldsymbol {r}}} ,

wobei angenommen wird, dass Rang ( R ) = a p {\displaystyle \operatorname {Rang} ({\boldsymbol {R}})=a\leq p} gilt. Für den Vektor der Regressionskoeffizienten wird wie für üblich angenommen, dass man ihn mit der Methode der kleinsten Quadrate schätzt.

T-Test für das multiple Regressionsmodell

Einzelgleichungsmodell

In vielen Fällen ist man nur daran interessiert eine einzelne Hypothese zu testen, z. B. eine einzelne Linearkombination der Regressionskoeffizienten. Möchte man beispielsweise unter Voraussetzung einer log-linearen Cobb-Douglas-Funktion y i = β 0 + β 1 x i 1 + β 2 x i 2 + + β k x i K {\displaystyle y_{i}=\beta _{0}+\beta _{1}x_{i1}+\beta _{2}x_{i2}+\ldots +\beta _{k}x_{iK}} mit x i 1 = log ( P i 1 ) , x i 2 = log ( P i 2 ) , , x i K = log ( P i K ) {\displaystyle x_{i1}=\log(P_{i1}),x_{i2}=\log(P_{i2}),\ldots ,x_{iK}=\log(P_{iK})} , wobei P i 1 , , P i K {\displaystyle P_{i1},\dots ,P_{iK}} Werte der Produktionsfaktoren P 1 , , P K {\displaystyle P_{1},\dots ,P_{K}} sind, testen, ob konstante Skalenerträge vorliegen, so müsste getestet werden, ob r 1 = k = 1 K β k = 1 {\displaystyle r_{1}=\sum \nolimits _{k=1}^{K}\beta _{k}=1} . In Vektorschreibweise ergibt sich dann folgendes Hypothesenpaar

H 0 : R 1 β = ( 0 1 1 1 ) β = r 1 , vs. H 1 : R 1 β = ( 0 1 1 1 ) β r 1 {\displaystyle H_{0}:{\boldsymbol {R}}_{1}{\boldsymbol {\beta }}={\begin{pmatrix}0&1&\cdots &1&\cdots &1\end{pmatrix}}{\boldsymbol {\beta }}=r_{1},\quad {\text{vs.}}\quad H_{1}:{\boldsymbol {R}}_{1}{\boldsymbol {\beta }}={\begin{pmatrix}0&1&\cdots &1&\cdots &1\end{pmatrix}}{\boldsymbol {\beta }}\neq r_{1}} ,

Zunächst gilt es, die Teststatistik für diesen Test aufzustellen. Daher ist man daran interessiert, die Parametrisierung der Verteilung der Linearkombination zu ermitteln. Für die Verteilung ergibt sich

R 1 β ^ N ( R 1 β , σ 2 R 1 ( X X ) 1 R 1 ) {\displaystyle {\boldsymbol {R}}_{1}{\boldsymbol {\hat {\beta }}}\sim {\mathcal {N}}({\boldsymbol {R}}_{1}{\boldsymbol {\beta }},\sigma ^{2}{\boldsymbol {R}}_{1}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}_{1}^{\top })} ,

wobei β ^ = ( X X ) 1 X y {\displaystyle {\boldsymbol {\hat {\beta }}}=(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} } den Kleinste-Quadrate-Schätzer darstellt. Man standardisiert zur Standardnormalverteilung N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} und erhält, falls die Nullhypothese richtig ist, für die Pivotgröße

R 1 β ^ r 1 σ 2 R 1 ( X X ) 1 R 1 H 0 N ( 0 , 1 ) {\displaystyle {\frac {{\boldsymbol {R}}_{1}{\boldsymbol {\hat {\beta }}}-r_{1}}{\sqrt {\sigma ^{2}{\boldsymbol {R}}_{1}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}_{1}^{\top }}}}\;\;{\stackrel {H_{0}}{\sim }}\;\;{\mathcal {N}}(0,1)} ,

dass die Grenzen des zentralen Schwankungsintervalls sie mit der Wahrscheinlichkeit ( 1 α ) {\displaystyle (1-\alpha )} umschließt, d. h.

P ( z ( 1 α 2 ) < R 1 β ^ r 1 σ 2 R 1 ( X X ) 1 R 1 < z ( 1 α 2 ) ) = 1 α {\displaystyle P\left(-z_{\left(1-{\frac {\alpha }{2}}\right)}<{\frac {{\boldsymbol {R}}_{1}{\boldsymbol {\hat {\beta }}}-r_{1}}{\sqrt {\sigma ^{2}{\boldsymbol {R}}_{1}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}_{1}^{\top }}}}<z_{\left(1-{\frac {\alpha }{2}}\right)}\right)=1-\alpha } ,[3]

wobei z ( 1 α 2 ) {\displaystyle z_{\left(1-{\frac {\alpha }{2}}\right)}} das ( 1 α 2 ) {\displaystyle (1-{\tfrac {\alpha }{2}})} -Quantil der Standardnormalverteilung ist. Das Problem an diesem Ausdruck ist, dass die Varianz der Störgrößen σ 2 = σ ε 2 {\displaystyle \sigma ^{2}=\sigma _{\varepsilon }^{2}} für gewöhnlich unbekannt ist.

Ersetzt man den unbekannten Parameter durch den erwartungstreuen Schätzer für die Störgrößenvarianz σ ^ 2 = 1 n K 1 i = 1 n ε ^ i 2 {\displaystyle {\hat {\sigma }}^{2}={\tfrac {1}{n-K-1}}\sum \nolimits _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}} ergibt sich für die Pivotgröße, falls die Nullhypothese richtig ist, die Verteilung

R 1 β ^ r 1 σ ^ 2 R 1 ( X X ) 1 R 1 H 0 t ( n p ) {\displaystyle {\frac {{\boldsymbol {R}}_{1}{\hat {\boldsymbol {\beta }}}-r_{1}}{\sqrt {{\hat {\sigma }}^{2}{\boldsymbol {R}}_{1}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}_{1}^{\top }}}}\;\;{\stackrel {H_{0}}{\sim }}\;\;{\mathcal {t}}(n-p)} .

Die Pivotgröße ist nun, bei Richtigkeit der Nullhypothese, t-verteilt mit ( n p ) {\displaystyle (n-p)} Freiheitsgeraden anstatt normalverteilt. Dadurch ergibt sich für das Testen der Einzelgleichung folgende Wahrscheinlichkeit

P ( R 1 β ^ t ( 1 α 2 ) ( n p ) σ ^ 2 R 1 ( X X ) 1 R 1 < R 1 β < R 1 β ^ + t ( 1 α 2 ) ( n p ) σ ^ 2 R 1 ( X X ) 1 R 1 ) = 1 α {\displaystyle P\left({{\boldsymbol {R}}_{1}{\hat {\boldsymbol {\beta }}}-t_{\left(1-{\frac {\alpha }{2}}\right)}(n-p){\sqrt {{\hat {\sigma }}^{2}{\boldsymbol {R}}_{1}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}_{1}^{\top }}}}<{\boldsymbol {R}}_{1}{\boldsymbol {\beta }}<{{\boldsymbol {R}}_{1}{\hat {\boldsymbol {\beta }}}+t_{\left(1-{\frac {\alpha }{2}}\right)}(n-p){\sqrt {{\hat {\sigma }}^{2}{\boldsymbol {R}}_{1}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}_{1}^{\top }}}}\right)=1-\alpha }

und somit folgendes Konfidenzintervall

K I 1 α ( R 1 β ) = R 1 β ^ ± t ( 1 α 2 ) ( n p ) σ ^ 2 R 1 ( X X ) 1 R 1 {\displaystyle KI_{1-\alpha }({\boldsymbol {R}}_{1}{\boldsymbol {\beta }})={R_{1}{\boldsymbol {\hat {\beta }}}\pm t_{\left(1-{\frac {\alpha }{2}}\right)}(n-p){\sqrt {{\hat {\sigma }}^{2}{\boldsymbol {R}}_{1}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}_{1}^{\top }}}}} .

Einzelgleichungsmodelle lassen sich nicht nur als F-Test für das multiple Regressionsmodell, sondern alternativ auch als t-Test darstellen.

F-Test für das multiple Regressionsmodell

Konstruktion der Teststatistik

Für die Konstruktion der Teststatistik benutzt man folgendes, mithilfe der Annahme der Erwartungstreue des Kleinste-Quadrate-Schätzers und der Rechenregeln für Kovarianzmatrizen, einfach nachzuprüfendes Resultat

R β ^ r N ( R β r , σ 2 R ( X X ) 1 R ) {\displaystyle {\boldsymbol {R}}{\boldsymbol {\hat {\beta }}}-{\boldsymbol {r}}\sim {\mathcal {N}}({\boldsymbol {R}}{\boldsymbol {\beta }}-{\boldsymbol {r}},\sigma ^{2}{\boldsymbol {R}}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}^{\top })} ,

d. h. die Nullhypothese folgt beim vorliegenden klassischem Modell einer Normalverteilung mit Kovarianzmatrix σ 2 R ( X X ) 1 R {\displaystyle \sigma ^{2}{\boldsymbol {R}}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}^{\top }} und Erwartungswert R β r {\displaystyle {\boldsymbol {R}}{\boldsymbol {\beta }}-{\boldsymbol {r}}} .

Es kann gezeigt werden, dass die gewichtete Hypothesenquadratsumme unter der Nullhypothese

Q 1 = 1 σ 2 ( R β ^ r ) ( R ( X X ) 1 R ) 1 ( R β ^ r ) χ 2 ( a ) {\displaystyle Q_{1}={\frac {1}{\sigma ^{2}}}({\boldsymbol {R}}{\boldsymbol {\hat {\beta }}}-{\boldsymbol {r}})^{\top }({\boldsymbol {R}}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}^{\top })^{-1}({\boldsymbol {R}}{\boldsymbol {\hat {\beta }}}-{\boldsymbol {r}})\sim \chi ^{2}(a)}

einer Chi-Quadrat-Verteilung mit a {\displaystyle a} Freiheitsgeraden folgt. Hierbei misst R β ^ r {\displaystyle {\boldsymbol {R}}{\boldsymbol {\hat {\beta }}}-{\boldsymbol {r}}} wie weit der geschätzte Wert β ^ {\displaystyle {\boldsymbol {\hat {\beta }}}} von der Nullhypothese R β r = 0 {\displaystyle {\boldsymbol {R}}{\boldsymbol {\beta }}-{\boldsymbol {r}}=\mathbf {0} } abweicht. Weiterhin ist ( R β r ) ( R β r ) {\displaystyle ({\boldsymbol {R}}{\boldsymbol {\beta }}-{\boldsymbol {r}})^{\top }({\boldsymbol {R}}{\boldsymbol {\beta }}-{\boldsymbol {r}})} die dazugehörige Summe der quadrierten Abweichungen (Analog zur Residuenquadratsumme). Diese Summe der quadrierten Abweichungen wird mit der inversen Kovarianzmatrix ( R ( X X ) 1 R ) 1 / σ 2 {\displaystyle ({\boldsymbol {R}}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}^{\top })^{-1}/\sigma ^{2}} gewichtet, weil für eine große Kovarianz ebenso so große Abweichungen R β ^ r {\displaystyle {\boldsymbol {R}}{\boldsymbol {\hat {\beta }}}-{\boldsymbol {r}}} nicht notwendigerweise ein Indikator für H 0 {\displaystyle H_{0}} sind. Ein weiteres wichtiges Resultat, das zu Konstruktion der Teststatistik gebraucht wird, lautet

Q 2 = ( n p ) σ ^ 2 σ 2 χ 2 ( n p ) {\displaystyle Q_{2}={\frac {(n-p){\hat {\sigma }}^{2}}{\sigma ^{2}}}\sim \chi ^{2}(n-p)}

Die Teststatistik ergibt sich nun bei stochastischer Unabhängigkeit von Q 1 {\displaystyle Q_{1}} und Q 2 {\displaystyle Q_{2}} als

F = H 0 Q 1 / a Q 2 / ( n p ) = 1 a ( R β ^ r ) ( R ( X X ) 1 R ) 1 ( R β ^ r ) σ ^ 2 H 0 F ( a , n p ) {\displaystyle {\begin{aligned}F\;\;{\stackrel {H_{0}}{=}}{\frac {Q_{1}/a}{Q_{2}/(n-p)}}={\frac {{\frac {1}{a}}({\boldsymbol {R}}{\boldsymbol {\hat {\beta }}}-{\boldsymbol {r}})^{\top }({\boldsymbol {R}}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}^{\top })^{-1}({\boldsymbol {R}}{\boldsymbol {\hat {\beta }}}-{\boldsymbol {r}})}{{\hat {\sigma }}^{2}}}\;\;{\stackrel {H_{0}}{\sim }}\;\;F(a,n-p)\end{aligned}}} .

Aus diesem Resultat wird ersichtlich, dass sich die Teststatistik alternativ auch als Quotient aus dem „mittleren Hypothesenquadrat“ und dem „mittleren Residuenquadrat

M Q H S Q H Rang ( R ) {\displaystyle MQH\equiv {\frac {SQH}{\operatorname {Rang} ({\boldsymbol {R}})}}\quad } und M Q R S Q R Rang ( Q ) {\displaystyle \quad MQR\equiv {\frac {SQR}{\operatorname {Rang} ({\boldsymbol {Q}})}}} ,

darstellen lässt also als

F = H 0 M Q H M Q R = 1 Rang ( R ) ( R β ^ r ) ( R ( X X ) 1 R ) 1 ( R β ^ r ) 1 Rang ( Q ) ( y X β ^ ) ( y X β ^ ) {\displaystyle {\begin{aligned}F\;\;{\stackrel {H_{0}}{=}}{\frac {MQH}{MQR}}={\frac {{\frac {1}{\operatorname {Rang} ({\boldsymbol {R}})}}({\boldsymbol {R}}{\boldsymbol {\hat {\beta }}}-{\boldsymbol {r}})^{\top }({\boldsymbol {R}}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}{\boldsymbol {R}}^{\top })^{-1}({\boldsymbol {R}}{\boldsymbol {\hat {\beta }}}-{\boldsymbol {r}})}{{\frac {1}{\operatorname {Rang} ({\boldsymbol {Q}})}}({\boldsymbol {y}}-\mathbf {X} {\boldsymbol {\hat {\beta }}})^{\top }({\boldsymbol {y}}-\mathbf {X} {\boldsymbol {\hat {\beta }}})}}\end{aligned}}} ,


wobei Rang ( Q ) {\displaystyle \operatorname {Rang} ({\boldsymbol {Q}})} der Rang der residuenerzeugenden Matrix darstellt und Rang ( R ) {\displaystyle \operatorname {Rang} ({\boldsymbol {R}})} der Rang der Hypothesenmatrix darstellt. Dividiert man die Quadratsummen durch a {\displaystyle a} (bzw. n p {\displaystyle n-p} ), erhält man mittlere Abweichungsquadrate. Dies ist sinnvoll, da für mehr Hypothesen (Beobachtungen) auch größere Abweichungen zu erwarten sind. Diese Teststatistik stellt das Gerüst und die Basis für das Testen allgemeiner linearer Hypothesen und Intervallschätzer für den unbekannten Vektor R β {\displaystyle {\boldsymbol {R}}{\boldsymbol {\beta }}} dar. Wie für gewöhnlich ist diese Teststatistik sensitiv für das Testproblem, d. h. wenn also die Abweichung R β ^ r {\displaystyle {\boldsymbol {R}}{\boldsymbol {\hat {\beta }}}-{\boldsymbol {r}}} groß relativ zur Fehlervarianz ist, so spricht dies gegen H 0 {\displaystyle H_{0}}

Um den Test schließlich durchzuführen, benutzt man entsprechende Quantile der F-Verteilung. Die Nullhypothese wird abgelehnt, wenn

F > F ( a , n p ) {\displaystyle F>F(a,n-p)} ,

die F-Statistik also größer als der kritische Wert F ( a , n p ) {\displaystyle F(a,n-p)} ist. Der kritische Wert kann anhand einer Quantil-Tabelle der F-Verteilung abgelesen werden.

  • Multiple Hypothesis Testing: The F-test
  • Quantil-Tabelle der F-Verteilung

Literatur

  • Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2.
  • George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4.
  • E. L. Lehmann, Joseph P. Romano: Testing Statistical Hypotheses. 3. Auflage. Springer, New York 2005, ISBN 0-387-98864-5; Kapitel 7: Linear Hypotheses.

Einzelnachweise

  1. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 296 ff.
  2. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 285 ff.
  3. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 242 ff.