Stichproben-Regressionsfunktion

In der Statistik entspricht eine Stichproben-Regressionsfunktion (englisch sample regression function, kurz: SRF), auch empirische Regressionsfunktion, der geschätzten Version der Regressionsfunktion der Grundgesamtheit. Die Stichproben-Regressionsfunktion ist fix, aber in der Grundgesamtheit unbekannt. Handelt es sich bei der Regressionsfunktion um eine Gerade, dann ist auch von einer Stichproben-Regressionsgerade oder empirischen Regressionsgerade die Rede. Die Stichproben-Regressionsgerade wird als Kleinste-Quadrate-Regressionsgerade (kurz: KQ-Regressionsgerade) aus Beobachtungspaaren gewonnen, die Datenpunkte repräsentieren. Sie stellt laut dem Kleinste-Quadrate-Kriterium die bestmögliche Anpassung an die Daten dar.

Einfache lineare Regression

Wenn man mittels der Kleinste-Quadrate-Schätzung den Kleinste-Quadrate-Schätzer für die Steigung β ^ 1 = S P x y / S Q x {\displaystyle {\hat {\beta }}_{1}=SP_{xy}/SQ_{x}} und den Kleinste-Quadrate-Schätzer für das Absolutglied β ^ 0 = y ¯ β ^ 1 x ¯ {\displaystyle {\hat {\beta }}_{0}={\overline {y}}-{\hat {\beta }}_{1}{\overline {x}}} ermittelt, dann erhält man die folgende KQ-Regressionsgerade:

y ^ = E ( y X = x ) ^ = β ^ 0 + β ^ 1 x {\displaystyle {\hat {y}}={\widehat {\operatorname {E} (y\mid X=x)}}={\hat {\beta }}_{0}+{\hat {\beta }}_{1}x\quad } .

Diese wird auch Stichproben-Regressionsfunktion genannt, da sie eine geschätzte Variante der (theoretischen) Regressionsfunktion der Grundgesamtheit

E ( y X = x ) = β 0 + β 1 x {\displaystyle \operatorname {E} (y\mid X=x)=\beta _{0}+\beta _{1}x\quad }

darstellt.[1] Die Parameter β ^ 0 {\displaystyle {\hat {\beta }}_{0}} und β ^ 1 {\displaystyle {\hat {\beta }}_{1}} werden auch empirische Regressionskoeffizienten genannt.[2] Da die Stichproben-Regressionsfunktion durch eine gegebene Stichprobe gewonnen wird, liefert eine neue Stichprobe einen neuen Anstieg β ^ 1 {\displaystyle {\hat {\beta }}_{1}} und ein neues Absolutglied β ^ 0 {\displaystyle {\hat {\beta }}_{0}} . In den meisten Fällen kann man den Kleinste-Quadrate-Schätzer für die Steigung darstellen als

β ^ 1 = Δ y ^ / Δ x {\displaystyle {\hat {\beta }}_{1}=\Delta {\hat {y}}/\Delta x}

Durch diese Darstellung kann man erkennen, dass der Kleinste-Quadrate-Schätzer für die Steigung wiedergibt, wie stark sich die Zielgröße y {\displaystyle y} verändert, wenn sich die Einflussgröße x {\displaystyle x} um eine Einheit erhöht.[3]

Multiple lineare Regression

Gegeben ein typisches multiples lineares Regressionsmodell y = X β + ε {\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }}} , mit β {\displaystyle {\boldsymbol {\beta }}} dem p × 1 {\displaystyle p\times 1} Vektor der unbekannten Regressionsparameter, der n × p {\displaystyle n\times p} Versuchsplanmatrix X {\displaystyle \mathbf {X} } , dem n × 1 {\displaystyle n\times 1} Vektor der abhängigen Variablen y {\displaystyle \mathbf {y} } und dem n × 1 {\displaystyle n\times 1} Vektor der Störgrößen ε {\displaystyle {\boldsymbol {\varepsilon }}} . Dann ist die KQ-Stichproben-Regressionsfunktion bzw. Stichproben-Regressionshyperebene y ^ {\displaystyle {\hat {\mathbf {y} }}} gegeben durch

y ^ = X β ^ = X ( X X ) 1 X = P y = P y {\displaystyle {\hat {\mathbf {y} }}=\mathbf {X} {\hat {\boldsymbol {\beta }}}=\underbrace {\mathbf {X} \left(\mathbf {X} ^{\top }\mathbf {X} \right)^{-1}\mathbf {X} ^{\top }} _{=\mathbf {P} }\mathbf {y} =\mathbf {P} \mathbf {y} } ,

wobei P {\displaystyle \mathbf {P} } die Prädiktionsmatrix darstellt.

  • Springer Gabler Verlag, Gabler Wirtschaftslexikon, Stichwort: Stichproben-Regressionsgerade

Einzelnachweise

  1. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education, 2013, S. 31.
  2. Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 185.
  3. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education, 2013, S. 31.