12.2 Annahmen der bisherigen Modelle

Wir haben bereits eine Vielzahl an statistischen Tests kennen gelernt:

  • Einfache lineare Regression
  • Multiple Regression
  • Einfaktorielle Varianzanalyse
  • Mehrfaktorielle Varianzanalyse
  • Kovarianzanalyse

Diese Tests umfassen mehrere Annahmen, die wir bisher nicht explizit benannt haben. Die erste Annahme ist, dass die abhängige Variable intervallskalliert sein muss. Nicht alle Tests haben diese Annahme. Beispielsweise geht der Chi Quadrat Test davon aus, dass die abhängige Variable nominalskaliert ist. Es gibt allerdings noch weitere Annahmen, die wir normalerweise prüfen sollten, bevor wir Ergebnisse berichten. Wir werden im folgenden drei dieser Annahmen genauer betrachten und lernen, wie wir diese Annahmen prüfen können.

Wenn Annahmen verletzt werden, kann das Auswirkungen auf unseren F-Wert und damit auf die Signifikanz unseres Tests haben. Beispielsweise kanne es passieren, dass ein F-Wert aufgrund der Verletzung einer Annahme zu groß ist und wir daher eher einen Alphafehler machen.

12.2.1 Normalverteilung der Residuen

Eine zentrale Annahme des F-Tests und des t-Tests ist, dass die Residuen (Fehler) normalverteilt sind. Residuen hatten wir als den Abstand des hervorgesagten Wertes minus des geschätzten Wertes definiert. In der folgenden Formel siehst du die Residuen am Beispiel eines Modells mit einem Prädiktor:

\[ \begin{aligned} \hat{Y}_i &= \beta_0 + \beta_1 * X_1 \\ Y_i &= \beta_0 + \beta_1 * X_1 + \epsilon_i \\ \epsilon_i &= Y_i - \hat{Y}_i \end{aligned} \] Wir können die Normalverteilung sowohl visuell darstellen als auch statistisch testen. Beginnen wir mit der visuellen Überprüfung. Hierzu könnten wir uns ein Histogramm der Residuen darstellen. Um allerdings zu den Residuen zu kommen, müssen wir zunächst ein Modell erstellen, anhand dessen wir die Residuen berechnen. Versuchen wir anhand unseres Datensatzes daher einen t-Test für unabhängige Stichproben zu rechnen. Als abhängige Variable verwenden wir das konzeptuelle Wissen der Probanden vor der Intervention. Die unabhängige Variable ist die Lernstrategie. Wir prüfen daher, ob sich die Probanden der Intervention im Vorwissen unterschieden haben. Unser erweitertes Modell würde folgendermaßen ausshehen:

\[ \hat{Y}_i = 5.779 - 0.29 * X_1 \]

Die Residuen können wir für jeden Einzelwert berechnen, indem wir den geschätzten Wert vom realen Wert abziehen. Folgende Residuen würden wir in diesem Fall erhalten:

id treatment y y_hat residuals
1 B 6.42 6.068889 -0.3188889
2 A 6.76 5.488889 0.6411111
3 B 6.56 6.068889 -0.3588889
4 A 4.80 5.488889 -1.3388889
5 B 8.43 6.068889 1.6011111
6 A 7.49 5.488889 1.5611111
7 B 8.05 6.068889 1.0311111
8 A 5.05 5.488889 -0.8188889
9 B 5.77 6.068889 -0.7388889
10 A 3.91 5.488889 -1.8288889
11 B 6.77 6.068889 -0.1088889
12 B 6.44 6.068889 -0.4288889
13 A 6.17 5.488889 0.0211111
14 A 7.67 5.488889 1.4711111
15 A 7.34 5.488889 1.3311111
16 B 6.85 6.068889 0.2211111
17 A 5.13 5.488889 -1.0388889
18 B 5.73 6.068889 -0.8988889

Um zu prüfen, ob die Residuen normalverteilt sind, können wir uns ein Histogram dieser Residuen darstellen:

Histogramm der Residuen

Figure 12.1: Histogramm der Residuen

Da wir allerdings nur wenige Datenpunkte haben, sieht dieses Histogramm nicht wirklich normalverteilt aus. Histogramme eignen sich daher zur Prüfung der Normalverteilung der Residuen, wenn wir genug Daten haben.

Eine andere Möglichket, die Annahme der Normalverteilung visuell zu prüfen, sind sogenannte Q-Q-Plots. Q-Q-Plots stellen anhand eines Streudiagramms dar, ob die Residuen einer Normalverteilung folgen. Je näher die Werte anhand der Geraden im Q-Q-Plot sind, desto stärker ist eine Normalverteilung gegeben.

Q-Q-plot

Figure 12.2: Q-Q-plot

Das Wort Quantile kennst du bereits vom Medianwert einer Verteilung. Der Medianwert teilt eine Verteilung in zwei Hälften. 50% der Werte sind kleiner als der Median, 50% der Werte sind größer als der Median. Indem wir theoretisch Annehmen, wo wir Werte erwarten würden, wenn es sich um eine Normalverteilung handelt, können wir prüfen, ob sich zwei Verteilungen gleichen.

Neben diesen beiden visuellen Tests können wir die Normalverteilung der Residuen auch anhand des Shapiro-Wilk Tests prüfen. Die Nullhypothese dieses Tests nimmt an, dass eine Normalverteilung vorliegt. Bei einem signifikanten Ergebnis gehen wir davon aus, dass keine Normalverteilung vorliegt. In Jamovi können wir diese Annahme testen, indem wir zusätzlich den Shapiro-Wilk Test angeben, indem wir zusätzlich unter Assumption Checks auf den Test klicken:

## 
##  ASSUMPTIONS
## 
##  Test of Normality (Shapiro-Wilk) 
##  -------------------------------- 
##                 W        p       
##  -------------------------------- 
##    week_zero    0.938    0.273   
##  -------------------------------- 
##    Note. A low p-value
##    suggests a violation of
##    the assumption of
##    normality

In diesem Fall erhalten wir kein signifikantes Ergebnis, was auf die Normalverteilung der Residuen hindeutet. Selbst wenn wir signfikantes Ergebnis durch den Shapiro-Wilk Test erzielen, ist dies für die Interpretation unserer Ergebnisse nichtd dramatisch. Varianzanalysen sind relativ robust, wenn die Annahme der Normalverteilung nicht gegeben ist. Robust bedeutet, dass unsere F- und t-Werte sind dramatisch verzerrt werden, wenn keine Normalverteilung der Residuen herrscht.

12.2.2 Konstante Varianz der Residuen

Eine weitere Annahme der bisherigen Tests ist, dass sich die Residuen konstant verteilen. Diese Annahme wir auch Homoskedastizität genannt. Wir müssen diese Annahme für die lineare bzw. multiple Regression anders fassen als bei Modellen, in denen wir kategoriale Prädiktoren aufnehmen. Beginnen wir zunächst mit der Annahme der konstanten Varianz bei unserem bisherigen t-Test für unabhängige Stichproben.

Konstante Varianz bedeutet, dass die Varianz zwischen den Gruppen gleich ist. In unserem Beispiel bedeutet dies, dass die Varianz in der abhängigen Variable der Gruppe mit Lernstrategie A gleich zu der Varianz der Gruppe mit Lernstrategie B ist. Grafisch können wir die Frage der konstanten Varianz prüfen, indem wir uns die Verteilung der Punkte abhängig der Gruppe betrachten:

Varianz zwischen beiden Lernstrategiegruppen

Figure 12.3: Varianz zwischen beiden Lernstrategiegruppen

In der Grafik kannst du bereits erkennen, dass die Varianz in beiden Gruppen realtiv ähnlich ist. Üblicherweise greift man zur Prüfung der konstanten Varianz auf den Levene-Test zurück. Die Nullhypothese nimmt bei diesem Test an, dass die Varianzen gleich sind. Bei einem signifikanten Ergebnis geht man davon aus, dass die Varianzen zwischen den Gruppen unterschiedlich sind. In Jamovi können wir dies ebenso testen:

## 
##  ASSUMPTIONS
## 
##  Test of Equality of Variances (Levene's)    
##  ------------------------------------------- 
##                 F       df    df2    p       
##  ------------------------------------------- 
##    week_zero    3.38     1     16    0.085   
##  ------------------------------------------- 
##    Note. A low p-value suggests a
##    violation of the assumption of equal
##    variances

Das Ergebnis des Tests zeigt uns kein signifikantes Ergebnis. Wir gehen daher davon aus, dass die Varianzen zwischen den beiden Gruppen ähnlich sind. Ist die Annahme der konstanten Varianz verletzt, muss man evtl. bestimmte Korrekturverfahren verwenden. Ansonsten läuft man Gefahr, verzerrte Ergebnisse zu liefern. Die schlimmste Verletzung tritt allerdings auf, wenn unsere dritte Annahme, die Unabhängigkeit der Residuen nicht sicher gestellt ist.

Bei der einfachen und multiplen Regression können wir die Annahme der konstanten Varianz einfacher grafisch darstellen, indem wir die Residuen auf der Y-Achse und die vorhergesagten Werte auf der X-Achse darstellen. Erstellen wir dazu eine lineare Regression mit dem konzeptuellen Wissen in Woche 0 und dem konzeptuellen Wissen der Probanden in Woche 4:

\[ \hat{Y}_i = -0.1574 + 0.9362 * X_1 \]

Wenn wir nun die vorhergesagten Werte auf der X-Achse und die Residuen auf der Y-Achse darstellen und von konstanter Varianz ausgehen, würden wir erwarten, dass die Daten unkorreliert sind. Für unsere Daten sähe dies folgendermaßen aus:

Grafische Darstellung der konstanten Varianz bei der einfachen Regression

Figure 12.4: Grafische Darstellung der konstanten Varianz bei der einfachen Regression

Wie du siehst, verteilen sich die Punkte relativ gleichmäßig anhand der Nullerlinie der Residuen. Dies ist ein Indiz dafür, dass die Varianz über die einzelnen Werte der abhängigen Variable konstant sind. Verletzt wäre diese Annahme, wenn beispielsweise die Punkte links der Geraden sehr nah an der Linie lägen und rechts der Geraden sehr weit nach ober oder unten auseinander gehen. Mehr Informationen zur konstanten Varianz bei der Regression findest du hier.

12.2.3 Abhängigkeit der Daten

Alle bisherigen Tests sind davon ausgegangen, dass unsere Daten unabhängig voneinander sind. Unabhängigkeit tritt immer dann auf, wenn uns das Auftreten eines Wertes \(X_i\) keine Aussage über ein anderes \(X_i\) macht. Stell dir hierzu erneut einen t-Test für unabhängige Stichproben vor, bei dem wir vor einer Intervention das Vorwissen von zwei Gruppen vergleichen. Die Kenntnis der abhängigen Variable einer Person gibt dir wenig Informationen über die abhängige Variable einer anderen Person, da die Personen randomisiert zugeordnet wurden.

Allerdings sind nicht alle Daten immer unabhängig voneinander. Ein Beispiel: Stell dir vor, du möchtest vergleichen, ob Männer und Frauen unterschiedlich zufrieden in ihrer Beziehung sind. Hierzu befragst du sowohl Männer und Frauen aus vier Paaren nach ihrer Beziehungszufriedenheit:

Paar Männer Frauen
1 1 1
2 4 3
3 6 7
4 5 6

Wenn du nun den Wert eines Partners kennst, erhältst du automatisch Informationen über den Wert des anderen Partners. Da sich Paare zu einem gewissen Teil übereinstimmen, wie zufrieden sie in ihrer Beziehung sind, sind die Daten voneinander abhängig. Ist ein Partner unter dem Mittelwert der abhängigen Variable, wird der/die andere Partner/in vermutlich ebenso unter dem Mittelwert sein. Wir nennen diese Art der Abhängigkeit positive Abhängigkeit, da die Daten ähnlich zueinander sind. Eine negative Abhängigkeit würde auftreten, wenn Werte gegensätzlich voneinander abhängig sind. Stell dir zum Beispiel vor du testest die Breite von Baumkronen in einem Baum. Deine Daten umfassen Baumpaare, die sehr eng beieinander stehen. Wenn nun ein Baum eine sehr breite Krone hat, wird der benachbarte Baum vermutlich eine kleinere Krone haben. In diesem Fall sprechen wir von einer negativen Abhängigkeit.

Abhängigkeit kann einerseits entstehen, wenn Daten wie in diesem Beispiel gruppiert sind, andererseits tritt Abhängigkeit auf, wenn Daten sequentiell erhoben werden. Stell dir hierzu vor, du erhebst die Cholesterinwerte von Probanden über mehrere Messzeitpunkte, um zu prüfen, ob der Cholesterinspiegel der Personen steigt oder sinkt. Eine Person, die bereits beim ersten Messzeitpunkt einen hohen Cholesterinspiegel hat, wird vermutlich auch beim zweiten Messzeitpunkt einen hohen Cholesterspiegel haben. Genausogut wird eine Person, die einen niedrigen Cholesterinspiegel beim ersten Messzeitpunkt hat, vermutlich auch beim zweiten Messzeitpunkt einen niedrigen Cholesterinspiegel haben. Die Folge ist, dass die Daten abhängig voneinander sind. Wir werden beide Varianten der Abhängigkeit im nächsten Kapitel ausführlicher erklären.