Begriff | Erklärung |
---|---|
Abhängige Variable | Die gemessene Variable, deren Abhängigkeit von einer oder mehreren unabhängigen Variablen untersucht werden soll |
Chi-Quadrat-Test (χ2-Test) | nichtparametrischer Test zur Analyse von Häufigkeiten. Testet die Abweichung der beobachteten von den erwarteten Häufigkeiten auf Signifikanz |
Eta-Quadrat (η2) | Effektstärkenmaß. Gibt den Anteil der aufgeklärten Varianz an der Gesamtvarianz auf der Stichprobenebene mittels Quadratsummen an |
Faktor | Bezeichnet in der Terminologie der Varianzanalyse eine unabhängige Variable. Die in einem Experiment realisierten Bedingungen einer unabhängigen Variable heißen Stufen eines Faktors |
F-Wert | Kennwert des Varianzenvergleichs und speziell der Varianzanalyse; berechnet sich aus der Division der größeren Varianz durch die kleinere (ANOVA: Varianz „zwischen“ durch Varianz „innerhalb“). An der F-Verteilung wird geprüft, ob die Zählervarianz signifikant größer ist als die Nennervarianz |
F-Verteilung | Linksschiefe Verteilung mit dem Mittelwert von 1, ausschließlich im positiven Bereich, dient zur Bestimmung der Wahrscheinlichkeit eines F-Werts, abhängig von Zähler und Nennerfreiheitsgraden des F-Bruchs |
G Power | Computerprogramm zur Berechnung von Teststärken, optimalen Stichprobenumfängen und empirischen Effektgrößen. ▶ Link zum Download auf www.lehrbuch-psychologie.de. |
Gesamtvarianz | Gesamte Varianz der Daten eines gemessenen Merkmals, Summe aus systematischer und unsystematischer Varianz |
Gleichverteilungsannahme | Eine Form der Nullhypothese beim Chi-Quadrat-Test: Die erwartete Häufigkeit ist in jeder Zelle gleich |
Haupteffekt | Systematischer Einfluss eines Faktors auf die abhängige Variable unabhängig von allen anderen Faktoren |
Haupteffekt, einfacher | Systematischer Einfluss eines Faktors auf die abhängige Variable in einer Stufe eines anderen Faktors, unabhängig von allen anderen Faktoren |
Korrelation | Standardisiertes Maß für den Zusammenhang zweier Variablen |
Mauchly-Test auf Sphärizität | Statistischer Test. Relevant bei der Varianzanalyse mit Messwiederholung. Die Nullhypothese entspricht der Zirkularitätsannahme: Alle Varianzen der Differenzen zwischen den Faktorstufen sind gleich |
Messwiederholung | Wiederholte Erhebung von Daten an denselben Personen. Untersucht die Frage, ob sich die Ausprägung eines Merkmals zu verschiedenen Messzeitpunkten unterscheidet. Statistische Verfahren mit Messwiederholung haben in der Regel eine höhere Teststärke im Vergleich zu entsprechenden Verfahren ohne Messwiederholung |
Nichtparametrische Tests | Verteilungsfreie Tests; Auswertungsverfahren für Daten mit Ordinal- oder Nominalskalenqualität, auch angewendet bei grober Verletzung der für parametrische Tests wichtigen Verteilungsvoraussetzungen |
Nullhypothese (H0) | Die Nullhypothese stellt die Basis bei der statistischen Bewertung eines Ergebnisses dar. Der Test der Nullhypothese liefert eine Entscheidung darüber, ob die Nullhypothese verworfen und damit die Alternativhypothese angenommen werden kann oder nicht. Beim t-Test und der ANOVA besagt die Nullhypothese im Regelfall, dass kein Unterschied zwischen den untersuchten Gruppen existiert. |
Omega-Quadrat (Ω2, ω2) | Effektstärkenmaß auf Populationsebene. Gibt den Anteil der von einem bestimmten Effekt aufgeklärten Varianz auf der Populationsebene an. Ω2 ist der Populationseffekt, ω2 der Schätzer dieses Populationseffekts |
Partielles Eta-Quadrat (ηp2) | Effektstärkenmaß auf Stichprobenebene. Gibt den Anteil der durch einen Effekt verursachten Variabilität der Messwerte (als Quadratsumme) an der gemeinsamen Variabilität des Residuums und des Effekts an. Im t-Test und der einfaktoriellen Varianzanalyse ohne Messwiederholung entsprechen sich ηp2 und η2, da nur ein Effekt betrachtet wird und deshalb die Summe der Quadratsummen von Residuum und Effekt der Gesamtquadratsumme entspricht. In mehrfaktoriellen Analysen und bei Messwiederholung ist ηp2 ≥ η2, da in diesen Fällen der Nenner von ηp2 (Summe aus den Quadratsummen von Effekt und Residuum) fast immer kleiner ist als der Nenner von η2 (Gesamtquadratsumme, siehe auch Eta-Quadrat |
Personenvarianz | Systematische Varianz zwischen Versuchspersonen, z. B. aufgrund von allgemeinen Persönlichkeits- oder Motivationsunterschieden. Bei der Varianzanalyse ohne Messwiederholung geht dieser Teil in die Residualvarianz mit ein. Die Varianzanalyse mit Messwiederholung kann diesen Varianzanteil schätzen, was zu einer Verringerung der Residualvarianz und zu einer höheren Teststärke führt |
Phi-Koeffizient | Korrelationskoeffizient zweier dichotomer Variablen und Effektstärkenmaß für den Vierfelder Chi-Quadrat-Test |
Post-hoc-Verfahren | Statistische Folgetests der Varianzanalyse zur Ermittlung der konkret vorliegenden Datenstruktur bei einem signifikanten Ergebnis. Post-hoc-Tests zeigen, welche einzelnen Mittelwerte sich signifikant voneinander unterscheiden. Die Anwendung ist nur sinnvoll bei der Betrachtung von mehr als zwei Gruppen |
Prüfvarianz | Varianz, „gegen“ die bei varianzanalytischen Verfahren geprüft wird. In der Regel besteht die Prüfvarianz aus der unsystematischen Varianz (auch Residualvarianz) |
Quadratsumme | Summe der quadrierten Abweichungen eines einzelnen Werts von einem Mittelwert. Bildet den Zähler einer Varianz. Durch Division mit den Freiheitsgraden ergibt sich ein Schätzer für die Populationsvarianz |
Rangvarianzanalyse (Kruskal-Wallis-Test) | Pendant zur Varianzanalyse für rangskalierte Daten |
Stichprobenumfangsplanung | Bestimmt die optimalen Stichprobenumfänge eines Tests nach Festlegung eines Effekts und einer Teststärke mithilfe des Nonzentralitätsparameters λ. Nach einer solchen Planung ist jedes Ergebnis des Tests eindeutig interpretierbar |
Systematische Varianz | Anteil der Gesamtvarianz, dem ein systematischer Einfluss zugrunde liegt. Maß für die Variation von Stichprobenmittelwerten |
Teststärke | Wahrscheinlichkeit, ein signifikantes Testergebnis zu erhalten, falls ein Effekt einer bestimmten Größe in der Population tatsächlich existiert. Sie ist die Gegenwahrscheinlichkeit zur β-Fehlerwahrscheinlichkeit |
Tukey HSD-Test | Post-hoc-Verfahren der Varianzanalyse, berechnet eine kritische Differenz, ab der sich zwei Gruppenmittelwerte signifikant voneinander unterscheiden |
U-Test (Mann-Whitney) | Statistischer Test für den Vergleich zweier unabhängiger Gruppen bei rangskalierten Daten. Bietet einen Ersatz zum t-Test bei groben Verletzungen der Voraussetzungen |
U-Test (Wilcoxon) | U-Test für abhängige Stichproben |
Unsystematische Varianz | Variation der Werte innerhalb einer Bedingung, die nicht auf die experimentelle Manipulation zurückzuführen ist. Auch als Residualvarianz oder Varianz „innerhalb“ bezeichnet |
Varianzanalyse (ANOVA) | Auswertungsverfahren für intervallskalierte Daten; ermöglicht den simultanen Mittelwertsvergleich über die Betrachtung verschiedener Varianzanteile. Neben Haupteffekten lassen sich bei mehrfaktoriellen Varianzanalysen auch Wechselwirkungen zwischen den Faktoren analysieren |
Varianz „innerhalb“ | Varianz innerhalb einer Bedingung. Sie gibt die Variation der einzelnen Messwerte um ihren Gruppenmittelwert an. Sie bildet den Nenner des F-Bruchs einer Varianzanalyse und eines t-Tests und heißt auch Residualvarianz |
Varianzhomogenität | Die Varianzen eines Merkmals oder Fehlers in einer Bedingung bzw. Gruppe werden in der Population als gleich angenommen. Sie ist Voraussetzung für viele statistische Verfahren wie z. B. für den t-Test und die Varianzanalyse |
Varianz „zwischen“ | Varianz zwischen den Bedingungen. Sie gibt die Variation der Gruppenmittelwerte an und bildet den Zähler des F-Bruchs in einer Varianzanalyse |
Wechselwirkung | Die Wechselwirkung erfasst den gemeinsamen Einfluss bestimmter Stufen der betrachteten Faktoren auf die abhängige Variable, der nicht durch die Haupteffekte der Faktoren zu erklären ist |
χ2-Test | Siehe Chi-Quadrat-Test |
Zirkularitätsannahme (auch: Sphärizität) | Relevant bei der Varianzanalyse mit Messwiederholung. Sie besagt, dass die Varianzen der Differenzen zwischen jeweils zwei Faktorstufen homogen sind. In SPSS überprüft der Mauchly-Test auf Sphärizität diese Annahme. Für den Fall der Verletzung der Annahme gibt es Korrekturverfahren |