Begriff | Erklärung |
---|---|
α-Fehler-Kumulierung | Erhöhung des Gesamt-α-Fehlers durch die statistische Überprüfung einer Hypothese mittels mehrerer einzelner Tests |
Abhängige Variable | Die gemessene Variable, deren Abhängigkeit von einer oder mehreren unabhängigen Variablen untersucht werden soll |
Alternativhypothese (H1) | Die Alternativhypothese nimmt einen systematischen Effekt an. Sie umfasst all das, was die Nullhypothese nicht enthält |
Alternativhypothese, gerichtete | Vorhersage eines systematischen Unterschieds zwischen Gruppen in eine bestimmte Richtung. Die Nullhypothese umfasst in diesem Fall auch die Unterschiede in die nicht vorhergesagte Richtung |
Alternativhypothese, ungerichtete | Vorhersage eines systematischen Unterschieds zwischen Gruppen, unabhängig von der Richtung des Unterschieds |
A posteriori | Berechnung von Kennwerten nach der Durchführung einer Untersuchung |
A priori | Berechnung von Kennwerten vor der Durchführung einer Untersuchung |
Arithmetisches Mittel | Das arithmetische Mittel gibt den Durchschnitt der Messwerte einer Verteilung an. Es ist das gebräuchlichste Maß der zentralen Tendenz |
β-Fehler | Der β-Fehler, auch Fehler 2. Art, bezeichnet die Fehlentscheidung, die H0 anzunehmen, obwohl in Wirklichkeit die H1 gilt |
b-Gewicht | Parameter der linearen Regressionsgleichung, der die Steigung der Geraden angibt. Er ist definiert als der Quotient aus der Kovarianz der untersuchten Merkmale und der Streuung der Prädiktorvariable |
β-Gewicht | Standardisierung des b-Gewichts einer Regression an den Streuungen von Prädiktor und Kriterium. Das Gewicht gibt an, um wie viele Standardabweichungen sich das Kriterium pro Standardabweichung des Prädiktors verändert |
Deskriptive Statistik | Die deskriptive (beschreibende) Statistik vereint alle Methoden, mit denen empirische Daten zusammenfassend dargestellt und beschrieben werden können. Dazu dienen Kennwerte, Grafiken und Tabellen. |
Determinanten des t-Tests | α-Fehler, β-Fehler, Effekt und Stichprobenumfang bedingen sich gegenseitig in einem t-Test. Sind drei von ihnen festgelegt, ergibt sich der vierte Wert automatisch |
Determinationskoeffizient | Der Determinationskoeffizient r² gibt das Ausmaß der Varianzaufklärung einer Variable Y durch eine Variable X an. Er kann maximal 1 betragen, was einer Varianzaufklärung von 100 Prozent entspricht. |
Erwartungswert | Der Erwartungswert einer bestimmten Variable ist der Wert, den man in der Population erwarten würde, also eine Schätzung des Populationsparameters. Beispielsweise wird der Mittelwert einer Stichprobe als Erwartungswert für den Mittelwert in der Population benutzt. |
Empirischer Effekt | Aus Daten berechneter Effekt, dient als Schätzer für Populationseffekte |
Eta-Quadrat (η2) | Effektstärkenmaß. Gibt den Anteil der aufgeklärten Varianz an der Gesamtvarianz auf der Stichprobenebene mittels Quadratsummen an |
Fehlervarianz | Siehe Residualvarianz, unsystematische Varianz oder Varianz „innerhalb“ |
Fishers Z-Transformation | Transformation, die Korrelationen auf Intervallskalenniveau überführt. Dadurch wird eine Mittelung mehrerer Korrelationen möglich |
Freiheitsgrade | Freiheitsgrade bestimmen die Genauigkeit von Populationsschätzern und damit die Form von Verteilungen, die auf Schätzern basieren wie z. B. der t-Verteilung. Die Zahl der Freiheitsgrade gibt an, wie viele Werte theoretisch frei variieren können, wenn das Ergebnis bereits feststeht |
G Power | Computerprogramm zur Berechnung von Teststärken, optimalen Stichprobenumfängen und empirischen Effektgrößen. ▶ Link zum Download auf www.lehrbuch-psychologie.de. |
Inferenzstatistik | Ziel der Inferenzstatistik sind Schlüsse von einer Stichprobe auf eine Population sowie Aussagen über die Güte dieser Schlüsse. Typische interenzstatistische Verfahren sind Standardfehler, Konfidenzintervalle und Signifikanztests. |
Inhaltliche Hypothese | Vorhersage auf der Basis von Theorien, dass ein (oder kein) Unterschied zwischen Gruppen/Bedingungen oder ein (oder kein) Zusammenhang zwischen verschiedenen Merkmalen besteht |
Konfidenzintervall | Das Konfidenzintervall („confidence intervall“, CI) kennzeichnet denjenigen Bereich von Merkmalsausprägungen, in dem sich 95% (99%) aller möglichen Populationsparameter befinden, die den empirisch ermittelten Stichprobenkennwert erzeugt haben können. |
Korrelation | Bezeichnet ganz allgemein das gemeinsame Auftreten von zwei Merkmalen oder Ereignissen z.B. Prüfungsangst und Testleistung. Der Korrelationskoeffizient ist ein statistisches Maß für die Enge und die Richtung dieses Zusammenhangs (nehmen beide Merkmale jeweils gemeinsam zu oder ab bzw. nimmt eines ab, während das andere zunimmt?). |
Kovarianz | Die Kovarianz gibt das Ausmaß des Zusammenhangs zweier Variablen in deren natürlicher Maßeinheit an, also nicht in standardisierter Form. Sie beschreibt das Ausmaß, in welchem zwei Variablen gemeinsam variieren. |
Kriteriumsvariable | Die abhängige Variable bei der Regression, d. h. das Merkmal, dessen Ausprägung vorhergesagt werden soll |
Levene-Test der Varianzgleichheit | F-Test, testet die Varianzen der betrachteten Gruppen auf Varianzhomogenität, wird signifikant, wenn keine Varianzhomogenität vorliegt |
Messwiederholung | Wiederholte Erhebung von Daten an denselben Personen. Untersucht die Frage, ob sich die Ausprägung eines Merkmals zu verschiedenen Messzeitpunkten unterscheidet. Statistische Verfahren mit Messwiederholung haben in der Regel eine höhere Teststärke im Vergleich zu entsprechenden Verfahren ohne Messwiederholung |
Nonzentrale Verteilung | Verteilung eines Stichprobenkennwerts unter der Annahme der Alternativhypothese, meist nicht symmetrisch |
Nonzentralitätsparameter λ (Lambda) | bestimmt die Form der nonzentralen Verteilung. Wird bei der Berechnung der Teststärke und bei der Stichprobenumfangsplanung benötigt |
Normalverteilung | Die Normalverteilung ist die Form, mit der sich die Verteilung vieler Merkmale in der Population (sowohl physiologische als auch mentale Merkmale) beschreiben lässt. Diese Verteilungsform ist symmetrisch und ähnelt einer Glocke, weshalb sie auch als Gauss’sche Glocke bezeichnet wird. |
Nullhypothese (H0) | Die Nullhypothese stellt die Basis bei der statistischen Bewertung eines Ergebnisses dar. Der Test der Nullhypothese liefert eine Entscheidung darüber, ob die Nullhypothese verworfen und damit die Alternativhypothese angenommen werden kann oder nicht. Beim t-Test und der ANOVA besagt die Nullhypothese im Regelfall, dass kein Unterschied zwischen den untersuchten Gruppen existiert. |
Omega-Quadrat (Ω2, ω2) | Effektstärkenmaß auf Populationsebene. Gibt den Anteil der von einem bestimmten Effekt aufgeklärten Varianz auf der Populationsebene an. Ω2 ist der Populationseffekt, ω2 der Schätzer dieses Populationseffekts |
Parameter | Ein statistischer Kennwert wie das arithmetische Mittel oder die Varianz, für deren Berechnung die Intervallskaliertheit der Daten Voraussetzung ist. Parameter beziehen sich immer auf die Population |
Parametrische Verfahren | Diese arbeiten mit Merkmalsverteilungen und können nur bei mindestens intervallskalierten Daten mit bestimmten Verteilungseigenschaften angewendet werden |
Partialkorrelation | Korrelationstechnik, die es gestattet, den Einfluss einer Dritt- bzw. Störvariable aus dem Zusammenhang zweier Merkmale heraus zu rechnen |
Phi-Koeffizient | Korrelationskoeffizient zweier dichotomer Variablen und Effektstärkenmaß für den Vierfelder Chi-Quadrat-Test |
Population | Die klar definierte Menge aller Personen, die für einen Forscher von Interesse sind. Sie kann sehr weitläufig (alle lebenden Menschen) oder sehr eng definiert sein (alle Studierenden in der ersten Reihe des Hörsaals) |
Prädiktorvariable | Die unabhängige Variable bei der Regression, die zur Vorhersage der abhängigen Variable (Kriterium) eingesetzt werden soll |
Produkt-Moment-Korrelation | Standardisiertes Maß der bivariaten Deskriptivstatistik, das den Zusammenhang zweier intervallskalierter Variablen beschreibt. Gibt den Anteil der empirischen Kovarianz an der theoretisch maximalen Kovarianz an. Der Wertebereich der Korrelation reicht von –1 bis +1 |
Punktbiseriale Korrelation | Gibt den Zusammenhang zwischen einer nominalskalierten, zweistufigen Variable und einer intervallskalierten Variable an |
Punkteschwarm, -wolke | Siehe Streudiagramm |
Rangkorrelation | Korrelation für ordinalskalierte Variablen. Die Rangkorrelation nach Spearman liefert einen Wert zwischen –1 und +1, der angibt, inwiefern sich zwei Rangreihen entsprechen |
Regression(sanalyse), einfache | Mathematisches Verfahren, welches die empirischen Verteilungen eines Prädiktormerkmals x und eines Kriteriumsmerkmals y dergestalt miteinander in Beziehung setzt, dass eine Regressionsgleichung resultiert, welche die Vorhersage von y aus x ermöglicht. Die Güte einer Regression ist abhängig vom tatsächlichen Zusammenhang zweier Merkmale |
Regression(sanalyse), multiple | Eine Erweiterung der einfachen Regression um mindestens einen weiteren Prädiktor. Mit diesem Verfahren kann der eigenständige Einfluss der einzelnen Prädiktoren im Kontext der anderen ermittelt werden |
Regressionsgerade | Die Regressionsgleichung y = b · x + a einer linearen Regression kann grafisch in Form einer Geraden veranschaulicht werden. Anhand dieser lässt sich für jeden x-Wert der von der Regression vorhergesagte y-Wert ablesen |
Regressionsgewicht, Regressionskoeffizient | Die Steigung einer Regressionsgeraden. Man unterscheidet unstandardisierte und standardisierte Regressionsgewichte. Letztere sind von der Skalierung der untersuchten Merkmale unabhängig |
Regressionsvarianz | Varianz der vorhergesagten Kriteriumswerte einer Regression. Regressionsvarianz und Fehlervarianz summieren sich zur Gesamtvarianz der empirischen y-Werte auf |
Residualvarianz | Siehe auch unsystematische Varianz oder Varianz „innerhalb“. In der Regression: Gemittelte Abweichung der empirischen Werte von den von der Regression vorhergesagten Werte. Die Residualvarianz ist derjenige Varianzanteil, welcher nicht durch die Regressionsgleichung abgedeckt werden kann |
Robustheit | Ein statistischer Test ist umso robuster, je weniger Einfluss die Verletzung der mathematischen Voraussetzungen auf die Güte des Ergebnisses hat |
Scheinkorrelation | Zusammenhang zweier Variablen, der darauf beruht, dass beide Variablen von einer dritten Variable kausal beeinflusst werden. Zwischen den interessierenden Variablen herrscht aber keine Kausalität |
Signifikanz | Signifikanz heißt statistische Bedeutsamkeit und bezieht sich immer auf einen Effekt, den man in einer Stichprobe gefunden hat und auf die Population verallgemeinern möchte. Signifikante Ergebnisse werden als systematisch und nicht als zufällig erachtet. Signifikanz hat nichts mit inhaltlicher Bedeutsamkeit zu tun. |
Signifikanzniveau | Entscheidungsgrenze in einem statistischen Auswertungsverfahren; gibt an, wie groß die α-Fehlerwahrscheinlichkeit eines Ergebnisses höchstens sein darf, um sich für die Alternativhypothese zu entscheiden. Es liegt meistens bei α = 0,05 |
Skala | Unter einer Skala („scale“) versteht man im Kontext der Messtheorie ein empirisches Relativ, ein numerisches Relativ und eine die beiden Relative verknüpfende, homomorphe Abbildungsfunktion. |
Standardabweichung oder Streuung | Die Standardabweichung oder Streuung ist die positive Wurzel aus der Varianz und somit die korrigierte durchschnittliche quadrierte Abweichung jedes einzelnen Werts vom Mittelwert |
Standardfehler | Der Standardfehler ist die Standardabweichung der Stichprobenverteilung eines Kennwertes. Er quantifiziert die Ungenauigkeit bei der Schätzung von Populationsparametern mithilfe von Stichprobenkennwerten. |
Standardnormalverteilung | z–Werte verteilen sich immer in einer ganz bestimmten Form, die als Standardnormalverteilung (z–Verteilung) bezeichnet wird. Sie ist durch die Form der Glockenkurve (Normalverteilung) gekennzeichnet und besitzt stets einen Mittelwert von 0 sowie eine Standardabweichung von 1. |
Standardschätzfehler | Die Wurzel aus der Fehlervarianz einer Regression. Er ist ein (unstandardisiertes) Maß für die Güte und Genauigkeit einer Regression |
Statistische Hypothese | Übersetzung der inhaltlichen Hypothese in eine mathematische Schreibweise |
Stichprobe | Teilmenge einer Population. Der größte Teil psychologischer Forschung findet an Stichproben statt |
Stichproben, abhängige | Die Elemente zweier Stichproben sind paarweise einander zugeordnet und beeinflussen sich gegenseitig. Ein typischer Fall für abhängige Stichproben ist die Messwiederholung |
Stichprobenkennwerteverteilung | Wahrscheinlichkeitsverteilung aller möglichen Ausprägungen eines Stichprobenkennwerts |
Stichprobenumfangsplanung | Bestimmt die optimalen Stichprobenumfänge eines Tests nach Festlegung eines Effekts und einer Teststärke mithilfe des Nonzentralitätsparameters λ. Nach einer solchen Planung ist jedes Ergebnis des Tests eindeutig interpretierbar |
Stochastischer Zusammenhang | Unvollständiger Zusammenhang, der nur annäherungsweise durch eine Funktion ersetzt werden kann. Bei der Vorhersage anhand der Regression treten Vorhersagefehler auf, d. h., empirische Werte und theoretische Werte weichen voneinander ab |
Streudiagramm | Grafische Darstellung aller Messwertepaare (xi/yi) zweier Merkmalsverteilungen in einem Koordinatensystem. Die sich ergebende Punktwolke gibt grobe Auskunft über einen eventuellen Zusammenhang zwischen den beiden Variablen |
Streuung | Siehe Standardabweichung |
Systematischer Effekt | Größe des Unterschieds zwischen untersuchten Gruppen oder Ausmaß des Einflusses der experimentellen Variation |
Systematische Varianz | Anteil der Gesamtvarianz, dem ein systematischer Einfluss zugrunde liegt. Maß für die Variation von Stichprobenmittelwerten |
Transformation | Mathematische Umformung nach einer bestimmten Formel |
Teststärke | Die Teststärke („power“) hat das Symbol 1 - ? und ist definiert als die Wahrscheinlichkeit, mit der ein Signifikanztest einen in der Population vorhandenen „wahren“ Effekt bestimmter Größe durch ein statistisch signifikantes Ergebnis tatsächlich aufdeckt. Bei hoher Teststärke weist ein Signifikanztest eine hohe Sensitivität auf, kann also auch kleine Populationseffekte mit großer Sicherheit aufdecken. Konventionell wird in Anlehnung an Cohen (1988) eine Teststärke von mindestens 80% gefordert. Das heißt umgekehrt, es wird eine ?-Fehlerwahrscheinlichkeit (Wahrscheinlichkeit, die H? fälschlich anzunehmen bzw. die H? fälschlich zu verwerfen) von maximal 20% akzeptiert. Man beachte, dass die Konventionen für das ?-Fehler-Niveau (.05), das ?-Fehler-Niveau (.20) sowie die Teststärke (.80) nicht mechanisch anzuwenden, sondern inhaltlich begründet festzulegen sind. Wenn also z. B. inhaltlich ein ?-Fehler nicht 4-mal gravierender ist als ein ?- Fehler, sollten ?- und ?-Fehler-Niveau entsprechend ausgewogen festgelegt werden. |
t-Test | Statistisches Auswertungsverfahren für den Vergleich zweier Gruppenmittelwerte. Der t-Test prüft mithilfe des t-Werts, ob eine empirische Mittelwertsdifferenz signifikant von null verschieden ist oder ob sie auf Zufall beruht. Er ist ein parametrischer Test (siehe parametrische Verfahren). Es gibt einen t-Test für unabhängige und abhängige Stichproben sowie für eine einzige Stichprobe. |
t-Verteilung | Verteilung des t-Werts, dient zur Bestimmung der Wahrscheinlichkeit des t-Werts unter der Nullhypothese. Ihre Form ist von der Anzahl ihrer Freiheitsgrade abhängig, bei hohen Freiheitsgraden geht sie in eine Standardnormalverteilung über |
t-Wert | Standardisierte Differenz zweier Stichprobenmittelwerte |
t-Wert, empirischer | Der t-Wert wird für eine empirische Mittelwertsdifferenz berechnet und ordnet dieser Differenz eine Auftretenswahrscheinlichkeit zu. Die Größe des t-Werts ist abhängig von der Größe der Differenz, der Streuung des Merkmals in der Population und der Stichprobengröße |
t-Wert, kritischer | Der kritische t-Wert schneidet die Fläche unter der Kurve der t-Verteilung ab, die dem gewählten Signifikanzniveau entspricht. Er erlaubt eine direkte Einordnung des empirischen t-Werts |
Unabhängige Stichproben | Die Werte der einen Stichprobe haben in keiner Weise Einfluss auf die Werte der zweiten Stichprobe |
Unabhängige Variable | Variable, die ein Wissenschaftler systematisch verändert (manipuliert), um ihren Einfluss auf eine oder mehrere > abhängige Variablen zu untersuchen. |
Unsystematische Varianz | Variation der Werte innerhalb einer Bedingung, die nicht auf die experimentelle Manipulation zurückzuführen ist. Auch als Residualvarianz oder Varianz „innerhalb“ bezeichnet |
Varianz | Die Varianz s² ist ein Maß zur Beschreibung der Streuung einer Verteilung. Sie ist die durchschnittliche quadrierte Abweichung aller Werte von ihrem gemeinsamen Mittelwert. |
Varianzhomogenität | Die Varianzen eines Merkmals oder Fehlers in einer Bedingung bzw. Gruppe werden in der Population als gleich angenommen. Sie ist Voraussetzung für viele statistische Verfahren wie z. B. für den t-Test und die Varianzanalyse |
Zentrale Verteilung | Verteilung eines Stichprobenkennwerts unter der Annahme der Nullhypothese |