A-Z Navigation
Begriff Erklärung
Abduktion

das Entwickeln einer neuen Regel bzw. Hypothese zur Erklärung von Sachverhalten, die sich nicht unter bereits bekannte Gesetzmäßigkeiten subsumieren lassen.

Beschreiben

ist die Grundlage jeder wissenschaftlichen Tätigkeit. Beim Beschreiben werden Angaben über die Erscheinungsformen und Merkmale von mindestens einem Sachverhalt gemacht. Dies geschieht beispielweise durch Benennen und Explizieren, Vergleichen, Ordnen und Klassifizieren, Definieren oder Quantifizieren (Angaben zu Häufigkeit bzw. Ausprägungsgrad).

Deduktion

die Ableitung des Besonderen und Einzelnen aus dem Allgemeinen (aus Regeln, Gesetzmäßigkeiten, Modellen, Theorien).

Empirische Wissenschaft

Das Wort Empirie stammt vom griechischen Wort empeiria (Erfahrung) ab. Dementsprechend wird im wissenschaftlichen Sinne von empirischen Aussagen gesprochen, wenn sie sich auf (wissenschaftlich kontrollierte) Erfahrungen, also Befunde, die nach den Regeln der empirischen Forschung gewonnen wurden, beziehen (Diaz-Bone und Weischer 2015, S. 102). Empirische Wissenschaften grenzen sich von rein theoretischen Wissenschaften ab, die ihre Erkenntnisse allein auf der Basis gedanklicher Beschäftigung mit einem Phänomen gewinnen (wie beispielsweise die Mathematik oder die Philosophie).

Empirisch-inhaltliche Hypothese (EIH)

ensteht durch die Operationalisierung der theoretisch-inhaltliche Hypothese TIH.

Erklärungen

sind Angaben über Bedingungsverhältnisse von Sachverhalten bzw. Angaben über Abhängigkeiten zwischen Sachverhalten und häufiges Ziel quantitativer Forschung. Erklärungen setzen die Beschreibung von mindestens zwei Sachverhalten voraus.

Forschungsethik

Bei der Forschungsethik im engeren Sinne geht es um den ethischen Umgang mit den Teilnehmer:innen der Forschung, darum Schädigungen zu verhindern und die Integrität der Teilnehmer:innen zu schützen. Forschungsethische Erwägungen haben in der Psychologie und den Sozialwissenschaften einen hohen Stellenwert (ebenso wie in der Medizin), da Menschen im Mittelpunkt dieser Forschung stehen.

Gegenstand der Psychologie

ist das Erleben, Verhalten und Handeln des Menschen.

Gegenstand der Sozialwissenschaften

ist das gesellschaftliche Zusammenleben der Menschen.

Hintergrundwissen

Unter dem Hintergrundwissen versteht man Wissensbestände, die benötigt werden, um jene Untersuchungssituation zu konstruieren, mit welcher die Hypothese konfrontiert werden soll.

Hypothese

ist eine vorläufige (vermutete) Antwort, die Forscher:innen auf eine ihrer Fragen geben (Hussy und Jain, 2002). Um Vermutungen handelt es sich solange, als der wissenschaftliche Nachweis noch aussteht.

Induktion

die Methode des Schlussfolgerns von Einzelfällen auf das Allgemeine und Gesetzmäßige.

Konstante

Eine Konstante ist eine Beobachtungsgröße mit nur einer Ausprägung. Diese sind im Gegenstandsbereich der Psychologie kaum vorzufinden (Hussy und Jain, 2002).

Mixed-Methods-Ansatz

Hier werden werden qualitative und quantitative Vorgehensweisen systematisch miteinander verbunden und anschließend integriert.

Objektivität (intersubjektive Vergleichbarkeit)

ist ein allgemeines Gütekriterium wissenschaftlicher Untersuchungen: Verschiedene Forscher:innen müssen unter den gleichen (Untersuchungs-)Bedingungen zu den gleichen Ergebnissen gelangen (Unabhängigkeit der Resultate von Untersuchungssituationen und Versuchsleiter:innen).

Operationalisierung

Wenn eine Hypothese mit abstrakten und bzw. oder komplexen Variablen geprüft, also mit der Realität konfrontiert werden soll, müssen diese Variablen der Beobachtung und Erfassung zugänglich gemacht werden, d. h., sie müssen operationalisiert werden. Dies geschieht dadurch, dass ihnen auf der Basis des vorliegenden Hintergrundwissens empirische Sachverhalte (d. h. konkret mess- bzw. beobachtbare Größen) zugeordnet werden. Dadurch wird entscheidbar, ob und in welcher Ausprägung die abstrakten (theoretischen) Begriffe in der (empirischen) Realität vorliegen. Voraussetzung für eine valide Zuordnung empirischer Sachverhalte zu abstrakten bzw. komplexen Variablen, ist eine präzise Definition dieser Variablen und der ggf. darin enthaltenen Teilaspekte. In der Regel kann man bei der Operationalisierung von Variablen, die für einen bestimmten Fachbereich relevant sind, auf existierendes Hintergrundwissen zurückgreifen.

Qualitative Methoden

umfassen sinnverstehende, interpretative wissenschaftliche Verfahrenssweisen, häufig auf die intensive Untersuchung weniger bzw. einzelner Fälle bezogen. Sie werden meist eingesetzt, um ein tieferes Verständnis bestimmter Sachverhalte zu gewinnen. Sie sind auch gut dafür geeignet, bisher wenig erforschte Themengebiete zu erschließen. Häufig liegt ein induktives bzw. abduktives Erkenntnisinteresse zugrunde. Zu den qualitativen Methoden zählen beispielsweise die Gegenstandsbezogene Theoriebildung (Grounded Theory) oder partizipative und emanzipatorische Ansätze als Forschungsansatz, unstandardisierte Interviews, teilnehmende Beobachtung, oder Gruppendiskussion als Datenerhebungsmethode und sinnverstehende Auswertungsmethoden wie Objektive Hermeneutik, Diskurs- oder Inhaltsanalyse.

Qualitativer Ansatz

Hier kommen eher sinnverstehende (unstandardisierte) Verfahren zum Einsatz.

Quantitative Methoden

repräsentieren eine Vorgehensweise zur numerischen Darstellung empirischer Sachverhalte. Sie werden eingesetzt, wenn sich die Forschungsfrage auf (kausale) Zusammenhänge möglichst konkreter Variablen bezieht und allgemeingültige Aussagen getroffen werden sollen. Häufig liegt ein deduktives Erkenntnisinteresse zugrunde. Zu den quantitativen Methoden zählen beispielsweise Korrelationsstudien oder Experimente als Forschungsansatz, standardisierte Tests oder Fragebögen zur Datenerhebung und inferenzstatistische Methoden zur Datenauswertung.

Quantitativer Ansatz

Hier kommen objektiv messende (standardisierte) Verfahren zum Einsatz.

Reliabilität (Zuverlässigkeit)

bezeichnet die Zuverlässigkeit und Beständigkeit einer Untersuchung. Reliabel ist ein Erhebungsinstrument oder eine Untersuchung dann, wenn bei einem relativ gleichbleibenden Verhalten gleiche oder ähnliche Ergebnisse resultieren.

Theoretisch-inhaltliche Hypothese (TIH)

nennt man eine Hypothese, bei welcher noch keine Operationalisierung ihrer abstrakten Variablen vorgenommen wurde.

Validität (Gültigkeit)

beurteilt eine quantitative Untersuchung danach, ob sie tatsächlich das misst, was gemessen werden soll. Ursprünglich bezog sich dieses Gütekriterium auf diagnostische Messinstrumente, also beispielsweise auf die Frage, ob ein Intelligenztest auch tatsächlich Intelligenz und nicht etwa Frustrationstoleranz misst.

Variable

Variablen sind veränderliche Beobachtungsgrößen. Psychologische Variablen sind veränderliche Beobachtungsgrößen aus dem Bereich des menschlichen Erlebens, Verhaltens und Handelns. Jede Variable hat mindestens zwei, in der Regel viele Ausprägungen (Hussy und Jain 2002).

Verändern

ist in der Psychologie als Zielrichtung vor allem in anwendungsorientierten klinischen, pädagogischen oder gesundheitspsychologischen Kontexten relevant, wobei hier oft quantitative Forschungsansätze gewählt werden. In der qualitativen Forschung sind insbesondere partizipative und emanzipatorische Forschungsansätze mit der Zielrichtung des Veränderns verbunden. Die Zielrichtung des Veränderns ist nicht wertneutral. Sie kann in die drei Unterziele Korrigieren, Fördern und Vorbeugen (Prävention) unterteilt werden.

Verstehen

ist ein häufiges Ziel qualitativer Forschung. Während der quantitative Forschungsprozess eher linear ist, vollzieht sich das Verstehen klassischerweise in einem iterativen Prozess, dem so genannten hermeneutischen Zirkel bzw. der hermeneutischen Spirale. Das bedeutet, dass das Verstehen vor dem Hintergrund von Vorannahmen (einem Vorverständnis) und einem Verständnis der gesamten (Kommunikations-)Situation erfolgt. Erkenntnisse, die im Zuge des Verstehensprozesses gewonnen werden, wirken zurück auf das Vorverständnis und das Gesamtverständnis – wodurch sich wiederum das Verständnis verändern kann.

Vorhersagen (Prognosen)

sind vorwärts gerichtete Erklärungen. Derselbe Bedingungszusammenhang, den man annimmt, um einen Sachverhalt zu erklären, dient dazu, das Eintreten eines zukünftigen Sachverhalts zu prognostizieren (Nolting und Paulus, 2018).

wissenschaftliche Methoden

verschiedene Vorgehensweisen, mit deren Hilfe wir systematisch Daten sammeln, auswerten und in Bezug zu Theorien und existierenden wissenschaftlichen Erkenntnissen setzen können. Das wissenschaftliche Vorgehen folgt einem für die jeweilige Methode spezifischen und für andere nachvollziehbaren Prozess, der eine Überprüfung der gewonnenen Erkenntnisse erlaubt.

Wissenschaftsethik

Wissenschaftsethische Aspekte im weiteren Sinne, die auch unter den Begriffen wissenschaftliche Integrität oder gute wissenschaftliche Praxis verhandelt werden, beziehen sich auf den gesamten Prozess des wissenschaftlichen Erkenntnisgewinns und den Umgang mit diesen Erkenntnissen. Es geht darum, wissenschaftliches Fehlverhalten zu vermeiden sowie die Qualität wissenschaftlicher Erkenntisse sicherzustellen und somit die Vertrauenswürdigkeit und das Ansehen der Wissenschaft zu schützen.

Ziel jeder wissenschaftlichen Tätigkeit

ist das Generieren von möglichst gesichertem Wissen. Die wissenschaftliche Psychologie und die Sozialwissenschaften möchten Erkenntnisse zu ihren Gegenstandsbereichen schaffen, möchten Antworten auf Fragen geben, die das menschliche Erleben, Verhalten und Handeln und das gesellschaftliche Zusammenleben betreffen.

Skalennniveau

Das Skalenniveau (Nominalskala, Ordinalskala, Intervallskala oder Verhältnisskala) gibt an, welche Relationen (Verschiedenheit, Ordnung, Größe der Differenzen oder Verhältnis) zwischen den Objekten des empirischen Relativs durch eine Skala abgebildet werden können.

Artefakte bei physiologischen Messungen

sind Signale, die nicht durch den interessierenden physiologischen bzw. biopsychologischen Prozess, sondern durch andere Faktoren (z. B. externe Quellen elektrischer Potenziale wie etwa Radiosender oder Mobiltelefone) verursacht werden. Es handelt sich also um Signale, die einen anderen Ursprung haben als das interessierende Biosignal.

Diskrete Merkmale

Ein Merkmal, das nur die Erfassung der Häufigkeit in ganzen Zahlen zulässt, wird diskret genannt. Diskrete Merkmale wie Anzahl von Geschwistern lassen also das Zählen der Auftretenshäufigkeit zu, nicht jedoch die Feststellung von feinen Ausprägungen zwischen ganzen Zahlen.

Evozierte Potentiale

Hier handelt es sich um kurzzeitige (d. h. weniger als 1 Sekunde andauernde) Reaktionen auf innere oder äußere Reize, die einen komplexen Verlauf mit interpretierbaren Höhe- und Tiefpunkten aufweisen.

Item

Ein Item ist eine als Frage oder als Urteil formulierte Aussage, zu der die befragte Person ihre Zustimmung oder Ablehnung – ggf. in unterschiedlicher Intensität – äußern kann.

Messen

Messen ist die Zuordnung von Zahlen zu Objekten oder Ereignissen bezüglich der Ausprägung eines Merkmals oder einer Eigenschaft, so dass bestimmte Relationen zwischen den Zahlen vorhandene Relationen zwischen den Objekten (oder Ereignissen) homomorph abbilden.

Reaktivität

Reaktivität bei psychologischen Datenerhebungen bedeutet die Veränderung bzw. Verzerrung der erhobenen Daten alleine aufgrund der Kenntnis der untersuchten Personen darüber, dass sie Gegenstand einer Untersuchung sind. Aufgrund von Reaktivität verändert sich die Beschaffenheit des zu erforschenden Gegenstands in der Psychologie des menschlichen Erlebens bzw. psychischer Vorgänge.

Primacy-Effekt

Der Primacy-Effekt ist ein i.d.R. unerwünwschter Einfluss bei der Beantwortung von Fragen, bei der anfängliche Urteile folgende, ähnliche Urteile gleichsinnig beeinflussen.

Experience Sampling

Experience Sampling ist eine Methode zur Erfassung von individuellem Erleben und Verhalten im Alltagskontext über viele Zeitpunkte hinweg.

Schwierigkeit von Testitems

ist der Prozentsatz aller untersuchten Personen, die das Item gelöst bzw. positiv beantwortet haben. Obwohl der Begriff einen engen Bezug zu Leistungstests aufweist, kann er doch auch auf Persönlichkeitstests angewendet werden – obgleich er in diesem Fall nicht mit dem Alltagsverständnis von Schwierigkeit übereinstimmt. Bei der Testkonstruktion wird oft eine breitere Streuung der Schwierigkeiten angestrebt, damit der Testwert über das gesamte Spektrum zwischen Personen mit verschiedenen Merkmalsausprägungen differenziert.

Spontanaktivität

Bei der Spontanaktivität handelt es sich um ständig auftretende rhythmische Potenzialänderungen mit einer Frequenz von 0.5 bis maximal 100 Hertz und Amplituden von 1 bis 100 Mikrovolt.

Stetige Merkmale

Ein Merkmal, das prinzipiell unendlich viele Ausprägungen annehmen kann und keine Erfassung der Häufigkeit in ganzen Zahlen zulässt, wird als stetig bzw. kontinuierlich bezeichnet. Kontinuierliche Merkmale wie z. B. die Körpergröße können nicht gezählt, wohl aber gemessen werden.

Test

Ein Test ist ein wissenschaftliches Routineverfahren zur Untersuchung eines oder mehrerer empirisch unterscheidbarer Persönlichkeitsmerkmale mit dem Ziel einer möglichst genauen quantitativen Aussage über den relativen Grad der individuellen Merkmalsausprägung. Ein Test besteht in der Regel aus mehreren Aufgaben oder Fragen (Items), die von verschiedenen Menschen mit unterschiedlichen Fähigkeiten oder Eigenschaften unterschiedlich gelöst bzw. beantwortet werden. In einem abstrakteren methodischen Sinn wird ein Test auch als eine standardisierte Verhaltensstichprobe definiert, die aus Antworten auf eine Mehrzahl von Items besteht. Aus den Antworten wird der Testwert der untersuchten Person aggregiert.

Trennschärfe von Testitems

ist zu entnehmen, wie gut das gesamte Testergebnis aufgrund der Beantwortung dieses einzelnen Items vorhersagbar ist. Damit gibt diese an, wie gut ein einzelnes Item den gesamten Test repräsentiert. Somit erreichen Personen, die einen hohen (niedrigen) Gesamttestwert aufweisen, auf einem trennscharfen Einzelitem ebenfalls einen hohen (niedrigen) Wert.

Wissenschaftliche Beobachtung

ist die systematische und regelgeleitete Registrierung des Auftretens bzw. der Ausprägung von ausgewählten, psychologisch relevanten Merkmalen oder Ereignissen. Sie folgt einem zuvor festgelegten Beobachtungsplan, der festlegt, 1. was beobachtet werden soll (Kategorien für das interessierende Ereignis oder Merkmal), 2. welche Aspekte weniger oder nicht relevant sind, 3. welchen Interpretationsspielraum der Beobachtende bei der Beobachtung hat, 4. wann, wie lange und wo die Beobachtung erfolgt (Zeitpunkte, Zeiträume, Situationen), 5. auf welche Weise das Beobachtete registriert und protokolliert wird.

Ableitungsvalidität

Die Ableitungsvalidität der Hypothesenprüfung ist gegeben, wenn die Entscheidung auf der Ebene der Testhypothesen tatsächlich die a priori aufgestellte Theoretisch-inhaltliche Hypothese (TIH) prüft, wenn also die Konkretisierungsschritte (von der TIH in Richtung der Empirisch-inhaltliche Hypothese, der Statistitischen Vorhersage und der Ebene der Testhypothesen) nicht zu einer inhaltlichen, formalen oder statistischen Veränderung der Ausgangshypothese führen.

Blindversuche

Bei Blindversuchen kennt der bzw. die Versuchsleiter:in nicht die der Untersuchung zugrunde liegende Hypothese und kann damit keine systematische Erwartungshaltung aufbauen und (unbewusst) an die Untersuchungsteilnehmer:innen weitervermitteln.

Effektgröße

Die Effektgröße ist ein statistisches Maß, das Auskunft über die praktische Bedeutsamkeit (Relevanz) eines Effektes (Unterschied oder Zusammenhang) gibt. Während die Wahrscheinlichkeit, im Hypothesentest ein signifikantes Ergebnis zu erhalten, mit der Größe der Stichprobe steigt, ist die Effektstärke unabhängig von der Stichprobengröße.

Einfacher Haupteffekt (EHE)

Dieser Effekt zeigt sich im zeilen- bzw. spaltenweisen Vergleich der Zellmittelwerte in einer Stufe des jeweils anderen Faktors. Sind die Zellmittelwerte gleich oder nur wenig unterschiedlich, so liegt kein solcher Effekt vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob dieser Effekt nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist.

Elimination

Durch Elimination werden die Einflüsse einer Variablen auf null gesetzt, ihr Einfluss auf die AV im Sinne einer Störvariablen wird aus dem Bedingungsgefüge genommen.

Experiment

Unter einem Experiment versteht man die systematische Beobachtung einer abhängigen Variablen unter verschiedenen Bedingungen einer unabhängigen Variablen bei gleichzeitiger Kontrolle der Störvariablen, wobei die zufällige Zuordnung von Proband:innen und experimentellen Bedingungen gewährleistet sein muss.

Externe Validität

eines Experiments ist gegeben, wenn die Ergebnisse der Untersuchung übertragbar sind. Dabei sind drei Aspekte zu unterscheiden, nämlich die Populationsvalidität, die Situationsvalidität und die Variablenvalidität.

Grundgesamtheit (Population)

Unter der Grundgesamtheit (auch Population genannt) versteht man in der psychologischen und sozialwissenschaftlichen Forschung die Menge aller potenziellen Untersuchungseinheiten für eine gegebene Fragestellung.

Haupteffekt(HE)

Ein Haupteffekt zeigt sich im Vergleich der Mittelwerte der AV in den Stufen des Faktors (UV). Sind die Mittelwerte gleich oder nur wenig unterschiedlich, so liegt kein HE vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob der Haupteffekt im statistischen Sinne überzufällig (signifikant) ist.

Interaktion

ist die kombinierte Wirkung mehrerer UVn auf die AV. Sie umfasst die Wirkungen der einfachen Haupteffekte der UVn.

Interne Validität

eines Experiments ist gegeben, wenn Veränderungen in der AV ausschließlich auf die Variation der UV zurückgeführt werden können. Sie erfasst das Ausmaß der Kontrolle von Störvariablen. In dem Maß in dem die interne Validität gegeben ist, können die Ergebnisse kausal interpretiert werden.

Konfundierung

Zu Störvariablen werden andere Einflussgrößen erst dann, wenn sie systematisch mit den Stufen einer UV variieren und auf die AV einwirken. Diesen Sachverhalt nennt man Konfundierung. Zu verhindern ist also die systematische Variation einer potenziellen Einflussgröße mit den Stufen einer oder mehrerer UV.

Konstanthalten

Zum Konstanthalten zählen alle Maßnahmen der Standardisierung der Untersuchungssituation und damit auch Maßnahmen der Versuchsleiter:innenschulung.

Korrelationsstudie

Der klassische nichtexperimentelle Forschungsansatz ist die Korrelationsstudie, auch Beobachtungsstudie genannt. In ihrer einfachsten Form besteht sie darin, zwei Variablen zu beschreiben (definieren, messen, operationalisieren) und die Höhe und Art des Zusammenhangs zwischen ihnen zu bestimmen. Ist mindestens eine der interessierenden Variablen keine kontinuierliche, sondern eine kategoriale Variable, so kann dieser Zusammenhang auch als Unterschied konzipiert werden.

Messwiederholung

Von Messwiederholung spricht man, wenn Proband:innen in verschiedenen experimentellen Bedingungen, also mehrfach innerhalb des gleichen Experiments, beobachtet werden.

Metaanalyse

Die Metaanalyse ist eine Methode, mit deren Hilfe die Ergebnisse bisheriger Studien zu einem Forschungsgebiet in Form statistischer Kennwerte zusammengefasst werden. Im Mittelpunkt steht dabei die Frage, ob in dem untersuchten Themenfeld ein bestimmter Effekt vorliegt und wenn ja, wie groß er ist (Effektstärke).

Nichtexperimentelle Forschungsansätze

Das Hauptmerkmal nichtexperimenteller Forschungsansätze besteht darin, dass vorhandene Unterschiede oder Zusammenhänge zwischen verschiedenen Gruppen von Personen bzw. Variablen untersucht werden und keine gezielte Variation von Untersuchungsbedingungen oder randomisierte Zuteilung von Personen stattfindet. Der Hauptunterschied zu den experimentellen Forschungsansätzen besteht darin, dass aufgrund der geringeren internen Validität in der Regel keine Überprüfung von Kausalhypothesen im Sinne der Erklärung von Wirkzusammenhängen möglich ist.

Organismische UV

Als organismisch bezeichnet man unabhängige Variablen, die Eigenschaften der Untersuchungsteilnehmer:innen sind. Das bedeutet, dass die VPn das entsprechende Merkmal in unterschiedlichen Ausprägungen in die Untersuchung mitbringen und somit den Stufen der UV nicht zufällig zugeordnet werden können.

Panelstudie

nennt man eine Untersuchung, in der dieselbe (repräsentative) Stichprobe von Personen längsschnittlich begleitet und wiederholt befragt wird. Hierdurch können echte Entwicklungsverläufe untersucht werden.

Parallelisieren

Beim Parallelisieren wird die interessierende Variable vor dem Experiment gemessen und die Proband:innen werden bezüglich ihrer Ergebnisse in eine Rangreihe gebracht. Anschließend werden die Proband:innen gemäß ihrer Rangreihe zufällig auf die Versuchsbedingungen verteilt.

Präzision

meint die Wahrscheinlichkeit, dass ein in der Population tatsächlich vorhandener Zusammenhang bzw. Unterschied durch die Untersuchung auch wirklich nachgewiesen werden kann.

Randomisieren

heißt das zufällige Zuteilen der Versuchspersonen zu den Versuchsbedingungen und bewirkt im Idealfall die statistische Äquivalenz (Vergleichbarkeit) der Versuchsgruppen hinsichtlich aller denkbaren Störvariablen: Die Mittelwerte und Verteilungen aller möglichen Einflussgrößen sind in den realisierten experimentellen Bedingungen vergleichbar.

Repräsentativität

bezeichnet das Ausmaß, mit dem in einer Stichprobe die (relevanten) Merkmale einer interessierenden Grundgesamtheit repräsentiert sind. Die Repräsentativität kann somit als ein Gütemerkmal quantitativer Stichproben angesehen werden.

Statistische Validität

beurteilt die Güte der Auswahl und Anwendung statistischer Verfahren und die Interpretation ihrer Ergebnisse. Sie wird u. a. durch die Verletzung der Anwendungsvoraussetzungen der statistischen Tests beeinträchtigt.

Statistische Vorhersage (SV)

entsteht durch die im statistischen Sinne notwendige Parametrisierung der EIH.

Stichprobe

Unter einer Stichprobe versteht man eine Teilmenge aus einer Grundgesamtheit, die unter bestimmten Gesichtspunkten (gemäß der Fragestellung) ausgewählt wurde.

Systematische Variation

Eine potenzielle Störvariable wird im Sinne der systematischen Variation dadurch kontrolliert, dass sie zu einer weiteren UV gemacht wird (Kontrollfaktor).

Testhypothesen (THn)

Auf der Ebene der Testhypothesen (THn) wird zwischen der Nullhypothese (H0) und der Alternativhypothese (H1) unterschieden.

Umfrageforschung

Die Umfrageforschung sammelt standardisierte Informationen zu einem spezifischen Fragegegenstand (Wahl, Produktbeliebtheit, Klimawandel, Gesundheitszustand usw.), indem eine repräsentative Stichprobe der jeweiligen Population befragt (interviewt) wird.

Versuchsplan

Unter einem Versuchsplan versteht man eine möglichst konkrete Handlungsanweisung zur Erhebung von Daten zum Zweck der ökonomischen, validen und präzisen experimentellen Hypothesenprüfung. Die Konkretisierung erfolgt auf der Grundlage einer zugehörigen Versuchsplananlage und mithilfe folgender vier Entscheidungen, die die Bedingungen angeben, unter welchen die Vpn beobachtet werden: 1. vollständige oder teilweise Realisierung der angelegten Zellen, 2. Bestimmung der Anzahl der Beobachtungen pro Zelle, 3. interindividuelle oder intraindividuelle Bedingungsvariation, 4. randomisierte oder nichtrandomisierte Zuordnung der Vpn zu den Zellen.

Versuchsplananlage (VPL-A)

Eine Menge von bewährten Schemata zur Anordnung von unabhängigen Variablen (Faktoren) und ihren Ausprägungen (Stufen), mit deren Hilfe eine möglichst informationshaltige und gleichzeitig ökonomische symbolische Repräsentation der Variablenausprägungen (Faktorstufen) erreicht werden kann (Hager 1987, S. 56).

Vollständiges interindividuelles Ausbalancieren

Hier werden alle möglichen Reihenfolgen der experimentellen Bedingungen realisiert. Man ordnet jeder denkbaren Abfolge mindestens eine Versuchsperson per Zufall zu.

Zufällige Variation

Hier realisiert die Versuchsleitung möglichst viele Ausprägungsgrade der potenziellen Störvariablen und ordnet die Proband:innen diesen per Zufall zu, damit es nicht zu einer systematischen Variation mit den Stufen der UV und damit auch nicht zu einer Konfundierung kommt.

Datenaufbereitung

Die Datenaufbereitung umfasst die Schritte und Prozeduren, mit denen die Rohdaten einer empirischen Untersuchung in eine Form gebracht werden, die eine gezielte Beantwortung der Forschungsfragen und die Überprüfung der Hypothesen mithilfe von Auswertungsverfahren erlaubt. Hierzu gehören im Bereich quantitativer Methoden u. a.: die Überführung von Daten, die noch nicht in quantitativer Form vorliegen, in Zahlen (z. B. quantitative Codierung von Beobachtungen oder verbalem Material, Bildung von Häufigkeiten nominalskalierter Daten), die Übertragung von Daten von Test- oder Befragungsbögen (bei Paper-Pencil-Erhebung) oder Rohdatendateien (bei computergestützter Datenerhebung) in ein analysierbares Datenformat (z. B. für ein Statistikprogramm wie SPSS oder SAS), die Zusammenfassung (Aggregierung) von einzelnen Variablen zu Gesamtwerten (z. B. die Bildung eines Gesamtwerts für eine Skala).

Deskriptivstatistik

Die Deskriptivstatistik beinhaltet Verfahren, mit deren Hilfe quantitative Daten zusammenfassend beschrieben und dargestellt werden. Hierzu zählen: die univariate Deskriptivstatistik (Statistik für einzelne Variablen), darunter a) die Bestimmung von Häufigkeiten des Auftretens von Werten und von Häufigkeitsverteilungen, b) die Berechnung von Kennwerten (Parametern), die zusammenfassende Aussagen über die gesamte Stichprobe erlauben (Maße der zentralen Tendenz und Streuungsmaße), die multivariate Deskriptivstatistik (Statistik für Zusammenhänge mehrerer Variablen), darunter Korrelation und Regression, Tabellen, Diagramme und Grafiken.

kumulative Häufigkeit

Die kumulative Häufigkeit bezeichnet die Häufigkeit aller Werte bis zu einer bestimmten Kategorie bei einer Ordnung in aufsteigender Reihenfolge.

Median

Der Median bezeichnet denjenigen Wert, unterhalb dessen 50 Prozent aller (ranggeordneten) Werte liegen, er kann ab Ordinalskalenniveau informativ sein.

arithmetisches Mittel

Das arithmetische Mittel bezeichnet den Quotienten aus der Summe und der Anzahl aller Werte (sinnvoll ab Intervallskalenniveau).

Varianz

Die Varianz ist die Summe der Abweichungsquadrate, relativiert an der Größe der Stichprobe (sinnvoll ab Intervallskalenniveau).

Standardabweichung

Die Standardabweichung ergibt sich aus der Quadratwurzel der Varianz.

Korrelation

Die Korrelation gibt den Zusammenhang zwischen zwei Variablen an. Zur Berechnung des gängigsten Korrelationskoeffiizienten (r) werden die Produkte korrespondierender Abweichungen (von den jeweiligen Mittelwerten) bestimmt und an der Anzahl aller Fälle sowie an den Standardabweichungen der beiden Variablen relativiert (erfordert Intervallskalenniveau).

Regressionsanalyse

Die Regressionsanalyse prüft den Zusammenhang zwischen einer oder mehreren unabhängigen Variablen (Prädiktoren) und einer Zielvariable (Kriterium).

Inferenzstatistik

Die Inferenzstatistik dient dem Schluss von einer Stichprobe auf eine zugehörige Population. Aussagen der Inferenzstatistik gehen damit über das Beobachtbare hinaus und sind mit Unsicherheit behaftet. Parameter für Populationen werden in der Regel mit griechischen Symbolen bezeichnet, am wichtigsten darunter Mü für den Mittelwert, Sigma für die Standardabweichung und Pi für die relative Häufigkeit (den Anteil).

Signifikanztest

Der Signifikanztest liefert Entscheidungen über ein Hypothesenpaar, die Nullhypothese (H0) und die dazu komplementäre Alternativhypothese (H1), mit beziiferbaren Fehlerwahrscheinlichkeiten.

Überschreitungswahrscheinlichkeit

Die Überschreitungswahrscheinlichkeit ist die Wahrscheinlichkeit, dass ein gefundenes Stichprobenergebnis oder ein noch stärker von der H0 abweichendes Ergebnis zustande kommt, falls die H0 in der Population zutrifft.

Signifikanzniveau

Das Signifikanzniveau ist eine konventionell festgelegte Grenze, unterhalb derer die Überschreitungswahrscheinlichkeit so gering ist, dass die H0 abgelehnt wird.

Teststärke (power)

Die Teststärke (engl. power) bezeichnet die Wahrscheinlichkeit, einen in der Population bestehenden oder angenommenen Effekt in einer Studie auch nachzuweisen.

Graphical Descriptives

Graphical Descriptives (z. B. Dichte und Teppich-Plot, engl. density and rug plot) sind Abbildungen, mit denen Daten aus einer inferenzstatistischen Analyse mit hoher Differenzierung und Integration dargestellt werden.

Varianzanalyse

Eine Varianzanalyse ist ein inferenzstatistisches Verfahren, mit dem die Varianz aller beobachteten Werte einer abhängigen Variable in diejenige Varianz zerlegt wird, die durch die unabhängige Variable erklärt werden kann (erklärte Varianz) und die hierdurch nicht erklärte Varianz (Fehlervarianz).

Abweichender Fall

Beim abweichenden Fall weist das interessierende Phänomen eine ungewöhnliche Ausprägung auf.

Arts-Based research

Die Arts-Based Research ist eine Form performativer Sozialforschung, bei der künstlerische Ausdrucksformen als Methoden zur Erzeugung von Wissen genutzt werden.

Arts-Informed Research

Die Arts-Informed Research ist eine Variante performativer Sozialforschung, bei der künstlerische Ausdrucksformen im Dienste wissenschaftlicher Forschung stehen. Beispiele der Arts-Informed Research sind Ausstellungen, Ethnotheatre oder Photovoice.

Autoethnografie

Der Ansatz der Autoethnografie ist durch drei Merkmale gekennzeichnet: den Rückgriff auf eigenes Erleben als zentrale Datenquelle (auto), einen schreibenden Analyseprozess (grafie), und den Rückbezug eigenen Erlebens auf soziale und kulturelle Gegebenheiten.

Bewusste (auch: absichtsvolle) Stichprobenziehung (auch: Fallauswahl)

Bei der bewussten bzw. absichtsvollen Stichprobenziehung wird die Stichprobe gezielt nach bestimmten Kriterien aus der Grundgesamtheit ausgewählt. Ziele der bewussten Stichprobenziehung sind beispielsweise die detaillierte Beschreibung ausgewählter Fälle oder die analytische Verallgemeinerung von der Stichprobe auf eine Theorie. Zielvorgaben bezüglich der Größe der Stichprobe existieren nicht. Wichtiger als der Umfang ist die Zusammensetzung der Stichprobe.

Biografieforschung

ist ein qualitativer Forschungsansatz. Ziel ist die Erhebung und Rekonstruktion lebensgeschichtlicher Erzählungen. Diese fungieren als Schnittstelle zwischen der individuellen Lebenswirklichkeit der Erzählerinnen und Erzähler und der sozialen Wirklichkeit. Lebensgeschichte ist immer individuell erlebte und rekonstruierte Wirklichkeit. Lebensgeschichten sind daher nicht als Abbildung objektiver Gegebenheiten zu sehen und sollten auch nicht im Hinblick auf ihren Wirklichkeitsgehalt bewertet werden.

Bottom up-Verfahren der bewussten Stichprobenziehung

Dies sind Verfahren der bewussten Fallauswahl, bei denen sich die Kriterien für die Zusammensetzung der Stichprobe erst im Untersuchungsverlauf ergeben, z. B. die theoretische Stichprobenziehung.

Dialog-Konsens-Kriterium

Der Begriff stammt aus dem Forschungsprogramm Subjektive Theorien und bezeichnet das Kriterium, nach dem eine Theoriestruktur als angemessen rekonstruiert gilt. Das Kriterium ist erfüllt, wenn die Teilnehmerin oder der Teilnehmer im Gespräch mit der Forscherin oder dem Forscher zustimmt, dass die rekonstruierte Theoriestruktur die Gedanken zu einem Thema angemessen wiedergibt. Die Gesprächssituation sollte möglichst frei von Zwängen und Asymmetrien sein.

Digitale Ethnografie

Ziel der Digitalen Ethnografie ist es, die Verflechtung von Online-Medien mit unserem Alltag zu erkunden.

Emergente Flexibilität des Designs

Emergente Flexibilität als Prinzip qualitativen Forschens bezieht sich darauf, dass Annahmen und Instrumente im Untersuchungsverlauf flexibel an den Gegenstand und die Situation im Feld angepasst und entsprechend modifiziert werden.

Erzählung (auch: Narration)

Eine Erzählung beinhaltet das Herstellen von Verbindungen zwischen verschiedenen Elementen, die mittels dieser Verbindungen in eine zeitliche oder symbolische Ordnung gebracht werden. Typisches Element einer Erzählung ist eine Komplikation. Erzählungen haben vielfältige Funktionen: eine generelle Funktion der Komplexitätsreduktion und Generierung von Bedeutung, psychische sowie kommunikativ-interaktive Funktionen.

Ethnografie (auch: Deskriptive Feldforschung)

ist ein qualitativer Forschungsansatz. Ziel ist es, eine Kultur aus der Sicht ihrer Mitglieder kennen zu lernen und zu beschreiben. Die Kultur soll durch die Forschungstätigkeit möglichst nicht verändert werden. Wichtigste Methode der Datenerhebung ist die teilnehmende Beobachtung.

Ethnografie der Sinne (auch: Sensory Ethnography)

In der Ethnografie der Sinne liegt der Schwerpunkt auf der Rolle von Sinneserfahrungen für das Verstehen des Erlebens anderer Menschen in Alltagskontexten.

Explanative Validierung

Der Begriff stammt aus dem Forschungsprogramm Subjektive Theorien und bezeichnet die zweite Phase im Rahmen dieser Forschungsmethode. Hier werden die Subjektiven Theorien hinsichtlich ihrer Geltung überprüft. Dies geschieht im Rahmen einer Korrelations-, Prognose- oder Modifikationsstudie.

Extremfall

Beim Extremfall ist das interessierende Phänomen besonders stark oder besonders schwach ausgeprägt.

Fallstudie

Die Fallstudie stellt einen holistischen Forschungsansatz dar, mit dem interessierende Fälle ganzheitlich, unter Einbeziehung ihres Kontextes und unter Verwendung verschiedener Datenquellen und Erhebungsverfahren umfassend untersucht werden. Sie kann als Einzel- oder als multiple, als holistische oder eingebettete, als beschreibende oder erklärende Fallstudie realisiert sein. Typischerweise werden dabei unterschiedliche Daten aus verschiedenen Quellen und unter Anwendung verschiedener Verfahren zusammengetragen und zu einem Gesamtbild integriert.

Forschungsprogramm Subjektive Theorien (FST)

ist ein qualitativer Forschunsansatz, der von Groeben und Scheele in den 1970er Jahren entwickelt wurde. Der Ansatz basiert auf der Annahme, dass Menschen im Alltag ebenso wie Wissenschaftler:innen versuchen, die Welt um sich herum zu beschreiben, zu erklären und zu verändern. Ziel ist die Erhebung, Rekonstruktion und Geltungsprüfung Subjektiver Theorien. Die Vorgehensweise gliedert sich in die Phasen der Kommunikativen und der Explanativen Validierung. Darunter ist nur die Phase der Kommunikativen Validierung der qualitativen Forschung zuzurechnen.

Gegenstandsbezogene Theoriebildung bzw. Grounded Theory Methodologie

Dieser qualitative Forschungsansatz wurde von Glaser und Strauss in den 1960er Jahren entwickelt. Ziel ist es, Theorien zu erstellen, die direkt in den Daten verankert sind. Die Fallauswahl erfolgt sukzessive im Untersuchungsverlauf nach dem Prinzip der theoretischen Stichprobenziehung. Zur Datenerhebung können verschiedene Methoden eingesetzt werden. Die Auswertung vollzieht sich in mehreren Schritten des Kodierens. In einem Prozess des permanenten Vergleichs werden selektive Kategorien untereinander zu einer Theorie verknüpft. Die Untersuchung ist abgeschlossen, wenn die Einbeziehung neuer Fälle keine weitere Modifikation der Theorie erfordert (Kriterium der theoretischen Sättigung).

Heterogene Stichprobe

Diese setzt sich aus unterschiedlichen Fällen zusammen (Gegensatz zur homogenen Stichprobe).

Holistische Vorgehensweise

Diese beinhaltet die Untersuchung des Gegenstandes in seiner Gesamtheit, ohne ihn in einzelne Aspekte (Variablen) zu zerlegen, wird auch als Fallorientierung bezeichnet (Gegensatz zur Variablenorientierung).

Homogene Stichprobe

Diese setzt sich aus gleichartigen Fällen zusammen (Gegensatz zur heterogenen Stichprobe).

Induktives Vorgehen

Beim induktiven Vorgehen gehen die Forschenden nicht von theoretischen Vorannahmen aus, die Schlussfolgerungen über den Gegenstand ergeben sich vielmehr erst aus den Daten, und die Theorie steht nicht am Anfang, sondern am Ende der Untersuchung.

Intensiver Fall

Beim intensiven Fall ist das interessierende Phänomen stark ausgeprägt, aber nicht so stark wie beim Extremfall.

Intentionalität

Innerhalb der Phänomenologie bezeichnet Intentionalität die grundsätzliche Gerichtetheit des Bewusstseins. Bewusstsein ist immer Bewusstsein von etwas.

Kommunikative Validierung

Der Begriff stammt aus dem Forschungsprogramm Subjektive Theorien und bezeichnet die erste Phase im Rahmen dieser Forschungsmethode. Hier werden die Subjektiven Theorien einer Person erhoben und rekonstruiert. In einem ersten Schritt erfolgt die Erhebung der Theorie-Inhalte in einem Leitfadeninterview. In einem zweiten Schritt wird die Theorie-Struktur unter Verwendung eines Struktur-Lege-Verfahrens im Dialog-Konsens zwischen den Teilnehmenden und den Forschenden rekonstruiert.

Krise der Repräsentation

Der Begriff der Krise der Repräsentation wird im Kontext der Ethnografie verwendet. Damit gewinnt eine konstruktivistische Auffassung von Ethnografie an Bedeutung und die Rolle des Schreibprozesses als Interpretation wird aufgewertet.

Kritischer Fall

Der kritische ist ein besonders einschlägiger Fall (in Abhängigkeit von der Fragestellung), der sich auch für die Prüfung von Theorien eignet.

Lebensweltanalytische Ethnografie

In der lebensweltanalytischen Ethnografie steht die Untersuchung von kleinen Lebenswelten und Formen des szenischen Miteinander im Mittelpunkt.

Memo

Der Begriff stammt aus der Gegenstandsbezogenen Theoriebildung. Ein Memo ist eine Notiz, in der theorierelevante Überlegungen festgehalten werden, häufig im Laufe des Auswertungsprozesses.

Menschenbild des reflexiven Subjekts

Im Menschenbild der qualitativen Forschung wird der Mensch als reflexives Subjekt gesehen und behandelt, analog den Forscher:innen selbst.

Naturalistische Vorgehensweise

Naturalistische Vorgehensweise wird in der qualitativen Forschung realisiert, indem der Gegenstand in seiner natürlichen Umgebung und in seinem natürlichen Erscheinungsbild untersucht wird, ohne ihn aktiv zu verändern.

Offenes Codieren

Offenes Codieren ist der erste Auswertungsschritt im Rahmen der Gegenstandsbezogenen Theoriebildung. Erste relevante Konzepte im Datenmaterial werden als Codes festgehalten. Es erfolgt datennah und Zeile für Zeile. Codes können unmittelbar in der Begrifflichkeit der Teilnehmenden formuliert sein (in vivo-Codes).

Offenheit

Methodologisch beinhaltet Offenheit als Prinzip qualitativer Forschung eine heuristisch-entdeckende Vorgehensweise. Methodisch bedeutet Offenheit, dass keine vorab festgelegten Beschreibungskategorien an den Gegenstand herangetragen werden. Die Befragten können sich in ihren eigenen Worten äußern (Gegensatz zu geschlossenen Verfahren, geschlossenen Fragen).

Participatory Action Research

Participatory Action Research ist ein partizipativ-emanzipatorischer Ansatz. Zentrale Merkmale sind: wechselseitige Partizipation, Empowerment sowie die doppelte Zielsetzung des Verstehens und der Veränderung sozialer Wirklichkeit.

Partizipativ-emanzipatorische Ansätze

Partizipativ-emanzipatorische Ansätze sind auf gesellschaftliche Veränderung unter Einbeziehung der Personen im Feld ausgerichtet.

Performative Sozialforschung

Ansätze performativer Sozialforschung beinhalten den Rückgriff auf künstlerische Ausdrucksformen. Wichtige Annahmen performativer Sozialforschung sind: (1) Öffnung gegenüber nicht-propositionalen Ausdrucksformen, (2) Relevanz von Prozessen der Bedeutungskonstruktion seitens der Rezipient:innen von Forschung, (3) Ausrichtung auf gesellschaftliche Veränderung. Es wird weiter zwischen Arts-Informed und Arts-Based research unterschieden.

Phänomen

Ein Phänomen entsteht durch die Art und Weise, wie wir mit der Lebenswelt in Beziehung treten. Wir bringen Phänomene hervor, indem wir in der Lebenswelt sind, d. h. in der Welt, in der wir mit den Dingen in Beziehung treten.

Phänomenologie

Die Phänomenologie ist sowohl eine Philosophie als auch ein Forschungsansatz. Zentraler Gegenstand der Phänomenologie sind Alltags-Phänomene.

Qualitative Stichprobenpläne

Qualitative Stichprobenpläne sind Top down-Verfahren der bewussten Fallauswahl, bei denen die Ausprägungen relevanter Merkmale miteinander kombiniert und jede Zelle mit einer kleinen Anzahl von Fällen besetzt wird (meist n=1).

Respondent sampling

Das respondent sampling ist darüber definiert, dass die Auswahl weiterer Fälle durch die Untersuchungsteilnehmer:innen gesteuert wird, nicht durch die Forscher:innen. Beispiele sind das Schneeballverfahren und das chain sampling.

Schneeballverfahren

Beim Schneeballverfahren verweisen Mitglieder der Grundgesamtheit die Forschenden auf weitere Mitglieder. Das Verfahren ist besonders gut zur Fallauswahl bei schwer erreichbaren Populationen geeignet.

Struktur-Lege-Verfahren

dienen der Rekonstruktion subjektiver Theoriestrukturen. Sie beinhalten Relationen, mit denen sich Theorieinhalte untereinander verbinden lassen, und Regeln zur grafischen Darstellung der Theoriestruktur. Es existieren verschiedene Struktur-Lege-Verfahren für unterschiedliche Wissensbereiche: Verfahren zur Rekonstruktion von Definitions- und empirischem Wissen (z. B. Heidelberger Struktur Lege-Technik, SLT), von Handlungswissen (z. B. Weingartener Appraisal Legetechnik, WAL) und von Bewertungen (Ziel-Mittel-Argumentation, ZMA).

Subjektive Theorien

stammen als Begriff aus dem Forschungsprogramm Subjektive Theorien. Sie bestehen aus Konzepten und Relationen zwischen den Konzepten und weisen zumindest eine implizite Argumentationsstruktur auf. Sie sind im Dialog-Konsens aktualisier- und rekonstruierbar (Phase der Kommunikativen Validierung) und erfüllen die Funktionen der Erklärung, Prognose und Technologie. Ob sie auch als objektive Erkenntnis akzeptierbar sind, ist jeweils gesondert zu prüfen (Phase der explanativen Validierung).

Teilnehmende Beobachtung

ist das wichtigste Verfahren der Datenerhebung im Rahmen der deskriptiven Feldforschung. Dabei wird das Forschungsteam selbst Teil des Feldes, nimmt also im Feld eine aktive Rolle innerhalb der untersuchten Kultur ein. Diese Methode dient dazu, das Feld aus der Innenperspektive kennen zu lernen.

Theoretische Sättigung

Theoretische Sättigung ist das Abbruchkriterium im Rahmen der Gegenstandsbezogenen Theoriebildung. Die Untersuchung wird beendet, wenn eine Einbeziehung zusätzlicher Fälle keine weitere Modifikation der Theorie erfordert. Die Theorie gilt dann als gesättigt.

Theoretische Stichprobenziehung

Es handelt sich um ein Bottom up-Verfahren der bewussten Fallauswahl, das in der Grounded Theorie Methodologie entwickelt wurde. Ziel ist es, einen Gegenstandsbereich in seiner Variabilität abzubilden. Die Fallauswahl erfolgt nach den Prinzipien der maximalen Ähnlichkeit und der maximalen Differenz, bis eine gesättigte Theorie erreicht ist.

Top down-Verfahren der bewussten Stichprobenziehung

Dies sind Verfahren der bewussten Fallauswahl, bei denen die Kriterien für die Zusammensetzung der Stichprobe vor Untersuchungsbeginn festgelegt werden, z. B. qualitative Stichprobenpläne, Auswahl bestimmter Arten von Fällen.

Türhüter (auch: Gatekeeper)

Der Begriff stammt aus der Ethnografie bzw. deskriptiven Feldforschung und bezeichnet eine Person aus einer anderen Kultur, die bereit ist, die Forschenden in diese Kultur einzuführen.

Typischer Fall

Beim typischen Fall weist das interessierende Phänomen eine Ausprägung auf, wie sie auch für die anderen Fälle in der Grundgesamtheit charakteristisch ist.

Ad hoc-Fragen

sind Interviewfragen, die nicht vorab geplant sind, sondern spontan im Interviewverlauf generiert werden. Sie dienen der Vertiefung unerwarteter Aspekte.

aktive Datengenerierung

bezeichnet die Erzeugung von Daten im Forschungsprozess.

Beobachtung

Beobachtungsverfahren dienen dazu, Phänomene aus der Außensicht zu erfassen. Sie eignen sich vor allem zur Untersuchung von Verhaltensweisen, sozialen Interaktionen oder Alltagsroutinen.

Biografisches Interview

Das biografische Interview ist eine Unterform des narrativen Interviews speziell zur Erhebung von Lebensgeschichten.

Datenerhebung

bezeichnet den Prozess, mit dem Forscher:innen zu ihren Daten gelangen. Datenerhebung umfasst sowohl die Auswahl aus bereits vorhandenem Material als auch die Erzeugung von Daten im Forschungsprozess (Datengenerierung).

Digitale Daten

Digitale Daten sind durch die folgenden Merkmale gekjennzeichnet: Unvollständigkeit, Instabilität, Multi-Modalität und eine nicht-lineare Hyperlinkstruktur. Zu den wichtigsten Formen digitaler Daten zählen Webseiten, Blogs und Daten aus sozialen Medien.

Dokumente

Dokumente sind in der Regel natürliche, nicht aktiv generierte Daten, sie liegen ohne Zutun der Forscher:innen vor. In einer engen Definition handelt es sich bei Dokumenten um natürliche Daten, die in Schriftform existieren, also um eine Form verbaler Daten. Nach der weiten Definition umfassen Dokumente verschiedenste Formen natürlicher Daten, einschließlich visueller Daten wie Bilder oder Filme oder auch Gebrauchsgegenstände. Es wird weiter zwischen persönlichen und offiziellen Dokumenten unterschieden.

Eigenproduktion visueller Daten

Bei der Eigenproduktion visueller Daten werden die Teilnehmer:innen aufgefordert, Zeichnungen, Fotografien, Videos usw. zu erstellen.

Episodisches Interview

Das episodische Interview kombiniert Elemente des Leitfaden- und des narrativen Interviews.

Ethnografisches Interview

Diese Interviewform findet, wie der Name schon sagt, im Rahmen ethnografischer Untersuchungen Anwendung. Es handelt sich bei dieser Interviewform um spontane Gespräche im Feld, wobei Forscher:innen und interviewte Personen tendenziell gleichberechtigte Partner:innen sind.

Experteninterview

Das Experteninterview ist eine Form des Leitfadeninterviews mit einer Person, die als Experte oder Expertin in dem fraglichen Gebiet gelten kann. Daraus ergibt sich ein anderes Machtverhältnis als im regulären Leitfadeninterview.

Fokussiertes Interview

ist ein Leitfadeninterview, mit dem die Reaktionen der Befragten auf ein Objekt ermittelt werden (z. B. ein Film, ein Objektdesign o. ä.).

Geschlossenes Setting (auch: privates oder persönliches Setting)

Persönliche bzw. geschlossene Settings umfassen die Wohnung oder andere private Bereiche von Untersuchungsteilnehmer:innen. Ein Zugang ist hier nur mit Einverständnis der betreffenden Person möglich.

Go-alongs

Go-alongs sind eine Variante komobiler Verfahren. Dabei begleitet ein:e Forscher:in ein:e Teilnehmer:in bei alltäglichen Bewegungen im (öffentlichen) Raum. Daran schließt sich ein Interview an.

Gruppendiskussion (auch Fokusgruppe)

Bei der Gruppendiskussion diskutieren zwischen 5 und 15 Personen zu einem Thema, das von den Forscher:innen vorgegeben ist und durch entsprechende Leitfaden-Fragen fokussiert wird. Badei entstehen die Daten aus der Interaktion zwischen den Teilnehmer:innen heraus, die ihre Erfahrungen miteinander teilen und untereinander vergleichen. Die Diskussion wird zwar von einem Forscher oder einer Forscherin moderiert. Diese äußern sich jedoch selbst nicht inhaltlich. Das Verfahren eignet sich zur Erhebung kollektiver Meinungen, zur Rekonstruktion von Gruppenprozessen und zur Exploration sensibler Themen.

Interview

Das Interview ist ein Gespräch, in dem die Rollen per Konvention meist asymmetrisch verteilt sind, wobei die Forschenden die Fragen stellen und die an der Untersuchung Teilnehmenden antworten. Das Interview dient einem Zweck, der sich aus der Forschungsfrage ergibt. Es eignet sich zur Exploration von subjektiver Bedeutung und Erleben.

Ko-(mobile) Verfahren

(Ko-)mobile Verfahren dienen zur Erfassung der Bewegung von Menschen und Gegenständen im Raum.

Lautes Denken

dient der Erfassung kognitiver Prozesse. Die Befragten werden aufgefordert, alles laut zu verbalisieren, was ihnen bei der Bearbeitung einer vorgegebenen Aufgabe durch den Kopf geht. Die Verbalisierung kann während der Aufgabenbearbeitung erfolgen (simultan) oder unmittelbar im Anschluss (retrospektiv).

Leitfadenfragen

sind vorab geplant. Sie machen den Kern des Interviews aus und werden auf der Grundlage von Vorkenntnissen stichwortartig formuliert.

Leitfadeninterview

ist ein halbstandardisiertes Interview. Das bedeutet, dass die Reihenfolge der Fragen dem Gesprächsverlauf angepasst wird und die Fragen in Anlehnung an die Begrifflichkeit der Teilnehmenden formuliert werden. Der Leitfaden dient bei der Gesprächsführung also lediglich als Anhaltspunkt.

Narratives Interview

ist ein nonstandardisiertes Interview, das dazu dient, Erzählungen der gesamten Lebensgeschichte oder auch einzelner relevanter Episoden aus dem Leben der befragten Personen zu rekonstruieren. Es gliedert sich in die Phasen: Erzählanstoß, Haupterzählung, Nachfrage- und Bilanzierungsphase.

natürliche Daten

sind Daten, die unabhängig vom Forschungszusammenhang existieren (z. B. YouTube-Videos, Blogbeiträge oder Anzeigenin Zeitschriften). Sie sind non-reaktiv, passen aber nicht immer genau zur Fragestellung.

Nonreaktive Beobachtungsverfahren

sind dadurch gekennzeichnet, dass zwischen den Beobachtenden und den beobachteten Personen kein Kontakt besteht. Gegenstand der Beobachtung sind die Spuren, die Menschen mit ihren Handlungen hinterlassen.

Nonstandardisierte Beobachtung

Hier wird nicht vorab festgelegt, was genau beobachtet werden soll, was von Bedeutung ist, ergibt sich im Verlauf der Untersuchung. Der Gegenstand der Beobachtung wird dabei möglichst in seiner Ganzheit und in seinen verschiedenen Facetten erfasst.

Nonstandardisiertes Interview

ist diejenige Form des Interviews, die sowohl den Befragenden als auch den befragten Personen den größten Spielraum lässt. Es werden vorab lediglich Themenkomplexe festgelegt, aber keine Fragen vorformuliert.

Öffentliches Setting (auch: offenes Setting)

Öffentliche bzw. offene Settings sind Bereiche, zu denen prinzipiell alle Menschen Zugang haben, wie beispielsweise der Marktplatz einer Stadt, ein Einkaufszentrum oder ein Spielplatz. Für die Beobachtung in öffentlichen Settings ist keine besondere Genehmigung erforderlich. Allerdings müssen Personen in öffentlichen Settings ihre Zustimmung geben, wenn aus den Daten oder Ergebnissen ihre Identität erschlossen werden kann.

Photo-Elicitation

Die Methode der Photo-Elicitation ist eine Form der Eigenproduktion visueller Daten. Die Teilnehmer:innen werden zunächst aufgefordert, Fotos zu einem bestimmten Thema zu erstellen, daran schließt sich ein Interview an.

Photovoice

Photovoice ist eine Variante der Photo-Elicitation mit kritisch-emanzipatorischem Anspruch. Sie kommt vor allem in partizipativen Designs zur Anwendung.

Problemzentriertes Interview

Das problemzentrierte Interview beinhaltet sowohl Elemente von teilstandardisierten als von nonstandardisierten Interviewformen. Ausgehend von einer konkreten Problemstellung werden die verschiedenen Aspekte eines Problems in einer stärker dialogischen und gleichberechtigten Form entwickelt, als dies beim Leitfadeninterview der Fall ist, aber auch hier wird eine Liste von Stichpunkten als Anhaltspunkt verwendet.

Schriftliche offene Befragung

Bei der schriftlichen offenen Befragung werden die Teilnehmer:innen aufgefordert, Fragen in ihren eigenen Worten schriftlich zu beantworten. Das Verfahren ist vor allem dann zur Datenerhebung geeignet, wenn es um einen sensiblen Untersuchungsgegenstand geht, oder wenn durch das Aufschreiben kognitive Prozesse in Gang gesetzt werden, die Befragten können ihre Antworten dann noch sukzessive ergänzen.

Selbstbeobachtung

Bei der Selbstbeobachtung sind Beobachter:in und beobachtete Person identisch.

Spiel

Das Spiel stellt eine spezielle Form der Produktion von Beobachtungsdaten dar. In der qualitativen Forschung finden u. a. das szenische Spiel und das Rollenspiel Anwendung.

Standardisiertes Interview

in dieser Art von Interview sind Wortlaut und Reihenfolge der Interviewfragen vorab festgelegt und für alle Teilnehmenden gleich. Wenn dabei offene Fragen gestellt werden, die in eigenen Worten beantwortet werden sollen, handelt es sich um ein qualitatives standardisiertes Interview.

Teilnehmende Beobachtung

ist eine Form der nonstandardisierten Beobachtung. Dabei übernehmen die Forschenden aktiv eine Rolle im Feld, werden also selbst zu einem Mitglied des Feldes, das den Forschungsgegenstand darstellt.

Teilöffentliches Setting

Zu teilöffentlichen Settings haben nur ausgewählte Personengruppen Zugang. Es ist das Einverständnis sowohl der Leitung als auch aller Personen im Feld einzuholen.

Tiefeninterview (auch Intensivinterview)

ist ein nonstandardisiertes Interview mit dem Ziel, unbewusste Prozesse und Motive der befragten Personen aufzuklären.

verbale Daten

sind Daten, die schon in Textform vorliegen (beispielsweise Beobachtungsprotokolle oder Dokumente), sowie Daten, die auditiv (als Tonaufnahme) oder sogar im Videoformat erfasst und anschließend durch Transkription in Textform überführt werden.

Verdeckte Beobachtung

Hier wissen die beobachteten Personen nicht, dass sie Gegenstand einer Beobachtung sind. Die verdeckte Beobachtung wirft erhebliche ethische Probleme auf.

Visuelle Daten

Visuelle Daten durch die folgenden Merkmale gekennzeichnet: Gleichzeitigkeit der Elemente, assoziative Logik, Bedeutungsoffenheit und Mehrdeutigkeit. Sie umfassen sowohl statische als auch bewegte Bilder sowie Kunstgegenstände.

Abbildungen

sind systematisierende Darstellungen komplexer Zusammenhänge.

Denotation

ist die deskriptive Bedeutung eines Zeichens.

Diskurs

Ein Diskurs besteht aus einem Set aufeinander bezogener Texte, einschließlich der Verfahren ihrer Produktion, Verbreitung und Rezeption.

Diskursanalyse

Mit der Diskursanalyse wird untersucht, wie Realität sprachlich erzeugt wird. Es wird zwischen deskriptiven und kritischen (normativen) Verfahren der Diskursanalyse unterschieden.

Dokumentarische Methode

Die dokumentarische Methode ist ein rekonstruktives Verfahren mit dem Ziel, das implizite, kollektive Wissen zu rekonstruieren, das gesellschaftlichen Handlungen zugrunde liegt und diese zugleich orientiert.

Ikonologie

ist eine kunstgeschichtliche Methode zur Analyse von visuellem Material. Im Mittelpunkt stehen die Analyse von Symbolen und die motivgeschichtliche Einbettung der Darstellung. Die Analyse erfolgt auf drei aufeinander aufbauenden Ebenen: der darstellenden, der ikonografischen und der ikonologischen Ebene.

Inhaltsanalyse

ist ein systematisches, datenreduzierendes Verfahren zur vergleichenden Analyse von bedeutungshaltigem Material. Die Analyse erfolgt, indem Materialteile (Segmente) den Kategorien eines inhaltsanalytischen Kategoriensystems zugeordnet werden. Diese Zuordnung wird meist von zwei unabhängigen Kodierer:innen vorgenommen.

Inhaltsanalytisches Kategoriensystem

Ein inhaltsanalytisches Kategoriensystem besteht aus mindestens einer Oberkategorie sowie Unterkategorien zu dieser Oberkategorie, ist also hierarchisch strukturiert (weitere Unter-Unterkategorien sind ebenfalls möglich). Es soll reliabel, valide und intersubjektiv anwendbar sein.

Kodieren

ist eine sehr flexible Methode zur Analyse des Äußerungsinhalts. Die Bedeutung relevanter Textstellen wird erfasst, indem dem Text ein zusammenfassendes Etikett quasi angeheftet wird. Das Kodieren kann eher konkret und nahe am Textmaterial oder eher abstrakt erfolgen. Meist werden die Codes induktiv aus dem Datenmaterial heraus entwickelt.

Kodierstrategien der ersten Phase

dienen dazu, das Material zu erschließen, Konzepte und Bedeutungen herauszuarbeiten (first cycle coding strategies). Dazu zählen u. a. offenes Kodieren, das Kodieren von Attributen, Werten, Emotionen oder narrativen Elementen.

Kodierstrategien der zweiten Phase

dienen dazu, Zusammenhänge zwischen Codes zu identifizieren und zu explorieren (second cycle coding strategies). Beispiele sind die Suche nach Mustern, das axiale oder das selektive Kodieren aus der Grounded Theory Methodology.

Konnotation

bezieht sich auf kulturell zugeschriebene, affektive Bedeutungen von Zeichen.

Matrizen

Matrizen sind Tabellen, die Text enthalten. Sie eignen sich zur zusammenfassenden Darstellung verbaler Daten.

Nonverbale Elemente

Nonverbale Elemente sind andere als stimmliche Aspekte, die ebenfalls mit einerÄußerung einhergehen und denen partiell auch ein eigener Äußerungscharakter zukommt, z. B. Gähnen, Lachen, Schluchzen, Nicken usw.

Objektive Hermeneutik

ist eine sozialwissenschaftliche Variante der Hermeneutik. Zielsetzung ist es, unter Heranziehung des Wissens über soziale Regeln die Sinnstruktur herauszuarbeiten, die einer sprachlichen Äußerung zugrunde liegt. Zu den verschiedenen Formen zählen die Feinanalyse, die Sequenzanalyse und die Interpretation der objektiven Sozialdaten.

Paraverbale Elemente

sind solche stimmlichen Aspekte, die eine verbale Äußerung begleiten, aber selbst keine eigenständigen verbalen Äußerungen darstellen. Darunter fallen z. B. der Stimmverlauf, die Lautstärke, Versprecher, Pausen und anderes mehr.

Semiotik

ist die Lehre von den Zeichen. Sie eignet sich zur Analyse von verbalen und visuellen Daten.

Transkription

von Datenmaterial bedeutet, es von einer auditiven in eine schriftliche Form zu überführen. Die Transkription kann vollständig oder selektiv erfolgen, sie kann sich auf die Inhalte beschränken oder auch para- und nonverbale Elemente enthalten.

Transkriptionssysteme

regeln die Wiedergabe paraverbaler Elemente durch Symbole. Sie legen außerdem fest, wie die Beiträge mehrerer Sprecher:innen auf der Seite angeordnet sind.

Typenbildung

Ziel der Typenbildung ist es, einander ähnliche Fälle zu identifizieren und so zu Gruppen bzw. Typen zusammenzufassen, dass die Fälle innerhalb eines Typus einander möglichst ähnlich sind und die Typen untereinander sich dagegen möglichst stark unterscheiden.

Typologie

Eine Typologie besteht aus mehreren Typen und ihrer Relation untereinander. Eine Typologie ist eine bestimmte Art und Weise, einen Gegenstandsbereich im Hinblick auf Ähnlichkeit und Unterschiede zu strukturieren.

Typus

Ein Typus besteht aus mehreren Fällen, die sich aufgrund von Ähnlichkeit im Hinblick auf verschiedene Merkmale oder Eigenschaften zusammenfassen lassen.

Zeichen

Ein Zeichen ist etwas, das für etwas anderes stehen bzw. dieses andere anzeigen oder bedeuten kann.

Angemessenheit der Methodenwahl

Die Angemessenheit der Methodenwahl wird speziell in der qualitativen Forschung als Gütekriterium angesetzt, ist aber prinzipiell auch in der quantitativen Forschung von Bedeutung. Im Fokus steht dabei die Frage, ob die gewählte Methode dem jeweiligen Untersuchungsphänomen entspricht. Hierbei ist das gesamte Zusammenspiel zwischen allen Aspekten des Forschungsprozesses von Interesse, so dass die Verbindung zwischen Forschungsfrage, Forschungsdesign, Techniken der Datenerhebung und – auswertung, sowie die letztendliche Darstellung im Forschungsbericht ins Verhältnis gesetzt werden.

Audit-Trails

Audit-Trails werden in der qualitativen Forschung eingesetzt, um zu überprüfen, ob die intersubjektive Nachvollziehbarkeit gewährleistet ist und ob entsprechend alle Forschungsschritte vom Beginn eines Forschungsprojekts bis zur Berichterstattung der Ergebnisse transparent nachvollziehbar sind. Dabei überprüfen externe Wissenschaftler:innen, die nicht am Forschungsprozess beteiligt waren, entlang der Aufzeichnungen der Forschenden (Prüfpfad) den Forschungsprozess auf logische Nachvollziehbarkeit der Entscheidungen und Interpretationen.

Innere Vergleichbarkeit

ist ein Konzept und stellt eine qualitative Annäherung an das Gütekriterium der Objektivität bei der Datenerhebung dar. Es beruht auf der Annahme, dass bei der Datenerhebung nicht die äußere, sondern die innere Entsprechung der Situationen ausschlaggebend ist. Da verschiedene Menschen dieselbe Situation je anders erleben, lässt sich Objektivität nicht dadurch herstellen, dass Forschende sich verschiedenen Personen gegenüber in identischer Weise verhalten. Erforderlich ist vielmehr ein personenspezifisch je unterschiedliches Verhalten, um aufseiten der Befragten dieselbe innere Situation zu erzeugen. Dieser Auffassung zufolge emergiert Objektivität gerade aus der Subjektivität der Interaktionsrelationen.

Interrater-Übereinstimmung

Die Interrater-Übereinstimmung stellt eine Form der Annäherung an das quantitative Gütekriterium der Objektivität im Sinne der Intersubjektivität dar. Das Kriterium findet beispielsweise in der qualitativen Inhaltsanalyse Anwendung.

Intersubjektive Nachvollziehbarkeit

Die intersubjektive Nachvollziehbarkeit wird in der qualitativen Forschung als Gütekriterium angesetzt. Durch eine detaillierte Dokumentation von Entscheidungen und Verfahrensschritten wird es für Dritte möglich, den Forschungsprozess nachzuvollziehen. Die Überprüfung des Kriteriums erfolgt durch sog. Audit-Trails.

Kommunikative Validierung

Die Kommunikative Validierung stellt ein Gütekriterium in der qualitativen Forschung dar. Sie sichert die Validität, indem Forschende ihre Rekonstruktion von Bedeutung mit den Sichtweisen der Befragten abgleichen.

Reflexivität

Reflexivität stellt ein Gütekriterium qualitativer Forschung dar. Mit diesem Kriterium verbindet sich das Ziel, die Doppelrolle von Forschenden, als externe Beobachtende und gleichzeitig aktiv Beteiligte in Kommunikation und Untersuchungsgeschehen, kontinuierlich zu reflektieren.

Vertrauenswürdigkeit

Vertrauenswürdigkeit stellt ein allgemeines Gütekriterium qualitativer Forschung dar. Darunter versteht man die Glaubhaftigkeit des Forschungsberichts. Vertrauenswürdigkeit entspricht weitgehend dem Konzept der Validität in der qualitativen Forschung.

Design-Typologie

Design-Typologien wurden entwickelt, um die verschiedenen Arten von Mixed Methods-Designs nach ausgewählten Kriterien zu systematisieren. Häufig angewandte Kriterien sind z.B. die Reihenfolge, die Gewichtung, das Untersuchungsziel oder die wechselseitige (Un-)Abhängigkeit der qualitativen und der quantitativen Untersuchungsphasen.

Hybride Verfahren

sind Methoden oder Ansätze, die sowohl qualitative als auch quantitative Elemente enthalten. Sie lassen sich nicht klar der qualitativen oder der quantitativen Forschung zuordnen, sondern sind in sich gemischt. Beispiele sind u.a.: soziale Netzwerkanalyse, die Q-Methodologie oder die Qualitative Comparative Analysis.

Inkommensurabilitätsthese

Darunter versteht man die Position, dass qualitative und quantitative Forschungsansätze aufgrund der wissenschaftstheoretischen Annahmen, mit denen sie jeweils verbunden sind, grundsätzlich nicht miteinander kombiniert werden können – dass sie also wechselseitig inkompatibel bzw. inkommensurabel seien.

Joint Displays

sind tabellarische Zusammenstellungen, in denen statistische Werte gemeinsam mit qualitativen Informationen (z.B. Codes oder Kategorien und ggf. auch Zitaten) präsentiert werden. Sie werden in der Mixed Methods-Forschung genutzt, um Zusammenhänge zwischen quantitativen und qualitativen Datenund Ergebnissen sichtbar zu machen.

Meta-Inferenzen

Darunter versteht man Schlussfolgerungen in Mixed Methods-Studien, die sich aus der Integration qualitativer und quantitativer Teilstudien ergeben.

Mixed Methods-Studien

Mixed Methods-Studien sind Untersuchungen, in denen Forscher:innen im Rahmen eines Forschungsprojekts Elemente quantitativer und qualitativer Forschung (z. B. Forschungsansätze, Daten, Datenerhebungs- oder –auswertungsmethoden) miteinander kombinieren und die resultierenden Daten und Ergebnisse untereinander in Beziehung setzen. Um von Mixed Methods zu sprechen, müssen also zwei Definitionsmerkmale gegeben sein: di Kombination und die Integration von Elementen quantitativer und qualitativer Forschung.

Multi-Methods-Forschung

Multi-Methods-Forschung (auch: methodenplurale Forschung) umfasst Studien, in denen qualitative und quantitative Elemente kombiniert, aber nicht integriert werden. Ebenso fallen darunter Studien, in denen verschiedene Methoden aus einem der Forschungsansätze zur Anwendung kommen (also z.B. eine qualitative Studie, in der narrative Interviews und teilnehmende Beobachtung kombiniert werden).

Paralleles Mixed Methods-Design

Das parallele Design ist dadurch gekennzeichnet, dass in etwa zeitgleich sowohl qualitative als auch quantitative Daten zu verschiedenen Aspekten desselben Forschungsgegenstandes erhoben und ausgewertet werden. Dabei kommt den qualitativen und den quantitativen Verfahren typischerweise eine vergleichbare Bedeutung zu. Das parallele Design eignet sich immer dann, wenn ein Forschungsgegenstand aus unterschiedlichen Perspektiven betrachtet werden soll.

Qualifizierung

bezeichnet die Umwandlung quantitativer Daten in ein qualitatives Format (z.B. durch Profilbildung).

Quantifizierung

bezeichnet die Umwandlung qualitativer Daten in ein quantitatives Format (z.B. Besetzungshäufigkeiten von Kategorien).

Quasi Mixed Methods-Studien

Darunter versteht man Studien, die zwar der Definition von Mixed Methods prinzipiell genügen, bei denen jedoch entweder die Elemente der quantitativen oder der qualitativen Forschungsausrichtung so stark dominieren, dass die Daten, die aus der je anderen Tradition stammen, zu den Ergebnissen und der Interpretation kaum einen Beitrag leisten.

Sequenzielles Mixed Methods-Design

Das sequenzielle Mixed Methods-Design ist dadurch gekennzeichnet, dass eine quantitative und eine qualitative (oder umgekehrt) Untersuchungsphase zumindest teilweise nacheinander realisiert werden, wobei die Ergebnisse der ersten Phase für die Umsetzung der zweiten Phase genutzt werden. Dabei kommt einer der Phasen meist ein höheres Gewicht zu. Es ergeben sich unterschiedliche Formen des sequenziellen Designs, je nachdem, ob die qualitative oder die quantitative Phase am Anfang steht. Diese verschiedenen Formen werden als Verallgemeinerungs- und Vertiefungsdesign bezeichnet.

Transferdesign

Das Transferdesign ist ein Mixed Methods-Design, bei dem nur eine Datenart erhoben und im Zuge der Auswertung in die je andere Datenart überführt wird, d.h. quantifiziert oder qualifiziert. Wichtig ist, dass der eine Datentyp sowohl in der qualitativen als auch in der quantitativen Form ausgewertet und dass die Ergebnisse beider Auswertungsprozesse integriert werden. Ob es sich beim Transferdesign um ein echtes Mixed Methods-Design handelt, ist in der Literatur umstritten.

Verallgemeinerungsdesign

Das Verallgemeinerungsdesign ist ein sequenzielles Mixed Methods-Design, bei dem zuerst eine qualitative Studie durchgeführt wird. Daran schließt sich, aufbauend auf den Ergebnissen der ersten Studie, eine zweite quantitative Studie an.

Vertiefungsdesign

Das Vertiefungsdesign ist ein sequenzielles Mixed Methods-Design. Es wird zunächst eine quantitative Studie durchgeführt, auf den Ergebnisse der ersten Studie aufbauend schließt sich in einer zweiten Phase eine qualitative Studie an.

Triangulation

bezeichnet die Erfassung eines Gegenstands unter verschiedenen Perspektiven. In der Methodenliteratur und auch im vorliegenden Kontext bezeichnet Triangulation die Erhebung von Daten zu einem Gegenstand unter Anwendung von (mindestens) zwei verschiedenen Methoden. Diese Form der Methodentriangulation findet in der qualitativen Foschung auch als Gütekriterium Anwendung.

Einfache Beobachtung

Bei der einfachen Beobachtung nehmen die Forscher:innen die Rolle von Außenstehenden ein. Sie halten sich am Rande des Feldes auf und sind nicht an den Handlungen im Feld beteiligt.

Kodiereinheit

Eine Kodiereinheit bei der qualitativen Inhaltsanalyse ist der Teil des Materials, der jeweils einer (Unter-)Kategorie zugeordnet wird.

Kriterienorientierte Fallauswahl

Bei der kriterienorientierten Fallauswahl werden möglichst viele Kriterienkombinationen in die Stichprobe einbezogen.

Passiv-teilnehmende Beobachtung

Bei der passiv-teilnehmenden Beobachtung nehmen Forscher:innen eine marginale Rolle im Feld ein, die es ihnen erlaubt, sich nützlich zu machen, ohne aber vollständig im Feld aufzugehen.

Probekodierung

Die Probekodierung dient bei der qualitativen Inhaltsanalyse dazu, eine erste Fassung des Kategoriensystems zu erproben, Schwachstellen zu identifizieren und es entsprechend zu überarbeiten und zu verbessern.

Transformatives Paradigma

Das transformative Paradigma, entwickelt von Donna Mertens, stellt eine Weiterentwicklung des emanzipatorisch-partizipativen Forschungsstils dar. Es zeichnet sich durch eine verstärkte Berücksichtigung von Diversität und Intersektionalität sowie durch die wertorientierte Ausrichtung von Forschung an den Prinzipien der sozialen Gerechtigkeit, des Respekts für unterschiedliche Kulturen und der Reziprozität der Beziehungen aller Beteiligten aus.

Zurück zur Übersicht