M1 F6 Flashcards
Was besagt das Fechnersche Gesetz?
Die psychophysische Funktion, auch als „Fechnersches Gesetz“ bekannt, besagt, dass die Stärke einer subjektiven Empfindung gegenüber einem physikalischen Reiz (z.B. Ton, Lichtstärke) nicht linear mit der Reizstärke anwächst, sondern im Sinne einer logarithmischen Funktion.
Beschreibe Kontexte, in denen es zu neuen Einfällen kommen kann!
Der entspannte Kontext – im Englischen mit den Worten „bed, bathroom and bicycle“ umschrieben – ist eine von mehreren Bedingungen, die nach den anekdotischen Beobachtungen zu neuen Ideen führen können. Zudem scheint es notwendig zu sein, dass man sich vorher intensiv mit einer Fragestellung oder einem Forschungsgebiet auseinandergesetzt hat und in dem entspannten Kontext eben gerade nicht über die Frage nachdenkt. Manchmal scheinen auch bestimmte Umweltreize zu einem plötzlichen Einfall beitragen zu können. Der plötzliche Einfall kommt also nicht aus dem Nichts. Zündende Ideen setzen voraus, dass man sich lange mit einer Problemstellung befasst hat und das wissenschaftliche Gebiet, aus dem das Problem stammt, gut kennt.
Erkläre Induktion, Deduktion und Abduktion!
Fall: Diese Bohnen sind aus diesem Sack.
Beobachtung: Die Bohnen sind weiß.
Regel: Alle Bohnen im Sack sind weiß.
Bei der Induktion geht man von einem spezifischen Fall und einer spezifischen Beobachtung aus und schließt auf eine allgemeine Regel.
Bei der Deduktion ist der Ausgangspunkt eine allgemeine Regel und ein spezifischer Fall und es wird auf eine Beobachtung geschlossen.
Bei der Abduktion liegen eine allgemeine Regel und eine spezifische Beobachtung vor und der Schluss erfolgt auf einen spezifischen Fall.
Wie hängen Abduktion und Heureka zusammen?
Entscheidend ist aber, dass man durch den Abduktionsschluss zu einer neuen Erkenntnis kommt, die im weiteren Forschungsprozess induktiv und deduktiv geprüft werden kann (vgl. Walach, 2005, S. 33). Das Bohnenbeispiel ist natürlich sehr simpel und psychologisch nur bedingt interessant. Wenn wir uns aber vorstellen, dass wir viele bisher unverbundene Einzel-Beobachtungen und Fakten kennen, dann besteht der abduktive Schluss eben darin, dass wir „plötzlich“ eine Verbindung zwischen ihnen herstellen oder eine Struktur entdecken, die emotional zudem mit einem Aha- oder Heureka-Erlebnis verbunden ist.
Insgesamt 49 Heuristiken zur Generierung von neuen Hypothesen hat McGuire (1997) zusammengestellt. Nenne die fünf Hauptkategorien!
Die fünf Kategorien klassifizieren zunehmend komplexere Heuristiken und lauten:
- Heuristiken, die Sensitivität gegenüber ungewöhnlichen oder provozierenden Phänomenen erfordern (Heuristics simply calling for sensitivity to provocative natural occurrences)
- Einfache konzeptuelle Analysen (Heuristics involving simple conceptual analysis)
- Komplexe konzeptuelle Analysen (Heuristics calling for complex conceptual analysis)
- Reinterpretationen bestehender Forschungsergebnisse (Heuristics demanding reinterpretations of past research)
- Datensammlung und Reanalyse bestehender Datensätze (Heuristics necessitating collecting new or reanalyzing old data)
Erläutere 1. Heuristiken, die Sensitivität gegenüber ungewöhnlichen oder provozierenden Phänomenen erfordern (Heuristics simply calling for sensitivity to provocative natural occurrences)
Ad 1: Die Heuristiken innerhalb der ersten Kategorie erfordern die Identifikation und Hinwendung zu in irgendeiner Weise ungewöhnlichen oder provozierenden Phänomenen, die mit bisherigen Theorien gar nicht oder nur schwer vereinbar sind. Zum Beispiel leiden Kinder, die unter traumatischen Bedingungen aufgewachsen sind, als Erwachsene oft unter psychischen Problemen. Das ist aber keineswegs immer so! Einige wenige, in der Literatur als „unverwundbare“ Kinder (vgl. einführend Pines, 1979) bezeichnete Individuen entwickeln sich trotz schwieriger Bedingungen in ihrer Kindheit zu stabilen und sozial wie beruflich integrierten Erwachsenen. Die genaue Untersuchung von solchen Personen kann zu neuen Hypothesen über den Einfluss von Entwicklungsbedingungen führen. McGuire nennt innerhalb der ersten Kategorie auch solche Heuristiken, die im sogenannten Grounded-Theory-Ansatz von Glaser und Strauss (1967) verwendet werden. In diesem Paradigma der qualitativen Sozialforschung werden Einzelfälle intensiv beobachtet und/oder interviewt. Ziel ist es, seine Vorannahmen und Erwartungen möglichst auszublenden und so lange wie möglich „die Sachen selbst“ zu betrachten. Der Forschende soll in sogenannten Memos spontane Ideen und Einfälle festhalten. Über die Komparation von Einzelfällen soll dann eine gegenstandsbezogene Theoriebildung ermöglicht werden.
Erläutere 2. Einfache konzeptuelle Analysen (Heuristics involving simple conceptual analysis)
Ad 2: Die Kernoperation innerhalb der Heuristiken in Kategorie 2 besteht darin, Konzepte oder Aussagen in einem Gedankenexperiment zu „manipulieren“. Eine konzeptuelle Manipulation kann zum Beispiel einfach darin bestehen, dass man die Kausalitätsrichtung einer bisher bestehenden Hypothese umdreht: Anstelle von „der Konsum von gewalthaltigen Computerspielen erhöht die Aggressivität“ würde dann resultieren, „Aggressivität erhöht den Konsum von gewalthaltigen Computerspielen“. Sie werden in der Sozialpsychologie (Modul 4) Festingers Theorie der kognitiven Dissonanz kennen lernen, die auf solch einer Kausalitätsreversion besteht: Anstelle der Hypothese „Einstellungsänderungen führen zu Verhaltensänderungen“ untersuchte Festinger das Gegenteil „Verhaltensänderungen führen zu Einstellungsänderungen“.
Erläutere 3. Komplexe konzeptuelle Analysen (Heuristics calling for complex conceptual analysis)
Ad 3: Ein Beispiel für ein komplexeres konzeptuelles Gedankenexperiment ist die Analogiebildung. Wir möchten die Analogiebildung mit der von Gigerenzer (1988) identifizierten „Tools-to-Theories“-Heuristik, die bei McGuire (1997) leider nicht zitiert wird, veranschaulichen.
Die „Tools-to-Theories-Heuristik“ liegt nach Gigerenzer vielen Theorien innerhalb der kognitiven Psychologie (vgl. Kurs 1) zugrunde. Im Kern geht es um einen Analogieschluss, um die metaphorische Übertragung eines Merkmals oder einer Struktur aus dem Bereich der „Tools“ auf den Bereich der „Theories“. Ein Tool, das heute jeder wissenschaftlich arbeitende Psychologe verwendet, ist der Computer, der als die Kern-Metapher für den menschlichen Geist (das kognitive System) verwendet wird. In ihrer allgemeinsten Form wurde die Computer-Analogie von Paul Thagard (2005) formuliert: Denken ist demnach mit einem gerade aktiven Computerprogramm vergleichbar, in dem Algorithmen auf Datenstrukturen angewendet werden. Den Datenstrukturen, auf die ein Computerprogramm zugreift, entsprechen beim Denken mentale Repräsentationen; den Algorithmen entsprechen sogenannte computationale Prozeduren, das sind bestimmte Verarbeitungsprozesse. Der menschliche Geist wird somit in Analogie zum Computer als informationsverarbeitendes System konzipiert. Nach der „Tools-to-Theories-Heuristik“ wurden also neue Theorien über kognitive Prozesse durch Analogiebildung gefunden, indem „Werkzeuge“, mit denen ein Forscher ohnehin arbeitete, auf psychologische Fragestellungen übertragen wurden. Ein Werkzeug in diesem Sinn ist auch die Statistik. Und in der Tat finden sich psychologische Theorien, die auf statistischen Analogien beruhen.
Sie werden in der Sozialpsychologie (Modul 4) die Attributionstheorie von Harold Kelley kennen lernen, die sich mit der Frage beschäftigt, wie Personen im Alltag Ereignisse erklären, anders ausgedrückt: welche Ursachen sie Ereignissen zuschreiben (attribuieren). Nach Kelley führt eine Person z.B. angesichts der Frage, ob es an ihr selbst, dem Prüfer, oder den aktuellen Umständen lag, dass sie eine Prüfung nicht bestanden hat, eine intuitive Varianzanalyse durch. Die Varianzanalyse ist ein statistisches Verfahren, mit dem Sie sich im Modul 2 (Kurs Statistik 2) beschäftigen werden.
Falls Sie die Attributionstheorie von Kelley und die damit verbundene Analogie der Varianzanalyse jetzt noch nicht (ganz) verstanden haben und sich fragen, ob das an Ihnen oder an dem Text liegt, den sie gerade lesen, dann attribuieren sie ruhig auf den Text. Wir müssten an dieser Stelle zu weit ausholen, um Ihnen Kelleys Attributionstheorie und die Varianzanalyse in allen notwendigen Details zu erklären.
Es kommt in diesem Rahmen nur darauf an, dass Sie ein Beispiel für die Verwendung eines statistischen tools (der Varianzanalyse) als Analogie zu einer kognitiven Theorie (Kelleys Attributionstheorie) in Erinnerung behalten.
In der Psychologie finden sich zudem noch viele weitere Theorien, die durch Analogie-Schlüsse oder Metaphern entstanden sind. Besonders viele Metaphern stecken in der Theorie von Sigmund Freud (vgl. psychoanalytisches Paradigma, Kurs 1), der z.B. den psychischen Apparat mit einem Energiesystem (etwa einer Dampfmaschine) verglich. Ganz anders ist das bei George A. Kelly, der seine Persönlichkeitstheorie auf die Metapher „der Mensch als Wissenschaftler“ gründet (vgl. Modul 7).
Erläutere 4. Reinterpretationen bestehender Forschungsergebnisse (Heuristics demanding reinterpretations of past research) & 5. Datensammlung und Reanalyse bestehender Datensätze (Heuristics necessitating collecting new or reanalyzing old data)
Ad 4 und 5: Die Heuristiken der vierten und fünften Kategorie setzen voraus, dass man bereits umfangreiche psychologische Kenntnisse erworben hat und lassen sich in ihrem Fall z.B. anwenden, wenn Sie ihre Bachelor-Arbeit schreiben. Heuristiken, die darin bestehen, dass bestehende Forschungsergebnisse reinterpretiert werden, können z.B. immer dann angewendet werden, wenn sich die Ergebnisse verschiedener empirischer Studien zu einer Fragestellung widersprechen. In diesem Fall geht es darum, nach Erklärungen für diese Widersprüche zu suchen. Zum Beispiel können die verwendeten Messinstrumente, verschiedene Stichproben (Männer vs. Frauen, unterschiedliche Altersstufen etc.) oder bisher übersehene Variablen zur Aufklärung der Widersprüche beitragen. Neue Ideen können auch dann entstehen, wenn man eine Übersicht zu bestehenden Studien eines Forschungsgebiets schreibt. Der Versuch, solche teilweise sicherlich auch heterogenen Studien zu einem bedeutungsvollen und „runden“ Gesamtbild zu verbinden, erfordert kreative Interpretationsund Integrationsleistungen. Das resultierende Gesamtbild ist dann „mehr“ als die Summe der einzelnen Studien, die gesichtet wurden. McGuire (1997, p. 25) berichtet, dass der bereits erwähnte Leon Festinger die ersten Ideen für seine Dissonanztheorie entwickelt hat, während er an einem Übersichtsartikel über Gerüchte schrieb. Und wenn ein Professor etwas über ein Gebiet lernen möchte, das er noch nicht so gut kennt, dann beschließt er oder sie am besten, einen diesbezüglichen Kurs zu geben. Sie ahnen ja gar nicht, wie viel wir selbst lernen, während wir diesen Kurs schreiben!
Was ist Codierung?
Die Informationen, die bei den untersuchten Personen erhoben wurden, müssen dann so transformiert werden, dass sie in Auswertungsprogramme (z.B. SPSS oder R, vgl. Exkurs „Was ist Statistik?“) eingegeben und weiterverarbeitet werden können. Das setzt insbesondere eine eindeutige Zuordnung von Symbolen (in der Regel Zahlen) zu bestimmten Merkmalsausprägungen bzw. qualitativen Informationen voraus. Dieser Prozess der Informationstransformation wird als Codierung bezeichnet und ist oft mit einem Verlust an Detailinformationen verbunden (vgl. z.B. Bortz & Döring 2006, Kap. 4.1.1).
Was sind Code- oder Skalenhandbücher?
Bei Datensätzen, die auf großen repräsentativen Stichproben basieren, ist die Codierung der erhobenen und transformierten Variablen in sogenannten Code- oder Skalenhandbüchern genau dokumentiert, damit verschiedene Nutzer die Bedeutung jeder Variable nachvollziehen können. Auch bei weniger umfangreichen, nicht-repräsentativen Datensätzen, ist eine genaue Dokumentation in einem Skalenhandbuch dringend zu empfehlen, da häufig nicht alle möglichen Analysen unmittelbar nach der Studie umgesetzt bzw. oft noch viel später sogenannte Reanalysen mit neueren Methoden durchgeführt werden. Letzteres ist nur dann sinnvoll möglich, wenn nachvollzogen werden kann, wie die Variablen in einem Datensatz zustande gekommen sind und welche Bedeutung sie haben.
Was ist die Protokollvalidität?
Das Konzept der Protokollvalidität wurde von Kurtz und Parrish (2001) eingeführt und bezieht sich auf das Ausmaß, in dem ein individuelles Testprotokoll auswertbar und interpretierbar ist. Die Protokollvalidität ist gefährdet, (a) wenn ein Proband einen Fragebogen oberflächlich und wenig aufmerksam bearbeitet, (b) wenn sich ein Proband absichtlich falsch einschätzt und (c) wenn ein Proband über zu wenig sprachliche Kompetenzen verfügt. Letzteres kann z.B. der Fall sein, wenn Fragebögen von Nicht-Muttersprachler ausgefüllt werden, was bei englischen Fragebögen sicher relativ häufig vorkommt.
Beschreibe die Datenbereinigung.
Insbesondere bei der Übertragung von Paper-pencil-Daten in ein Analyseprogramm können Eingabefehler auftreten, die sich zumindest dann im Rahmen einer Fehler- und Plausibilitätsprüfung identifizieren lassen, wenn z.B. anstelle einer 2 versehentlich eine 22 eingegeben wurde. Solche Zahlen, die außerhalb des Wertebereichs einer Skala liegen, die z.B. Werte von 0 – 5 umfasst, lassen sich relativ leicht ermitteln. Schwieriger ist der Umgang mit fehlenden Werten bei einzelnen Probanden. Fehlende Werte können ersetzt werden, wenn zufälliges Fehlen sichergestellt ist. Diese Voraussetzung kann mit dem sogenannten MCAR-Test von Little und Rubin (1987) geprüft werden (MCAR bedeutet missing completely at random). Bereits vor der Anwendung dieses Tests können Probanden identifiziert werden, die ganze Abschnitte oder Seiten eines Fragebogens nicht bearbeitet haben. Da in solchen Fällen ausgeschlossen werden kann, dass die Werte zufällig fehlen, erfolgt die Selektion der entsprechenden Probanden. Zufällig fehlende Werte können mit Hilfe verschiedener Algorithmen geschätzt und ersetzt bzw. „imputiert“ werden. Geeignete Algorithmen stehen z.B. innerhalb des Analyseprogramms SPSS zur Verfügung. Weiterführende Informationen zum Umgang mit fehlenden Werten, finden sich z.B. bei Lüdtke, Robitzsch, Trautwein und Köller (2007).
Was ist der Summenscore oder Skalenwert?
Psychologische Konstrukte, z.B. Persönlichkeitsmerkmale, werden mit Hilfe mehrerer Items, d.h. Feststellungen in einem Fragebogen, erfasst, die dann nach bestimmten Kriterien (vgl. Kapitel 5), zu einem sogenannten Summenscore oder Skalenwert aggregiert, d.h. zusammengefasst werden. Wenn dann Zusammenhänge von Persönlichkeitsmerkmalen zu anderen Persönlichkeitsmerkmalen oder Kriterien, wie Studienerfolg, Lebenszufriedenheit oder Gesundheit statistisch analysiert werden sollen, dann wird mit diesen Skalenwerten gerechnet, die eine höhere Messgenauigkeit aufweisen, als einzelne Items (vgl. Abschnitt 5).
Was macht man mit Extremwerten?
Nach der Datenbereinigung bzw. noch im Rahmen derselben werden in ersten deskriptiven und explorativen Datenanalysen die Häufigkeitsverteilungen der Variablen (wie häufig kommt welcher Wert, z.B. welches Alter der Probanden, vor), sowie Mittelwerte und Streuungen (die Abweichungen der Werte von ihrem Mittelwert) inspiziert, um Voraussetzungen für die Durchführung statistischer Tests sicherzustellen und sogenannte Ausreißer und Extremwerte zu identifizieren. Es handelt sich dabei um Werte, die deutlich (statistisch ausgedrückt: mehr als 2 bzw. 3 Standardabweichungen) über oder unter dem Mittelwert der Verteilung einer Variablen liegen. Zum Umgang mit solchen Extremwerten gibt es verschiedene Möglichkeiten, die auch von den geplanten weiteren Analysen abhängen. Grundsätzlich gilt, dass Extremwerte identifiziert und beachtet werden müssen, da ansonsten weiterführende statistische Analysen zu völlig verzerrten und letztendlich falschen Ergebnissen führen. In den letzten Jahren ist auch in der Psychologie auf sogenannte robuste Statistiken hingewiesen worden (vgl. Erceg-Hurn & Mirosevich, 2008); es handelt sich dabei um spezielle Analysemethoden, mit denen problematische Extremwerte berücksichtigt und in ihrer verzerrenden Wirkung neutralisiert werden können.
Was kommt nach der Datenaufbereitung und -bereinigung?
Die eigentliche Prüfung der (statistischen) Hypothesen erfolgt dann im Anschluss an die genannten Schritte der Datenaufbereitung und –bereinigung mit verschiedenen Verfahren und Tests. Dabei müssen bestimmte Voraussetzungen berücksichtigt und geprüft werden, zu denen u.a. das sogenannte Skalenniveau der Variablen gehört (vgl. Abschnitt 5).
Erkläre den Zusammenhang zwischen Aggregat-Eigenschaften, Mittelwertsunterschieden und Nullhypothesen!
Bei der oben formulierten Unterschiedshypothese: „Männer und Frauen unterscheiden sich im Ausmaß sozialer Angst“, lässt sich die Aggregat-Eigenschaft als Mittelwertsunterschied im Ausmaß sozialer Angst darstellen – das Ausmaß sozialer Angst lässt sich z.B. mit Hilfe eines Fragebogens messen und quantifizieren (vgl. die Kapitel 5 und 6). Eine Prüfung dieses Mittelwertsunterschieds kann im Rahmen statistischer Hypothesen vorgenommen werden. Statistische Hypothesen beinhalten eine Nullhypothese, in der angenommen wird, dass ein bestimmter Unterschied (oder Zusammenhang) nicht besteht, und einer Alternativhypothese, in der behauptet wird, dass der Unterschied (Zusammenhang) besteht. Formal werden Null- und Alternativhypothese wie folgt ausgedrückt (nachfolgend populationsbezogen und daher mit griechischen Buchstaben):
H0: μ1 = μ2
H1: μ1 ≠ μ2
Warum wird die zuvor formulierte Unterschiedshypothese im Rahmen einer statistischen Hypothese geprüft?
Die Unterschiedshypothese bezieht sich auf Männer und Frauen im Allgemeinen. Nun ist es unmöglich oder in anderen Fällen zu kostspielig – alle Männer und Frauen bzw. alle Personen einer Grundgesamtheit im Hinblick auf ein interessierendes Merkmal zu untersuchen. Aus diesem Grund werden möglichst repräsentative Stichproben aus den Grundgesamtheiten der Männer und Frauen gezogen und die jeweilige Ausprägung von sozialer Angst mit einem geeigneten diagnostischen Instrument erfasst. Die in der Stichprobe ermittelten geschlechtsspezifischen Mittelwerte lassen sich als Schätzungen der jeweiligen Populationsmittelwerte verwenden (vgl. hierzu Modul 2, insbesondere Wahrscheinlichkeitstheorie). Mit Hilfe eines t-Tests für unabhängige Stichproben (unabhängig, weil die Ziehung der männlichen Probanden aus der Grundgesamtheit keinen Einfluss hat auf die Ziehung der Frauen aus der Grundgesamtheit und umgekehrt) lässt sich dann prüfen, ob sich die beiden Mittelwerte bedeutsam voneinander unterscheiden. Der t-Test ist einer der gebräuchlichsten Signifikanztests, bei denen es generell um die Überprüfung von Hypothesen über Populationsparameter geht. Eine Übersicht zu verschiedenen Tests zur Prüfung von statistischen Hypothesen liefert der Entscheidungsbaum von Vorberg und Blankenberger (1999), der auch im Internet verfügbar ist.
Wie wird die Signifikanz eines Ergebnisses ermittelt?
Die Bedeutsamkeit oder Signifikanz wird statistisch durch eine sogenannte bedingte Wahrscheinlichkeit p(Ergebnis|H0) abgeschätzt, die in unserem Beispiel indizieren würde, dass der zwischen den Stichproben gefundene Geschlechtsunterschied oder ein noch deutlicherer Unterschied auftritt, unter der Bedingung bzw. Annahme, dass die H0 zutrifft. Diese bedingte Wahrscheinlichkeit muss dabei kleiner oder gleich einer vorgegebenen Irrtumswahrscheinlichkeit α sein, die in der Psychologie per Konvention 5% oder 1% beträgt. Wenn die bedingte Wahrscheinlichkeit kleiner ist als das Kriterium von 5% oder 1%, wenn es also sehr unwahrscheinlich ist, dass der ermittelte Geschlechtsunterschied unter Annahme der Gültigkeit der H0 auftritt, dann wird geschlussfolgert, dass diese sehr unwahrscheinliche Abweichung von der Nullhypothese kein Zufall mehr sein kann. Das Ergebnis wird als statistisch bedeutsam oder signifikant bewertet, die Nullhypothese (kein Geschlechtsunterschied) wird verworfen und die Alternativhypothese vorläufig angenommen. Vorläufig, weil trotz der niedrigen Wahrscheinlichkeit für den ermittelten Geschlechtsunterschied in der Grundgesamtheit dennoch die H0 zutreffen könnte – was unter anderem auch mit der verwendeten Methode (Fragebogen) zu tun haben könnte. Erst wenn in mehreren Studien mit verschiedenen Stichproben und verschiedenen Methoden immer wieder ein Geschlechtsunterschied für soziale Ängstlichkeit resultiert, kann man sich immer sicherer sein, dass die H1 zutrifft.
Nenne ein paar Statistik-Programme!
Statistische Methoden zur Analyse von Daten basieren auf mathematischen Formeln, mit denen in der Regel große Datenmengen verrechnet werden. Im Prinzip ist eine solche Verrechnung per Hand oder mit Hilfe eines Taschenrechners möglich und wir empfehlen allen Studierenden zumindest einige grundlegende Formeln mit kleinen Datensätzen auf diese Weise nachzuvollziehen, weil dadurch das Verständnis deutlich gefördert wird. In den allermeisten Fällen werden statistische Analysen mit größeren Datensätzen aber mit geeigneter Software durchgeführt, die wir nun kurz nennen möchten: SPSS (Statistical Package for Social Scientists, siehe www.spss.com) ist das am weitesten verbreitete kostenpflichtige Programmpaket, das nach wie vor an fast allen Universitäten vermittelt und genutzt wird. Weniger verbreitet, aber wegen der sophistizierteren Möglichkeiten zur Durchführung komplexerer statistischer Verfahren (z.B. Strukturgleichungsmodelle) von vielen Methodikern sehr geschätzt, ist Mplus (siehe www.statmodel.com). Zur Analyse von Strukturgleichungsmodellen wurden zudem spezielle Programme geschrieben, nämlich LISREL (LInear Structural RELations, siehe www.ssicentral.com) sowie das in SPSS integrierte AMOS. In den letzten Jahren ist zudem die OpenSource-Software R (so benannt nach den Anfangsbuchstaben der Vornamen der Begründer, siehe www.r-project.org) immer beliebter geworden und wird zunehmend mehr auch an den Universitäten genutzt und in Kursen gelehrt.
Was beinhaltet die Interpretation und Diskussion der Ergebnisse?
Die Interpretation der Ergebnisse erschöpft sich aber nicht in einer rein verbalen Übersetzung der Ergebnisse statistischer Tests, wiewohl dieser erste Schritt zwingend vollzogen werden muss. In weiteren Schritten erfolgt die Interpretation der Befunde im Kontext des theoretischen Bezugsrahmens sowie ein Vergleich der eigenen Befunde mit den Ergebnissen aus vorangegangen Untersuchungen, an die angeknüpft wurde. Dabei gilt es einerseits, die aufgetretenen Abweichungen der Ergebnisse von den eigenen Hypothesen bzw. theoretisch begründeten Erwartungen zu interpretieren, und andererseits jene Unterschiede, die beim Vergleich der eigenen Ergebnisse mit jenen anderer Studien aufgetreten sind. In diesem Zusammenhang ist es notwendig, die einzelnen Schritte der Untersuchung noch einmal bzgl. der Unterschiede zu anderen vorliegenden Studien und der möglichen Einflüsse verschiedenster Bedingungs- und Störfaktoren „abzuklopfen“. Weiterhin ist es üblich, im Rahmen der Interpretation und Diskussion der Ergebnisse Vorschläge zur Weiterentwicklung des methodischen Vorgehens (z.B. zu den Erhebungsinstrumenten und zum Untersuchungsdesign) sowie zur Modifikation des verwendeten theoretischen Bezugsrahmen vorzustellen und Hinweise für weiterführende Forschungsmöglichkeiten zu geben.
Was ist der Vier-Gruppenplan von Solomon?
Dieser Untersuchungsplan setzt sich zusammen aus zwei einfacheren und erlaubt dadurch eine weitestgehende Kontrolle der wichtigsten Störfaktoren, die in den folgenden Abschnitten schrittweise erläutert werden:
• aus der Kontrollgruppenanordnung mit Vor- und Nachtest
• aus der Kontrollgruppenanordnung nur mit Nachtest
Hier wird davon ausgegangen, daß der Vortest bereits einen Effekt auf das Ergebnis haben könnte. Deshalb gibt es sozusagen die zusätzliche Kontrolle des Vortests.
Was ist die Idee der Mittelwertabweichung?
Der Effekt aj des Treatments der Stufe j ist definiert als Differenz in der AV, die zwischen dem Gesamtmittelwert y und dem Mittelwert in der Gruppe j besteht.
Was ist der Haupteffekt?
Der Haupteffekt der Nutzung einer Multimedia-Lernumgebung ist quantifiziert durch den Unterschied zwischen dem Mittelwert aller 100 Lernenden, die sie genutzt haben, und dem Gesamtmittelwert aller 200 Vpn.