M1 F6 Flashcards

1
Q

Was besagt das Fechnersche Gesetz?

A

Die psychophysische Funktion, auch als „Fechnersches Gesetz“ bekannt, besagt, dass die Stärke einer subjektiven Empfindung gegenüber einem physikalischen Reiz (z.B. Ton, Lichtstärke) nicht linear mit der Reizstärke anwächst, sondern im Sinne einer logarithmischen Funktion.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Beschreibe Kontexte, in denen es zu neuen Einfällen kommen kann!

A

Der entspannte Kontext – im Englischen mit den Worten „bed, bathroom and bicycle“ umschrieben – ist eine von mehreren Bedingungen, die nach den anekdotischen Beobachtungen zu neuen Ideen führen können. Zudem scheint es notwendig zu sein, dass man sich vorher intensiv mit einer Fragestellung oder einem Forschungsgebiet auseinandergesetzt hat und in dem entspannten Kontext eben gerade nicht über die Frage nachdenkt. Manchmal scheinen auch bestimmte Umweltreize zu einem plötzlichen Einfall beitragen zu können. Der plötzliche Einfall kommt also nicht aus dem Nichts. Zündende Ideen setzen voraus, dass man sich lange mit einer Problemstellung befasst hat und das wissenschaftliche Gebiet, aus dem das Problem stammt, gut kennt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Erkläre Induktion, Deduktion und Abduktion!

A

Fall: Diese Bohnen sind aus diesem Sack.
Beobachtung: Die Bohnen sind weiß.
Regel: Alle Bohnen im Sack sind weiß.
Bei der Induktion geht man von einem spezifischen Fall und einer spezifischen Beobachtung aus und schließt auf eine allgemeine Regel.
Bei der Deduktion ist der Ausgangspunkt eine allgemeine Regel und ein spezifischer Fall und es wird auf eine Beobachtung geschlossen.
Bei der Abduktion liegen eine allgemeine Regel und eine spezifische Beobachtung vor und der Schluss erfolgt auf einen spezifischen Fall.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wie hängen Abduktion und Heureka zusammen?

A

Entscheidend ist aber, dass man durch den Abduktionsschluss zu einer neuen Erkenntnis kommt, die im weiteren Forschungsprozess induktiv und deduktiv geprüft werden kann (vgl. Walach, 2005, S. 33). Das Bohnenbeispiel ist natürlich sehr simpel und psychologisch nur bedingt interessant. Wenn wir uns aber vorstellen, dass wir viele bisher unverbundene Einzel-Beobachtungen und Fakten kennen, dann besteht der abduktive Schluss eben darin, dass wir „plötzlich“ eine Verbindung zwischen ihnen herstellen oder eine Struktur entdecken, die emotional zudem mit einem Aha- oder Heureka-Erlebnis verbunden ist.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Insgesamt 49 Heuristiken zur Generierung von neuen Hypothesen hat McGuire (1997) zusammengestellt. Nenne die fünf Hauptkategorien!

A

Die fünf Kategorien klassifizieren zunehmend komplexere Heuristiken und lauten:

  1. Heuristiken, die Sensitivität gegenüber ungewöhnlichen oder provozierenden Phänomenen erfordern (Heuristics simply calling for sensitivity to provocative natural occurrences)
  2. Einfache konzeptuelle Analysen (Heuristics involving simple conceptual analysis)
  3. Komplexe konzeptuelle Analysen (Heuristics calling for complex conceptual analysis)
  4. Reinterpretationen bestehender Forschungsergebnisse (Heuristics demanding reinterpretations of past research)
  5. Datensammlung und Reanalyse bestehender Datensätze (Heuristics necessitating collecting new or reanalyzing old data)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Erläutere 1. Heuristiken, die Sensitivität gegenüber ungewöhnlichen oder provozierenden Phänomenen erfordern (Heuristics simply calling for sensitivity to provocative natural occurrences)

A

Ad 1: Die Heuristiken innerhalb der ersten Kategorie erfordern die Identifikation und Hinwendung zu in irgendeiner Weise ungewöhnlichen oder provozierenden Phänomenen, die mit bisherigen Theorien gar nicht oder nur schwer vereinbar sind. Zum Beispiel leiden Kinder, die unter traumatischen Bedingungen aufgewachsen sind, als Erwachsene oft unter psychischen Problemen. Das ist aber keineswegs immer so! Einige wenige, in der Literatur als „unverwundbare“ Kinder (vgl. einführend Pines, 1979) bezeichnete Individuen entwickeln sich trotz schwieriger Bedingungen in ihrer Kindheit zu stabilen und sozial wie beruflich integrierten Erwachsenen. Die genaue Untersuchung von solchen Personen kann zu neuen Hypothesen über den Einfluss von Entwicklungsbedingungen führen. McGuire nennt innerhalb der ersten Kategorie auch solche Heuristiken, die im sogenannten Grounded-Theory-Ansatz von Glaser und Strauss (1967) verwendet werden. In diesem Paradigma der qualitativen Sozialforschung werden Einzelfälle intensiv beobachtet und/oder interviewt. Ziel ist es, seine Vorannahmen und Erwartungen möglichst auszublenden und so lange wie möglich „die Sachen selbst“ zu betrachten. Der Forschende soll in sogenannten Memos spontane Ideen und Einfälle festhalten. Über die Komparation von Einzelfällen soll dann eine gegenstandsbezogene Theoriebildung ermöglicht werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Erläutere 2. Einfache konzeptuelle Analysen (Heuristics involving simple conceptual analysis)

A

Ad 2: Die Kernoperation innerhalb der Heuristiken in Kategorie 2 besteht darin, Konzepte oder Aussagen in einem Gedankenexperiment zu „manipulieren“. Eine konzeptuelle Manipulation kann zum Beispiel einfach darin bestehen, dass man die Kausalitätsrichtung einer bisher bestehenden Hypothese umdreht: Anstelle von „der Konsum von gewalthaltigen Computerspielen erhöht die Aggressivität“ würde dann resultieren, „Aggressivität erhöht den Konsum von gewalthaltigen Computerspielen“. Sie werden in der Sozialpsychologie (Modul 4) Festingers Theorie der kognitiven Dissonanz kennen lernen, die auf solch einer Kausalitätsreversion besteht: Anstelle der Hypothese „Einstellungsänderungen führen zu Verhaltensänderungen“ untersuchte Festinger das Gegenteil „Verhaltensänderungen führen zu Einstellungsänderungen“.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Erläutere 3. Komplexe konzeptuelle Analysen (Heuristics calling for complex conceptual analysis)

A

Ad 3: Ein Beispiel für ein komplexeres konzeptuelles Gedankenexperiment ist die Analogiebildung. Wir möchten die Analogiebildung mit der von Gigerenzer (1988) identifizierten „Tools-to-Theories“-Heuristik, die bei McGuire (1997) leider nicht zitiert wird, veranschaulichen.
Die „Tools-to-Theories-Heuristik“ liegt nach Gigerenzer vielen Theorien innerhalb der kognitiven Psychologie (vgl. Kurs 1) zugrunde. Im Kern geht es um einen Analogieschluss, um die metaphorische Übertragung eines Merkmals oder einer Struktur aus dem Bereich der „Tools“ auf den Bereich der „Theories“. Ein Tool, das heute jeder wissenschaftlich arbeitende Psychologe verwendet, ist der Computer, der als die Kern-Metapher für den menschlichen Geist (das kognitive System) verwendet wird. In ihrer allgemeinsten Form wurde die Computer-Analogie von Paul Thagard (2005) formuliert: Denken ist demnach mit einem gerade aktiven Computerprogramm vergleichbar, in dem Algorithmen auf Datenstrukturen angewendet werden. Den Datenstrukturen, auf die ein Computerprogramm zugreift, entsprechen beim Denken mentale Repräsentationen; den Algorithmen entsprechen sogenannte computationale Prozeduren, das sind bestimmte Verarbeitungsprozesse. Der menschliche Geist wird somit in Analogie zum Computer als informationsverarbeitendes System konzipiert. Nach der „Tools-to-Theories-Heuristik“ wurden also neue Theorien über kognitive Prozesse durch Analogiebildung gefunden, indem „Werkzeuge“, mit denen ein Forscher ohnehin arbeitete, auf psychologische Fragestellungen übertragen wurden. Ein Werkzeug in diesem Sinn ist auch die Statistik. Und in der Tat finden sich psychologische Theorien, die auf statistischen Analogien beruhen.
Sie werden in der Sozialpsychologie (Modul 4) die Attributionstheorie von Harold Kelley kennen lernen, die sich mit der Frage beschäftigt, wie Personen im Alltag Ereignisse erklären, anders ausgedrückt: welche Ursachen sie Ereignissen zuschreiben (attribuieren). Nach Kelley führt eine Person z.B. angesichts der Frage, ob es an ihr selbst, dem Prüfer, oder den aktuellen Umständen lag, dass sie eine Prüfung nicht bestanden hat, eine intuitive Varianzanalyse durch. Die Varianzanalyse ist ein statistisches Verfahren, mit dem Sie sich im Modul 2 (Kurs Statistik 2) beschäftigen werden.
Falls Sie die Attributionstheorie von Kelley und die damit verbundene Analogie der Varianzanalyse jetzt noch nicht (ganz) verstanden haben und sich fragen, ob das an Ihnen oder an dem Text liegt, den sie gerade lesen, dann attribuieren sie ruhig auf den Text. Wir müssten an dieser Stelle zu weit ausholen, um Ihnen Kelleys Attributionstheorie und die Varianzanalyse in allen notwendigen Details zu erklären.
Es kommt in diesem Rahmen nur darauf an, dass Sie ein Beispiel für die Verwendung eines statistischen tools (der Varianzanalyse) als Analogie zu einer kognitiven Theorie (Kelleys Attributionstheorie) in Erinnerung behalten.
In der Psychologie finden sich zudem noch viele weitere Theorien, die durch Analogie-Schlüsse oder Metaphern entstanden sind. Besonders viele Metaphern stecken in der Theorie von Sigmund Freud (vgl. psychoanalytisches Paradigma, Kurs 1), der z.B. den psychischen Apparat mit einem Energiesystem (etwa einer Dampfmaschine) verglich. Ganz anders ist das bei George A. Kelly, der seine Persönlichkeitstheorie auf die Metapher „der Mensch als Wissenschaftler“ gründet (vgl. Modul 7).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Erläutere 4. Reinterpretationen bestehender Forschungsergebnisse (Heuristics demanding reinterpretations of past research) & 5. Datensammlung und Reanalyse bestehender Datensätze (Heuristics necessitating collecting new or reanalyzing old data)

A

Ad 4 und 5: Die Heuristiken der vierten und fünften Kategorie setzen voraus, dass man bereits umfangreiche psychologische Kenntnisse erworben hat und lassen sich in ihrem Fall z.B. anwenden, wenn Sie ihre Bachelor-Arbeit schreiben. Heuristiken, die darin bestehen, dass bestehende Forschungsergebnisse reinterpretiert werden, können z.B. immer dann angewendet werden, wenn sich die Ergebnisse verschiedener empirischer Studien zu einer Fragestellung widersprechen. In diesem Fall geht es darum, nach Erklärungen für diese Widersprüche zu suchen. Zum Beispiel können die verwendeten Messinstrumente, verschiedene Stichproben (Männer vs. Frauen, unterschiedliche Altersstufen etc.) oder bisher übersehene Variablen zur Aufklärung der Widersprüche beitragen. Neue Ideen können auch dann entstehen, wenn man eine Übersicht zu bestehenden Studien eines Forschungsgebiets schreibt. Der Versuch, solche teilweise sicherlich auch heterogenen Studien zu einem bedeutungsvollen und „runden“ Gesamtbild zu verbinden, erfordert kreative Interpretationsund Integrationsleistungen. Das resultierende Gesamtbild ist dann „mehr“ als die Summe der einzelnen Studien, die gesichtet wurden. McGuire (1997, p. 25) berichtet, dass der bereits erwähnte Leon Festinger die ersten Ideen für seine Dissonanztheorie entwickelt hat, während er an einem Übersichtsartikel über Gerüchte schrieb. Und wenn ein Professor etwas über ein Gebiet lernen möchte, das er noch nicht so gut kennt, dann beschließt er oder sie am besten, einen diesbezüglichen Kurs zu geben. Sie ahnen ja gar nicht, wie viel wir selbst lernen, während wir diesen Kurs schreiben!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was ist Codierung?

A

Die Informationen, die bei den untersuchten Personen erhoben wurden, müssen dann so transformiert werden, dass sie in Auswertungsprogramme (z.B. SPSS oder R, vgl. Exkurs „Was ist Statistik?“) eingegeben und weiterverarbeitet werden können. Das setzt insbesondere eine eindeutige Zuordnung von Symbolen (in der Regel Zahlen) zu bestimmten Merkmalsausprägungen bzw. qualitativen Informationen voraus. Dieser Prozess der Informationstransformation wird als Codierung bezeichnet und ist oft mit einem Verlust an Detailinformationen verbunden (vgl. z.B. Bortz & Döring 2006, Kap. 4.1.1).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was sind Code- oder Skalenhandbücher?

A

Bei Datensätzen, die auf großen repräsentativen Stichproben basieren, ist die Codierung der erhobenen und transformierten Variablen in sogenannten Code- oder Skalenhandbüchern genau dokumentiert, damit verschiedene Nutzer die Bedeutung jeder Variable nachvollziehen können. Auch bei weniger umfangreichen, nicht-repräsentativen Datensätzen, ist eine genaue Dokumentation in einem Skalenhandbuch dringend zu empfehlen, da häufig nicht alle möglichen Analysen unmittelbar nach der Studie umgesetzt bzw. oft noch viel später sogenannte Reanalysen mit neueren Methoden durchgeführt werden. Letzteres ist nur dann sinnvoll möglich, wenn nachvollzogen werden kann, wie die Variablen in einem Datensatz zustande gekommen sind und welche Bedeutung sie haben.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was ist die Protokollvalidität?

A

Das Konzept der Protokollvalidität wurde von Kurtz und Parrish (2001) eingeführt und bezieht sich auf das Ausmaß, in dem ein individuelles Testprotokoll auswertbar und interpretierbar ist. Die Protokollvalidität ist gefährdet, (a) wenn ein Proband einen Fragebogen oberflächlich und wenig aufmerksam bearbeitet, (b) wenn sich ein Proband absichtlich falsch einschätzt und (c) wenn ein Proband über zu wenig sprachliche Kompetenzen verfügt. Letzteres kann z.B. der Fall sein, wenn Fragebögen von Nicht-Muttersprachler ausgefüllt werden, was bei englischen Fragebögen sicher relativ häufig vorkommt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Beschreibe die Datenbereinigung.

A

Insbesondere bei der Übertragung von Paper-pencil-Daten in ein Analyseprogramm können Eingabefehler auftreten, die sich zumindest dann im Rahmen einer Fehler- und Plausibilitätsprüfung identifizieren lassen, wenn z.B. anstelle einer 2 versehentlich eine 22 eingegeben wurde. Solche Zahlen, die außerhalb des Wertebereichs einer Skala liegen, die z.B. Werte von 0 – 5 umfasst, lassen sich relativ leicht ermitteln. Schwieriger ist der Umgang mit fehlenden Werten bei einzelnen Probanden. Fehlende Werte können ersetzt werden, wenn zufälliges Fehlen sichergestellt ist. Diese Voraussetzung kann mit dem sogenannten MCAR-Test von Little und Rubin (1987) geprüft werden (MCAR bedeutet missing completely at random). Bereits vor der Anwendung dieses Tests können Probanden identifiziert werden, die ganze Abschnitte oder Seiten eines Fragebogens nicht bearbeitet haben. Da in solchen Fällen ausgeschlossen werden kann, dass die Werte zufällig fehlen, erfolgt die Selektion der entsprechenden Probanden. Zufällig fehlende Werte können mit Hilfe verschiedener Algorithmen geschätzt und ersetzt bzw. „imputiert“ werden. Geeignete Algorithmen stehen z.B. innerhalb des Analyseprogramms SPSS zur Verfügung. Weiterführende Informationen zum Umgang mit fehlenden Werten, finden sich z.B. bei Lüdtke, Robitzsch, Trautwein und Köller (2007).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was ist der Summenscore oder Skalenwert?

A

Psychologische Konstrukte, z.B. Persönlichkeitsmerkmale, werden mit Hilfe mehrerer Items, d.h. Feststellungen in einem Fragebogen, erfasst, die dann nach bestimmten Kriterien (vgl. Kapitel 5), zu einem sogenannten Summenscore oder Skalenwert aggregiert, d.h. zusammengefasst werden. Wenn dann Zusammenhänge von Persönlichkeitsmerkmalen zu anderen Persönlichkeitsmerkmalen oder Kriterien, wie Studienerfolg, Lebenszufriedenheit oder Gesundheit statistisch analysiert werden sollen, dann wird mit diesen Skalenwerten gerechnet, die eine höhere Messgenauigkeit aufweisen, als einzelne Items (vgl. Abschnitt 5).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Was macht man mit Extremwerten?

A

Nach der Datenbereinigung bzw. noch im Rahmen derselben werden in ersten deskriptiven und explorativen Datenanalysen die Häufigkeitsverteilungen der Variablen (wie häufig kommt welcher Wert, z.B. welches Alter der Probanden, vor), sowie Mittelwerte und Streuungen (die Abweichungen der Werte von ihrem Mittelwert) inspiziert, um Voraussetzungen für die Durchführung statistischer Tests sicherzustellen und sogenannte Ausreißer und Extremwerte zu identifizieren. Es handelt sich dabei um Werte, die deutlich (statistisch ausgedrückt: mehr als 2 bzw. 3 Standardabweichungen) über oder unter dem Mittelwert der Verteilung einer Variablen liegen. Zum Umgang mit solchen Extremwerten gibt es verschiedene Möglichkeiten, die auch von den geplanten weiteren Analysen abhängen. Grundsätzlich gilt, dass Extremwerte identifiziert und beachtet werden müssen, da ansonsten weiterführende statistische Analysen zu völlig verzerrten und letztendlich falschen Ergebnissen führen. In den letzten Jahren ist auch in der Psychologie auf sogenannte robuste Statistiken hingewiesen worden (vgl. Erceg-Hurn & Mirosevich, 2008); es handelt sich dabei um spezielle Analysemethoden, mit denen problematische Extremwerte berücksichtigt und in ihrer verzerrenden Wirkung neutralisiert werden können.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was kommt nach der Datenaufbereitung und -bereinigung?

A

Die eigentliche Prüfung der (statistischen) Hypothesen erfolgt dann im Anschluss an die genannten Schritte der Datenaufbereitung und –bereinigung mit verschiedenen Verfahren und Tests. Dabei müssen bestimmte Voraussetzungen berücksichtigt und geprüft werden, zu denen u.a. das sogenannte Skalenniveau der Variablen gehört (vgl. Abschnitt 5).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Erkläre den Zusammenhang zwischen Aggregat-Eigenschaften, Mittelwertsunterschieden und Nullhypothesen!

A

Bei der oben formulierten Unterschiedshypothese: „Männer und Frauen unterscheiden sich im Ausmaß sozialer Angst“, lässt sich die Aggregat-Eigenschaft als Mittelwertsunterschied im Ausmaß sozialer Angst darstellen – das Ausmaß sozialer Angst lässt sich z.B. mit Hilfe eines Fragebogens messen und quantifizieren (vgl. die Kapitel 5 und 6). Eine Prüfung dieses Mittelwertsunterschieds kann im Rahmen statistischer Hypothesen vorgenommen werden. Statistische Hypothesen beinhalten eine Nullhypothese, in der angenommen wird, dass ein bestimmter Unterschied (oder Zusammenhang) nicht besteht, und einer Alternativhypothese, in der behauptet wird, dass der Unterschied (Zusammenhang) besteht. Formal werden Null- und Alternativhypothese wie folgt ausgedrückt (nachfolgend populationsbezogen und daher mit griechischen Buchstaben):
H0: μ1 = μ2
H1: μ1 ≠ μ2

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Warum wird die zuvor formulierte Unterschiedshypothese im Rahmen einer statistischen Hypothese geprüft?

A

Die Unterschiedshypothese bezieht sich auf Männer und Frauen im Allgemeinen. Nun ist es unmöglich oder in anderen Fällen zu kostspielig – alle Männer und Frauen bzw. alle Personen einer Grundgesamtheit im Hinblick auf ein interessierendes Merkmal zu untersuchen. Aus diesem Grund werden möglichst repräsentative Stichproben aus den Grundgesamtheiten der Männer und Frauen gezogen und die jeweilige Ausprägung von sozialer Angst mit einem geeigneten diagnostischen Instrument erfasst. Die in der Stichprobe ermittelten geschlechtsspezifischen Mittelwerte lassen sich als Schätzungen der jeweiligen Populationsmittelwerte verwenden (vgl. hierzu Modul 2, insbesondere Wahrscheinlichkeitstheorie). Mit Hilfe eines t-Tests für unabhängige Stichproben (unabhängig, weil die Ziehung der männlichen Probanden aus der Grundgesamtheit keinen Einfluss hat auf die Ziehung der Frauen aus der Grundgesamtheit und umgekehrt) lässt sich dann prüfen, ob sich die beiden Mittelwerte bedeutsam voneinander unterscheiden. Der t-Test ist einer der gebräuchlichsten Signifikanztests, bei denen es generell um die Überprüfung von Hypothesen über Populationsparameter geht. Eine Übersicht zu verschiedenen Tests zur Prüfung von statistischen Hypothesen liefert der Entscheidungsbaum von Vorberg und Blankenberger (1999), der auch im Internet verfügbar ist.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Wie wird die Signifikanz eines Ergebnisses ermittelt?

A

Die Bedeutsamkeit oder Signifikanz wird statistisch durch eine sogenannte bedingte Wahrscheinlichkeit p(Ergebnis|H0) abgeschätzt, die in unserem Beispiel indizieren würde, dass der zwischen den Stichproben gefundene Geschlechtsunterschied oder ein noch deutlicherer Unterschied auftritt, unter der Bedingung bzw. Annahme, dass die H0 zutrifft. Diese bedingte Wahrscheinlichkeit muss dabei kleiner oder gleich einer vorgegebenen Irrtumswahrscheinlichkeit α sein, die in der Psychologie per Konvention 5% oder 1% beträgt. Wenn die bedingte Wahrscheinlichkeit kleiner ist als das Kriterium von 5% oder 1%, wenn es also sehr unwahrscheinlich ist, dass der ermittelte Geschlechtsunterschied unter Annahme der Gültigkeit der H0 auftritt, dann wird geschlussfolgert, dass diese sehr unwahrscheinliche Abweichung von der Nullhypothese kein Zufall mehr sein kann. Das Ergebnis wird als statistisch bedeutsam oder signifikant bewertet, die Nullhypothese (kein Geschlechtsunterschied) wird verworfen und die Alternativhypothese vorläufig angenommen. Vorläufig, weil trotz der niedrigen Wahrscheinlichkeit für den ermittelten Geschlechtsunterschied in der Grundgesamtheit dennoch die H0 zutreffen könnte – was unter anderem auch mit der verwendeten Methode (Fragebogen) zu tun haben könnte. Erst wenn in mehreren Studien mit verschiedenen Stichproben und verschiedenen Methoden immer wieder ein Geschlechtsunterschied für soziale Ängstlichkeit resultiert, kann man sich immer sicherer sein, dass die H1 zutrifft.

20
Q

Nenne ein paar Statistik-Programme!

A

Statistische Methoden zur Analyse von Daten basieren auf mathematischen Formeln, mit denen in der Regel große Datenmengen verrechnet werden. Im Prinzip ist eine solche Verrechnung per Hand oder mit Hilfe eines Taschenrechners möglich und wir empfehlen allen Studierenden zumindest einige grundlegende Formeln mit kleinen Datensätzen auf diese Weise nachzuvollziehen, weil dadurch das Verständnis deutlich gefördert wird. In den allermeisten Fällen werden statistische Analysen mit größeren Datensätzen aber mit geeigneter Software durchgeführt, die wir nun kurz nennen möchten: SPSS (Statistical Package for Social Scientists, siehe www.spss.com) ist das am weitesten verbreitete kostenpflichtige Programmpaket, das nach wie vor an fast allen Universitäten vermittelt und genutzt wird. Weniger verbreitet, aber wegen der sophistizierteren Möglichkeiten zur Durchführung komplexerer statistischer Verfahren (z.B. Strukturgleichungsmodelle) von vielen Methodikern sehr geschätzt, ist Mplus (siehe www.statmodel.com). Zur Analyse von Strukturgleichungsmodellen wurden zudem spezielle Programme geschrieben, nämlich LISREL (LInear Structural RELations, siehe www.ssicentral.com) sowie das in SPSS integrierte AMOS. In den letzten Jahren ist zudem die OpenSource-Software R (so benannt nach den Anfangsbuchstaben der Vornamen der Begründer, siehe www.r-project.org) immer beliebter geworden und wird zunehmend mehr auch an den Universitäten genutzt und in Kursen gelehrt.

21
Q

Was beinhaltet die Interpretation und Diskussion der Ergebnisse?

A

Die Interpretation der Ergebnisse erschöpft sich aber nicht in einer rein verbalen Übersetzung der Ergebnisse statistischer Tests, wiewohl dieser erste Schritt zwingend vollzogen werden muss. In weiteren Schritten erfolgt die Interpretation der Befunde im Kontext des theoretischen Bezugsrahmens sowie ein Vergleich der eigenen Befunde mit den Ergebnissen aus vorangegangen Untersuchungen, an die angeknüpft wurde. Dabei gilt es einerseits, die aufgetretenen Abweichungen der Ergebnisse von den eigenen Hypothesen bzw. theoretisch begründeten Erwartungen zu interpretieren, und andererseits jene Unterschiede, die beim Vergleich der eigenen Ergebnisse mit jenen anderer Studien aufgetreten sind. In diesem Zusammenhang ist es notwendig, die einzelnen Schritte der Untersuchung noch einmal bzgl. der Unterschiede zu anderen vorliegenden Studien und der möglichen Einflüsse verschiedenster Bedingungs- und Störfaktoren „abzuklopfen“. Weiterhin ist es üblich, im Rahmen der Interpretation und Diskussion der Ergebnisse Vorschläge zur Weiterentwicklung des methodischen Vorgehens (z.B. zu den Erhebungsinstrumenten und zum Untersuchungsdesign) sowie zur Modifikation des verwendeten theoretischen Bezugsrahmen vorzustellen und Hinweise für weiterführende Forschungsmöglichkeiten zu geben.

22
Q

Was ist der Vier-Gruppenplan von Solomon?

A

Dieser Untersuchungsplan setzt sich zusammen aus zwei einfacheren und erlaubt dadurch eine weitestgehende Kontrolle der wichtigsten Störfaktoren, die in den folgenden Abschnitten schrittweise erläutert werden:
• aus der Kontrollgruppenanordnung mit Vor- und Nachtest
• aus der Kontrollgruppenanordnung nur mit Nachtest
Hier wird davon ausgegangen, daß der Vortest bereits einen Effekt auf das Ergebnis haben könnte. Deshalb gibt es sozusagen die zusätzliche Kontrolle des Vortests.

23
Q

Was ist die Idee der Mittelwertabweichung?

A

Der Effekt aj des Treatments der Stufe j ist definiert als Differenz in der AV, die zwischen dem Gesamtmittelwert y und dem Mittelwert in der Gruppe j besteht.

24
Q

Was ist der Haupteffekt?

A

Der Haupteffekt der Nutzung einer Multimedia-Lernumgebung ist quantifiziert durch den Unterschied zwischen dem Mittelwert aller 100 Lernenden, die sie genutzt haben, und dem Gesamtmittelwert aller 200 Vpn.

25
Q

Wieviele Haupteffekte können bei zweifaktoriellen Designs auftreten?

A

Bei zweifaktoriellen Designs kann jeder der beiden Faktoren einen (signifikanten) Effekt auf die abhängige Variable zeigen. Neben diesen beiden sogenannten Haupteffekten kann in einem zweifaktoriellen Design auch ein Interaktionseffekt (vgl. Abschnitt 7.2.3). auftreten.

26
Q

Was ist ein Interaktionseffekt?

A

Ein Interaktionseffekt liegt vor, wenn der Mittelwert y (Ai Bj) in der Gruppe mit den Faktorstufen AiBj nicht der linear-additiven Kombination des Gesamtmittelwertes y ges und der beiden Haupteffekte von Ai und Bj entspricht, sondern (signifikant) davon abweicht. Eine solche Abweichung bedeutet, dass einer der beiden Faktoren bei einer Faktorstufe des anderen Faktors einen über- oder unterdurchschnittlich starken Effekt hat. So wurde z.B. bei dem zuvor skizzierten Experiment in der Untersuchungsgruppe VG-2 mit der Faktorkombination A2B1 ein überdurchschnittlicher Effekt angenommen.

27
Q

Check Abbildung 7-1: Darstellung der verschiedenen Untersuchungsdesigns in Abhängigkeit von den verschiedenen Kriterien für Versuchspläne (in Anlehnung an Sarris & Reiß, 2005, S. 64).

A

OK?

28
Q

Was ist ein Begriff?

A

Ein Begriff ist ein Zeichen (Signifikant), das etwas (das Signifikat) bezeichnet. Anders ausgedrückt handelt es sich bei einem Begriff um das von einem Begriffswort (Prädikator) Bezeichnete.

29
Q

Warum gibt es eigentlich Begriffe?

A

Ein Begriff reduziert die Komplexität von Einzelereignissen bzw. -objekten durch Abstraktion, d.h. durch „Wegziehen“, Absehen von gewissen Details der Einzelereignisse und durch Hervorhebung der verbleibenden Merkmale der Einzelereignisse. Kurz gesagt fasst ein Begriff Objekte oder Ereignisse zu Klassen aufgrund von Merkmalen zusammen. Damit impliziert sind Unterscheidungshandlungen: „einen Begriff von etwas haben” bedeutet schon in der Umgangssprache soviel wie: eine Sache von einer anderen unterscheiden können.

30
Q

Erläutere Intension und Extension!

A

Die Bedeutung eines Begriffs setzt sich aus der Extension (Begriffsumfang) und der Intension (Begriffsinhalt) zusammen. Die Extension ist die Menge der Einheiten, die unter den Begriff fallen, z.B. Studierender. Die Intension umfasst die Menge der Attribute oder Merkmale, die eine Einheit aufweisen muss, damit sie zur Extension eines Begriffs gehört, damit sie unter den Begriff fällt. Ein Attribut der Intension des Begriffs Studierender könnte z.B. sein „Eine Person, die an einer Hochschule immatrikuliert ist“, es wären aber auch noch andere Attribute denkbar. Entscheidend für die Bedeutung eines Begriffes ist es nun, ob seine Intension (also die Attribute, die eine Einheit aufweisen muss, damit sie unter den Begriff fällt bzw. ihm zugeordnet werden kann) eindeutig festgelegt werden kann.

31
Q

Beschreibe vier mögliche Beziehungen zwischen Zeichen und Bedeutung!

A

Eineindeutig ist die Beziehung dann, wenn einem bestimmten Zeichen genau eine Bedeutung zukommt.
Eine ein-mehrdeutige Beziehung liegt vor, wenn ein bestimmtes Zeichen mit mehreren Bedeutungen verbunden ist.
Mehr-Eindeutigkeit kennzeichnet den Fall mehrerer Zeichen mit derselben Bedeutung.
Mehr-mehrdeutig schließlich sind mehrere Zeichen mit denselben und zwar jeweils mehreren Bedeutungen.

32
Q

Welche von den vier Zeichen/Bedeutungs-Beziehungen ist am problematischsten?

A

Problematischer scheint dagegen die Mehr-Mehrdeutigkeit von Zeichen, die sich zumindest partiell am Beispiel des Begriffs Persönlichkeit zeigen lässt. So scheinen die Begriffe Charakter, Selbst und teilweise auch Identität zumindest partiell ähnliche Bedeutungen aufzuweisen wie der Begriff Persönlichkeit. Insbesondere die Begriffe „Selbst“ und „Persönlichkeit“ sind nicht leicht voneinander abgrenzbar; Mischel und Morf (2003) sprechen von einer „eng verwobenen Beziehung“ zwischen diesen beiden Konstrukten. Noch mehr „Entwirrungsarbeit“ ist erforderlich, wenn man fragt, was denn Selbst und Persönlichkeit mit „Ich“, „Identität“ oder „Ich-Identität“ zu tun haben und wie sich diese Konstrukte voneinander abgrenzen lassen. Wie Mischel und Morf (2003) ausführen, haben sich die Konzepte Selbst und Persönlichkeit in verschiedenen Teilgebieten der Psychologie getrennt voneinander entwickelt, obwohl sich die untersuchten Fragestellungen teilweise ähneln. Dass das Thema Selbst innerhalb der Sozialpsychologie und das Thema Persönlichkeit in der Persönlichkeitsund Differentiellen Psychologie untersucht wurden, ist wohl eher historischen Zufällen und willkürlich gezogenen Fächergrenzen geschuldet als den eigentlichen Forschungsgegenständen.
Das Resultat sind ähnliche Konstrukte, Messinstrumente und Befunde in beiden Forschungsgebieten und es stellt sich die Frage, ob die investierten finanziellen, personellen und intellektuellen Ressourcen nicht besser hätten genutzt werden können, wenn sich alle beteiligten Forscherinnen und Forscher auf einen Begriff geeinigt und gemeinsam dazu gearbeitet hätten. Die Mehr-Mehrdeutigkeit von Zeichen – das scheinen zumindest die Forschungstraditionen zu den Konstrukten Selbst und Persönlichkeit zu belegen – kann also zu einer Verschwendung von Ressourcen und zu einer Verdoppelung von theoretischen und empirischen Befunden führen.

33
Q

Was ist die Vagheit sprachlicher Zeichen?

A

Im Gegensatz zur Mehrdeutigkeit, bei der die unterschiedlichen Bedeutungen von Zeichen zumindest angegeben werden können, liegt Vagheit eines Zeichens dann vor, wenn seine Bedeutung(en) nicht genau angegeben werden können. Ein Begriff ist vage, wenn seine Intension und/oder Extension unbestimmt sind.

34
Q

Was ist extensionale Unbestimmtheit - und warum ist sie gut?

A

Extensionale Unbestimmtheit ist weniger problematisch und sogar erwünscht, solange ein wissenschaftlicher Begriff eine ausreichende intensionale Bestimmtheit aufweist. Begriffe wie „Persönlichkeit“, „Angst“, „Einstellung“ haben bereits eine weite Extension, d.h. eine hohe Anzahl an Gegenständen bzw. Elementen, die unter diese Begriffe fallen. Zudem können neue Gegenstände hinzukommen und die Begriffe extensional erweitern, wenn die entsprechenden Attribute gegeben sind, die für eine Aufnahme in die Extension Voraussetzung sind.
Extensionale Unbestimmtheit bei einem ausreichendem Maß an intensionaler Bestimmtheit ist also durchaus positiv zu bewerten und überhaupt Voraussetzung für die Möglichkeit von Wissenschaft, sich an neue, noch nicht erfasste Gegebenheiten anzupassen, d.h. sich dynamisch weiterzuentwickeln. (Groeben & Westmeyer, 1981, S. 49)
Die positiven Effekte der extensionalen Unbestimmtheit stellen sich aber wie gesagt nur dann ein, wenn intensionale Bestimmtheit vorliegt. Nur dann kann Einigkeit darüber erzielt werden, welche Gegenstände und Elemente zur Extension eines Begriffs gehören und welche nicht.

35
Q

Welche Rolle spielen Kern- und Randintension?

A

Um ein ausreichendes Maß an intensionaler Bestimmtheit zu sichern, schlagen Groeben und Westmeyer (1981) vor, dass eine Kernintension angegeben werden muss, die die Menge der Attribute enthält, die hinreichend und notwendig sind, damit ein Element in die Extension eines Begriffs aufgenommen werden kann. Attribute, die nicht zur Kernintension, aber zur Intension eines Begriffs zählen, werden dagegen der Randintension zugeordnet. Im Laufe der wissenschaftlichen Entwicklung können Attribute der Randintension in die Kernintension aufgenommen werden und umgekehrt. Die Attribute „zeitliche Stabilität“ und „transsituative Konsistenz“ können als Attribute der Kernintension des Begriffs „Persönlichkeitsmerkmal“ angegeben werden. Damit „Etwas“, d.h. ein Gegenstand oder in diesem Beispiel ein Erlebens- und Verhaltensmuster, in die Extension des Begriffs Persönlichkeitsmerkmal aufgenommen werden kann, muss zutreffen, dass ein bestimmtes Erlebensund Verhaltensmuster über die Zeit immer wieder (zeitliche Stabilität) und zudem nicht nur in einer bestimmten, sondern in verschiedenen Situationen (transsituative Konsistenz) auftritt.

36
Q

Wie genau sollen Begriffe sein?

A

Wissenschaftliche Begriffe erfordern also nicht absolute Ein-Eindeutigkeit und intensionale wie extensionale Bestimmtheit, solange bestimmte Bedingungen gewährleistet sind, die Eindeutigkeit und eine zumindest temporär gültige Kernintension sichern. Zusammenfassend soll dies noch einmal mit einem längeren Zitat aus Groeben und Westmeyer verdeutlicht werden:
Wir haben gesehen, dass auch innerhalb der Wissenschaftssprache Mehrdeutigkeit und Vagheit eines Zeichens in bestimmter Weise zulässig, zum Teil sogar erwünscht sind. Mehrdeutigkeit kann dann toleriert werden, wenn für jeden Kontext, in dem ein Zeichen begegnet, Eindeutigkeit gewährleistet ist. Vagheit eines Zeichens im Sinne extensionaler Unbestimmtheit, d.h. Offenheit des durch dieses Zeichen bezeichneten Begriffs ist für wissenschaftliche Konzepte geradezu erwünscht. Vagheit im Sinne intensionaler Unbestimmtheit kann dagegen nur für die Randintension des betreffenden Begriffs toleriert werden, für seine Kernintension ist völlige Bestimmtheit (zu jedem Zeitpunkt) unerlässlich. (Groeben & Westmeyer, 1981, S. 50)

37
Q

Was ist eine Definition?

A

Die Kernintension eines Begriffs kann durch eine Definition festgelegt werden. „Unter ‚Definieren’ versteht man einen Prozess, in dem einem sprachlichen Ausdruck eine exakte Bedeutung gegeben wird. Das Resultat heißt dann ‚Definition’. Der Ausdruck, dessen Bedeutung angegeben werden soll, der zu definierende Ausdruck, das Definiendum soll dabei dem Ausdruck, mit dem er definiert wird, dem Definiens, äquivalent sein“ (Radnitzky, 1992, S. 27). Definitionen sind auf Sprache angewiesen und mithin rein begriffliche Operationen. Bestimmte Begriffe werden innerhalb einer Definition vorausgesetzt und selbst nicht definiert; sie können aber zum Gegenstand anderer Definitionen werden. Wir müssen also schon Begriffe haben, um einen Begriff definieren zu können.

38
Q

Was sind die Kriterien für gelungene Definitionen?

A

Definitionskriterien: Nach Suppes (1957) müssen korrekte Definitionen zwei Kriterien erfüllen: die Eliminierbarkeit und die Nicht-Kreativität. Die Eliminierbarkeit besagt, dass ein Definiendum, also ein neu eingeführtes Zeichen oder Symbol, an jeder Stelle innerhalb einer Theorie durch die zuvor nicht definierten Grundbegriffe ersetzt werden kann. Das Kriterium der Nicht-Kreativität besagt, dass durch das Definiendum nicht zusätzliche Annahmen in die Theorie eingeführt werden dürfen, die den faktischen Gehalt einer Theorie erweitern. Eine Definition soll eine Theorie nicht erweitern, sondern zur besseren Strukturierung und Systematisierung beitragen. Radnitzky (1992, S. 27f) hat die beiden Kriterien in dem Begriff nichtkreative Abkürzungsdefinition verschmolzen und folgendermaßen erläutert:
Es wird vorgeschlagen, im Kontext K der Sprache S künftig den Ausdruck >…< anstelle des längeren Ausdrucks >—< zu verwenden, und es wird garantiert, dass in K >…< durch >—< (und umgekehrt) überall ohne relevante Kosten eliminiert werden kann und dass durch Einführung des Ausdrucks >…< in K keine zusätzliche Information eingeschmuggelt wird. (Radnitzky, 1992, S. 27)

39
Q

Nenne verschiedene Definitionsarten!

A

Groeben und Westmeyer (1981) unterscheiden in Anlehnung an Essler (1970) folgende Definitionsarten: vollständige Definitionen, dazu zählen explizite Definitionen und Kontextdefinitionen, sowie partielle oder bedingte Definitionen.

40
Q

Was sind Explizite Definitionen?

A

Diese stellen eine Identität zwischen Definiendum und Definiens her, indem sie ein neu einzuführendes Zeichen mit einem oder einer Reihe bereits eingeführter Zeichen gleichsetzen, z.B. „Belohnung per definitionem gleich Anwendung eines positiven oder Entfernung eines negativen Verstärkers“ (Groeben & Westmeyer, 1981, S. 53). Vor dem Hintergrund dieses Beispiels wird deutlich, dass in einer Definition immer Begriffe vorkommen, deren Bedeutung vorausgesetzt wird, in diesem Fall: positiver und negativer Verstärker. Durch explizite Definitionen können Begriffe eingeführt werden, die die Kommunikation erleichtern: anstelle von „diese Geraden liegen in einer Ebene und schneiden sich nicht“, kann man z.B. einfach sagen: „Diese Geraden sind parallel.“

41
Q

Was sind Kontextdefinitionen?

A

Diese stellen keine Identitäten her, sondern geben äquivalente Ausdrücke an, in denen das neue Zeichen bzw. Symbol vorkommt. Nach Groeben und Westmeyer (1981) werden insbesondere Relationsbegriffe und quantitative Begriffe kontextuell definiert, z.B. das Zeichen „belohnt“: „Für alle Reaktionen r, alle Personen p und alle Zeitpunkte t gilt: r wird bei p zur Zeit t belohnt per definitionem genau dann, wenn es einen positiven Verstärker gibt, der zur Zeit t bei p auf r angewendet wird, oder wenn es einen negativen Verstärker gibt, der zur Zeit t bei p von r entfernt wird“ (Groeben & Westmeyer, 1981, S. 55). Kontextdefinitionen liegen auch bei Kennzeichnungen, insbesondere bei Namensgebungen vor, z.B. „Sigmund Freud ist der Begründer der Psychoanalyse.“

42
Q

Was sind Bedingte und partielle Definitionen?

A

Diese sind mit einer Bedingung verknüpft, die gelten muss, damit ein Begriff angewendet werden kann. Über die Anwendbarkeit eines bedingt definierten Begriffs lässt sich keine Aussage machen, solange die Bedingung noch nicht bezeichnet ist; deshalb ist der Begriff auch nur partiell definiert. Bedingte und partielle Definitionen treten häufig in Form operationaler Definitionen auf, in denen neben dem einzuführenden Begriff eine Testbzw. Prüfoperation und, so Groeben und Westmeyer, ein Testoder Prüfresultat vorkommen, z.B.: „Für alle Personen p gilt: Wenn p den HAWIE (HamburgWechsler-Intelligenz-Test) mitmacht, dann hat p eine hohe Wechsler-Intelligenz per definitionem genau dann, wenn p im HAWIE einen IQ erreicht, der im Intervall 110 – 117 liegt“ (Groeben & Westmeyer, 1981, S. 56). Gerade an diesem Beispiel lässt sich die Kritik von Radnitzky (1992) an operationalen Definitionen gut verdeutlichen. Demnach weichen operationale Definitionen dem Problem der Bedeutungsgebung aus, indem sie Definition und Feststellungsmethode vermischen. Ein sprachliches Zeichen kann aber nur durch andere sprachliche Zeichen definiert werden. Zudem ergibt sich bei operationalen Definitionen für jede Messmethode je ein neuer Begriff, was in dem Beispiel auch konsequent durchgehalten wird, da von „hoher Wechsler-Intelligenz“ und eben nicht von „Intelligenz“ oder „hoher Intelligenz“ gesprochen wird. Bei Anwendung eines anderen Intelligenztests, könnte dann eben nicht mehr von „hoher Wechsler-Intelligenz“ gesprochen werden, sondern z.B. von „hoher Berliner Intelligenz-StrukturtestIntelligenz“. Der bekannte Ausspruch „Intelligenz ist, was der Intelligenztest misst“ müsste demnach genauer heißen „Die Intelligenzen „i … n“ sind jeweils das, was die Intelligenztests „i …n“ messen“. Was Intelligenz oder hohe Intelligenz genau bedeutet, wissen wir dadurch allerdings nicht, wir wissen nur, wie wir sie messen können.

43
Q

Was ist eine Explikation?

A

Bei einer Explikation wird ein Begriff weiterentwickelt, indem ein unexaktes Explikandum in ein exakteres Explikat überführt wird. Begriffsexplikationen sind in der Psychologie insbesondere dann notwendig, wenn umgangssprachliche Begriffe (z.B. Angst, Persönlichkeit, Wille) als wissenschaftliche Begriffe verwendet werden sollen.

44
Q

Was sind die 4 Bedingungen dafür, daß ein Begriff als adäquates Explikat für ein gegebenes Explikandum gelten kann?

A
  1. Ähnlichkeit mit dem Explikandum: das Explikat muss in den meisten Fällen, in denen bisher das Explikandum verwendet wurde, anwendbar sein;
  2. Exaktheit: für Explikata müssen präzise Gebrauchsregeln und Anwendungsvorschriften vorhanden sein;
  3. Fruchtbarkeit: das Explikat führt zu allgemeinen Aussagen und macht neue Beziehungen deutlich, die mit dem Explikandum nicht deutlich geworden wären;
  4. Einfachheit (nachgeordnet).
45
Q

Wie unterscheiden sich Definition und Explikation?

A

Bei einer Definition wird einem neuen Zeichen eine bestimmte Bedeutung zugeordnet; eine Explikation basiert dagegen auf einem bereits gebräuchlichen Zeichen, dessen Bedeutung eingegrenzt und präzisiert wird (Groeben & Westmeyer, 1981, S. 58). Im wissenschaftlichen Alltagsgeschäft werden die Begriffe Definition und Explikation oft synonym verwendet. So wurden oben zwei „Definitionen“ von Persönlichkeit angegeben; da es sich bei „Persönlichkeit“ um einen auch in der Alltagssprache gebräuchlichen Begriff handelt, der zumeist evaluativ verwendet wird (Jemand hat z.B. eine schillernde Persönlichkeit), hätte strenggenommen von Explikationen gesprochen werden müssen. Ein per definitionem neu eingeführter Begriff kann natürlich im Laufe der theoretischen Entwicklung weiter expliziert werden, was möglicherweise zu einer Veränderung seiner Kernintension führen kann.

46
Q

Wann sind unterschiedliche Explikata ein Problem?

A

Wenn sie bei praktischen Fragestellungen eine Rolle spielen und Entscheidungen vorbereiten sollen, die für eine betroffene Person dann mit unterschiedlichen Konsequenzen verbunden sind. Im Abschnitt 4.4 des Kurses 03400 wird darauf hingewiesen, dass zwischen den beiden international verbreiteten Systemen zur Klassifikation psychischer Störungen (ICD 10 und DSM-IV-TR) zwar weitgehende Einigkeit im Hinblick auf die Störungskategorien besteht, nicht immer aber im Hinblick auf die damit verbundenen Definitionen und Explikationen. Wenn aber keine Einigkeit über die Diagnosekriterien vorherrscht, dann können im Extremfall auch unterschiedliche Diagnosen resultieren, je nachdem welches Explikat ein Diagnostiker anwendet.