M02 Forschungsmethoden & Statistik I Flashcards

(89 cards)

1
Q

Alltagspsychologie vs. wissenschaftliche Psychologie

A

Während die Alltagspsychologie alle Menschen betrifft und vor allem genutzt wird, um eigene Beobachtungen und Erlebnisse selbst zu begründen und verstehen, basiert die wissenschaftliche Psychologie auf wissenschaftlichen Methoden. Annahmen der Alltagspsychologie sind nicht zwangsläufig falsch, unterliegen jedoch häufig kognitiven Verzerrungen und subjektiven Fehlschlüssen. In der wissenschaftlichen Psychologie hingegen werden psychologische Theorien und Hypothesen methodisch untersucht und objektive, zuverlässige und gültige Aussagen und Ergebnisse erzielt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Vorurteile bei alltagspsychologischen Annahmen

A
  • Auch wenn ich mein Handeln auf einer falschen Annahme aufbaue, kann das gewünschte oder vorhergesagte Ergebnis ohne mein Zutun trotzdem eintreten, weil ich Glück oder Pech habe.
  • Alltagspsychologische Annahmen beeinflussen unser Handeln. Durch unser Handeln können wir aber u.U. das erwartete Ergebnis herbeiführen, auch wenn diese alltagspsychologische Annahme falsch ist.
  • Was wir wahrnehmen und erinnern, ist oft von unseren Wünschen, Erwartungen etc. beeinflusst und verzerrt. Dies kann z.B. dazu führen, dass eine falsche alltagspsychologische Annahme nicht als solche erkannt wird.
  • Bei der Anwendung alltagspsychologischen Wissens ist es oft schlicht irrelevant, ob das Wissen richtig oder falsch oder auch widersprüchlich ist. Wir verwenden es häufig nur dazu, um uns bestimmte Vorgänge nachträglich zu erklären.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Allgemeine Psychologie

A

Sucht nach grundlegenden Prinzipien menschlichen Erlebens und Verhaltens, soweit sie allen Menschen gemeinsam sind. Diese wird mit Experimenten und weiteren wissenschaftlichen Verfahren untersucht.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Angewandte Psychologie

A

Nutzbarmachung der Erkenntnisse der psychologischen Grundlagenforschung für die Praxis. Diese basiert auf grundlegenden psychologischen Methoden der Diagnostik, Problemanalyse, Evaluation, umfasst aber auch Experimente und Beobachtungsverfahren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Differentielle Psychologie

A

Erfassen und erklären von individuellen Unterschieden im menschlichen Erleben und Verhalten. Diese wird oft mit psychologischen Tests, Fragebogen und Interviews untersucht.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Entwicklungspsychologie

A

Untersuchung des Menschen aus der Perspektive seiner lebenslangen Veränderung. Die Forschungsmethoden richten ihr Hauptinteresse auf den Vergleich verschiedener Altersgruppen oder auf langjährige Beobachtung von Einzelpersonen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Klinische Psychologie

A

Konzentration auf Entstehung, Aufrechterhaltung und Veränderung von Krankheiten und Störungen, insbesondere psychischer oder psychosomatischer Natur, und deren Auswirkungen. Dabei liegt der Fokus auf Entwicklung und Evaluation von Diagnose- und Interventionstechniken.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Pädagogische Psychologie

A

Sozialisierungsprozesse, speziell im Bereich der schulischen Erziehung. Die eingesetzten Untersuchungsmethoden reichen von systematischen Beobachtungen in natürlichen Situationen bis zu Laborexperimente.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Sozialpsychologie

A

Wie beeinflussen soziale Beziehungen individuelles menschliches Erleben und Verhalten. Diese Frage wird oft mittels Verfahren der Selbst- und Fremdbeurteilung sowie Beobachtungen untersucht.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Psychologische Fachbereiche

A
  • Allgemeine Psychologie
  • Angewandte Psychologie
  • Differentielle Psychologie
  • Entwicklungspsychologie
  • Klinische Psychologie
  • Pädagogische Psychologie
  • Sozialpsychologie
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Grundlegendes Vorgehen in der Literatursuche

A
  • Was suchen: Übersicht über das Thema gewinnen, Suchbegriffe sammeln
  • Grobe Suche, um ersten Überblick zu bekommen
  • Suche nach Review-Artikeln via Google Scholar
  • Relevante Begriffe / Schlagwörter / Deskriptoren sammeln
  • Wortliste zusammenstellen, Synonyme und verwandte Begriffe einbeziehen (inkl. Übersetzungen ins Englische)
  • Recherche / erste Evaluation
  • Suchen mit Google Scholar
  • Alternativen zu Google Scholar: ScienceDirect, PubMed, JSTOR (Journal STORage)
  • Quellen lesen, Suche vertiefen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Aufsetzung eines Experimentes

A
  1. Fragestellung: Was wollen wir herausfinden? Was interessiert uns?
  2. Hypothese: Wie lässt sich die Forschungsfrage provisorisch beantworten? Welche Voraussagen können wir aufgrund bestehender Literatur oder Pilotstudien machen?
  3. Bestimmung der unabhängigen Variable(n) (UV): Was wird manipuliert? Was wird verglichen? Bestimmung von Experimental- und Kontrollgruppe(n)
  4. Manipulation Check: Sinnvoll, wenn nicht klar ist, ob eine unabhängige Variable funktioniert. Z.B. wenn man die Annahme trifft, dass eine Komödie positive Stimmung herbeiführt, muss dies noch überprüft werden, dass die Komödie wirklich zur positiven Stimmung führt.
  5. Bestimmung & Operationalisierung der abhängigen Variable(n) (AV): Was wird gemessen? Wie wird gemessen?
  6. Güte der Operationalisierung: Konstruktvalidität
  7. Wahl des Versuchsplans: Wie ist die Studie aufgebaut? Planung des logischen Ablaufs eines Versuches.
  8. Kontrolle von Störvariablen: Ist ein Effekt auf die Manipulation einer UV zurückzuführen? Solche Variablen müssen neutralisiert werden.
  9. Bei gelungener Kontrolle ist die interne Validität gewährleistet und somit ist die Kausalität der Ursache und Wirkung sichergestellt.
  10. Zuteilung zu Experimental- und Kontrollgruppe per Randomisierung aber auch Parallelisierung (z.B. nach Geschlecht). Wenn keine Paralleliserung durchgeführt wird, kann getestet werden, ob Charaktereigenschaften wie Alter, Motivation etc. zwischen den Gruppen stark differenzieren.
  11. Statistische Hypothese: Ableitung einer statistischen Hypothese von der Sachhypothese abgeleitet. Dabei werden erwartete Ergebnisse in quantitative Form gebracht. Es wird eine Nullhypothese (H0) und eine Alternativhypothese (H1) aufgestellt, welche sich sachlogisch ausschliessen müssen.
  12. Stichprobe: Auswahl und Rekrutierung der teilnehmenden Personen. Die Stichprobe ist wichtig für die externe Validität: Aus der Grundgesamtheit wird eine Stichprobe gezogen und aus den Ergebnissen der Stichprobe können mit schliessender Statistik / Inferenzstatistik wieder auf die Grundgesamtheit zurückgeschlossen werden.
  13. Durchführung: Detailplanung des praktischen Ablaufs. Wichtig ist eine Ausarbeitung einer detaillierten Instruktion.
  14. Auswertung: Wahl des geeigneten Analyseverfahrens. Güte-Kriterium: Validität statistischer Schlussfolgerungen
  15. Schluss auf die Sachhypothese: Vergleich von Vorhersage und Ergebnis und Ermittlung, ob Hypothese bestätigt werden konnte oder nicht.
  16. Ergebnisaufbereitung: Beschreibung und Diskussion der Resultate und Verfassen eines Berichts / Publikation.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hypothese

A

Eine Hypothese ist eine beliebige Aussage, die man provisorisch für bestimmte Zwecke als wahr annimmt, auch wenn man nicht oder zumindest nicht genau weiss, ob sie wirklich wahr ist oder nicht.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Arten von Hypothesen

A
  • Universelle Hypothesen: Gelten für alle Fälle einer bestimmten Art.
  • Strikt universelle Hypothesen: Ohne Einschränkung für alle Fälle eines Bereiches
  • Nicht strikt oder quasi-universelle Hypothesen: Eingeschränkt, z.B. nicht alle Menschen, sondern nur alle Menschen weiblichen Geschlechts.
  • Fast universelle (pseudo-universell) Hypothesen: Universelle Hypothesen, die Abweichungen / Ausnahmen erlauben. Eigentlich Hypothesen über Anteile, die behaupten, dass ein hoher Anteil (unbestimmt) der Fälle zutrifft.
  • Hypothesen über Anteile: Beziehen sich auf eine bestimmte Prozentzahl, z.B. 88-95% aller Menschen sind Rechtshänder
  • Existenzielle Hypothesen: Behaupten das Vorhandensein eines Phänomens für mindestens einen Fall.
  • Ungerichtete und gerichtete Hypothesen: Bei einer ungerichteten Hypothese wird keine Aussage bezüglich der Richtung des vorausgesagten Effektes gemacht. Es wird z.B. gesagt, dass es etwas verändert, aber nicht wie oder in welche Richtung. Bei einer gerichteten Hypothese wir die Richtung vorausgesagt.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Überprüfen von Hypothesen

A

Um Hypothesen mit der Wirklichkeit zu vergleichen, folgen wir vereinfacht folgendem Prozess:
1. (Sach-)Hypothese
1. Empirische Vorhersage: Eine empirische Vorhersage beinhaltet bereits Operationalisierungen (Bedingungen) und lässt darauf schliessen, wie die Hypothese untersucht wird. Somit sind empirische Vorhersagen konkreter wie Hypothesen und beinhalten bereits Hinweise, wie genau die Hypothese untersucht wird.
1. Realisierung: Umsetzung, kann aktiv (bei Experimenten) oder passiv (bei nicht-experimenteller Forschung) sein
1. Vergleich Vorhersage und Wirklichkeit: Wie weit stimmen Ereignisse mit Vorhersage überein
1. Ergebnis: Falsifikation (Widerlegung) vs. Verifikation (Bestätigung). Bedeutung von Replikationen zur Absicherung von Ergebnissen.
1. Die Prüfung der Hypothesen sollte so streng wie möglich sein.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Ergebnis je nach Art der Hypothese

A

Beim Ergebnis gilt es zu bemerken, dass die meisten Hypothesen zu gross sind, dass alle Fälle untersucht werden können. Wenn z.B. eine Hypothese über alle Menschen des weiblichen Geschlechts spricht, ist es unmöglich alle diese Menschen zu untersuchen. Je nach Hypothese muss entsprechend beachtet werden:
* Universelle Hypothesen können nicht verifiziert werden, da es schlicht zu viele Fälle gibt. Sie können jedoch falsifiziert werden, indem man mindestens einen Fall findet, der der Hypothese widerspricht. Sollte eine universelle Hypothese empirisch geprüft und dabei nicht falsifiziert werden, nennt man sie bestätigt oder bewährt. Dabei werden auch Grade der Bewährung berücksichtigt, wobei ein mehrmals repliziertes Ergebnis als gut bewährt gilt.
* Existenzielle Hypothesen können verifiziert werden indem mindestens ein zutreffender Fall gefunden wird. Sie können allerdings nicht falsifiziert werden.
* Hypothesen über Anteile können weder falsifiziert noch verifiziert werden, da die Anteile in einer kleineren Untergruppe immer verzerrt werden können. Mittels statistischer Methoden kann man jedoch oft einen ungefähren Bewährungsgrad bestimmen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Vorbedingungen zur Überprüfbarkeit von Hypothesen

A
  • Widerspruchsfreiheit
  • Kritisierbarkeit: Mögliche Ergebnisse, welche die Hypothese falsifizieren. Ist eine Hypothese nicht kritisierbar, ist sie immun gegen die Prüfung.
  • Operationalisierbarkeit: Den Begriffen in der Hypothese können beobachtbare Daten zugeordnet werden.
  • Die Hypothese muss vor der Prüfung aufgestellt werden.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Kriterien für gute Hypothesen

A
  • Präzise Formulierung.
  • Empirischer Gehalt (Testbarkeit): Gibt an wie informativ eine Hypothese ist, und ist umso grösser, je grösser die Zahl der Falsifikationsmöglichkeiten ist.
  • Logische Konsistenz.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Theorien

A

Eine Theorie ist ein System von Hypothesen. Bei der Prüfung von Theorien passiert es häufig, dass ein Teil der Hypothesen empirisch bestätigt wurde und andere nicht. Des Weiteren ist es schwierig eine Theorie zu verwerfen, sollte auch nur eine Hypothese falsifiziert werden. Daher werden in der Praxis Theorien oft verglichen und die insgesamt am besten bewährte wird vorläufig beibehalten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Variablen

A

Variablen sind Merkmale von Menschen, Objekten, Tiere, die operationalisiert bzw. messbar gemacht werden müssen. Eine Variable hat mindestens zwei Abstufungen. Im einfachsten Fall trifft eine Variable zu oder nicht – also zwei Abstufungen, 0 oder 1. Eine Variable kann aber auch sehr viele Abstufungen haben und da auch oft viele Kombinationen möglich sind, kann die Variable sehr viele Ausprägungen haben. Variablen mit sehr vielen Abstufungen kann man stets auf wenige Stufen reduzieren, dabei gehen allerdings Informationen verloren. Die Stufen der UV werden experimentelle Bedingung genannt.
Variablen können mehr oder weniger beobachtungsnah sein. Es gibt also beobachtungsnahe (konkrete, manifeste) Variablen sowie beobachtungsferne (latente, abstrakte) Variablen. Für letztere brauchen wir spezielle Methoden (in der Regel ein Test) um sie indirekt beobachten zu können.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Experiment

A

Bei einem Experiment verändert der Versuchsleiter (Vl) aktiv min. eine unabhängige Variable (UV) und beobachtet die Wirkung dieser Veränderung an min. einer abhängigen Variable (AV). Gleichzeitig schaltet er die Wirkung der Störvariablen aus.
Weitere wichtige Abkürzungen: Versuchsperson (Vp(n)) / Proband (Pb) / Subjekt (S), Versuchstier (Vt)
Mit einem Experiment werden in der Regel universelle oder fast-universelle Hypothesen geprüft.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Experimentelle vs. nicht-experimentelle Forschung

A
  • Experimente ermöglichen die Untersuchung von Ursache-Wirkungs-Beziehungen.
  • Nicht-experimentelle Forschung (z. B. Korrelationsstudien) erlaubt nur begrenzte Schlussfolgerungen.
  • Während bei der experimentellen Forschung Versuchsleiter aktiv ins Geschehen eingreifen, werden bei der nicht-experimentelle Forschung Variablen lediglich beobachtet und Zusammenhänge überprüft. Nicht-experimentelle Studien erlauben daher meist keine Aussagen bezüglich Kausalität, da keine Variable aktiv manipuliert wird und Störvariablen nicht aktiv kontrolliert werden.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Arten von Variablen

A
  • Unabhängige Variable (UV): wird systematisch manipuliert. Werden teilweise auch Treatment oder Faktor genannt.
  • Abhängige Variable (AV): wird gemessen und von der UV beeinflusst. Werden teilweise auch Messindikator oder Messgrösse genannt.
  • Störvariablen: unerwünschte Einflussfaktoren, die kontrolliert werden müssen. Bei ungenügender Kontrolle kann es zu einer Konfundierung kommen, d.h. der Einfluss der UV ist nicht vom Einfluss einer Störvariable zu trennen.
  • Häufig werden in einem Experiment nebst der Manipulation von mindestens einer UV zusätzlich noch nicht aktiv manipulierte Variable erhoben und in die Analysen miteinbezogen (z.B. Geschlecht). Diese Art von Variablen nennt man organismische Variable. Werden in einer Studie nur organismische Variablen betrachtet (z.B. Vergleich alt vs. jung), dann handelt es sich um eine nicht-experimentelle Studie.
  • Moderatorvariable: Wenn die Gültigkeit einer Hypothese von einem Merkmal der Person oder einem der Situation abhängt.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Kontrolle von Störvariablen

A
  • Randomisierung: zufällige Zuordnung von Versuchspersonen.
  • Konstanthaltung: Man sorgt dafür, dass die Störvariable während des gesamten Experimentes den gleichen Wert hat.
  • Elimination: Ausschaltung störender Faktoren.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Arten von Experimenten
* Klassifikation nach dem Ziel * Klassifikation nach Zahl der UVn (einfaktoriell vs. mehrfaktoriell) * Klassifikation nach Zahl der AVn (univariat vs. multivariat) * Klassifikation nach Ort der Durchführung (Labor vs. Internet vs. Feld) * Experimente vs. Quasi-Experimente
26
Quasi-Experiment
Bei Quasi-Experimenten können relevante Störvariablen nicht kontrolliert werden. Relevante Störvariablen sind: * Randomisierung: Es gibt keine Möglichkeit, Vpn randomisiert den experimentellen Bedingungen zuzuteilen und es werden bestehende Gruppen getestet (z.B. Schulklassen). * Langer Zeitraum: Externe Einflüsse bei Studien über längere Zeit können nicht permanent kontrolliert werden.
27
Versuchspläne für Quasi-Experimente
Eine Möglichkeit der Gegenwirkung zu Störvariablen in Quasi-Experimenten sind Versuchspläne mit nichtäquivalenter Kontrollgruppe. Wenn z.B. eine Gruppe gleichzeitig als Kontrollgruppe ersucht werden, dann gibt es unterschiedliche Störvariablen in den beiden Gruppen (z.B. andere Lehrer, andere Geschlechtsverteilung etc.). * Zeitreihenversuchspläne: Die AV wird zu mehreren Zeitpunkten gemessen in der Annahme, dass die Störvariablen zu unterschiedlichen Zeitpunkten unterschiedlich sein können. Zeigt sich entsprechend Beständigkeit über die Zeitreihen, kann davon ausgegangen werden, dass die Manipulation eine Veränderung der AV hergeführt hat und eine Korrelation besteht. * Versuchsplan mit Reversion (ABAB-Versuchsplan): Über vier Zeitpunkte hinweg, werden einer Vp zwei Mal (1. und 3. Zeitpunkt) das Medikament und zwei Mal (2. und 4. Zeitpunkt) ein Plazebo abgegeben und die jeweiligen Ergebnisse gemessen. Dies kann auch mehr wie vier Mal gemacht werden, wobei wichtig ist, dass es immer abwechlungsweise durchgeführt wird
28
Klassifikation nach dem Ziel
* Prüfexperimente: Eine oder mehrere Hypothesen prüfen * Explorationsexperimente: Daten sammeln, welche die Bildung einer neuen Hypothese gestatten * Vorexperimente: Im Rahmen einer Planung eines Experimentes
29
Klassifikation nach Zahl der UVn
* Einfaktorielle Experimente: Eine UV wird manipuliert. Wenn die eine UV mehrere Stufen hat, z.B. drei, dann gibt es drei experimentelle Bedingungen. * Mehrfaktorielle Experimente: Mehr als eine UV wird manipuliert. Bei mehrfaktoriellen Experimenten bilden die Kombinationen der verschiedenen Stufen der UVn die experimentellen Bedingungen.
30
Klassifikation nach Zahl der AVn
* Univariate Experimente: Eine AV wird erhoben. * Multivariate Experimente: Mehr als eine AV wird erhoben.
31
Klassifikation nach Ort der Durchführung
* Laborexperimente: Gute Kontrolle der Störvariablen, jedoch eingeschränkte Generalisierbarkeit. * Internetexperimente: Das ganze Experiment ist programmiert und online zugänglich. Die Vorteile dazu sind, dass es keinen Kontakt zwischen Vpn und Vl gibt, es ein anonymer Rahmen ist und freiwilliger Teilnahme unterliegt, sowie dass die Vp in einem gewohnten Umfeld ist. Dagegen sind die Nachteile, dass der Vl weniger Kontrolle bei der Auswahl der Stichprobe und keine Kontrolle bezüglich Durchführung und Richtigkeit der Angaben hat sowie nicht alle Experimente online durchführbar sind. * Feldexperimente: In der natürlichen Umwelt durchgeführt. Dies bietet eine hohe Generalisierbarkeit, aber dafür eine eingeschränkte Kontrolle der Störvariablen.
32
Operationalisierungstechniken
* Verhaltensbeobachtung * Befragung: Qualitative Befragungen (offene Fragen), Quantitative Befragungen (numerische Skalen), Standardisierte Fragebogen (bereits validiert) * Test * Physiologische Messung * Nicht-reaktive Verfahren (Analyse von Verhaltensspuren) * Multimethodale Erfassung menschlichen Erlebens und Verhaltens: Kombination von verschiedenen Techniken
33
Operationalisierung
* Messbarmachung: Definition abstrakter Begriffe durch messbare Indikatoren oder in anderen Worten Zuordnung von beobachtbaren Phänomenen zu einer Hypothese. * Genaue Bestimmung von UV AV Beispiel: "Aggression" als Anzahl aggressiver Handlungen z.B. Anzahl Fouls in einem Unihockeyspiel, wobei Fouls anhand von bekannten Regelwerken definiert sind.
34
Verhaltensbeobachtung
Die Beobachtung des Verhaltens von Individuen oder Gruppen in natürlichen oder experimentellen Settings. Dabei kann sie systematisch (mit festgelegten Kriterien) oder unsystematisch erfolgen. Vorteile: * Direkte Erfassung des Verhaltens ohne Verzerrung durch Selbstauskunft. * Ermöglicht eine detaillierte Analyse von Interaktionen und nonverbalem Verhalten. * Kann in natürlichen oder experimentellen Kontexten durchgeführt werden. Nachteile: * Hohe Anfälligkeit für Beobachtereffekte und Verzerrungen (Rosenthal-Effekt, soziale Erwünschtheit). * Kosten- und zeitintensiv, insbesondere bei langfristigen Beobachtungen. * Begrenzte Reproduzierbarkeit und geringe Standardisierbarkeit.
35
Befragung
Qualitative Befragungen (offene Fragen): Unstrukturierte oder halbstrukturierte Interviews, in denen Probanden frei auf Fragen antworten können. * Vorteile: Liefert tiefgehende Einblick in subjektive Erfahrungen und daher eine hohe Flexibilität und Anpassbarkeit. * Nachteile: Hoher Auswertungsaufwand und geringe Vergleichbarkeit. Quantitative Befragungen (numerische Skalen): Geschlossene Fragen mit festgelegten Antwortmöglichkeiten, oft in Form von Likert-Skalen oder Multiple-Choice-Fragen. * Vorteile: Leicht quantifizierbar und statistisch auswertbar. * Nachteile: Begrenzte Tiefe der Antworten und mögliche Verzerrungen durch soziale Erwünschtheit. Standardisierte Fragebogen (bereits validiert): Fragebögen mit validierten und reliablen Skalen zur Messung psychologischer Merkmale. * Vorteile: Hohe Reliabilität und Vergleichbarkeit * Nachteile: Eingeschränkte Flexibilität
36
Test
Standardisierte Verfahren zur Messung bestimmter Merkmale oder Fähigkeiten, z. B. Intelligenz-, Leistungstests. Vorteile: * Objektive und zuverlässige Messung von Fähigkeiten. * Hohe Standardisierung und Vergleichbarkeit. * Oft gute Vorhersagekraft für relevante Kriterien (z. B. Berufserfolg). Nachteile: * Mögliche Übungseffekte oder Testangst beeinflussen Ergebnisse. * Nicht immer realitätsnah, da Tests oft künstliche Situationen darstellen. * Manche Tests sind anfällig für bewusste Manipulation.
37
Physiologische Messung
Erfassung biologischer oder neurologischer Reaktionen (z. B. Herzfrequenz, Hautleitfähigkeit, EEG, fMRT). Vorteile: * Direkte, objektive Erfassung physiologischer Prozesse. * Keine Verzerrung durch Selbstauskunft oder soziale Erwünschtheit. * Besonders geeignet für Emotions- oder Stressforschung. Nachteile: * Hoher technischer und finanzieller Aufwand. * Interpretation physiologischer Daten oft nicht eindeutig. * Eingeschränkte Anwendbarkeit im Alltag.
38
Nicht-reaktive Verfahren (Analyse von Verhaltensspuren)
Analyse von unbeabsichtigt hinterlassenen Spuren (z. B. Tagebücher, Social-Media-Daten, Bibliotheksnutzung) indem dem Vp die Beobachtung nicht bewusst ist. Vorteile: * Keine Verzerrung durch Reaktivität oder soziale Erwünschtheit. * Zugang zu historischen oder umfangreichen Datenquellen. * Oft kosteneffizient, wenn Daten bereits vorhanden sind. Nachteile: * Begrenzte Kontrolle über Datenqualität und -verfügbarkeit. * Interpretation kann herausfordernd sein. * Ethische Fragen hinsichtlich Datenschutz und Einwilligung.
39
Multimethodale Erfassung menschlichen Erlebens und Verhaltens
Kombination von verschiedenen Techniken: Kombination mehrerer Methoden zur Erfassung komplexer psychologischer Phänomene (z. B. Kombination von Fragebögen mit physiologischen Messungen). Vorteile: * Höhere Validität durch Triangulation unterschiedlicher Methoden. * Kompensation methodischer Schwächen einzelner Verfahren. * Verbesserte Generalisierbarkeit der Ergebnisse. Nachteile: * Sehr aufwendig in Durchführung und Analyse. * Hoher Ressourcenbedarf (Zeit, Geld, technische Ausstattung). * Erfordert methodische Expertise zur Kombination und Interpretation der Daten.
40
Skalenniveaus
Je nach Skalenniveau werden Daten anders analysiert, da nominal-, ordinal- und metrische Daten unterschiedliche statistische Verfahren verlangen. * Nominalskala (Kategorien ohne Rangordnung) * Ordinalskala (Rangordnung ohne gleiche Abstände)Kardinalskalierte / metrische Daten: Bei metrischen Daten dürfen Mittelwerte berechnet und das t-Test-Verfahren benutzt werden. * Intervallskala (gleiche Abstände, kein absoluter Nullpunkt) * Verhältnisskala (gleiche Abstände mit absolutem Nullpunkt) * Absolutskala
41
Nominalskala
Eine Nominalskala ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass Objekte mit gleicher Merkmalsausprägung gleiche Zahlen und Objekte mit verschiedenen Merkmalsausprägung verschiedene Zahlen erhalten * Nur Aussagen bezüglich Gleich- oder Verschiedenheit möglich * Bsp: Lieblingsfarbe, Geschlecht, Ja-/Nein-Antworten * Mittelwert kann nicht berechnet werden. Als statistischer Wert müssen Häufigkeiten errechnet werden. Ein mögliches statistisches Verfahren ist der Chi2-Test
42
Ordinalskala
Eine Ordinalskala ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass von jeweils 2 Objekten das Objekt mit der grösseren Merkmalsausprägung die grössere Zahl erhält. * Aussagen über Grösser- und Kleiner-Relationen möglich * Bsp: Windstärke, Rangreihen, Militärische Grade * Mittelwerte können nicht berechnet werden. Als statistischer Wert wird der Median verwendet. Ein mögliches statistisches Verfahren ist der u-Test.
43
Intervallskala
Eine Intervallskala ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass die Differenzen zwischen den einzelnen Skalenwerten den Merkmalsunterschieden zwischen den Objekten entsprechen. * Zusätzlich zu Grösser- und Kleiner-Relationen sind Aussagen über die Grösse der Verschiedenheit möglich, da Differenzen (Intervalle) zwischen Werten auf der Skala eindeutig sind * Intervallskalen haben keinen natürlichen Nullpunkt (der Nullpunkt wurde bei Celsius und Fahrenheit unterschiedlich gesetzt) und keine natürliche Einheit * Bsp: Intelligenzquotient, Kalenderzeit, Grad Celsius
44
Verhältnisskala
Eine Verhältnisskala ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass das Verhältnis zwischen je 2 Zahlen dem Verhältnis der Merkmalsausprägungen der jeweiligen Objekte entspricht * Zusätzlich zu Grösser- und Kleiner-Relationen und Aussagen über die Grösse der Verschiedenheit sind Aussagen über Verhältnisse möglich (z.B. a ist doppelt so schnell wie b) * Verhältnisskalen haben einen natürlichen Nullpunkt, aber keine natürliche Einheit (z.B. cm vs. Inch) * Bsp: Längen- und Gewichtsmessungen, Reaktionszeit, Grad Kelvin
45
Absolutskala
Eine Absolutskala ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass sie genau den Merkmalsausprägungen der jeweiligen Objekte entsprechen * Zusätzlich zu Grösser- und Kleiner-Relationen, Aussagen über die Grösse der Verschiedenheit und Aussagen über Verhältnisse sind Aussagen über die absolute Ausprägung des Merkmals in einer natürlichen Masseinheit möglich * Absolutskalen haben einen natürlichen Nullpunkt und eine natürliche Einheit * Auszählbare Mengen * Bsp: Anzahl Objekte auf dem Tisch, Zahl der Studierenden in diesem Saal, Anzahl Noten
46
Messtheorie
Wenn wir etwas messen, ordnen wir Messobjekten Zahlen, sogenannte Skalenwerte, zu. Diese gemessenen Skalenwerte bilden ein numerische Relationssystem, indem mathematische Relationen zwischen ihnen definiert werden können. Entgegengesetzt dazu ist das empirische Relationssystem, welches die tatsächlichen Werte abbildet, die allerdings nicht numerisch sind. Somit werden empirische Relationen durch numerische Relationen der gemessenen Skalenwerte repräsentiert.
47
Problemkreise des Messens
* Repräsentationstheorem / Repräsentationsproblem * Eindeutigkeitstheorem (Eindeutigkeitsproblem) * Bedeutsamkeitstheorem (Bedeutsamkeitsproblem)
48
Repräsentationstheorem
Repräsentationstheorem / Repräsentationsproblem: Fragen: * Entspricht das numerische Relativ dem empirische Relativ? * Werden empirische Relationen in den Skalenwerten korrekt abgebildet Voraussetzungen: * Das empirische Relativ muss durch das numerische Relativ angemessen repräsentiert werden. * Eine empirische Variable bzw. ein Konstrukt muss messbar sein
49
Eindeutigkeitstheorem
Eindeutigkeitstheorem (Eindeutigkeitsproblem) Fragen: * Welche Möglichkeiten gibt es, ein empirisches Relationssystem in einem numerischen abzubilden? * Welches sind zulässige Transformationen? Voraussetzungen: * Die Eigenschaften des empirischen Relativs muss im numerischen Relativ eindeutig abgebildet sein; wenn a > b > c (empirische Relation), dann muss auch s(a) > s(b) > s(c) sein (nummerische Relation) * Transformationen sind nur erlaubt, wenn die Eindeutigkeit erhalten bleibt (Ist abhängig vom Skalenniveau: Bei ordinalskalierten Daten darf ich z.B. quadrieren, bei verhältnisskalierten Daten nicht)
50
Bedeutsamkeitstheorem
Bedeutsamkeitstheorem (Bedeutsamkeitsproblem) Fragen: * Was bedeuten die Skalenwerte? * Welche Aussagen können aufgrund der Skalenwerte gemacht werden? Voraussetzungen / Schlussfolgerungen: * Je nachdem, was die Skalenwerte repräsentieren, ändert sich die Bedeutsamkeit der Daten bzw. die Schlüsse, die gezogen werden dürfen * Die mathematische “Weiterverarbeitung” der Daten ist abhängig von der Bedeutsamkeit bzw. vom Skalenniveau (bei nominalskalierten Daten darf ich z.B. keinen Mittelwert berechnen)
51
Versuchsplan
Der Versuchsplan beschreibt den Aufbau einer Untersuchung und sollte UV, AV, den zeitlichen Ablauf und ev. die Kontrolle der Störvariablen beinhalten. Es gibt keine fixen Regeln, wie ein Versuchsplan aufgestellt werden muss. Versuchspläne können schematisch, tabellarisch, rein semantisch oder grafisch sein. Ein Versuchsplan sollte es idealerweise erlauben, die Logik einer Untersuchung auf einen Blick zu erfassen. Im Versuchsplan sollte ausserdem vermerkt sein oder klar werden, ob es sich um eine Within-, ein Between- oder ein Mixed Design handelt.
52
Einfaktorielle Versuchspläne
Eine UV mit mindestens zwei Stufen wird manipuliert und mindestens eine AV wird erfasst.
53
Mehrfaktorielle Versuchspläne
Mindestens zwei UV werden manipuliert und mindestens eine AV wird erfasst. Die Stufen der verschiedenen UVn müssen vollständig miteinander kombiniert werden. Dies erlaubt nicht nur die Haupteffekte zu prüfen, sondern auch eine Interaktion zwischen den unabhängigen Variablen zu erfassen. Beispiel für ein 3x2 Versuchsplan mit 6 experimentellen Bedingungen
54
Versuchspläne ohne und mit wiederholter Messung
Between-Subjects-Design Within-Subjects-Design Mixed (Factorial) Design
55
Between-Subjects-Design
Versuchspläne ohne wiederholte Messung. Manipulation der UV(n) zwischen den Versuchspersonen – eine experimentelle Bedingung pro Vpn. Somit werden die Gruppen miteinander verglichen (z.B. experimentelle Gruppe und Kontrollgruppe).
56
Within-Subjects-Design
Versuchspläne mit wiederholter Messung. Manipulation der UV(n) innerhalb der Versuchspersonen, d.h. dieselben Personen durchlaufen alle Bedingungen. Somit würde z.B. jede Vp das effektive Medikament und das Placebo zu sich nehmen. Somit werden die Daten der verschiedenen Bedingungen verglichen, welche auch die Unterschiede zwischen den Bedingungen pro Vp beinhaltet. * Vorteile: Personenbezogene Störvariablen sind kontrolliert und ökonomischer, da mehr Daten mit weniger Vpn erzielt werden können. * Nachteile: Störvariablen aufgrund der Messwiederholung (Positions- und Carry-Over-Effekte) und das Experiment kann sehr lange dauern.Wenn möglich werden Within-Designs angewendet
57
Positionseffekte
Mögliches Problem bei Within-Subjects-Designs. Zur Kontrolle: Die Reihenfolge der Bedingungen wird vertauscht. Eine Gruppe sollte somit zuerst das Placebo erhalten und die andere Gruppe zuerst das Medikament.
58
Carry-Over-Effekt
Mögliches Problem bei Within-Subjects-Designs. Der Carry-Over-Effekt (Übertragungseffekt) bedeutet, dass eine vorhergehende experimentelle Bedingung eine spätere Bedingung inhaltlich beeinflusst. Dabei geht es nicht um die absolute Position einer Bedingung im Experiment, sondern darum, welche spezifische(n) Bedingung(en) vorher durchgeführt wurden. Wenn in der ersten Bedingung eine Belohnung angeboten wurde und bei der zweiten nicht, dann sind Vpn, welche die erste Bedingung zuerst durchlaufen haben, bei der zweiten Bedingung nicht mehr gleich motiviert. Es gibt keine spezifische Lösung für dieses Problem, ausser dass zwischen den beiden Bedingungsdurchführungen so viel Zeit wie möglich liegt.
59
Mixed (Factorial) Design
Mehrfaktorielle Versuchspläne mit mindestens einer Variable, die zwischen den Versuchspersonen und mindestens einer Variable, die innerhalb der Versuchspersonen manipuliert wird.
60
Kontrolle von Positionseffekten
* Vollständiges Ausbalancieren: Vollständiges Ausbalancieren eliminiert Positionseffekte perfekt, ist aber oft nicht praktikabel. * Unvollständiges Ausbalancieren: Unvollständige Methoden sind pragmatische Lösungen zur Kontrolle von Positionseffekten. * Zufallsauswahl * Spiegelbildmethode * Methode des Lateinischen Quadrates
61
Vollständiges Ausbalancieren
* Alle möglichen Reihenfolgen der experimentellen Bedingungen werden realisiert. * Jeder Reihenfolge wird eine gleich grosse Anzahl an Versuchspersonen (Vpn) zugewiesen. * Dadurch gleichen sich Positionseffekte über alle Vpn hinweg aus. * Problem: Die Anzahl der möglichen Reihenfolgen steigt mit der Anzahl der experimentellen Bedingungen exponentiell (n!).
62
Unvollständiges Ausbalancieren
Zufallsauswahl: Reihenfolge der Bedingungen wird per Zufall für jede Vp bestimmt.Besonders effektiv bei einer hohen Anzahl an Vpn. Spiegelbildmethode: Eine Reihenfolge wird gewählt und danach umgekehrt wiederholt (z. B. xyz zyx). * Voraussetzung: Jede Bedingung muss zweimal durchführbar sein, und der Positionseffekt muss linear verlaufen. Methode des Lateinischen Quadrates: Jede experimentelle Bedingung erscheint gleich oft an jeder Position. Dies hat zur Folge, dass es gleich viele Reihenfolgen wie Bedingungen gibt. * Reduziert die Anzahl der benötigten Reihenfolgen erheblich, bleibt aber methodisch kontrolliert.
63
Typen von Störvariablen
* Personenbezogene Störvariablen: Die Charakteristiken der Vpn konfundiert mit der UV. * Umweltbezogene Störvariablen: Die Untersuchungssituation konfundiert mit der UV * Störvariablen bei Messwiederholung: z.B. Positionseffekt oder Carry-Over-EffektStörvariablen bei sozialen Effekten
64
Güte der Operationalisierung
Operationalisierung bedeutet ein abstraktes Konzept (z. B. „Stress“, „Intelligenz“, „Angst“) in messbare Grössen umzuwandeln. Beispiel: „Stress“ kann operationalisiert werden durch Herzfrequenz, Kortisolspiegel oder Fragebögen. Die Güte der Operationalisierung zeigt wie gut oder schlecht die Operationalisierung umgesetzt wurde: * Eine gute Operationalisierung erfasst das psychologische Konstrukt präzise und ohne Verzerrung. * Schlechte Operationalisierung kann zu falschen Ergebnissen führen.
65
Konstruktvalidität
Die Konstruktvalidität beschreibt, wie gut eine Messmethode tatsächlich das zugrunde liegende Konzept erfasst. Beispiele: * Hohe Konstruktvalidität: Ein Intelligenztest misst wirklich Intelligenz (und nicht z. B. nur Allgemeinwissen). * Niedrige Konstruktvalidität: Wenn du „Stress“ mit Körpergrösse misst – das hat keinen Zusammenhang! Konstruktvalidität wird geprüft mit: * Inhaltsvalidität: Enthält die Messung alle wichtigen Aspekte des Konstrukts? (z. B. IQ-Test sollte logisches Denken, räumliches Vorstellungsvermögen usw. abdecken. * Konvergente Validität: Hängt die Messung stark mit anderen Messungen des gleichen Konstrukts zusammen? (z. B. zwei verschiedene Stress-Fragebögen sollten ähnliche Ergebnisse liefern) * Diskriminante Validität: Unterscheidet sich die Messung klar von anderen, nicht verwandten Konstrukten? (z. B. ein Depressions-Fragebogen sollte nicht nur allgemeine Müdigkeit messen)
66
Interne Validität
Interne Validität bezieht sich auf das Ausmass, in dem ein Experiment die Ursache-Wirkungs-Beziehung zwischen den unabhängigen und abhängigen Variablen tatsächlich misst, ohne dass die Ergebnisse durch Störfaktoren oder alternative Erklärungen verfälscht werden. Mit anderen Worten: Ein Experiment hat eine hohe interne Validität, wenn die Veränderungen in der abhängigen Variablen ausschliesslich auf die Manipulation der unabhängigen Variablen zurückzuführen sind und nicht auf andere, unbeeinflusste Faktoren. Um eine hohe interne Validität zu gewährleisten, müssen Forscher verschiedene Störfaktoren kontrollieren, wie z. B. zufällige Variationen zwischen den Versuchspersonen, experimentelle Fehler oder äussere Einflüsse, die das Ergebnis beeinflussen könnten.
67
Externe Validität
Wie gut lassen sich die Ergebnisse eines Experiments auf andere Situationen, Personen, Orte oder Zeitpunkte übertragen? Also: Gilt das, was wir im Labor finden, auch im echten Leben?
68
Randomisierung
Die Versuchspersonen werden per Zufall den Gruppen zugewiesen (z. B. Experimentalgruppe oder Kontrollgruppe). Jeder hat die gleiche Chance, in jeder Gruppe zu landen. Ziel: Störvariablen sollen sich zufällig verteilen, damit sie nicht systematisch eine Gruppe verzerren.
69
Parallelisierung
Die Versuchspersonen werden nicht zufällig, sondern gezielt so auf die Gruppen verteilt, dass wichtige Merkmale gleich verteilt sind. Ziel: Die Gruppen sollen sich gezielt in bestimmten Variablen gleichen, um diese Störvariablen zu neutralisieren.
70
Validität statistischer Schlussfolgerungen
Die Validität statistischer Schlussfolgerungen beurteilt, ob die verwendete Analyse korrekt war und die Ergebnisse sinnvoll interpretiert wurden. Es geht also nicht um den Inhalt der Studie, sondern darum, wie gut die Statistik ihren Job gemacht hat.
71
Stichprobe
Eine Stichprobe umfasst die Menschen (oder auch Tiere), die an einer Untersuchung teilnehmen. Sie stellt eine kleine Untermenge der Gesamtmenge (Grundgesamtheit/Population) dar.
72
Stichprobenarten
Zufallsauswahl: Jedes Element der Population hat die gleiche Chance, in die Stichprobe aufgenommen zu werden. * Dies erfordert eine vollständige Liste der Population und ein Zufallsverfahren (z. B. Lose, Zufallszahlen). * Hohe Kosten und organisatorischer Aufwand. Ohne Zufallsauswahl: Elemente werden nicht zufällig gewählt (z. B. durch persönliche Kontakte des Versuchsleiters). * Bequem, aber nicht repräsentativ für die Population. * Mit Schichtung (geschichtete Stichprobe): Stichprobe wird nach relevanten Merkmalen (z. B. Geschlecht, Bildungsgrad) in gleichen Anteilen zur Population zusammengesetzt. * Vorteil: Genauere Abbildung der Grundgesamtheit. * Nachteil: Bestimmte Merkmale lassen sich schwer erfassen.
73
Typen von Stichproben
* Zufallsstichprobe: Zufällig ausgewählt, keine Schichtung. * Geschichtete Zufallsstichprobe: Zufällig ausgewählt, aber zusätzlich geschichtet. * Anfallende Stichprobe: Probanden werden nach Verfügbarkeit ausgewählt (oft Psychologiestudierende), entsprechend weder zufällig ausgewählt, noch geschichtet. * Quotenstichprobe: Stichprobe wird anhand festgelegter Quoten für bestimmte Merkmale gezogen (geschichtet), jedoch ohne Zufallsauswahl. * Klumpenstichprobe: Die Klumpenstichprobe ist eine Methode, bei der ganze Gruppen (Klumpen) zufällig aus der Population ausgewählt werden, und alle Mitglieder eines Klumpens untersucht werden. Ein Beispiel ist die Auswahl ganzer Klassen aus einem Bundesland für eine Bildungsstudie. Da die Mitglieder eines Klumpens oft ähnlicher sind als zwischen Klumpen, benötigt man mehr Klumpen, um zuverlässige Ergebnisse zu erhalten. Die Auswertung erfordert spezielle statistische Verfahren, wie z. B. Mehrebenenanalysen.
74
Probleme bei der Stichprobenauswahl
* Eingeschränkte Generalisierbarkeit: Ergebnisse aus nicht-zufällig gewählten Stichproben (z. B. nur Studierende) sind nur bedingt auf die Gesamtbevölkerung übertragbar. * Freiwilligkeit der Teilnahme: Personen, die freiwillig mitmachen, unterscheiden sich oft systematisch von Nicht-Teilnehmern. * Operationalisierung von Schichtungskriterien: Manche Variablen (z. B. Einkommen) sind schwer zu erfassen. * Diese Aspekte sind entscheidend für die Qualität und Aussagekraft eines Experiments.
75
Haupteffekt
Wirkung einer UV. Bei mehrfaktoriellen Designs wird eine der mehreren UV isoliert betrachtet (unabhängig von anderen UVn). Pro UV ist entsprechend ein Haupteffekt möglich, es kann allerdings auch kein Haupteffekt geben, wenn es keinen schlüssigen Effekt der UV auf die AV hat.
76
Interaktion
Wechselwirkungen zwischen zwei oder mehreren UVn. Wenn UVn abhängig voneinander sind, dann gibt es eine Interaktion, wenn sie jedoch unabhängig voneinander auf die AV einwirken, dann gibt es keine Interaktion. In Abbildung kann letzteres durch «parallele Linie» erkannt werden, das heisst, dass der Unterschied der AV zwischen Bedingung 1 und 2 derselbe ist.Wird auch oft als Nicht-Additivität beschrieben: Wenn keine Interaktion vorliegt, können die Effekte der UVn auf die AV additiv zusammensetzen. Z.B. wird der Lernerfolg (AV) gemessen. Die beiden UVn sind einmal 9h oder 6h Schlaf und Gedächtnistraining oder kein Gedächtnistraining. Bei keinem Gedächtnistraining ist der Lernerfolg bei 9h Schlaf um 20% besser als bei 6h. Bei Gedächtnistraining ist der Lernerfolg von 9h ebenfalls 20% besser als bei 6h. Insgesamt ist bei 9h wie auch bei 6h entsprechend bei Gedächtnistraining der Lernerfolg besser als bei keinem.Die Anzahl der Interaktionen = Anzahl Kombinationen der UVn (2*(Anz. UVn-1))
77
Deskriptivstatistik
Beschreibende Statistik: Die deskriptive Statistik verfolgt das Ziel, empirische Daten durch Tabellen, Kennzahlen und Grafiken zu ordnen, zusammenzufassen und übersichtlich darzustellen
78
Inferenzstatistik
Schliessende oder induktive Statistik: * Rückschluss von der Stichprobe auf die Population. Eine repräsentative Stichprobe wird durch deskriptive Statistik formuliert. Mittels induktiver Statistik kann dann die deskriptive Statistik auf die Grundgesamtheit zurückgeschlossen. * Prüfung von Hypothesen
79
Häufigkeitsverteilungen
Deskriptivstatistik für metrische Variablen (kardinalskaliert) * Primäre Häufigkeitsverteilung: Entsteht aus der Urliste (ursprüngliche, ungeordnete Liste von Messdaten). Dabei wird die Urliste ein erstes mal gruppiert und geordnet. * Sekundäre Häufigkeitsverteilung: Kategorisiert die primäre Häufigkeitsverteilung, um die Messwerte zusammenzufassen. Die Faustregel zur Bestimmung der Anzahl Kategorien ist k , k = Anz. Merkmalsausprägungen. Kategoriengrenzen werden so definiert, dass sie genau zwischen dem grössten und dem kleinsten Messwert benachbarter Kategorien liegen. Die Kategorien der sekundären Häufigkeitsverteilung können gut dargestellt werden, womit gut ersichtlich ist, wie die Daten verteilt sind. Dies kann mittels Histogramms (Säulendiagramm) oder Polygonzug (Linie durch die oberen Mitten der Säulen beim Histogramm) geschehen.
80
Verteilungsformen für metrische Variablen
Theoretisch sind unendlich viele Verteilungsformen möglich. In der Psychologie wird häufig die Normalverteilung verwendet (unimodale, symmetrische Verteilungen mit glockenförmigem Verlauf). Symmetrische Verteilungen sind links und rechts von einem bestimmten Wert (Mitte) identisch (spiegelverkehrt). Asymmetrische Verteilungen: Schwerpunkt ist verschoben * Nach links verschoben (AM > Md > Mo): Linksgipflig, linkssteil oder rechtsschief * Nach rechts verschoben (Mo > Md > AM): Rechtsgipflig, rechtssteil oder linksschief Gipfelform: * Schmalgipflig: Wenig Werte um den Modalwert. * Breitgipflig: Verteilungen mit vielen Werten um den Modalwert. Gipfelzahl: uni- oder bi- oder multimodale Verteilung (Anz. Gipfel)U-, umgekehrte U-, V- L- oder J-Verteilungen (Kurve wie der Buchstabe) Alternative Darstellung: Box-Plot-Diagramm. Der Strich stellt den Median dar und die Box zeichnen die jeweilig beiden Quartile, um den Median an. Der Whisker zeigt die beiden äusseren Quartile an. Extremwerte (Ausreisser) werden separat angezeigt.
81
Modalwert / Modus (Mo)
* Messwert, der für die am häufigsten besetzte Merkmalsausprägung steht. Der Gipfel eines Polygonzugs markiert somit (bei unimodalen Verteilungen) den Modus. * Bei Messwerten, bei welchen es sehr viele mögliche Merkmalsausprägungen gibt (z.B. kontinuierliche Variablen), macht diese Definition wenig Sinn, da die Wahrscheinlichkeit besteht, dass alle Ausprägungen nur einmal vorkommen. In diesem Fall geht man über die Häufigkeitsverteilung und schaut, welches die Kategorie ist, die am häufigsten besetzt ist. Per Definition ist dann die Mitte dieser Kategorie der Modus. * Mit dem Modus kann selten weitergerechnet werden, aber er gibt einen guten ersten Überblick einer Verteilung. Bei multimodalen Verteilungen kann es mehrere Moden geben. * Das arithmetische Mittel ist bei symmetrischen unimodalen Verteilungen am aussagekräftigsten. Bei schiefen Verteilungen ist es weniger aussagekräftig und generell reagiert das AM sehr sensitiv auf extreme Werte. * Der Median ist deutlich weniger sensibel gegenüber Ausreissern.
82
Median (Md)
50% Perzentil: 50% der Merkmalsträger haben kleiner oder gleich grosse Werte wie der Median und 50% haben grössere oder gleich grosse Werte wie der Median. Ermittlung des Medians: * Messwerte nach der Grösse ordnen * Den mittleren Wert (bei ungeradem n) oder die zwei mittleren Werte bestimmen. * Ungerades n: Der mittlere Wert ist der Median * Gerades n: Der Durchschnitt der beiden mittleren Werte ist der Median.
83
Deskriptivstatistik für metrische Variablen
Kennwerte der zentralen Tendenz (Lagemasse) * Modalwert / Modus * Median Dispersions-/Streuungsmasse * Streubereich: Gibt den Wertebereich an in dem alle beobachteten Werte liegen. * Variationsbreite: Differenz zwischen dem grössten und dem kleinsten Messwert. * Perzentile: Das x-te Perzentil schneidet x% der Verteilung ab. Die Berechnung ist dementsprechend analog zu derjenigen des Medians, einfach zu anderen %-Zahlen. * Varianz: Ist definiert als die mittlere quadrierte Abweichung aller Einzelwerte vom Mittelwert: * Varianz einer Stichprobe * Populationsvarianz * Standardabweichung: Quadratwurzel aus der Varianz
84
Arten von ordinalskalierten Daten
Singuläre Daten: Bei singulären Daten kommt jeder beobachtete Wert (prinzipiell) nur einmal vor (z.B. Rangliste). Bei gleichen Rängen wird von verbundenen Rängen gesprochen, dies ist aber selten. Relevante Kennwerte: * Rangplatz Rm: Platznummer eines Objektes, wenn man die Objekte der Grösse nach ordnet (Rangordnung). Bei verbundenen Rängen werden die Ränge gemittelt. Wenn also 3 Personen den gleichen Rang haben, dann sind nicht alle auf dem 2. Platz und es wird mit dem 5. Platz fortgefahren, sondern sie sind auf dem 3. Rang: (2+3+4) / 3. * Prozentrang PRm: Der Prozentrang gibt den prozentualen Anteil der gemessenen Objekte an, die einen Wert haben, der kleiner oder gleich dem Messwert xi ist. * Kategoriale Daten: Personen oder Objekten werden vorgegebenen Kategorien zugeordnet. Die Kategorien können in eine Rangfolge gebracht werden (Quantitative Befragung nach Skalen). Kennwerte: * Absolute Häufigkeit * Relative Häufigkeit * Prozentwerte
85
Deskriptivstatistik für ordinalskalierte Variablen
Kennwerte der zentralen Tendenz * Modus (nur bei kategorialen Daten): Kategorie, die am häufigsten besetzt ist * Median: Mittlere 50% Dispersionsmasse * Singuläre Daten: Bestimmung eines Dispersionsmasses ist wenig interessant, da jeder Wert normalerweise nur einmal vorhanden ist. * Kategoriale Daten: Perzentile / Quartile
86
Deskriptivstatistik für nominalskalierte Variablen
Klassifikation von Objekten in verschiedene Gruppen mit dem Klassifikationsmerkmal: * Gleichheit vs. Verschiedenheit. Personen müssen einer Merkmalsklasse, dürfen aber auch nur einer Merkmalsklasse angehören. Kennwerte * Absolute Häufigkeit * Relative Häufigkeit * Prozentwerte Graphische Darstellung als Säulen-, Balken- oder Kuchendiagramme mit nicht-numerischen Kategorien. Kennwert der zentralen Tendenz: * Modus: Merkmalsausprägung, die am häufigsten vorkommt
87
z-Standardisierung
Überführung einer beliebigen Verteilung in eine Verteilung mit Mittelwert 0 und Standardabweichung 1. Zwecke der z-Standardisierung: * Zum Vergleich von Werten aus unterschiedlichen Verteilungen bzw. Mit underschiedlichem Mittelwert und Standardabweichung * Ermittlung der relativen Position eines Wertes im Vergleich zu allen Werten bzw. Im Vergleich zur Population * Negative Werte bedeuten einen tieferen Wert als der Populationsmittelwert * Positive Werte bedeuten einen höheren Wert als der Populationsmittelwert
88
Konfidenzintervall
Ein Konfidenzintervall gibt einen Bereich an, in dem der wahre Wert in der Population mit einer bestimmten Wahrscheinlichkeit vermutet wird – auf Basis einer Stichprobe. Z.B. ein 95%-Konfidenzintervall bedeutet: Wenn man dieses Experiment unendlich oft wiederholen würde, dann würden 95 % der berechneten Intervalle den wahren Mittelwert der Population enthalten.
89
Irrtumswahrscheinlichkeit
Wahrscheinlichkeit, dass ein Unterschied zufällig zustande gekommen ist. Wenn kleiner als 5%, dann gilt das Ergebnis als signifikant.