Quanti NEUE AKFs von Sandra Flashcards

(259 cards)

1
Q

1.1 Wie kann die Geschichte der quantitativen Forschung noch bezeichnet werden?

A

Die Geschichte des Datensammelns

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

1.1 Wer tätigte die ersten Meinungsumfragen?

A

Die Perser

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

1.1 Wer sind weitere wichtige Pioniere
der empirischen Sozialforschung?

A

Karl Marx, Emilie Durkheim und Max Weber

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

1.1 Nenne die drei Theorieschulen der
Westdeutschen Nachkriegssoziologie

A

Kölner Schule, Frankfurter Schule, Gruppe um Helmut Schelsky (Münster)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

1.1 In welcher Disziplin machte sich die
Kölner Schule einen besonderen Namen?

A

Empirische Sozialforschung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

1.1 Was ist die Kölner Schule?
Welche
gibt es noch und was ging daraus hervor?

A

➢ ist eine Theorieströmung in der Soziologie, die auf den deutschen Soziologen Rene König zurückgeht
➢ Frankfurter Schule und Gruppe um Helmut Schelsky
➢ wichtigsten Theorieschulen der westdeutschen Nachkriegssoziologie
➢ 50er: Gründung der noch heute aktiven Marktforschungsinstitute Emnid und Allensbach

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

1.1 Was versteht man unter der Soziografie?

A

Soziografie (= soz.-wissenschaftliche Forschungsrichtung, die soz. Struktur einer bestimmten Einheit empirisch untersucht & beschreibt)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q
A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

1.1 Wie USA und die Soziografie zusammenhängen

A

➢ USA hatte Vorreiterrolle – D nahm sich ein Beispiel daran
➢ in den 20er Jahren des 20. Jhd. entwickelte sich dort eine Art quantitative Tradition
➢ Beispiele:
➢ Umfragen im Vorfeld von Wahlen
➢ erste Zufallsstichproben
➢ statistische Auswertungsverfahren
Das heißt sie begann die Soziale Strukturen zu untersuchen und zu beschreiben

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

1.1 Wer hat die erste, zwar unstrukturierte Studie geschrieben, wo fand sie statt und in welchem Jahr? (6P) Wann die erste Studie erhoben wurde von wem und um welche Stadt es ging

A

1890 Charles Booth, er veröffentlichte die Studie a survery London Life and Labour in London

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

1.2 Definition des Lebenslangen Lernen
nach der europäischen Kommission

A

Alles Lernen während des gesamten Lebens, das der Verbesserung von Wissen, Qualifikationen und
Kompetenzen dient und im Rahmen einer persönlichen, sozialen bzw. beschäftigungspolitischen Perspektive erfolgt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

1.2 Dimensionen des lebenslang lebensweiten Ansatzes erklären

A

➢ 1990er Jahre: Normatives Konzept für eine erfolgreiche Wissensgesellschaft
➢ Konzept bezeichnet das Lernen, das zu jeder (Lebens-)zeit und in jeder Form stattfindet
➢ 2 Dimensionen:
➢ 1. Zeitliche Dimension (lebenslang): befasst sich mit dem Alter des Lernenden
➢ Es geht um alle Lernprozesse, verteilt über den kompletten Zeitraum des Lebens
➢ 2. institutionelle Dimension (lebensweit): beinhaltet sämtliches Lernen, welches außerhalb des klassischen Bildungssystems stattfindet
➢ Unterscheiden sich hinsichtlich des Formalisierungsgrades: Formell/Informell

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

1.2 Wie lautete die Zeitliche

A

➢ Bildung früher: Fokus auf formale Schulbildung bis ins junge Erwachsenenalter

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Definition
des klassischen Bildungsbegriffs, der schon in den 1960er kritisiert wurde?

A

➢ 1960er: Kritik an traditioneller Perspektive (Bildung sei nach ersten 2-3 Lebensjahrzehnten abgeschlossen)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

1.2 Berichte die Ergebnisse der Weiterbildungsstatistik des Deutschen Institut für WB im Jahr 2016

A

➢ 1,1 Millionen Weiterbildungsveranstaltungen
➢ 29,3 Millionen Unterrichtsstunden
➢ 18 Millionen Teilnehmer
➢ Das Finanzvolumen lag bei 1,7 Milliarden Euro
➢ Davon 34 Prozent durch die Teilnehmer getragen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

1.2 Nenne die 3 Phasen der TN-
Quoten
an WB; Teilnehmerquote Weiterbildungsmaßnahmen

A

Wohnbevölkerung im Alter von 18 – 64 Jahren
1. Die erste Phase (1991-1997): deutlicher Anstieg von 37% auf 48%
2. Die zweite Phase (2000-2010): Konsolidierung (Stabilisierung) bei 41% bis 44%
3. Die dritte Phase (2011 bis 2016): deutlicher Anstieg auf 49% - 50%

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

1.2 4 Bsp. Themenfelder

A

➢ Studien zur Weiterbildung als Bestandteil lebenslangen Lernens
➢ Studien zu betrieblichen Qualifikationsveränderungen
➢ Evaluation von Weiterbildungsangeboten
➢ Studien zum Thema Bildung im Alter

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

1.3 Nenne drei alternative Begriffe, mit
denen der Begriff Ethik beschrieben werden kann

A

Anstand, Moral, Vertrauen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

1.3 Wofür dienen ethische Grundprinzipien?

A

Für eine moralisch einwandfreie Datenerhebung und Datenanalyse

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

1.3 empirisches Handeln orientiert sich…

A

Vorausschauend und folgenorientiert

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

1.3 Welches der folgenden Themen spielt aus ethischer Betrachtung in einem quantitativen Forschungsprojekt eine Rolle?

A

Die Folgen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

1.3 In welchem Jahr wurden der ADM
und der BVM gegründet?

A

1955

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

1.3 Wofür stehen die Abkürzungen ADM, BVM?

A

➢ Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute e.V.
➢ Berufsverband Deutscher Markt- und Sozialforscher e.V.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

1.3 In welcher Form können Verbände
wie der ADM oder der BVM zur Ethikdiskussion beitragen?

A

Sie geben Richtlinien/Kodizes vor, an die man sich halten sollte.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
1.3 4 Regeln, wie die Rechte eines Probanden gewährleistet werden
➢ Informierte Einwilligung ➢ Datenschutz ➢ Freiwilligkeit ➢ Folgen (Verwendung der Ergebnisse)
26
1.3 Erklären Sie warum Regeln und Codizes in der Marktforschung sinnvoll und nützlich sind, am Ende jedoch nicht zwangsläufig weiterhelfen
Es ist sinnvoll und absolut richtig, sich als Marktforschungsbranche Regelungen und Verhaltensweisen vorzugeben. Doch am Ende besteht immer das Problem, dass sie einem nicht weiterhelfen, wenn andere Marktforscher sich nicht daranhalten, und man wenig Einfluss hat, etwas daran zu ändern
27
1.3 Inwiefern trug das moderne Transport- und Kommunikationswesen bei
➢ Durch das moderne Kommunikationswesen wurden Befragungen erleichtert ➢ Bis Anfang der 70er Jahre waren nur persönliche und schriftliche Befragungen möglich ➢ In den 80er Jahren begann der Siegeszug der telefonischen Befragung (CATI) mit der in sehr kurzer Zeit sehr viele Personen befragt werden konnten ➢ Seit Beginn des 21. Jhd. abgelöst durch Internet und Onlinebefragungen
28
Kommunikationswesen zur Erleichterung der Durchführung von Studien bei?
➢ In den 80er Jahren begann der Siegeszug der telefonischen Befragung (CATI) mit der in sehr kurzer Zeit sehr viele Personen befragt werden konnten ➢ Seit Beginn des 21. Jhd. abgelöst durch Internet und Onlinebefragungen
29
1.4 Erkläre den Aufbau des hypothetiko-deduktiven Modells
Zweck: aus einer Theorie sollen Hypothesen abgeleitet werden, welche dann empirisch getestet werden Explanandum (das zu erklärende Phänomen): ➢ Beschreibt das, was erklärt oder verstanden werden soll ➢ Bsp.: warum sind Schüler im Unterricht unmotiviert) Explanans (die erklärenden Faktoren); ➢ Ursachen/Informationen, welche das Explanandum erklären ➢ Hypothesen, Gesetze, Theorien o. Ursachen, welche verwendet werden, um das beobachtete zu erklären ➢ Bsp.: ohne pos. Feedback sind Schüler oft unmotiviert) Explanandum & Explanans dienen in der Wissenschaft der Hypothesenbildung
30
1.4 Nenne die 8 Schritte des des hypothetiko-deduktiven Forschungsprozesses/ Wie viele Schritte hat der Hypothetiko
1. Entwicklung einer Fragestellung 2. Theorie finden 3. Hypothesen aufstellen (wird aus Theorie abgeleitet: Wenn-dann Formulierungen) 4. Operationalisierung (Übersetzung der Begriffe aus Hypothesen in messbare Konzepte) 5. Auswahl der Forschungsmethodik (Forschungsdesign – wie soll geforscht werden?) 6. Stichprobe auswählen (wer soll befragt werden?) 7. Datenerhebung (Befragung der Zielgruppe) 8. Datenanalyse (Kodierung der Daten, Eingabe in Datenbank, Berechnung neuer, Bewertung von Ausreißern
31
1.4 Erkläre den 8. Schritt: Analyse der Daten
➢ Datenanalyse liefert Belege, ob Theorie richtig oder falsch ist ➢ Durch Tests kann Theorie gestützt oder widerlegt (falsifiziert) werden ➢ Wichtig: Gesetzeshypothese kann nie vollständig bewiesen werden, da sie sich auf viele Fälle bezieht -> nur möglich, einzelne Fälle zu testen, um zu schauen, ob die Theorie in der Praxis funktioniert
32
1.4 Weshalb kann eine Gesetzhypothese Grundsätzlich ist es nicht möglich ist, eine wissenschaftliche Gesetzeshypothese durch empirische Daten zu 100% zu bestätigen
Gesetzeshypothese sind allgemeine, theoretische Aussagen. Sie basiert auf Theorie und soll erklären, wie Dinge zusammenhängen. Sie können empirisch nur vorläufig bestätigt, aber nie endgültig bewiesen werden, weil sie nur auf eine unendliche Menge von Fällen Bezug nehmen, die praktisch unmöglich vollständig zu erfassen sind.
33
1.5 Welche 3 Hauptkriterien (Gütekriterien) gibt es in der quantitativen Forschung?
Objektivität ➢ Ergebnisse unabhängig vom Versuchsleiter Reliabilität ➢ ist die Zuverlässigkeit eines Testergebnisses Validität ➢ prüft, ob das gemessen wird, was tatsächlich gemessen werden soll
34
1.5 Reliabilität nennen und beschrieben + die interne Konsistenz in dem Zusammenhang beschrieben
➢ Reliabilität beschreibt die Zuverlässigkeit eines Testergebnisses ➢ Reliabilität steigt, wenn der Fehlerwert sinkt Retest-Reliabilität ➢ Test wird von einer zweiten Gruppe ein zweites Mal durchgeführt Paralleltest-Reliabilität ➢ Wenn für ein Konstrukt zwei verschiedene Tests entwickelt werden Testhalbierungsreabilität ➢ Test wird halbiert und dann beide Hälften miteinander korreliert Interne Konsistenz ➢ Weiterentwicklung des letzten. Der gesamte Text wird in seine Bestandteile zerlegt und jeder Teil als einzelnen Test betrachtet. Die Stärke der Korrelation sagt dann etwas über die Reliabilität aus
35
1.5 Warum gibt es keine absolute Objektivität?
➢ Es gibt keine absolute Objektivität, da es immer Störfaktoren gibt, die einen Einfluss haben ➢ Bsp.: Lärm, Wetter, Einfluss des Versuchsleiters
36
1.5 Nenne und erkläre die 3 Arten von Objektivität
Durchführungsobjektivität ➢ Verhalten des Versuchsleiters ➢ je standardisierter ein Versuch durchgeführt wird, desto geringer ist der Einfluss des Versuchsleiters Auswertungsobjektivität ➢ Ergebnis muss unabhängig davon sein, wer den Test auswertet Interpretationsobjektivität ➢ Unterschiedliche Interpreten sollten zu gleichen Schlussfolgerungen kommen
37
1.5 Fünf Arten der Validität
Inhaltsvalidität ➢ Auskunft, wie gut ein Test die zu messende Eigenschaft aufzeigt Kriteriumsvalidität ➢ betrachtet die Höhe der Korrelation von dem gemessenen Konstrukt mit dem Außenkriterium des Tests, über das man eine Aussage treffen möchte Konstruktvalidität ➢ prüft, inwieweit ein Test von seinen Grundüberlegungen her geeignet ist, ein Ereignis zu messen Interne Validität ➢ Die Ergebnisse einer Untersuchung lassen sich mit sehr großer Wahrscheinlichkeit mit den geprüften Hypothesen erklären Externe Validität ➢ Die Ergebnisse lassen sich auf andere Personen oder eine andere Situation übertragen
38
1.5 Welche Reliabilität kann bestimmt werden, wenn eine Stichprobe einen Test zweimal vorgelegt bekommt?
Retest-Reliabilität
39
1.5 Bei einem Test wird überprüft, wie gut Grundschüler schon rechnen können. Allerdings werden in dem Test nur drei der vier Rechenarten getestet. Welche Validität des Tests wird hier deutlich negativ ausfallen?
Inhaltsvalidität
40
2.1 Warum sind Befragungen künstlich geschaffene Situationen?
Die involvierten Teilnehmer würden außerhalb der aktuellen Situation nicht miteinander kommunizieren.
41
2.1 Eine Befragung ist …. eine künstliche Situation.
immer
42
2.1 Intensionale Befragung worauf ist bei der Frage zu achten
Was ist das Ziel? Was soll durchfragen erfahren werden?
43
2.1 Warum liegt bei einem Fragebogen eine Asymmetrie vor?
Der Interviewer weiß, dass er an diesem Tag, in diesem Moment Personen befragen wird, während der Befragte in der Regel davon überrascht wird (Ausnahme: Es wurde beim Erstkontakt ein Termin für die Durchführung der Befragung ausgemacht). Weiterhin kann man in der Regel davon ausgehen, dass der Interviewer mehr Informationen über das Projekt und die Hintergründe besitzt als der Befragte. Er ist in einer „besseren“ Position
44
2.1 Was kann einen Einfluss auf das Antwortverhalten der Befragten nehmen?
a. Der Interviewer b. Die Anwesenheit Dritter
45
2.1 Unterschied zw. reaktivem und nichtreaktivem Messverfahren mit Beispiel
Reaktives Messverfahren: ➢ Der Befragte ist sich dessen bewusst, dass er sich in einer Befragungssituation befindet ➢ Bsp. Interview Nichtreaktives Messverfahren: ➢ Eine Person ist sich dessen nicht bewusst, dass sie sich in einer Untersuchungssituation befindet ➢ Bsp. Store Checks
46
2.1 Aufbau und Gestaltung des Fragebogens betrifft die…
1. Makroplanung – Gesamtaufbau des Fragebogens (Spannungskurve und Fragebogendauer) 2. Mikroplanung – Detailplanung des Fragebogens (Fragenreihenfolge)
47
2.1 Halo Effekt (Ausstrahlungseffekt) erklären und wann man das berücksichtigen muss:
➢ Verzerrung von Antworten aufgrund vorheriger Fragen im Fragebogen ➢ besonders bei emotional aufgeladenen Fragen ➢ In der Mikroplanung des Fragebogens ist es daher sinnvoll eine Reihenfolge festlegen
48
2.1 Erkläre den Reihenfolge-Effekt und was hilft, diesen zu vermeiden?
➢ Befragte bevorzugen bei Listenfragen oft die ersten oder letzten Antworten ➢ Daher Rotation der Reihenfolge notwendig
49
2.1 Reihenfolge wie man bei der Datenerhebung vorgeht?
➢ Datenerhebung ist u.a. durch Beobachtungen, Fragebögen und Interviews möglich ➢ Diese haben jeweils unterschiedliche Schwerpunkte ➢ Beobachtung: welche Beobachtungsform? Was soll wie und wie lange beobachtet werden?) ➢ Fragebogen: Mikroplanung (um Reihenfolgeeffekt und Halo-Effekt zu vermeiden) ➢ Interview: Fragen vorbereiten und sich im Vorfeld mit dem Thema auseinandersetzen
50
2.1 Welche Fragenarten gibt es?
Geschlossene Fragen ➢ Antwortmöglichkeiten sind vorgegeben und der Befragte muss daraus auswählen Offene Fragen ➢ Fragen sind offen gestellt und sollen auch offen beantwortet und selbst formuliert werden Halboffene Fragen ➢ Fragen werden offen beantwortet und anschließend dem Inhalt nach kategorisiert
51
2.1 Sie möchten für einen Hersteller von Konsumgütern eine Kundenzufriedenheit in ganz Europa durchführen. Das Ziel der Untersuchung ist es, dass die Ergebnisse der Länder intensiv miteinander verglichen werden können. Worauf müssen Sie an dieser Stelle bei der Formulierung der Skalenfragen zur Zufriedenheit achten?
Was in DE funktioniert, muss nicht unbedingt in anderen Ländern funktionieren. Fragestellungen müssen daher anderen Ländern angepasst werden z.B. beim Thema Schulnoten gibt es in den Ländern erhebliche Unterschiede
52
2.1 Worauf man bei skalenfragen achten muss. Wenn man für ein Unternehmen eine EU weite Befragung machen soll.
Ein Fragebogen, der z. B. in Deutschland gut funktioniert, muss in anderen europäischen Ländern nicht unbedingt auch funktionieren. Daher müssen die Fragen kulturell angepasst werden. Ein gutes Beispiel hierfür ist die Abfrage von Schulnoten. In anderen Ländern gibt es Punktesysteme oder die hohe Schulnote ist die bessere. Hier muss man genau aufpassen, wie die Fragen zu stellen sind. Weitere Faktoren für die Befragung sind: Soziale Erwünschtheit: ➢ Befragte antworten so, wie sie denken, dass es von ihnen erwartet wird (besonders bei sensiblen Themen) Länge d. Fragebogens:
53
➢ Sollte nicht zu lang sein, um die Teilnahmebereitschaft hochzuhalten Kontrollfragen: ➢ Doppelt gestellte Fragen (1x positiv / 1x negativ formuliert), um Konsistenz in den Antworten zu überprüfen
54
2.1 Wie kann man kontrollieren, ob Fragen auch ernsthaft und wahrheitsgemäß beantwortet werden
Durch Kontrollfragen: Doppelt gestellte Fragen (1x positiv / 1x negativ formuliert), um Konsistenz in den Antworten zu überprüfen
55
2.1 Problem der Reaktivität bei Beobachtungsstudien /Befragung. Was für Lösungsansätze gibt es?
Die Reaktion eines Untersuchungsobjekts auf eine Erhebungssituation wird im Allgemeinen als Reaktivität verstanden. Es hat einen Einfluss auf das Verhalten und die Objektivität. Die Lösungsansätze wären: Anonymität gewährleisten
56
2.2 Erkläre eine mündliche Befragung
Mündliche Befragung = Interview (= Methode der quali. Sozialforschung -> Interviewer stellt offene Fragen -> Befragte antwortet frei) Dabei liegt eine asymmetrische Beziehung vor: der Interviewer weiß in der Regel mehr über die vorherrschende Situation als der Befragte
57
2.2 Was bedeutet „offene Gesprächsführung“ in einem Interview?
➢ Keine vorgegebenen Antwortmöglichkeiten -> Befragte antworten frei ➢ Vom Intervieweffekt betroffen: Es hängt entscheidend vom Interviewer ab was er versteht und aufschreibt
58
2.2 Erkläre ein Leitfadeninterview
➢ Am häufigsten genutzt ➢ Halbstandardisiert ➢ Vorab festgelegte Fragen/Themenaspekte (Reihenfolge d. Fragen = flexibel) ➢ Offenes Gespräch (ABER vom Interviewer gelenkt) ➢ i.d.R. 5-7 Themenaspekte mit je 1-2 offenen Fragen (keine ja/nein Fragen) ➢ Ziel: Sichtweisen von Personen vergleichen
59
2.2 Was ist bei der Erstellung eines Gesprächsleitfadens zu beachten?
➢ auf die Frageformulierung zu achten ➢ Offene Fragen ➢ Sprache einfach und klar ➢ An der ausdruckweiße der interviewten Person orientieren ➢ Alltagsnahe Fragen stellen, die die interwieten aus ihrem Alltag kennen ➢ Flexibilität durch fragen während des Gespräches
60
2.2 Warum Erfahrungen bei Leitfadeninterview wichtig
Der Interviewer muss die Themenaspekte mit den dazugehörigen Fragen im Hinterkopf haben, um das Gespräch entsprechend zu lenken, damit am Ende auch über die Aspekte gesprochen wird, die für die Forschungsfrage relevant sind. Dies erfordert eine hohe Konzentration und viel Erfahrung von den Interviewern
61
2.2 Was versteht man unter Transkription
= die Verschriftung von Gesprächen nach bestimmten Regeln zum Zwecke der Analyse
62
2.2 Ausgewogener Gesprächsleitfaden
i.d.R. 5-7 Themenaspekte mit je 1-2 offenen Fragen
63
2.2 Was muss berücksichtigt werden für die Durchführung eines Interviews?
➢ Ungestörte Gesprächsatmosphäre ➢ Aufzeichnung von Leitfadeninterviews ➢ Bereitstellung des Leitfadens für den Interviewten, um sich vorzubereiten ➢ Interviewten aussprechen lassen ➢ Keinen Antwortzwang ausüben
64
2.2 Was folgt nach der Durchführung des Gesprächs?
Die Transkription (diese ist verbunden mit einem großen Aufwand. Entscheidend für die Dauer ist auch die Frage, ob nur das Gesagte oder auch die Form (Stimmlage, Lautstärke, Gesichtszüge etc.) transkribiert wird. Die Analyse erfolgt dann meist in Form einer Dokumentenanalyse)
65
2.2 Was ist Suggestivfragen
Fragen werden so gestellt, dass die Befragte Person eine Antwort gibt, die der Fragensteller erwartet.
66
2.3 Definition Beobachtung
= systematisches Verfahren zur Untersuchung sichtbarer Verhaltensweisen, Handlungen & Interaktionen ➢ unterliegt Regeln -> Gegensatz zur Alltagsbeobachtung ➢ häufig werden Codierschemata verwendet, um Beobachtungskriterien festzulegen
67
2.3 Die Einbindung des Forschers in die Beobachtung unterteilt sich in die…?
a. Nichtteilnehmende Beobachtung b. Teilnehmende Beobachtung
68
2.3 Von welcher Beobachtungsform spricht man, wenn der Forscher keinen direkten Kontakt zur beobachteten Person hat?
Nichtteilnehmende und indirekte Beobachtung
69
2.3 Was versteht man unter dem Begriff Going native?
= Gefahr, dass Beobachter zu stark in das Beobachtungsfeld eingebunden ist (Bsp. Bei der teilnehmenden Beobachtung) -> kann Objektivität der Beobachtung verfälschen
70
2.3 Erkläre den Grad der Strukturierung einer Beobachtung?
…zeigt, wie stark die Beobachtung organisiert/strukturiert ist Strukturierte Beobachtung: ➢ Beobachtung folgt klaren, vorher festgelegten Kriterien (Bsp. Tagesablaufprotokoll) ➢ Dadurch hohe Kontrollierbarkeit Unstrukturierte Beobachtung: ➢ Keine festen Kriterien ➢ Beobachtung offen für alle möglichen Verhaltensweisen Tipp: Vor einer strukturierten Beobachtung sollte man eine unstrukturierte durchführen –
71
basierend auf diesen Ergebnissen kann man die Kategorien für die strukturierte aufstellen
72
2.3 Was sind Store Checks
Nichtreaktives Messverfahren
73
2.3 Was bezeichnet die Inter- und Intra- Reliablität?
Inter-Rater-Reliabilität (Vergleich zw. versch. Beobachtern) ➢ Mehrere Beobachter kommen bei gleichen Beobachtungen zu gleichen Ergebnissen Intra-Rater-Reliabilität (Konsistenz zw. versch. Zeiten) ➢ Ein einzelner Beobachter kommt bei wiederholten Beobachtungen zu denselben Ergebnissen
74
2.3 Beobachtungsarten
a. Offene Beobachtung b. Verdeckte Beobachtung c. Direkte Beobachtung d. Indirekte Beobachtung e. Feldbeobachtung f. Laborbeobachtung
75
2.3 Vorteile und Nachteile von Beobachtungen
Vorteile: • Direkte Erfassung von Verhalten • Natürliche Umgebung (bei Feldbeobachtung) • Wiederholbare Analyse (bei Aufzeichnungen) • Messbarkeit objektiver Tatbestände Nachteile: • Begrenzte Anwendbarkeit bei seltenem Verhalten • Keine Erfassung von Ansichten/Absichten • Geringe Objektivität & Reliabilität • Zeitaufwendig in Vorbereitung & Durchführung
76
2.3 Auf was man bei internationalen Skalen aufpassen muss
Wert müssen angepasst werden (Bsp. Meile und Km, Kg und Pfund)
77
2.4 Woraus wurde die sozial- wissenschaftliche Dokumentenanalyse entwickelt?
aus der Quellenanalyse der Geschichtswissenschaft
78
2.4 6 Kriterien zur Dokumentenauswahl nach Mayring Oder Frage: Wovon die Einsatzmöglichkeiten der Dokumentenanalyse abhängen / bestimmt
1. Art des Dokuments – Urkunden/Akten werden als gesicherter angesehen als Zeitungsberichte 2. Äußere Merkmale – Material und Zustand des Dokuments 3. Innere Merkmale – Inhalt und Aussagekraft des Dokuments 4. Intendiertheit – Absicht des Erstellers beeinflusst Erkenntniswert 5. Nähe zum Gegenstand – zeitliche, räumliche und soziale Nähe zum Untersuchungsgegenstand 6. Herkunft – Wo ist es gefunden worden, wo stammt es her, wie ist es überliefert worden
79
2.4 Einsatzmöglichkeiten Dokumentanalyse
➢ Analyse von Bedeutungsträgern (Texte, Bilder, Filme, Gegenstände) ➢ Nur Untersuchung bereits vorhandener Daten ➢ Keine neue Datenerhebung notwendig
80
2.4 Auf Video aufgenommene Beobachtungssequenzen können nicht beliebig oft … werden.
verändert
81
2.4 Welche Dokumente werden in der Regel gesicherter angesehen als Zeitungsberichte?
Urkunden oder Akten
82
2.4 Stichproben für quantitative
Repräsentativ ist eine Stichprobe dann, wenn sie so gewählt ist, dass allgemeingültige
83
2.4 Stichproben für quantitative Untersuchungen:
Repräsentativ ist eine Stichprobe dann, wenn sie so gewählt ist, dass allgemeingültige Rückschlüsse gezogen werden können. Das bedeutet: Die Stichprobe ist so zusammengesetzt, dass sie die Gesamtzielgruppe in allen wichtigen Merkmalen widerspiegelt. Damit das der Fall ist, müssen drei grundlegende Voraussetzungen erfüllt werden. ➢ Passende Definition der Grundgesamtheit (Merkmale der Zielgruppe) ➢ Verwendung eines Zufallsverfahrens zur Auswahl ➢ Festlegung adäquater Auswahlgrundlage
84
2.4 Pretest
• Vor der Hauptanalyse durchzuführen, um Kategorien zu testen & Fehler zu minimieren • Dient d. Schulung der Codierer & der Anpassung der Kategorien
85
3.1 Die ersten 4 Schritte nach der Themenfindung in richtiger Reihenfolge. (und 4 Aspekte des Vorgehens der Projektplanung und Durchführung die dann folgen)
1. Thema eingrenzen/Fokus auf ein bestimmtes Thema 2. vorhandene Literatur & Forschungsstand prüfen -> um Forschungslücke aufzudecken & Perspektiven zu finden 3. Eingrenzung d. Themas auf bearbeitbare Größe 4. Forschungsfrage formulieren
86
3.1 Wie sollte eine Forschungsfrage formuliert sein?
➢ W-Fragen (offene Fragen „wer“, „wie“, „was“, „warum“?) ➢ Klar beantwortbare, widerspruchsfreie und nicht durch simples Googlen zu beantwortende Frage
87
3.1 Warum ist die Forschungsfrage wichtig
➢ FF dient der Erzeugung absichtlich herbeigeführtem, systematischem Wissen ➢ Sollte widerspruchsfrei und beantwortbar sein ➢ Roter Faden durch die gesamte Arbeit (Einleitung bis Fazit)
88
3.1 4 Fragen die für die Forschungsfrage dienlich sind. 4 verschiedenen Fragen welche der Annäherung an die Forschungsfrage helfen
1. Was möchte ich konkret herausfinden? 2. Welche Antworten könnte ich finden? 3. Was könnte das Ergebnis der Forschung sein? 4. Welche Zusammenhänge möchte ich genauer untersuchen?
89
3.1 Zusammenhang Forschungsfrage und Struktur der Arbeit
➢ Forschungsfrage dient der Erzeugung von absichtlichem und systematischem Wissen ➢ sollte in sich widerspruchsfrei und vor allem beantwortbar sein ➢ sie grenzt das Thema ab und trennt dabei Wichtiges vom Unwichtigem ➢ gibt den roten Faden der Arbeit vor ➢ dieser dient als Orientierungspunkt, von der Einleitung bis zum Fazit
90
3.1 Warum man bei der Entwicklung der Forschungsfrage exakt arbeiten muss
Um das Thema einzugrenzen und damit bearbeitbar zu machen, muss eine beantwortbare Forschungsfrage formuliert werden. Je mehr Zeit in dieser Phase in die Exaktheit und die Eindeutigkeit der Frage(n) investiert wird, desto positiver wird sich dies auf die weitere Arbeit auswirken. Eine frühzeitige Eingrenzung erspart in der Folge einiges an Arbeit.
91
3.2 Beschreiben Sie bitte den Begriff Operationalisierung.
= die Umsetzung des theoretischen Konstrukts in eine empirische Dimension -> hierzu übersetzt man die Begriffe aus den Hypothesen in messbare Konzepte
92
3.2 Mögliche Operationalisierung des theoretischen Konstruktes biologisches Alter.
Theoretisches Konstrukt: Biologisches Alter ➢ Dimension 1: Bewegungen ➢ Dimension 2: Ernährung Indikator ➢ für Dimension 1 1. wie oft betreiben sie Sport in der Woche sie sich von 0-7 (0 Gar nicht; 7 Tage die Woche) 2. wie kommen sie zur Arbeit. Laufen, Auto, Radfahren oder öffentliche Verkehrsmittel ➢ Für Dimension 2 1. Wie oft essen sie Fleisch in der Woche 0-7 2. Wie oft Essen sie Obst 0-7 Oder: Wenn mit „Alter“ das tatsächliche biologische Lebensalter gemeint ist, dann ist Alter definiert als die Anzahl der Tage oder Jahre
93
3.2 In der in diesem Lernzyklus dargestellten Beispiel- Operationalisierung ist „Politisches Interesse"
Ein Konstrukt
94
3.2 Warum ist es sinnvoll mehrere Indikatoren zur Bewertung einer Situation oder eines Verhaltens heranzuziehen? Begründe sie ihre Antwort am Beispiel Schulnoten.
Schulnoten werden in der Regel nicht auf Basis eines Tests o.ä. vergeben, sondern ergeben sich aus den Noten für Tests, Arbeiten und mündliche Beiträge. Somit ist das Ergebnis nicht abhängig von einer Situation oder einem Ereignis, Damit ist es qualitativ hochwertiger, aussagekräftiger und fairer.
95
3.2 Beschreiben sie, warum der Indikator Schuhgröße ungeeignet ist, um die Körpergröße zu messen?
Auch durch das Messen der Schuhgröße würde man Ergebnisse erhalten, nur ist die Operationalisierung nicht die beste, da die gemessenen Werte Ungenauigkeiten aufweisen würden, wenn man die Personen anhand der gemessenen Schuhgröße in einer Reihe aufstellt und feststellt, dass sie in Bezug auf die Körpergröße nicht richtig sortiert sind.
96
3.2 Warum sind Hypothesen nie 100% empirisch beweisbar warum ist es sinnvoll mehrere Indikatoren zu benutzen?
Häufig ist das zu erfassende Merkmal nicht direkt beobachtbar (=Konzept / Konstrukt). Dies liegt vor allem daran, dass viele Konstrukte mehrdimensional sind, d. h., sie beinhalten unterschiedliche, wenn auch zusammengehörige Dimensionen. Grundsätzlich ist es empfehlenswert, Merkmale durch mehrere Indikatoren zu messen. Dadurch erhält man in der Regel genauere und belastbarere Ergebnisse.
97
3.3 Wie unterscheidet sich die Vollerhebung von der Teilerhebung?
In der Vollerhebung werde alle Einheiten der Grundgesamtheit untersucht. Bei der Teilerhebung wird nur eine Teilmenge der Grundgesamtheit untersucht.
98
3.3 Welche Methode: Vollerhebung oder Teilerhebung eignet sich mehr?
➢ es gibt keine Faustregel, wann eine Voll- und wann eine Teilerhebung gemacht werden soll ➢ ab Grundgesamtheit von 500-1000 Elementen kann Stichprobe aus forschungsökonomischen Gründen sinnvoll sein
99
100
3.3 Was sich bei einer deskriptiven Statistik bei einer vollen Erhebung vereinfacht
➢ Die Darstellung vereinfacht sich ➢ Bei einer Vollerhebung werden alle Einheiten der Grundgesamtheit untersucht ➢ Die deskriptive Statistik beschreibt empirische Daten durch Tabellen, Kennzahlen oder Maßzahlen ➢ versucht diese mithilfe von Grafiken übersichtlich darzustellen ➢ Vor allem bei sehr umfangreichem Datenmaterial ist das wichtig, um nicht den Überblick zu verlieren
101
3.3 Definition: Stichprobe
➢ Sichprobe = Auswahl aus der Grundgesamtheit – zufällig oder nach vorab definierten Kriterien ➢ Mithilfe dieser Stichprobe möchte man repräsentative Aussagen über die Grundgesamtheit treffen ➢ Die Stichprobenauswahl hängt vor allem von der Definition der Grundgesamtheit ab
102
3.3 Wie kann man eine hohe Antwortquote erreichen?
➢ Durch Anreize als Gegenleistung für die Teilnahme der Befragung ➢ Forschungsökonomische Gründe
103
3.3 Wie erhöht sich die Qualität bzw. Präzession der Ergebnisse?
Mit steigender Stichprobenumfang.
104
3.3 Worin liegt das entscheidende Kriterium bei den Verfahren der Zufallsstichprobe, durch das Aussagen über die Grundgesamtheit möglich sind?
Der Zufallsprozess wird so gestaltet, dass alle Elemente der Grundgesamtheit entweder dieselbe Wahrscheinlichkeit zur Aufnahme in die Auswahl (reine Zufallsauswahl) oder auf jeden Fall eine berechenbare, von Null verschiedene, Wahrscheinlichkeit zur Aufnahme in die Stichprobe haben.
105
3.3 Unterschied repräsentative und willkürliche Auswahl der Stichprobe?
repräsentative Auswahl ➢ liegt vor, wenn anhand dieser Auswahl Aussagen über die Grundgesamtheit getroffen werden können (durch bewusste oder Zufallsauswahl)
106
willkürlichen Auswahl ➢ können keine Aussagen über die Grundgesamtheit getroffen werden ➢ Ergebnisse gelten nur für die Stichprobe
107
3.3 Um welcher Art der Auswahlverfahren handelt es sich bei einer Passanten Befragung in einer Fußgängerzone?
= willkürliche Auswahl ➢ Es ist dabei nicht sichergestellt, dass alle Elemente der Grundgesamtheit die gleiche, von Null verschiedene Chancen haben, in die Stichprobe zu gelangen ➢ Auswahl der Zielgruppen wird weder durch den Zufall noch durch einen vorher festgelegten Auswahlplan gesteuert ➢ liegt ausschließlich im Ermessen des Versuchsleiters
108
3.3 Erkläre den Ablauf für den Interviewer beim Verfahren der Quotenstichprobe und erkläre, warum gerade gegen Ende der Feldphase ein höheres Risiko der Interviewverzerrung vorliegt ODER Warum beim Quoteninterview/Forschung gegen Ende Verzerrungen möglich
➢ Bei einer Quotenstichprobe wird vor Befragung eine bewusste, willkürlich Festlegung getroffen, wie viele Objekte in der Gruppe untersucht werden sollen ➢ Der Interviewer erhält einen Quotenplan mit Anweisungen, wie viele Personen aus einer Gruppe er jeweils befragen soll ➢ Bsp.: 10 Männer & 10 Frauen, 5 davon sollen bis 20 sein, 5 sollen 20-30 sein und 10 sollen über 30 sein. Davon 10 mit und 10 ohne Kinder ➢ Zu Beginn noch einfach (da größere Wahrscheinlichkeit), zum Ende immer schwerer, wenn nicht sogar unmöglich. Somit besteht die Gefahr, dass das Interview verzerrt wird.
109
3.3 Incentives
= Leistungsbereitschaft Vorsicht! Anreize zur Teilnahme an Befragungen können eine Auswirkung auf die Antwortqualität haben. Insbesondere wenn die Teilnehmer nur aufgrund der Anreize an der Befragung teilnehmen, kann dies zu Verzerrungen in den Ergebnissen führen.
110
3.3 Was ist die Ziehung von Lottozahlen
Einfache Zufallsauswahl
111
3.3 Quotenverfahren
Teilt heterogene Grundgesamtheit in möglichst homogene Gruppen (z.B. nach Alter, Geschlecht)
112
3.3 Warum ist bei quantitativer Datenerhebung eine Vollerhebung einfacher
➢ Bei einer Vollerhebung werden alle Einheiten der Grundgesamtheit untersucht. ➢ Relevant für die Qualität der Stichprobe ist u. a. die Stichprobengröße ➢ die jedoch von verschiedenen Faktoren abhängig ist ➢ beispielsweise forschungsökonomische Aspekte wie das prognostizierte Verhalten der Befragten oder auch der Einsatz von Incentives
113
3.3 Bevölkerungsgruppe 2.000.000 60% wahlberechtigt, Stichprobe mit 1000, davon wählen 350 Partei xy, wieviel wählen dann in der Grundgesamt xy.
420000
114
4.1 Forschungshypothese erklären und welche Hypothesen noch zur gleichen Kategorie gehören
= Aus der Theorie abgeleitete Vermutung ➔ diese enthalten Konstrukte (abstrakte Begriffe), welche erst messbar gemacht (operationalisiert) werden müssen ➔ diese Hypothesenart gehört zum Grad der Konkretisierung ➔ dazu kommen die Operationale Hypothese und die statistische Hypothese
115
4,1 Welche zwei statistischen Hypothesen gibt es und was sind die Fachbegriffe, um sie zu bestätigen/Verwerfen
➢ Nullhypothese und Alternativhypothese ➢ Fachbegriffe: Falsifizieren und Verifizieren
116
4.1 Wie werden Hypothesen widerlegt?
➢ Ziel der Forschung ist es Hypothesen zu bestätigen oder zu widerlegen ➢ Dazu werden in der Forschung die Statistische Hypothese (Nullhypothese) und eine Alternativhypothese gegenübergestellt ➢ In der Forschung wird Nullhypothese getestet ➢ Wenn diese Daten gegen die Nullhypothese sprechen, wird sie abgelehnt und die
117
Alternativhypothese angenommen ➢ Somit ist die Hypothese falsifiziert
118
4.1 Wie kann der Zusammenhang bei gerichteten Hypothesen aussehen?
sowohl positiv als auch negativ
119
4.1 6 Voraussetzung von Hypothesen ODER 6 Anforderungen an Hypothesen
➢ 1. Einfach, kurz und prägnant ➢ 2. Nachvollziehbar ➢ 3. Allgemeingültig ➢ 4. Logisch, schlüssig ➢ 5. Operationalisierbar ➢ 6. Falsifizierbar
120
4.1 2 Möglichkeiten der Ursache- Wirkungs-Zusammenhänge, die Hypothesen verdeutlichen können. Nennen Sie dazu passende Fachbegriffe der Konstruktionen
a. Wenn-dann-Konstruktion (klassifikatorische Hypothesen) b. Je-desto-Konstruktion (komparative Hypothesen)
121
4.1 Kategorisierung von Hypothesen (5 Merkmale einer Hypothese / Hypothesenarten)
a. nach Aussagebereich b. nach Grad der Konkretisierung c. nach Untersuchungsziel d. nach Art ihrer Gerichtetheit e. nach Spezifität von Hypothesen
122
4.1 Hypothesen als Vermittlerfunktion
• Hypothese = eine wissenschaftl. Aussage, die ein Forscher aufgrund einer Theorie für wahrscheinlich hält, aber nicht geprüft oder belegt ist • Übt eine Art Vermittlerfunktion zwischen Theorie und Realität aus
123
4.1 Zu welchem Bereich gehört die Universelle Hypothese und andere Hypothesen aus diesem Bereich und Beschreibung (Hypothesen des Aussagebereichs)
Universelle Hypothese • Alle Elemente der Grundgesamtheit (können nur falsifiziert werden) Existenzielle Hypothese • Beziehen sich auf mind. 1 Fall (können nur verifiziert werden) Hypothesen über Anteile • Aussagen über Prozentsätze oder Bereiche (weder falsifizierbar noch verifizierbar)
124
4.1 Warum sind Hypothesen nie 100% empirisch beweisbar warum ist es sinnvoll mehrere Indikatoren zu benutzen?
➢ Das zu erfassende Merkmal ist oft nicht direkt beobachtbar ➢ Viele Konstrukte sind mehrdimensional ➢ Empfehlung: Merkmale durch mehrere Indikatoren messen ➢ Ergebnis: genauere & belastbarere Ergebnisse
125
4.1 3 Hypothesenarten nach Untersuchungsziel (Erkenntnisse generieren)
Zusammenhangshypothese • Prüft, ob zw. 2 oder mehr Variablen ein Zusammenhang besteht Unterscheidungshypothese • Vergleicht mind. 2 Stichproben/Gruppen, um zu sehen, ob sie sich unterscheiden Veränderungshypothese • Vergleicht Ergebnisse zu 2 unterschiedlichen Zeitpunkten (Bsp. Vor der Messung & nach der Messung), um zu prüfen, ob sich etwas verändert hat
126
4.1 3 Hypothesen zum Grad der Konkretisierung nennen
➢ Forschungshypothese: ist eine aus der Theorie abgeleitete Vermutung, deren Formulierungen bereits Konstrukte enthalten ➢ Operationale Hypothese: Die Konstrukte sind bereits operationalisiert ➢ Statistische Hypothese: bestehen immer aus einem Hypothesenpaar, der Alternativhypothese und der Nullhypothese
127
4.1 Welche 2 statistischen
➢ Grundsatz aller statistischen Tests: Das Gegenteil muss widerlegt werden
128
Hypothesen es gibt und diese anhand einer Gerichtsverhandlung erläutern.
➢ Bei Gerichtsverhandlung: Anfangs ist immer davon auszugehen, dass der Angeklagte unschuldig ist ➢ Hier muss die Schuld erst bewiesen werden ➢ Kann man das nicht, wurden also nicht genügend Beweise gesammelt, ist der Angeklagte freizusprechen („im Zweifel für den Angeklagten“) ➢ H0: Der Angeklagte ist unschuldig. Nullhypothese ➢ H1: Der Angeklagte ist schuldig. Alternativhypothese Man hat ausreichend Beweise für die Schuld des Angeklagten gefunden. Dann wird HO abgelehnt und H1 angenommen. Der Angeklagte ist mit ziemlicher Sicherheit schuldig. Man hat nicht ausreichend Beweise für die Schuld des Angeklagten gefunden. Damit wurde seine Unschuld (H0) jedoch nicht bewiesen. Vielmehr muss man eingestehen, dass man es einfach nicht weiß.
129
4.1 Welche statistische Annahme liegt der Alternativhypothese zugrunde?
Behauptet das Gegenteil der Nullhypothese, also dass ein Unterschied bzw. Zusammenhang besteht
130
4,2 Wie lautet die Bezeichnung, wenn eine Hypothese verworfen wird?
Falsifizierung
131
4.2 Warum sind Hypothesen mehrdimensional?
Hypothesen stellen eine Kombination aus der verschiedenen Hypothesenarten dar. Thesen = eindimensional, während Hypothese verbinden zwei unterschiedliche Variablen (setzen diese in eine Beziehung zueinander). In wissenschaftlicher theoriebasierter Forschung werden immer 2 Hypothesen aufgestellt (Null- und Alternativhypothese)
132
4.2 Bedeutung der Nullhypothese
➢ Behauptet, dass kein Zusammenhang bzw. kein Unterschied besteht ➢ Statistisches Hypothesenpaar besteht aus Nullhypothese und Alternativhypothese
133
4.2 Alternativhypothese definieren
➢ Behauptet das Gegenteil der Nullhypothese, also dass ein Unterschied bzw.
134
Zusammenhang besteht ➢ In der Forschung wird Nullhypothese getestet ➢ Wenn die Daten gegen die Nullhypothese sprechen, wird sie abgelehnt und die Alternativhypothese angenommen ➢ Empirisch überprüfbar
135
4.2 Welcher Typ von Forschungshypothesen bezieht sich auf die Effektgröße?
Spezifische Hypothese
136
4.2 Erkläre Falsifizieren und Verifizieren
➢ Falsifizieren: hierbei wird die Hypothese verworfen bzw. widerlegt (nicht bestätigt) ➢ Verifiziert: hierbei wird die Hypothese bestätigt
137
4.2 Zusammenhangshypothesen
➢ Es wird ein Zusammenhang von zwei Merkmalen postuliert
138
4.2 Arten der Kategorisierung und warum Hypothese nicht eindimensional: 10P 4/5 Arten von Hypothesen nennen und kurz erklären, warum Hypothesen nicht eindimensional sind 10 P Kategorisierung von Hypothesen
Kategorisierung nach: ➢ Aussagebereich (Universelle Hypothese, Existenzielle Hypothese, Hypothese über Anteile) ➢ Grad der Konkretisierung (Forschungshypothese, operationale Hypothese, statistische Hypothese) ➢ Untersuchungsziel (Zusammenhangshypothese, Unterscheidungshypothese, Veränderungshypothese) ➢ Gerichtetheit (gerichtete und ungerichtete Hypothese) ➢ Spezifität (spezifische und unspezifische Hypothese) Hypothesen sind mehrdimensional, sie verbinden zwei Variablen miteinander und bringen diese in eine Beziehung miteinander gestellt. Dabei werden immer zwei Hypothesen aufgestellt H0 und H1 Hypothese.
139
140
5.1 Noch unbehandelte Daten nennt man auch …
Rohdaten
141
5.1 Welche vier Schritte gehören zur Umwandlung der Rohdaten in einen strukturierten Datensatz?
Sortierung, Zuordnung, Digitalisierung, Formatierung
142
5.1 Warum sollte man eine Datenaufbereitung machen?
Fehler in der Datenaufbereitung und Datenbereinigung können dazu führen, dass alle Ergebnisse verfälscht sind
143
5.1 Erkläre belastbare Handlungsempfehlungen.
➢ Nur „saubere“, gut aufbereitete und dokumentierte Datensätze ermöglichen es, Zusammenhänge in Daten zu finden und somit wertvolle Erkenntnisse zu gewinnen ➢ Nur diese können zu belastbaren Handlungsempfehlungen führen können ➢ Zum Großteil werden Unternehmensentscheidungen auf Basis von (Markt-) Forschungsergebnissen getroffen ➢ Man muss sich daher auf die Ergebnisse verlassen können
144
5.1 Bedeutung des DSGVO und was es beinhaltet.
➢ Datenschutzgrundverordnung Seit 2018 ➢ Verordnung der Europäischen Union, mit der die Regeln zur Verarbeitung personenbezogener Daten durch private Unternehmen und öffentliche Stellen EU-weit vereinheitlicht worden sind.
145
5.1 Anhand Miterbeiterbefragungen erklären warum bei anonymen Befragungen Rückschlüsse zu ziehen sind. Warum bei einer anonymen Mitarbeiter Befragung die Kombination von Merkmalen kritisch ist anhand eines Beispiels
Identifizierbarkeit können bei quantitativen Daten v.a. seltene Merkmale oder Merkmalskombinationen sein, wenn die Zielgruppe bekannt oder besonders klein ist. Dies kann z. B. häufiger bei Mitarbeiterbefragungen der Fall sein. Auch wenn diese anonym sind, könnten durch die Kombination von bestimmten Merkmalen Rückschlüsse auf einzelne Personen sein (Beispiel: Frauen mit einer körperlichen Einschränkung in einer Führungsposition und mit einer Betriebszugehörigkeit von mehr als zehn Jahren). Jedes Merkmal für sich ist relevant für eine Analyse. Aber in dieser Kombination wäre
146
erläutern (wegen der Identifizierbarkeit)
wahrscheinlich leicht ermittelbar (oder zumindest eingrenzbar), um wen es sich handelt.
147
5.1 Datenbereinigung
Fehlerhafte Werte herausfinden, Entfernung von Dubletten & Umgang mit fehlenden Werten
148
5.2 Nenne 3 Statistikprogramme
• SPSS • PSPP • R
149
5.2 Was muss man alles tun und welche Formen werden verwendet, um etwas in ein statistisches Programm zu pflegen
1. Codeplan erstellen, um Daten auswerten zu können 2. den einzelnen Fragen werden Variablennamen zugeordnet 3. den einzelnen Merkmalsausprägungen einer Variablen werden Codes zugeordnet 4. Eingabe in tabellarischer Form • Jede Zeile steht für einen Befragten • Jede Spalte für eine Variable • Jede Zelle enthält die Antwort auf eine bestimmte Frage
150
5.2 Warum benötigt jeder Fragebogen eine eigene ID?
• Ermöglicht das eindeutige zuordnen der Antworten zu den Personen
151
5.2 Worin bestehen die beiden Aufgaben des Codeplans?
Ein Codeplan ordnet den einzelnen Fragen eines Fragebogens Variablennamen und den Merkmalsausprägungen einer Variablen Codes zu
152
5.2 Erkläre die Aussage, jede Zelle hat seinen variablen wert
Die einzelnen Zellen enthalten die Werte der jeweiligen Variablen des jeweiligen Falles
153
5.2 Wie muss eine Fragebogen-ID aufgebaut sein?
eindeutig
154
5.2 Erklären sie was ist eine Matrixfrage und was ist beim Erstellen eines Codeplans hierbei zu beachten?
➢ Bei einer Matrixfrage wird jede Antwort separat codiert ➢ Jede Zeile der Matrix wird als eigene Variable aufgeführt und die Antworten jeweils mit einem Code versehen Bsp.: Sie sind = F1 (Geschlechtervariable) Weiblich =1 Männlich= 2
155
5.2 Drei Funktionen der Datenaufbereitung erläutern (10 P)
Fehler vermeiden • Unvollständige oder fehlerhafte Datensätze führen zu falschen Ergebnissen und verzerren Analyse Nutzung für Re- und Sekundäranalyse • Gut aufbereitete Daten ermöglichen eine spätere Weiterverwendung durch Forscher Ethische Probleme vermeiden • Anonymisierung schützt Teilnehmer vor Identifizierbarkeit -> wichtig für Forschungsethik & Datenschutz
156
5.2 Warum ist sorgfältige Datenaufbereitung wichtig?
Weil es sonst zu Verfälschungen im Ergebnis kommen kann, wenn Fehler in der Datenaufbereitung und Datenbereinigung passieren. Nur auf Basis von „sauberer“ Daten, also gewissenhaft Aufbereiteten Daten können belastbare Handlungsempfehlungen getroffen werden.
157
158
5.2 Schritte/Teile/ Kriterien der Datenaufbereitung erläutern
1. Erstellung der Datensätze • Umwandlung des Rohmaterials in strukturierte Datensätze • Sortierung, Zuordnung, Digitalisierung, Formatierung 2. Kommentierung der Datensätze • Ergänzung der Daten um Metainformationen (Erhebungsdatum, Bedeutung d. Variablen) 3. Anonymisierung der Datensätze nach DSGVO (Datenschutz) • Alle Informationen, die zur Identifizierung von Teilnehmern führen können, entfernen 4. Datenbereinigung • Fehlerhafte Werte herausfinden, Entfernung von Dubletten & Umgang mit fehlenden Werten 5. Datentransformation • Daten zusammenfassen oder recodieren –> ermöglicht repräsentative Ergebnisse
159
5,3 Was ist ein einfacher Weg, um schnell einen Datenüberblick zu bekommen?
Häufigkeitstabellen
160
5.3 Wofür dienen Ergebnistabellen?
Anhand von Ergebnistabellen kann man sehen, ob es Variablen gibt, bei denen Codes vorhanden sind, die nicht vorab definiert wurden
161
5.3 Wie entstehen Fehler bei Ergebnistabellen?
➢ Wenn Befragungen an unterschiedlichen Zeitpunkten wiederholt werden (Wellen) ➢ Wenn nicht alle Datensätze gleich codiert sind
162
5.3 Kriterien der Datenaufbereitung
➢ Vollständigkeit aller relevanten Daten ➢ Einheitlichkeit: Gleiche Formate (z.B. Datums- oder Währungsangaben) ➢ Ausschluss doppelter Werte (entfernen von Dubletten) ➢ Behandlung fehlender Werte: Strategien, um mit fehlenden Werten umzugehen ➢ Ausreißererkennung: Identifikation ungewöhnlicher Werte ➢ Plausibilität d. Antwortmuster: sicherstellen, dass Antworten logisch konsistent sind
163
5.3 Schritte der Datenbereinigung
1. Überprüfung d. Häufigkeitsverteilung, um nicht definierte Werte oder Codierungsfehler zu entdecken 2. Anonymisierung d. Datensätze nach DSGVO: Sicherstellung, dass keine Identifizierung der Befragten möglich ist -> besondere Vorsicht bei seltenen Merkmalskombinationen (dürfen keine Rückschlüsse auf Einzelpersonen zulassen) 3. Fehlererkennung: Korrektur o. Entfernung von unplausiblen o. fehlerhaften Daten 4. Stereotype Antwortmuster: Identifikation von Befragten, die konsistent extreme o. mittlere Werte ankreuzen 5. Löschung d. IP-Adresse: zum Schutz d. Anonymität d. Befragten
164
5.3 Was bezeichnet der Schritt der Anonymisierung?
Nach der Datenschutzgrundverordnung (europäische Union seit 2018), gibt es verbindliche Regeln zur Verarbeitung von personenbezogenen Daten durch private Unternehmen und öffentlichen Stellen. Die Datensammlungen dürfen keine Rückschlüsse auf Personen zulassen. Es müssen alle Informationen, die zur Identifizierung von Teilnehmern führen könnten, entfernt werden
165
5.3 Definition IP-Adresse:
➢ Adresse im Computernetzwerk ➢ basiert auf Internetprotokoll ➢ wird Geräten zugewiesen und macht sie somit adressierbar und erreichbar
166
5.3 Wofür dienen IP-Adressen?
➢ im Rahmen der Qualitätskontrolle hilfreich ➢ dient der Überprüfung, ob ein Befragter den Fragebogen mehrmals ausgefüllt hat oder bei Fremdvergabe ➢ Unvollständige oder fehlerhafte Fragenbögen fallen sofort auf und können entfernt
167
werden
168
5.3 Was sind Mittelkreuzer?
Befragte, die immer die mittlere Kategorie ankreuzen
169
5.3 Was sind Extremkreuzer?
Befragte, die immer die Randkategorien ankreuzen
170
5,3 Was sind Speeder?
Befragte, die den Fragebogen überdurchschnittlich schnell ausfüllen
171
5.4 Warum empfiehlt es sich, die Transformationen in einer Kopie des Datensatzes durchzuführen?
Weil Daten bei der Datentransformation unwiderruflich verloren gehen können.
172
5.4 die 4 Schritte der Datentransformation
1. Umgang mit fehlerhaften Werten 2. Umcodierung von Variablen 3. Bildung neuer Variabler 4. Gewichtung von Stichproben
173
5.4 Datentransformation was sind belastbare Handlungsempfehlungen
Es empfiehlt sich, nach Abschluss von Dateneingabe, Codierung und Datenbereinigung den Datensatz zu speichern und für die Datentransformation mit einer Kopie weiterzuarbeiten. Die folgenden Schritte umfassen mehr oder weniger weitreichende Transformationen des Rohdatenmaterials. Dabei kann es vorkommen, dass verschiedene Ansätze bei der Datentransformation ausprobiert und dann verglichen werden sollen. Es können bei der Datentransformationen aber auch Fehler passieren, die zur Folge haben, dass bestimmte Daten unwiderruflich verloren gehen. In jedem dieser Fälle kann dann auf den Original- Datensatz zurückgegriffen werden.
174
5.4 Warum ist es hilfreich die im Menü ausgewählten Transformationsoptionen als Befehlssyntax ausgeben zu lassen?
um Prozess transparent & nachvollziehbar zu gestalten
175
176
5.4 Wie werden fehlende Daten gekennzeichnet?
➢ Manchmal überspringen Befragte unangenehme Fragen (z.B. zum Einkommen) ➢ Frage muss als ungültig gekennzeichnet werden ➢ Markierung durch eigenständige Codes (Bsp.: „-99“ für übersprungen oder „-77“ für Frage nicht gestellt)
177
5.4 warum Codierung fehlender Werte und Folgen
damit man anschließend unterscheiden kann, ob jemand die Frage nicht beantworten wollte (weil z.B. unangenehm -99 oder aufgrund von Filterführung erst gar nicht die Frage gestellt bekommen hat -77)
178
5.4 Was macht die Analyse intuitiver?
➢ Stärkere Merkmalsausprägungen sollten auch einen höheren Wert zugeordnet bekommen ➢ Bsp.: „1“ für sehr oft, „5“ für nie ➢ Umpolung (falsche Codierung) könnte Datenanalyse verzerren ➢ Wenn die Daten dann später in einem Balkendiagramm dargestellt werden, dann würde der niedrigste Balken die häufigsten Besuche darstellen
179
5.4 Warum kann es vorkommen, dass neue Variablen gegründet werden müssen?
➢ Manchmal neue Variablen notwendig -> z.B. für die Berechnung eines Index ➢ Fein abgestufte Variablen müssen in Variablen mit weniger Abstufungen umgewandelt werden
180
5.4 Was kann durch Gewichtungsverfahren korrigiert werden?
Verzerrte Stichproben
181
5.4 Grundprinzip des Gewichtungsverfahren 10P.
➢ Verzerrte Stichproben können durch Gewichtungsverfahren korrigiert werden ➢ Das heißt, dass die Stichprobe durch Gewichtung an die Grundgesamtheit angepasst wird ➢ So bekommen überrepräsentierte Personen ein niedriges, unterrepräsentierte Personen
182
ein hohes Gewicht ➢ Ziel: Stichprobe repräsentiert die Zielpopulation besser (empirische Realität)
183
5.4 Was bedeutet Repräsentativität?
Stichprobe spiegelt die tatsächliche Verteilung in der Grundgesamtheit wider
184
6.1 Wie wird die Inferenzstatistik noch genannt?
Schließende Statistik
185
6.1 Worum geht es bei populationsbeschreibenden quantitativen Studien?
Es geht darum, einzelne Populationsparameter (Mittelwerte oder Prozentwerte) möglichst genau auf der Basis der entsprechenden Stichprobenkennwerte zu schätzen.
186
6.1 Was ist die diskriptive Statistik und welche Mittel benutzt sie.
➢ Dient der Beschreibung von Populationen ➢ Beschreibung empirischer Daten mit Tabellen, Kennzahlen und Grafiken ➢ Mittel: ➢ Maße der Dispersion: Variationsbreite, Varianz, Standardabweichung ➢ Häufigkeiten: absolute Häufigkeiten, relative Häufigkeiten ➢ nutzt Explorative Studien zur Bildung von Hypothesen
187
6.1 Ziel der deskriptiven Statistik
➢ empirische Daten durch Tabellen, Kennzahlen und Grafiken übersichtlich darzustellen und zu ordnen ➢ Vor allem bei sehr umfangreichem Datenmaterial ist das wichtig, um nicht den Überblick zu verlieren
188
6.1 Auswertung Quantitativer Studien/ Handlungsempfehlungen
➢ 1. Datenbereinigung: Korrektur von Fehlern im Datensatz ➢ 2. Stichprobenbeschreibung: Beschreibung zentraler soziodemografischer Merkmale (Bsp. Geschlecht, Alter) ➢ 3. Dateninspektion & deskriptiv-statistische Analysen: Prüfung der Daten auf Unklarheiten oder Fehler vor komplexen Analysen ➢ 4. Inferenzstatistische Analysen: Parameterschätzung und Hypothesenprüfung
189
➢ 5. Inhaltliche Interpretation: Verknüpfung der Ergebnisse mit den Forschungsfragen und Hypothesen inkl. Empfehlungen
190
6.1 Modus, median, arithm. Mittel, Spannweite berechnen
➢ Modus = Das Merkmal welches am häufigsten auftritt ➢ Median = 1,2,3,4,5, median ist 3; 1,2,3,4 ist der Median 2,5, Die zahlen müssen sortiert werden ➢ Arithm. Mittel = Alle zahlen zusammen durch die Anzahl. 2+2+2=6; 6/3= 2 ➢ Spannweite/Variationsbreite (Range) = kleinster wert vom großem abziehen. 12-3=9
191
6.2 Abgrenzung qualitativen Merkmalen und quantitativen Merkmalen mit 3 Beispielen
qualitativen Forschung ➢ Einzelfälle ausführlich untersuchen und diese interpretativ auswerten ➢ z.B. Experteninterview, qualitative Inhaltsanalyse, Fallstudie ➢ Quantitative Merkmale: Einkommen, Gewicht und Alter Quantitative Forschung ➢ Sammlung möglichst vieler Ergebnisse, um diese statistisch auszuwerten ➢ z.B. Umfrage, Systematische Beobachtung, quantitative Inhaltsanalyse, Experiment ➢ Qualitative Merkmale: Haarfarbe, Geschlecht, Schulabschluss
192
6.2 Variablen was gehört nicht dazu MC
Es gibt: - Diskrete Variablen - Stetige Variablen - Quasi-stetige Variablen
193
6.2 Zusammenhang zwischen diskrete/stetig/quasi stetig
➢ Diskrete Variable: Die Menge der angenommenen Werte ist abzählbar ➢ Stetige Variable: Die Menge der angenommenen Werte ist nicht abzählbar ➢ Quasi-stetige Variable: Die Menge der angenommenen Werte ist nur aufgrund der
194
mangelnden Auflösung des Messgerätes nicht abzählbar
195
6.2 Welche der folgenden Aussagen treffen auf das Verhältnis von arithmetischem Mittel und Ausreißerwerten zu?
Das arithmetische Mittel ist anfällig für Ausreißerwerte.
196
6.2 Was bedeutet das 75-Prozent- Perzentil in einer Verteilung?
Das 75-Prozent-Perzentil bedeutet, dass z. B. 75 Prozent aller Befragten unterhalb dieses Wertes liegen.
197
6.2 Wie nennt man eine Verteilung, bei der die Werte auf der rechten Seite der Verteilung stärker streuen als auf der linken Seite?
Linkssteil.
198
6.2 Die Differenz zwischen Minimum und Maximum einer jeden Kategorie bezeichnet man als?
Kategorienbreite.
199
6.2 6 Kriterien der Kategoriebreite/6 Merkmale der Kategorienbildung
• 1. Differenzierung ermöglichen (aber nicht zu viele) • 2. möglichst gleiche Breite • 3. Alle Kategorien haben gewisse Mindestanzahl an Fällen • 4. Natürliche Schwellenwerte berücksichtigen • 5. Möglichst unabhängig von Ausreißerwerten • 6. Grenzen plausibel und gut kommunizierbar
200
6.2 Skalennieveaus nennen und welche Merkmale sie aufweisen
➢ Nominalskala: ➢ niedrigstes Messniveau, keine Reihenfolge/Berechnungen möglich, nur Kategorien ➢ (Bsp. Geschlechter) ➢ Berechnung: Modus
201
➢ Ordinalskala: ➢ Einordnung der Werte in eine Rangfolge (ohne math. Bedeutung) ➢ (Bsp. Schulnoten) ➢ Berechnung: Median
202
➢ Intervallskala: ➢ kein natürlicher Nullpunkt, Abstände zw. Werten = immer gleich groß (Intervall) ➢ (Bsp. Temperatur) ➢ Berechnung: Arithmetisches Mittel
203
➢ Verhältnisskala: ➢ hat alle Eigenschaften einer Intervallskala ABER mit absolutem Nullpunkt! ➢ (Bsp. Alter, Preise) ➢ Berechnung: Arithmetisches Mittel
204
6.2 Welche Skala ist eine metrische Skala, bei der die Abstände zwischen den Werten auf der Skala identisch sind, aber aufgrund des fehlenden echten Nullpunkts nicht ins Verhältnis gesetzt werden können?
Intervallskala
205
6.2 Es gibt verschiedene Skalenniveaus. Welches passt zu den Beispielen
Nominalskala
206
„Studienrichtungen, Geschlecht und Lieblingszeitungen“?
207
6.2 Es gibt verschiedene Skalenniveaus. Welches passt zu den Beispielen „Temperatur und Intelligenzquotient“?
Intervallskala
208
6.2 Es gibt verschiedene Skalenniveaus. Welches passt zu den Beispielen „Beliebtheitsrangliste und soziale Schichten“?
Ordinalskala
209
6.2 Es gibt verschiedene Skalenniveaus. Welches passt zu den Beispielen „Größe, Nahrungswert in Kalorien und Alter“?
Verhältnisskala
210
6.2 Es gibt verschiedene Skalenniveaus. Welches passt zu folgendem Beispiel „Versuchspersonennummer“?
Nominalskala
211
6.2 Es gibt verschiedene Skalenniveaus. Welches passt zu den Beispielen „Inflation und Preis“?
Verhältnisskala
212
213
6.2 abhängig vom jeweiligen Skalenniveau stehen verschiedene Methoden zur Verfügung, um beispielsweise Lagemaße anzugeben. Bei welchem Skalenniveau kann kein Median bestimmt werden?
Nominalskala
214
6.2 Skalenniveau bei Geschlecht?
Nominalskala
215
6.2 Skalenniveau bei errechnete Durchschnittsquote bei Hochschulbewerbung?
Ordinalskala
216
6.2 Skalenniveau bei Stärke der Interessen an verschiedenen Studienschwerpunkten anhand einer Skala.
Intervallskala
217
6.2 Stellen Sie sich vor, es liegen in ihrem Daten Satz für einzelne Variablen sogenannte Ausreißerwerte vor. 1)Welches Lagemaß ist zu bevorzugen? 2)Begründen Sie bitte kurz.
Median, Weil das arithmetische Mittel durch Ausreißerwerte stark verzerrt wird.
218
6.3 Welcher Begriff bezieht sich auf die Häufigkeit einer Ausprägung eines Merkmals in Bezug auf die gesamte Messung?
Randhäufigkeit
219
6.3 identifizieren Sie in der folgenden Hypothese bitte die unabhängige und abhängige Variable. „Männer werden durch den Arbeitgeber während des Studiums eher unterstützt als Frauen.“
➢ unabhängige Variable: Geschlecht ➢ abhängige Variable: Unterstützung durch den Arbeitgeber
220
6.3 Zusammenhänge zwischen zwei Variablen werden durch folgende Rechnung ermittelt?
Korrelationsrechnung
221
6.3 Welche Werte kann der Korrelationskoeffizient der Produkt- Moment-Korrelation annehmen?
von r = –1 bis r = +1
222
6.3 Korrelationskoeffizienz, was bedeutet das für ein Ehepaar mit dem Alter x und y
Der Korrelationskoeffizient r bezeichnet den Wert für die Stärke des Zusammenhangs von zwei Variablen im Wertebereich von –1 bis +1. Angenommen, es soll untersucht werden, ob ein bestimmtes Produkt eher von verheirateten Paaren gekauft wird als von nicht verheirateten. Diese Information ist relevant, um ggf. das Marketing für das Produkt auszurichten. In einer Studie wird nun aufgezeigt, dass die Annahme tatsächlich zutrifft; verheiratete Paare kaufen das Produkt eher. Was allerdings bis dahin nicht berücksichtigt worden ist, ist, dass der Zusammenhang nicht über den Status der Ehe entsteht, sondern über das Alter der Verbraucher
223
6.3 Wie nennt man die Stärke des Zusammenhangs von zwei Variablen unter Herausberechnung einer dritten Variablen?
partielle Korrelation
224
6.3 2 Korrelationskoeffizienten beschreiben 8P. Korrelationskoeffizient nach Pearson
Wie stark diese Beziehung zwischen den Variablen ist, wird durch den Korrelationskoeffizienten r zum Ausdruck gebracht (Produkt-Moment-Korrelation). Er kann alle Werte zwischen –1 und +1 annehmen. ➢ Den Pearson-Korrelationskoeffizienten nutzt man bei normalverteilten Daten und bei einem linearen Zusammenhang zwischen den beiden Variablen. ➢ Sind die Daten nicht normalverteilt und/oder ist der Zusammenhang nicht linear, kann man auf die Spearman-Korrelation zurückgreifen. Diese bezieht sich auf die Ränge der Daten. Dadurch kann sie auch nichtlineare Zusammenhänge erkennen und ist nicht auf normalverteilte Daten beschränkt
225
6.3 Vorgehensweise des Chi-Quadrat- Tests 8 P.
Ziel: • Überprüft, ob Unterschiede in den Häufigkeiten zufällig sind, oder einen signifikanten Zusammenhang zeigen • Vergleich zw. empirisch beobachteten Häufigkeiten und erwarteten Häufigkeiten • Berechnung der Prüfgröße X2 (Chi-Quadrat) aus den Abweichungen in einer Kreuztabelle • Wenn Unterschied sehr groß -> wahrscheinlich kein Zufall
226
„Das Verfahren der kleinsten Quadrate“:
= die Quadrierung, Summierung & Minimierung der Residuen aller Datenpunkte • Größere Abstände werden stärker gewichtet • Positive & Negative Abstände heben sich nicht auf
227
6.4 Wie viele und welche Merkmale sind nötig, um eine Normalverteilung vollständig zu beschreiben?
Wird durch 2 Parameter beschrieben: • Arithmetisches Mittel/Mittelwert (μ) • Streuung/Standardabweichung (σ)
228
6.4 Wie viele Prozent der Fälle liegen bei einer Normalverteilung unter dem Bereich von ± einer Standardabweichung?
0.6826
229
6.4 Die Wurzel aus der empirischen Varianz bezeichnet man als die?
Standardabweichung
230
6.4 Den Abstand des Datenpunktes zur Regressionsgeraden in einer Regression nennt man …
Residuum
231
6.4 … gibt an, wie gut das Modell durch die Regressionsgerade erklärt wird
Das Bestimmtheitsmaß R² …
232
233
6.4 Fragen, die mithilfe der Regessionsanalyse bearbeitet werden können.
1. Zeitreihenanalyse 2. Wirkungsprognosen 3. Ursachenanalyse
234
6.4 Welcher Begriff kann als alternative Bezeichnung für die abhängige Variable im Zusammenhang mit der Regressionsanalyse genutzt werden?
• Regressand = abhängige Variable • Regressor = unabhängige Variable
235
6.4 Welche Fragestellung können mit der Reggresionsanalyse beantwortet werden
➢ Ausgangspunkt = eindeutige Richtung der Zusammenhänge Bsp.: Die verkaufte Menge an Gummistiefeln ist mit ziemlich sicherer Wahrscheinlichkeit wetterabhängig. Umgekehrt erscheint der Zusammenhang nicht sinnvoll. Ergo muss die angenommene Richtung des Zusammenhanges theoretisch gut begründet werden.
236
6.5 Auf welchen Begriff bezieht sich nachfolgende Aussage? „Die Alternativhypothese H1 wird akzeptiert, obwohl die Nullhypothese H0 gilt. Folglich wurde ein behaupteter Effekt irrtümlicherweise für bestätigt gehalten.“
Alpha-Fehler
237
6.5 Alpha und Beta Fehler anhand des Signifikanzniveau erklären
➢ Fehler 1 (Alpha-Fehler) – Nullhypothese ablehnen, obwohl sie wahr ist ➢ Fehler 2 (Beta-Fehler) - man lehnt die Alternativhypothese ab, obwohl diese wahr ist ➢ Signifikanz festlegen: Man ist bereit Nullhypothesen abzulehnen, wenn die Wahrscheinlichkeit, dass die beobachteten Fehler auf einem Zufall beruhen unter 5%
238
liegt
239
6.5 Was lässt sich durch das arithmetische Mittel und die Streuung vollständig beschreiben?
Normalverteilung
240
6.5 Die Standardabweichung kann anhand konkreter Werte angegeben werden. Um welche Werte handelt es sich?
Mo= 0 Wendepunkt liegen bei -1 und +1 Streuung σ =1
241
6.5 Die Anzahl der Werte, die frei variiert werde können, ohne den interessierenden statistischen Parameter zu ändern, nennt man…
Freiheitsgrade
242
6.5 Stellen Sie sich bitte folgende Situation vor: Es liegen zwei Datensätze vor. Ihnen liegen die Werte für das arithmetische Mittel (μ) und für die Streuung (σ) vor: μ1 = μ2 σ1 = σ2 Was können Sie aus diesen Werten ableiten.
Es handelt sich hierbei jeweils um dieselbe Normalverteilung. Warum? Weil „Jede Normalverteilung ist durch ihr arithmetisches Mittel μ und ihre Streuung σ vollständig beschrieben.“
243
6.5 Folgende Werte beziehungsweise Eigenschaften von Kennwerten sind bekannt. Um welche Verteilung handelt es sich?
a. Median = arithmetisches Mittel = Modus, Normalverteilung b. Mittelwert = 0; Standardabweichung = 1, Standardnormalverteilung
244
6 Werte (42,3; 28,2; 30,5; 32; 33;
Anderes Wort für Spannweite = Variationsbreite oder Range
245
38,8) bekommen und dafür Median, arithmetisches Mittel und Spannweite berechnen und sagen wie Spannweite auch genannt wird 10P.
Median: 2, 3, 5, 8, 28, 30, 32, 33, 38, 42 -> Median = 28 (Mittelwert) Arithmetisches Mittel: 22,1 Spannweite: 42 -2 = 40
246
6.5 Was ist Diskrete Wahrscheinlichkeit
• kann jedem möglichen (zählbaren) Wert der diskreten Zufallsvariablen eine Wahrscheinlichkeit ungleich null zugeordnet werden • oft in tabellarischer Form dargestellt
247
6.5 Wodurch ist eine diskrete Wahrscheinlichkeitsverteilung gekennzeichnet
• Es werden allen Werten auf der x-Achse bestimmte Wahrscheinlichkeiten auf der y- Achse zugeordnet • Median, Modus & arithmetisches Mittel liegen relativ dicht beieinander
248
6.5 Vervollständigen nachfolgende Lücken mit den jeweiligen Richtwerten.
a. Korrelationskoeffizient r kann alle Werte zwischen -1 und +1 annehmen. b. für ein 95-Prozent-Konfidenzintervall: z = 1,96 c. für ein 99-Prozent-Konfidenzintervall: z = 2,58 d. Bestimmtheitsmaß R² kann alle Werte zwischen 0 bis -1 annehmen. e. Normalverteilung: σ = 1 und 𝑥̅¯ = 0
249
6.5 Erwartungswert, inwieweit er dem Populationsmittelwert entspricht
➢ Erwartungswert wird auch erwartungstreuer Schätzer des Populationsparameters genannt ➢ der Mittelwert der Stichprobenkennwerteverteilung = Erwartungswert der Grundgesamtheit ➢ Populationsparameter = tatsächliche Verteilung der Stichprobe in der Grundgesamtheit
250
6.5 Was bedeutet Parameter und Schätzwert im Zusammenhang mit der Wahrscheinlichkeitstheorie.
• Grundlage der Inferenzstatistik = Wahrscheinlichkeitstheorie • Mit ihr kann man Wahrscheinlichkeitsaussagen über die Grundgesamtheit treffen • Dazu benötigt man eine Stichprobenverteilung = Grundlage für die Verfahren der Inferenzstatistik • Man kann mathematisch nachweisen, dass dieser Erwartungswert dem
251
Populationsmittelwert entspricht • Deswegen wird er auch als erwartungstreuer Schätzer des Populationsparameters bezeichnet.
252
6.5 Welche Hypothese(n) will man beweisen?
Nur die Alternativhypothese.
253
6.5 Wie viel Prozent der Fläche liegen bei einer Standardnormalverteilung zwischen +/- 2 Standardabweichungen?
0.9544
254
6.5 Wie nennt man die Anzahl der Werte, die frei variiert werden können, ohne den interessierenden statistischen Parameter zu ändern.
Freiheitsgrade
255
6.5 Warum wird die Prüfgröße standardisiert?
➢ Damit es für den Test egal ist wie groß die Stichprobe ist ➢ welcher Mittelwert als Nullhypothese festgelegt wurde ➢ welche Streuung die Daten aufweisen
256
Beschreibe die t-Verteilung und nenne Unterschiede zur Standardnormalverteilung:
➢ t-Verteilung = stetige symmetrische Verteilung ➢ ähnelt in der Form der Glockenkurve der Normalverteilung bzw. Standardnormalverteilung ➢ aber niedriger und breiter ➢ kann verwendet werden, wenn die Varianz bzw. Standardabweichung der Grundgesamtheit nicht bekannt ist
257
6.5 Welche Art von Hypothesen wird
• Bei gerichteter Hypothese: einseitige Tests
258
259