MC 26 - Ende Flashcards Preview

statistik > MC 26 - Ende > Flashcards

Flashcards in MC 26 - Ende Deck (29)
Loading flashcards...
1

26. Für Mittelwerte kann man keine Konfidenzintervalle berechnen, da Mittelwerte aus quantitativen Daten berechnet werden.

Für Mittelwerte kann man keine Konfidenzintervalle berechnen, da Mittelwerte aus quantitativen Daten berechnet werden.
>> falsch
• gerade weil Mittelwerte aus quantitativen Daten berechnet werden, kann man auch
Konfidenzintervalle für sie erstellen
• Man kann Konfidenzintervalle für Wahrscheinlichkeiten (p) und Mittelwerte (μ) berechnen
• Das 95%-Konfidenzintervall für den Mittelwert gibt an, innerhalb welcher Grenzen sich der
wahre Mittelwert μ in der Grundgesamtheit befinden wird (für die Berechnung braucht
man die Werten aus der Stichprobe: Mittelwert x Strich und s)
• Das Konfidenzintervall für die Wahrscheinlichkeit gibt an, innerhalb welcher Grenzen die
wahre Wahrscheinlichkeit liegen wird

2

27. 𝒑̂ gibt die wahre Erfolgswahrscheinlichkeit in der Grundgesamtheit an.

>> falsch
• p mit Dach gibt die Wahrscheinlichkeit in der Stichprobe an (p Dach = k/nalso Anzahl
der Ereignisse (z.B. 45 mal Zahl erhalten) geteilt durch n (Anzahl der Münzwürfe) = 0,45)
• p ohne Dach gibt die Erfolgswahrscheinlichkeit in der Grundgesamtheit an

3

28. Die obere und untere Grenze, in der der wirkliche Wert von p mit einer Wahrschein- lichkeit von 95% liegt, berechnet sich über

>> richtig
• wenn man das 99%-Konfidenzintervall statt das 95%-Konfidenzintervall haben möchte,
muss man statt der 2 eine 2,75 einsetzen
• Ein Konfidenzintervall mit 99% Sicherheit (99%-Konfidenzintervall) ist immer breiter als ein
95% Konfidenzintervall.

4

29. Die Berechnung des Konfidenzintervalls für Mittelwerte besitzt n-2 Freiheitsgrade.

>> falsch
• Die Berechnung besitzt n-1 Freiheitsgrade (bei 15 Personen also 14)
• Diese Freiheitsgrade braucht man nur, wenn man die wahre Streuung σ in der untersuch-
ten Grundgesamtheit nicht kennt und sie deshalb aus Strichprobenwert s schätzen muss

5

30. Mithilfe der z-Transformation berechnet man die Wahrscheinlichkeit für das Auftreten des Wertes x.

>> falsch
• die z-Transformation wird durch diese Formel berechnet: 𝒛 = 𝒙 − 𝝁 durch 𝝈
• diese Transformation kann jede Normalverteilung in Standardnormalverteilung überführen

6

31. Der α -Fehler gibt die Wahrscheinlichkeit an, die H0 fälschlicherweise anzunehmen, also die HA abzulehnen, obwohl die HA tatsächlich gilt.

>> falsch
• der α-Fehler gibt die Wahrscheinlichkeit an, die H0 fälschlicherweise zu verwerfen, obwohl
sie eigentlich gilt (und die HA oder auch H1 genannte Alternativhypothese anzunehmen)
• das in der Frage geschilderte ist der β-Fehler

7

32. Eine ungerichtete Testung führt zu zwei Ablehnungsbereichen (je einen in beide möglichen Richtungen der Verteilungen) die jeweils die Fläche α einschließen.

>> falsch
• bei ungerichteter Testung gibt es 2 Ablehnungsbereiche, die aber jeweils nur die Fläche
α/2 (einhalb alpha, damit die beiden Bereiche zusammen α ergeben)
• bei gerichteter Testung schneidet man nur an einer Seite den Ablehnungsbereich ab, dann aber auch gleich den ganzen auf einmal
• bei α = 0.05 (also 5%-Niveau) müsste man bei gerichteter Testung auf einer Seite also die
Fläche 5 abschneiden und bei ungerichteter Testung auf beiden Seiten je 2,5

8

33. Je kleiner α gewählt wird, desto kleiner wird der Annahmebereich der Nullhypothese und desto größer wird der β-Fehler.

>> falsch
• je kleiner alpha gewählt wird, desto größer wird der Annahmebereich der Nullhypothese
• je kleiner alpha gewählt wird, desto größer wird der β-Fehler
• je größer β gewählt wird, desto größer ist der Annahmebereich der Nullhypothese
• je größer β gewählt wird, desto kleiner ist der α-Fehler
• der α-Fehler und der β-Fehler variieren gegenläufig. Je größer der eine, desto kleiner der
andere

9

34. Die chi2-Teststatistik für Vierfeldertafeln kann nur angeben, ob die UV und die AV zusammenhängen. Die Richtung des Zusammenhangs ist dabei unklar.

>> richtig
• mit chi2 kann man ungerichtet testen, da es durch das Quadrat keinen negativen
Wertebereich gibt

10

35. Der chi2-Test für Vierfeldertafeln vergleicht die Mittelwertsunterschiede zwischen zwei oder mehr Gruppen oder Bedingungen.

>> falsch
• der chi2-Test für Vierfeldertafeln vergleicht, wie sehr das gefundene Ergebnismuster von
einer „Idealtabelle“ abweicht. Er ist nur für qualitative Merkmale zuständig.

• der t-Test vergleicht die quantitativen Mittelwertsunterschiede zwischen zwischen zwei
oder mehr Gruppen oder Bedingungen. Entweder für abhängige oder für unabhängige Gruppen

11

36. Die Teststatistik des chi2-Tests für Vierfeldertafeln ist ein Diskrepanzmaß, das die Unterschiede der betrachteten quantitativen Merkmale aufzeigt.

>> falsch
• chi2 ist ein Diskrepanzmaß, aber betrachtet nur qualitative (kategorische) Daten!

12

37. Die im chi2-Test erwarteten Häufigkeiten müssen größer gleich 10 sein.

>> falsch
• jede der erwarteten Häufigkeiten muss größer oder gleich 5 sein
• wenn sie zu klein sind, verwendet man den Exakten Test von Fisher

13

38. Ist der empirische chi2-Wert kleiner als der kritische chi2-Wert, so verwerfen wir die Nullhypothese, ist er dagegen größer als der kritische chi2-Wert behalten wir die Nullhypothese bei.

>> falsch
• genau andersrum: wenn der empirische Wert größer als der kritische ist, verwirft man H0

14

39. Die chi2-Statistik lässt sowohl gerichtetes als auch ungerichtetes Hypothesentesten zu.

>> falsch
• wegen Quadrat geht nur ungerichtetes

15

40. Der t-test für unabhängige Stichproben prüft eine empirische Mittelwertsdifferenz auf Signifikanz.

>> richtig
• man berechnet die Differenzen zwischen beiden unabhängigen Gruppen und prüft, ob
dieser Unterschied zu groß ist, um noch mit Zufall erklärt werden zu können

16

41. Der t-Test für unabhängige Stichproben betrachtet Mittelwertunterschiede zwischen zwei Bedingungen

.
>> richtig
• der t-Test für unabhängige Stichproben betrachtet die Unterschiede zwischen den zwei
Bedingungen bei zwei verschiedenen Gruppen (jede Gruppe gehört nur zu einer Bedingung)

• der t-Test für abhängige Stichproben betrachtet Mittelwertsunterschiede/-differenzen
zwischen 2 Bedingungen, die aber beide bei der gleichen Untersuchungseinheit gemessen werden (vor und nach einer Behandlung, linke und rechte Hand, Geschwisterpaar)

17

42. Laut der zu testenden H0 beim t-Test für unabhängige Stichproben müsste die Differenz beider Mittelwerte gleich Null sein.

>> richtig
• würde so in Kurzform geschrieben werden: H0: μx = μy
• die Mittelwerte der einen Gruppe (die x-Werte liefert) sollten also genau so groß sein, wie die der zweiten Gruppe (die y-Werte liefert). μx minus μy müsste also 0 ergeben.

18

43. Der t-test für unabhängige Stichproben besitzt unter der Gültigkeit der H0 n-m+2 Freiheitsgrade

.
>> falsch

• der t-Test für unabhängige Stichproben besitzt df = n+m-2 Freiheitsgerade

19

44. Der t-Test ist nur ungerichtet möglich, da lediglich die Existenz von Unterschieden mithilfe der Teststatistik erfasst wird.

>> falsch
• chi2 kann nur die Existenz von Unterschieden anzeigen und keine Richtung
• der t-Test kann dagegen entweder ungerichtet oder gerichtet durchgeführt werden und kann deshalb beides: also auch konkrete Richtungen zeigen

20

45. Ein typischer Fall einer abhängigen Stichprobe ist die Messwiederholung.

>> richtig
• andere typische abhängige Stichproben wäre linke und rechte Hand oder Geschwister
• bei Messwiederholung können aber Reihenfolgeeffekte auftreten. Das bedeutet, dass die
erste Messung die zweite beeinflussen kann (wenn die Personen z.B. keine Lust mehr haben oder üben konnten). Dehalb sollte man abwechselnd anfangen

21

46. Die Nullhypothese des McNemar-Tests prüft, ob die relativen Häufigkeiten für die Zugehörigkeit zu einer der vier speziellen Kombinationen gleich sind.

>> falsch
• beim McNemar-Test gibt es zwar theoretisch 4 spezielle Kombinationen
(+l+), (+I-), (-l+), (-l-) also z.B. Quiz bei Mutter und Vater gelöst, nur bei der Mutter gelöst,
nur beim Vater gelöst oder bei beiden nicht gelöst.
• von diesen 4 Kombis sind aber für die Prüfung der Hypothese nur die beiden diskordanten
Fälle (-l+) und (+l-) relevant, da man vergleichen möchte, ob es z.B. mehr Kinder gab, die
Rätsel nur im Beisein der Mutter lösen konnten, als Kinder, die es nur beim Vater lösten.
• die konkordanten Fälle (-l-) und (+l+) sind unwichtig, da es egal ist, ob z.B. viel mehr Kinder
bei beiden Eltern das Rätsel nicht gelöst haben, als Kinder die es bei beiden gelöst haben (weil das keinen Unterschied zwischen Mutter und Vater macht)

22

47. Die Differenzwerte beim t-Test für abhängige Stichproben stellen die Differenz zwischen zwei Werten dar, die zwei Versuchseinheiten bei demselben Merkmal (= Bedingung) erzielt haben.

>> falsch
• die Differenzwerte beim t-Test für abhängige Stichproben stellen die Differenz zwischen zwei quantitativen Werten dar, die eine Versuchseinheit bei 2 Bedingungen ergab.
(also die Differenz zwischen dem betrunkenem und nüchternem Dart-Wurf einer Person)
• Achtung: eine Versuchseinheit kann auch aus zwei abhängigen Personen bestehen, die gleichzeitig gemessen werden, also z.B. Geschwister oder Ehepaare.
• meistens wird aber eine Person vor und nach einem Treatment (z.B. Alkoholkonsum, Therapie) gemessen

23

48. Abhängige Testformen sind dann einzusetzen, wenn die Unterschiede zwischen den Personen klein sind, damit diese speziellen individuellen Unterschiede in den Merkmalen erfassbar sind.

>> falsch
• Abhängige Testformen sind einzusetzen, wenn du Unterschiede zwischen den Personen groß sind.
• wenn man z.B. den Unterschied im Gewicht mit und ohne Kleidung wissen möchte, wäre es sinnlos, eine Gruppe Menschen angezogen zu messen und die andere Gruppe nackt und
diese Werte zu vergleichen (t-Test für unabhängige), da die Unterschiede zwischen den Personen so groß sind, dass die Kleidung gar keinen Unterschied machen würde.
• würde man aber jede einzelne Person einmal mit und einmal ohne Kleidung messen und diese Werte vergleichen (t-Test für abhängige Stichproben), würde man genau sehen können, dass man mit Kleidung z.B. 1 Kilo schwerer ist.
• dafür treten n

24

49. Im McNemar-Test errechnet sich die chi2-Statistik über die Summe der Abweichungen der tatsächlichen Werte von den gemäß der Nullhypothese erwarteten.

>> richtig
• genau das gleiche Prinzip gilt auch beim chi2-Test für unabhängige Stichproben.
• deshalb nennt man chi2 auch Diskrepanzmaß weil Diskrepanz eben genau diese Abweichung der gefundenen tatsächlichen Werte von den „idealen“ Werten (die man finden müsste, wenn die H0 perfekt zutrifft)

25

50. Die Kovarianz kann als nicht-standardisierter Korrelationskoeffizient verstanden werden.

>> richtig
• die Formel für den standardisierten Korrelationskoeffizienten r ist:
• die Kovarianz (Kreuzprodukt) ist das was oben im Zähler steht
• unten im Nenner steht das Produkt der beiden Streuungen der beiden Merkmale
(z.B. Streuung des Blutdrucks (sx) mal Streuung des Körpergewichts (sy) • durch dieses Produkt wird die Varianz normiert und damit
Zusammenhangsmaßstabunabhängig (die Korrelation r bleibt dann gleich groß, egal ob man das Körpergewicht in Kilo oder in Gramm angibt)

26

51. Die Höhe eines Korrelationskoeffizienten lässt Rückschlüsse über seine Signifikanz zu.

>> falsch
• ab welcher Höhe die Werte des Korrelationskoeffizienten r signifikant werden hängt von der Größe der untersuchten Stichprobe ab
• auch ein schwacher Zusammenhang (z.B. r = .01) kann bei einer sehr großen Stichprobe signifikant werden
• ein sehr großes r kann dagegen bei einer zu kleinen Stichprobe trotzdem nicht signifikant sein (weil es z.B. nicht ausreicht, wenn bei 10 Personen ein starker Zusammenhang zwischen Gewicht und Blutdruck gefunden wurde, weil das bei so wenigen noch durch Zufall entstehen könnte)

27

52. Ergebnisse, die anhand von Regressionsmodellen gewonnen wurden, sind generell immer kausal interpretierbar


>> falsch
• man kann zwar teilweise bei der linearen Regression kausale Aussagen treffen („die
Veränderung der UV ist die Ursache für entsprechende signifikante Veränderung AV“), aber dafür muss man auch noch andere Dinge berücksichtigen, deshalb darf man nicht „immer“ oder „generell“ sagen

28

► Was gibt der Korrelationskoeffizient r an

• r ist ein Maß des linearen Zusammenhangs zwischen 2 Variablen (Linie durch Punktewolke)

• ρ (rho) gibt die Korrelation in der Grundgesamtheit an

• r gibt die Korrelation in der Stichprobe an

• wenn r bzw. ρ positiv ist, gehen überdurchschnittliche (große) x-Werte mit
überdurchschnittlichen y-Werten einher (also umso höher das Körpergewicht, desto höher
der Bludruck) und unterdurchschnittliche x mit unterdurchschnittlichen y-Werten

• wenn r negativ ist, ist dieses Verhältnis genau umgekehrt (überdurchschnittliche x-Werte
gehen mit unterdurchschnittlichen y-Werten einher und kleine x- mit großen y-Werten)

• wenn r = 0, hängt der erwartete y-Wert gar nicht mit x zusammen
es gibt also keine lineare Korrelation

29

► Was ist der Unterschied zwischen Korrelation und dem Standardmodell der Regression?

• Fragestellung bei Korrelation: wie ist der Zusammenhang von 2 Variablen

• Korrelation gibt den Zusammenhang von zwei Variablen an, die beide zufällig gemessen
wurden. Die beiden Variablen kann man umkehren, da man nur angibt, dass es einen
Zusammenhang gibt und keine Richtung

• Fragestellung Regression: wie beeinflusst die Veränderung (Manipulation) einer
gegebenen Variable (auch genanntn: X, UV, Prädiktor oder Regressor) eine andere Variable (Y, AV, Kriteriumsvariable, Regressand)?

• Regression bezieht sich auf Situationen, in denen der
Prädiktor (Unabhängige Variable) im Unterschied zum Kriterium (Abhängige Variable) keine Zufallsvariable, sondern eine kontrollierte, fehlerfrei erfasste Größe ist

• in Regressionsanwendungen ist Rolle der beiden Variablen nicht ohne weiteres umkehrbar

• der Untersucher wählt vorab die Anzahl interessierender Stufen der UV (X) aus und weist
die Untersuchungseinheiten zufällig den Stufen zu und untersucht dann den Effekt der Manipulation der UV auf AV (Y