Uge 17 - Comparing 3+ Means: ANOVA part 2 Flashcards

(46 cards)

1
Q

Hvornår bruger man repeated measures ANOVA?

A

Når man er interesseret i at undersøge, hvordan tre eller flere betingelser (eng: conditions) adskiller sig på en kontinuerlig udfaldsvariabel (målbar, eks karakter, temperatur)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Hvad er fordelene ved repeated measures design?

A
  • Mere præcise målinger, fordi hver person sammenlignes med sig selv, og dermed reduceres usystematisk variation, hvilket gør det lettere at opdage, om forsøget har en effekt
  • Det er mindre ressourcekrævende, fordi der er behov for færre deltagere
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Nævn de tre assumptions, som gælder for alle ANOVA tests.

A
  1. Udfaldsvariablen (det man måler) skal være kontinuerlig
  2. Man antager, at data følger en normalfordeling
  3. Der skal være 3 eller flere betingelser/grupper (hvis der kun er 2, bruges en t-test i stedet)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Hvilken assumption gælder (udover de tre andre) særligt for dependent tests?

A

Sphericity: Det betyder, at der skal være nogenlunde ens forskel mellem de forskellige tidspunkter/grupper.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Hvordan ved man, om antagelsen om sphericity er opfyldt?

A

Man undersøger, om disse variansforskelle er nogenlunde ens.
Hvis variansen af forskel A ≈ variansen af forskel B ≈ variansen af forskel C, siger man: Antagelsen om sphericity er opfyldt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Hvordan tester man for sphericity?

A

Med Mauchly’s test i SPSS

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Hvordan tolker man p-værdien ift sphericity?

A

Hvis p > (større end) 0,05, kan vi ikke afvise nulhypotesen → ✅ Det betyder, at sphericity er opfyldt (det er det, vi gerne vil have)

Hvis p < (mindre end) 0,05, skal vi afvise nulhypotesen → ❌ Det betyder, at sphericity er brudt (antagelsen er ikke opfyldt)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Når vi tester for sphericity, hvad gør vi så, hvis p < (mindre end) 0,05?

A

Vi retter i analysen - eks. ved at bruge en Greenhouse-Geisser-korrektion

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Hvad gør en Greenhouse-Geisser-korrektion?

A

Den justerer frihedsgraderne, når sphericity er brudt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Hvad gør man, hvis ens assumptions for repeated measures ANOVA ikke er opfyldt, fordi man har ordinal data?

A

Brug den ikke-parametriske test i stedet – fx Friedmans test

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Hvad gør man, hvis ens assumptions for repeated measures ANOVA ikke er opfyldt, fordi ens data ikke er normalfordelte?

A

Takket være CLT kan du ofte antage normalitet, hvis du har et stort datasæt ( mindst 30 personer).

Hvis du har få deltagere og problemer med normalitet, kan du:
1) Omforme data (fx log-transformation - altså tage log, kvadratrod osv), eller
2) Bruge en ikke-parametrisk test som Friedmans test

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Field foreslår, at du altid rapporterer en korrektion for sphericity - hvilke to korrektioner er der?

A
  1. Greenhouse-Geisser
  2. Huynh-Feldt (Kan bruges, hvis Greenhouse-Geisser’s epsilon (ε) er over 0,75.)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hvad er de 5 steps i en repeated measures (dependent) one-way ANOVA

A
  1. Beregn ANOVA (F-)statistikken (i SPSS)
  2. Undersøg om F-værdien er signifikant (dvs. om der er en reel forskel mellem målingerne - altså vi tjekker, om p-værdien er under 0,05 → det betyder, der er en forskel et eller andet sted)
  3. Lav opfølgende tests for at finde ud af, hvilke målinger/betingelser der er forskellige fra hinanden (fx mellem T1 og T2, T2 og T3)
    – men kun hvis hovedtesten er signifikant
    – beregn også effektstørrelse, hvis det er relevant
  4. Fortolk resultaterne i forhold til nulhypotesen (er den afvist eller ej?)
  5. Rapportér dine resultater (i tekst, tabel eller figur, som passer til analysen)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Hvad er F (ifølge formlen)?

A

Et forhold mellem effekt og fejl.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Hvad betyder en høj F-værdi?

A

Jo større F-værdien er, jo mere sandsynligt er det, at forskellen ikke bare skyldes tilfældigheder, men faktisk skyldes forsøget

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Hvordan opdeles varians i independent test?

A

MSMODEL (måler forskelle mellem grupper)
MSRESIDUAL (måler forskelle inden for hver gruppe)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Hvordan opdeles varians i dependent test?

A

SSbetween (ikke relevant)
SSwithin participant = den samlede varians inden for personer. Denne bliver igen opdelt i de to nedenstående:

MSmodel = Systematisk varians

MSresidual = Usystematisk varians

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Hvad måler formlen for SSw (sum of squares within)?

A

SSw måler, hvor meget deltagerne i samme gruppe afviger fra deres gruppes gennemsnit.

Det viser, hvor stor spredning der er indenfor hver gruppe

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Hvad måler formlen for SSm (Model Sum of Squares)?

A

Måler den systematiske variation mellem betingelserne (fx forskellen i opkasttid mellem de forskellige madtyper)

20
Q

Hvad finder formlen for SSr (Residual Sum of Squares)?

A

Kaldes også fejlleddet - Det er den usystematiske variation inden for personer, som ikke kan forklares af forskellen mellem betingelserne

21
Q

Hvorfor er vi interesseret i at finde mean square for både SSm og SSr?

A

SSM og SSR bliver større, jo flere observationer vi har, fordi vi lægger flere kvadrerede forskelle sammen, bliver den samlede sum naturligt højere.
Derfor “standardiserer” vi kvadratsummen ved at dele med df. Det giver os en mere fair sammenligning – uanset hvor mange observationer vi har.

22
Q

Hvad betyder en høj F-værdi?

A

En høj F-værdi gør det mere sandsynligt, at vi kan forkaste nulhypotesen (altså: at der faktisk er en forskel).

23
Q

Hvad er de kritiske værdier for signifikans?

A

< 0,05, < 0,01, < 0,001

24
Q

Hvordan finder vi de kristiske værdier for F?

A

Ved at slå op i vores tabel med kritiske værdier med både df_model og df_residual

25
Hvor mange sæt frihedsgrader arbejder vi med i repeated measures ANOVA?
To (df_model og df_residual)
26
Hvad betyder det, hvis vores beregnede værdi er større end den kritiske værdi ved p < 0,05?
At resultatet er signifikant – vi kan afvise nulhypotesen Et lille huske-rim: Er F større end kritisk grænse, så får nulhypotesen ingen chance.
27
Hvad bruger vi en follow-up test til?
Til at finde ud af, hvor forskellene mellem betingelserne ligger.
28
Hvilke to typer af follow-up test er der?
1. Planned comparisons (forudbestemte test) 2. Post-hoc tests (efterfølgende test)
29
Skal man altid lave en follow-up test?
Nej, kun hvis man finder en signifikant forskel i sin F-test
30
Hvad er en type I-fejl?
At finde en forskel, som ikke findes i virkeligheden (mand er gravid)
31
En follow-up test ligner en t-test, men hvordan adskiller de sig?
Follow-up test korrigerer for risikoen for type I-fejl
32
Nævn en post-hoc korrektion
Bonferroni-korrektionen
33
Hvornår bruger vi Bonferroni-korrektionen?
Efter en signifikant repeated measures ANOVA
34
Hvad bruges Bonferroni-korrektionen til?
- Anvendes for at kontrollere risikoen for type I-fejl, når man laver flere parvise sammenligninger - Justerer signifikansniveauet (fx: hvis du laver 3 sammenligninger → 0,05/3 = 0,017) og dermed strengere krav
35
Betyder manglende signifikans, at der ingen forskel er?
Nej, bare fordi noget ikke er signifikant, betyder det ikke, at der slet ikke er nogen forskel.
36
Hvad bruger vi til at beregne effektstørrelsen ved repeated measures ANOVA?
Cohen’s d
37
Hvilke ting skal rapporteres? husk: FDF PEE GS
F – F-testtype (fx repeated measures, one-way, etc.) D – Frihedsgrader (df₁, df₂) F – F-værdi P – p-værdi (signifikansniveau) E – Effektstørrelse (fx η²ₚ eller ω²) E – Eventuel korrektion (Greenhouse-Geisser / Huynh-Feldt) G – Gennemsnit og SD/SE for hver betingelse S – Signifikante sammenligninger fra opfølgende test  + hvilken testtype (Bonferroni, Tukey osv.)  + effektstørrelser for disse
38
Hvis dine data overtræder antagelserne for en dependent ANOVA (f.eks. hvis du har ordinal data eller et lille datasæt med ikke-normalfordelte kontinuerte data), hvilken anden test kan du så bruge?
Friedman’s test
39
Friedman’s test giver en testværdi (χ² - udtales chi-i-anden). Hvad skal man sammenligne denne værdi med for at finde ud af, om den er signifikant?
Du slår den kritiske værdi op i en χ²-tabel, baseret på: * Frihedsgrader (df) = antal betingelser – 1 * Signifikansniveau (typisk 0,05)
40
Hvad er de 5 steps i en Friedman's test?
1. Beregn Friedman’s test 2. Test for signifikans (baseret på chi-i-anden-fordelingen) 3. Udfør Wilcoxon signed-rank tests som opfølgning (med kontrol for family-wise fejlrate) 4. Fortolk dine resultater i forhold til nulhypotesen 5. Rapportér dine resultater
41
Når vi fortolker Friendman's testen, hvad betyder de laveste scores så?
At de har det laveste rangerede gennemsnit
42
Hvad viser post-hoc Wilcoxon signed-rank tests?
Hvor de signifikante forskelle ligger
43
Hvad skal man rapportere i en Friendman's test?
Typen af test du har brugt, Friedman’s testværdi, frihedsgraden (df) og signifikansniveauet. For at lette fortolkningen er det også god praksis at angive medianen for hver betingelse. Hvis din hovedtest er signifikant, bør du rapportere opfølgende tests, inklusive T, p og rrb.
44
Hvad er forskellen mellem en afhængig/repeated measures one-way ANOVA og en Friedman-test?
En repeated measures one-way ANOVA er en parametrisk test, mens Friedman’s test er en ikke-parametrisk test. Vi bør bruge dependent ANOVA, når vi har tre eller flere relaterede betingelser og normaltfordelte, kontinuerte data som udfaldsmål. Vi bør bruge Friedman’s test, når vi har tre eller flere relaterede betingelser og ordinale data, eller kontinuerte data der ikke er normalfordelte, især hvis stikprøven er lille.
45
Hvilken antagelse tester Mauchly’s test, og hvad skal du gøre, hvis den er signifikant ved p < 0,05?
Mauchly’s test tester antagelsen om sphericity, som er antagelsen om, at variansen af forskellene mellem betingelserne er nogenlunde ens. * Hvis Mauchly’s test har en p-værdi > 0,05, forkaster vi ikke nulhypotesen, og vi konkluderer, at antagelsen om sphericity er opfyldt. * Hvis Mauchly’s test er signifikant ved p < 0,05, forkaster vi nulhypotesen og konkluderer, at antagelsen om sphericity er brudt. Når sphericity er brudt, skal vi rapportere en korrigeret F-test, som SPSS giver – fx med Greenhouse-Geisser-korrektion
46
For at en teststatistik kan være statistisk signifikant, skal dens beregnede værdi være?
Større eller lig med den kritiske værdi, der er angivet i den teoretiske fordeling