Kvantitativ forskning Flashcards

1
Q

Vilka skaltyper/datanivåer finns det och vad kännetecknar dem, snabbt?

A

Nominalskala - ingen egentlig skala, frekvensräkning går
Ordinalskala - finns styrka men inget intervall, kan rangordnas
Intervallskala - finns styrka och lika intervall men ingen absolut nollpunkt, kan adderas och subtraheras
Kvotskala - finns styrka, lika intervall och absolut nollpunkt, kan divideras och multipliceras

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Vilka typer av centraltendens finns det?

A

Typvärde (vanligaste värdet), median (det som ligger i mitten), medelvärde (summan av alla värden dividerat med antal värden)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Beskriv kort tre fördelningsformer och hur dessa påverkar val av centraltendens att rapportera

A

Normalfördelning - symmetriskt runt mittenvärdet - typvärde = median = medelvärde
Bimodalfördelning - två toppar - typvärdet bra för att beskriva att det finns två fördelningar, median/medelvärde är i en “dal”
Skev fördelning - en svans som sträcker sig mot höga (positivt skev) eller låga (negativt skev) värden. Median är generellt sett bättre beskrivningsmått här då medelvärdet dras upp av extremvärden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Tre spridningsmått och vad de är, kort

A

Variationsbredd (skillnaden mellan högsta och lägsta värdet, intervallet), varians (den kvadrerade genomsnittliga spridningen kring medelvärdet), standardavvikelse (den genomsnittliga spridningen kring medelvärdet)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

z-poäng är vad?

A

Ett mått på var en individ/en mätning befinner sig i en distribution. Värdet minus medelvärdet delat på standardavvikelse. Läses på tabell.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Vad är nollhypotes och alternativ hypotes?

A

Nollhypotesen är att det inte finns något samband, effekt eller skillnad. Alternativhypotesen är att det gör det.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Vad är en samplingsfördelning?

Teoretiska samplingsfördelningar?

A

En frekvensfördelning över någon stickprovsegenskap, exempelvis en samling medelvärden av x antal mätningar. Blir mer centrerad runt normalfördelningen än populationen och blir mer normalfördelad än populationen.
Teoretiska samplingsfördelningar är teoretiskt beräknade fördelningar som hjälper oss förstå vart vårt stickprov hamnar, ex t-fördelning, z-fördelning (inte z-poäng), chi-fördelning etc. Hjälper oss att avgöra hur trolig nollhypotesen är.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Olika typer av t-test? (3+1)

A

T-test för ett stickprovsmedelvärde (Skiljer sig en grupp från genomsnitt? Krävs att man jämför med normdata med medelvärde i population)
Oberoende t-test, mellan två grupper med oberoende mätningar (Skiljer sig dessa två grupper mellan varann? Ex PDT eller KBT på kliniken)
Beroende t-test, mellan två tillfällen, samma grupp (Har gruppen förändrats över tid?)
Z-test (När man känner till medelvärde/standardavvikelse för populationen, används inte)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Standardfelet?

A

Ett mått på hur mycket medelvärdet på ett enskilt sample/stickprov skiljer sig från medelvärdet i populationen. (Lite som ett z-poäng för stickprovet)
Är det man räknar ut vid t-tester.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Förutsättningar för ett t-test? (2)

A

Data måste vara normalfördelad

Varianserna inom de två grupperna måste vara lika stora (homogena)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Diagnostiskt test för att kontrollera att varianser mellan två grupper är normalfördelade vid t-test?

A

Levene’s test, om det visar signifikant skillnad är equal variances not assumed och då läser man av lägre raden i ex SPSS.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Typ I fel och typ II fel?

A

Typ I fel = förkasta en nollhypotes som egentligen stämmer, d.v.s. hitta en skillnad som inte finns
Typ II fel = förkasta en alternativhypotes som egentligen stämmer, d.v.s. inte hitta en skillnad som faktiskt finns

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hur minska risken för typ I och typ II fel? (4 st)

A

Minska risk för typ I: Skärp alphanivån (signifikanströskel), ökar dock risk för typ II fel
Minska risk för typ II: Öka styrkan på oberoende variabeln
Minska risk för typ II: Minska felvarians genom beroende mätningar
Minska risk för båda: Öka antalet deltagare

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Parametriska vs icke-parametriska test?

A

Parametriska test bygger på att data är minst intervall-nivå (eller lämpligt bra ordinalskala), och att data är normalfördelad.
Icke-parametriska test är designade för att kunna användas när data är kategorisk och ej normalfördelad (ex när antalet deltagare är lågt).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Exempel på parametriska vs icke-parametriska test? (4 st)

A

Parametriskt: t-test
Icke-parametriskt: Chi-två (för nominaldata), Mann-Whitney (som ett oberoende t-test), Wilcoxon (som ett beroende t-test)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Viktig sak att veta om Mann-Whitney och Wilcoxon vad gäller hur man räknar (+2 implikationer av detta)?

A

Det räknas via rangordning av värden - detta innebär att extremvärden spelar mycket mindre roll. Vilket också innebär att det blir dålig power, känsligheten i datan försvinner.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Chi-två testet är till för vad, och ger vad, och räknas ut hur?

A

Att testa nominalvariabler, och ger frekvenser fördelade över ett antal kategorier samt att vi kan se kritiska värden för fördelningen. Räknas ut via en korstabell (så kan max vara två kategorier av variabler, men kan vara många variabler).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Varianter av Chi-två? (två)

A

Chi-två med en variabel (är den observerade fördelningen av variabeln inom ramen för slumpvariation?)
Chi-två med två variabler (finns det ett samband eller en skillnad mellan två variabler?)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Vad betyder Cohens d?

A

Hur stor skillnaden mellan medelvärden av två grupper är, räknat i z-poäng. d = +1 = +1 SD i skillnad.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Hur stora effekter kan vi förvänta oss inom psykologisk forskning?

A

Väldigt sällsynt med större än d = 1.0. De flesta är mindre än 0.5.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Formel för statistisk power?
Vad är ett bra power-mått?
Vad betyder ett sådant power-mått?

A

1 - beta (d.v.s risken att göra ett typ II-fel).
Man strävar ofta efter power på 0.8.
Power = 0.8 = att om H1 gäller i populationen har vi en 80% chans att hitta den signifikanta effekten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Förutsättningar för ANOVA gällande OV/BV?

A

OV kan vara nominal eller ordinal

BV ska vara intervall eller kvot (annars får man göra icke-parametriska test)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Vad är ANOVA (variansanalys) ett mått på? Vad används ANOVA till?

A

Om mellangruppsvariansen är större än inomgruppsvariansen. Detta använder vi för att besvara huruvida grupperna signifikant skiljer sig åt eller inte. Ofta är H0 att datan är en grupp med ett medelvärde och H1 att datan är flera grupper med flera medelvärden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Vad är F-värdet vid ANOVA?
Hur räknar man ut det?
Hur använder man det?

A

Huruvida två olika grupper skiljer sig åt signifikant (eller är samma, vid beroende).
Mellangruppsvarians (mean square between) /inomgruppsvarians (mean square within) (vid oberoende ANOVA, vid beroende är det tvärtom).
Man läser av F-värdet i en tabell och jämför om det är över eller under.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Olika typer av experimentell design? Kort resonemang kring varje? (3 st)

A

1 Inomgruppsdesign; (BVa, OV, BVb). Kan jämföra före och efter manipulation, men förmätning kan ha påverkat eftermätning, förändringen kan också ha skett av någon annan orsak.
2a Kvasi-experimentell design (mellangruppsdesign); OVa -> BV, OVb -> BV). Vi kan mäta effekt av manipulation och har möjlighet att jämföra mellan grupper. Men hur uppstod/valdes dessa grupper?
2b Mellangruppsdesign mer experimentell; tre grupper (manipulering, icke, och kontrollgrupp) och randomisering före. Här kan vi mäta effekt av manipulation och grupperna är randomiserade, dessutom finns en kontrollgrupp för att se vad som händer om OV ej blir manipulerad. Men vi vet inte om grupperna skiljde sig åt innan intervention.
3 Mixed design både inom och mellan; randomisering, kontroll, manipulation och förmätning (en typ av faktoriell design). Här är det samma som mellangruppsdesign men vi kan kontrollera att grupperna inte skiljde sig innan experimentet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

När används en faktoriell design?

A

När en effekt har multipla orsaker och man vill kontrollera för dessa.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Hur skiljer sig följande variansanalyser åt med avseende på; antal grupper, samma eller olika individer, antal OV, och antal BV?
Oberoende t-test, oberoende envägs-ANOVA, beroende envägs-ANOVA, oberoende tvåvägs-ANOVA, beroende tvåvägs-ANOVA, mixed ANOVA, MANOVA och ANCOVA

A

T-test; 2 grupper, olika individer, 1 OV, 1 BV.
Oberoende 1vägsANOVA; 3 eller fler grupper, olika individer, 1 OV, 1 BV.
Beroende 1vägsANOVA; 3 eller fler grupper, samma individer, 1 OV, 1 BV.
Oberoende 2vägsANOVA; 4 eller fler grupper, olika individer, 2 eller fler OV, 1 BV.
Beroende 2vägsANOVA; 4 eller fler grupper, samma individer, 2 eller fler OV, 1 BV.
Mixed ANOVA; 4 eller fler grupper, samma OCH olika individer (före/eftermätning), 2 eller fler OV, 1 BV.
MANOVA; 3 eller fler grupper, samma och/eller olika individer, 1 eller fler OV, 2 eller fler BV.
ANCOVA; 3 eller fler grupper, samma och/eller olika individer, 2 eller fler OV OCH håller en OV konstant för att kontrollera för denne, 1 BV.

28
Q

Vilka antaganden gäller för ANOVA? (3+1)

A

Normalfördelade populationer
Homogena populationsvarianser
Oberoende data på intervall/kvotnivå
(alltså antaganden för parametriska tester)
Variansanalys är dock generellt sett robust mot brott mot antagandena vilket man vet via simuleringar

29
Q

Varför gör man inte bara multipla t-test istället för ANOVA?

A

För varje test vi gör accepterar vi 5% risk för ett typ I-fel. Ju fler test vi gör desto större blir den risken. Alltså är det bättre med ett test.

30
Q

Signifikant F-värde vid ANOVA? (2 punkter)

A

Ett overallresultat, visar att minst två av de jämförda grupperna skiljer sig åt. Visar dock inte VAR skillnaderna finns.

31
Q

Vad är ett post hoc-test vid variansanalys?
Två exempel på post hoc-test?
Vad består ett post hoc-test av?

A

Ett test för att avgöra mellan vilka grupper variansen finns, när man fått ett signifikant F-värde.
Två exempel på post hoc-test är Bonferroni (bra) och LSD (inte bra).
Ett post hoc-test är i princip multipla t-test, men man korrigerar p-värdet för att undvika compounded risk för typ I-fel.

32
Q

Är det bra att jämföra alla variabler med varandra eller vara selektiv? Varför/varför inte?

A

Det bästa är att göra de jämförelser man är intresserad av, som teori predicerar. Detta eftersom det minskar risk för typ I-fel (att jämföra allt med allt och fiska efter sig resultat är ju p-hacking). Detta kallas också à priori-jämförelser (planned comparisons).

33
Q

Vad är df1 och df2 i ANOVA? Hur räknar man ut dem?

A

Frihetsgrad 1 är för antal grupper (K - 1).
Frihetsgrad 2 är för antalet individer (N - K).
K = antal grupper
N = antal individer

34
Q

Hur påverkas F-värdet av frihetsgrader i ANOVA?

Vad betyder det?

A
Generellt sett (förutom vid mkt låga N-värden) så innebär högre antal frihetsgrader, både för df1 och df2, att det signifikanta F-värdet blir lägre.
Att det signifikanta F-värdet blir lägre innebär att det blir lättare för studieresultatet att vara signifikant.
35
Q

Vad är F-värdet ett mått på?
Vad är det noteably INTE ett mått på?
Hur mäter man det som man vill åt men F-värdet inte ger?

A

F-värdet är ett mått på hur sannolikt det är att få det resultat man fått, eller mer extrema sådana, givet att nollhypotesen är sann.
F-värdet är noteably INTE ett mått på effektstyrka, d.v.s. hur stor del av variansen vi kan förklara med mellangruppsvariansen.
Vid ANOVA mäter man styrkan i skillnaden mha ETA två.

36
Q

Vad är interaktionseffekten i ANOVA?
Varför är det viktigt att kolla på?
Hur kollar man på den?

A

Den variation som inte kan förklaras av faktor A eller B var för sig, utan som förklaras av interaktionen dem emellan.
Viktigt eftersom det kan finnas en signifikant huvudeffekt som drivs på av en stark interaktionseffekt - utan interaktionseffekt finns inte huvudeffekten.
Gör en ny ANOVA per nivå inom en av faktorerna (vid 2x2 ANOVA räcker oftast med ett interaktions- eller stolpdiagram).

37
Q

Vad kan man dra för slutsatser från en korrelationsstudie?

Viktiga brasklappar? (2)

A

Observation av linjära samband mellan olika variabler - aldrig orsakssamband.
B1: Korrelation fungerar inte vid kurvlinjära samband - alltid viktigt att göra en plot av värden och få en överblick innan korrelationen beräknas.
B2: Det kan alltid bero på ett skensamband eller en bakomliggande variabel.

38
Q

Hur räknar man ut Pearsons r?

A

Genom att använda rådata eller z-värden - ger samma värde. Medelvärden för X och Y delat på n-1 gånger standardavvikelse för X och Y.

39
Q

Hur gör man hypotesprövning för korrelation?

A

Genom avläsning i tabell med alfanivå och frihetsgrader kan vi hitta ett kritiskt värde på r och p-värde för detta.

40
Q

Vad är determinationskoefficienten?

A

Ett sätt att beskriva styrkan i sambandet - anger andel förklarad varians mellan två variabler. Ungefär korrelation upphöjt i två.

41
Q

Antaganden för korrelation?

A

Homoskedasticitet - spridning i variabeln Y ska vara lika stor för alla värden på X
Bivariat normalfördelning - för varje värde på X är motsvarande värde på Y normalfördelat

42
Q

Saker som kan ställa till det vid korrelationsstudier?

A

Restriction of range - kan göra att vi missar samband som finns eller hittar samband som inte gäller för hela rangen
Outliers kan ställa till det också, förstärka eller försvaga samband

43
Q

Vad kan man göra vid outliersproblematik? (2+1)

A

Om det är ett felaktigt värde, rätta till det eller trimma värdet
Om värdet är naturligt men osannolikt, filtrera bort individen och värdet och se om resultatet bli annorlunda
Var alltid transparent med vad du gjort i resultatsektion

44
Q

Andra sambandsmått än Pearsons r? (3 st)

A
Spearmans r (2 ordinalskalevariabler)
Phi-koefficienten rphi (2 dikotoma variabler)
Punkt-biserial rpb vid en intervall- och en nominalskalevariabel
45
Q
Vad är en enkel regression?
Inom regression;
Vad betyder X?
Vad betyder Y?
Intercept?
A

En uträkning av en prediktionslinje vid ett samband.
X är värdet på OV, d.v.s. prediktorn.
Y är värdet på BV, d.v.s. utfallsvariabeln.
Interceptet är värdet på Y när X är 0, d.v.s. värdet utan influens av prediktorn alls.

46
Q
I SPSS vid regression, vad innebär;
B?
t?
Sig?
Beta?
A
B = r(SDy/SDx). Hur mycket en enhets ökning av x ger i ökat y-värde (effekten av prediktorn).
t = signifikansvärdet av vår prediktor - om sambandet är signifikant eller inte. Detta är samplingsfördelningsvärdet.
Sig = chansen att vi får detta resultat givet att nollhypotesen stämmer (att det inte finns ett samband).
Beta = hur mycket en ökning av en SD av x ger i ökat y-värde.
47
Q

Hur beskriver man förklarad varians i regression?

Skillnad mellan R2 och r2?

A

Förklarad varians beskrivs med R2 för regressionen, alltså determinationskoefficienten.
R2 är all förklarad varians mellan variabler som undersöks. r2 är förklarad varians mellan två variabler.

48
Q

Antaganden för regression? (5)

A

Samma som för korrelationer; homoscedasticitet, bivariat normalfördelning, inga outliers, linjära samband. Även avsaknad av kollinearitet/multikollinearitet.

49
Q

Vad är multipel regression?

A

Att försöka förklara variationen i en BV mha flera OV.

50
Q

Skillnader multipel regression mot ANOVA? (5 st)

A

MR: Både kontinuerliga och kategoriska OV går
MR: Kan lätt lägga in flera OV samtidigt i modellen
MR: Kan analysera både experimentell och icke-experimentell data
ANOVA: Bra om du arbetar med kategoriska OV och få OV, ex vid experiment
ANOVA: Att föredra om du förväntar dig flera interaktionseffekter

51
Q

Hur är en regressionsformel uppbyggd?

A

Y (värdet på OV) = b0 (intercept) + B1xX1 (värdet på BV gånger effekten av den - om signifikant) + B2xX2 (samma för nästa signifikanta) + (…) osv

52
Q

På vilken basis inkluderar man en variabel i en multipel regressions-analys för att undersöka om det är en prediktor?

A

På teoretisk basis - d.v.s. att man tänker sig att det kan vara en prediktor. Felaktig basis är att inkludera det för att det fanns (eller exkludera för att det inte fanns) en korrelation - detta behöver man inte ta med i övervägandet.

53
Q

Hur tolkar man bäst de olika prediktorernas bidrag i en MR?

Hur jämför man dem bäst sinsemellan?

A

Man tolkar dem enklast genom att kolla på B: detta är ju skillnad i OV vid samma skillnad i den BVn.
Jämförelse är dock lättast med Beta - detta är hur stor skillnad i OV en SD i BVn ger. Störst skillnad här = starkare prediktor.

54
Q

Skillnad mellan R2 och adj R2?

A

Adj R2 är R2 justerat för antal prediktorer i modellen. R2 ökar alltid när man lägger till fler prediktorer oavsett om de är bra eller inte, adj R2 ökar endast när man lägger till en ny bra prediktor.

55
Q

Hänsynstaganden vid beaktandet av antal prediktorer vid regression? (3 st)

A

Ju fler variabler desto sämre power
Ju fler variabler desto högre R2 (inflated - löser sig med adj R2)
Ta med prediktorer utifrån teori

56
Q

Kan regressionsanalyser uttala sig om kausalitet?

A

Nej, inte statistiskt. Men vi kan använda MR som en första grundsten i att bygga modeller utifrån empiriska och teoretiska antaganden om kausalitet.

57
Q

Vad är kollinearitet?

Vad är multikollinearitet?

A
Kollinearitet = korrelation mellan två variabler.
Multikollinearitet = korrelation mellan flera variabler, alltså att ex neuroticism och grubblande kan korrelera med utmattning, men också varandra.
58
Q

Hur kan hög multikollinearitet bli problematiskt vid MR? (3 st)

A

Det är svårt att tolka resultatet/avgöra en prediktors unika bidrag
Svårt för den nya prediktorn att bidra med något nytt
Minskad tillförlitlighet hos regressionsekvationen

59
Q

Hur kontrollerar man för multikollinearitet i SPSS? (2 värden)
Vad betyder dessa värden?

A

SPSS beräknar VIF och Toleransvärde.
Toleransvärde är hur mycket varians som INTE förklaras av dina OV, bra är > 0.2.
VIF = motsats till toleransvärdet, bra värden är <5 men gärna så nära 1 som möjligt.

60
Q

Lösningar för multikollinearitet? (4 st)

A

Större urval
Minska antalet variabler som korrelerar högt;
Genom index av några variabler
Genom faktoranalys
Genom att exkludera en OV på basis av teori

61
Q

Två användningsområden för MR?

A

Prediktion (av ett visst utfall ex vem kommer insjukna i en viss sjukdom?). Här vill vi få ett så stort R2 som möjligt.
Förståelse (vad förklarar ex suicidbenägenhet?). Måttligt intresserade av R2 och vill få med bakomliggande variabler som förklarar OV och BV.

62
Q

Bra regression att använda för förståelse? Bra regression för prediktion?

A

För förståelse; hierarkisk regression - att variablerna läggs in i olika steg.
För prediktion; enterregression/simultan regression - att alla variabler läggs in samtidigt.

63
Q

Styrkor och svagheter simultanregression? (2 var)

A

+ Bra för förklaring om den kombineras med teori
+ Bra när vi inte vet i vilken ordning vissa prediktorer påverkar utfallet
- Vi får bara de direkta effekterna
- Regressionseffekterna kan förändras beroende på vilka variabler som är med i modellen

64
Q

Styrkor och svagheter hierarkisk regression? (2 st var)

A

+ Användbar när vi testar för interaktionseffekter eller kurvlinjära effekter
+ Kan undersöka hur mycket en variabel bidrar i förklarad varians
- Vi måste veta i vilken ordning vi ska föra in variablerna i regressionen (första variabeln får extravarians ex), detta inte alltid enkelt
- Kan över- eller underestimera hur viktig en variabel är beroende på i vilken ordning vi lägger in den

65
Q

Hur lägger man in kategoriska variabler i en regression?

Hur förstår man sådana variabler i en regressionsanalys?

A

Genom dummykodning - det finns alltså ett binärt eller skalvärde som är typ 0 eller 1, och ett värde kopplat till om värdet är 0 eller 1 (om variabeln uppfylls eller ej).
Om variabeln är t.ex. 5000x betyder det att om kategoriska variabeln är uppfylld så ökar y med 5000, precis som ett B, men x är binärt (eller kategoriskt).