Begrepp Flashcards

1
Q

Icke-parametriskatest

A

När våra data inte uppfyller de krav som parametriska test ställer så använder vi alternativa icke-parametriska test t.ex. istället för t-test för beroende mätningar använder vi Wilcoxons test.

Andra icke-parametriska test är Mann Whitney U-testet, Kruskal Wallis, Chi-två testet och Spearmans. Parametriska testens krav: Våra data måste vara tillräckligt normalfördelade och våra variabler måste vara kvantitativa.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Parametriska test

A

Paramteriska test är de test ställer lite hårdare krav på våra data. Det viktigaste kravet är att variablerna ska vara kvantitativa, dessutom kräver de att variabeln ska vara tillräckligt normalfördelad. Parametriska test är de vi helst vill använda oss av, men om våra data inte uppfyller krav får vi vända oss till de icke-parametriska testerna. Exempel på parametriska test är Pearsons, t-test för beroende mätningar, t-test för oberoende mätningar och ANOVA (vilket vi inte lärt oss något om i den här kursen). De olika testerna har olika egenskaper t.ex. ANOVA används när man vill jämföra tre grupper och t-test används när vi vill jämföra två medelvärden av olika slag.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Korrelationer

A

En korrelation är ett mått på en samvariation mellan två variabler, t.ex känslan av ansträngning (variabel 1) ökar när jag cyklar (variabel 2), där cyklingen påverkar ansträngningskänslan

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Centralmått

A

Ett centralmått anger vad som är det normala, det typiska eller det genomsnittliga värdet för en viss variabel. Det finns tre typer av centralmått: Typvärde, median och medelvärde. Varje centralmått har ett spridningsmått ner

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Spridningsmått

A

Spridningsmått är ett sammanfattande mått över hur mätvärdena är utspridda i datamängden t.ex. en

standardavvikelsepå1,3vsenstandardavvikelsepå4,2👉 Spridningenärjustörreidendatamängddär

standardavvikelsen = 4,2 än den datamängd där standardavvikelsen = 1,3. Det finns olika typer av spridningsmått: Variationsbredd, kvartilavstånd/kvartilavvikelse och standardavvikelse & varians (de två sistnämnda är närbesläktade).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Standardavvikelser och varians

A

Som sagt närbesläktade spridningsmått, skillnaden är en kvadrering. Standardavvikelsen är ett mått på observationernas genomsnittliga avstånd från medelvärdet. Standardavvikelsen är kvadratroten ur variansen. s = standardavvikelse, s^2 = varians

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Medelvärde

A

Enda centralmåttet som låter sig påverkas av varje enskild observation, på det sättet är medelvärdet ”demokratiskt”. Medelvärdet är det vanligaste och viktigaste centralmåttet inom psykologisk forskning eftersom vi från medelvärdet kan generalisera från våra resultat. Medelvärdet är ett väntevärdesriktigt estimat vilket innebär att medelvärdet ger oss den bästa uppskattningen (jämfört med de överila centralmåtten) på hur verkligheten faktiskt ser ut och hur det ser ut i en hel population, vilket gör att vi som sagt kan generalisera från våra resultat, det funkar ju inte lika bra med t.ex. typvärdet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Frekvenser

A

Antal förekomster av något variabelvärde

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Pearsons

A

Ett av de parametriska testerna för korrelationer. Förkortas r för stickprov och ρ för population. Vanligaste

sättet att beräkna en korrelation och mäter enbart graden av linjär samvariation (icke-linjär samband t.ex. mellan arousal och prestation råder ett U-samband kolla figur 6:7 sida 142). Ger ett r-värde mellan -1 och 1 där ett perfekt/väldigt starkt samband är lika med -1 eller +1.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Cohens riktlinjer för graden av korrelationensstyrka

A

Utgår från Pearsons:

Svagt: r = ±0,10

Medelstarkt: r = ±0,30

Starkt: r = ±0,50

OBS! Överdriv ej användandet av Cohens riktlinjer, bara för att ett samband enligt riktlinjerna är starkt betyder det inte att det är intressant, det beror ju på vad man mäter!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Spearmans

A

Ett av de icke-parametriska testerna för korrelationer. Uppfyller dina data inte kraven för ett parametriskt test? Använd Spearmans. Spearmans kräver att båda variablerna har mätts på ordinalskalenivå. Spearmans är lämplig när man vill beräkna korrelationen mellan snedfördelade variabler, särskilt om stickprovet är litet. Om man har extremvärden/outliers som påverkar r kraftigt kan vi göra om våra data till ordinalskalenivå och använda oss av Spearmans istället för Pearsons, r-värdet kan förändras kraftigt (t.ex. i boken från r = 0,77 (signifikant) till r = 0,36 (icke-signifikant) bara genom att byta från Pearsons till Spearmans). OBS! Det kan bli problematiskt att transformera våra data till ordnialskalenivå.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

t-test för beroende mätningar

A

Ett av de parametriska testerna för medelvärden. Används vid en inomindividsdesign med mätningar vid två tillfällen på samma individer. När man vill mäta ett stickprovs två olika medelvärden som mäts vid två olika tillfällen, t.ex. om jag vill mäta skillnaden i individers ångestkänslor innan och efter en ångestreducerande medicin. Man beräknar då ett medelvärde för de individuella skillnaderna (d) mellan tillfällena.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

t-test för oberoende mätningar

A

Ett av de parametriska testerna för medelvärden. Används vid en mellanindividsdesign med ett stickprovsmedelvärde för vardera gruppen. När man vill jämföra två olika grupper/två olika stickprovsmedelvärden och se om det finns en skillnad mellan dem, t.ex. om du vill jämför en experimentgrupp som fått ångestreducerande medicin och en kontrollgrupp som fått sockerpiller för att se om den ångestreducerande medicinen gör någon verkan.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

ANOVA

A

Ett av de parametriska testerna för medelvärden. Detta har vi bara nämnt i kursen för att förstå att ANOVA är det alternativ om man vill jämföra tre olika grupper (innan har vi bara lärt oss hur vi jämför två olika grupper).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wilcoxon

A

Ett av de icke-parametriska testerna för medelvärden. Icke-parametriskt alternativ för t-test till beroende mätningar då våra data inte uppfyller t-testets krav. Bygger på rangordning av differenserna mellan observationerna snarare än de direkta värdena på observationerna. Parametern från de summerade rangerna kallas T.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Mann-Whitney U-test

A

Ett av de icke-parametriska testerna för medelvärden. Icke-parametriskt alternativ till t-test för oberoende mätningar då våra data inte uppfyller t-testets krav. Bygger på rangordning av observationerna. Parametern från de summerade rangerna kallas U.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Kruskal Wallis

A

Ett av de icke-parametriska testerna för medelvärden. Icke-parametriskt alternativ till ANOVA då våra data inte uppfyller ANOVA-testets krav.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Chi-två test

A

Ett av de icke-parametriska testerna för frekvenser. Chi-två används när våra data inte är normalfördelad, när våra data ligger på nominalskalenivå och när data är från oberoende stickprov. Används när vi t.ex. jämför en fördelningsform för ett stickprov med dem fördelningsform som slumpen skulle ge. Är fördelningsformen för stickprovet tillräckligt osannolik att få av en slump (är p

Envägs chi-två test är den enklaste situationen för x^2 och det är när vi vill avgöra om fördelningen av ett antal observationer på en variabels olika variabelvärden kan ha uppstått av en slump, där observationerna ska vara oberoende av varsnar (t.ex. deltagare får antingen välja alternativ A eller B) - Exempelfråga: Hur många fler måste välja det ena alternativet för att skillnaden i popularitet ska vara signifikant? Innan man sätter in värden i formeln måste man räkna ut e = 1/k (antalet kolumner).

Chi-två samvarierar med antalet frihetsgrader (df = k (antalet kolumner) - 1)
Tvåvägs chi-två test är när vi vill jämföra två variabler, och se om de är beroende eller oberoende av varandra - Påverkar variabel 1 variabel 2? Finns det ett samband mellan de två variablerna? Innan man sätter in värden i formeln måste man räkna ut e = n (antal personer)/k (antal kolumner). Chi-två samvarierar med antalet frihetsgrader (df = (r (antal rader) - 1)(k (antalet kolumner) - 1).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

z-transformering

A

När man omvandlar sina mätvärden till ett och samma språk t.ex. att omvandla 195 cm och 65 kg till varsitt z- poäng. Detta gör man för att kunna se vart t.ex. din längd på 195 cm befinner sig på normalfördelningskurvan vilket i sin tur kan svara på frågan; är längden 195 cm vanlig eller ovanlig? Detta kan man endast göra om man vet om ett medelvärde och standardavvikelse. Om medelvärdet för ett stickprov om längd är 175 cm och standardavvikelsen är 10 så beräknas din längds z-poäng såhär: 195-175/10=2. Om vi vet om hur z- fördelningen ser ut på normalfördelningskurvan vet vi att ett z-poäng på 2 ligger långt ut på den högra svansen, vi kan därav säga att 195 cm i längd är ovanligt i det givna stickprovet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

z-poäng

A

z-poäng är det värde man får ut från en z-transformering, detta jämförs sedan med tabell 1 och 2 i appendix C

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

z-test

A

Ett av de parametriska testerna för medelvärden. Används när man jämför ett stickprovsmedelvärde med ett populationsmedelvärde där populationens standardavvikelse är känd.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

t-test: ett stickprovsmedelvärde

A

Ett av de parametriska testerna för medelvärden. Snarlik z-testets formel där enda skillnaden är att man bytt ut populationens standardavvikelse (σ) med stickprovets standardavvikelse (s). Används när man jämför ett stickprovsmedelvärde med ett populationsmedelvärde där populationens standardavvikelse är okänd (därav bytet från σ till s i formeln.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

t-värde

A

Det värde man får ut av beräkningen av ett t-test

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

tkrit

A

Det kritiska värde man jämför sitt erhållna t-värde med för att kunna förkasta eller behålla H0, och över få ut sig p-värde härigenom

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Effektstyrka

A

Effektstyrkan säger något om hur stark den effekten som vi observerar är, till skillnad från signifikansen som bara talar om ifall det finns en effekt eller inte. Det finns olika typer av effektstyrkor bl.a. r som vi pratat om och även Cohens d.

  • Cohens d: Används för skillnaden mellan två medelvärden t.ex. vid beroende och oberoende t-test, Mann Whitney U-test och Wilcoxon.

Effektstyrka

Liten: d = 0,20
Måttlig: d = 0,50
Stor: d = 0,80 (eller mer)

  • Normalfördelning

Klockformad och symmetrisk, och mellan två värden i en normalfördelad variabel återfinns alltid en bestämd proportion av alla observationer. Exempelvis är det alltid så att man mellan
medelvärdet och en standardavvikelse ovanför medelvärdet återfinner
34,13% (avrundat) av alla observationer t.ex. från 0 till 1 vad gäller z-poäng
eller 100 till 115 vad gäller IQ-värden

  • Positivsnedfördelning

När våra värden från våra data är snett fördelade med ”svansen” åt höger och ”huvudet” åt vänster. Tänk: ”Det börjar bra”

  • Negativsnedfördelning

När våra värden från våra data är snett fördelade med ”svansen” åt vänster och ”huvudet” åt höger. Tänk: ”Det börjar dåligt”

  • Bimodalfördelning

När våra värden från våra data har bildat två normalfördelningskurvor, två toppar

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

p-värde

A

p-värdet förklaras som sannolikheten att ett resultat ska vara slumpmässigt. Om resultatet är signifikant bör p- värdet vara under en viss gräns, även kallad alfanivå (0,05 (5%) = kutym i psykologisk forskning). Om resultatet däremot är icke-signifikant bör p-värdet vara över alfanivån. Om vi får ett p = 0,018 innebär det en risk på 1,8% att vi säger fel om vi säger att vårt resultat är signifikant (att det finns en skillnad), vilket är godtagbart inom psykologisk forskning eftersom 0,018 < 0,05. Det innebär även en risk på 1,8% att vi gör ett typ I-fel (att vi förkastar H0 även fast den är sann).

27
Q

Kritiskt gränsvärde/kritisktp-värde/tabellvärde

A

Det värde vi jämför vårt erhållna/färdigberäknade värde med för att se om vi fått ett signifikant eller icke- signifikant resultat

28
Q

n

A

antalet deltagare

29
Q

H0

A

Nollhypotesen är den vi prövar när vi genomför en hypotesprövning, den vi vill förkasta till förmån för H1. Nollhypotesen innebär att det inte finns en skillnad/effekt/verkan

30
Q

H1

A

Alternativhypotesen till skillnad från nollhypotesen säger att det finns en skillnad/effekt/verkan, det är den hypotesen som vi tror på

31
Q

Frihetsgrader (df)

A

För att kontrollera n

32
Q

Reliabilitet

A

Handlar om hur mycket slumpen kan förvränga resultatet, än hit än dit. Tillförlitligheten i testet, att det mäter rätt, att man använder sig av rätt mätinstrument, t.ex. när vi mäter längd föredrar vi ett stålmåttband före en gummisnoddsmåttband för att få så bra uppskattning av vår faktiska längd. Ett annat exempel är att vi använder oss av ett icke-parametriskt alternativ till t-test (t.ex. Mann Whitney U) när när våra data kräver det för att få så tillförlitligt resultat som möjligt.

33
Q

Validitet

A

Att vi mäter det vi avser att mäta t.ex. när vi ska mäta längd och använder en våg som mätinstrument skulle det ge en väldigt låg validitet, men om vi däremot använder oss av en stålmåttband för att mäta längd ger det en hög validitet

◦Begreppsvaliditet
Att begreppen för våra variabel och de begrepp vi använder oss av i forskningsfråga är väldefinierade

◦Intern validitet
Att det verkligen är den oberoende variabeln som påverkar den beroende, t.ex. att det verkligen är skärmtid som påverkar stress

◦Extern validitet
Handlar om vi kan generalisera från våra resultat till en hel population, om vi kan det så har vi en hög extern validitet men om våra data däremot inte är tillräckligt representativt urval har vi en lägre extern validitet

34
Q

Operationalisering

A

Innebär att förtydliga vad man menar genom att beskriva hur det fungerar/inverkar på annat t.ex. när vi beskrev olika former av vård för psykisk ohälsa och olika symtom av psykisk ohälsa

35
Q

Inferentiellstatistik

A

Även känd som hypotesprövande/signifikanstestande statistik handlar om att dra slutsatser t.ex. om ett samband mellan två variabler är av en slump eller inte (är det signifikant eller icke-signifikant?)

36
Q

Deskriptiv statistik

A

Beskriver data i ett stickprov

37
Q

Riktningsproblemet

A

Vad påverkar egentligen vad, hönan eller ägget?/är det stressen som påverkar psykisk ohälsa eller är det psykiska ohälsan som påverkar stressen? osv. Detta problem uppstår inte om man har kontroll över vår oberoende variabel, som man endast har i experiment

38
Q

Bakomliggande-variabel-problemet

A

Man kan ha ett skensamband där det verkar som att en viss variabel påverkar en annan variabel, men så är det egentligen en tredje variabel som är boven i dramat t.ex. ”ju mer glass som äts, desto fler drunkningsolyckor” nej, drunkningsolyckorna orsakas snarare av vädertypen, ju bättre väder desto mer glass köps OCH desto fler människor badar och i sin tur orsakas fler drunkningar

39
Q

Mellanliggande-variabel-problemet

A

En variabel som både påverkas av en oberoende variabel och som i sin tur påverkar den beroende variabeln

40
Q

Nominalskala/nominaldata

A

Exempel på variabler: Kön, civilstånd, vilken linje man går i på gymnasiet, vilken yrkesgrupp man tillhör osv. Kan ej rangordnas. Enda centralmåttet som kan tillämpas är typvärde.

41
Q

Kvotskala/kvotdata

A

Rangordning, lika långt intervall mellan 1-2 som mellan 5-6 på en skala, den har dessutom en absolut nollpunkt. Exempel på variabler: Ålder, antalet barn man har, antalet besök man gjort hos tandläkaren osv. Alla centralmått kan tillämpas

42
Q

Ordinalskala/ordinaldata

A

Rangordning, kvalitativa variabler. Exempel på variabler: Betyg (MVG/VG/G/U), ”hur ofta använder du munskydd?” (aldrig/sällan/ofta), placering i tävling

43
Q

Intervallskala/intervalldata

A

Rangordning, lika långt intervall mellan 3-4 som mellan 6-7, har inte en absolut nollpunkt. Exempel på variabler: Examensår, temperatur (eftersom det kan vara under noll t.ex. -12) osv

44
Q

Korstabell

A

Tabell som redovisar frekvenser för två kvalitativa variabler

45
Q

Fyrfältstabell

A

Korstabell där de två kvalitativa variablerna är delade i två

46
Q

Frekvenstabell

A

Tabell som redovisar frekvenser för olika variabelvärden för antingen kvalitativa eller kvantitativa variabler

47
Q

Skewness

A

Beräkning av hur sned en fördelning är i förhållande till den symmetriska normalfördelningen. Skewness i normalfördelning = 0. Tumregel: Skewness på ± 0,5 innebär att variabeln är något snedfördelad; ± 1 innebär att variabeln är ganska snedfördelad; ± 2 innebär att variabeln är kraftigt snedfördelad

48
Q

Kurtosis

A

Beräkning av graden toppighet. Kurtosis i normalfördelning = 0.

49
Q

Extremvärden

A

Ett variabelvärde som ligger extremt långt från övriga variabelvärden och som kan misstänkas vara behäftat med fel eller är icke-representativt på något sätt t.ex. alla deltagare är mellan åldrarna 18-30 medan en av deltagarna är 66 år gammal, vilket blir ett extremvärde i våra data

50
Q

Signifikans

A

Resultatet av en mätning (observation) sägs vara signifikant om det är osannolikt att resultatet beror på slumpen

51
Q

Determinationskoefficienten

A

Om man kvadrerar korrelationskoefficienten r, får man determinationskoefficienten r^2, som anger proportion förklarad varians

52
Q

TypI-fel

A

Om nollhypotesen är sann och man ändå förkastar den. Man har alltså råkat få ett signifikant resultat av en slump. Sannolikheten för att göra ett typ I-fel är lika med alfanivån. När man påstår att det finns en effekt/ skillnad/samband men att det i verkligheten inte gör det. Vi är mest rädda för att göra typ I-fel, det är mer förödande att låsta att det finns en effekt även fast det i själva verket inte gör det. Lösning: Vi har från början total kontroll över alfanivån, sätt den mest lämpliga och rimliga nivån

53
Q

Typ II-fel

A

Om nollhypotesen är falsk och man ändå behåller den. Vad minskar risken för typ II-fel? En högre alfanivå och fler undersökningsdeltagare med mera

54
Q

Tvåsidigprövning

A

När vår prövning är oriktad, t.ex. vi är både intresserade om den ångestreducerande medicinen skulle ge effekt men också om den skulle få testpersonerna att må sämre (H0 = 0; H1 ≠ 0)

55
Q

Ensidigprövning

A

När vår prövning är riktad åt ett visst håll t.ex. om vi vill se om ansträngningskänslorna ökar i takt med löpning, men ansträngningskänslorna kan knappast minska i takt med löpning (H0 = 0; H1 > 0)

56
Q

Observationer

Mätvärden

A

Mätvärden är de olika svar vi fått från varje enskild deltagare t.ex. i en studie om längd är 175 cm, 152 cm och 181 cm tre olika mätvärden

• Variabel

  • Beroende

Den variabeln som påverkas t.ex. upplevd ljudstyrka, depressiva symtom (t.ex. pga dåliga arbetsförhållanden), hjärtfrekvens (t.ex. pga löpning)

  • Oberoende

Den variabeln som påverkar den beroende variabeln, i experiment är det denna variabeln man manipulerar för att kunna uttala sig om orsakssamband t.ex. stress, könstillhörighet, ålder, löpning, dåliga arbetsförhållanden

  • Kvantitativa

T.ex. ålder, ”hur många gånger har du varit hos tandläkaren?”, examensår, födelseår

  • Kvalitativa

T.ex. kön, civilstånd, vilken linje man går i gymnasiet, vilken yrkesgrupp man tillhör

57
Q

Typvärde

A

Det mest förekommande talet

58
Q

Median

A

Talet i mitten förutsatt att datamängden är rangordnas

59
Q

Kvartilavstånd/kvartilavvikelse

A

Differensen mellan den tredje och den första kvartilen

60
Q

Variationsbredd

A

Det högsta minus det lägsta värdet i datamängden

61
Q

Estimat

A

Stickprovets medelvärde och standardavvikelse

62
Q

Parametrar

A

Populationens medelvärde och standardavvikelse

63
Q

Väntevärdesriktigtestimat

A

Medelvärdet i ett stickprov är ett väntevärdesriktigt estimat vilket innebär att man inte gör några systematiska fel om man uppskattar populationsmedelvärdet utifrån det

64
Q

Fördelningsform

A

Hur data fördelar sig runt medelvärdet, i en normalfördelning fördelar sig datan jämnt runt medelvärdet, precis så som kurvan ser ut, medan i en positiv fördelningsform fördelar sig data längre ifrån till vänster om

medelvärdet (fördelningsform = olika former på hur data kan fördela sig kring vårat medelvärde)