Statistik föreläsningar Flashcards

(41 cards)

1
Q

Vad är Population (N)

A

Ofta det vi vill uttala oss om
&
Alla individer/exemplar i en viss grupp

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Vad är stickprov (n)

A

De data vi har samlat in
&
Är inte hela populationen - Urval

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Vad är N

A

Antalet observationer i populationen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Vad är n

A

Antalet observationer i stickprovet

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Varför använder vi oss av deskriptiv statistik?

A

För att beskriva stickprovet

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Varför använder vi oss av inferentiell statistik?

A

För att dra sannolika slutsatser om populationen som stickprovet är draget ifrån.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Vad är en variabel?

A

Egenskaper som kan ändras hos de enheter vi undersöker.
Om det inte finns variation i mätningen av en egenskap går det inte att utföra meningsfulla statistiska beräkningar på den.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Vad betyder variation?

A

Det finns en osäkerget i hur stickprovet bäst beskrivs, vilket är vad statistik hjälper oss med att navigera.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Vilka skalor mäts variabler på:

A

Nominalnivå
Ordinalnivå
Intervallnivå
Kvotnivå

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Vad är likert skala

A
  • Den vanligaste svarsskalan i psykologisk forskning.
  • Behandlas som om den vore intervallnivå även om den är på ordinalnivå

Ex:
Jag blir ofta ursinnig:
1 Nej
2 lite
3 kanske
4 relativt
5 Ja

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Vad är ett centralmått?

A

Hur sammanfattar vi alla mätningar vi gjort på en variabel - vad är ett typiskt värde / vad är ett genomsnittligt värde

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Beskriv typvärde

A

Vadnligaste uppmätta värdet

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Beskriv median

A

Mittersta värdet

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Beskriv medelvärde (aritmetiskt)

A

Summan av alla värden delat med antalet värde

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Vad är variationsbredd

A

Skillnaden mellan största och minska värdet

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Vad är kvartilavstånd

A

Skillnaden mellan tredje och första kvartilens värde (mellan 25:e och 75:e percentilen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Beskriv varians

A

Varians är ett mått på hur mycket värdena i en dataset avviker från medelvärdet i kvadrat.

18
Q

Vad är standardavvikelse

A

Roten ur variansen.

19
Q

Beskriv normalfördelningen

A
  • Den viktigaste teoretiska fördelningen
  • Symmetrisk, klock-formad fördelninge
  • Symmetrisk kring medelvärde
  • Alla normalfördelningar kan förvandlas till en Z-fördelning genom standardisering
20
Q

Beskriv Z-poäng

A

Ett mått på hur mycket ett mätvärde skiljer sig från (varierar ifrån) medelvärdet.
Hur många standardavvikelser ett värde är från stickprovets medelvärdet

21
Q

Beskriv samplingsfördelningen

A

En samplingsfördelning är fördelningen av ett statistiskt mått (t.ex. medelvärde, standardavvikelse eller proportion) som beräknas från ett stort antal stickprov som alla tas från samma population. Den beskriver hur detta mått varierar mellan olika stickprov.

22
Q

Beskriv P värde

A

Hur sannolikt är det att av en slump observera ett medelvärde, givet H0, som är minst lika stort som det vi observerade i stickprovet

P-värdet säger oss hur sannolik vår data är givet en hypotes, inte hur sannolik en hypotes är givet vår data.
Vi använder p-värdet för att hjälpa oss dra slutsatser om vad vi ska tro om våra hypoteser efter vi samlat in data

23
Q

Beskriv alfa nivå

A

Hur ovanlig måste vår observation vara för att förkasta H0 - med andra ord ska vi sluta anta att vårt stickprov är draget från populationen som beskrivs av H0

24
Q

Jämför P värde med alfa nivå

A

Om P<a = förkasta H0 (statistisk signifikans) - Vi drar slutsatsen att det finns tillräckligt med bevis för att tro att det finns en skillnad eller effekt i populationen.
Om P>a = behåll H0 (statistick icke-signifikans) - Vi behåller H0, vilket innebär att vi inte kan dra slutsatsen att det finns en skillnad eller effekt i populationen.

25
Vad berättar dem kritiska värdena?
Vart gränsen för olika sannolikheter av test-värden finns i fördelningen -> Vi vill typiskt veta om våra observationer är mer sannolika än 5% (alfanivå = 0,5) under H0
26
Beskriv typ 1 fel
Falsk positiv slutsats Bestäms av oss genom vår valda signifikans nivå - Sannolikheten att förkasta H0 trots att den är sann Ex: Vi testar effekten av en medicin jämfört med placebobehandling - medicinen fungerar inte - vi får ett signifikant resultat och begår ett typ 1 fel. Medicinen som inte fungerar ges till patienter i svår sjukdom.
27
Beskriv typ 2 fel
Falsk negativ slutsats Bestäms av power av vårt statistiska test - Sannolikheten att behålla H0 trots att den är falsk Ex: Vi testar effekten av en medicin jämfört med en placebobehandling - medicinen fungerar - vi får ett icke-signifikant resultat och begår ett typ 2 fel - medicinen som fungerar blir inte tillgänglig för patienter med sjukdomen
28
Beskriv power och vad som påverkar power
Power är sannolikheten att upptäcka en effekt (signifikant resultat) om en effekt verkligen finns (H0 är falsk). Beräkning: Power beräknas i relation till en alternativhypotes, så vi måste anta en sådan vid planering. Låg power: Leder till att effekten ofta överskattas. Hög power: Ger mer precisa uppskattningar av populationseffekten. Påverkas av: Minskad varians och mätfel. Ökad alfanivå (ökar risken för typ 1-fel). Större stickprovsstorlek.
29
Beskriv Cohens d
Cohen's d är ett mått på hur stor skillnaden är mellan två medelvärden, uttryckt i antal standardavvikelser.
30
Beskriv samband
Variabler förändrar sig tillsammans - de varierar tillsammans. ( två variabler samvarierar, dvs om en rör sig uppåt så rlr sig andra uppåt (positivt samband), eller om en rör sig uppåt och den andra nedåt (negativt samband)) Samband kan se ut hur som helst och det kan vara skillnad i medelvärde mellan grupperna. Alla samband är inte linjära
31
Beskriv korrelation
Korrelation är ett mått på samband och det vanligaste korrelationsmåttet heter Pearsons produktmomentkorrelationskoefficient. Pearsons korrelation förkortas med bokstaven r och mäter ett linjärt samband mellan två kontinuerliga variabler. Korrelation går mellan -1 och 1. Föreställ dig: Detso närmre linjen punkterna ligger desto starkare korrelation.
32
Beskriv positiv korrelation.
En ökning av en variabel är associerad med en ökning av den andra variabeln. Ex längd (x) och vikt (y) men också vikt (x) och längd (y) r=1 antyder perfekt positiv samband
33
Beskriv negativ korrelation
En ökning av en variabel är associerad med en minskning av den andra. Ex cigaretter rökt under livet (x) och livslängd (y) r=-1 antyder perfekt negativt samband
34
Tolka korrelationsstyrka (cohens riktlinjer) Svag Medelstark Stark
Svag = r mellan +- 1(inkl) och +-3(inkl) Medelstark = r mellan +-3(inkl) och +-5(exkl) Stark = r från +-5(inkl) Men: Detta är riktlinjer så inte fasta regler. De icke-signifikanta korrelationer är icke-signifikant oavsett styrka.
35
Beskriv kovarians
Det är ett ostandardiserat mått på linjärt samband mellan två variabler - variansen mellan två variabler. De kan anta vilka värden som helst, både positiva och negativa och därmed svårtolkat.
36
Beskriv chi2
Chi2, eller 𝜒2 är en statistisk metod och fördelning som används för att analysera skillnader mellan observerade och förväntade frekvenser i kategoriska data. Den används ofta i hypotesprövning och för att mäta hur väl en modell passar data.
37
Inom chi2 finns två vanliga x^2-test: - Goodness of fit - Test för oberoende Beskriv dem.
Goodness-of-fit test: Testar om en uppsättning observerade data stämmer överens med en förväntad fördelning. Test för oberoende: Används för att undersöka om det finns ett samband mellan två kategoriska variabler i en kontingenstabell.
38
Beskriv ANOVA
Används i situationer där vi är intresserade av att jämföra medelvärdet mellan fler än 2 grupper. - ANOVA fungerar när den beroende variabeln är på intervall/kvotnivå, dvs att den är kontinuerlig. - ANOVA fungerar när den oberoende variabeln är på nominalskala och har flera nivåer. - Variabler mätta på likertskalor kan oftast beräknas med ANOVA. - Om P är < 0,05 = signifikant skillnad. Men ANOVA säger dock inte vilken grupp som skiljer sig från vilken - då behövs post hoc test.
39
Beskriv envägs ANOVA
Det låter oss testa om det finns en skillnad i medelvärde mellan flera grupper i en beroende variabel.
40
Principer inom ANOVA:
1. Förkastning av nollhypotesen (H₀) - H₀ (nollhypotesen): Det finns ingen verklig skillnad mellan gruppmedelvärdena. - H₁ (alternativ hypotes): Minst en grupp har ett medelvärde som skiljer sig från de andra. När förkastar vi H₀? - Om skillnaden mellan gruppmedelvärdena är stor. - Om variation inom grupperna är liten. - Ju större skillnad mellan grupperna eller ju mindre spridning inom grupperna, desto mer sannolikt att vi förkastar H₀. 2. Total variation delas upp i inom- och mellangruppsvariation Den totala variationen i data kan delas upp i två delar: Inomgruppsvariation (SSW, "Sum of Squares Within") - Variation inom varje grupp. - Beror på slumpmässiga faktorer (t.ex. individuella skillnader, mätfel). - Om SSW är stor → stor spridning inom grupperna → svårare att upptäcka skillnader mellan grupper. Mellangruppsvariation (SSB, "Sum of Squares Between") - Variation mellan grupperna. - Beror både på slumpmässiga faktorer och systematiska faktorer (t.ex. verkliga skillnader mellan grupper). - Om SSB är stor jämfört med SSW → större sannolikhet att grupperna verkligen skiljer sig åt. - Om SSB är stor relativt till SSW → Gruppernas medelvärden skiljer sig signifikant → Vi förkastar H₀. - Om SSB är liten relativt till SSW → Skillnaderna mellan grupper kan förklaras av slumpen → Vi behåller H₀. - Högt F-värde → Stor skillnad mellan grupper → Större chans att förkasta H₀. - Lågt F-värde → Små skillnader mellan grupper → Behåller H₀.
41
Beskriv envägs beroende ANOVA
Beroende mätningar uppstår när vi ska mäta en samma individ flera gånger, dvs före och efter interventionen. Dey låter oss testa om det finns en skillnad i medelvärde i flera grupper för en beroendevariabel vilket består av beroende (upprepade) mätningar.