Cours 6 - Statistiques descriptives et inférentielles Flashcards

(77 cards)

1
Q

statistiques descritptives

A
  1. permet de décrire, démontrer, résumer données
  2. permet de détecter émergence de patterns dans échantillon
  3. svt en préambule à l’émission des hypothèses
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

nomme 4 grandes familles des statistiques descriptives

A
  1. mesures de fréquence
  2. mesures de tendance centrale
  3. mesures de dispersion
  4. mesures de position
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

statistiques inférentielles

A

permet d’effectuer généralisation, à partir d’un échantillon, vers une pop ou sous-pop

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

avec quoi calcule-t-on statistiques inférentielles

A

statistiques descriptives

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

peut-on utiliser statistiques descriptives pour établir relation de causalité

A

NON JAMAIS !!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

comment sont présentées mesures de fréquence

A

souvent en forme de tableau ou graphique : en absolu ou relatif (%)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

mesures de fréquence : comment présenter les données si sont continues

A

histogramme

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

mesures de fréquence : comment présenter les données si sont discrètes

A

diagramme à bâtons

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

mesures de tendance centrale

A

théorème limite central, loi normale, distribution normale ou courbe normale

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

mesures de tendance centrale : moyenne

A

somme des valeurs divisées par le nombre d’observation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

mesures de tendance centrale : médiane

A

point milieu d’une distribution de données : 50% des données sont en inférieures à la Md et 50% sont supérieures à la Md

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

mesures de tendance centrale : mode

A

donnée la + populaire

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

dans une courbe normale, moy, md et mode sont comment

A

similaires!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

skew (coefficient d’asymétrie) positif

A

prépondérance accrue des valeurs positives

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

skew (coefficient d’asymétrie) négatif

A

prépondérance accrue des valeurs négatives

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

mesure de position

A

quartiles !

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

quand utilise-ton quartiles

A

surtout utile pour distribution asymétriques

intéressant de se questionner si asymétrie est secondaire à phénomène clinique réel OU si secondaire à l’échantillonnage ou hasard

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

décris les moyennes, écarts-types, étendues

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

étendue de la distribution

A

distance entre la plus petite mesure et la plus grande mesure

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

concept de kurtose à revoir

A

lorsqu’élevé = courbe pointue // bas = courbe aplatie

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

médianes d’une distribution (avec quartiles)

A

Q1, Q2, Q3

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

étendue interquartile

A

longueur du rectangle : Q3 - Q1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

variance de la distribution

A

somme des écarts par rapport à la moyenne au carré divisée par nombre d’observations.

sert à déterminer à quel point il y a différence entre données dans un groupe

sert à calculer écart-type

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

comment calculer l’écart-type (standard deviation) de la distribution

A

racine carrée de (somme des écarts par rapport à la moyenne au carré divisée par nombre d’observations)

ravine carrée de la variance

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
avantage du calcul de l'écart-type
donne une mesure positive! facilite opérations mathématiques ultérieures
26
écart-type de la pop versus de l'échantillon
27
erreur-type (standard error)
mesure de précision des observations mesure de certitude sur la moyenne de ton échantillon plus l'erreur type est petite, plus tu es certain que la moyenne que tu as calculé est juste écart-type divisé par le nombre d'observation
28
influence de la taille de l'échantillon sur l'erreur-type
+ n est grand, plus SE est petit (bien!)
29
comment l'erreur-type nous aide à calculer in IC à 95%
score Z qui correspond à 95% = 1,96 IC à 95% = 1,96 x SE
30
erreur de type 1 (erreur alpha)
rejeter Ho à tort on dit qu'il y a un effet alors qu'il n'y en a pas (faux positif)
31
erreur de type 2 (erreur beta)
accepter Ho à tort on dit qu'il n'y a pas d'effet alors qu'il y en a un
32
que nous dit la p value
probabilité de commettre une erreur de type 1 (ou alpha)
33
seuil/niveau de signification statistique
mesure arbitraire considérant la nature continue de la valeur p
34
est-ce que la valeur p nous permet de savoir si les résultats d'une étude clinique sont "utiles" ?
NON NON NON
35
lien entre valeur p et résultats statistiquements significatifs
valeur p indique uniquement que la probabilité de commettre une erreur de type 1 était inférieure au seuil de signification statistique préalablement déterminé par les auteurs de l'étude
36
MCD : minimal detectable change
le plus petit changement détectable par un outil de mesure valeur à partir de laquelle on considère que le changement n'est pas secondaire à une "imprécision" de la prise de mesure
37
MCIC : minimal clinically important change
le plus petit changement considéré comme cliniquement significatif pour un patient ou un groupe (intra-groupe)
38
MCID : minimal clinically important difference
la plus petite différence considérée comme cliniquement significative lorsqu'on compare 2 groupes (inter-groupe)
39
distillation des effets non-spécifiques
plusieurs effets non-spécifiques peuvent influencer les résultats alors que nous on s'intéresse uniquement à l'effet spécifique...
40
nomme effets non-spécifiques
1. guérison naturelle 2. régression vers la moyenne 3. effet hawthorne 4. phénomène de Rogers 5. paradoxe de Simpson 6. vrai effet placebo
41
effet hawthorne
changement de comportement des sujets étudiés (pcq ils sont observés) fait de faire partie de l'étude = ils s'améliorent
42
phénomène de Rogers
méthode diagnostique affecte le pronostic
43
paradoxe de Simpson
facteurs confondants et sous-groupes distincts
44
effets planchers-plafonds
donne des moyennes artificiellement élevées ou trop faibles
45
intervalles de confiance
estimation de l'intervalle pouvant contenir la valeur réelle d'un paramètre recherché. si la mesure était répété, la moyenne de l'échantillon tomberait à l'intérieur de l'IC
46
comment réduire l'IC (flou autour de la moyenne)
augmenter le n
47
niveau de confiance
1 - alpha
48
taille d'effet (effect size)
mesure de la magnitude d'un effet
49
qu'est-ce qui nous dira à quel point la mobilisation antérieure est meilleure que la postérieure?
taille de l'effet de chacun
50
taille de l'effet : 3 valeurs
51
Cohen d effect size
d de Cohen : distance entre la moyenne du groupe expérimental et celle du groupe contrôle. on mesure cette distance en terme de : combien d’écart-type la moyenne est-elle déplacée. tjrs un nombre positif
52
mesures de position : box plots/boîte à moustache
53
box plot ET skew positif, négatif et distribution normale
54
analyse par Intention to treat (ITT)
si pas fait = biais d'attrition impact sur la taille de l'effet : surestimer les résultats (reste juste les complieurs, ceux pour qui le tx fonctionne)
55
puissance d'une étude
1 - BETA capacité à détecter un effet avec une étude arbitrairement établi entre 80% et 95%
56
Number Needed to Treat (NNT)
mesure du nombre de patients qui doivent être traités pour obtenir un changement cliniquement significatif par rapport à l'absence d'intervention ou une autre intervention. nombre de patients que je dois traité pour qu'un soit affecté positivement // nombre de patients que je dois traité pour qu'un de plus s'améliore
57
interprete un NNT de 3
pour chaque 3 patients traités, un de plus va s'améliorer : je dois en traiter 3 pour en sauver 1 par rapport à l'absence d'intervention ou une autre intervention. statistique comparative : faut dire l’intervention a un NNT de 3 (ex) par rapport à X autre intervention ** te dis juste que 1 de 3 patients vont avoir un good outcome, mais te dis pas que les 2 autres auront un bad outcomes
58
NNH : number needed to harm
mesure du nombre de patients qui doivent être traités pour prévenir un résultat défavorable par rapport à l'absence d'intervention ou une autre intervention
59
pourquoi on utilise des tests statistiques
permet de savoir si les données de l'étude sont statistiquement significatives
60
nomme 2 catégories de tests statistiques
Tests de différences : T-Test et Anova Test de relation : corrélations et régressions
61
tests statistiques paramétriques VS non paramétriques (à vérifier)
paramétrique = données suivent une distribution normale n > 30 non paramétrique = ø n < 30
62
T-Tests
1. T-Test indépendant, 2 échantillons - compare groupes indépendants - à 1 point dans le temps, une variable à la fois 2. T-Test dépendant, 1 échantillon -compare 1 groupe dépendant - à plusieurs points dans le temps donne une VALEUR T
63
Anova simple
- compare la différence entre 3 groupes ou + à un moment dans le temps - utilise une seule variable dépendante
64
Anova mesure répétées
- compare un même groupe à 3 moments distincts ou + - utilise généralement 1 seule variable dépendante
65
MMA : Mixed Model Anova
- compare différence entre 2 groupes ou + - fait cette comparaison à différents moments dans le temps - peut utiliser différentes variables si groupe d'inter et contrôle se sont améliorés de la même façon : effet d'interaction p > 0.05 si groupe inter s'est + amélioré que contrôle : effet d'interaction de p < 0.05 **compare entre les groupes et dans les groupes
66
valeur obtenue par les Anovas
valeur f
67
MMA : Mixed Model Anova
- compare différence entre 2 groupes ou + - fait cette comparaison à différents moments dans le temps - peut utiliser différentes variables si groupe d'inter et contrôle se sont améliorés de la même façon : effet d'interaction p > 0.05 si groupe inter s'est + amélioré que contrôle : effet d'interaction de p < 0.05 **compare entre les groupes et dans les groupes
68
pq utiliser ANCOVA (analyse de covariance)
aide à contrôler une covariable pouvant affecter le résultat * existe une sorte de coefficient de corrélation pour ancova BUT : tester l'effet de la VI sur la VD une fois que l'effet de la covariable sur la VD est enlevé
69
avec quelles variables sont utilisées les ancova
variables démographiques
70
corrélation de Pearson (PCC)
pour les variables continues !! r allant de -1 à +1
71
corrélation du rang de Spearman
pour les variables ordinées !! r allant de -1 à +1 équivalent non paramétrique du PCC
72
but analyse de régression linéaire
vise à estimer, expliquer ou prédire la contribution d'un (OU plusieurs) facteurs à la variable d'un phénomène mesure la force des prédicteurs (permet de les combiner) (R carré ou sr carré)
73
avec quelle variable on utilise analyse de régression linéaire
CONTINUES
74
but analyse de régression logistique
vise à estimer, expliquer ou prédire la contribution d'un (OU plusieurs) facteurs à la variance d'un phénomène souvent utilisé pour FR ou FP (OR)
75
avec quelle variable on utilise analyse de régression logistique
DICHOTOMIQUES
76
quel test permet d'ajuster les différences inter-groupes
ANOCOVA
77
quel test permet d'ajuster les différences inter-groupes
ANOCOVA