Qualité d'un instrument de mesure Flashcards

1
Q

Questionnaire validé

avantages (3)

A
  • économie tenps et $
  • permet de comparer nos résultats avec ceux obtenus dans d’autres pop. à d’autres moments
  • Crédibilté
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Questionnaire validé

Désavantages (3)

A
  • +/- adapté à notre étude
  • évaluation des propriétés psychométriques est incomplète ou +/- pertinente pr notre étude
  • aspects pratiques ne conviennent pas
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Documenter les 3 propriétés psychométriques

A
  • fiabilité : résultats précis ?
  • validité : résultats justes ? test mesure bien ce qu’il est censé mesurer ?
  • Responsiveness : est-ce que le test peut détecter des changements ds le temps associés à la progression de la maladie ou à une intervention/tx
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Définition

FIABILITÉ (3)

A

PRÉCISION

  • capacité de mesurer un objet/concept de façon reproductible et logique
  • indique ds quelle mesure les résultats obtenus sont précis
    • un nstrument est précis/fiable, plus il produit de scores similaires lorsque les mesures sont répétées dans des conditions similaires aux mm sujets
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

3 types de fiabilité

A
  • test-retest
  • cohérece interitems
  • fiabilité intercorrecteurs
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Fiabilité test-retest

définition

A

Habileté d’un test à reproduire les mêmes résultats lorsque réadministré, ds des conditions similaires aux mêmes sujets

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Fiabilité du test-retest

devis expérimental (2)

A
  • intervalle entre test et retest : trop court : surestimation mémoire; intervalle long : ce qu’on mesure peut avoir changé
  • conditions d’admin : environnement, consignes et limite de temps
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Fiabilité du test-retest

tests statistiques (4)

A
  • coefficient de corrélation Pearson
  • Coefficient de corrélation intraclasse
  • différence moyenne entre test et retest
  • coeffiencet de concordance : kappa
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Pearson (3)
1= correspondance parfaite
0 = pas de correspondance

trash

A
  • ne détecte pas les différences systématques entre le test-retest
  • dépend de la variabilité ou étendue des résultats
  • pour des mesures obtenues sur une échelle d’intervalle ou de ratio

erreur systématique exemple : test#1 et test#2 ou tout le monde a augmenté de 20% => dans les 2 cas, r=1.

plus on a de pts, plus on a de chances d’avoir une corrélation qui suit la moyenne

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

CIC
définition

sensible à ?

A

indique la proportion de la variance totale qui est attribuable à des différences réelles entre les répondants

… à la variabilité/étendue des résultats

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

CIC calcul

A

= Variance entre les participants / variance totale = vraie variance / variance totale

variance totale : variance entre répondants + variance entre test/retest + variance due aux erreurs de mesures

vraie variance = variance entre les répondants

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

CIC résultats

A

cic =1 : 100% de la variance est attribuable à des différences réelles , 0 erreur de mesure, précision parfaite

cic = 0 , 0 % de la variance est attribuable à des différences réelles

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Quelle situation il n’y a pas de différence systématique entre test/retest ?

A

qd pearson et cic son équivalents

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Interprétation du CIC

A

> =0.7 : utilisation au niveau des groupes : (comparer 2 grps)

> =0.9 : utilisation au niveau individuel :
(échelle mesure de douleur pr décider si on augmente la dose d’analgésie)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Fiabilité du test-retest

comparaison des scores moyens

définition

trash

A

si aucune différence entre score moyen obtenu au test et au retest => test est fiable

problème : grandes différences entre résultats peuvent être inaperçues si sont dans le sens inverse

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Fiabilité
Coefficient KAPPA

définition

A

Indique le degré de correspondance entre le testretest lorsque les mesures sont faites sur

kappa : échelle nominale

kappa pondérée : échelle ordinale à plus de 2 niveaux

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

coefficient kappa:

calcul

A

K = (prop.obs-prop. attendue) / (1-prop.attendue)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Interprétation kappa

A

<0.4 : concordance faible

  1. 4-0.6 : concordance modérée
  2. 61-0.8 : concordance élevée

> 0.8 : concordance très élevée : presque parfaite

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

2e type de fiabilité :

Cohérence interitems
définition

A

homogénéité des items ou le degré de corrélation entre les différents items d’un test mesurant le mm domaine

le test doit être formé de plusieurs items qui mesurent un mm concept

plus la corrélation entre les items sera grande plus la fiabilité sera élevée

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Cohérence interitems

Devis expérimental

A

administre le test à un grp de participants à une seule occasion

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

2e type de fiabilité :

Cohérence interitems

Tests statistiques
Bissection/split half

A
  • questionnaire est séparé en 2 parties égales et on évalue la corrélation entre les résultats de chacune des 2 parties
  • relativement peu utilisé
22
Q

2e type de fiabilité :

Cohérence interitems
Tests statistiques
Formule de kruder -richardson

A
  • représente la moyenne de tous les coefficients de bissection
  • s’applique à des MESURES NOMINALES
23
Q

2e type de fiabilité :

Cohérence interitems
Tests statistiques

coefficient alpha de cronbach

A
  • représente la moyenne de tous les coefficients de bissection
  • s’applique à des mesures obtenues sur une ÉCHELLE ORDINALE
24
Q

3e type de fiabilité :

fiabilité intercorrecteurs

A

mesure de concordance entre les mesures obtenues par différents évaluateurs

25
Q

3e type de fiabilité :

devis expériemetnal

A

on demande à des différents évaluateurs d’évaluer un mm objet et on mesure le de gré de corrélation entre les résultats des différents évaluateurs

26
Q

3e type de fiabilité :

Tests statistiques

A

idem au test-retest

27
Q

Validité

définition :

A
  • capcité d’un test de mesurer ce qu’il est censé mesurer
  • Indique dans quelle mesure les résultats obtenus sont exacts
  • processus long et complexe
28
Q

3 types de validité :

A
  1. Validité de contenu
  2. validité de critère
  3. Validité conceptuelle
29
Q

Validité de contenu

2 questions

A

Est-ce que tous les aspects importants d’un domaine sont mesurés ?

Est-ce que les items sont formulés correctement ?

30
Q

Validité de contenu

Définitions (3)

A
  • Déterminer si le contenu d’un test est un échantillon représentatif du domaine mesuré
  • processus subjectif basé sur le jugement d’experts, de pts et de cliniciens
  • il est important de savoir comment un questionnaire a été développé
31
Q

Validité de critère

représente le degré d’efficacité d’un test

A

ESt-ce que le test peut prédire les résultats d’un test étalon ou d’une mesure objective obtenu au mm moment (validité concourante) ou plus tard ds le temps (validité prédictive)

32
Q

validité de critère :

concourante :

prédictive :admin test au temps 0 et test étalon/mesure obj. au temps 1

A

on compare les résultats d’un test d’intelligence conventionnel vs un test d’intelligence abrégé

on évalue si les résultats d’un test d’intelligence à l’admission ds un programme peuvent prédire les succès académques

33
Q

Validité de critère

Tests statistiques

mesures ordinales, d’intervalle ou de ratio

A
  • corrélation de pearson
  • coefficient intraclasse
  • modèle multivarié
34
Q

Validité de critère

Sensibilité :

calcul

A

VP / VP + FN

capacité d’un test de détecter la maladie chez des personnes malades

-probabilité d’identifier correctement les personnes malades

35
Q

Validité de critère
spécificité

calcul

A

VN/FP + VN

capacité d’un test de ne pas détecter la maladie chez des personnes qui ne sont pas malades

-probabilité d’identifier correctement les personnes non malades

36
Q

Valeur prédictive positive

calcul

A

VPP = VP / VP + FP

PRobabilité qu’une personne ayant un test positif ait la maladie

37
Q

Valeur prédictive négative

calcul

A

VPN = VN/FN +VN

Probabilité qu’une personne ayant un test négatif n’ait pas la maladie

38
Q

Quelle est la relation entre la sensibilité et la spécificité ?

remarque :

qd on augmente la spécificité , la sensibilité diminue

A

spécificité de 75% à gauche du quota de 3

sensibilité de 85% l’autre courbe à droite du quota d 3 => mcv

39
Q

Validité de critère

Le choix de la valeur limite dépend de l’objectif du test :

maladie très sérieuse

dépistage d’un facteur de risque

A
  • sensibilité

- spécificité

40
Q

Quelle est la relation entre la sensibilité/spécificité et VPP et VPN

A

grand carré avec points noirs et blancs

41
Q

Est-ce qu’une sensbilité très élevée est tjs bonne ?

A

tous les résultats sont positifs

sensibilité = 100% oui on a détecté tous les malades

spécificté : 0%, on n’a pas réussi à détecter les non malades

42
Q

Que se passe-t-il lorsque la prévalence de la maladie change ?

A

la prévalence n’affecte pas la spécificité et la sensibilité de la maladie

VPP et VPN sont affectées par la prévalence de la maladie

43
Q

Si la prévalence diminue

VPP?
VPN ?

A

VPP diminue

VPN ^^^^

44
Q

si prévalence augmente ?

A

VPP ^^^

vpn diminue

45
Q

Validité conceptuelle

Définition (2)

A
  • degré de certitude quant à l’habileté d’un test de mesurer le concept qu’il est censé mesurer
  • plusieurs études sont nécessaires pr établir la validité conceptuelle d’un test
46
Q

3 types de validité conceptuelle

convergente

discriminante

autre

A
  • est-ce que le test produit des résultats similaires à ceux d’un autre test mesurant un concept similaire ?
  • est ce que le test produit des résultats différents de ceux d’un autre test mesurant un concept différent ?
  • est-ce que le test produit des résults qui sont intuitivement raisonnables ?
47
Q

Validité convergente :

A

on administre 2 tests qui mesurent des concepts similaires à un mm grp de sujets et on évalue la corrélation entre les résultats des 2 tests

corrélation forte = validité convergente est grande

48
Q

Validité discriminante

A

on administre 2 tests qui mesurent des concept différent à un mm grp de sujet => on évalue la corrélation entre les résultats de ces 2 tests.

corrélation faible = plus la validité discrimante est grande

49
Q

Validité autre

A

on administre le test à différents grps de pts => on check si les différences observées entre les groupes sont conformes aux différences

50
Q

Capacité de détecter des changemetns dans le temps

définition :

A

-Habileté d’un test à détecter des changements importants qui se produisent dans le temps mm si ces changement sont defaible amplitude

=>détecter un changement de la qualité de vie des patents avant et après un tx
-détecter des changements des habiletés fct après un AVC

51
Q

Capacité de détecter des changements dans le temps

devis expérimental (2 études)

A
  • étude prospective mesurant l’évolution des pts durant une période de changement
  • étude prospective comparative :
    => compare 2 grps de pts recevant des traitements différents
52
Q

3 façons comment améliorer la capacité de détecter des changements dans le temps

(3)

A
  • Augmente le nbr de catégories de réponses.
    excellente, très bonne, bonne, passable
  • Présente les réponses antérieures
  • Utilise une question de transition