Cours 10 - Validité Flashcards

1
Q

Un score à un test psychologique n’est utile que s’il…

A

…est relié à quelque critère externe ou construit théorique ayant un certain intérêt.

En d’autres termes, dans quelle mesure les différences individuelles quant aux scores obtenus reflètent des différences pertinentes quant à une question posée.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Quel est le but de la validation d’un test?

A

Préciser deux aspects fondamentaux:

  • Ce que le test mesure et;
  • avec quel degré de précision il le mesure.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

La validité d’un test réfère à quoi?

A

Au degré avec lequel un test mesure ce qu’il est supposé mesurer, mais plusieurs facteurs, théoriques et pratiques, justifient l’utilisation des tests psychologiques et chacun de ceux-ci influence différemment la notion de validité.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

V ou F

Il n’y a pas de définition absolue de la validité d’un test.

A

Vrai

Puisque cette validité dépend du contexte d’utilisation de ce test, des fins pour lesquelles il est utilisé et des questions auxquelles il tente de répondre. Par exemple, un thermomètre risque de fournir une mesure valide de la température de votre corps, mais invalide de votre compréhension de la psychométrie. C’est donc dire qu’un test n’est jamais valide en soi, mais c’est plutôt son utilisation spécifique qui est valide ou invalide. De façon globale, la validité d’un test réfère donc à la pertinence des inférences que l’on tire des résultats fournis par le test.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Comment peut-on illustrer la validité d’un test?

A

En se rappelant la notion de score vrai. Le score au test s’exprime ici sous la forme…

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Formule du score vrai.

A

Ici, c’est comme si on décomposait le score vrai en score pertinent (Xp) et en score non pertinent (Xn), i.e.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Quelles sont les trois grandes méthodes de validation d’un test?

A
  • Validation de contenu: (que l’on a étudié lors de l’analyse des items) et qui porte en fait sur la pertinence et la couverture des contenus.
  • Validation de construit: cohérence avec la «structure théorique».
  • Validation critériée ou pragmatique: relation avec un critère externe.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Qu’est-ce que la validation pragmatique?

A

La validation pragmatique ou critériée est une méthode qui s’applique à tous les cas où il existe une mesure indépendante et directe de la caractéristique que le test est supposé mesurer. On appelle cette mesure: critère (externe).

La méthode consiste à calculer la corrélation entre le résultat au test et le critère.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Quelques exemples de validité critériée (pragmatique).

A
  • Test d’aptitudes mécaniques -> performance ultérieure comme machiniste (critère) (prédictif)
  • Test d’aptitudes scolaires au secondaire-> résultats scolaires au collégial (critère) (prédictif)
  • Test de tendances névrotiques -> diagnostic clinique professionnel. (critère) (concomitante)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Cette méthode de validation présuppose l’existence de quoi?

A

Du critère.

Par conséquent, le test ne mesure pas un construit purement théorique, mais a plutôt pour but de prédire où se situe l’examiné par rapport à ce critère.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Quels sont les deux types de validation critériée?

A
  • La validation concomitante (lorsque l’administration du test et la mesure du critère sont simultanées)
  • La validation prédictive (lorsque l’administration du test précède d’un certain intervalle de temps la mesure du critère).
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

La méthode de validation concomitante s’avère appropriée lorsque le test à valider sera éventuellement utilisé à des fins de…

A

…diagnostic, c’est-à-dire à la mesure d’un état actuel.

Par exemple, un test de connaissances en pilotage d’avions commerciaux chez des pilotes commerciaux.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

La méthode de validation prédictive s’avère appropriée lorsque le test à valider sera éventuellement utilisé à des fins de…

A

…pronostic, c’est-à-dire que le test servira à prédire un état futur.

Par exemple, un test d’aptitudes au pilotage (utilisé avant un cours).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Quelle est l’exception à cette règle?

A

Lors de l’étape de validation, il s’avère parfois que l’intervalle de temps qui sépare l’administration du test de la mesure du critère est trop long. On s’en remet alors à la validation concomitante en contrastant la performance d’échantillons «pré-sélectionnés», i.e. composés d’examinés pour lesquels les données critériées sont déjà disponibles.

Par exemple, en passant le test d’aptitudes au pilotage à un groupe de pilotes et à un groupe de non-pilotes.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Quelles sont les grandes catégories de critères qui sont souvent considérés lors de l’analyse de la validité de certains types de tests?

A
  • La performance académique
  • La performance à un cours spécialisé
  • Rendement au travail
  • Groupes contrastés (critère composite)
  • Diagnostic psychiatrique
  • Jugements appréciatifs
  • Liens avec les tests existants
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Exemples de critères de performance académique.

A
  • Notes scolaires
  • promotion de classe
  • obtention d’un diplôme
  • niveau d’éducation atteint (chez les adultes)
  • etc.

Utilisé pour mesurer la validité des tests d’«intelligence générale», des tests d’aptitudes scolaires.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Exemples de critères de performance à un cours spécialisé.

A
  • Appréciations par les instructeurs
  • achèvement vs abandon du cours
  • etc.

Utilisés pour mesurer la validité de tests visant à mesurer des aptitudes spécifiques (aptitudes mécaniques, de pilotage, etc.).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Exemples de critères de rendement au travail.

A
  • Mêmes fins que dans l’exemple précédent (i.e. performance à un cours spécialisé).
  • La standardisation est plus difficile car il peut y avoir beaucoup de différences d’un lieu de travail à l’autre.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Exemples de critères de groupes contrastés (critère composite, non homogène).

A
  • Par exemple, un test d’aptitudes musicales -> comparaison entre les élèves du conservatoire de musique et ceux des autres disciplines.
  • Cette méthode est souvent utilisée pour «valider» les tests de personnalité.
  • Par exemple, Leadership -> comparaison entre les directeurs d’entreprise et les employés de bureau.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Exemples de critères de diagnostic psychiatrique.

A

Le diagnostic sert de critère pour établir la validité de certains tests de personnalité qui pourraient éventuellement faciliter le travail diagnostic.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Exemples de critères de jugements appréciatifs.

A

Les jugements appréciatifs servent surtout à valider les tests de personnalité.

  • Pour certains types de «traits», les appréciations de l’entourage de l’examiné sont possiblement le meilleur critère.
  • Par exemple, votre conjoint est en mesure de porter un jugement sur votre «niveau de libido».
  • C’est comme le critère précédent (i.e. «diagnostic psychiatrique»), mais ce sont les personnes de l’entourage immédiat qui agissent comme «experts».
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Exemples de critères de liens avec les tests existants.

A

Lorsqu’on élabore un nouveau test pour remplacer un test reconnu, mais lourd à administrer, le résultat à ce dernier peut être vu comme étant un «critère» pour établir la validité du nouveau test.

On a ici un certain recoupement avec la validation de construit.

23
Q

Qu’est-ce que la validité de construits?

A

La validation de construit n’est pas une méthode unique et explicite pour établir la validité d’un test, mais bien un ensemble de méthodes qui visent toutes le même but: établir jusqu’à quel point le test fournit une mesure adéquate du construit théorique qu’on prétend qu’il mesure.

24
Q

La validité de construit d’un test ne pourra se faire que si…

A

nous avons une définition claire et explicite du construit qu’on prétend mesurer.

25
Q

Le processus de validation de construit implique plus que la «qualité» de la mesure, elle implique également…

A

…la «qualité» de la construction théorique sous-jacente.

On peut difficilement envisager la mesure valide d’un construit théorique issu d’une théorie farfelue (p. ex. «votre habileté à devenir invisible»).

26
Q

Qu’arrive-t-il lorsque le construit mesuré est intrinsèquement relié à une ou plusieurs caractéristiques de l’individu?

A

La mesure du construit doit être sensible à cette relation.

Un exemple clair est certainement celui de la mesure de l’«intelligence» qui doit se développer avec l’âge de l’enfance à l’adolescence.

27
Q

Pour appuyer la validité de construit d’une échelle ordinale, il est essentiel de…

A

…démontrer que les résultats respectent intégralement la séquence ordinale supposée.

28
Q

On peut également penser à d’autres caractéristiques, selon la théorie à laquelle appartient le construit.

A

Par exemple, un test de «masculinité-féminité» devrait montrer une relation entre les scores qu’il fournit et le sexe des examinés.

29
Q

Pour appuyer la validité de construit d’un certain test, on a recours à quoi?

A

Au calcul de plusieurs corrélations entre les scores obtenus à ce test et ceux fournis par un ensemble d’autres tests. Ce calcul vise deux buts, aussi importants l’un que l’autre:

  • Montrer la présence de corrélation entre le test et d’autres tests qui sont supposés mesurer le même construit ou des construits théoriquement liés;
  • Montrer l’absence de corrélation entre le test et d’autres tests qui sont supposés mesurer des construits théoriquement indépendants (preuves négatives de validité).
30
Q

Certains auteurs de tests considèrent les coefficients d’homogénéité comme quoi?

A

Des indices de la validité de construit.

31
Q

Le calcul de ces coefficients est fondé sur quoi?

A

La corrélation entre chacun des items du test et le score total au test.

Le score total est alors vu comme la meilleure mesure du construit que le test est supposé mesurer.

32
Q

La même technique peut être utilisée pour établir la «validité» des sous-tests qui forment une batterie de tests pour laquelle il existe un score global.

A

Par exemple, tous les sous-tests (p. ex. vocabulaire, calcul,…) de certains tests d’intelligence devraient être corrélés avec le score total au test (souvent appelé «Q.I. global»).

33
Q

Les coefficients d’homogénéité sont des indices de quoi?

A

De cohérence de la mesure (qui ne sont pas équivalents à des facteurs) et, par conséquent, ils ne peuvent être considérés que comme des indices très indirects et peu informatifs de la validité de construit.

34
Q

Quarrive-t-il lorsque plusieurs tests sont administrés à peu près simultanément?

A

Le nombre de coefficients de corrélation calculables augmente très rapidement.

35
Q

L’analyse factorielle est une méthode statistique sophistiquée qui permet quoi?

A

Permet de faciliter l’interprétation d’une telle structure de coefficients de corrélation.

Globalement, elle permet de mettre ensemble les tests qui semblent mesurer à peu près le même construit et de distinguer les tests qui mesurent des construits distincts (i.e. peu corrélés). On appelle facteurs ces «construits» extraits de façon empirique.

36
Q

Qu’est-ce que le coefficient de validité factorielle?

A

Le coefficient de corrélation calculé entre le score à un certain test et le score factoriel correspondant (les saturations).

37
Q

Les scores à un test doivent démontrer des corrélations élevées avec d’autres variables aveclesquelles ils doivent théoriquement être reliés. Comment appelle-t-on cette technique?

A

La validation convergente.

Par exemple, montrer qu’un test de «raisonnement numérique» est corrélé avec un test d’«habiletés arithmétiques».

38
Q

Qu’est-ce que la validation discriminante?

A

Dans la validation discriminante, on doit trouver des corrélations nulles (ou faibles) avec les autres variables avec lesquelles ils ne doivent pas, en principe, être reliés.

Par exemple, montrer qu’un test de «raisonnement numérique» est peu (ou même, pas) corrélé avec un test de «compréhension de texte».

39
Q

Qu’est-ce que la méthode multitraits/multiméthodes?

A

Proposée par Campbell et Fiske (1959) est une méthode très générale qui permet d’analyser en détail les qualités psychométriques de plusieurs tests. Elle permet d’étudier simultanément: La fidélité; la validité convergente; la validité discriminante.

40
Q

La méthode multitrait/multiméthodes consiste à quoi?

A

Mesurer deux ou plusieurs construits (appelés ici «traits psychologiques») théoriquement distincts à l’aide de deux ou plusieurs méthodes différentes età calculer les différents coefficients de corrélation possibles.

L’analyse à faire est de comparer:

  • Les coefficients obtenus en mesurant le même construit «D ou A» à l’aide de différentes méthodes «1 et 2» (validation convergente)

ET

  • Les coefficients obtenus en mesurant différents construits «D et A» à l’aide de la même méthode «1 ou 2» ou des méthodes différentes «1 et 2» (validation discriminante)

Il est logique de s’attendre à ce que les coefficients de validité convergente «les E» soient toujours plus élevés que tous les coefficients de validité discriminante «les F et les TF». Sinon, les différences individuelles observées seraient attribuables à la méthode utilisée au lieu du «construit» que l’on suppose mesurer.

41
Q

Quels sont les deux points importants à souligner pour la méthode multitraits/multiméthodes?

A
  • La fidélité correspond au degré d’accord entre deux mesures d’un même trait obtenues à l’aide de méthodes maximalement apparentées (tels un même test ou les versions parallèles d’un même test) «les r de la ligne diagonale »

ET

  • La validité convergente (de construit) correspond au degré d’accord entre deux mesures d’un même trait obtenues à l’aide de méthodes maximalement différentes «les E».
42
Q

Fidélité et validité peuvent être vues comme…

A

…les deux extrêmes d’un même continuum quant aux méthodes utilisées «apparentés vs différentes» pour les mettre en évidence.

Cette «continuité» explique peut-être pourquoi il est parfois difficile de déterminer si telle ou telle méthode contribue plus à appuyer la fidélité ou la validité d’un certain test.

43
Q

V ou F

La fidélité est un prérequis à la validité.

A

Vrai

44
Q

La vérification expérimentale d’une hypothèse à propos d’un construit contribue à la validité de construit du test qui prétend le mesurer.

A

Par exemple, la validité de construit d’un «test de dépression» sera renforcée si l’on montre que les résultats à ce test changent radicalement pour ceux qui suivent un certain traitement «anti-dépressif», alors qu’ils ne changent pas pour les membres du groupe contrôle.

45
Q

Certaines recherches en psychologie fondamentalepeuvent également contribuer à quoi?

A

La compréhension de ce qu’un test mesure.

Il s’agit d’analyser en détail les «processus» qui interviennent lorsque l’examiné répond au test et qui déterminent sa performance. Des manipulations expérimentales de la tâche elle-même peuvent apporter plusieurs informations.

Par exemple, on peut systématiquement manipuler le mode de présentation des questions, les consignes, etc. afin d’en déterminer l’impact sur la performance des examinés.

46
Q

V ou F

La validation de construit est certainement la manière la plus riche d’identifier correctement «ce qu’un test mesure».

A

Vrai

Cependant, c’est aussi la manière la plus délicate d’établir la validité de ce test. N’oublions pas qu’un «construit» est, par définition, inaccessible et que la validité «de construit» du test qui prétend en donner une mesure exacte ne peut être établie que par une accumulation progressive d’«appuis indirects» (plutôt que par des preuves directes).

47
Q

Pour établir la validité d’un test, diverses démarches sont utilisées. Elles reposent toutes sur quoi?

A

La démonstration des liens entre la performance au test et d’autres «observations» de la caractéristique que l’on tente de mesurer.

C’est pourquoi les «coefficients de validité» prennent la forme de coefficients de corrélation.

48
Q

Qu’est-ce qui peut influencer le degré de validité d’un test?

A

Plusieurs facteurs, associés principalement aux spécificités de l’échantillon de validation.

Par conséquent, toute présentation d’un coefficient de validité devrait être accompagnée d’une description détaillée du groupe auprès duquel ce coefficient fut obtenu (tout comme pour les coefficients de fidélité).

49
Q

V ou F

Ce coefficient ne peut être appliqué, en termes d’indice de validité, qu’auprès de populations comparables à l’échantillon de validation.

A

Vrai

50
Q

Un même test peut mesurerdifférentes caractéristiques pour différents groupes d’examinés.

A

Par exemple, un test d’aptitudes académiques prédit bien la performance ultérieure des collégiens à l’université, mais, chez les candidats «adultes», il est d’abord relié au temps pris à compléter leur diplôme.

51
Q

Est-ce possible qu’un test soit soit valide pour une population mais pas pour une autre?

A

Oui, il est possible qu’un test s’avère valide pour une certaine population, mais pas ou peu valide pour d’autres populations.

Par conséquent, le manuel technique devrait toujours préciser pour quelles populations spécifiques le test peut être considéré comme valide.

52
Q

V ou F

«toutes choses étant égales par ailleurs», un coefficient de corrélation est affecté à la baisse lorsqu’on restreint l’étendue de la distribution des scores mis en corrélation. Par conséquent, tout comme pour le cas de la fidélité, une réduction d’étendue des scores a également un impact (à la baisse) sur les coefficients de validité (lorsque ces derniers sont présentés sous forme de corrélations).

A

Vrai

Plus on restreint l’étendue de la distribution des scores de chacune des mesures misent en corrélation, moins il y a de variance, plus notre corrélation risque de baisser.

S’il n’y a aucune variation, si notre mesure est fixe, il est impossible de faire une corrélation. Puisque ce devrait être fait entre deux mesure continues.

53
Q

Rappelons que le calcul du coefficient de corrélation r n’est justifié que si la relation entre les deux mesures impliquées est linéaire.

A

Si ce n’est pas le cas, la valeur de ce coefficient est atténuée et peut laisser supposer un certain manque de validité. Pour éviter ce type de problèmes, il est préférable de toujours observer le diagramme de corrélation pour vérifier la forme de la relation plutôt que de calculer machinalement un coefficient r.