Exam Mesure - Questions Difficiles Flashcards

1
Q

Donner 6 types d’interventions

A

 test de dépistage
 évaluation globale versus évaluation spécifique
 évaluation initiale
 réévaluation
 évaluation périodique
 évaluation finale

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

4 objectifs de l’évaluation

A

 identifier les besoins

 « prédire » le potentiel de récupération

 évaluer l’effet/progression de l’intervention

 recherche

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Utilités instruments de mesure? (4)

A
  • comprendre, faire le lien entre les connaissances et les observations cliniques. (Théorie empirisme)
  • structurer l’information
  • mieux saisir une problématique
  • interpréter en fonction des résultats au test et des fondements théoriques.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Échelle nominale : c quoi?

A

L’échelle nominale comprend des valeurs numériques utilisées strictement pour étiqueter des éléments et ne tiennent pas compte d’un ordre, de distances égales entre les unités, ou d’une origine fixe

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Échelle ordinale : c quoi?

A

“Une échelle de mesure qui permet d’ordonner les sujets par rapport à une variable. La différence entre les rangs n’est pas égale”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Échelle à intervalle : c quoi?

A

Une échelle de mesure qui décrit des variables de façon à ce que la distance entre deux unités de mesure (intervalle) soit la même, sans avoir de 0 significatif

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Échelle par intervalle : Cette échelle indique aussi des rangs mais la distance entre les nombres est ____________ selon les caractéristiques mesurées

A

significative

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Dans l’échelle par intervalle, la distance entre les rangs est ________

A

constante

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Échelle de ratio : c quoi?

A

L’échelle de ratio est une échelle par intervalle avec un zéro “réel” plutôt qu’un zéro arbitraire

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Qualités métrologiques d’un instrument de mesure : c quoi?

A

Les qualités métrologiques d’un instrument de mesure font référence à la fiabilité, la validité et la sensibilité de l’outil pour évaluer précisément et de manière cohérente une variable ou un construit. Elles garantissent que les résultats obtenus sont fiables et pertinents, permettant ainsi une interprétation adéquate des données.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

3 types de fidélité?

A

 inter-examinateurs
 test-retest
 consistance interne

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Consistance interne : c quoi?

A

Estimation de la fidélité basée sur la corrélation moyenne entre les items d’un test (en considérant le nombre d’items)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Consistance interne = __________ du test

A

homogénéité

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

La validité a-t-elle un coefficient?

A

Non, mais il y a certaines exceptions

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

La fidélité a-t-elle un coefficient?

A

Oui. Coefficient entre 0 et +1

(exception : kappa(-1et+1) )

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Donner 4 coefficients de fidélité.

A

 ICC (coefficient corrélation intra-classe)

 r (coefficient de corrélation)

 kappa (+kappa pondéré)

 alpha de Cronbach

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Quels sont les biais qui peuvent affecter la fidélité? (5)

A

 participant (motivation,anxiété,…)

 caractéristique étudiée

 instrument de mesure

 personne qui recueille l’information

 conditions de passation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Moyens pour améliorer la fidélité : ? (6)

A

 définir les variables.

 valider les instruments, les procédures; clarifier les consignes et échelles de cotation.

 fournir un entraînement aux évaluateurs.

 s’assurer de la stabilité des évaluateurs.
 vérifier régulièrement les instruments de mesure (ex.: calibrer le pèse-personne).
 utiliser la moyenne de plusieurs mesures(ex.: données au pèse-personne).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Validité : démarche ________, de __________

A

théorique, réflexion

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Équation de la validité?

A

x = T + e

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Définition de la validité?

A

Processus par lequel on recueille des évidences pour supporter les inférences supposées se confirmer par les scores à un test

(En termes de mesure, la validité fait référence à la mesure dans laquelle un instrument de mesure mesure ce qu’il est censé mesurer, c’est-à-dire la mesure de la justesse de l’instrument.)

22
Q

Que signifie ceci “Intérêt : concept <-> indicateurs”?

A

Le mot “intérêt” dans l’expression “Intérêt: concept <–> indicateurs” fait référence à l’importance ou à la pertinence du concept que l’on souhaite mesurer. Il souligne l’idée que le choix des indicateurs doit être guidé par l’intérêt que l’on porte au concept, afin d’obtenir des mesures valides et pertinentes.

23
Q

Quels sont les types de validité?

A

 validité apparente
 validité de contenu
 validité de critère
 validité de construit
 validation transculturelle

CCCTA

24
Q

Validité apparente: c quoi?

A

“Évidence” (apparence) que les items semblent mesurer un construit

(Ex: Un exemple de validité apparente serait le cas d’un test d’intelligence qui présente des questions faciles à comprendre mais qui ne mesurent pas véritablement l’intelligence. Par exemple, un test qui demanderait aux personnes de résoudre des énigmes simples ou des jeux de mémoire plutôt que d’évaluer leur raisonnement logique ou leur capacité à résoudre des problèmes complexes.

Dans ce cas, les personnes qui passent le test pourraient avoir l’impression que le test est un bon indicateur de l’intelligence, car les questions sont faciles à comprendre et à répondre. Cependant, la validité réelle du test en tant que mesure de l’intelligence serait remise en question si les questions ne reflètent pas véritablement les capacités cognitives liées à l’intelligence.

En résumé, la validité apparente peut conduire à des erreurs d’interprétation si l’apparence externe d’une mesure ou d’un test n’est pas examinée en détail pour s’assurer qu’elle reflète la validité réelle de la mesure.)

25
Q

Bien que la validité apparente ne soit pas considérée comme un critère de validité solide, elle peut néanmoins avoir une certaine importance en pratique.

Pourquoi?

A

En effet, la validité apparente peut jouer un rôle dans la perception et l’acceptation des mesures ou des tests par les personnes qui les utilisent ou les passent.

26
Q

Quelle est la question que se pose la validité apparente?

A

Est-ce que l’instrument semble mesurer ce qu’il est supposé mesurer?

27
Q

Validité de contenu: c quoi?

A

Dépend du degré auquel une mesure empirique reflète un contenu spécifique

28
Q

Validité de contenu: donner un exemple.

A

Imaginons que vous souhaitez évaluer les compétences en mathématiques d’un groupe d’étudiants. Pour cela, vous créez un test composé de diverses questions. Pour assurer une bonne validité de contenu, vous devez vous assurer que les questions couvrent un large éventail de sujets et de compétences en mathématiques, y compris l’arithmétique, l’algèbre, la géométrie et les statistiques, ainsi que différents niveaux de difficulté.

Dans ce cas, la validité de contenu serait élevée si le test comprend des questions qui couvrent adéquatement les différents domaines des mathématiques et si les questions reflètent les compétences que les étudiants sont censés maîtriser. Cela garantirait que le test mesure de manière fiable et valide les compétences en mathématiques des étudiants.

29
Q

4 autres noms pour la validité de critère.

A

Pragmatique, “pratique ou d’utilité” (*empirique)

30
Q

Validité de critère: c quoi? Donner les 2 types.

A

Bien sûr ! La validité de critère concerne la mesure dans laquelle les résultats d’un instrument de mesure (comme un test ou un questionnaire) sont en corrélation avec un autre indicateur pertinent ou un critère externe. Il existe deux types de validité de critère : la validité prédictive et la validité concurrente.

Voici un exemple de validité de critère :
Imaginons que vous ayez développé un test d’aptitude professionnelle destiné à évaluer le potentiel de réussite des candidats pour un poste spécifique dans une entreprise. Vous souhaitez déterminer la validité de critère de ce test.

  1. Validité prédictive : Pour évaluer la validité prédictive, vous administrez d’abord le test d’aptitude aux candidats avant qu’ils ne commencent leur travail. Ensuite, vous suivez leurs performances professionnelles sur une période donnée (par exemple, un an). Si les résultats du test d’aptitude sont fortement corrélés avec les performances réelles des employés, le test aurait une bonne validité prédictive. Cela signifie que le test est capable de prédire avec précision la réussite professionnelle future.
  2. Validité concomitante : Pour évaluer la validité concurrente, vous administrez le test d’aptitude aux employés actuels et vous comparez les résultats avec un autre indicateur déjà établi de succès professionnel, comme les évaluations de performance annuelles. Si les résultats du test d’aptitude sont fortement corrélés avec cet indicateur de performance, le test aurait une bonne validité concurrente.

Cela signifie que le test mesure efficacement la même chose que l’indicateur de performance et peut être utilisé pour évaluer la réussite professionnelle.

En résumé, un exemple de validité de critère serait un test d’aptitude professionnelle qui est capable de prédire avec précision la réussite professionnelle future (validité prédictive) et/ou qui mesure efficacement la même chose que les indicateurs de performance existants (validité concurrente).

31
Q

Validité de construit : c quoi?

Donner un exemple.

A

La validité du construit concerne la mesure dans laquelle un instrument de mesure (comme un test ou un questionnaire) évalue réellement le concept théorique ou le construit qu’il est censé mesurer. La validité du construit est souvent évaluée en examinant la corrélation entre les mesures du construit en question et d’autres mesures liées.

Voici un exemple de validité du construit :
Supposons que vous ayez développé un questionnaire pour mesurer l’intelligence émotionnelle (IE) des individus. L’intelligence émotionnelle est un construit théorique qui englobe la capacité d’une personne à reconnaître, comprendre et gérer ses propres émotions et celles des autres.

Pour évaluer la validité du construit de votre questionnaire, vous devriez examiner les relations entre les scores du questionnaire et d’autres mesures liées à l’intelligence émotionnelle. Par exemple, vous pourriez comparer les scores du questionnaire avec les scores obtenus à un autre test d’intelligence émotionnelle bien établi et validé. Si les scores de votre questionnaire sont fortement corrélés avec les scores du test d’IE établi, cela indique une bonne validité du construit pour votre questionnaire.

De plus, vous pourriez également examiner la relation entre les scores de votre questionnaire et des variables qui, selon la théorie, devraient être liées à l’intelligence émotionnelle, comme la réussite sociale ou la satisfaction dans les relations interpersonnelles. Si les scores de votre questionnaire sont corrélés de manière significative et dans le sens attendu avec ces variables, cela renforcerait la validité du construit de votre questionnaire.

En résumé, un exemple de validité du construit serait un questionnaire mesurant l’intelligence émotionnelle dont les scores sont fortement corrélés avec d’autres mesures liées à l’intelligence émotionnelle et à des variables théoriquement liées au construit.

32
Q

Validation transculturelle : c quoi?

A

S’effectue par une série d’études avec un ou plusieurs
instruments dans le but de confirmer ou non des
relations hypothétiques concernant un construit

33
Q

5 niveau d’équivalence transculturelle?

A

1) contenu
2) sémantique
3) technique
4) critère (ex.: interprétation, normes)
5) conceptuelle (ex.: construit)

34
Q

Donner des exemples pour chacun des 5 niveaux d’équivalence transculturelle.

A
  1. Contenu : Lors de la traduction d’un questionnaire sur la santé mentale d’une langue à une autre, il est important de s’assurer que les questions sont pertinentes et compréhensibles pour les personnes issues de différentes cultures. Par exemple, une question sur le soutien social pourrait être adaptée pour refléter les normes et les attentes culturelles spécifiques.
  2. Sémantique : Dans le processus de validation transculturelle, il est crucial de garantir l’équivalence sémantique entre les versions linguistiques de l’outil. Par exemple, si un test de personnalité est traduit de l’anglais vers le français, il est important de s’assurer que les termes utilisés ont le même sens et la même nuance dans les deux langues.
  3. Technique : Cela implique de vérifier si les méthodes de mesure et d’évaluation sont appropriées pour les différentes cultures. Par exemple, lors de l’adaptation d’un test de QI d’une culture à une autre, il peut être nécessaire d’ajuster la présentation des éléments du test, comme les exemples et les images, pour qu’ils soient culturellement pertinents et compréhensibles.
  4. Critère (ex. : interprétation, normes) : La validation transculturelle doit prendre en compte les normes culturelles lors de l’interprétation des résultats. Par exemple, si une échelle d’estime de soi est utilisée dans différentes cultures, il est important de comprendre comment les normes culturelles peuvent influencer les niveaux d’estime de soi et d’adapter les critères d’interprétation en conséquence.
  5. Conceptuelle (ex. : construit) : Lors de la validation transculturelle, il est important d’examiner si les concepts et les construits mesurés par un outil sont universels ou spécifiques à une culture donnée. Par exemple, si un instrument mesure la résilience, il est essentiel de déterminer si la notion de résilience est similaire dans différentes cultures ou si elle doit être adaptée pour refléter des nuances culturelles spécifiques.
35
Q

La validité d’un instrument sera affectée si on l’utilise avec une ____________________ que celle prévue.

A

autre population

36
Q

Donner : 2 autres caractéristiques métrologiques.

A

1) Sensiblité

2) Spécificité

37
Q

Sensibilité : c quoi?

A

Probabilité d’avoir un résultat positif au test parmi les patients qui ont un diagnostic positif

38
Q

Spécificité: c quoi?

A

Probabilité d’avoir un résultat négatif au test parmi les patients qui ont diagnostic négatif

39
Q
A
40
Q

Dire si la fidélité et la validité sont bonnes. Dire de quel type d’erreur il s’agit.

A
41
Q
A
42
Q
A
43
Q
A
44
Q
A
45
Q
A
46
Q
A
47
Q
A
48
Q

À quoi servent les données probantes?

A

Pour prendre des décisions cliniques. On peut voir ce qui fonctionne.

49
Q

Donner le modèle conceptuel de la PF interdisciplinaire.

A
50
Q

Donner les 8 niveaux de la hiérarchie de preuves.

A
51
Q

Donner une autre vision de la pyramide avec la recherche qualitative, expérimentale et « outcome research ».

A