devoir Flashcards
Quels sont les principaux moments de l’évolution historique des tests et des échelles ?
La création des premiers instruments du dépistage en psychologie remontent à la fin du 19 s (Derogatis et Dellapietra, 1994). On distingue alors les premiers tests d’évaluation des grandes fonctions en psychologie (intelligence, mémoire, perception, attention, etc.), des premiers inventaires des symptômes des troubles psychopathologiques et des premiers tests projectifs. Nous allons détailler la création de ces trois grandes catégories de tests et leur évolution au cours du temps.
Les premiers tests psychologiques remontent aux travaux allemands de psychologie expérimentale de Weber, Fechner ou Wundt, étudiant les caractéristiques
psychosensorielles. L’évolution consiste alors à développer ces mesures périphériques à des mesures plus générales. H. Ebbinghaus (1850-1909) utilise les précurseurs des tests d’intelligence lors de ses recherches sur la mémoire. James Mc Keen Cattell (1860-1944) élabore un ensemble de 10 épreuves évaluant la mémoire et l’attention. Les premiers tests
factoriels découlent véritablement des méthodes statistiques développées par Spearman (1863-1945) et Thurstone (1887-1955) concernant l’analyse des corrélations et l’analyse factorielle. Ces méthodes ont joué un rôle déterminant pour valider l’hypothèse de recherche principale concernant l’intelligence : elle serait composée, selon Oléron (1957) et Reuchlin, (1964), d’une composante générale et de composantes spécifiques.
En France, en raison des préoccupations du Ministère français de l’Instruction Publique concernant l’enseignement destiné aux enfants en difficultés intellectuelles, dit « anormaux », Binet et Simon élaborent un test (1905) ayant pour objectif de mesurer les
processus mentaux «supérieurs» chez les enfants à partir de 3 ans, à l’aide d’un indice de « niveau intellectuel », qui deviendra ensuite cette notion qu’on a appelé « Âge Mental » (A.M.).
A peu près à la même époque, aux Etats-Unis, en 1914, le psychiatre Adolphe Meyer (1866- 1950) construit la 1ére échelle d’évaluation psychiatrique – le « Classement des Comportements » de Philips (The Philipps Behavior Chart). En 1918, le premier inventaire des symptômes sous la forme d’un auto-questionnaire – la « Personal Data Sheet » est développé par R. Woodworth, afin de dépister les troubles psychopathologiques des soldats américains qui revenaient de la guerre. Puis Moor (1930) élabore une échelle d’observation psychiatrique, pour identifier expérimentalement la structure de la symptomatologie des psychoses.
Parallèlement, en Suisse, en 1921, Hermann Rorschach, psychiatre, publie son ouvrage Le Psychodiagnostic, dans lequel il développe un test de dix tâches d’encre – le test de Rorschach – qui permet, selon lui, d’étudier le fonctionnement de la personnalité. Il utilisa des tâches d’encre comme moyen d’investigation avec les patients et observa que les patients diagnostiqués schizophrènes répondaient différemment au « jeu » des tâches d’encre que les autres patients. Cette observation clinique fondamentale lui fit poursuivre ses recherches pour développer son test et le valider empiriquement. Le Psychodiagnostic : Test diagnostique basé sur la perception (1921) est issu de cette validation empirique.
Quinze ans plus tard, en 1935 aux Etats-Unis, Mugan et Murray publient la première version du TAT dans leur ouvrage commun – Thematic Apperception Test. Puis en 1938, Henry Murray en utilise les résultats pour asseoir sa théorie de la personnalité dans son ouvrage “Exploration de la personnalité”, et en 1943, il publie la version définitive de son test dans son Manuel d’application. Le TAT se compose de 31 reproductions d’aquarelles ou de dessins, destinées à stimuler la production imaginaire. Les années 70 voient apparaître de nombreuses critiques concernant les tests projectifs, dues à l’absence de méthodologie reproductible et valide, c’est-à-dire à l’absence de qualités métrologiques. En France, Vica Shentoub (1970-1971) s’intéresse à la situation projective du TAT, et en dégage une méthodologie scientifique. C’est grâce à ses travaux et à ceux de ses collègues – L’Ecole Française du TAT – de 1955 à 1974, que la codification de la méthodologie de cotation du TAT a été construite. Shentoub et Debray élaborent une méthode de cotation, d’analyse et d’interprétation du matériel recueilli, fondée sur des postulats théoriques de la métapsychologie freudienne. Les auteurs français retiennent 16 planches sur les 31
(évaluées comme les plus valides et les significatives statistiquement). Ces travaux s’inscrivent dans une approche psychanalytique du fonctionnement et du développement de la personnalité. Parallèlement, Nina Rausch de Traubenberg (1970) s’engage sur la même
voie, en développant les recherches méthodologiques et en précisant les fondements psychanalytiques du test de Rorschach, dont les travaux seront poursuivis ultérieurement, notamment par Catherine Chabert.
Le développement des tests d’évaluation en psychologie clinique et en psychopathologie a donc pris deux grandes directions de recherches, en fonction des méthodes utilisées : d’une part, les méthodes statistiques (en référence au béhaviorisme, par comparaisons de comportements) qui fondent les tests psychométriques et les échelles psychopathologiques,
et d’autre part, les méthodes analytiques qui fondent les tests projectifs (en référence au fonctionnement psychique théorisé par la psychanalyse).
Restituez les bases théoriques du K-ABC (Kaufman, 1978-1983).
En quoi ce test est-il innovant et quelles sont ses applications cliniques ?
Le K-ABC (Kaufman, 1978-1983, traduction française et étalonnage, 1993) est un test cognitif fondé sur la distinction théorique entre la résolution de problèmes et la connaissances des faits.
A partir des connaissances issues de la neuropsycho. et de la psychologie cognitive, Kaufman définit l’intelligence comme le style propre à chaque sujet de résoudre les problèmes et de traiter de l’information. Nous allons donc expliquer cette nouvelle définition de l’intelligence et ses apllications cliniques.
2 types de stratégies de problèmes ont été identifiés par les auteurs : les Processus Séquentiels et les Processus Simultanés, que Kaufman réunit sous le terme Processus Mentaux Composites (PMC).
Les Processus Séquentiels permettraient de traiter l’information, c’est-à-dire de manipuler mentalement des représentations selon un ordre temporel, sériel ou itératif. Lors des premières étapes du développement de l’enfant, les Processus Séquentiels interviendraient dans l’association des lettres et des sons, et dans le déchiffrement des mots, puis ensuite, par exemple, dans la compréhension de la chronologie des évènements, dans l’application de la méthode scientifique et les compétences mathématiques. Ils seraient localisés dans
l’hémisphère cérébral gauche. C’est la phase du « traitement de l’information ».
Les Processus Simultanés permettraient la synthèse simultanée des informations, dans une première étape sous forme d’informations spatiales, puis à un niveau de développement supérieur, par exemple, dans la capacité d’extraire des informations d’un texte, de faire preuve de créativité ou d’utiliser des schémas. Ils seraient localisés dans l’hémisphère cérébral droit. C’est la phase de la « synthèse de l’information ».
Les Processus Mentaux Composites résulteraient donc de l’intégration de ces grandes catégories de processus cognitifs.
Kaufman propose donc que le stock d’informations n’est pas une intelligence en tant que telle, mais que les connaissances doivent être envisagées comme une forme « d’intelligence cristallisée » (d’après Catell, 1971), privilégiant les procédures – c’est-à-dire les manières de faire, aux contenus – c’est-à-dire les connaissances en tant que stock d’informations. Ces fondements théoriques amènent Kaufman à suggérer que le développement de l’intelligence soit le résultat d’interactions dynamiques entre hérédité et milieu. De ce fait, les résultats au K-ABC doivent être également sensibles aux influences du milieu, et les propositions psychopédagogiques qui en découlent également (par exemple la remédiation cognitive).
Le K-ABC évaluant le fonctionnement cognitif fortement mobilisé au cours d’apprentissages nouveaux, il aiderait donc à mieux comprendre les échecs inattendus, ce qui permettrait de préciser les différents programmes de remédiation. Parallèlement, des équipes de chercheurs (Lemmel, Meljac et Gillet, 1994) ont montré que la WISC-R était plus adaptée pour identifier les capacités d’adaptation et les acquis généraux lorsque la demande de bilan psychologique est une demande d’orientation pédagogique.
Le K-ABC est indiqué pour les enfants de 2 ans ½ à 12 ans ½. Il innove avec la création de subtests tels que « Personnages et Lieux connus » et « Fenêtre magique », et avec l’adaptation colorée de tests tels que « Matrices analogiques » (provenant de la psychologie
expérimentale) ou «Mouvements de la main » (provenant de la neuropsychologie). Les influences cliniques, impulsivité, distractibilité, handicaps, etc., ont été statistiquement intégrées dans la validation et l’étalonnage du test lors de sa construction, ce qui n’est pas le cas des échelles de Wechsler.
Le test de Kaufman répond à une définition de l’intelligence qui ne privilégie ni l’hérédité, ni
le milieu environnemental.
En cela, il permet de passer outre cette vieille distinction qu’ont fait les psychologues des premières générations, et plutôt que d’opposer ces deux concepts l’un à l’autre, il propose de les intégrer l’un avec l’autre.
En cela, le K-AB est un test moderne. La localisation cérébrale des processus cognitifs n’est encore qu’une hypothèse clinique, pas encore confirmée.
La Conners Rating Scale (CRS de Conners, 1969) et la Children Global Assessment Scale (CGAS de Scaffer et al., 1983) sont deux echelles d’évaluation des dysfonctionnement sociaux de l’enfant.
Restituez les indications et les différentes dimensions psychopathologiques que ces deux échelles évaluent.
CRS de Conners, 1969 : Conners Rating Scale. pour les enfants de 3 à 17 ans et complémentaire de l’évaluation clinique pour l’hyperactivité. C’est une observation directe de l’enfant par l’entourage (parents, enseignants), items à formulation simple et évocatrice. facteurs, anxiété, apprentissage, conduites.. présence et sévérité des symptômes : score moyen = 50 et > 70 = pathologie.
CGAS de Scaffer et al., 1983 (VF : Dugas 97) : Children Global Assessment Scale. Echelle hétéro-évaluation selon comportement pour les enfants de 4 à 16 ans. complément à l’investigation clinique classique. aide à la décision, à l’évaluation du traitement. Nécessite une solide pratique. Dysfonctionnement sociaux et scolaires. score de 1 à 100. > 70 ok inf 50 soin nécessaires.
Définissez précisément la méthode des tests, en expliquant pourquoi et comment la standardisation et l’étalonnage interviennent dans la création des tests et des échelles.
La définition la plus consensuelle de la méthode des tests est due à Delay et Pichot (1965) pour lesquels la méthode psychométrique est « l’ensemble des procédés aboutissant à une description quantitative des lois psychologiques », la méthode des tests n’étant qu’une partie de la méthode psychométrique. Delay et Pichot (1965) précisent que, même si les méthodes psychométriques pouvaient permettre de découvrir « les lois de la vie psychologique », en réalité, ces lois seraient aussi diverses que les bases théoriques qui fondent la multitude des méthodes psychométriques.
Pour qu’un stimulus devienne un test ou une échelle, il est nécessaire de le standardiser et de l’étalonner.
Un test a une valeur prédictive de comportements d’un sujet dans diverses situations de la vie. Il fournit également des informations précises sur le psychisme d’un sujet et apporte des résultats quantitatifs permettant une finesse de discrimination entre les
comportements.
Delay et Pichot précisent que le test psychométrique est une situation expérimentale standardisée qui va servir de stimulus à un comportement, verbal ou non verbal. Ce comportement est évalué par comparaison statistique avec celui d’autres sujets placés dans la
même situation. Cette évaluation permettra ensuite de classer le sujet, soit quantitativement (dans quel groupe de « mêmes » caractéristiques, par âge, par groupe de population, etc.), soit typologiquement (à partir d’une dimension psychologique spécifique).
La définition générale des tests montre que pour qu’un stimulus quelconque (par exemple une série de questions, des tâches d’encre, des images, la consigne d’un dessin, etc.), devienne un test ou une échelle en psychologie clinique, il devra être standardisé, c’est-à-dire rigoureusement identique à lui-même pour tous les sujets, dans de conditions invariables.
C’est la standardisation des tests, condition nécessaire à la validation de la méthode des tests. La standardisation est donc l’un des deux critères nécessaires à la transformation d’un stimulus en item de test psychologique.
De plus, il est nécessaire que deux observateurs différents, observant la même réponse, la notent de manière univoque, identique. Cette notion de mesure en psychologie clinique est un repérage sur une échelle et se nomme l’étalonnage. Un test, pour être valide, doit être étalonné, et donc permettre de repérer la position du sujet sur une échelle en fonction des autres sujets du groupe d’étalonnage. Cette échelle est elle-même constituée à partir de l’analyse des résultats d’un groupe de sujets de référence. Tous les tests, projectifs et
psychométriques, sont validés ainsi. L’étalonnage est donc le deuxième critère de transformation d’un stimulus en item de test psychologique.
Les principes qui sous-tendent l’évaluation psychologique sont différents de ceux qui président aux autres formes de mesures scientifiques.
En effet, en psychologie, l’objet des mesures est toujours une construction hypothétique (par exemple, l’anxiété, la dépression, le stress, l’estime de soi, etc.), à l’opposé des mesures en sciences physiques, par exemple, qui concernent des entités plus tangibles (le poids, la distance, etc.). En quantifiant ces constructions hypothétiques, les mesures se font sur des échelles dont les marges d’erreurs sont plus grandes. Les mesures en psychologie sont donc simplement moins précises, mais tout autant scientifiques, si les critères de standardisation et d’étalonnage ont été validés.
Définissez la méthode des tests et la manière dont on construit un test en psychologie clinique.
Plusieurs définitions de la méthode des tests existent mais celle de Delay et Pichot (1965) pour qui la méthode psychométrique est définie par « l’ensemble des procédés aboutissant à une description quantitative des lois psychologiques », apparait la plus générale et la plus
consensuelle. La méthode psychométrique est d’un emploi général en psychologie et la méthode des tests n’en n’est qu’une partie mais par abus de langage, les deux sont souvent confondus.
Le test psychométrique est donc une situation expérimentale standardisée qui sert de stimulus à un comportement qui sera évalué par comparaison statistique avec celui d’autres sujets placés dans la même situation, ce qui permettra de classer le sujet quantitativement ou typologiquement. Autrement dit, pour qu’un stimulus devienne un test, il devra répondre au principe psychométrique général de
standardisation c’est-à-dire qu’il devra être rigoureusement identique pour tous les sujets et la passation devra se faire dans des conditions
invariables. De plus, il est nécessaire que deux observateurs différents observant la même réponse, doivent aussi la noter de manière univoque.
Par ailleurs, la construction d’un test en psychologie clinique nécessite aussi de répondre à un autre principe psychométrique général, celui de l’étalonnage. En effet, pour être valide, un test doit être étalonné, c’est-à-dire permettre un repérage sur une échelle et situer ainsi la
position du sujet examiné par rapport aux autres sujets du groupe d’étalonnage. Tous les tests psychométriques et projectifs sont validés de cette manière.
Un test a donc une valeur prédictive de comportements d’un sujet dans diverses situations de la vie courante, puisqu’il présuppose une hypothèse clinique sur le fonctionnement intellectuel et/ou affectif du sujet. Cependant, il n’a jamais valeur de « vérité » ou de
« jugement ».
Parallèlement à ces principes psychométriques qui définissent comment un stimulus quelconque devient un test, la construction de l’outil doit permettre de déterminer s’il possède les 4 qualités métrologiques suivantes pour être valide : fidélité, sensibilité, validité et généralisation.
La fidélité désigne le degré de reproductibilité inhérent au fait de mesurer. C’est la stabilité du résultat au cours de mesures répétées.
Pour être fidèle, un test, appliqué à deux reprises dans les mêmes conditions et au même sujet, doit pouvoir donner le même résultat. On parlera de fidélité inter-juges si le même test est appliqué au même sujet par les mêmes cotateurs, et de stabilité temporelle lorsque le test donne les mêmes résultats lorsque les mesures sont éloignées dans le temps. On dit également que c’est le rapport entre la vraie variation de la cotation et la variation totale des mesures. Elle représente la précision des mesures et impose la limite théorique de la validité des mesures.
La sensibilité est la proportion de sujets obtenant un score supérieur au seuil parmi un groupe de sujets malades. C’est la finesse de discrimination permise par l’outil d’évaluation. Elle est liée au nombre d’items et à leur nombre de degrés de cotation. Plus il y a d’items, plus l’outil est sensible, mais plus il est difficile à appliquer. Certains auteurs (Fombonne E. et Fuhrer R., 1991) rajoutent à la sensibilité d’un test la spécificité, c’est-à-dire le taux de vrais négatifs de l’échelle, ou la proportion de personnes non malades ayant un score inférieur au seuil.
La validité reflète le degré jusqu’où un outil d’évaluation peut aller pour mesurer ce pour quoi il est conçu. Les tests ne sont valides que pour les objectifs qu’on leur assigne. Pour qu’un test soit valide, il doit donc prédire effectivement ce qu’il est censé prédire. Les auteurs
parlent généralement de trois sortes de validité. La validité prédictive dépend de son degré de corrélation avec la validité du groupe d’étalonnage. La validation de construction est relative à la formulation d’hypothèses, testées ensuite avec des méthodes statistiques. Les
validités, externe et interne, sont relatives au test lui-même. La validité externe repose sur la comparaison des réponses de sujetsprésentant des caractéristiques avec celles de sujets ne les présentant pas. La validité interne repose sur l’homogénéité des items (le fait
que les items mesurent tous la même dimension).
La généralisation est une qualité métrologique établie empiriquement, et ne peut pas reposer sur des hypothèses de recherche faites sur des groupes de populations différentes du groupe étudié. En effet, de nombreuses conditions et manifestations cliniques changent en fonction de paramètres tels que l’âge, le genre, l’origine culturelle ou la présence ou l’absence de maladies somatiques. Les coefficients de validité (validité et spécificité) d’un test peuvent varier de manière considérable si les paramètres pour lesquels ils ont été établis ont changé.
Les tests sont donc des situations d’évaluation standardisées qui ont pour objectif d’évaluer les dimensions de la personnalité en fournissant des informations précises sur le psychisme et/ou le comportement d’un sujet. La singularité des mesures en psychologie clinique tient au fait que l’objet des mesures est toujours une construction hypothétique (par exemple, le stress, l’anxiété, etc.). Ces mesures se font
donc sur des échelles dont les marges d’erreur sont plus grandes, ce qui ne signifie pas pour autant qu’elles soient plus fausses que celles des sciences physiques. Si ces mesures sont certes moins précises, elles conservent néanmoins leur caractère scientifique.
Que concluez-vous sur la notion de mesures en psychologie clinique ?
La définition la plus consensuelle de la méthode des tests est due à Delay et Pichot (1965) pour lesquels la méthode psychométrique est « l’ensemble des procédés aboutissant à une description quantitative des lois psychologiques », la méthode des tests n’étant qu’une partie de la méthode psychométrique. Le test psychométrique est une situation expérimentale standardisée qui va servir de stimulus à un comportement, verbal ou non verbal. Ce comportement est évalué par comparaison statistique, avec celui d’autres sujets placés dans la même situation. Pour être un instrument de mesure fiable, un test doit donc posséder les qualités de tout instrument de mesure, c’est-à-dire qu’il doit être fidèle, sensible, valide et généralisable. Nous allons donc définir ces quatre notions, qu’on appelle des « qualités métrologiques ».
En psychologie, contrairement aux mesures des objets physiques, l’objet des mesures est toujours une construction hypothétique (par exemple, la dépression, l’anxiété, le stress…). En quantifiant ces hypothèses, les mesures se font sur des échelles dont les marges d’erreurs sont plus grandes, ce qui ne signifie pas plus « fausses ». Les mesures en psychologie clinique sont donc simplement moins précises, ce qui ne préjuge en rien de leur caractère scientifique, qui se vérifie avec leurs qualités métrologiques.
A quelles fins utilise-t-on les tests et les échelles en psychologie clinique ?
En fonction de quels critères choisit-on les outils d’évaluation ?
Les objectifs de l’évaluation en psychologie clinique sont doubles : ils peuvent répondre à des questions cliniques que se pose le psychologue clinicien praticien pour un patient ; ils peuvent répondre à des questions de recherche que se pose le psychologue clinicien chercheur pour un groupe de patients.
L’utilisation des échelles d’évaluation, des questionnaires ou des tests projectifs concerne donc d’une part les pratiques cliniques professionnelles, et d’autre part, les recherches cliniques ou épidémiologiques dans le champ de la psychologie clinique.
La méthode des tests est utilisée à des fins d’évaluation et de dépistage de troubles intellectuels, affectifs et/ou psychopathologiques. Le choix d’un outil intervient donc dans deux situations : celle du psychologue clinicien confronté à des besoins d’évaluation et/ou de dépistage de difficultés ou de troubles, et donc à la vérification, ou non de ses hypothèses cliniques, et celle du psychologue clinicien chercheur confronté à des besoins de précisions théoriques et/ou méthodologiques, et donc à la vérification, ou non, de ses hypothèses théorico-cliniques. Le choix des outils découlera donc de ces deux types de questionnements. Dans le 1er cas de confirmation ou d’infirmation des hypothèses cliniques du psychologue clinicien, le bénéficiaire direct est le patient (en termes de spécificité de la prise en charge, de finesse du diagnostic, de pertinence des traitements – médicamenteux, psychothérapeutiques, etc.). Dans le second cas (confirmation ou infirmation des hypothèses théorico-cliniques de recherche), les bénéficiaires directs en sont les psychologues cliniciens praticiens (en termes de publication de résultats de recherche, d’adaptation de dispositifs thérapeutiques, de précisions quant à la définition de concepts ou notions de psychopathologie).
Mais quel que soit le questionnement, clinique ou de recherche, le choix des outils se fait en fonction de plusieurs spécificités de construction. L’échelle ou le questionnaire peuvent être utilisés comme critère principal ou secondaire dans l’étude et le diagnostic de
la psychopathologie. L’échelle ou le questionnaire peuvent être utilisés seul ou en complément d’autres outils d’évaluation. Le psychologue clinicien devra s’assurer de la capacité d’adhésion et de compréhension du patient, en particulier lors de la passation d’échelles ou de questionnaires sous forme d’auto-évaluations. Il faut choisir le niveau des troubles à évaluer, une symptomatologie très générale (par exemple celle de l’anxiété) ou bien un symptôme plus spécifique (par exemple, l’étude de l’agitation ou du ralentissement psychomoteur) ; dans ce cas, les échelles seront différentes.
Il faut décider s’il s’agit d’une évaluation ponctuelle dans le temps ou longitudinale. Dans le cas des évaluations longitudinales, il faudra choisir le nombre de cotations et l’écart dans le temps entre les évaluations. En général, les manuels des échelles et des tests prescrivent ces écarts dans le temps. Afin de choisir l’outil le plus adapté à la question posée (clinique ou de recherche), le psychologue clinicien devra se documenter sur les ouvrages regroupant des outils cliniques étalonnés et validés en langue française ; dans le cas contraire, il devra traduire et valider lui-même des outils de langue étrangère, ce qui se fait généralement dans le cadre de recherches cliniques en psychologie clinique.
Restituez les principaux niveaux de mesure en psychologie clinique et en psychopathologie, en les illustrant.
Qu’en concluez-vous ?
L’évaluation standardisée en psychologie clinique et en psychopathologie, comme toute méthode d’évaluation, mesure trois niveaux différents, calqués sur les méthodes de classifications des troubles psychopathologiques.
Il s’agit du niveau syndromique (on évalue la présence et l’intensité des symptômes pour les regrouper en syndromes), du niveau comportemental (on évalue la présence et l’intensité des conduites et des comportements observables) et du niveau étiologique (on évalue la présence et l’intensité des mécanismes psychiques en fonction des trois organisations psychiques, psychose, névrose et états-limites).
Nous allons donc préciser ce que recouvrent ces trois niveaux de mesure.
Le niveau syndromique est représenté par le classement d’entités psychopathologiques consensuelles et répertoriées par la communauté scientifique, telles que les grandes classifications internationales comme le DSM (Diagnostic Statistical Manuel) ou la CIM
(Classification Internationale des Maladies) dans leurs différentes versions réactualisées au cours des ans. Le consensus entre psychologues est homogène pour des troubles tels que la dépression et l’anxiété décrits chez l’adulte, à partir de l’une ou l’autre des deux classifications. Le consensus entre professionnels est moins évident pour des populations d’enfants, par exemple pour des entités psychopathologiques telles que l’hyperactivité, l’hyper-anxiété ou l’autisme infantile. Du fait des caractéristiques spécifiques liées au
vieillissement normal, les classifications de l’adulte présente présentent des limites méthodologiques, puisqu’elles n’ont pas été validées spécifiquement pour ces populations. De plus, l’évaluation syndromique est toujours source de difficultés lorsque le patient (quel que soit son âge) présente des atteintes neurobiologiques conjointement à un trouble psychopathologique.
Le niveau comportemental correspond, par définition, à ce qui est directement observable. Il est fondé sur l’étude des conduites, des comportements et des attitudes du sujet. Il distingue les comportements externalisés (par exemple, agitation ou ralentissement moteur) des comportements internalisés (par exemple, attitude de repli).
Bouvard (1996) émet une réserve quant à l’utilisation de ce niveau de mesure : selon l’auteur, le niveau comportemental n’est pas superposable au niveau syndromique décrit plus haut. En effet, s’il est censé être plus « objectif » (ce qui reste encore à démontrer), il manque de spécificité : en effet, un même type de comportements peut correspondre à des entités syndromiques différentes. Il préconise donc que les outils cliniques privilégiant l’étude du niveau comportemental ne doivent pas être utilisés comme critères diagnostiques. Ce ne peut être que des aides au diagnostic psychiatrique et/ou psychopathologique.
Le niveau étiologique est représenté, à l’heure actuelle, par un seul référentiel théorique, la psychanalyse. Il permet de formuler, seulement à partir du discours du patient, des hypothèses cliniques sur son fonctionnement « mental », interne, c’est-à-dire son fonctionnement psychique. Il a été élaboré par Freud et ses successeurs depuis une centaine d’années. La théorie psychanalytique est une théorie étiologique des troubles psychopathologiques. Elle a donné lieu à un classement spécifique des troubles en trois grandes catégories : la psychose, la névrose (décrites comme des structures psychiques) et les états-limites (décrits comme des organisations et non des
structures). Ce classement est représenté essentiellement par les psychologues cliniciens européens, opposés à la description comportementale des troubles, d’origine nord-américaine.
Ces trois niveaux de mesure décrivent et recensent les outils les plus communément utilisés par les psychologues cliniciens en Occident. On peut remarquer que les fondements théoriques de chacun des trois niveaux de mesure sont différents, le niveau syndromique affichant une volonté d’exhaustivité en tentant de décrire la totalité des troubles (y compris les troubles culturellement dépendants). C’est
également le cas pour le niveau étiologique représenté par la psychanalyse, qui propose d’étendre sa classification à tous les âges de la vie (y compris les âges de développement extrême que sont l’enfance et la vieillesse). Ces deux dernières propositions posent des problèmes de méthode de construction et de validation des outils de mesure en psychologie clinique, problèmes à ce jour non résolus.
Quelles sont les limites méthodologiques de l’évaluation standardisée ?
L’évaluation standardisée en psychologie clinique, comme toute méthode d’évaluation, a ses biais et ses limites.
La plus importante, au-delà des différences individuelles dues à la personne même du psychologue, est la formation théorique et pratique de l’évaluateur, qui influence d’une part le choix et l’expérience des outils d’évaluation, donc le choix des concepts théoriques et d’autre part, l’observation et l’identification des symptômes. Ces constatations ont pour conséquence de modifier la description des troubles psychopathologiques.
Les deux autres sources de biais de l’évaluation standardisée sont les aspects culturels et le choix des sujets.
Les recherches (Ionescu, 1991) ont en effet montré que l’appartenance culturelle influençait les résultats aux tests, échelles et questionnaires en psychologie clinique. L’utilisation d’un outil clinique dans un autre contexte culturel pour lequel il a été antérieurement
validé nécessite d’étudier cinq dimensions majeures pour obtenir une équivalence en termes de validité et d’étalonnage : les contenus, la dimension sémantique, la dimension technique, la dimension conceptuelle et les critères de choix.
L’équivalence de contenus signifie que chaque item d’un outil doit être pertinent dans la culture où on le transpose. En effet, les items doivent exister et recouvrir la même signification, et si ce n’est pas le cas, il faudra les transformer, donc vérifier la sensibilité et la
spécificité de l’outil ainsi modifié.
L’équivalence sémantique s’étudie à partir de la signification de chaque item après traduction, en référence à l’outil d’origine. Il est également essentiel de connaître la ou les théories psychopathologiques des concepteurs de l’outil. On pratique ainsi une retro-traduction pour retourner vers la langue originale et lever les éventuels malentendus et contresens de la première traduction. De plus, certaines langues sont minoritaires ou ne s’écrivent pas, ce qui signifie, dans ce dernier cas, qu’il n’est pas possible de valider un outil dans ces langues.
L’équivalence technique signifie que les concepteurs des outils doivent s’assurer que les résultats obtenus d’une culture à l’autre ne sont pas modifiés par des variables liées aux méthodes. Certaines techniques d’évaluation des cultures occidentales ne sont pas adaptées à des cultures non-occidentales, et peuvent être perçues comme coercitives, intrusives, inconvenantes, etc. L’évaluation de la désirabilité sociale ou le besoin d’approbation sociale est donc un préalable à toute recherche d’équivalence.
L’équivalence conceptuelle signifie que l’outil devrait évaluer la même construction théorique d’une culture à l’autre, d’où l’importance de l’identification du référentiel théorique d’origine. On étudie donc l’existence ou non de corrélations et des variables communes dans le
mouvement de transposition d’une culture à l’autre.
Enfin, l’équivalence quant aux critères correspond à l’interprétation des résultats par rapport à une norme, norme dont il faut également étudier l’équivalence ou non d’une culture à l’autre. C’est le concept même de culture qui devrait être précisé, et pas uniquement en
termes de développement économique, technologique et scientifique.
Le choix des sujets est également source de biais au cours de l’évaluation des troubles. L’étalonnage des groupes de sujets est l’une des variables importantes à prendre en compte. La validité des résultats peut être modifiée en fonction du choix des groupes de sujets. Les
résultats peuvent également varier chez un même patient en fonction des variations nycthémérales. On observe également des erreurs de contraste (notamment entre deux patients), des surestimations ou des sous-estimations de la gravité des symptômes, des effets de halo (note similaire), de proximité (note voisine) ou des tendances centrales (note moyenne donnée à l’ensemble des symptômes). Enfin, la méthode d’évaluation elle-même peut influencer la sémiologie des troubles, puisqu’on sait que chaque méthode produit certaines catégories de symptômes : c’est une sorte de « point aveugle » de chaque méthode d’évaluation.
La formation technique et théorique des psychologues cliniciens à la pratique des outils d’évaluation, l’attention portée aux biais méthodologiques en termes d’équivalence culturelle ou non, la réflexion en amont sur les éventuels bénéfices pour un patient d’une évaluation standardisée sont donc des préalables indispensables à l’utilisation des méthodes (ou des outils, des techniques) d’évaluation en psychologie clinique. D’autre part, c’est la situation d’évaluation elle-même qui produit ces biais : une situation d’évaluation standardisée ne serait donc pas plus objective qu’une situation d’évaluation non standardisée. Cette dernière est simplement moins reproductible à l’identique. C’est donc bien le référentiel théorique du psychologue qui lui impose de standardiser, ou non, la situation d’évaluation clinique d’un patient, la relation clinique étant le paramètre le plus difficile à standardiser, donc le plus sujet à discussions et controverses.
Définissez la notion de « bilan psychologique », et précisez quels en sont ses principaux intérêts.
Le bilan psychologique a été proposé initialement par les concepteurs de la psychologie clinique comme un outil pouvant contribuer à l’identification des symptômes et d’un diagnostic psychopathologique.
Cette conception du diagnostic s’est ensuite étendue, en
psychologie clinique, à des notions aussi diverses que les caractéristiques fondamentales de la personnalité (sous l’essor de la psychanalyse, exemple princeps), que les différences individuelles, les facteurs transitoires d’adaptation ou d’inadaptation ou les ressources psychologiques individuelles du sujet. Dans cette perspective élargie bien au-delà de la psychopathologie et/ou de la psychiatrie,
le bilan psychologique a différents objectifs, soit par rapport au psychologue, soit par rapport au sujet. Nous allons détailler ces différents points.
Dans un premier temps, il faut souligner que cette extension de la notion de diagnostic et l’intégration d’apports théorico-cliniques issus de différents référentiels ont facilité et permis la mise en perspective de procédures d’interprétation répondant à des questionnements cliniques particuliers. Ces interprétations permettent d’orienter la réflexion thérapeutique, conférant ainsi au bilan psychologique sa
véritable utilité clinique.
Le bilan psychologique se définit comme une situation expérimentale individuelle, au cours de laquelle le sujet, sous l’effet des consignes et du matériel présenté, produit une part de son fonctionnement habituel – relationnel, intellectuel et cognitif, affectif, familial,
psychopathologique, etc. Dans le cadre des recherches en psychologie clinique, c’est également une situation d’observation clinique unique d’ajustement des outils d’observation. C’est une situation de communication ancrée et soutenue au moyen de la relation clinique
entre psychologue clinicien et sujet, qui peut agir positivement ou négativement sur le processus d’évaluation. C’est enfin une situation thérapeutique portée par la relation clinique et la restitution judicieuse des résultats de l’évaluation.
Par ailleurs, les intérêts du bilan psychologique sont divers.
· Du point de vue des psychologues, et à travers le recueil des faits cliniques de différentes natures, il permet de nuancer la perception et la compréhension du cas singulier, ouvre de nouvelles interprétations, et permet donc de produire de nouvelles élaborations en matière de psychopathologie. Il favorise la communication entre professionnels de la santé mentale, par l’utilisation d’un langage commun qui
fondent la compréhension de phénomènes cliniques. Enfin, il confère aux psychologues cliniciens une spécificité clairement identifiée, encadrée par un Code de Déontologie qui défend le principe fondamental du libre choix des méthodes et la capacité (de par la formation universitaire) à prendre une décision quant à ce choix.
· Du point de vue des patients, un bilan psychologique permet de répondre aux attentes du sujet (ou d’une famille). Pour le sujet, un «bon » test est un test qu’il comprend (dans ses consignes et modalités de passation), qui lui parait pertinent par rapport à son propre questionnement (dans ses objectifs), et qui est perçu comme étant bien maîtrisé par le psychologue, ce qui lui confère un sentiment de confiance et de réassurance, et renforce la relation clinique dans sa version thérapeutique. Par ailleurs, le bilan psychologique renvoie le sujet à des perspectives de modification de la relation qu’il entretient avec lui-même, de la recherche du sentiment de cohérence de soi
et de continuité de soi dans le temps.
La pratique professionnelle du bilan psychologique exige donc des psychologues cliniciens des connaissances théoriques et pratiques, des
compétences relationnelles et un cadre déontologique, en matière d’observation clinique, d’exploration et d’élaboration des faits cliniques.
Elle repose sur la démarche interprétative, qui nécessite, pour être complète, une approche intégrative articulant ensemble trois types de données : d’ordre théorique, d’ordre clinique et d’ordre méthodologique.
Restituez l’évolution historique et conceptuelle du concept d’intelligence en fonction de la notion d’Age Mental (Binet-simon, 1905-1911) et du QI (Terman, 1916-1937) et ses révisions ultérieures (Zazzo, 1949).
Le concept d’intelligence a beaucoup évolué depuis les premières théorisations de Binet-Simon (qui créent la notion d’Age Mental et construisent l’Echelle métrique de l’intelligence) jusqu’aux propositions les plus récentes, qui conçoivent l’intelligence comme étant
composée (selon Oléron, 1957, Reuchlin, 1964) d’une composante générale et de composantes spécifiques.
Le test de Binet et Simon (1905-1911) est un test qui mesurait les processus mentaux « supérieurs » chez les enfants à partir de 3 ans jusqu’à l’âge adulte, au moyen de l’indice de niveau intellectuel, qui devient ensuite « l’Âge Mental ». Les épreuves sont variées et reprennent des situations de la vie quotidienne ou de la vie sociale et des problèmes de type scolaire. Le niveau intellectuel d’un enfant correspond donc à un âge de développement pour lequel l’enfant a réussi l’ensemble des épreuves à l’exception d’une. En comparant l’Âge
Mental (A.M.) et l’Âge Réel (A.R.) du sujet, on peut estimer son avance et/ou son retard intellectuel : c’est le principe connu sous le terme « d’échelle métrique de l’intelligence ». Au début du 20ième siècle, on conçoit l’intelligence comme une notion très large, une « intelligence globale », multiforme. Pour Binet, quatre processus sont à l’oeuvre dans le fonctionnement intellectuel : la compréhension, l’invention, la
direction et la censure. L’intelligence n’étant pas unidimensionnelle, sa mesure ne peut donc pas être réduite à une variable quantitative mathématique et/ou physique. Ainsi « l’Âge Mental » défini par Binet et Simon permet simplement d’apprécier l’intelligence et d’effectuer un classement. Ce refus de quantifier l’intelligence de façon fixiste tient sans doute à la formation clinique des auteurs. Binet et Simon insistent
déjà sur le caractère clinique des épreuves et soulignent que la qualité du résultat dépend de la compétence de l’utilisateur.
Aux USA, en 1916, Terman (1877-1956) publie la Stanford Revision, une version adaptée du test Binet-Simon. Terman modifie l’indice « d’Âge Mental », qui devient alors un « Quotient Intellectuel » (Q.I.). L’auteur propose une modification de l’indice, de sorte qu’elle permette
de comparer des sujets d’âges différents, ce que le Binet- Simon ne pouvait pas faire. Ainsi, le Q.I. correspond au Quotient Mental (A.M./A.R.) défini par William Stern (1871-1938) en 1912, et multiplié par 100 par Terman. Cette modification de l’indice de l’Âge Mental par Terman n’était pas justifiée par des considérations d’épistémologie clinique comme pour Binet et Simon. L’élaboration du Q.I. par Terman a été motivée par des questions de discriminations raciales et sociales. Les tests d’intelligence constituent pour Terman une méthode pour démontrer l’existence d’un lien entre race, classe sociale, « vices » et intelligence. De plus, lorsque les USA rentrent en guerre en 1917, le
président de l’A.P.A. (American Psychological Association) R.M. Yerkes (1876-1956) soutient la construction de tests destinés à déterminer la meilleure affectation des soldats. En 1937, Terman propose une nouvelle révision, le « Terman-Merrill », qui étend les épreuves aux deux extrémités d’âge, précoce et adulte.
Enfin, en 1949, en France, René Zazzo réalise un nouvel étalonnage du « Terman- Merrill », nommé « Révision Zazzo », qui sera utilisé dans le milieu scolaire. Puis, en 1966, Zazzo R., Gilly M. et Verba-Rad M. publient la Nouvelle Echelle Métrique de l’Intelligence1 – la
N.E.M.I. – qui comporte 74 items pour 13 niveaux (3 ans à 14 ans et plus). Elle combine les épreuves du test Binet-Simon avec certaines du Terman-Merrill (répétition des chiffres à l’envers), et certaines de l’échelle de Wechsler (une partie du vocabulaire).
Le test Binet-Simon (1911) et ses dérivés, le Terman-Merrill (Terman et Merrill, 1937) et la NEMI (Zazzo, 1966) sont très liés aux acquisitions scolaires. On a songé très tôt, parallèlement au Binet-Simon, à compléter la mesure de l’intelligence globale par la mesure d’une intelligence concrète, pratique, non verbale. C’est D. Wechsler aux USA en 1939, qui propose la première échelle qui investigue les différentes composantes de l’intelligence, en faisant part égale aux épreuves verbales et non-verbales. Elle est connue sous le nom de Wechsler-Bellevue.
Expliquez les fondements théoriques de l’Echelle de Développement de la Pensée Logique, EPL, de Longeot (1967), son interprétation, ses apports et ses limites.
L’Echelle de développement de la Pensée Logique (EPL) de Longeot (1967) se fonde théoriquement sur la notion de « stade » élaborée par Piaget (1918-1972), défini comme une séquence nécessaire de comportements à un moment donné du développement de l’enfant. Les
fondements théoriques de l’EPL sont donc de l’ordre de la psychologie développementale. Nous allons les expliquer et en préciser les apports et les limites.
L’EPL est étalonnée pour des enfants de 9 à 15 ans et a pour objectif l’évaluation de la forme du raisonnement acquis par le sujet. Piaget conçoit le développement intellectuel de l’enfant selon trois grandes périodes, découpées en stades et en sous-stades. Ainsi, concernant l’EPL, la période de 2 (à partir de 9 ans pour l’EPL) à 12 ans est la période de préparation et d’organisation des opérations concrètes de « classe », de « relations » et de « nombre », et comprend les stades « préopératoire » et « concret ». La période au-delà de 12 ans est celle des opérations formelles et comprend le stade « formel ». Longeot a repris cinq des expériences de Piaget concernant les différents stades du développement intellectuel de l’enfant de 9 à 15 ans, c’est-à-dire relevant théoriquement des stades préopératoire, concret et formel. L’EPL se compose donc de 5 épreuves de raisonnement :
· L’épreuve de conservation du poids, du volume et de la dissociation poids-volume.
· L’épreuve de permutation, qui met en œuvre des opérations combinatoires.
· L’épreuve de quantification des probabilités, qui fait référence aux notions de proportion et de probabilité.
· L’épreuve d’oscillation du pendule, qui fait appel à la logique des propositions.
· L’épreuve des courbes mécaniques, qui évalue la coordination de 2 systèmes de référence distincts dans la représentation de l’espace.
L’interprétation des scores de l’EPL permet d’évaluer les structures de raisonnement du sujet, c’est-à-dire les stratégies logiques qu’il emploie. Gibello (1984) a poursuivi les travaux de Longeot sur l’EPL, et a identifié deux syndromes chez des sujets dont l’efficience
intellectuelle est normale, voir supérieure (Q.I. > 81), les DCN et les DCP, et un syndrome pathologique, le ROR.
Dans la population de référence ayant servi à étalonner l’EPL, il existe un nombre « normal » de décalages (dont la moyenne est de 4 avec un écart type de 2,8). Ces décalages normaux, nommés « Dysharmonies Cognitives Normales » – DCN par Gibello, correspondent au passage d’un stade à l’autre. Lorsque l’ampleur des décalages est très importante (7 écarts et plus), elle indique une hétérogénéité anormale du raisonnement, qui caractérise le syndrome de « Dysharmonies Cognitives Pathologiques » – DCP.
Par ailleurs, Gibello a identifié des « Retards d’Organisation du Raisonnement » – ROR, caractérisés par un retard massif et homogène dans le niveau global du raisonnement. Gibello (1984) précise que le retard homogène de la pensée est dépisté chez des sujets ayant :
· un niveau de raisonnement sensori-moteur après 5 ans
· un niveau de raisonnement préopératoire après 9 ans
· un niveau de raisonnement concret A après 13 ans
· un niveau de raisonnement concret B après 15 ans
Gibello (1984) propose que des recherches complémentaires soient effectuées sur les corrélations entre le niveau intellectuel (Q.I.) et le niveau d’organisation du raisonnement, car les ROR ne sont pas décelables avec les épreuves de Wechsler : ces épreuves n’ont en effet pas été conçues dans ce but. L’identification de ces deux syndromes, DCN et ROR, constitue un argument en faveur de la complémentarité
des tests cognitifs.
L’EPL est pourtant loin d’être aussi utilisée que la WISC, pour au moins deux raisons, d’ordre théorique. D’une part, la théorie piagétienne repose sur une « épistémologie endogène », une construction de la logique se développant progressivement, en fonction de la mentalisation de l’action du sujet sur l’environnement, sans aucune intervention de l’environnement. Cette théorie ne tient pas compte de la notion d’apprentissage scolaire et de remédiation cognitive. D’autre part, la théorie piagétienne stipule une universalité des structures logiques de la pensée. Or la structure de la pensée du « stade formel » semble être spécifique aux sociétés occidentales, car il existe de grandes différences interculturelles au niveau des épreuves formelles. Comptez 2 points si vous avez précisé les limites théoriques de l’EPL.
En quoi la WISC IV (2006) est-elle innovante par rapport à la WISC III (1995) ?
La nécessité d’actualiser l’échelle d’évaluation de l’intelligence des enfants de Wechsler a conduit les psychologues à proposer, après la version de 1995 (WISC III) encore très utilisée, la WISC IV (2006 pour l’adaptation française). Cette actualisation a été rendue nécessaire en raison des apports théorico-cliniques de la psychopathologie développementale. La sensibilité et la variabilité de l’échelle ont augmenté : ces deux facteurs permettent d’intégrer des nuances dans la passation et les résultats de populations d’enfants plus spécifiques,
par exemple, porteurs de handicaps, de déficiences ou à haut potentiel. Par ailleurs, l’actualisation de l’échelle se justifie pour éviter la surévaluation des performances qui augmentent en fonction du temps dans la population générale.
Par rapport aux versions précédentes, l’échelle a donc intégré de nouveaux fondements théoriques. L’intelligence générale est conçue selon un modèle multifactoriel, composée d’une intelligence fluide indépendant de l’environnement ou du traitement intellectuel verbal, d’une mémoire de travail (à l’oeuvre dans les problèmes d’apprentissage comme la dyscalculie ou la dyslexie), de la vitesse de traitement des
informations, et du rapport entre processus mentaux et performances (Echelle K-ABC de Kaufman, 1993).
La notion d’intelligence globale regroupe la manière dont les différents domaines de l’intelligence s’organisent entre eux. Les deux composantes les plus importantes qui ressortent sont l’intelligence fluide et l’intelligence cristallisée. L’intelligence fluide est définie comme étant le traitement des informations, qui diminue au cours de la vie, et l’intelligence cristallisée comme étant des stocks de connaissances qui augmentent au début de la vie et se stabilisent (Horn et Cattel, 1966). L’association ou la dissociation de ces deux types d’intelligence dépend de la présence de pathologies
somatiques ou de psychopathologies, et du contexte d’apprentissage. La notion d’intelligences indépendantes se fonde sur les conséquences de l’histoire développementale de l’enfant. Mais cette notion d’intelligences indépendantes ne fait pas consensus chez les professionnels : seule la diversité des intelligences est admise par tous.
Le passage de la WISC III à la WISC IV a montré de très faibles corrélations entre les deux versions. En effet, les formes d’intelligence évaluées sont différentes, en particulier pour la notion d’intelligence fluide : seuls 6 enfants sur 10 auront la même variance d’une version à
l’autre.
De nouveaux subtests ont donc été intégrés à la WISC IV, les épreuves « Identification de concepts », les épreuves des « Matrices », de la « Séquence Lettres-Chiffres », du « Barrage aléatoire et structuré » (avec un nouvel indice sur le contexte d’apprentissage adéquat pour l’enfant). Le test est plus sensible, par exemple pour l’épreuve des « Cubes », qui, selon le niveau de stress, peut être passé sans bonification de temps. Plusieurs stratégies de résolution de problèmes peuvent être identifiées : séquentiel-simultané, ascendant-descendant,
synthétique-analytique, passage du global au détail et inversement.
Le QI reste globalement stable et les variations de l’évaluation du QI s’interprètent à partir des résultats concernant l’agencement des Processus Mentaux pour un sujet donné. La notion de « compétences du sujet » a été introduite dans les réponses aux items, et la notion de « retard mental » a été supprimée, l’échelle évaluant le QI de « très faible » à « très supérieur »
La WISC IV présente cependant des limites méthodologiques, dont la plus importante est celle du passage d’une culture à l’autre. Dans les populations souffrant de troubles, les hommes sont plus représentés que les femmes et les enfants de migrants obtiennent encore des résultats inférieurs à la population d’enfant français (de 15 points en moyenne). Cette question de l’adaptation d’une culture à l’autre n’est donc pas encore résolue. D’une manière plus générale, les échelles de Wechsler, en raison de la théorisation du QI comme une
« simple » accumulation de connaissances et d’utilisation fréquente, sont souvent peu adaptées à des enfants souffrant de troubles de l’apprentissage scolaire du fait de carences sociales, de handicaps, de troubles neuropsychologiques, etc.
Restituez les bases théoriques du K-ABC (Kaufman, 1978-1983).
En quoi ce test est-il innovant et quelles sont ses applications cliniques ?
Le K-ABC (Kaufman, 1978-1983, traduction française et étalonnage, 1993) est un test cognitif fondé sur la distinction théorique entre la résolution de problèmes et la connaissance des faits. À partir des connaissances issues de la neuropsychologie de la psychologie cognitive, Kaufman définit l’intelligence comme le style propre à chaque sujet de résoudre les problèmes et de traiter de l’information.
Deux types de stratégies de problèmes ont été identifiés : les Processus Séquentiels et les Processus Simultanés, que Kaufman réunit sous le terme Processus Mentaux Composites (PMC). Nous allons décrire ce que ces notions recouvrent.
Les Processus Séquentiels permettraient de traiter l’information, c’est-à-dire de manipuler mentalement des représentations selon un ordre temporel, sériel ou itératif. Lors des premières étapes du développement de l’enfant, les Processus Séquentiels interviendraient dans
l’association des lettres et des sons, et dans le déchiffrement des mots, puis ensuite, par exemple, dans la compréhension de la chronologie des évènements, dans l’application de la méthode scientifique et les compétences mathématiques. Ils seraient localisés dans l’hémisphère cérébral gauche.
Les Processus Simultanés permettraient la synthèse simultanée des informations, dans une première étape sous forme d’informations spatiales, puis à un niveau de développement supérieur, par exemple, extraire des informations d’un texte, faire preuve de créativité ou
utiliser des schémas. Ils seraient localisés dans l’hémisphère cérébral droit.
Les Processus Mentaux Composites résulteraient donc de l’intégration de ces grandes catégories de processus cognitifs. Kaufman propose donc que le stock d’informations n’est pas une intelligence en tant que telle, mais que les connaissances doivent être envisagées comme une forme « d’intelligence cristallisée » (Catell, 1971), privilégiant les procédures – les manières de faire aux contenus – les connaissances en tant que stock d’informations. Ces fondements théoriques amènent Kaufman à proposer que le développement de l’intelligence soit le résultat d’interactions dynamiques entre hérédité et milieu. De ce fait, les résultats au K-ABC doivent être également sensibles aux influences du milieu, et les propositions psychopédagogiques qui en découlent également (par exemple la remédiation cognitive).
Le K-ABC évaluant le fonctionnement cognitif fortement mobilisé au cours d’apprentissages nouveaux, il aiderait donc à mieux comprendre les échecs inattendus, ce qui permettrait de préciser les différents programmes de remédiation. Parallèlement, des équipes de chercheurs
(Lemmel, Meljac et Gillet, 1994) ont montré que la WISC-R était plus adaptée pour identifier les capacités d’adaptation et les acquis généraux lorsque la demande de bilan psychologique est une demande d’orientation pédagogique.
Le K-ABC est indiqué pour les enfants de 2 ans ½ à 12 ans ½. Il innove avec la création de subtests tels que « Personnages et Lieux connus » et « Fenêtre magique », et avec l’adaptation colorée de tests tels que « Matrices analogiques » (provenant de la psychologie
expérimentale) ou « Mouvements de la main »(provenant de la neuropsychologie). Les influences cliniques – impulsivité, distractibilité, handicaps, etc., ont été statistiquement intégrées dans la validation et l’étalonnage du test, ce qui n’est pas le cas dans les échelles de Wechsler.
Kaufman répond à une définition de l’intelligence qui ne privilégie ni l’hérédité, ni le milieu environnemental. En cela, il est permet de passer outre cette vieille distinction qu’ont fait les psychologues des premières générations, et plutôt que d’opposer ces deux concepts l’un à l’autre,
il a proposé de les intégrer l’un avec l’autre. En cela, le K-ABC est un test moderne, quels que soient ses fondements théoriques. Reste que la localisation cérébrale des processus cognitifs n’est encore qu’une hypothèse clinique non démontrée. Freud pensait autrefois que la neurologie pourrait, un jour, localiser elle aussi l’appareil psychique…
Expliquez quels sont les deux référentiels théoriques à partir desquels on peut coter et interpréter des résultats au test de Rorschach.
Le test des tâches d’encre de Hermann Rorschach (1921) a été conçu par l’auteur comme un outil perceptif pouvant contribuer à l’approche différentielle de la schizophrénie et identifier des styles de personnalité. En reprenant les travaux de Rorschach, L’Ecole de Paris
(à partir des années 70, avec Chabert, Azoulay, Debray, etc.) choisit de se baser sur les concepts théoriques la métapsychologie freudienne. En même temps, un auteur américain, Exner, propose une deuxième approche théorique fondée sur la psychologie cognitive. Ces deux approches ont été largement développées par les auteurs principaux, celle d’Exner ayant nécessité des recherches supplémentaires de validation de la méthodologie de cotation et d’analyse en langue française.
Pour Chabert (1994), le test des tâches d’encre implique une double sollicitation : des données sensorielles perceptives soutenues par des conduites cognitives et adaptatives, qu’elle nomme les sollicitations manifestes du test ; et des données subjectives projectives
soutenues par des conduites projectives qu’elle appelle les sollicitations latentes du test. Selon l’auteur, l’approche psychanalytique permettrait de repérer les sollicitations (ou contenus) latentes et manifestes du test, ainsi que la réactivation par le stimulus des
problématiques psychiques spécifiques du sujet.
Chabert (1994) dégage deux aspects dans ce stimulus non-figuratif : une organisation perceptive, qui se met en forme à partir de la dimension structurale de la construction formelle de la tâche – compacte, fermée, bilatérale, ouverte ; d’autre part, la présence d’éléments
chromatiques qui soutient une dimension sensorielle liée à la couleur, les tâches étant noires, grises, noir/rouge, pastel. Ces deux dimensions vont servir de base à la méthode d’analyse : l’appréhension de l’organisation formelle est considérée comme relevant d’une approche perceptivo-cognitive, sous-jacente aux processus de pensée. La sensibilité aux couleurs est empiriquement associée aux sensations, aux affects.
L’auteur fait l’hypothèse centrale que les opérations mentales mises en oeuvre au cours de la passation du test sont susceptibles de rendre compte des modalités du fonctionnement psychique propre à chaque sujet et en particulier dans la notion de continuité du normal et du pathologique.
Le projet d’Exner est de standardiser la cotation et de valider statistiquement la signification des différents facteurs. Tout comme la cotation de l’Ecole de Paris, il rend compte des mêmes éléments constituant une réponse – les qualités perceptives et la dimension projective.
Par ailleurs, le système de cotation est fondé sur des données empiriques tout autant reproductibles et vérifiables, validées par des critères théoriques externes au test pour chacune des deux approches théoriques. En revanche, les fondements théoriques sont radicalement différents. Exner interprète les données du test dans une perspective pragmatique, au sein d’une théorie de la personnalité qui définit des styles défensifs (plutôt que des mécanismes psychiques de défense), des conduites mentales (plutôt que des conduites psychiques), et des perceptions de soi et d’autrui, d’affects et des processus cognitifs (plutôt que conflits psychiques, internes et externes à l’appareil psychique). On estime aujourd’hui que ces concepts renvoient à un modèle théorique cognitivo-perceptif. En effet, la notion de « Système Intégré » appliquée à sa perspective pragmatique recouvrirait quatre opérations cognitives, qu’il définit ainsi :
· Un processus d’encodage, concernant la réception et la médiation des qualités du stimulus, et nécessitant de reconnaître et d’évoquer mentalement toutes les catégories d’objets auxquelles tout ou partie de la tâche peut ressembler.
· Un processus de classification du stimulus : la hiérarchisation organisée des possibilités évoquées est déterminée par des facteurs psychologiques liés aux besoins et aux désirs du sujet, ainsi qu’à la nécessité d’adéquation à la réalité extérieure.
· Un processus de rejet par la censure, dépendant de la « désirabilité sociale » du sujet.
· Un processus de formulation de la réponse, qui indique des éléments dominants de la structure de la personnalité du sujet, et qui intègre la situation environnementale.
Quelles que soient les approches théoriques, elles rendent compte toutes les deux de tous les éléments constitutifs du « discours Rorschach », à savoir les qualités perceptives et la dimension projective des tâches elles-mêmes, c’est-à-dire du stimulus non figuratif.
Le test de Rorschach ainsi conçu est un outil particulièrement utile pour l’évaluation psychologique, le diagnostic, les indications thérapeutiques et le pronostic.