cours 9 Flashcards

(54 cards)

1
Q

Les scènes visuelles complexes

A

Les scènes visuelles complexes (comme celles que nous confrontons de manière quotidienne) contiennent une énorme quantité d’informations.

Énormément d’informations. Une quantité supérieure à ce qu’on peut traiter à chaque moment précis.

Notre cerveau se doit alors de filtrer cette information pour être certain de détecter les informations saillantes/importantes.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Implication de cette grande quantité d’informations (des scènes visuelles complexes)

A

Nous ne pouvons traiter toute cette information en un seul moment.

Nous devons donc sélectionner l’information à traiter à travers le temps.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

ex de grande quantité d’info dans scènes viseulles complexes –> les deux phrases

A

deux phrases écrites en hauteur donc words on top of eachother pis au centre y’a des X (faut regarder le x)

Si on essaye de lire les deux phrases en même temps ici. Mettre nos yeux sur le X, descendre à travers le X, puis essayer de lire les deux phrases en même temps. C’est impossible. On n’est pas capable de lire les deux phrases en même temps en suivant les X. Ça ne fonctionne pas.

On ne peut donc Ø traiter toute l’info en même temps, notre attention est limitée. On doit déployer notre attention vers l’une ou l’autre de ces deux phrases pour être capable de les lire

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

ex de grande quantité d’info dans scènes viseulles complexes –> peinture compliquée

A

Donc ici, si on nous demande rapidement de trouver le cavalier dans cette scène-là, on va probablement utiliser des stratégies différentes, scanner l’image… et éventuellement, on va trouver le cavalier. (Situé au centre de la scène sur le pont).

Là, on s’approche de tâches de recherche visuelle, mais étant donné qu’il y a une quantité phénoménale d’informations dans cette œuvre, ça prend un certain temps avant de trouver le dit cavalier.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Où est Charlie? et scènes viseulles complexes

A

Pareil pour où est Charlie. Prend un temps fou le trouver.

Pourquoi ? La similarité.

La similarité, c’est hyper important dans une scène comme celle-ci. On joue sur la similarité. On essaie de nous distraire.

Les distracteurs, ici, (tout ce qui n’est pas Charlie), sont très similaires à la cible. Donc ça rend le jeu encore plus difficile.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

scènes visuelles complexes ex –> la magie des cartes!

A

ex: Il faut choisir à travers les six cartes qui sont présentées ici, une carte.

Il faut bien les regarder, choisir une carte, fermer les yeux et visualiser notre carte.

Là, après, les cartes disparaissent

la on ouvre nos yeux et…

Notre carte, c’est celle qui manque.

La réponse est facile. Il n’y a aucune carte qui correspond à aucune carte dans la deuxième scène. Les magiciens détournent notre attention. Ils envoient notre attention à quelque part. Ils font des tours de passe-passe pendant qu’on ne regarde pas.

Donc, l’attention, c’est le thème central des illusionnistes. Ils vont détourner votre attention sur quelque chose. Et le tour est déjà fait. À partir du moment où il a réussi à déployer votre attention à quelque part, il nous a déjà eu le magicien.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

l’Attention c’est quoi et types

A

La capacité de sélectionner un (ou quelques) stimulus (i) à travers une grande quantité d’informations.

Externe : Réfère aux stimuli dans le monde.
–>Dans le monde externe
–>Looking at this slide or listening to the sound of the teacher’s voice

Interne : s’occuper d’une ligne de pensée plutôt qu’une autre ou sélectionner une réponse plutôt qu’une autre.
-> ex: Rythme cardiaque qui s’accélère donc notre attention posée là-dessus. Lorsqu’on est attentifs à des phénomènes internes.
–>Choosing to think about this lecture instead of what you’re planning on doing this weekend

Overt attention : Réfère au fait de diriger son regard vers l’objet de l’attention.
–>À partir du moment où l’on place notre fovea sur l’objet de l’attention, on dit que c’est une attention « overt », c’est-à-dire « centrée ».
–>: Watching at an ambulance drive with lights and sirens blaring dive by.
2.Soutenue : Surveiller en permanence certains stimuli (mm chose)

Covert attention : Au contraire, ici, l’objet de l’attention n’est pas fixé de quelque façon que ce soit.
–>Attention peut aussi déployée en périphérie, même si notre fovéa n’est Ø dessus. Quelque chose qui attire notre attention même si notre fovea n’est pas dessus.
–>Eavesdropping on the conversation near you without turning your head or giving any external cu that you are paying attention.

Divisée : partage de l’attention entre deux stimuli différents.

2.Soutenue : Surveiller en permanence certains stimuli

NOTES CHAT GPT

🔁 1. Attention overt vs. covert → selon le comportement observable (regard/mouvement)
🔹 Overt attention = attention manifeste
Tu orientes ton regard ou ta tête vers ce qui t’intéresse.

Ex. : tu regardes quelqu’un qui te parle → ton attention est “overt”.

🔹 Covert attention = attention cachée
Tu portes ton attention ailleurs sans bouger tes yeux.

Ex. : tu fais semblant d’écouter ton prof mais tu écoutes ce que disent tes voisins → ton attention est “covert”.

📌 Ce type d’attention concerne où va ton attention par rapport à tes mouvements oculaires ou corporels.

⏱️ 2. Attention soutenue vs. divisée → selon la durée et la distribution
🔹 Attention soutenue = maintenir l’attention sur une même tâche ou stimulus dans le temps.
Ex. : écouter un cours pendant 30 minutes sans décrocher.

Requiert de la vigilance et de l’endurance mentale.

🔹 Attention divisée = distribuer l’attention sur plusieurs choses en même temps.
Ex. : écouter quelqu’un tout en écrivant un message.

Recrute davantage de ressources cognitives.

📌 Ici, c’est la gestion des ressources attentionnelles qui est en jeu.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Overt and covert attention: Mouvement oculaire en lecture

A

Donc, un exemple d’attention dirigée, « overt attention », Lorsqu’on fait des mouvements oculaires en lecture, on déplace notre fovéa. On fait des saccades oculaires pour déplacer notre fovéa sur les mots.
Et donc, comme le texte le mentionne, « When a person is reading a sentence silently, the eye movements show that not every word is fixated. »
Donc, quand on lit, on ne pose pas une fixation nécessairement sur tous les mots.
Overt sur les lettres et covert sur l’ensemble du texte
Montre que ce n’est pas seulement de l’attention dirigée en lecture, c’est de l’attention overt, mais avec de l’attention covert en même temps, car en périphérie, là où notre attention n’est pas posée, il y a un traitement attentionnel qui se fait des mots qui s’en viennent.
Donc, c’est un mix aussi. La probabilité que le prochain mot soit X ou Y influence aussi.
Si on randomisait la séquence de ces mots-là, on verrait que les mots-là, se comportaient complètement différemment. Mais il y a aussi un pré-traitement de l’information qui est fait en périphérie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Travaux de Millet :
En utilisant une technique qui se nomme blindspot/spotlight:

A

En utilisant une technique qui se nomme blindspot/spotlight: Si on fait des exercices de lecture comme ceux-là, mais qu’on ne révèle pas l’information périphérique. On fait juste tracker avec eye-trackers là ou la personne regarde et on masque l’extérieur d’un certain rayon autour de la fovéa, ralentit considérablement la lecture, parce qu’on n’a pas ce pré-traitement de l’information-là, qui peut être effectué par la covert attention.
Lorsqu’on utilise le spotlight et qu’on ne révèle pas l’information périphérique, on ne sautera pas de mots.
Les mouvements oculaires, les saccades vont être faits sur chacun des mots. Ça va ralentir le traitement. Et c’est comme ça qu’on va quand même être capable d’avoir le sens de la phrase, mais on ne pourra pas sauter des mots comme c’est le cas dans cet exemple.
À l’inverse, si on masque le mot (blindspot - on ne voit pas là où notre fovéa est dirigée). On peut quand même aller chercher le sens de la phrase simplement avec l’information périphérique.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Overt attention les études suggèrent..

A

Les études récentes semblent suggérer que nous ne prenons conscience que d’un seul objet (ou peut-être quelques-uns) à la fois.

Bien que notre attention puisse être divisée, on ne peut être conscient d’un seul objet (peut être quelques un mais limite à ce qu’on peut amener en conscience à la fois).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Covert attention

A

L’attention bouge beaucoup plus rapidement que les yeux. Alors que les yeux bougent à un rythme de 3-5 saccades visuelles par seconde, l’attention peut atteindre une vitesse de 20 à 30 saccades attentionnelles par seconde.

Il n’est certainement pas nécessaire de bouger les yeux pour être attentif à quelque chose.

Grand écart entre la rapidité de notre attention et la vitesse à laquelle on peut faire des saccades oculaires.

Implique qu’il n’est pas nécessaire de bouger les yeux pour être attentif à quelque chose. On est capable de traiter une grande quantité dans le temps d’informations beaucoup plus rapide que les mouvements oculaires que nos yeux peuvent faire.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Attention spatiale / La sélection spatiale comment on l’étudie

A

Habituellement, lorsqu’on étudie l’ attention spatiale, la sélection dans l’espace, la mesure qu’on va regarder, c’est les temps de réponse, les temps de réaction.

Donc, c’est une mesure du temps entre le début d’un stimulus et la réponse du participant. Donc, dans une tâche de recherche visuelle, on présente le stimulus, le participant sait déjà quelle cible il doit trouver. Il doit s’efforcer de trouver la cible le plus rapidement possible.

Temps de réaction (RT) : Une mesure du temps entre le début d’un stimulus et une réponse.

Incide (cue) : Un stimulus qui pourrait indiquer où (ou quoi) un stimulus ultérieur sera.
–>Un indice : Dire au participant la cible qu’on cherche (où? Quoi?)

Les indices peuvent être valides (informations correctes), invalides (incorrectes) ou neutres (non informatifs).
–>Les indices peuvent être valides (informations correctes), invalides (incorrectes) ou neutres (non informatifs). - On peut donner un indice qui pointe vers la bonne direction OU un indice invalide. l’indice nous dit que la cible, par exemple, va être à gauche, alors que la cible va être à droite. Et qu’est-ce que ça nous permet de faire ? Ça nous permet de voir combien de temps supplémentaire est-ce qu’on a besoin pour détecter ou pour trouver la cible si on nous a orienté dans la mauvaise direction. Ou les indices peuvent être non informatifs, peuvent être neutres.

Stimulus onset asynchrony (SOA) : Le temps entre le début d’un stimulus et le début d’un autre.
–>Une autre variable qu’on contrôle dans les expériences sur l’attention spatiale, c’est le temps inter-stimulus, donc le stimulus onset asynchrony (SOA) : C’est le temps entre le début d’un stimulus et le début d’un autre stimulus. Si on diminue le SOA, on rend la tâche un peu plus difficile, parce qu’on a toujours besoin d’être aux aguets.
–>On sait qu’il y a un autre essai qui s’en vient très rapidement, alors que si on relaxe, peut rendre la tâche plus facile parce qu’on a le temps de ramener notre système en état d’équilibre avant de procéder au prochain essai.

Avec le SOA : On peut jouer avec la rapidité de la tâche. Le temps inter-stimulus, c’est le temps qui s’écoule entre la présentation du stimulus 1 et la présentation du deuxième essai, le stimulus 2.

Si on a une expérience qui va très, très vite, où on nous présente un stimulus à toutes les 50 millisecondes, ça va être demandant, ça va être exigeant pour le système de traiter tous ces stimuli-là, puis on a l’impression qu’on se fait bombarder.

Alors que si on relaxe le temps inter-stimulus, qu’on présente un stimulus à toutes les 500 millisecondes, ou 3 secondes, alors le système a le temps de traiter l’information du stimulus, revenir à un état d’équilibre, traiter l’information du stimulus suivant. Il y a moins d’interférences entre les stimuli, lorsqu’il y a du temps entre les stimuli.

Toutes ces propriétés-là sont impliquées dans le paradigme de Posner.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Paradigme de Posner (1980) les conditions

A

Paradigme de l’attention spatiale

  1. Condition contrôle (sans indice)
    –> Le sujet fixe la croix de fixation et doit appuyer sur la clé de réponse indiquant la position spatiale de la boite où la cible (ici, un point rouge) est apparue.
    –>Variable dépendante : Temps de réaction
    ->On va mesurer le temps necessaire à répondre que la cible était à gauche (dans cet exemple-ci)

–>Condition de contrôle, il n’y a pas d’indice. Ça sert de base line, de ligne de base pour déterminer : «À quel point, lorsque je donne un indice valide, la réponse va être accélérée?».

–> Le fait d’avoir une anticipation de la position dans la recherche, ça va accélérer notre traitement, notre réponse va être plus rapide.

–> On va donc pouvoir comparer cette condition de contrôle à notre condition où on a un indice.

  1. 1- Indice périphérique (exogène)
    –> Attire l’attention de façon automatique.
    –>L’indice est valide dans 80% des cas (habituellement).

Donc, ici, il y a deux types d’indice possibles.

Premier : Indice périphérique, (exogène), et qui va attirer l’attention de façon automatique.

Dans les tâches de Posner, l’indice va être valide dans environ 80% des cas.

Indice périphérique parce qu’on fixe la croix de fixation et en périphérie, on va nous donner un indice comme une bordure rouge sur le carré blanc, là où va être présentée la cible.

C’est de ça qu’on parle lorsqu’on parle d’un indice périphérique, c’est que ce n’est pas au niveau de la fovea, de la croix de fixation qu’on va donner l’indice.

On va donner l’indice en périphérie et puis on va le donner vraiment proche de la cible dans ce cas-ci.

À gauche, un indice valide, donc un indice exogène valide, et à droite, on a un exemple d’un indice exogène invalide. Donc on a un indice périphérique qui est à l’opposé de là où on doit répondre, et ça, ça va impliquer un plus grand temps de réaction pour la bonne réponse.

On fixe la croix et en périphérie on nous propose un indice rouge. On donne l’indice en périphérie, proche de la cible. Donc pas direct sur la fovea.

Exogène : Implique + grand temps de reaction pour la bonne réponse car indice invalide.

  1. 2- Indice symbolique (endogène)
    –>On parle d’instructions qui peuvent déployer l’attention volontairement
    vers la position spatiale pointée.
    –>L’indice est valide dans 80% des cas (habituellement).

Il y a des indices symboliques ou endogènes. C’est un indice qui va être présenté au niveau de la croix de fixation, qui va pointer vers là où on doit trouver la cible.

Encore une fois, on a des indices endogènes valides, comme à gauche, ou invalide à droite.

L’indice symbolique, c’est une flèche rouge qui nous pointe vers là où on doit aller

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Paradigme de Posner (1980) : Nature temporelle du type d’indice

A

L’indice périphérique attire l’attention beaucoup plus rapidement que l’indice symbolique.

Lorsqu’on a des indices endogènes ou des indices exogènes, des indices périphériques ou des indices symboliques, on voit que les gains pour trouver une réponse lorsque l’indice est valide, vont être importants.

On n’a pas la même fonction du temps de réponse pour un indice symbolique par rapport à un indice périphérique.

L’indice périphérique va nous permettre de répondre beaucoup plus rapidement que lorsque l’indice est symbolique. Cela est mesuré en fonction de l’axe des X du SOA.

Lorsqu’on a un SOA à 100ms, pour un indice en périphérie, on va être 15 à 20 millisecondes plus rapide pour trouver la cible.

Comment lire ce graphique : Pour un intervalle interstimulus de 100 millisecondes, on a un gain d’une vingtaine de millisecondes pour trouver la cible lorsque l’indice est périphérique par rapport à un indice symbolique. Donc l’indice périphérique attire l’attention beaucoup plus rapidement que l’indice symbolique.

À retenir de ce graphique : On a un gain pour un indice périphérique par rapport à un indice symbolique. Il y a des indices symboliques qui attirent l’attention plus rapidement que d’autres

____
Notes extra :
L’effet d’un indice se développe avec le temps.

Les avantages des signaux périphériques augmentent plus rapidement que les avantages des signaux symboliques.

Ce résultat montre quelque chose comme la vitesse de la volition - Combien de temps vous faut-il pour attirer votre attention sur un endroit plutôt que de l’y attirer automatiquement ? Environ 150 ms !

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Indice symbolique qui attire l’attention rapidement

A

Certains indices « symboliques » agissent comme des indices périphériques (exogènes).

Indices symboliques attirent plus rapidement l’attention que d’autres.

Si quelqu’un regarde rapidement à un endroit, ça peut vraiment orienter notre attention rapidement de façon assez efficace. Donc certains indices symboliques agissent comme des indices périphériques.

Le regard, la direction du regard en est un très bon exemple, probablement parce qu’on attribue beaucoup d’importance au visage, on est des animaux sociaux et on sait que le visage d’une autre personne va nous envoyer des signaux qui sont importants, donc ça a un effet sur la rapidité avec laquelle on peut déployer notre attention, même s’il s’agit d’un indice symbolique ici.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

La recherche visuelle

A

Recherche d’une cible prédéterminée dans un ensemble de distracteurs.

Exemples : trouver des mauvaises herbes dans votre pelouse ou la télécommande sur la table du salon

Cible : L’objectif d’une recherche visuelle.
–> ex la télécommande ou les mauvaises herbes

Distracteur : En recherche visuelle, tout stimulus autre que la cible.
–> ex: les tasses de café, la vape etc sur la table et les autres types de fleurs dans la pelouse

Taille de l’ensemble : le nombre d’éléments dans un essai de recherche visuelle.
–>En recherche visuelle, une variable qui va affecter la rapidité avec laquelle on trouve la cible, c’est la taille de l’ensemble.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

La recherche visuelle: L’efficacité de la recherche visuelle est …

A

L’efficacité de la recherche visuelle est l’augmentation moyenne de RT (reaction time) pour chaque élément ajouté à l’affichage.

  • Mesuré en termes de pente de recherche, ou ms/élément
  • Plus la pente de recherche est grande (plus de ms/item), moins la recherche est efficace
  • Certaines recherches sont efficaces et ont de petites pentes
  • Certaines recherches sont inefficaces et ont de grandes pentes
    –> Dépend de certaines caractéristiques de la tâche.

notes
On essaie de comparer combien de temps ça nous prend pour trouver une cible lorsqu’on a 1, 2, 5, 20, 30, 50 distracteurs. On augmente la taille de l’ensemble, on joue avec la taille de l’ensemble pour voir à quel point la taille de l’ensemble va affecter notre découverte de la cible, la rapidité avec laquelle on découvre une cible.

Habituellement, on va mesurer cette efficacité-là en termes de pente de recherche. Donc, la pente de recherche, c’est millisecondes/élément. On regarde combien de millisecondes par élément on a besoin.

Donc, si on a une droite, puis on voit une augmentation linéaire, par exemple du temps de réponse en fonction du nombre d’éléments on va calculer la pente de cette droite-là, et c’est ce qui va nous informer sur l’efficacité de la recherche visuelle.

Plus la pente est grande (plus les millisecondes augmentent rapidement par rapport au nombre d’items dans l’ensemble, moins la recherche est efficace).

Si on a une pente légère : ça veut dire qu’au fur et à mesure qu’on augmente le nombre d’items dans l’ensemble, l’impact sur le temps de réponse est moindre. Donc, on est moins ralenti dans notre recherche visuelle si la pente de recherche est faible.

__
Notes extra :
Si on a une grande pente, on voit que plus on rajoute des éléments dans l’ensemble, plus grand devient le temps de réaction. Et si on a une pente plus faible, ce qui ça indique, c’est que le temps de réaction augmente moins à mesure qu’on augmente la taille de l’ensemble.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Sélection spatiale: Inhibition du retour (IOR)

A

Inhibition du retour (IOR) : la difficulté relative à attirer l’attention (ou les yeux) pour revenir à un endroit récemment fréquenté (ou fixé).

Pendant les recherches visuelles, IOR vous empêche de rester bloqué en revisitant continuellement un endroit.

notes

L’inhibition du retour, c’est le fait que lorsqu’on a déployé notre attention, par exemple, si on fait la tâche « Où est Charlie? », on a scanné une région, on déplace vers une autre région, il y a un mécanisme qui va faire en sorte qu’on ne reviendra pas là où on vient juste de regarder.

On va continuer d’explorer de nouveaux endroits. Et c’est l’inhibition du retour. On a une inhibition pour ne pas retourner à l’endroit où on vient justement de se poser.

On veut découvrir la cible, donc on doit explorer. Et si on revenait continuellement dans le même espace local, ce ne serait pas efficace.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Théories de l’attention

A
  1. Modèle « Spotlight » : L’attention est restreinte dans l’espace et se déplace d’un point à l’autre. Les zones sous les projecteurs reçoivent un traitement supplémentaire.
    –>Comme dans l’exemple du prof Millet. Si on voit l’attention comme une lampe de poche, et on ne peut pas voir dans la noirceur ailleurs qu’à l’endroit où notre lampe de poche est pointée, ça, ce serait un modèle de spotlight.

L’attention comme une lampe de poche, que votre tension peut juste être déployée à un endroit à la fois, et tout ce qui est en dehors de là où la lampe de poche est pointée est invisible.

  1. Modèle du « zoom » attentionnel: La zone occupée par l’attention peut s’agrandir ou se rétrécir en fonction de la taille de la zone à traiter.
    –>Comme si on arrivait à zoomer notre attention sur la tâche.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

La recherche visuelle: Exemple classique de recherche de caractéristique.

A

Première rangée : Si on doit trouver une barre verticale rouge, ça va être très facile de trouver cette barre verticale rouge dans le premier exemple en haut, parce que les distracteurs sont des barres verticales bleues. Il y a une saillance, la cible n’est pas très similaire à nos distracteurs. Donc, ça va être très rapide de découvrir la cible dans ce cas-ci.

Dans la seconde rangée, encore une fois, on a une cible qui est une barre verticale rouge. Par contre, ces fois-ci, les distracteurs sont des barres horizontales rouges.

Qu’est-ce qui s’est passé ? La similarité entre la cible et les distracteurs a augmenté un peu, parce que maintenant la cible a la même couleur que les distracteurs. Par contre, il y a encore une caractéristique qui fait que notre cible est différente de nos distracteurs, et c’est l’orientation ici.

La cible a une orientation canonique verticale, alors que les distracteurs ont une orientation horizontale.

Et l’exemple de la troisième rangée ici, on a augmenté la taille de l’ensemble. Beaucoup plus de distracteurs.

a) Recherche d’attributs : Pente nulle : Implique que le fait d’augmenter la taille de l’ensemble n’a aucun impact sur la rapidité avec laquelle on va découvrir notre cible dans la recherche visuelle. Lorsqu’on fait une recherche où on doit trouver une caractéristique, le fait d’augmenter la taille de l’ensemble n’a aucun impact sur notre efficacité.

b) Conjonction d’attributs : Ce que ça veut dire : Barre rouge verticale parmi des distracteurs qui sont soit des barres vertes verticales ou des barres rouges horizontales. Il y a deux attributs qui sont importants. Les deux attributs sont la couleur et l’orientation de la cible. On fait une conjonction d’attributs. On ne peut pas juste découvrir la cible vis-à-vis son orientation. Comparativement à une recherche d’attributs simple, la conjonction va avoir un impact sur la pente, l’efficacité. Impact modéré sur la pente.

c) Recherche de configuration spatiale : Trouver une combinaison d’attributs. Par exemple, un T (composé d’une barre verticale et d’une barre orientale). Donc, lorsqu’on doit trouver la cible qui est la combinaison d’une barre verticale et d’une barre horizontale, à travers des distracteurs, cette tâche-là devient encore plus difficile que la tâche où on a une recherche simple d’attributs ou une recherche de conjonction d’attributs. Pente très forte, ce qui implique que plus grande est la taille de l’ensemble dans le troisième cas de figure, plus grand est l’impact sur l’efficacité de la recherche. Donc, augmenter la taille de l’ensemble implique une réduction considérable du temps nécessaire pour trouver la cible.

_____________

Notes extra :

Each part of the figure shows a different search task, with difficulty increasing from (A) to (C). Each row shows a different number of items (the set size), which difficulty increasing as set size increases. Here we show only examples with the target present. In a typical experimentm a target might be absent in half of the trials. The graphs at the bottom depict typical patterns of results for each type of task. The purple line in each graph represents average reaction times for different set sizes on target-absent trials; the green line shows results for target-present trials.

Left column: Feature search. These searches are very efficient and typically have slopes of about 0 ms/item.

Middle column: Conjunction search. These searches are moderately efficient and have modest slopes.

Right column: Spatial configuration search. Finding the target requires detecting the correct spatial configuration of a horizontal and vertical line (the letter T among Ls in this case). These searches are very inefficient and have high slopes.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

recherche visuelle: Variables importantes:

A

Nombre d’items

Type de recherche : Attribut simple vs. Conjonction

La cible est habituellement présente dans 50% des essais.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

La recherche d’attributs est efficace

A

Recherche d’attributs : recherchez une cible définie par un seul attribut, comme une couleur ou une orientation saillante.

Saillance : La vivacité d’un stimulus par rapport à ses voisins.
ex : Le rouge est très saillant dans un contexte où les distracteurs sont bleus. Grande vivacité de stimulus de la cible par rapport à ses distracteurs.

Parallèle : dans l’attention visuelle, se référant au traitement de plusieurs stimuli en même temps.
–>Traitement parallèle : A (recherche d’attriburs). Peu importe le nombre d’élements dans l’ensemble on VA trouver la cible, comme si on pouvait traiter parallèlement les distracteurs tous en meme temps sans consequence.

23
Q

La recherche d’attributs est efficace: Le phénomène du «pop-out» visuel:

A

Lorsqu’un objet nous «saute aux yeux» parce qu’il a une apparence qui diffère grandement de tous les autres objets de son environnement.
–>Le pop-out indique un traitement en parallèle… Si chaque item était traité de manière séquentielle, il n’y aurait pas pop-out!

notes

Pop out : Grande saillance.

Meme si on triple les cercles bleus, le cercle rouges va nous sauter aux yeux, va “pop out”

Ce pop out indique un traitement en parallèle. Si chaque item était traité de manière séquentielle, Ø de pop out.

Si on devait traiter de façon séquentielle tous les stimuli, on ne sait pas où est la cible, donc on doit les traiter un par un jusqu’à temps qu’on détecte la cible, on n’aurait pas une pente nulle en A.

Ici, ce n’est pas un traitement séquentiel, c’est vraiment un traitement parallèle, et ça amène ce phénomène de pop-out.

24
Q

Les attributs efficaces

A

La couleur
La taille
L’orientation
Le mouvement

25
La recherche d’attributs : L’orientation dans l’espace
Orientation dans l’espace est un attribut qui nous permet de voir du pop out. La cible est aisée à trouver en a) alors qu’elle est difficile en b). Des attributs similaires sont pourtant disponibles mais en a) la position des attributs permet de dégager une troisième dimension informative sur l’orientation dans l’espace. a) Facile. Orientation de la boîte dans l'espace qui est différente par rapport au distracteur, et on la remarque immédiatement. b) Beaucoup plus difficile mais saillant quand même de trouver le odd one out (intrus) dans la scène. Comme on n'a pas cette information supplémentaire (troisième dimension informative), c'est plus difficile dans la situation en B.
26
La recherche de conjonction est inefficace
On peut conclure si un traitement est sériel ou fait en parallèle selon la pente temps de réaction/nombre d'items --> si aug TR = aug items alors c'est sériel --> si aug TR pas proportionnel à aug d'items alors parallèle -->La pente, va nous permettre de conclure à savoir s'il y a un traitement parallèle possible dans une tâche ou non, si on est en situation de traitement parallèle ou de traitement sériel. Le traitement parallèle ne pourra pas se faire s'il y a une grande pente. Parce que plus on augmente la taille de l'ensemble, plus long devient notre réponse. Donc, ça indique qu'on doit faire un traitement sériel, même si c’est juste un peu. Si la pente est faible, là, même si on augmente la taille de l'ensemble, ça a un peu d'impact sur notre temps de réponse. On n'est pas en train de regarder un à un tous les distracteurs avant de trouver la cible. Donc, on fait un traitement parallèle.
27
Conjonction d’attributs dans le vrai monde! à l'épicerie ex
Les conjonctions d'attributs, ça existe dans les tâches de recherche visuelles, mais aussi dans le vrai monde. Ex : Au marché, si on veut trouver la tomate, on sait que la tomate est ronde et rouge. Il y a d'autres fruits et légumes comme le citron qui est arrondi et jaune. Il n'y a pas la même conjonction d'attributs que la tomate. Même chose pour le poivron qui a une forme définie. Et si on cherche un poivron rouge, on a une conjonction d'attributs, la forme d'un poivron et la couleur rouge versus un poivron vert.
28
Recherche visuelle dans le monde réel : Guidage basé sur les scènes
Dans les recherches visuelles du monde réel, le monde réel guide la recherche visuelle. Guidage basé sur les scènes : informations dans notre compréhension des scènes qui nous aident à trouver des objets spécifiques dans les scènes. Par exemple, une tasse se trouvera généralement sur une surface horizontale et un cadre se trouvera généralement sur une surface verticale. ex: les travaux de Melissa Vō qui parlait de la grammaire de la scène. (ex du tableau avec la craie). Si on nous demandait de trouver la craie, notre attention serait nécessairement orientée vers là où on pose les craies à la base d'un tableau. => Les informations dans notre compréhension des scènes qui nous aident à trouver des objets spécifiques dans les scènes, c'est notre connaissance du monde qui nous permet d'orienter aux bons endroits notre attention. Notre connaissance du monde va influencer l’efficacite et il y a une grammaire de la scene nous permettera de trouver ce qu’on cherche (i.e la bouilloire). Si on nous demandait de trouver la bouilloire, par exemple, on pourrait la trouver facilement et rapidement, parce qu’on a une connaissance de comment est habituellement organisée une cuisine. Pas besoin de regarder le plafond pour trouver la bouilloire. Il y a peu de chances que la bouilloire soit accrochée au plafond. Cependant, bonnes chances qu'elle soit sur le comptoir/proche de l’évier…
29
Intégration perceptive
Le traitement des différentes dimensions visuelles est effectué par des aires cérébrales distinctes. Treisman et Gelade (1980) ont proposé une théorie de l’intégration des attributs. Selon cette théorie, les différents attributs seraient traités par un stade automatique, pré-attentif. Par exemple : Traiter l’orientation/couleur, mais tout cela serait traité avant l’attention avant même qu’on en soit conscient. Donc traitement fait de manière inconscient. Inconsciemment, on fait ce traitement-là et ensuite on produit notre réponse Les attributs (les unités de base de la perception) sont ensuite intégrés grâce à l’attention pour donner lieu à une représentation complète de l’objet. -->On intègre les différentes informations qui sont décodées par les différentes aires cérébrales dans des régions de plus haut niveau pour construire une représentation complète de l'objet.
30
Intégration perceptive ex trouver une cible dans cène vrm compliquée
Pour trouver toutes les cibles, on doit focaliser son attention sur chacun des stimuli séquentiellement. On doit faire un traitement sériel pour trouver la cible. Ce traitement sériel reflète justement cette intégration de l'information des aires cérébrales et le fait qu'on a des conjonctions, des configurations spatiales distinctes. Implique qu'on doit traiter, un à la suite de l'autre, tous les systèmes avant de détecter la cible.
31
Conjonctions illusoires
Existe-t-il des preuves que les attributs sont représentés indépendamment les uns des autres et doivent être liés les uns aux autres ? Oui. Conjonction illusoire : Une combinaison erronée de deux attributs dans une scène visuelle. Exemple : Rapporter avoir vu un X rouge lorsque l’image contient des lettres rouges et des X mais pas de X rouges. Les conjonctions illusoires fournissent la preuve que certains attributs sont représentés indépendamment et doivent être correctement liés avec l’attention. notes Conjonction illusoire : Et, le fait que ces conjonctions illusoires sont possibles, démontre que les attributs sont représentés indépendamment parce qu'on les intègre de façon incorrecte dans le cas des conjonctions illusoires. Par exemple, rapporter avoir vu un X rouge lorsque l'image contient des lettres rouges et des X, mais pas des X rouges. Là, on a fait une conjonction illusoire. On rapporte avoir vu un X rouge, même si physiquement il n'y avait pas de X rouges, il y avait des X, il y avait des lettres rouges, mais pas de X rouges. Cette liaison-là, c'est l'essence de la théorie de Treisman, qu'on appelle en feature integration theory, donc la théorie de l'intégration des attributs. En premier lieu, on traite les attributs de façon préattentive, quasi automatique, et en second lieu, on doit lier correctement les attributs avec l'attention pour détecter une cible. Donc : 1- Traitement préattentif des attributs 2- Liaison (binding) des attributs pour trouver notre cible
32
Treisman et Schmidt (1982)
on montre des lettes et chiffres couleurs différentes Deux réponses demandées à chaque essai : i) Identifier les chiffres noirs ii) Identifier les couleurs et les formes des lettres Les sujets combinent les attributs visuels des lettres illusoirement environ 30% du temps P. ex. disent avoir vu un T vert (il est acc bleu) ou un O rouge (il est acc vert). -->30% du temps les participants vont faire des conjonctions illusoires.
33
Théorie de l’intégration des attributs
De façon intéressante, les conjonctions illusoires sont particulièrement fréquentes dans la syndrome de Balint. --> Lésions bilatérales du cortex pariétal. ex: A rouge et R bleu --> Dans une condition aussi simple que celle illustrée ici, un patient atteint du syndrome de Balint présente 38% de conjonctions illusoires Balint : Lésions bilatérales du cortex pariétal (région dans la voie dorsale) On présente pendant 10 secondes un A rouge et un R bleu. Et dans une condition aussi simple que celle illustrée ici, un patient atteint du syndrome de Balint, qui présente des lésions bilatérales du cortex pariétal, va présenter 38% de conjonctions illusoires, ce qui est énorme. C'est vraiment une condition facile. A rouge, R bleu, avec une présentation de 10 secondes. Les patients qui ont un syndrome de Balint qui ont des lésions bilatérales dans le cortex pariétal et qui présentent une grande proportion de conjonctions illusoires dans des essais aussi faciles que celui-ci, ça met en lumière le rôle du cortex pariétal dans l'intégration des attributs de bas niveau. Il y a des connexions qui existent via des faisceaux de matière blanche entre les voies ventrales et les voies pariétales. Donc, s'il y a des lésions dans le cortex pariétal, comme dans le syndrome de Balint, ça suggère qu'il y a une espèce de read-out, de lecture qui est faite par les zones pariétales de l'information concernant les attributs dans la voie ventrale pour faire une conjonction appropriée d'attributs dans une tâche comme celle de Treisman et renforce sa future integration theory
34
Présentation visuelle en série rapide (RSVP)
Présentation visuelle en série rapide (RSVP) : procédure expérimentale dans laquelle des stimuli apparaissent dans un flux à un endroit (généralement le point de fixation) à un rythme rapide (généralement environ huit par seconde). Le RSVP est utilisé pour étudier la dynamique temporelle de l'attention visuelle. Lorsque l’attention est déployée au bon endroit avec un bon indice, avec un bon fps (60) (16,1667ms/image avant la prochaine), on arrive à détecter le surfer. Démonstration que l'attention est importante. L'indice donné, s’il ne nous a pas été donné et qu’on nous demander de trouver une image X, probablement que ça aurait été 50-50.
35
Attentional Blink (ou clignement attentionnel)
Donc, Potter, dans les années 70, Molly Potter a développé ses paradigmes de présentation sérielle rapide. Et déjà dans les années 70-80, on savait qu'on était capable de détecter des cibles jusqu’à 13 ms de présentation. Découverte de l'Attentional Blink, le clignement attentionnel. En utilisant la recherche sur la RSVP Ce que Jane Raymond et Kim Shapiro ont découvert, c'est que la position de la deuxième cible par rapport à la première cible est extrêmement importante dans une tâche comme celle-là. -->Lorsque la deuxième cible (T2) est présentée entre 200 et 500ms après la première cible, les participants ne voient pas cette deuxième cible ou du moins leur performance est grandement affectée. L’exemple est : Lettre X suivie d’une lettre B, mais même si on le connait cet exemple et qu’on essaie de trouver le B, on y arrive quand même pas. Le fait que mon cerveau est en train de traiter l'information du premier X, de la première cible (T1), c'est tellement un effet puissant que, lorsque cette deuxième cible-là est présentée à mes yeux, on n'arrive pas à la voir. Fenêtre cruciale dans le clignement attentionnel = 200 à 500 ms à la suite de la presentation de la 1ere cible. Donc, il y a la séquence de distracteurs, la première cible apparaît, il y a un autre distracteur qui apparaît 100 millisecondes après, et là, 100 millisecondes plus tard, à 200 millisecondes à la suite de la première cible, on présente la deuxième cible et one ne la voit pas. Notre cerveau, son attention est déployée à traiter l'information de la première cible. Il y a un bottleneck qui se fait, parce que le cerveau est engagé à traiter le X et à identifier le X parce que tantôt, il va falloir répondre si oui ou non le X était présent.
36
attentional blink: cas simple une seule cible et cas complexe deux cibles
1. Cas simple : une seule cible Rouge : Juste une cible (tâche simple). Peu importe même si on place la deuxième cible 200 ms après la première, on doit seulement détecter la 2ème. → Donc on ne porte pas notre attention sur la première, on détecte la deuxième sans problème. 1 cible : même si la cible est présente 16 ms je vais la voir (elle est seule donc c’est bon pour le cerveau). ⚫ 2. Cas complexe : deux cibles = traitement en série Les cibles sont présentées chacune pendant 16 ms, mais le délai entre chaque cible et distracteur est intégré là-dedans donc on doit détecter une deuxième cible. → Ø le même traitement qui se fait, car le cerveau doit d’abord se concentrer à trouver la première cible et ensuite rapidement trouver la 2ème. Dans le cas de la ligne noire : là on doit porter notre attention sur la première cible et ensuite porter notre attention sur la deuxième cible et c’est là qu’on voit qu’il y a un dip dans les performances lorsque la 2ème cible est présentée entre 200–500 ms après la première. → Zone temporelle où notre cerveau n’arrive pas à traiter correctement l’info, car déjà engagé à traiter l’info de la première cible. À 630 ms après la première cible, notre performance est équivalente à si on n’avait pas eu à identifier la première cible auparavant. → Pas de clignement attentionnel du tout lorsqu’on est en dehors de cette fenêtre de 200–500 ms. 630 ms : Ø de clignement, car en dehors de la fenêtre de 200–500 ms de la présentation. ⏱️ 3. Pourquoi pas de baisse de performance à 100 ms ? → Lag-1 Sparing Pourquoi si notre cerveau est occupé à traiter la première cible, pourquoi si on présente la deuxième à 100 ms (plus vite que la fenêtre 200–500), la performance n’est pas réduite ? → À cause de Lag-1 Sparing Lag-1 Sparing (LOP) : lorsqu’on présente la deuxième cible à 100 ms donc à l’extérieur de notre fenêtre mais AVANT, donc là tout à coup, on détecte les deux sans problème. 🧠 4. Délai de traitement dans le cerveau Prend 120 ms avant que l’info atteigne le cortex inférotemporel / V5. → 90 ms, on est dans V1/V2. On sait que ça prend 80–90 ms pour atteindre les zones primaires du cortex visuel, V1 (peut-être V2). Donc quand on présente la 2ème cible 90 ms après la première, la première n’est pas plus loin que V1 ou V2 dans le traitement. Par contre, si on présente la deuxième cible à 200 ms après la première, le voyage de notre première cible est rendu plus loin que V1 dans le cerveau : - Cortex inférotemporel - Probablement aussi dans la jonction temporoparietale (→ intégration des propriétés selon la feature integration theory). Conclusion : le bottleneck ne se situe pas au niveau de V1, mais plus loin, quand le cerveau traite la première cible à un niveau plus élevé. 🧵 5. Notes extra Chercheurs comme Marvin Chun ont proposé une métaphore du filet de pêche : Si on lance un filet, on peut attraper deux poissons (les deux cibles) dans une même fenêtre temporelle. D’autres résultats semblent contredire cette analogie. Important à retenir : → À 100 ms, si la deuxième cible est présentée à 100 ms après la première, cela suggère que le goulot d’étranglement (bottleneck) du clignement attentionnel est plus loin que V1. → La première cible a eu le temps de se rendre à V1 lorsque la deuxième est présentée (Lag-1 sparing). → À 200 ms, la première cible a fait un voyage plus long dans le cerveau. !!! : Le bottleneck attentionnel n’apparaît pas tant que l’information n’a pas dépassé V1/V2. Il survient quand T1 est en traitement dans des régions de plus haut niveau du cerveau visuel. → Donc, le clignement attentionnel ne se produit pas à V1, mais plus loin, vers le cortex inférotemporal ou les zones d’intégration attentionnelle.
37
Attentional blink: On présente une série d’items (ex. chiffres) à un taux d’environ 10/sec., et on demande au sujet d’identifier deux cibles (ex. lettres) parmi cette série. Si les deux cibles sont séparées de
200-500 ms, la deuxième (T2) sera .... souvent manquée par les sujets. L’attention est dirigée vers la première cible. Puisque pas d’attention pour la deuxième cible, pas de traitement…
38
Attentional blink: Green et Bavelier (2003) ont rapporté que les personnes qui jouent à des jeux vidéo first-person shooter ont un clignement attentionnel ...
réduit. Cela suggère que les performances d'attention visuelle peuvent être améliorées avec la pratique. Personnes qui jouent à des jeux vidéo (i.e jeux de fusil) à la première personne, ont un clignement attentionnel réduit. C’était une des premières démonstrations qu'il y a des différences individuelles dans le clignement attentionnel. Donc, l'expertise des joueurs professionnels de jeux vidéo first person shooter, ont un clignement attentionnel réduit, et peut-être on pourrait penser que comme ils sont habitués de traiter l'information rapidement, ils sont en train de jouer et il y a un pixel qui bouge là-bas et déjà ils détectent que c'est probablement un joueur ennemi ou un monstre, leur cerveau est comme préparé à constamment devoir répondre à des stimuli rapides et on voit un clignement attentionnel réduit. Lorsqu'on fait des études en clignement tensionnel, on présente habituellement des lettres et des chiffres. Rend un peu la tâche difficile de modéliser le stimulus, parce que les lettres et les chiffres, ce sont des stimuli simples avec peu d'attributs. Donc rend un peu la tâche difficile de créer des modèles computationnels pour essayer de comprendre à quel niveau de traitement de l'information le bottleneck pourrait se situer. Il y a un autre phénomène qu'on observe dans le clignement attentionnel, même si ce n'est pas des experts en jeux vidèos comme dans le cas de l'étude de Green et Bavelier : Même au sein d'une population générale, on va voir des différences dans le clignement attentionnel, des différences individuelles. Il y a des gens qui ne présenteront pas de clignement attentionnel, puis il y a des gens qui vont présenter un clignement attentionnel très important. Intéressant de se poser la question : « Pourquoi est-ce que les gens qui ne présentent pas de clignement attentionnel, qu'est-ce qu'ils ont de différent ? Est-ce qu'on pourrait trouver dans leur cerveau quelque chose de spécial qui les protège contre le clignement attentionnel ? » Intérêt à ces questions dans l’étude qui suit.
39
Attentional blink: étude
Développement de tâches de clignement attentionnel avec des scènes visuelles. Avant, il y avait toute une littérature qui utilisait des lettres et des chiffres ou des stimuli simples, mais pas vraiment d'études qui avaient utilisé des scènes visuelles complexes. Idée de départ : Avec l’émergence des réseaux de neurones devenus très performants pour reconnaître les objets et identifier les scènes visuelles, une nouvelle piste a été envisagée. Application : Effectuer une tâche de clignement attentionnel avec des scènes visuelles, puis utiliser des réseaux de neurones pour modéliser ou simuler l’activité en réponse à ces scènes. Objectif de la démarche : Analyser ce qui distingue les scènes impliquées dans un clignement attentionnel des autres. Paradigme de clignement attentionnel avec 40aine de scènes visuelles : La moitié qui était des scènes présentant des objets inanimés, et l'autre moitié qui était des scènes présentant des objets animés, et par objet animé, ce sont des objets qui peuvent bouger de leur propre volition, et inanimés qui ne peuvent pas bouger de leur propre volition (ex : roche). Donc, on a un essai où une fraise et un chariot sont présentés en T1 et T2, et la T2 dans cet essai-là est présentée dans la fenêtre du clignement attentionnel, donc 200 millisecondes après la présentation de la T1. Et à droite, on a exactement le même essai, la fraise et le chariot. Par contre, cette fois-ci, le chariot est présenté à l'extérieur de la fenêtre du clignement attentionnel, donc 800 millisecondes après la première cible. Ce qui est intéressant dans ce design-là, c'est que à peu de choses près, on a exactement le même essai, le même trial, mais on a simplement changé la position. Donc, on peut regarder la différence entre ces deux essais-là et estimer la magnitude du clignement attentionnel. On fait la moyenne à travers toutes les paires d'essais identiques, et puis on peut avoir une idée, de la magnitude/amplitude du climat tensionnel. Donc, à la fin d'un essai, on a une fenêtre qui nous demande quelle image était la première cible. Ici, la bonne réponse, c'est la fraise. Et quelle image était la deuxième cible? La bonne réponse aurait été le chariot. Et on va utiliser des réseaux de neurones dans lesquels on va passer nos scènes pour aller voir, couche par couche, c'est quoi l'activité neuronale en réponse à la photo de la fraise. Donc, peut-être qu'il y a certains neurones qui sont très activés pour la photo de la fraise dans la deuxième couche, dans la troisième couche, et ainsi de suite. On peut regarder le pattern, le patron d'activation à l'intérieur de chacune de ces couches-là pour nos stimuli. Puis, on peut, après ça, aller voir est-ce qu'on est capable de prédire, étant donné les patrons d'activation, des paires de scènes, où il y aura plus de clignement attentionel que d'autres. Donc, l’objectif ici, c'était de voir si on est capable de faire une prédiction, image par image, à savoir si cette image-là va avoir plus ou moins de clignement attentionnel et à quelle couche on peut observer ça. ________ Première observation : c'est qu'on a des différences catégorielles dans le clignement attentionnel. Remarqué avant même d'avoir utilisé les réseaux de neurones. Les scènes d'images qui ont des objets animés présentaient beaucoup moins de clignement attentionnel que les scènes présentant des objets inanimés. Dans une situation où il y a un objet animé qui peut potentiellement être dangereux pour nous, il y a un caractère évolutif important d'être capable de détecter un objet animé rapidement pour notre survie. Alors peut-être que c'est une des explications qui explique le fait qu'on va présenter un fort clignement attentionnel pour un objet inanimé. DONC : Avantage à être bon pour détecter des objets animés, parce qu'ils peuvent poser un certain risque ou un certain danger. Deuxième observation : C’est qu'on arrivait à prédire image par image la magnitude du clignement attentionnel, mais que notre prédiction était meilleure dépassé certaines couches dans notre réseau de neurones. Donc, à la première couche, on n'arrive pas à prédire la magnitude du clignement attentionnel. Dans la deuxième couche non plus. Par contre, à partir de la troisième couche, on a une corrélation entre le clignement attentionnel et les représentations à l'intérieur du modèle. Ressemble à la description de la diapo sur les cibles Lorsque la première cible est lancée vers le cerveau, le cerveau fait un traitement de cette première cible-là, se rend peut-être jusqu'à contexte inférotemporel, et là, la deuxième cible est présentée, et on ne la voit pas. Ici, même principe, la première cible passe, elle se rend jusqu'à la troisième couche, et là, on ne voit plus la deuxième cible. Donc, ça nous donne une intuition, même si ce n'est pas un cerveau humain ici, c'est un cerveau artificiel, c'est un réseau de neurones, mais on voit qu'il y a un moment dans le traitement de l'information, à l'intérieur du réseau de neurones, où on voit plus de clignement attentionnel que lors du traitement des attributs simples qui sont effectués dans les premières couches du modèle. Un autre phénomène qu'on a observé, c'est que la similarité entre les deux cibles était très importante dans notre prédiction. Ce qu'on s'est rendu compte, c'est que plus les cibles étaient similaires, plus difficile était l'essai. Donc, il y a moins de chances qu'on voit la deuxième cible si la deuxième cible est similaire à la première. En modulant essai par essai la similarité entre la première et la deuxième cible, on a réussi à induire plus ou moins de clignement attentionnel. Donc similarité importante pour le CA. La similarité a été mesurée à partir des réponses dans notre réseau de neurones. Donc, on a à la couche 3 la réponse de la fraise, la réponse du chariot, et on regarde ces deux patrons-là, est-ce qu'ils sont similaires, est-ce qu'ils sont corrélés, et plus grande est la corrélation entre ces deux patrons d'activation-là dans la couche 3, plus grande est la similarité entre les cibles à un niveau de traitement médian, de la vision moyenne, en couche 3. Si on regarde en couche 1, on est à un traitement de bas niveau, si on regarde en couche 7, on est à un traitement de haut niveau. Donc, ça nous indique le fait d'utiliser des réseaux de neurones, à quel niveau dans le traitement de l'information le clignement attentionnel se situe, et quel genre de propriété on peut manipuler pour augmenter l'effet du clignement attentionnel ou le réduire. On ne s'est pas arrêté là. On a maintenant fait la même tâche, mais en mesurant de l'EEG ou en mesurant de l’IRMF. Et ce qu'on a voulu voir, c'est est-ce qu’on arrive à répliquer ce qu'on a vu avec nos réseaux de neurones, mais au lieu d'utiliser les patrons d'activité dans le réseau de neurones, on va utiliser les patrons d'activité dans le cerveau, qu'on a mesuré pour ces images-là. Même chose a été répliqué. Trouvaille d’un autre phénomène qui est particulièrement intéressant, qui concerne les différences individuelles dans le clignement attentionnel.
40
Différences individuelles dans l’Attentional blink
Carte du cerveau : Corrélation entre performance d’un participant dans la tâche du clignement attentionnel et ses représentations cérébrales dans ces regions-là. La richesse représentationnelle d’un participant dans ces régions-là (qui incluent notamment la junction temporoparitétal) est prédictive de si ce participant-là va être bon ou mauvais dans une tâche de clignement attentionnel.
41
les blinker et les non-blinker
À gauche, performance de deux types de participants : 1- « blinkers » : Le participant typique présent du climat tensionnel 2- « non-blinkers » : Ceux qui, n'ont pas ou peu de climat tensionnel, Non-Blinker en orange : Sa performance ne change pas, peu importe si on place la cible, la deuxième cible, 200 ms ou 700 ms après la première. Blinker : Impact considérable, lorsque la deuxième cible est présentée 200 ms après la première. Géométrie des representations : Dans la région de la jonction temporoparietale, qui est illustrée en rouge. Et par géométrie, ce qu'on a fait, c'est qu'on a regardé dans cette région-là, le patron d'activité cérébrale, pour cette image-là. Ensuite, on a regardé le patron d'activité cérébrale pour cette image-là, et on a calculé la similarité entre les patrons d'activation pour ces deux images-là. On a calculé ça pour toutes les paires possibles d'images dans notre expérience, et on dessine ici, sur un plan 2D, cette similarité, cette géométrie, donc deux cibles qui sont proches l'une de l'autre dans cette illustration-là, c'est qu'ils ont eu des patrons d'activation similaires. Deux cibles qui sont éloignées les unes des autres, c'est qu'ils ont eu des patrons d'activation très différents dans cette région d'intérêt-là. Donc c'est la similarité des patrons d'activation qui est illustrée ici sur un plan 2D. Et ce qu'on remarque, c'est que pour notre participant qui est Blinker, les représentations sont tous plus similaires, comme s'ils étaient moins distincts, comme si cerveau faisait moins la différence entre les différentes images. Les non blinker : Semblent avoir des representation plus detaille plus riches des scènes dans la junction temporoparietale. Ce qui fait que lorsque les deux images sont plus différentes, c'est plus facile de reconnaître la deuxième que si les deux images étaient plus similaires. Rappelez-vous, tantôt, j'ai parlé de la similarité entre les deux cibles comme étant un mécanisme qui permettait de moduler l'amplitude du clignement attentionnel. Ici, on voit comment, dans le cerveau, cette similarité-là influe sur le clignement attentionnel, sur la proportion d'essais manqués par un participant. Les non-blinkers ont des représentations très différenciées dans la jonction temporoparietale des stimulés visuels, et ça se traduit par une facilité à détecter les cibles, peu importe si la cible est dans le climat attentionnel, dans la fenêtre du climat attentionnel ou pas.
42
Négligence unilatérale
Tendance générale à ne pas détecter, ne pas prêter attention, ne pas explorer, ne pas s’orienter vers les stimuli localisés dans l’hémi-espace controlatéral à la lésion. Le problème n’est pas causé par des difficultés au niveau sensoriel ou moteur. Premier désordre : négligence unilatérale. Dans un hémi-champ qui est habituellement controlatéral à une lésion.
43
Région critique du cerveau pour la Négligence unilatérale
Jonction temporo-pariéto-occipitale Le cortex temporo-pariéto-occipitale. La négligence unilatérale est beaucoup plus fréquente dans le cas de lésion à droite. De plus, la négligence avec lésion droite est plus sévère. Donc, une lésion classique dans la négligence unilatérale, c'est une lésion au cortex temporoparietal occipital. Et c'est beaucoup plus fréquent dans un cas d'une lésion à droite. Et on a vu aussi dans nos résultats avec le clignement attentionnel que c'est latéralisé à droite, cet effet de modulation de la performance de nos participants. C'est une différence individuelle. Et la négligence avec les lésions à droite est plus sévère. Dans l'hémisphère droit, c'est là où la richesse représentationnelle influence la performance d'un individu dans le clignement attentionnel. Donc, meilleur est l'individu dans le clignement attentionnel, plus nette est sa représentation dans la jonction temporoparietale à droite, dans l'hémisphère droit.
44
si on demande aux participants (avec négligence unilatérale avec lésion à droite) de faire un trait sur toutes les barres à l'écran.. + autres exemples
il va mettre juste des traits sur les barres à droite donc il percoit a droite mais pas à gauche --> négligence controlatérale donc du bord opposé à la lésion La lésion est controlatérale. Le participant détecte la moitié de son hémichamp visuel, mais pas l'autre moitié. C'est quand même assez fascinant. Tout est là. Ce n'est pas parce que le participant ne les voit pas, mais c'est qu'il ne peut pas diriger son attention vers l'hémichamp. Un autre exemple classique, c'est l'assiette de spaghettis. Le patient va manger une moitié de son assiette parfaitement, puis il ne touchera pas à l'autre moitié. Il n'est pas conscient que l'autre moitié de son assiette existe. C'est vraiment fascinant. On demande à un patient de dessiner la maison, puis le patient va dessiner le dessin qu'on a ici à droite. Donc, il y a vraiment une négligence complète d'un hémichamp complet qui est controlatéral à la lésion.
45
Syndrome de Balint: carcatérisé par X éléments
Syndrome de Balint : Associé avec cette intégration des attributs et qui présente une fréquence de conjonctions illusoires, beaucoup plus importante que les personnes qui ne sont pas atteintes du syndrome. Caractérisé par trois éléments : 1. Paralysie psychique du regard : Incapacité à diriger le regard directement vers une cible visuelle périphérique. Les mouvements de vergence et de poursuite oculaire sont également atteints. La motilité oculaire demeure cependant intacte. --> Ce n'est pas parce qu'ils ne peuvent pas faire de mouvements oculaires, ce n'est pas parce qu'ils sont incapables de faire des saccades, mais c'est que si ils doivent faire des saccades volontairement suite à une instruction dans une tâche attentionnelle, il y a une incapacité à diriger le regard directement vers la cible. Ce n'est pas parce que leurs yeux sont incapables de bouger. Si nos yeux n'avaient pas de micro-saccades, ou ne pouvaient pas faire de mouvements oculaires, on serait aveugles. Essentiel pour voir. Ils peuvent voir, juste incapables de déployer l'attention vers une cible en particulier. 2. Ataxie optique : Déficit de la préhension et du pointage guidés visuellement. Habituellement, l'atteinte affecte l'ensemble du champ visuel et se manifeste avec les mains gauche et droite. -->Donc, on n'arrive pas à aller chercher, à aller prendre un objet ou pointer vers un objet dans la condition de l'ataxie optique qui est associée avec ce syndrome de Balint. Ø parce qu’ils ne savent pas reconnaitre l’objet, sont juste incapables de déployer leur attention vers cet objet-là et de pointer ou de prendre l'objet en question. Incapacité de prendre un objet. 3. Déficit attentionnel : Simultanagnosie (ne peut voir qu'un objet à la fois). Conclusion : Sans attention spatiale, la perception visuelle normale est impossible -->Toutes ces caractéristiques-là du syndrome de Balint nous renseignent grandement sur les caractéristiques de l'attention. Sans attention spatiale, la perception visuelle normale est impossible. Si on n'a pas une capacité à déployer notre attention dans l'espace, on est incapable de prendre des objets, on ne peut pas percevoir plus d'un objet à la fois, et on est incapable de diriger notre regard vers une cible importante
46
Désordres de l’attention spatiale noms
1. Négligence unilatérale 2. Syndrome de Balint
47
L’attention et la perception des scènes
Lorsqu'on navigue dans notre environnement, on doit déployer notre attention. La perception des scènes et l'attention vont en main dans la main.
48
Perception de la scène
On a vraiment l’impression d’avoir une expérience visuelle extrêmement riche complètement différente de celle morcelée des patients avec un syndrome de Balint. -->Lorsqu'on se promène, on a l'impression que notre expérience subjective est fluide, notre expérience du monde est riche, même si on a vu avec le pseudo-paradoxe de la perception que finalement, il reste juste un faible pourcentage de l'information qui est vraiment traitée par notre cerveau. On a quand même l'impression que l'expérience elle est riche, même si une grande portion est complétée par notre cerveau, étant donné notre connaissance du monde, et ainsi de suite.
49
Perception de la scène: X voies vers la perception de la scène
Deux voies vers la perception de la scène: 1. Voie sélective : Permet la reconnaissance d'un ou de très peu d'objets à la fois. Cette voie passe par le bottleneck de l'attention sélective. 2. Voie non sélective : fournit des informations sur la distribution des caractéristiques dans une scène ainsi que des informations sur le gist ou “l'essentiel” de la scène. Cette voie ne passe pas par le bottleneck de l'attention. NOTES Mais reste que, même si on a une impression riche, riche, nette de notre expérience, il y a quand même des limites à ce qu'on peut percevoir, à ce qu'on peut traiter, et certaines de ces limites-là, on l'a vu dans les tâches de recherche visuelle avec des configurations spatiales d'attributs, dans des tâches comme le clignement attentionnel dans le temps, on a des limites aussi à notre capacité à intégrer l'information qui est présentée temporellement, dynamiquement. ______ Lorsqu'on parle des informations sur la distribution des caractéristiques de la scène, ça nous rappelle un peu cette idée de Treisman dans le modèle de la Future Integration Theory, que les caractéristiques sont traitées de façon préattentive. Les attributs sont traités de façon préattentive, et c'est lorsque l'on combine, on combine les attributs, lorsqu'on fait un binding, une liaison d'attributs, qu'on voit les effets de l'attention. Ce que ça implique, c'est le fait qu'on a certaines limites dans ce qu'on peut retenir, dans l'information qu'on peut traiter. Et ça a un impact sur plein d'autres systèmes, incluant le système mnésique. bien entendu.
50
Mémoire des scènes
Si on essaye de retenir chacune de ces images-là. (grilles de 12 images différentes) et que là on change toutes leurs positions C'est extrêmement difficile d'identifier les scènes qui étaient présentes dans la diapositive précédente. On a changé leur position. Elles ne sont plus à la même place. Il y a beaucoup de scènes à retenir. Il y a une limite dans ce que notre attention peut stocker en mémoire. On a eu amplement le temps de regarder chacune de ces scènes-là, une à une, à la diapo précédente. Mais c'est très difficile de retenir par la suite lesquelles étaient présentes, parce que c'est une quantité d'informations importante qu'on doit mémoriser. Et on a une limite à ce que notre attention peut laisser passer pour ensuite enclencher les processus de reconnaissance et de rappel.
51
Attention et perception de la scène
La mémoire des objets et des scènes est incroyablement mauvaise. Cécité au changement : Le fait de ne pas remarquer un changement entre deux scènes. --> Si le changement ne modifie pas l'essentiel ou le sens de la scène, des changements assez importants peuvent passer inaperçus. --> Démontre que nous n'encodons pas et ne nous souvenons pas autant du monde que nous pourrions le penser. Explique le phénomène de la cécité : On ne peut se souvenir de toute l’info d’une scene. Notre attention est limitée. On n'encode pas, on ne se souvient pas autant d'informations que ce qu'on a l'impression. MÊME si on a l’impression d’avoir une experience pleine, riche et fluide de notre environnement, en vérité, on retient une faible proportion de ce qui nous est présenté.
52
Attention et perception de la scène: Que voit-on réellement ?
On a l'impression de voir beaucoup de détails dans une scène. La cécité au changement nous montre que nous n'encodons pas autant de détails que nous pourrions le penser. Ce que nous voyons est souvent dicté par nos attentes de ce que nous « devrions » voir. -->Subjectivement, on a l’impression de tout percevoir de notre environnement, mais en verité nos limites attentionnelles font qu’on ne percoit pas autant d’infos qu’on le pense. Ce qu'on voit va être dicté par nos attentes de ce qu'on devrait normalement voir. Cécité inattentionnelle : Un échec à remarquer - ou du moins à signaler - un stimulus qui serait facilement rapportable s'il était suivi. Autre phénomène qui s'apparente à la cécité au changement : Cécité inattentionnelle : On dirige votre attention à un endroit. Et on ne remarque pas qu'il y a quelque chose d'énorme qui se passe sous nos yeux parce que notre attention est tellement concentrée sur notre carte (diapo début). Aussi gorille. Si on pay attention, là on le verra. --> carte dans la vidéo du magicien) --> gorille dans la vidéo ou les gens se passent une balle de basket
53
Les radiologues, le gorille et la cécité innattentionnelle
Finalement, il y a des chercheurs qui ont répété l'expérience du dit gorille avec des radiologistes qui devaient détecter la présence de tumeurs cancéreuses dans des tissus organiques. Les chercheurs ont caché un gorille dans les radiographies, dans les rayons X. L’attention des médecins était tellement dirigée à trouver des masses cancéreuses, qu'il n'y en a pas un qui a détecté le gorille dans cette image-là. Montre à quel point notre attention peut limiter ce qu'on perçoit du monde qui nous entoure et ce qu'on encode ou ce qu'on n'encode pas.
54