cours 19: Contrôle Cognitif II Flashcards

1
Q

En fonction de quoi est prise une décision?

A

La décision est prise en fonction du choix qui maximize la valeur de la récompense reçue.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

La valeur d’une récompense

A
  • Niveau de recompense (payoff):
    • Primary (sex, nourriture, eau)
    • Secondary (argent, statut, autonomy?)
  • Probabilite de la recompense (Example des billets de lotterie: prefere 1% de chance de gagner CHF1’000 ou 10% de chance de gagner CHF 100?)
  • Les couts investis pour obtenir la recompense (effort, investissement en temps ou autres resources)
  • Contexte (etat physique, emotionel, mental de la personne qui prend la decision)
  • Preference/gout
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Comment le cerveau represente la valeur de nos decisions?

A
  • Decision prise en fonction du choix qui maximize la valeur de la recompense recue
  • Experience chez des singes eveilles – enregistrement multi- electrodes:
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Expliquer la tâche pour trouver comment le cerveau représente la valeur de nos décisions

Expérience chez des singes éveillés - enregistrement multi-électrode

A

Tache: Choisir entre 2 images voisines au sein d’un rang, apprendre au fur et a mesure la valeur de chacune

Conditions: Les 2 images voisines different le long d’une des 3 dimensions:

  • Reward probability – quelle est la probabilte d’obtenir un reward?
  • Payoff - combien de ml de jus?
  • Cost – nb de fois qu’il faut presser sur le levier de reponse

Quand une des dimensions varie, les autres restent fixes

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Quels sont les résultats de l’expérience sur les valeurs de nos décisions avec les singes éveillés?

A

Resultats:
ACC (anterior cingular cortex - vert), LPFC (lateral prefrontal cortex - rouge), OFC (orbito frontal cortex - bleu)

Cellules qui repondent selectivement à une dimension, ainsi que des cellules qui repondent a plusieurs dimensions dans les trois regions

Pas de specialisation – chaque aire code pour les différents dimensions de la valeur

ACC – neurones codent pour plusieurs dimensions -> valeur en general

LPFC et OFC plus specialises pour une dimension a la fois;

LPFC - quand code pour effort tend a etre aussi associee a une autre dimension

le signal de valeur code par ces neurones precede la preparation motrice, comme si elle guidait le choix dans la decision…

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Comment le cerveau represente la valeur de nos decisions?

Expérience chez des humains en IRMf

A
  • OFC semble coder pour le payoff (plus ou moins d’argent)
  • striatum plutot pour l’effort
  • Lateral PFC semble coder pour la probabilite d’une recompense
  • medial PFC plutot sensible au delai entre choix et obtention de la recompense (delayed-discounting)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Delayed-discounting:

la tâche du Marshmallow

quels éléments doit-on tenir en compte?

A

Manipulation de la confiance du participant dans l’experimentateur: Experimentateur demande a l’enfant de dessiner/faire un projet mais lui donne du mauvais materiel; Lui dit qu’il revient dans 5 min avec du bon materiel

Conditioon 1. Revient avec du meilleur materiel Condition 2. Ne revient pas

Plus tard le meme experimentateur administre la tache du marshmallow a l’enfant

Ceux qui n’ont pas recu le meilleur materiel ont plus de chance de se laisser tenter par le marshmallow

Role de l’environement de l’enfant…

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Que se passe-t-il si le gain tout de suite est haut mais il y a un cout plus tard?

A

• Choix chez des gens au regime entre donut ou un yaourt… Taches:
- Evaluer la preference du sujet pour chacun des snacks consideres

  • Dans IRMf, sujets choisissent a chaque essai entre ‘healthy’ ou ‘non-healthy’ snack; a la fin, un snack parmi leur choix est tire au hasard et leur est donne.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Que se passe-t-il si le gain tout de suite est haut mais il y a un cout plus tard?

Résultats du IRMf, expérience des snacks

A
  • Activation dans le ventral medial PFC pour les differents snacks
  • Activite change en fonction de la preference exprimee par le sujet pour chaque snack avant la sceance d’imagerie cerebrale
  • Dans le dorsal lateral PFC, activite change en fonction du degree de control exerce pendant la tache
  • SC trial = self-control trial - essai ou le Ss choisit un ‘healthy’ snack alors qu’un snack ‘unhealthy’ que le sujet prefere est offert
  • Self-control group – individus avec un meilleur ‘self-control’ que ‘no self-control’ group base sur leur reponse a un questionnaire
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Résumé comment le cerveau représente la valeur de nos décision

A
  • Decision prise en fonction du choix qui maximize la valeur de la recompense recue
  • Valeur de la decision – OFC/VMPFC (surtout pour nourriture mais aussi argent – pas juste ‘reinforceur’ primaire).
  • Lateral PFC – applique un certain control etant donne la valeur de chaque choix
  • Note: neurophysiologie suggere pas de specialisation, mais fMRI suggere une certaine forme de specialisation – clairement meme si specialisation, plusieurs dimensions sont representees dans toutes ces aires.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Comment choisir quand la valeur n’est pas connue?

A
  • ‘Foraging’ – comment chercher de la nourriture?
  • Est-ce que je continue a exploiter cet endroit de foret ou est ce que je bouge vers des terres inconnues, mais peut-etre plus riches? -> La balance entre exploitation et exploration
  • Decision entre une option de valeur connue et une option de valeur inconnue… contrainte par le theoreme de la valeur marginale (Charnov):

Animaux exploitent leur environement jusqu’a ce que le taux de recompense qu’ils recoivent passe en dessous du taux moyen connu pour tous les environements visites jusqu’a maintenant

Vrai pour les humains, les singes et les vers de terre…

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Quelles sont les bases neuronales de ‘foraging’? Quelle est la valeur prise en compte pour la decision de partir vers un choix de valeur inconnue?

Une experience qui montre qu’il existe un seuil de depart dans le ACC (Anterior Cingulate Cortex – Cortex Anterieur Cingule)

A

Singe manifeste si il prefere rester (exploiter) ou partir (explorer) par la direction de la saccade qu’il execute

Stay/Rester condition – le delai est plus court entre chaque recompense, mais la valeur de la recompense diminue au cours du temps (comme quand on ceuille les fruits d’un arbre…) -> saccade vers le carre bleu

Leave/Partir condition – aucune recompense sur cet essai puis apres un delai variable, possibilite de plus grandes recompense (un nouvel arbre plein de fruits) -> saccade vers le rectangle gris

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Expérience singes stay or leave

Conditions expérimentales

A
Handling time delay (0.4sec vs 0.8sec)
Reward payoff (reduction de 0.02ml vs 0.04ml par essai)

-> plus de chances de partir quand delai (handling time delay = 0.8sec) est plus long et reward diminue plus vite (reduction of 0.04ml/essai)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Expérience singes stay or leave

Résultats

A

Neurones dans ACC dont le taux de decharge (nbre de potentiels d’action) signale le depart du « patch » ou comportement d’exploration

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Comment choisir quand la valeur n’est pas connue?

Résumé animaux et hommes

A

chez le singe et chez l’humain (fMRI): activation dans ACC pour exploration dans une foraging task

mais activation du VMPFC si la tache demande de decider entre 2 valeurs calculables (example des snacks) -> VMPCF represente les valeurs

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Pourquoi codent les neurones dopaminergiques?

A
  • Recompenses primaires (nourriture, sexe, soif) -> beaucoup des structures anciennes, sous-corticales codent pour la recompense
  • Deux centres sous-corticaux pour la dopamine:
    • Substantia Nigra (SN)
    • Ventral Tegmental Area (VTA) dans le mesencephale
  • Neurones dans ces nuclei sont DOPAMINERGIQUES – leur terminaisons nerveuses produisent et relachent de la dopamine dans l’espace synaptique
17
Q

Dopamine pathways II

A
18
Q

Dopamine pathways III

A
19
Q

Pourquoi codent les neurones Dopaminergiques?

• Experience de Olds et Milner, implant dans le “centre du plaisir”, hypothalamus lateral relie au systeme dopaminergique

A
  • La relache de la dopamine en soi ne procure pas de sensation de plaisir
  • Relache de dopamine a son maximum quand l’animal obtient une recompense auquel il ne s’attend pas
  • Neurones dopaminergiques dechargent quand une recompense est attendue
20
Q

Conditionnement classique - dans quelle aire corticale?

A

Singes sont entrainés a associer une lumiere (CS) avec l’obtention de jus de fruit (US) – entraine une reponse conditionee (CR) a la lumiere

Enregistrement dans le Ventral Tegmental Area (VTA)

21
Q

Résultats conditionnement classique Pavlov activité neurones dopaminergiques

A
22
Q

Evidence pour un signal sonore -

Quand la probabilité de récompense augmente

A
23
Q

Evidence pour un signal de prediction

quand le délai entre stimulus/CS et récompense augemente

A
24
Q

Pour quoi code les neurones Dopaminergiques?

Quand est-ce que la relâche de dopamine atteint son maximum?

A

Relache de dopamine a son maximum quand l’animal obtient une recompense auquel il ne s’attend pas:

– Neurones dopamine codent pour l’attente d’une recompense? PAS EXACTEMENT

– Neurones dopamine dechargent pour signaler l’attente d’une recompense mais encore plus important si il y a un mismatch entre la recompense attendue et la recompense obtenue – Codent pour l’erreur de prediction (Prediction Error – PE)

– Au cours du temps (meme singe, meme tache), activite signalant l’attente d’une recompense va disparaitre et seule PE reste….

– Theories computationelles qui montrent comment PE peut etre utile pour faire de l’apprentissage par renforcement

25
Q

Recompense et Punitions…..

A
  • Les neurones DA codent pour l’attente d’une recompense
  • Les neurones dans une structure du thalamus dorsal, l’habenula, sont actifs quand le choix est le plus defavorable
  • On voit le meme pattern chez l’humain mais la precision anatomique est moindre
26
Q

Experience de Lotterie chez l’Humain

A

4 lotteries differentes: analyse reponse quand lotterie est revelee, Participants apprennent les contingences au cours du temps… Eventuellement developent des predictions -> PE

27
Q

Activités cérébrales lotterie

A
28
Q

Pour quoi codent les neurones Dopaminergiques?

Une alternative à l’hypothèse que les neurones dopaminergiques via PE sont à la source de l’apprentissage

A

Decharge dopaminergique est le resultat de l’apprentissage (pas la cause) et signale l’importance de l’evenement/stimulus appris

– Souris qui ne peuvent pas synthétiser de la DA sont capables d’apprendre

– Souris genetiquement modifiees pour synthetiser plus de DA n’apprennent pas plus vite

– Quand on execute une action, la recompense qu’elle peut generer a trois composants: ‘wanting, learning and liking’. Neurones DA signalent le ‘wanting’

29
Q

Circuit de la DA

qu’est-ce qui cause l’inhibition / déinhibition du drive thalamique sur le cortex?

A

Inhibition of Gpi/SNr
Disinhibition du drive thalamique sur le cortex Promote the rewarded action

30
Q

Qu’est-ce qui est la preuve que la decharge dopaminergique est le resultat de l’apprentissage (pas la cause) et signal l’importance de l’evenement/stimulus appris?

A
  • Souris qui ne peuvent pas synthétiser de la DA sont capables d’apprendre
  • Souris génétiquement modifiées pour synthétiser plus de DA n’apprennent pas plus vite
  • Quand on execute une action, la récompense qu’elle peut générer à trois composants: ‘wanting, learning and liking’. Neurones DA signalent le ‘wanting’
  • Dissociation entre ‘wanting’ and ‘liking’: Patients en dépendance à la cocaïne chez qui on diminue le niveau de DA. Juge les indices reliés à la drogue comme ayant moins de valeur que dans leur état normal (wanting est diminue), mais évalue l’action de la drogue elle même comme tout aussi plaisante que quand leur état normal (liking reste le même).
31
Q

Quels sont les 2 population de neurones DA?

A
  • PE: réponse qui indique le mismatch entre prédiction et attente
  • Wanting: réponse qui indique la valeur/valence d’indices en remps que ‘wanting’
32
Q

Tâche qui montre représentation du but de plus en plus abstraite

Stimulus - carré de couleur (rouge ou bleu) avec une texture à l’intérieur

A

Quatre taches differentes:

  • Tache reponse: choix base sur la couleur du carre
  • Tache ‘feature/characteris4c’: juger la texture, de plus l’association entre texture et main de reponse etait variee en fonction de la couleur du carre
  • Tache ‘dimension’: La couleur indique la dimension a laquelle il faut repondre (forme ou taille). L’association forme/taille pour chaque main de reponse varie de plus en fonction de la couleur.
  • Tache ‘Contexte’: Meme que tache dimension sauf que le mapping de reponse change d’un bloc a l’autre.
33
Q

Résultats de la tâche de plus en plus compliquée

A

Representation du but de plus en plus abstraite dans le cortex prefrontal anterieur

34
Q

What is the other function of the prefrontal cortex?

A

Prefrontal cortex as a filtering mechanism in the retrieval and maintenance of task-relevant information