cognition bayésienne Flashcards Preview

M2 - psychophysique > cognition bayésienne > Flashcards

Flashcards in cognition bayésienne Deck (18):
1

4 saveurs de l'IA

construire système qui raisonnent/agissent rationnellement/comme humains

2

prolog?

langage de programmation logique
2 parties : donner connaissances spécifiques à machine (base de faits) + connaissances générales (base de règles) puis qu° et inférence logique (teste preuves)

3

≠ entre échec et foot?

monde des échecs => descrip° totale du système possible ≠ foot => besoin d’1 quantité infinie d’info° pr décrire monde symbolique vs monde réel

4

modèle bayésien : def

=> transforme le modèle d’incomplétude en incertitude quantifiée et traité mathématiquement – pt ê vu comme extension de la logique

5

2 types de raisonnement

raisonnement humain (modus ponens/tollens) ≠
raisonnement plausible (s’il pleut Jean a son parapluie…)

6

2 manières de présenter proba

* fréquentistes (stat classique ac pop parente
* subjectives (proba conditionnelle ; décrit état de connaissance d’1 S)

7

règles de calcul

en lien avec théorème de Cocks
* règle de somme (somme des proba = 1 )
*règle de produit P (A B) = P(A) P (B|A) = P(B) P (A|B)

8

principe de l'inférence probabiliste

si on connaît la distrib° conjointe alors on peut « calculer » n’importe quelle question

9

différents types de distribution

uniforme = incertitude max
dirac = modèle parfait, masse des proba en 1 seul pt
intermédiaire = probabilitse, ac un peu d’incertitude

10

programme bayésien

- description =>
* spécification = apporte connaissances préliminaires sur la forme d’une distrib° probabiliste conjointe ac des paramètres libres
=> 1/ lister variables
2/ décompostion de la distrib° conjointe en produit de distrib° simple
3/ formes paramétriques (choisir f° math pr chacune des distrib°)
* identifica° = apporte des données d’apprentissage et un processus d’apprentissage pr établir les valeurs des paramètres

- questions

11

Exemple avec 2 variables à 2 modlaités

=> distribu° conjointe a 4 cases (et somme à 1 sur les 4 cases)
P(B|A) => conjonction de 2 distrib° (somme à 1 en colonne) ≠ P (A|B) (somme à 1 en ligne)
distribu° conjointe et marginalisa° => je recalcule mon prior en additionnant les lignes ou colonnes (si on marginalise sur B, on obtient P (A) )
si support c’est nbre réel => on pt mettre gaussienne ( gaussienne => intégrale doit sommer à 1) (si tps peu élevé et gde variance → comme si TR négatif => impossible => log) distrib° béta → ressemble à Gaussienne entre 0 et 1

on fait de la perception un modèle d’inversion => ce que fait le th de Bayes

12

app bayesien chez enfant?
Tversky et Kahneman?

apprentissage bayésien chez enfant => à 8 mois, surprise sur evt inattendu => hyp : lié à méca stat de bas nivx sur couleur moyenne des boules

sagesse des foules

Tversky et Kahneman => ac système cogn et langagier, ss-estima° des proba fortes et sur estimation des proba faibles

13

inférence bayésienne

H1/ mauvaise représenta° des extrêmes
H2/ cogn° consciente (inf bayésienne approximée) ≠ cogn périph (inf bay exacte)
H3/ internalisa° des données

14

description ernst et banks

Cas de fusion visuo-haptique => cas multimodal => hyp d’indépendance
modèle qui combine info° de manière statistiquement optimale

protocole :
présentation d’une image en relief (nuage de points) ac lunettes 3D (projetée ac miroir) .
Si on secoue points en profondeur, on dégrade le visuel
+ objet en dessous ac bras robot à retour d’effort => colocalisation des 2 objets
1 nivx de bruit haptique 4 nivx de bruit visu 1 s de présentation tâche de choix forcé (barre la plus grande)

15

cas mono-modal ernst et banks

S voit ou touche barre. Stim standard = 55 cm stim de comparaison = entre 47 et 63 cm n= 4 1000 essais
PSE = je réponds comme si les 2 objets avaient la m taille JND = différence juste remarquable = entre 50 % et 82 % => si petit = bon capteur (car pente élevée)
de 0 à 67 % de nivx de bruit => pas affecté à 133 % => visu= haptique à 200 % => pente faible, presque droite, dc m qd objet très ≠, difficile de voir ≠

16

cas multimodal

2 barres composées chacune d’1 taille visu et d’une taille haptique
stim standard = 2 barres, 1 ac taille visu Sv et 1 ac taille haptique Sh ISh-SvI = 0, 3 ou 6 et (Sh+Sv)/2 = 55 => barre chimérique (ensuite on normalise les données pr faire comme si barre était fixe ac Sv tjrs + grand)
stim de comparaison = 2 barres ac taille =, variable entre 47 et 63 cm
en cond° standard => PSE qd stim de comparaison est à 58 mm => la combinée se rapproche du visuel à 67 % de bruit => PSE quasi idem

17

modèle bayésien de fusion capteur pour expliquer données

1 prior uniforme puis 2 modèles prédictifs gaussiens. Modèle de fusion capteur où on mélange 2 Gaussiennes pr estimer taille de l’objet

ac ce modèle, on peut estimer X (hauteur de la barre) en sachant Sh et Sv => produit de 2 gaussiennes ( = 1 gaussienne)

- estimé est de variance + petite que celles des capteurs (capteur visuo-haptique + précis => effet surpa-additif)
- l’info° combinée est un intermédiaire/compromis entre les 2 ms le capteur le + précis attire le mélange => équation indique qu’il faut pondérer capteurs en f° précision apportée

18

comparaison du modèle aux données

comparaison de 2 gaussiennes => courbes de catégorisation => inversion = courbe sigmoide
donc le JND est lié à la variance des 2 Gaussiennes qu’on compare.
Qd on mesure JND ds conditions mono-modales, on pt remonter aux paramètres (variance) des Gaussiennes qui ont généré cette comparaison => jeu de données permet de calibrer le modèle => muni des paramètres des variances en cond° monomodales, on pt faire tourner le modèle de fusion capteur pour prédire comment la variance va se combienr dans les condition mutimodale

EN résumé : modèle prédit… on inverse (comparaison de 2 gaussiennes), on multiplie et si on fait hyp que 2 gaussiennes se mélangent, le facteur de pondération découle des 2 variances des capteurs.