Cours 11 - Modèles connexionnistes Flashcards

1
Q

Origine

Selon Aristote:

384-322 JC

A
  • Connaissance = association entre perceptions
  • Complexification = réseaux associations
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Origine

Turing propose quoi?

A

Machine universelle = réseaux unités traitement inspiré par neurones

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Origine

Les opérations logique simples de Turing forment quoi?

A

Substrat cognition et peuvent être réalisés en format neuronal

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Origine

Connexionnisme dans les années 1950:

A
  • Tout expliquer par cognition (arrogance)
  • Pas outils maths pour apprendre problème non-linéaires
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Origine

Connexionnisme années 1970:

A
  • Travaux concentrés sur perception & mémorisation
  • Pionnier: Anderson, Kohonen, Rumelhart
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Origine

Quand le connexionnisme revient en force?

A

1986 = Publication Parallel Distributed Processing
* variété architecture
* règles apprentissages complexes
* cadre théorique général

Impact publication = changement psycho

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Origine

Connexionnisme après 1986:

A
  • Présent congrès, départements
  • Considéré comme changement paradigme
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Origine

Validation du connexionnisme:

A
  • Culturelle (ex: film)
  • De masse –> technologies
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Réseaux neurones

C’est quoi un réseaux?

A

= unités simples branchées entre elles

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Réseaux neurones

Propriétés réseaux:

A
  1. Traitement info parallèle & distribué = fonctionne mieux
  2. Apprentissage continu & adaptation env = entrainement & règles
  3. Tolérance bruit = perte connexions/unité mais fct toujours
  4. Plausibilité biologique = compatible avec cerveau
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Réseaux neurones

Élément des réseaux:

A
  1. Unité
  2. Connexion
  3. Topologie = organisation connexion
  4. Règles apprentissages
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Réseaux neurones

Est-ce que les règles sont obligatoires?

A

Non –> optionnelles

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Réseaux neurones

Unité:

A
  • Intégration linéaire = neurone idéalisé
  • Fonction sigmoïde/logistique
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Réseaux neurones

Étapes unité:

A
  1. Sommation intrants = somme input
  2. Activation = f(x)
  3. Propagation
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Réseaux neurones

Connexion:

A
  • Élément nécessaire
  • Multiplicateur activation = stimuler ou inhiber
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Réseaux neurones

2 aspects importants connexion:

A
  1. Direction = uni/ bidirectionnel
  2. Valence = positif/négatif
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Réseaux neurones

Organisation de base des connexions:

A

Unité branchées entre elles et se stimulent
* Intrant net = net(𝒾) = ∑w(𝒾𝒿j)a(𝒿)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Réseaux neurones

Topologies:

A
  • Auto-association = traitement image
  • Satisfaction contraintes (Hopfield)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Réseaux neurones

C’est quoi perceptron?

A

Machine capable représenter combinaison linéraire
* Matrice connexion
* Réseaux multi –> unité cachée
* Cascade-corrélation = générative

19
Q

Règles apprentissage

Buts des règles:

A

Changer valeur des connexions = améliorer performance réseau
* Calcul règle Δω

20
Q

Règles apprentissage

Loi Hebb:

A

= deux neurones renforce connexion
* Δω=𝛌a₁a₂
* Avantage: plausibilité (renforcer)
* Désavantage: limitée (pas apprendre plus)

21
Q

Règles apprentissage

Règle delta

Widrow-Hoff

A
  • Modification Hebb
  • Apprentissage cible
  • Δω=𝛌(c-a₁)a₂
  • Avantage: plausibilité
  • Désavantage: limitée
22
Q

Applications et utilité

Pourquoi simuler processus psycho avec réseaux?

A
  • Rigueur & précision
  • Cadre théorique = général
  • Comparaison modèles
  • Prédictions
  • Consédiration éthique & pratiques
23
Q

Applications et utilité

Applications industrielle:

A
  • Analyse et exploration données
  • Perception (ex: poste, empreintes, reconnaissance voix)
24
Q

Applications et utilité

En psychologie:

A
  • Perception (modèle vision, audio)
  • Mémoire = modèles MCT, MLT
  • Catégorisation
  • Langage
  • Cognition haut niveau (analogie, raisonnement)
  • Apprentissage & dev
25
Q

Applications et utilité

Avantages comparé IA:

A
  • Vrai apprentissage
  • Robuste
  • Rapide
  • Système compact
  • Perception
  • Indépendant données
  • Plausibilité

Inspiré par cerveau vs IA

26
Q

Applications et utilité

Désavantages comparé à IA:

A
  • Représentation implicites
  • Langage
  • Tâche sérielle
27
Q

Cognition chez bébé

Difficulté étude bébé:

A
  • Langage & compréhension
28
Q

Cognition chez bébé

Inférences des représentations cognitives:

A
  • Mm niveau attention = pareil
  • Nouveauté = regain attention
29
Q

Cognition chez bébé

C’est quoi Violation des Attentes (VdA)

A

= variante métho habituation pour étudier capacités cognitives complexes
* Niveau base intéret & montrer éléments viole concept étude
* Bébé regarder + longtemps violations = aiment nouveauté conceptuelle

30
Q

Cognition chez bébé

Problème découverte habileté complexes chez bébé:

A

ex: permanence, physique, langage, nb, causalité, cognition sociale

31
Q

Cognition chez bébé

Problème général:

A

Explication plus simples empêche pas réalité compliquée
* Besoin autres critères pour VdA = peu progrès compréhension bébé

32
Q

Cognition chez bébé

Contreverse courante:

A

Connaissance innée vs processus perceptuel, métho, disparition connaissances

33
Q

Cognition chez bébé

Comportements à reproduire avec Modèle habituation HAB:

A
  • Traitement temporel
  • Diminution exponentielle
  • Préférence familiarité vs nouveauté
  • Habituation de déshabituation
  • Discriminer items
34
Q

Cognition chez bébé

Systèmes neuronaux modèle HAB:

A
  • Hippocampe (novelty) = inhibition sélective stimuli familiers
  • Sous-corticales-cortical (Cortical) = souvenirs MCT-MLT
35
Q

Situer le modèle

Situation:

on s’en fou

A

Début: regarder choses prévisibles
Résultat: avec apprentissage moteur

36
Q

Situer le modèle

Détails de la simulation:

A
  • 10 robots 2 conditions
  • Montrer paires stimuli
  • Robots 10 réponses motrices
  • Mesure orientation stimulus nouveau vs familier
37
Q

Situer le modèle

Résultats robots matures vs immature:

A
  • HAB explique mieux données qu’autres modèle habituation
  • Contrôle moteur Hebb améliore performance (complexe, actif)
  • Maturation –> immature
38
Q

Validation HAB

Prédiction:

A

= 1st regard amorce préférence nouveauté (priming)

39
Q

Validation HAB

Procédure:

A

Bébé 20 paires stimuli 10s
* + long deuxième regard nouveau si regardé familier en premier

40
Q

Validation HAB

Résultat:

A
  • Prédiction neurocomputationnelle vérifiée 5 mois = priming
  • Disparition 6 mois
  • Pas première validation HAB
  • Ils ont volé la gloire de Sylvain en stoemelings
41
Q

Données VdA récentes

Quelle crise arrive en psycho?

A

Crise réplicabilité étude aussi sur dev
* Réplicabilité explique pas effets observés

42
Q

Données VdA récentes

Récentes VdA:

A

Bébé apprendre régularité sans comprendre?

Passe étude Sylvain pcq c’est trop

43
Q

Pupillométrie

Conclusion:

A
  • Bébé surpris pas évènement possible
  • Surprise modulée par caractéristique perceptuelle familières
44
Q

Conclusion

ADN:

A

Générer plus connexions que requis
* Biais innée PAS connaissance innées
* ex: faux cpt sociaux

45
Q

Conclusion

Mettre accent sur quoi?

A

Mécanisme & processus vs innés/acquis

Super