Cours 11 - Modèles connexionnistes Flashcards

(46 cards)

1
Q

Origine

Selon Aristote:

384-322 JC

A
  • Connaissance = association entre perceptions
  • Complexification = réseaux associations
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Origine

Turing propose quoi?

A

Machine universelle = réseaux unités traitement inspiré par neurones

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Origine

Les opérations logique simples de Turing forment quoi?

A

Substrat cognition et peuvent être réalisés en format neuronal

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Origine

Connexionnisme dans les années 1950:

A
  • Tout expliquer par cognition (arrogance)
  • Pas outils maths pour apprendre problème non-linéaires
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Origine

Connexionnisme années 1970:

A
  • Travaux concentrés sur perception & mémorisation
  • Pionnier: Anderson, Kohonen, Rumelhart
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Origine

Quand le connexionnisme revient en force?

A

1986 = Publication Parallel Distributed Processing
* variété architecture
* règles apprentissages complexes
* cadre théorique général

Impact publication = changement psycho

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Origine

Connexionnisme après 1986:

A
  • Présent congrès, départements
  • Considéré comme changement paradigme
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Origine

Validation du connexionnisme:

A
  • Culturelle (ex: film)
  • De masse –> technologies
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Réseaux neurones

C’est quoi un réseaux?

A

= unités simples branchées entre elles

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Réseaux neurones

Propriétés réseaux:

A
  1. Traitement info parallèle & distribué = fonctionne mieux
  2. Apprentissage continu & adaptation env = entrainement & règles
  3. Tolérance bruit = perte connexions/unité mais fct toujours
  4. Plausibilité biologique = compatible avec cerveau
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Réseaux neurones

Élément des réseaux:

A
  1. Unité
  2. Connexion
  3. Topologie = organisation connexion
  4. Règles apprentissages
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Réseaux neurones

Est-ce que les règles sont obligatoires?

A

Non –> optionnelles

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Réseaux neurones

Unité:

A
  • Intégration linéaire = neurone idéalisé
  • Fonction sigmoïde/logistique
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Réseaux neurones

Étapes unité:

A
  1. Sommation intrants = somme input
  2. Activation = f(x)
  3. Propagation
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Réseaux neurones

Connexion:

A
  • Élément nécessaire
  • Multiplicateur activation = stimuler ou inhiber
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Réseaux neurones

2 aspects importants connexion:

A
  1. Direction = uni/ bidirectionnel
  2. Valence = positif/négatif
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Réseaux neurones

Organisation de base des connexions:

A

Unité branchées entre elles et se stimulent
* Intrant net = net(𝒾) = ∑w(𝒾𝒿j)a(𝒿)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Réseaux neurones

Topologies:

A
  • Auto-association = traitement image
  • Satisfaction contraintes (Hopfield)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Réseaux neurones

C’est quoi perceptron?

A

Machine capable représenter combinaison linéraire
* Matrice connexion
* Réseaux multi –> unité cachée
* Cascade-corrélation = générative

19
Q

Règles apprentissage

Buts des règles:

A

Changer valeur des connexions = améliorer performance réseau
* Calcul règle Δω

20
Q

Règles apprentissage

Loi Hebb:

A

= deux neurones renforce connexion
* Δω=𝛌a₁a₂
* Avantage: plausibilité (renforcer)
* Désavantage: limitée (pas apprendre plus)

21
Q

Règles apprentissage

Règle delta

Widrow-Hoff

A
  • Modification Hebb
  • Apprentissage cible
  • Δω=𝛌(c-a₁)a₂
  • Avantage: plausibilité
  • Désavantage: limitée
22
Q

Applications et utilité

Pourquoi simuler processus psycho avec réseaux?

A
  • Rigueur & précision
  • Cadre théorique = général
  • Comparaison modèles
  • Prédictions
  • Consédiration éthique & pratiques
23
Q

Applications et utilité

Applications industrielle:

A
  • Analyse et exploration données
  • Perception (ex: poste, empreintes, reconnaissance voix)
24
# Applications et utilité En psychologie:
* Perception (modèle vision, audio) * Mémoire = modèles MCT, MLT * Catégorisation * Langage * Cognition haut niveau (analogie, raisonnement) * Apprentissage & dev
25
# Applications et utilité Avantages comparé IA:
* Vrai apprentissage * Robuste * Rapide * Système compact * Perception * Indépendant données * Plausibilité | Inspiré par cerveau vs IA
26
# Applications et utilité Désavantages comparé à IA:
* Représentation implicites * Langage * Tâche sérielle
27
# Cognition chez bébé Difficulté étude bébé:
* Langage & compréhension
28
# Cognition chez bébé Inférences des représentations cognitives:
* Mm niveau attention = pareil * Nouveauté = regain attention
29
# Cognition chez bébé C'est quoi Violation des Attentes (VdA)
= variante métho habituation pour étudier capacités cognitives complexes * Niveau base intéret & montrer éléments viole concept étude * Bébé regarder + longtemps violations = aiment nouveauté conceptuelle
30
# Cognition chez bébé Problème découverte habileté complexes chez bébé:
ex: permanence, physique, langage, nb, causalité, cognition sociale
31
# Cognition chez bébé Problème général:
Explication plus simples empêche pas réalité compliquée * Besoin autres critères pour VdA = peu progrès compréhension bébé
32
# Cognition chez bébé Contreverse courante:
Connaissance innée vs processus perceptuel, métho, disparition connaissances
33
# Cognition chez bébé Comportements à reproduire avec Modèle habituation HAB:
* Traitement temporel * Diminution exponentielle * Préférence familiarité vs nouveauté * Habituation de déshabituation * Discriminer items
34
# Cognition chez bébé Systèmes neuronaux modèle HAB:
* Hippocampe (novelty) = inhibition sélective stimuli familiers * Sous-corticales-cortical (Cortical) = souvenirs MCT-MLT
35
# Situer le modèle Situation: | on s'en fou
Début: regarder choses prévisibles Résultat: avec apprentissage moteur
36
# Situer le modèle Détails de la simulation:
* 10 robots 2 conditions * Montrer paires stimuli * Robots 10 réponses motrices * Mesure orientation stimulus nouveau vs familier
37
# Situer le modèle Résultats robots matures vs immature:
* HAB explique mieux données qu'autres modèle habituation * Contrôle moteur Hebb améliore performance (complexe, actif) * Maturation --> immature
38
# Validation HAB Prédiction:
= 1st regard amorce préférence nouveauté (priming)
39
# Validation HAB Procédure:
Bébé 20 paires stimuli 10s * + long deuxième regard nouveau si regardé familier en premier
40
# Validation HAB Résultat:
* Prédiction neurocomputationnelle vérifiée 5 mois = priming * Disparition 6 mois * Pas première validation HAB * Ils ont volé la gloire de Sylvain en stoemelings
41
# Données VdA récentes Quelle crise arrive en psycho?
Crise réplicabilité étude aussi sur dev * Réplicabilité explique pas effets observés
42
# Données VdA récentes Récentes VdA:
Bébé apprendre régularité sans comprendre? ## Footnote Passe étude Sylvain pcq c'est trop
43
# Pupillométrie Conclusion:
* Bébé surpris pas évènement possible * Surprise modulée par caractéristique perceptuelle familières
44
# Conclusion ADN:
Générer plus connexions que requis * Biais innée PAS connaissance innées * ex: faux cpt sociaux
45
# Conclusion Mettre accent sur quoi?
Mécanisme & processus vs innés/acquis | Super