VL 3 _ Lernen 3 Flashcards

1
Q

Was ist operante Konditionierung?

A

Die operante Konditionierung (auch: instrumentelles Lernen) ist neben der
klassischen Konditionierung eine weitere Form des assoziativen Lernens
▪ „Operante Konditionierung“ & „instrumentelles Lernen“ werden häufig synonym verwendet
▪ Recap: Assoziatives Lernen bezieht sich allgemein darauf, dass ein neuer Bezug (eine
Assoziation) zwischen zwei oder mehr Elementen hergestellt wird, der vorher nicht bestand

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Warum heißt es „operante Konditionierung“?

A

Verhalten wirkt auf die Umwelt ein („behavior operates
on the environment“), im Unterschied zum „respondenten“ Verhalten bei der klassischen Kond.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Warum heißt es „instrumentelles Lernen“?

A

Der Organismus lernt, dass Ereignisse in der Umwelt
(Belohnungen & Bestrafungen) von der Ausführung seines eigenen Verhaltens abhängig sind;
Verhalten dient sozusagen als „Instrument“

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Verstärkung operante Konditionierung

A

Operantes Konditionieren verändert die Auftretenswahrscheinlichkeit des
operanten Verhaltens als Funktion seiner Konsequenzen

Verstärker (engl. reinforcer): Reiz oder Umstand, der die Auftretenswahrscheinlichkeit eines
Verhaltens erhöhen kann
▪ Positive Verstärkung: angenehmer Reiz (z.B. Futter, Wasser, Lob) wird dargeboten
▪ Negative Verstärkung: unangehmer Reiz (z.B. Lärm, Schmerz, Schimpfen) wird entfernt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Bestrafung operante Konditionierung

A

▪ Typ-1-Bestrafung: unangenehmer Reiz (z.B. Lärm, Schmerz, Schimpfen) wird dargeboten
▪ Typ-2-Bestrafung: angenehmer Reiz (z.B. Futter, Wasser, Lob) wird entfernt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Verstärkung und Bestrafung operante Konditionierung

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Paradigmen Beispiele

A

Grundsätzlich kommen alle Verhaltensweisen von Organismen für operante
Konditionierung in Frage
▪ Beispiel: Tierstudien zum Erwerb & Verlernen von Verhalten-Konsequenz-Assoziationen
▪ Paradigma: Hebeldrücken von Ratten in sog. Skinner-Box (Verstärkung, Bestrafung, Darbietung
von audiovisuellen Reizen als diskriminative Reize oder als sekundäre Verstärker)
Beispiel: Tier- & Humanstudien zum Erlernen von Reizdiskriminationen (z.B. Farbe, Form)
▪ Paradigmen: Scheibenpicken (Vögel) bzw. Reizauswahl per Touchscreen und am PC
Beispiel: Tierstudien zum räumlichen Lernen & Gedächtnis, i.d.R. mit Ratten & Mäusen
▪ Paradigmen: Gang-/Labyrinthlernen sowie das Morris Water Maze (Finden einer Plattform)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Primätre und sekundäre Verstärker

A

Man unterscheidet zwischen primären & sekundären Verstärkern
▪ Primäre Verstärker: von Natur aus bzw. angeborenermaßen wirksam (z.B. Essen, Trinken,
sozialer Kontakt, Schmerz)
▪ Sekundäre (konditionierte) Verstärker: gelernte Verstärker; sie erhalten ihre Wirkung durch
Assoziation mit primären Verstärkern (z.B. Lob ist assoziiert mit körperlicher Zuwendung)
▪ Neutrale Reize, die mit Verstärkern gepaart auftreten, werden zu sekundären Verstärkern
▪ Beispiel: Ratte drückt Hebel; Futter + grünes Licht erscheint; grünes Licht => sek. Verstärker
▪ Menschliches Verhalten wird durch Vielzahl sekundärer Verstärker beeinflusst (z.B. Geld, Lob)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was ist Token Economy? (operante Konditionierung)

A

Sekundäre Verstärker sind häufig wirksamer als primäre Verstärker (i.d.R
findet keine Übersättigung statt)
▪ Generalisierte konditionierte Verstärker: sekundäre Verstärker, die sich zur Kontrolle mehrerer
verschiedener Verhaltensweisen verwenden lassen
▪ Gutschein-Verstärkersysteme (engl. token economies) als Mittel zur Verhaltensmodifikation
beruhen auf dem Prinzip der generalisierten konditionierten Verstärker
▪ Token-Systeme sind auch bei manchen Tieren (z.B. anderen Primaten) erfolgreich anwendbar
▪ Psychotherapie/Psychiatrie: Erwünschte Verhaltensweisen (z.B. Medikamenteneinnahme,
Körperpflege) können mit Hilfe von einlösbaren Gutscheinen (engl. tokens) verstärkt werden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Effektivität der Verstärkung, Aspekte, Prinzip der Kontingenz

A

Grundsätzlich gilt: Ein Verhalten wird nur dann effektiv verstärkt, wenn der
Verstärker kontingent mit dem gewünschten Verhalten dargeboten wird
▪ Prinzip der Kontingenz: „Verstärker folgt unmittelbar & zuverlässig auf das gezeigte Verhalten“
(d.h. zufällige Verstärkungen reduzieren den Erfolg)
▪ Aber: Wie häufig und wie genau sollte man ein gewünschtes Verhalten belohnen?
▪ Ein sog. Verstärkerplan legt fest, nach welchen Kriterien eine Verstärkung erfolgt
▪ #1 Qualität: nur ein bestimmtes Verhalten wird verstärkt (z.B. vollständig ausgeführter Trick)
▪ #2 Quantität: Häufigkeit des Verhaltens beeinflusst Verstärkung (z.B. Trick 3x hintereinander)
▪ #3 Zeit: Zeitintervall, das mindestens vergehen muss, bis weiteres Verhalten verstärkt wird

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Verstärkerpläne 4 Arten

A

Verstärkerpläne bezeichnen ein Muster der Gabe von Verstärkern bei der
operanten Konditionierung (2x2=4 Verstärkerpläne haben charakteristischen Einfluss auf Verhaltensaufbau & -abbau)
▪ Einfachster Verstärkerplan: kontinuierliche Verstärkung
- Jedes gewünschte Verhalten wird verstärkt, wenn es auftritt (z.B. Ratte drückt Hebel)
- Lernanstieg erfolgt schnell; beim Ausbleiben der Verstärkung setzt sofort Extinktion ein
▪ Partielle/intermittierende Verstärkung: nicht jedes Verhalten wird verstärkt
- Langsamerer Lernanstieg
- Höhere Löschungsresistenz (bezeichnet man als partiellen Verstärkungseffekt)
▪ Quotenpläne (engl. ratio schedule)
- #1 feste Quote (fixed ratio): jedes n-te Verhalten
wird verstärkt (z.B. FQ-10)
- #2 variable Quote (variable ratio): im Durchschnitt
wird jedes n-te Verhalten verstärkt (z.B. VQ-5)
▪ Intervallpläne (engl. interval schedule)
- #3 festes Intervall (fixed interval): erste Reaktion
nach Ablauf des Intervall wird verstärkt (z.B. FI-30)
- #4 variables Intervall (variable interval):
durchschnittliche Dauer eines Intervalls (z.B. VI-20)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Intervallpläne Alltag Beispiele

A

Fester Intervallplan (FI): Bushaltestelle
▪ Verhalten: Ausschau halten nach dem Bus
▪ Verstärker: Bus biegt um die Ecke! Glücksgefühl!
▪ Beobachtung: Wenn ich den Bus gerade verpasst habe, schaue ich erst mal für ca. 10 Minuten auf
das Handy, dann erst schaue ich wieder nach dem Bus (sog. Start-Stopp-Charakteristik)
▪ Variabler Intervallplan (VI): Email-Postfach
▪ Verhalten: Nachschauen, ob man neue Emails hat (wenn man kein Tool zur Benachrichtigung nutzt)
▪ Verstärker: Neue Emails sind da! Glücksgefühl!
▪ Beobachtung: Im Durchschnitt erhalte ich ca. alle 5 Minuten neue Emails; als Ergebnis schaue ich
eigentlich ständig nach neuen Emails (d.h. konstante Reaktionshäufigkeit)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Diskriminative Reize

A

Nach B.F. Skinner steht das Verhalten unter sog. „Stimuluskontrolle“
▪ Diskriminative Reize (SD) zeigen an, wann es sich lohnt, ein Verhalten (R) zu zeigen
▪ Beispiel: grünes Licht leuchtet in den Durchgängen, in denen die Ratte in der Skinner-Box für
einen Hebeldruck belohnt wird; grünes Licht wird zum diskriminativen Stimulus (SD)
▪ Generalisation: Verhalten wird auch bei Anwesenheit von Stimuli gezeigt, die dem diskriminativen
Stimulus ähnlich sind (z.B. Ratte drückt den Hebel auch bei rotem Licht)
▪ Operantes Konditionieren beinhaltet drei Elemente: diskriminativer Stimulus (SD), Verhalten bzw.
Reaktion des Organismus (R), verstärkender Stimulus (SR)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Skinner‘sche Verhaltensformel:

A

Nach der klassischen Skinner‘schen Verhaltensformel (SD -> R -> SR) wird
Verhalten durch S-R-Assoziationen erklärt (Behaviorismus)
▪ Alternative Schreibweise der Skinner‘schen Verhaltensformel: S-R-C (C für Konsequenz)
▪ Kognitiv-emotionale Erweiterung der Verhaltensformel (Kanfer & Saslow, 1969): S-O-R-K-C
(O: Organismuskomponente; K: Kontingenzkomponente)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Arten der Verstärkung (operante Konditionierung)

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was ist Shaping? (operante Konditionierung)

A

Shaping (Verhaltensformung) bezeichnet die Veränderung des Verhaltens
durch stufenweise Annäherung an ein gewünschtes, neues Verhalten
▪ Verhaltensweisen werden verstärkt, die stufenweise in der gewünschten Richtung liegen
▪ Durch sukzessive Approximation können Tiere vollkommen Neuartiges erlernen (z.B. Tricks)

17
Q

was ist Chaining? (operante Konditionierung)

A

Chaining (Kettenkonditionierung) bezeichnet den Aufbau einer Verhaltenskette
▪ Man beginnt mit der operanten Konditionierung des letzten Glieds (z.B. Hebeldrücken => Futter)
▪ Letzte Situation wird zum konditionierten Verstärker für direkt vorangehendes Verhalten
▪ Prinzip: Jedes Glied der Kette wird zum diskriminativen Stimulus (SD) für nächste Reaktion (R)
und zugleich zum konditionierten Verstärker der unmittelbar vorausgegangenen Reaktion

Mechanismus: operante Konditionierung bzw. Skinner‘sche Verhaltensformel (SD -> R -> SR)
▪ Prinzip: Jedes Glied der Kette wird zum diskriminativen Stimulus (SD) für nächste Reaktion (R)
und zugleich zum konditionierten Verstärker der unmittelbar vorausgegangenen Reaktion
▪ Beispiel: Mäuse-Parkour mit drei Hindernissen bzw. Aufgaben (Wippe, Röhre, Rutsche)
▪ Hindernis #2: Röhre ist diskriminativer Stimulus (SD) & konditionierter Verstärker
▪ Diskriminativer Stimulus: „Jetzt lohnt es sich, durch die Röhre zu kriechen“
▪ Konditionierter Verstärker für Reaktion auf Hindernis #1 (Wippe), weil Röhre mit Verstärker
assoziiert ist – wenn auch indirekt (aber die Verstärkung am Ende der Kette wird antizipiert)

18
Q

Flucht & Vermeidung (operante konditionierung)

A

Flucht- und Vermeidungslernen folgen den Prinzipien der operanten
Konditionierung bzw. des instrumentellen Lernens
▪ Flucht: aversiver Reiz (z.B. Elektroschock in Shuttle Box) wird durch Verhalten beendet
▪ Vermeidung: Kontakt mit aversivem Reiz wird durch Verhalten vermieden (z.B. bei Warnsignal)
▪ Vermeidungsverhalten ist i.d.R. sehr stabil und löschungsresistent
▪ M. Seligmans Experimente zur „gelernten Hilflosigkeit“ (engl. learned helplessness)
▪ Hunde wurden zunächst unkontrollierbaren (inkontingenten) Elektroschocks ausgesetzt
▪ Hunde verhielten sich danach in Shuttle Box passiv, zeigten kein Flucht-/Vermeidungsverhalten
▪ Hypothese: Unkontrollierbare aversive Ereignisse führen zu gelernter Hilflosigkeit

19
Q

Was bedeutet Verhaltensreduktion bei der operanten Konditionierung?

A

Verhaltensreduktion folgt den Prinzipien der operanten Konditionierung
bzw. des instrumentellen Lernens
▪ #1 Löschung: Beseitigen der Kontingenz zwischen einem Verhalten & dem Verstärker
▪ #2 Differentielle Verstärkung alternativen und ggf. inkompatiblen Verhaltens
▪ #3 Sättigung des Verstärkers, wodurch der Wert des Verstärkers herabgesetzt wird
▪ #4 Bestrafung; folgt i.d.R. ähnlichen Gesetzmäßigkeiten wie die Verstärkung:
▪ Bestrafung ist umso effektiver, je intensiver der Bestrafungsreiz ist
▪ Unmittelbare Bestrafung ist effektiver als zeitverzögerte Bestrafung
▪ Kontinuierliche Bestrafung führt zu schnellerer Verhaltensreduktion als intermittierende Bestrafung
▪ Wird ein Quotenplan verwendet, so führt geringere Quote zu einer effektiveren Verhaltensreduktion

20
Q

Was ist latentes Lernen? (operante Konditionierung)

A

Latentes Lernen zeigt, dass Lernen auch ohne Verstärkung stattfinden kann
▪ Effektgesetz: Verstärkung des Verhaltens bzw. Konsequenz ist notwendig für das Lernen
▪ Latentes Lernen bezeichnet Lernen, das zunächst nicht gezeigt wird, aber demonstriert wird
und sichtbar werden kann, sobald dafür eine Verstärkung erfolgt (Kompetenz vs. Performanz)
▪ Beispiel: Labyrinth-Experiment zum latenten Lernen bei Ratten (Tolman, 1932)

21
Q

Was beschreibt das Premack-Prinzip?

A

Nicht nur externe Reize, sondern auch eigene Aktivitäten des Lernenden
können als Verstärker eingesetzt und verwendet werden
▪ Premack-Prinzip: Jede bevorzugte Aktivität, die relativ häufig ausgeführt wird, kann als
Verstärker dienen für eine weniger bevorzugte Aktivität, die relativ selten ausgeführt wird
▪ Im Gegensatz zur Skinner‘schen Verhaltensformel also keine eindeutige Unterscheidung
zwischen Verhalten & verstärkenden Reizen (≠ „Verhalten steht unter Stimuluskontrolle“)

22
Q

Was bezeichnet Biofeedback? (operante Konditionierung)

A

Nach dem Prinzip der operanten Konditionierung können mit Hilfe von
Biofeedback „automatische“ Körpervorgänge gezielt beeinflusst werden
▪ Unbewusst ablaufende physiologische Prozesse (z.B. Regulation des Blutdrucks) werden
durch audiovisuelles Feedback wahrnehmbar gemacht; gewünschte Änderung = Verstärker
▪ Durch Verstärkung kann die willentliche Kontrolle physiologischer Prozesse erlernt werden
▪ Anwendung: chronische Schmerzen, Bluthochdruck, Schlafstörungen, Muskelverspannungen

23
Q

Was ist Imitationslernen? (operante Konditionierung)

A

Als Imitationslernen bezeichnet man die Übernahme neuer Verhaltensweisen
aufgrund der Beobachtung fremden Verhaltens oder Lernens
▪ Oft synonym: Beobachtungslernen, Modelllernen, soziales Lernen, Lernen durch Nachahmung
▪ Tritt in Situationen auf, in welchen nach klassischen Lerntheorien kein Lernen zu erwarten ist
▪ Annahme: Das „Modell“ wird stellvertretend für die Lernenden belohnt bzw. konditioniert
▪ Imitationslernen ermöglicht komplexe soziale Lernprozesse

24
Q

Fragen zur Selbstüberprüfung (VL3 / operante Konditionierung)

A

Erklären Sie kurz den Unterschied zwischen primären und sekundären
Verstärkern. Nennen Sie je ein Beispiel.
▪ Was versteht man unter positiver & negativer Verstärkung?
▪ Eine Taube wird trainiert auf einen roten Punkt zu picken. Dabei wird sie jedes
Mal belohnt, wenn sie 5x den roten Punkt getroffen hat. Nach welchem
Verstärkerplan wurde hier trainiert?
▪ „Verstärkung ist notwendig für das Lernen“. Stimmen Sie dieser Aussage zu?
Begründen Sie ihre Antwort.
▪ Was besagt das Premack-Prinzip?
▪ Was meint Seligman mit „gelernter Hilflosigkeit“?
▪ Wie sollte Bestrafung erfolgen, um so effektiv wie möglich zu sein?