VL4: Operantes Lernen: Verstärkung Flashcards

1
Q

Law of Effect (Gesetz des Effekts, Thorndike, 1911)

A

Verhaltensweisen in einer bestimmten Situation, werden, sofern auf diese Befriedigung folgt, eher mit Merkmalen der Situatiom verknüpft, sodass, wenn sie Situation wieder auftaucht, diese Verhaltensweisen wieder auftauchen
->je größer die Befriedigung, desto ausgeprägter ist der Zusammenhang zwischen Verhaltensweisen und der Situation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Thorndikes Problemlösekäfig

A
  • spez. Türmechanismus, um diese zu öffnen
  • außerhalb der Käfigs Nahrung
  • im Käfig Katzen
  • Katzen müssen Käfig öffnen, um an Nahrung zu gelangen

Beobachtung: -zuerst unzielstrebiges Verhalten, nach 5-10 Minuten zufällig richtige Reaktiom
-nächste Durchgänge: zunächst wieder unzielstrebig, aber richtige Reaktion zunehmend schneller

Thorndikes Fazit: -offenbar kein rationales Verständnis der Situation
-Nahrung führt zu wachsender Assoziation zwischen Merkmalen des Käfigs und der richtigen Reaktion

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Verstärker

A

Ereignis, welches auf ein Verhalten folgt und dessen Auftretenswahrscheinlichkeit erhöht

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Unterscheidung klassische und operante Konditionierung

A

Klassisch: Folgt ein wichtiges Ereignis auf einen Reiz, löst der Reiz allein irgendwann die Reaktion aus, die normalerweise auf das Ereignis folgen würde

Operant: Folgt ein wichtiges Ereignis auf ein bestimmtes Verhalten, ändert sich die Wahrscheinlichkeit des Verhaltens

  • > pos. Ereignis führt zu Verstärkung
  • > neg. Ereignis führt zu Bestrafung
  • wenig Generalisierbarkeit
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Primäre Verstärker

A
  • angeboren
  • dienen dem Überleben: Nahrung, Wasser, sexuelle Befriedigung
  • aber auch “sensory reinforcers”: Präferenz, dass unsere Umwelt nicht langweilig ist, Anziehungskraft neuer unbekannter Dinge
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Sekundäre Verstärker

A
  • erlernt, sogenannte konditionierte Verstärker
  • zB Geld (erlernt als Zugang zu primären Verstärkern)
  • nicht weniger wirksam als primäre Verstärker
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Soziale Verstärker

A
  • Mischform aus primären und sekundären Verstärkern
  • entstehen aus sozialem Kontext
  • zB Lob, Zuneigung, Anerkennung
  • können sehr mächtig/wirksam sein
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Positive Verstärker

A

Einsatz dieser erhöht die Verhaltenswahrscheinlichkeit (Nahrung, Geld)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Negative Verstärker

A

Entfernen dieser erhöht die Verhaltenswahrscheinlichkeit (Schmerz, negative Emotionen)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Skinner Box (nach Burrhus Frederic Skinner)

A

Weiterentwicklung von Thorndikes Käfig

  • Knopf, der, wenn ausgelöst, Futter gibt
  • gemessen wird Reaktionshäufigkeit
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Operante Konditionierung/instrumentelle Konditionierung

A

Wenn Lebewesen in bestimmter Art und Weise operieren, also auf die Umwelt einwirken, und dafür belohnt/bestraft werden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Kontiguität bei operanter Konditionierung?

A
  • bei Tieren vorhanden (je mehr Zeit vergeht, desto mehr mögliches Verhalten, das zum Verstärker führt)
  • bei Menschen bedingt:
  • -viel Gegenevidenz: Lernen-Noten, Anstrengung-Bezahlung
  • ->möglich durch: Sprache und Kommunikation (Ersatz für Kontiguität; überbrücken Mangel)
  • -aber für komplexes Verhalten (zB motorisch) ist zeitnahes Feedback essenziell (siehe Sport)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Verstärkerpläne

A
  • Zufallsbefund durch Skinner, weil Futter ausgegangen ist in Skinner Box
  • Verringerung der Futtergabe
  • Futter entweder durch zeitlichen Abstand (Intervallplan) oder nach gewisser Anzahl von Reaktionen (Quotenplan)
  • insgesamter Befund: operante Konditionierung kann kontinuierlich (jede Reaktion führt zur Verstärkung) oder intermittierend (partielle Verstärkung; Intervallplan, Quotenplan) sein
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Löschungsresistenz

A
  • Lewis und Duncan (1956): partial reinforcement effect
  • Verhalten ist deutlich resistenter gegen Löschung des Verhaltens (also bei Abwesenheit des Verstärkers), wenn der Verstärker ohnehin weniger oft auf das Verhalten folgte
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Token Economy

A

Praktisches Anwendungsbeispiel von Verstärkung

  • statt sozialer Verstärker wie Lob einfach sekundäre Verstärker (Punktesystem)
  • ->erfolgreich eingesetzt
  • ->aber Problem der Aufrechterhaltung in bestimmten Situationen wegen begrenzter Generalisierbarkeit ->notwendig: irgendwann müssen die sekundären durch primäre Verstärker ersetzt werden
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Wie sekundär zu primär ?

A
  • Verstärkung in diversen Situationen

- dann Fading (nach und nach Verstärkung ausblenden)

17
Q

Bedenken der Verstärkung und Gegenargumente

A
  • Bedenken meistens durch Eltern und Lehrer: Verstärker als “Bestechung”, Untergrabung intrinsischer Motivation
  • Gegenargument: Verstärkung nicht zu vermeiden ->also Verstärkung lieber systematisch anwenden, um potenziell größere Probleme zu verhindern + Verstärker bei intrinsischer Motivation sowieso kontraproduktiv!
18
Q

Wesentliche Bedingungen für Verstärkung/Empfehlungen

A
  • Verstärken, wenn Verhalten wenig intrinsischen Anreiz bietet
  • “principle of minimal force”:kleinstmöglicher Verstärker, graduell erhöhen
  • Ziel-Autonomie: Selber Verhaltensziel festlegen lassen -> führt zu mehr Stolz (Verstärker)
  • eher soziale Verstärker als materielle
  • Lob als Kompetenz-, nicht als Compliance-Zeugnis