|
|
Skinner Box

Stell Dir vor, Du bist in einem leeren Raum. An der Wand befindet sich nur ein Hebel, den Du betätigen könntest. Möglicherweise wirst Du dafür sogar belohnt. Was tust Du? Vor diese Wahl wurden auch Tiere in der sogenannten Skinner Box gestellt, einem berühmten psychologischen Experiment, das operante Konditionierung untersucht.

Mockup Schule

Entdecke über 50 Millionen kostenlose Lernmaterialien in unserer App.

Skinner Box

Illustration

Lerne mit deinen Freunden und bleibe auf dem richtigen Kurs mit deinen persönlichen Lernstatistiken

Jetzt kostenlos anmelden

Nie wieder prokastinieren mit unseren Lernerinnerungen.

Jetzt kostenlos anmelden
Illustration

Stell Dir vor, Du bist in einem leeren Raum. An der Wand befindet sich nur ein Hebel, den Du betätigen könntest. Möglicherweise wirst Du dafür sogar belohnt. Was tust Du? Vor diese Wahl wurden auch Tiere in der sogenannten Skinner Box gestellt, einem berühmten psychologischen Experiment, das operante Konditionierung untersucht.

Diese Erklärung stellt operante Konditionierung bei Tieren, wie sie mithilfe der Skinner Box erforscht wurde, in den Fokus. Wenn Du noch mehr zu operanter Konditionierung beim Menschen und in der Erziehung erfahren willst, schau bei der entsprechenden Erklärung im Fach Psychologie vorbei.

Skinner Box – operante Konditionierung

Was ist eigentlich diese operante Konditionierung, die in der Skinner Box praktiziert werden soll?

Konditionierung ist eine wichtige Lerntheorie und beschreibt allgemein das Erlernen eines bestimmten Reiz-Reaktions-Verhaltens.

Die Theorie der operanten Konditionierung umfasst die Idee, dass Lebewesen Verhaltensweisen häufiger oder seltener ausüben, wenn sie dafür belohnt oder bestraft werden. Folgt auf das Verhalten eine angenehme Konsequenz (z. B. Belohnung), wird die Auftretenswahrscheinlichkeit erhöht, folgt eine unangenehme Konsequenz (z. B. eine Bestrafung), sinkt die Auftretenswahrscheinlichkeit.

Die Lerntheorie der operanten Konditionierung wurde entscheidend durch die beiden Psychologen E. Thorndike und B. F. Skinner entwickelt.

Auch wenn beide Theorien auf Konditionierung beruhen, ist von der operanten Konditionierung die klassische Konditionierung nach Pawlow zu unterscheiden.

Operante Konditionierung nach Thorndike

Grundbausteine der operanten Konditionierung sind die beiden Theorien von Thorndike aus dem Jahr 1898: das Gesetz der Auswirkung (Law of effect) und das Gesetz der Übung (Law of exercise).

Das Gesetz der Auswirkung (Law of effect) geht davon aus, dass dasjenige Verhalten in der Zukunft häufiger gezeigt wird, welches zu einer positiven Folge (z. B. Belohnung) geführt hat.

Das Gesetz der Übung (Law of exercise) besagt, dass ein Verhalten bzw. eine Reaktion auf einen Reiz wieder gezeigt wird, wenn die Situation häufiger auftritt. Die Idee hierbei ist, dass die Übung die Verknüpfung von der Reaktion auf einen Reiz stärkt. Wird die Übung unterlassen, wird die Reaktion vergessen.

Auch Thorndike von der Universität Harvard untersuchte in Experimenten das Verhalten von Tieren. In einem auch als “Puzzle Box” bezeichnetem Käfig befand sich eine hungrige Katze. Betätigte sie ein Pedal, gelangte sie nach draußen und konnte fressen, bis sie erneut in den Käfig gesperrt wurde. Dieser Ablauf wiederholte sich so oft, bis die Katze gelernt hatte, bevorzugt vor jedem anderen Ausbruchsversuch direkt das Pedal zu drücken.

Führte die Verwendung des Pedals plötzlich nicht mehr zur Öffnung der Tür, so nutzten auch die Versuchskatzen es weniger und am Ende überhaupt nicht mehr.

Operante Konditionierung nach Skinner

Burrhus Frederic Skinner war ein Psychologe, der die Theorien von Thorndike erweiterte. Er untersuchte, wie das Verhalten von Lebewesen mithilfe von Belohnung und Bestrafung unter Kontrolle gebracht werden könnte. Dafür unterschied er zwischen positiver bzw. negativer Verstärkung (Belohnung) und positiver bzw. negativer Bestrafung.

Positive Verstärkung

Positive Verstärkung bedeutet, dass das erwünschte Verhalten mit angenehmen, belohnenden Stimuli verstärkt wird. Es folgt ein positiver Reiz, wie Anerkennung, Nahrung, Belohnung.

Es gibt primäre, sekundäre und generalisierte Verstärker:

  • Ein primärer Verstärker zielt auf die Befriedigung angeborener Bedürfnisse wie Nahrung, Süßigkeiten, Sexualität usw.

  • Ein sekundärer Verstärker zielt auf sekundäre Bedürfnisse, die nicht lebensnotwendig sind wie Lob, Status, Schulnoten usw.

  • Ein generalisierter Verstärker, ist ein sekundärer Verstärker, der mit primären Verstärkern verknüpft ist, wie Geld, da mit Geld bspw. auch Nahrung gekauft werden kann.

Im Kontext von Tierexperimenten wurden vor allem primäre Verstärker eingesetzt.

Negative Verstärkung

Bei einem negativen Verstärker bleibt ein unangenehmer (negativer) Reiz aus bzw. wird beendet, wenn das erwünschte Verhalten eintritt.

Ein Beispiel für einen Reiz, der im Rahmen von negativer Verstärkung bei einem bestimmten Verhalten ausbleibt, ist ein Stromschlag.

Positive Bestrafung

Bei positiver Bestrafung (auch Bestrafung Typ I genannt) wird ein unerwünschtes Verhalten bestraft bzw. unterdrückt, indem eine unangenehme Konsequenz auf das Verhalten folgt.

Beispiele für negative Konsequenzen sind Stromschläge, Hitze oder Schläge.

Negative Bestrafung

Im Rahmen von negativer Bestrafung (auch Bestrafung Typ II genannt) wird ein unerwünschtes Verhalten unterdrückt, indem eine angenehme Konsequenz auf das Verhalten ausbleibt.

Das Entziehen von Futter bei einem bestimmten Verhalten wäre ein Beispiel für negative Bestrafung im Tierexperiment.

Skinner Box – Definition

Die 1930 beschriebenen Experimente in der Skinner Box entwickelten die Versuche aus Thorndikes Puzzle-Box weiter. Der Aufbau der Skinner Box ist in gewisser Weise effizienter, da kein erneutes Einfangen des Tieres nötig ist, zusätzlich erlaubt sie eine größere Differenzierung der Verstärker.

Die Skinner Box ist ein reizarmer Käfig, der je nach Versuchsziel verschiedene Verhaltensweisen ermöglicht. Dazu gehören z. B.:

  • ziehen an einer Schnur
  • picken an eine Platte
  • drücken eines Hebels

Zusätzlich können Futter und Wasser, sowie in einigen Fällen elektrische Schläge über entsprechende Vorrichtungen verabreicht werden. Auch die Präsentation von visuellen oder akustischen Reizen mithilfe von Lämpchen oder Lautsprechern ist meist möglich. Ansonsten wird die Umgebung der Testtiere so neutral wie möglich gehalten.

Skinner Box – Experiment

Skinner untersuchte primär das Verhalten von Ratten und Tauben, die er mithilfe eines Hebels unterschiedlich konditionierte. Das gewünschte Verhalten war das Drücken des Hebels, worauf in mehreren Versuchsreihen verschiedene Konsequenzen folgten.

  • Positive Verstärkung: Drückte die Ratte den Hebel, bekam sie Futter. Das erwünschte Verhalten wird belohnt. Das führte dazu, dass der Hebel häufiger gedrückt wurde.

  • Negative Verstärkung: Der Käfigboden einer Ratte stand unter Strom und konnte nur ausgeschaltet werden, wenn sie den Hebel gedrückt hat. Das wird als negative Verstärkung bezeichnet: durch Ausüben des gewünschten Verhaltens bleibt eine unangenehme Konsequenz aus.

  • Positive Bestrafung: Die Ratte bekam jedes Mal einen Stromschlag, wenn sie den Hebel drückte. Das unerwünschte Verhalten wird bestraft.

  • Negative Bestrafung: Dieser Versuch wurde nicht von Skinner durchgeführt. Die Idee war, der Ratte das Futter wegzunehmen, wenn sie auf den Hebel drückte. Bei der negativen Bestrafung bleibt wegen des Verhaltens eine angenehme Konsequenz aus.

Verstärkungspläne

Verstärkung, also das Belohnen, muss nicht immer gleich ablaufen, sondern kann variiert werden, um tiefere Einblicke in den Vorgang der Konditionierung zu erhalten. Dazu werden Verstärkungspläne aufgestellt.

In der Standardversuchskonstellation bekommt ein Tier jedes Mal Futter, wenn es das gewünschte Verhalten zeigt. Man spricht von kontinuierlicher Verstärkung. Davon abzugrenzen ist die partielle Verstärkung, bei der eine Belohnung nur gelegentlich erfolgt. Je nach Prinzip unterscheidet man zwischen Quotenverstärkung und Intervallverstärkung.

Quotenverstärkung

Wird Quotenverstärkung angewendet, erfolgt eine Belohnung anhand einer festen oder variablen Quote.

Eine feste Quote ist es, wenn beispielsweise jeder fünfte Druck auf den Hebel eine Belohnung herbeiführt.

Um eine variable Quote handelt es sich hingegen, wenn eine Verstärkung nur mit einer Wahrscheinlichkeit von 0,1 Prozent eintritt.

Intervallverstärkung

Die Intervallverstärkung ist von der Häufigkeit eines Verhaltens unabhängig. Stattdessen ist nur die Zeit zwischen zwei Belohnungen relevant.

Nachdem es zum gewünschten Verhalten und einer darauffolgenden positiven Verstärkung gekommen war, wird beispielsweise ein Intervall von einer Minute eingehalten, indem das Verhalten keine weitere Belohnung bewirken kann.

Folgen von Verstärkungsplänen

Auch die Einhaltung von Verstärkungsplänen führte experimentell zu einer Anpassung des Verhaltens der Tiere.

Bei einem festen Verstärkungsplan kam es bald zu Nachverstärkungspausen. Die Tiere lernten, dass eine Aktivität in einem bestimmten Zeitintervall keinen Effekt zeigt. Die Pausen passten sich zeitlich in etwa an die Intervalle an.

Löschung eines Verhaltens

Folgt auf ein gelerntes Verhalten über längere Zeit keine Konsequenz - weder eine Verstärkung noch eine Bestrafung - führt es dazu, dass das Verhalten ausgelöscht wird. Das bedeutet, dass diese Verhaltensweisen seltener gezeigt werden.

Partielle Verstärkung zeigt gegenüber kontinuierlicher Verstärkung eine höhere Löschungsresistenz. Das lässt sich so erklären, dass durch die gelegentlich folgenden Belohnungen die Hoffnung auf diese stets aufrechterhalten wird.

Diskriminationslernen

Zudem wurden Experimente durchgeführt, in denen die Versuchstiere zwischen verschiedenen Bedingungen unterscheiden mussten.

Das Drücken am Hebel führt nun nicht mehr immer zu einer Belohnung, sondern nur dann, wenn gleichzeitig eine Lampe leuchtet. Das Versuchstier lernt, diese Bedingung zu erkennen und in passenden Situationen das Verhalten auszuführen.

Skinner Box – Ratte

Ein konkretes Beispiel für das Experiment ist die Skinner Box mit einer Ratte. Wie die verschiedenen Konsequenzen für bestimmte Verhaltensweisen aussehen können, hast Du bereits gesehen. Dies sollen jetzt zusätzlich mit einem Verstärkungsplan verknüpft werden.

Die Skinner Box in diesem Beispiel ist wie folgt aufgebaut: ein Käfig mit einem Hebel und einer Ausgabevorrichtung für Futter darin. Versuchstier ist eine Ratte.

Angewendet werden soll:

  • positive Verstärkung: Futterbelohnung bei Hebeldruck
  • Quotenverstärkung: jeder dritte Hebeldruck wird belohnt (feste Quote)

Zunächst drückt die Ratte nur zufällig auf den Hebel. Später bemerkt sie die Verknüpfung mit der Futterbelohnung (positive Verstärkung). Die Häufigkeit, mit der sie den Hebel betätigt, ist jedoch immer unterschiedlich. Sie erkennt kein Muster und wartet prinzipiell immer auf eine Belohnung. Nach einigen Versuchen wird sie gelernt haben, den Hebel genau dreimal (oder sechsmal, neunmal etc.) zu drücken.

Zusätzlich wäre es nun möglich, nach jeder Futterausgabe ein Zeitintervall festzulegen, in der keine Belohnung erfolgt (Intervallverstärkung). Die Ratte könnte lernen, in dieser Zeit den Hebel nicht zu betätigen. Je mehr Bedingungen man einführt, desto komplexer wird der Versuch jedoch und desto länger dauert die Konditionierung des gewünschten Verhaltens.

Skinner Box – Taube

Auch mit einer Taube wurde das Skinner Box Experiment oft durchgeführt, weshalb sie sich ebenfalls gut als Beispiel eignet.

Mit einer Taube als Versuchstier ist eine Skinner Box häufig etwas anders angelegt. Auch hier findet man eine Ausgabevorrichtung für Futter als Belohnung.

Angewendet werden sollte in diesem Fall:

  • positive Verstärkung: Futterbelohnung bei zufälligem Verhalten
  • kontinuierliche Verstärkung: die Belohnung erfolgt alle zehn Sekunden, unabhängig vom zu diesem Zeitpunkt gezeigten Verhalten

Wird alle zehn Sekunden belohnt, so beginnt die Taube zu glauben, ein bestimmtes Verhalten in dieser Sekunde hätte diese Belohnung ausgelöst. Sie beginnt, dieses zu wiederholen. So lassen sich nach einiger Zeit Verhaltensmuster beobachten, wie das Schiefhalten des Kopfes, das Picken auf den Boden oder das Spreizen der Flügel.

Dieser Versuchsaufbau von Skinner ist auch als "abergläubische Tauben" bekannt.

Grundsätzlich sind die verschiedenen Versuchsanordnungen natürlich vom Tier unabhängig. Vielleicht hätte es genauso "abergläubische Ratten" geben können.

Skinner Box – Erkenntnisse

Die Skinner Box selbst wird teilweise noch immer für Forschungszwecke eingesetzt. Für B. F. Skinner war klar, dass sich das Verhalten der Tiere auch auf den Menschen übertragen lassen kann. Im Experiment steuerten die äußeren Bedingungen wesentlich die Aktionen der Versuchstiere und so, davon ging Skinner aus, sei auch das menschliche Verhalten durch die Umwelt formbar. Dies könne man sich auch im Alltag zunutze machen.

Skinner entwickelte eine Lernmethode für Schüler, die programmiertes Lernen genannt wurde. Dabei wurde ein Aufgabenpensum zur selbstständigen Bearbeitung in mehrere kleine Abschnitte unterteilt. Die Bearbeitung war so deutlich effizienter möglich. Als positiver Verstärker fungiert in diesem Fall nicht das Futter, sondern die positive Erfahrung einen Abschnitt abgeschlossen zu haben zum nächsten voranschreiten zu können.

Skinner Box – Unterschiede klassische und operante Konditionierung

Nicht zu verwechseln mit der operanten Konditionierung der Skinner Box ist die klassische Konditionierung, die z. B. mit dem Pawlow'schen Hund demonstriert wurde. Bei der klassischen Konditionierung lernt das Lebewesen auf einen bestimmten Reiz eine entsprechende Reaktion zu zeigen.

Beim Pawlow'schen Hund lief die klassische Konditionierung folgendermaßen ab:

Auf einen unkonditionierten Reiz (Futter) folgte eine unkonditionierte Reaktion (Speichelfluss). Normalerweise folgte auf einen neutralen Reiz (Glocke) keine Reaktion. Hörte der Hund aber eine gewisse Zeit lang die Glocke immer parallel mit der Futtergabe, so wurde die Glocke zu einem konditionierten Reiz, auf den als konditionierte Reaktion Speichelfluss folgte.

Bei der operanten Konditionierung folgt auf einen Reiz das Verhalten, welches anschließend belohnt oder bestraft wird (Reiz-Verhalten-Konsequenz). Die Konsequenz (die Belohnung oder Bestrafung) beeinflusst, ob das Verhalten häufiger oder seltener in der Zukunft gezeigt wird.

Der Begriff Verhalten hat bei der klassischen und operanten Konditionierung auch eine unterschiedliche Bedeutung: Bei der klassischen Konditionierung

steht es für die Antwortreaktion (Response) auf den Reiz. Bei bei der operanten Konditionierung hingegen bedeutet es eine Wirkoperation. Das heißt, im Fall der operanten Konditionierung muss das Lebewesen aktiv handeln und kann so Belohnung oder Bestrafung herbeiführen. Im Vergleich dazu erfolgt bei der klassischen Konditionierung eher unbewusst eine Reaktion auf einen vorausgegangenen Reiz.

Skinner Box – einfach erklärt

Wie lassen sich diese Erkenntnisse herunterbrechen? Einfach erklärt ist die Skinner Box ein Tierexperiment, welches das Prinzip der operanten Konditionierung nutzt. Ein Versuchstier, meist Ratte oder Taube, befindet sich dafür in einem neutral gestalteten Käfig. Sein Verhalten wird mittels Futter oder Stromschlägen belohnt bzw. bestraft. Entsprechend lernt das Tier, dieses Verhalten häufiger oder seltener auszuführen. Man spricht von Konditionierung.

Diese Methode ist von der klassischen Konditionierung nach Pawlow zu unterscheiden, bei der ein zuvor neutraler Reiz mit einer konditionierten Reaktion gekoppelt wird.

B. F. Skinner, Psychologe und Erfinder der nach ihm benannten Skinner Box, schloss aus den Versuchsergebnissen die Formbarkeit des tierischen und menschlichen Verhaltens durch die Umwelt.

Skinner Box – Das Wichtigste

  • Skinner Box Definition: Die Skinner Box ist ein reizarmer Käfig, mit dem der Psychologe B. F. Skinner an Tieren Untersuchungen zur operanten Konditionierung durchführte.

  • Skinner Box Operante Konditionierung: Die Theorie der operanten Konditionierung umfasst die Idee, dass Lebewesen Verhaltensweisen häufiger oder seltener ausüben, wenn sie dafür belohnt oder bestraft werden.

  • Skinner Box Experiment: Die Skinner Box ermöglicht je nach Versuchskonstellation positive bzw. negative Verstärkung (Belohnung) und positive bzw. negative Bestrafung. Man unterscheidet kontinuierliche Verstärkung und partielle Verstärkung (Quotenverstärkung, Intervallverstärkung).


Nachweise

  1. hypotheses.org: Operante Konditionierung.
  2. Angermeier (1976). Kontrolle des Verhaltens. Das Lernen am Erfolg. Springer.
  3. Weinfurter (2003). Operante Konditionierung Prinzip und praktische Anwendung. GRIN
  4. Hoffmann; Engelkamp (2016). Lern- und Gedächtnispsychologie. Springer.
  5. deutschlandfunk.de: Der Psychologe Burrhus Frederic Skinner, Vater des „programmierten Lernens“. (21.09.2022)

Häufig gestellte Fragen zum Thema Skinner Box

Die Skinner Box ist ein vom US-amerikanischen Psychologen Burrhus Frederic Skinner erfundener reizarmer Käfig für ein Versuchstier (meist Tauben oder Ratten), der zur Untersuchung operanter Konditionierung verwendet wird. Die Theorie der operanten Konditionierung umfasst die Idee, dass Lebewesen Verhaltensweisen häufiger oder seltener ausüben, wenn sie dafür belohnt oder bestraft werden.

Bei positiver Bestrafung (auch Bestrafung Typ I genannt) wird ein unerwünschtes Verhalten bestraft bzw. unterdrückt, indem eine unangenehme Konsequenz auf das Verhalten folgt.

Beispiele für negative Konsequenzen sind Stromschläge, Hitze oder Schläge.

Die Skinner Box beweist, dass Verhalten wesentlich von der Umgebung beeinflusst bzw. gesteuert werden kann. Erfinder ist der US-amerikanische Psychologe Burrhus Frederic Skinner.

Die Skinner Box ist ein reizarmer Käfig, der je nach Versuchsziel verschiedene Verhaltensweisen der Ratte ermöglicht. Dazu gehört z. B. das Drücken auf einen Hebel. Zusätzlich können Futter und Wasser, sowie in einigen Fällen elektrische Schläge über entsprechende Vorrichtungen verabreicht werden. 


Die Ratten wurden verschiedenen Verstärkern oder Bestrafungen ausgesetzt. Um positive Verstärkung handelte es sich, wenn die Ratte jedes Mal, wenn sie einen Hebel betätigte, mit Futter belohnt wurde. Als Ergebnis wurde der Hebel häufiger gedrückt.

Teste dein Wissen mit Multiple-Choice-Karteikarten

Welche Art von Verstärkung ist resistenter gegen Löschung?

Welches Experiment ist der Vorläufer der Skinner Box?

Welche Art von positivem Verstärker wird bei Tierversuchen besonders oft eingesetzt?

Weiter
Mehr zum Thema Skinner Box

Schließ dich über 22 Millionen Schülern und Studierenden an und lerne mit unserer StudySmarter App!

Die erste Lern-App, die wirklich alles bietet, was du brauchst, um deine Prüfungen an einem Ort zu meistern.

  • Karteikarten & Quizze
  • KI-Lernassistent
  • Lernplaner
  • Probeklausuren
  • Intelligente Notizen
Schließ dich über 22 Millionen Schülern und Studierenden an und lerne mit unserer StudySmarter App! Schließ dich über 22 Millionen Schülern und Studierenden an und lerne mit unserer StudySmarter App!

Melde dich an für Notizen & Bearbeitung. 100% for free.

Entdecke Lernmaterial in der StudySmarter-App

Google Popup

Schließ dich über 22 Millionen Schülern und Studierenden an und lerne mit unserer StudySmarter App!

Schließ dich über 22 Millionen Schülern und Studierenden an und lerne mit unserer StudySmarter App!

Die erste Lern-App, die wirklich alles bietet, was du brauchst, um deine Prüfungen an einem Ort zu meistern.

  • Karteikarten & Quizze
  • KI-Lernassistent
  • Lernplaner
  • Probeklausuren
  • Intelligente Notizen
Schließ dich über 22 Millionen Schülern und Studierenden an und lerne mit unserer StudySmarter App!