Wolf-Dieter Batz am 28.6.1984:Wieviel

Aus phenixxenia.org
Zur Navigation springen Zur Suche springen

Wolf-Dieter Batz: „Zur Modellbildung in der Gedächtnisforschung“

c) Wieviel?

Die Geschichte der quantifizierenden Gedächtnisforschung ist vergleichsweise kurz, stellt man den eben betrachteten Zeitraum daneben. Hermann EBBINGHAUS (1850-1909) gilt allgemein als der Begründer dieses Forschungsprogramms. Ich will vor der Darstellung seiner Arbeit erst noch auf den KANT-Nachfolger in Königsberg, Johann Friedrich HERBART (1776-1841) zu sprechen kommen.

Der hatte 1824 begonnen eine Reihe von Monographien zu veröffentlichen, mit dem Ziel, Psychologie als Wissenschaft[1] neu zu begründen. Dies stützt die Ansicht, daß es nicht nur %e%i%n%e%n% 'Neuanfang' (=> Paradigma-Wechsel) in der psychologischen Forschung gegeben hat, womit dann auch die Festlegung des Beginns der 'wissenschaftlichen psychologischen Forschung' einer gewissen Beliebigkeit preisgegeben ist. Besser wäre eine Sprachregelung die von der 'gegenwärtigen' Psychologie statt von %d%e%r% wissenschaftlichen Psychologie spräche.

HERBART hatte, wie später EBBINGHAUS das Ziel, quantitative Aussagen über das Gedächtnis zu machen, bediente sich aber einer anderen Methode: Er stützte (oder 'stürzte'?) sich nicht auf die Empirie, sondern benutzte ein mathematisch-logisches[2] Kalkül um seine Aussagen aus einfachen Axiomen abzuleiten. Als Axiome postulierte er im Einzelnen:

  1. 'Vorstellungen' sind entweder im Bewußtsein, oder unterhalb einer gewissen 'Schwelle' ('unterbewußt'). Dies ist keine Alles-oder-Nichts Bedingung: Vorstellungen können sich auch nur zu einem Teil im Bewußtsein befinden;
  2. Je größer der bewußte Teil, umso lebendiger und klarer ist die Vorstellung;
  3. Vorstellungen können sich bei Kohärenz gegenseitig über die Schwelle ins Bewußtsein heben. Bei Inkohärenz verschwindet entweder die Schwächere, oder beide im Unterbewußtsein.

Über die Definition einer Bewertungsfunktion für die Stärke von Vorstellungen war es HERBART möglich, eine Reihe interessanter Folgerungen aus seinen Axiomen abzuleiten, von denen ich hier zwei nennen möchte:

  1. Selbst wenn sich zwei Vorstellungen ständig gegenseitig ins Unterbewußtsein boxen, so kann doch keine der beiden zerstört werden.
  2. Der ins Unterbewußtsein 'versinkende' Anteil einer Vorstellung ist über gleiche Zeit-Intervalle konstant.

Unter dem Titel 'Grundlinien der Mechanik des Geistes' leitete HERBART mit eindrucksvoller mathematischer Präzision auch einige Sätze über die 'Wiedererweckung von Vorstellungen' ab.

Von den beiden zuvor dargestellten Folgerungen erscheint mir vor allem die zweite (b) interessant: Sie ist nämlich eine Umschreibung eines exponentiellen Abfalls. Diesen exponentiellen Abfall konnte später EBBINGHAUS mit seinen Experimenten empirisch bestätigen (ob er HERBARTs Ergebnis kannte?).

Bei dieser Gelegenheit fällt auf, daß seine Theorien der Statik und Mechanik des Geistes eigentlich Theorien des Gedächtnisses sind.

HERBART selbst macht dies nicht explizit. Es scheint für ihn selbstverständlich gewesen zu sein, daß die Vorstellungen mit denen er operierte, irgendwo abgelegt werden müssen. Festzuhalten lohnt sich in diesem Zusammenhang eine Einsicht, zu der gegenwärtig mit künstlicher Intelligenz befaßte Forscher in zunehmendem Maße kommen:

"...however, it seems obvious that what we posit as a processing structure is likely to be a memory structure as well, and this has profound implications for what we do."[3]

Beachtenswert ist dabei der enorme Altersunterschied von HERBART und SCHANK. Hätte der eine den anderen gelesen und verstanden %-% es hätte nicht ganze 150%Jahre dauern müssen: Schade!

EBBINGHAUS begann seine Untersuchungen 1879, etwa ein halbes Jahrhundert nach HERBARTs Veröffentlichungen. Sechs Jahre später präsentierte er eine Reihe von ganz und gar neuen Forschungsmethoden sowie die damit gefundenen Ergebnisse. Zu seinen Neuerungen gehörten auch die 'sinnlosen Silben'; das sind Konsonant-Vokal-Konsonant-Verbindungen, welche ihm als Testmaterial dienten. Diese Idee mag seltsam anmuten, ist aber leicht plausibel zu machen:

Bedeutsame Wörter sind Repräsentanten von Entitäten die entweder abstrakt vorstellbar oder real gegeben sind. Was, oder ob sie überhaupt etwas repräsentieren, ist abhängig vom jeweiligen individuellen Wissensstand und der Kulturzugehörigkeit. Darüberhinaus entfalten Wörter eine nicht überschaubare geschweige denn kalkulierbare Vielfalt von Wechselwirkungen. Diese Überlegungen stünden der Konstruktion mehrerer vergleichbarer Itemlisten aus Wörtern sehr im Weg.

Eine Methode, die den Teil behaltener Information erkennbar machte, ist die sogenannte 'Ersparnismethode': Gemessen werden die Lernzeiten bzw. die Anzahl der Wiederholungen bis zum Erreichen eines Lernkriteriums.[4] Wird dies für eine Liste zweimal gemacht, so ist die 'Ersparnis' an Zeit bzw. Wiederholungen ein Maß für den noch im Gedächtnis vorhandenen Anteil des Gelernten.

Im Mittelpunkt von EBBINGHAUS' Interesse standen die Größen Listenlänge, Anzahl der Wiederholungen, Zeitintervalle, Behaltensleistung und Grad des Überlernens. Zwei seiner wichtigsten Ergebnisse will ich im Folgenden beschreiben:

Bei der Untersuchung des Einflusses der Listenlänge auf die Behaltensleistung mit der Ersparnismethode zeigte sich, daß bis zu einer Länge von sieben Silben nur ein Lerndurchgang zur fehlerlosen Wiedergabe der Liste ausreichte. Diese Informationsmenge (7 'bits') gilt heute als die Kapazitätsgrenze des Kurzzeitspeichers# im Gedächtnis und ist als 'MILLERs

[5]

Magic Number Seven' bekannt.

Das zweite Ergebnis betrifft das Vergessen: Variiert man bei der Ersparnismethode das Zeitintervall zwischen 30 Minuten und 31 Tagen, so wird erwartungsgemäß die Ersparnis mit der Länge der Intervalle abnehmen. EBBINGHAUS konnte den Verlauf der so gefundenen Kurve durch einen exponentiell abfallenden Graphen beschreiben, die sogenannte 'Vergessenskurve'.

Mit seinen sinnlosen Silben glaubte EBBINGHAUS die Wechselwirkungen zwischen den Items weitgehend ausgeschlossen zu haben. Diese sind aber nach meinem Verständnis lediglich Ausdruck von Strukturierungsprozessen in der Wahrnehmung. Ob und wie sich diese Prozesse auch beim Lernen von sinnlosen Silben bemerkbar machen, haben MÜLLER & SCHUMANN in der Nachfolge von EBBINGHAUS gezeigt.

Sie boten ihre Silben (noch immer ohne Sinn!) mittels einer sogenannten Gedächtnistrommel dar um eine Kontrolle des Lernverhaltens zu erreichen. Wurden die Silben in einem bestimmten Rhytmus (Strukturierung!) dargeboten, dann zeigte sich folgendes:

Werden die Silben beim zweiten Durchgang (Ersparnismethode) in veränderter Reihenfolge präsentiert, dann ist die Ersparnis geringer als wenn man die Reihenfolge beibehält: Die Vpn übernahmen also die angebotene Strukturierung um sich die Items einzuprägen.

Zusammen mit PILZECKER widmete sich MÜLLER später der Untersuchung zeitlicher Interferenzen. Dabei induzierten sie einen Zweier-Rhytmus beim Lernen in der Art, daß immer die ungeradzahlige Silbe betont werden mußte. Diese Methode läßt sich unschwer als Vorläufer des 'Paar-Assoziations-Lernens' erkennen und wurde auch entsprechend verwendet: Beim Test-Durchgang wurde das betonte Item vorgegeben, worauf das folgende reproduziert werden sollte. Damit entdeckten M%&%P die sogenannte 'retroaktive Hemmung'; das sind Interferenzen von neuegelerntem Material auf früher gelerntes.

Eine Anzahl weiterer Interferenz-Effekte, die heute unter dem Etikett 'proaktive Interferenz' gehandelt werden, konnten mit diesem, 'Treffermethode' genannten Vorgehen von M%&%P gefunden werden:

  1. Eine Liste der Anordnung A-C (a1-c1-a2-c2-...-an-cn) ist schwieriger zu lernen, wenn vorher eine Liste A-B gelernt wurde.
  2. Lernen von A-C bringt auch die A-B-Liste ins Bewußtsein.
  3. Durch Lernen von A-B und A-C ensteht auch eine Liste mit B-C-Verbindungen.

Am bekanntesten wurden M%&%P durch ihre 'Theorie der Perseveration'. Diese Theorie hat den Charakter eines Erklärungsversuchs der retroaktiven Hemmung auf physiologischen (!) Grundlagen: Sie stellt einen Übergang von 'wieviel-Fragen' zu 'wie-Fragen' dar!

Das Augenmerk der Theorie liegt auf physiologischen Prozessen die, nach M%&%P, beim Lesen, z.B. einer Liste mit sinnlosen Silben, in Gang kommen. Diese Prozesse dauern auch nach dem Lesen noch fort (=> Perseveration!), sofern man sie ungestört läßt, bzw. dieselbe Liste noch einmal liest. Dieses Fortdauern ermöglicht nun die sogenannte 'Konsolidierungs-Phase' in der das gelernte Material im Gedächtnis gespeichert wird. Wird nun während dieser Phase etwas anderes, oder ähnliches gelesen, so wird die Perseveration geschwächt, und damit die Konsolidierung behindert.

Diese Vorstellung ist unmittelbar plausibel und warscheinlich darum bis heute sehr populär geblieben. Das Etikett Erklärung jedoch erscheint mir bei dieser Art von Gedankengängen fehl am Platz (vgl. auch den Standpunkt LASHLEY's im vorigen Abschnitt).

Hätte man die Idee der Perseveration mit gewissen Strukturierungstendenzen gepaart, dann wäre vielleicht der Ansatz von CRAIK & LOCKHART ('levels-of-processing') schon damals populär geworden. Diese Spekulation stützt die häufig formulierte Ansicht, daß die Entwicklung von Theorien (=> Weiter-Entwicklung!) weit hinter der Aussagekraft bereits vorliegender Daten zurückgeblieben sei.

Diplomarbeit "Zur Modellbildung in der Gedächtnisforschung" bei Dr. A.Metraux, Prof. HJ Ahrens und Prof. M.Zimmermann
  1. Der vollständige Titel lautete "Psychologie als Wissenschaft neu gegründet auf Erfahrung, Metaphysik und Mathematik." in: 'Sämtliche Werke' Band 5+6 (herausgegeben von Karl Kehrbach)
  2. vgl. 'Über die Möglichkeit und Nothwendigkeit, Mathematik auf Psychologie anzuwenden' (1822) in: Sämtliche Werke Bd. 5
  3. Schank,R.C. (1980): Language and memory. S.259
  4. als gelernt galt eine Liste, wenn sie zweimal fehlerfrei reproduziert werden konnte; in einigen Fällen begnügte sich EBBINGHAUS auch mit einem fehlerfreien Durchgang.
  5. vgl. Kap.1: 'Wahrnehmung & Gedächtnis'