mathematische Lerntheorien

 

(= m. L.) [engl. mathematical learning theories], [KOG], Theorien, die aus einer (meist sehr kleinen) Anzahl von Annahmen über den Lernprozess bestehen, aus denen mithilfe exakter deduktiver Methoden die (beobachtbaren) Eigenschaften von Lernprozessen abgeleitet werden. Nach ersten, empir. nicht weiter geprüften Ansätzen in Herbarts math. Ps. wurden von Thurstone (1930) und Gulliksen (1934) Vorläufer der gegenwärtigen L. entwickelt. Die Grundannahmen ihrer Theorien, die in erster Linie auf die Erklärung der neg. beschleunigten funktionalen Abhängigkeit des Lernerfolges von der Zahl der (pos. bzw. neg.) verstärkten Durchgänge abzielte, beziehen sich auf die Veränderungen der Wahrscheinlichkeit, dass ein Verhalten erfolgreich bzw. erfolglos ist. Dieser probabilistische Grundgedanke wurde in den m. L. der Gegenwart weiter ausgebaut. Jeder auf Lernen (oder Vergessen) beruhende Prozess wird als Folge diskreter Einzelschritte (trials) aufgefasst. Jeder Schritt besteht aus der Darbietung eines Reizes, auf den das Versuchsobjekt durch Auswahl einer unter mehreren möglichen Reaktionen unterschiedlicher Wahrscheinlichkeit reagiert; die Reaktion führt zu einem (pos. oder neg.) Resultat und damit zur Veränderung der Wahrscheinlichkeitsverteilung der Reaktionsalternativen. In den konkreten Annahmen, die diese Elementarprozesse betreffen, und im math. Apparat, der zur Entfaltung des Modells benutzt wird, unterscheiden sich die versch. m. L.

In Operator-Modellen können die Wahrscheinlichkeiten der Reaktionsalternativen bzw. die Stärken der Reaktionstendenzen beliebige Werte innerhalb best. Grenzen (Wahrscheinlichkeiten z. B. zw. 0 und 1) annehmen. Die Operatoren (= Übergangsregeln; Gleichungen, welche die Veränderung einer Wahrscheinlichkeit p von einem Schritt n zum jew. nächsten n + 1 beschreiben) können linear sein – z. B. p_%7Bn%2B1%7D%3Dp_%7Bn%7D%2Ba%5Ccdot%20%5Cleft%20(%201-p_%7Bn%7D%20%5Cright%20)%3Da%2B(1-a)%5Ccdot%20p_%7Bn%7D (Ausgangspunkt der stochastischen Lerntheorie von Bush & Mosteller 1951, 1955) – oder nicht linear – z. B.

p_%7Bn%7D%3D%5Cfrac%7B%5Cbeta%20%5Ccdot%20p_%7Bn-1%7D%7D%7B%5Cleft%20(%201-p_%7Bn-1%7D%20%5Cright%20)%2B%5Cbeta%20%5Ccdot%20p_%7Bn-1%7D%7D

(Beta-Modell von Luce 1959).

In endlichen Zustandsmodellen werden die Stimuli als Mengen von Elementen oder Komponenten aufgefasst; jedes Element eines Stimulus ist mit einer und nur einer Reaktion assoziiert. Je mehr Stimuluselemente, die mit einer best. Reaktion assoziiert sind, bei einer Darbietung des Stimulus gegenwärtig sind, desto wahrscheinlicher wird das Auftreten der Reaktion sein. Die Assoziationen zw. Stimuluselementen und Reaktionen werden je nach Verstärkungsbedingungen verändert, jedoch immer nach dem Alles-oder-nichts-Prinzip. In jedem Trial ist nur eine begrenzte Anzahl von Stimuluselementen gegenwärtig oder «wirksam» (deswegen auch Stimulus-Sampling-Theorie). Die versch. Zustandstheorien unterscheiden sich vor allem in den Annahmen betreffend die Zahl der Stimuluskomponenten, (1) aus denen insges. ein Reiz besteht (small bzw. N-element models) und (2) die in jedem Trial wirksam werden (component models bzw. pattern models mit Stichprobengrößen 1), ferner u. a. auch danach, ob die Stichprobengröße fix ist oder variiert. Nach der Annahme der pattern models, dass in jedem Trial nur eine Stimuluskomponente, nämlich eine best. Reizkonfiguration, als Stimulus wirksam ist, verändert sich die Gesamtzahl der mit der Reaktion konditionierten Patterns bei jedem Trial im einfachsten Fall nur um +1 oder 0 oder –1, je nach dem Erfolg (outcome oder reinforcement). Diese Eigenschaft, dass der Prozess auf jedem Schritt nur entweder unverändert bleiben oder sich – mit best. Wahrscheinlichkeiten – in benachbarte Zustände verändern kann, eröffnete die Möglichkeit, ihn math. als Markoff-Kette (Markoff-Prozess) zu interpretieren. Solche Versuche liegen vor allem bei der Ausarbeitung von Small-Element-Theorien mit 2 bis 4 möglichen «Zuständen» vor, wobei die Zustände inhaltlich als unkonditionierter Ausgangszustand, als Zustand im Kurzzeit- bzw. als solcher im Langzeitspeicher ausgelegt werden (Atkinson & Crothers, 1964). Damit wurden Berührungspunkte zw. m.L. und Modellen der Informationsverarbeitung und Entscheidungstheorien geschaffen.

Ein für die Ps. wesentlicher, nicht ausreichend geklärter Aspekt der m. L. ist die Deutung der Parameter der versch. Modelle und die Prüfung der Validität der einzelnen Theorien (Validierung). Es wurde die Anpassung der aus den versch. Modelltypen (bzw. Einzelmodellen mit gegebenen Parametergrößen) berechneten an den beobachteten Daten, wie z. B. Verläufe des Lernfortschritts bzw. der Fehlerzahl (Lernkurve), asymptotischer Wert der relativen Häufigkeit von richtigen Vorhersagereaktionen bei kontinuierlicher Verstärkung (Diskriminations-Lernen) und partieller Verstärkung (probability matching), die Wahrscheinlichkeit einer Reaktionsalternative nach einer Serie gleicher Stimuli oder Reaktionen (runs) u. a. geprüft. Die Entwicklung von m. L. hat zwar nicht zur Herausbildung eines einzigen umfassenden Modells und zur eindeutigen Interpretation seiner Parameter geführt, m. L. besitzen jedoch den meth. nicht zu unterschätzenden Vorteil, dass alle Annahmen, die in das Modell eingehen, explizit sind und dass sich (unter best. Bedingungen) exakte quant. Voraussagen der Beobachtungsgrößen ableiten lassen.

Verwendete Literatur

Sie sind schon registriert? Zur Anmeldung
Erstellen Sie einen Account um das komplette Literaturverzeichnis einzusehen.