Sprachwahrnehmung

 

(= S.) [engl. speech perception], [KOG, PÄD, WA], S. ist ein Oberbegriff für Verarbeitungsprozesse gesprochener, geschriebener oder gebärdeter Sprache. Dabei werden Prozesse wie Segmentieren und Identifizieren der akustischen oder visuellen Information, Zugriff auf das mentale Lexikon und Auswahl der lexikalen Repräsentation, Strukturierung der Wortfolgen auf syntaktischer Ebene (Syntax), Zuweisung thematischer Rollen, Bedeutungsintegration auf propositionaler Ebene und Integration des Satzkontextes in den Diskurs postuliert. Es gibt aktuell kein Modell der S., das alle Verarbeitungsprozesse integriert. Vielmehr werden die Teilbereiche unabhängig voneinander beschrieben.

Für das Lesen geschriebener Sprache beschreiben Modelle wie das Dual-route-cascaded-Modell (Lesen, Zwei-Wege-Modell), das Triangle-Modell oder das E-Z-Reader-Modell den lexikalen Zugriff [engl. lexical access] und die Auswahl [engl. lexical selection] des gelesenen Wortes. Im Dual-route-cascaded-Modell bilden Grapheme (Buchstaben oder Kombinationen von Buchstaben, die Phoneme repräsentieren) die sublexikalen Zugriffseinheiten auf die Wortbedeutung. Für Wörter, die eine irreguläre Aussprache haben, gibt es eine zweite Route, bei der Grapheme in Phoneme umgesetzt werden. Diese (phonologisch-vermittelte) Umsetzung erlaubt den Zugriff auf die Bedeutung bzw. lautes Lesen. Auch im Triangle-Modell gibt es orthografische, phonologische (Phonologie) und semantische (Semantik) Information. Hier kann entweder direkt über die Orthografie auf die Bedeutung zugegriffen werden oder der Zugriff verläuft von Orthografie über die Phonologie auf die Bedeutung. Eine Übersetzung der Grapheme in Phoneme fehlt jedoch. Das E-Z-Reader-Modell ist ein Modell, das versucht, die Augenbewegungen, die beim Lesen gemacht werden, zu erklären. Eine zentrale Annahme, die in dem Modell gemacht wird, ist, dass die Aufmerksamkeit erst nach erfolgter Wortidentifikation zum nächsten Wort verlagert wird. Augenbewegungen reflektieren somit Wortverarbeitungsprozesse. Im E-Z-Reader-Modell entspricht die erste Stufe der Wortidentifikation einer Bekanntheitskontrolle («Kenne ich das Wort?»). Erst auf der zweiten Stufe erfolgen die Aktivierung der Bedeutung (lexikaler Zugriff), die Integration in den Kontext und die Verschiebung der Aufmerksamkeit auf das nächste Wort. Laut Modell kann eine Sakkade auch ohne lexikalen Zugriff, also am Ende der ersten Verarbeitungsstufe, programmiert werden.

Im Ggs. zu geschriebener Sprache gibt es in gesprochener Sprache keine systematischen Pausen, durch die Wörter (oder Phoneme) voneinander abgrenzt werden. Außerdem ist gesprochene Sprache akustisch sehr variabel (Sprachrezeption). Aufgrund dieser beiden Eigenschaften ergeben sich das Invarianzproblem und das Segmentierungsproblem. Das Invarianzproblem beschreibt den Umstand, dass ein Phonem in Abhängigkeit von seinem Kontext unterschiedlich klingt. Die [b]s in «Ball», «Buch», «Binde» oder «Weber» unterscheiden sich akustisch voneinander. Darüber hinaus führen phonologische Prozesse wie z. B. Assimilation dazu, dass die meisten Sprecher des Dt. im täglichen Gebrauch [le:bm] statt [le:bən] produzieren. Die unterschiedlichen Realisierungen von Phonemen werden i. d. R. nicht wahrgenommen, sondern es findet eine kategorielle Phonemwahrnehmung statt. Für gesprochene Sprache bieten Ansätze wie die Motor-Theorie (motor theory) Erklärungen, wie das akustische Signal in kategoriale Repräsentationen übersetzt werden kann. Der Motor-Theorie zufolge wird das akustische Sprachsignal in die motorischen Kommandos (Motorik) umgesetzt, die notwendig sind, um das Gehörte zu erzeugen. Das Segmentierungsproblem beschreibt die Schwierigkeit, Wörter bzw. Phoneme in gesprochener Sprache voneinander zu trennen. Welche Wörter enthält die Aussage «Mähenäbteheu»? Ist es «I scream» oder «ice cream»? Ein Vorschlag, wie gesprochene Sprache in Wörter segmentiert werden kann, ist der possible word constraint. Demzufolge segmentieren wir Sprache so, dass alle prälexikalen Einheiten an Wörter gebunden sind. Außerdem werden in Abhängigkeit von der jew. Sprache Silben (z. B. im Frz.) oder Betonung (im Engl.) als Indikatoren für Wortgrenzen benutzt.

Das Cohort-Modell bzw. das SHORTLIST-Modell bilden den lexikalen Zugriff und die Auswahl, die der phonetisch-phonologischen Verarbeitung folgen, ab. Bei beiden Modellen wird signalgesteuert (Bottom-up-Verarbeitung) eine Kohorte passender Wortkandidaten aktiviert. Je nach Grad der Passung ist ein Eintrag mehr oder weniger stark aktiviert. In der konnektionistischen Variante des Kohortenmodells werden phonologische Eigenschaften (stimmhaft, nasal usw.) auf verteilt repräsentierte lexikale Einträge abgebildet. Aufgrund der verteilten Repräsentation der lexikalen Einträge findet hier ein «natürlicher» Wettbewerb zw. den aktivierten Einträgen statt. Im SHORTLIST-Modell aktiviert die Spracheingabe Phoneme. Lokal repräsentierte lexikale Einträge, die zu den aktivierten Phonemen passen, werden in Abhängigkeit von ihrem Grad der Passung aktiviert. Nur wenige lexikale Einträge, die Shortlist, werden so stark aktiviert, dass sie in einem Netzwerk mit lateraler Hemmung miteinander in Wettbewerb treten.

Wie die Bedeutung von Wörtern repräsentiert ist, wird in beiden Modellen nicht beschrieben. Üblicherweise wird Wortbedeutung in eine kontext- und situationsunabhängige Kernbedeutung (Denotation) und eine variable, situative, emotionale oder bewertende Bedeutung (Konnotation) unterschieden. Eine Annahme zur Repräsentation von Wortbedeutung besteht darin, dass die Bedeutung eines Wortes durch seine Einbettung in ein Netzwerk der Bedeutungen anderer Wörter bestimmt wird (Semantic-Network-Modell). In anderen Ansätzen wird Wortbedeutung dadurch repräsentiert, dass ein Wort in kleinere semantische Einheiten (semantic features, semantic primitives) aufgespalten wird. Die Analyse und Kombination semantischer Eigenschaften der versch. Wörter erlaubt die Bedeutung eines Wortes und des einbettenden Satzes zu erschließen. So können nur best. semantische Eigenschaften des mehrdeutigen Wortes Bank mit dem Verb sitzen kombiniert werden und führen somit zu dem Schluss, dass mit Bank im Satz «Der beste Spieler saß auf der Bank» auf ein Sitzmöbel und nicht auf ein Geldinstitut referiert wird. Ein weiterer, mit semantischen Featuretheorien kompatibler Ansatz organisiert Begriffe in Kategorien aufgrund ihrer Ähnlichkeit mit einem Prototyp oder dem Kategoriemittelwert. Den Prototyp muss man sich hier als eine Art Platzhalter vorstellen, der eine Reihe von Eigenschaften mit Durchschnittswerten enthält. Ein Prototyp teilt viele Eigenschaften mit anderen Kategoriemitgliedern, aber wenige Eigenschaften, die eine verwandte Kategorie def. In semantischen Featuretheorien sowie in Prototypentheorien wird vom spezif. Bsp. abstrahiert. In Bsp.theorien (instance oder exemplar theory) wird, unter Aufgabe einer ökonomischen Speicherung, jedes erfahrene Bsp. gespeichert. Konzeptuelle Entscheidungen werden durch Vergleich mit den gespeicherten Bsp. getroffen (Gedächtnis). In diesem Ansatz wird eine ökonomische Speicherung zugunsten einer vielfältigen, reichhaltigen und damit detaillierten Speicherung aufgegeben. Dieser Ansatz kann jedoch den Erwerb neuer Konzepte schlechter erklären, als es Feature- oder Prototypenansätze können.

Mit der Wortbedeutung wird auch syntaktische und thematische Information verfügbar, die der syntaktischen und semantischen Struktur zugeordnet werden muss. Thematische Rollen («Wer tat wem was?» Agent, Thema, Rezipient, Instrument) müssen Wörtern zugewiesen werden. Die syntaktische Analyse unterstützt diesen Zuweisungsprozess, indem sie Wörter syntaktischen Kategorien (Subjekt, Verb, Objekt, Adverb usw.) zuordnet, die dann in Phrasen (Nominalphrase: NP, Verbphrase: VP, Präpositionalphrase: PP usw.) kombiniert werden.

Psycholinguistische Untersuchungen (Psycholinguistik) zur syntaktischen Verarbeitung orientierten sich mehr an linguistischen Theorien als an psychol. Prozessen. In der Linguistik dominiert die Vorstellung, dass die Oberflächenstruktur des Satzes in eine zugrunde liegende Tiefenstruktur übersetzt wird. Eine zentrale Frage psycholinguistischer Forschung ist, inwieweit semantische Information die syntaktische Analyse beeinflusst. Im Garden-Path-Modell verläuft die syntaktische Analyse in einem zweistufigen Prozess. In der ersten Stufe wird ein syntaktischer Strukturbaum (Baumdiagramm) nach Prinzipien minimal attachment und late closure unbeeinflusst von anderen sprachlichen Informationen aufgebaut. Minimal attachment bedeutet, dass die zu verarbeitenden Wörter mit so wenigen Verbindungen wie möglich an die vorhandene Phrasenstruktur gebunden werden sollen. Für den Satz «Die Professorin verletzte den Studenten mit dem Laserpointer» gibt es zwei syntaktische Analysen. Nach dem Minimal-Attachment-Prinzip wird der Student durch die Professorin, die den Laserpointer hat, verletzt. In der nicht min. Analyse verletzt die Professorin einen Studenten, der den Laserpointer hat. Das nachgeordnete Prinzip der late closure bez. die Annahme, dass Wörter an die zuletzt bearbeitete Phrase gebunden werden sollen. Ein Strukturbaum wird so früh wie möglich und allein aufgrund struktureller Informationen erstellt. Wenn dieser Strukturbaum nicht zu der im Folg. auftretenden sprachlichen Information passt, wird in einem zweiten Durchgang der syntaktische Strukturbaum unter Heranziehung semantischer Information erneut analysiert, um die thematische Zuweisung zu vollenden. In Constraint-Based-Modellen erfolgt die Verarbeitung einphasig. Die syntaktische Struktur wird unter Zuhilfenahme syntaktischer, semantischer und diskursiver Information (constraints) aufgebaut. Je mehr constraints zu einer syntaktischen Struktur passen, desto stärker wird diese Struktur aktiviert und im Weiteren verarbeitet.

Das Sprachverstehen [engl. language comprehension] folgt der Verarbeitungsstufe der Worterkennung und der syntaktischen Analyse. Auf der Sprachverstehensstufe wird das gerade wahrgenommene in das zuvor wahrgenommene Material integriert. Es wird zw. semantischer (Was bedeuten die Wörter und Sätze?) und der darauf folg. referenziellen (Worauf in der Welt bezieht sich die sprachliche Information?) Verarbeitung unterschieden. In dem zweiphasigen Construction Integration Model wird beschrieben, welche Gedächtnisstrukturen aktiviert bzw. aufgrund des Textes aufgebaut werden und wie diese in den aktuellen Diskurs integriert werden. In der ersten Phase werden Wortbedeutungen aktiviert und Propositionen (kleinste Bedeutungseinheiten, die einen Wahrheitswert annehmen können) gebildet. Lücken im Text werden durch Inferenzen geschlossen und das Wesentliche des Textes wird extrahiert. Das Ergebnis wird in einem assoziativen Netzwerk repräsentiert, dessen Knoten Konzepte oder Propositionen sind, die aktivierend oder hemmend miteinander verbunden sind. Da in der ersten Phase eine Vielzahl möglicher Propositionen, syntaktische Bäume usw. gebildet werden, werden in der Integrationsphase ungewollte Elemente aus dem Netzwerk gelöscht. Taucht z. B. das Wort «Bank» im Text auf, können Propositionen wie BANK(Finanzinstitut), BANK(Sitzgelegenheit) sowie Assoziationen wie GELD, ÜBERFALL bzw. RASEN, SPIELPLATZ usw. aktiviert sein. Durch die zyklische Ausbreitung von Aktivierung werden Widersprüche sowie falsche Schlüsse aufgelöst und das Netzwerk durch Zugriff auf Information aus dem Langzeitgedächtnis in eine kohärente Struktur überführt.