Chinesisches Zimmer

 

[engl. chinese room], nach J. Searle (geb. 1930), [KOG, PHI], Gedankenexperiment zur Simulierbarkeit und Äquivalenz kogn. Prozesse durch informationsverarbeitende, künstlich intelligente Systeme (z. B. Computer, Künstliche Intelligenz). John Searle entwickelte das Gedankenexperiment, um die strenge Annahme der KI zu widerlegen, dass kogn. Verarbeitung und Bewusstsein als vollst. verstanden gelten können, wenn diese nicht unterscheidbar simuliert werden können (Turing-Test). Das Chinesische Zimmer sollte die schwache Annahme der künstlichen Intelligenz stützen, dass Computer kogn. Verarbeitung lediglich simulieren können, die computerbasierte Verarbeitung sich jedoch grundlegend und qual. von menschlichem Denken unterscheidet. Das Chinesische Zimmer ist ein Raum, in dem sich ein Mensch befindet, der des Chinesischen nicht mächtig ist. Von außen werden ihm auf Zetteln Geschichten in chinesischer Sprache bzw. Schriftzeichen übermittelt und anschließend auf Zetteln chinesisch formulierte Fragen zum Text zugestellt. Dem Menschen steht im Chinesischen Zimmer ein rein syntaktisches Regelwerk zur Verfügung, das es ihm ermöglicht, chinesische Zeichen passend und in Bezug auf die Geschichte zu kombinieren, ohne sich des Sinns der Zeichen bewusst sein zu müssen. Aufgrund dieses eingeschränkten, ggf. nur für die zu beantwortenden Fragen geeigneten Regelsets, wäre er in der Lage, Antworten zu generieren, die einem Chinesen sinnvoll erschienen. Dann wäre es von außen nicht entscheidbar, ob der Mensch innerhalb des Chinesischen Zimmers die chinesische Sprache versteht und mit sinnhaften Inhalten füllen kann oder ob er einfach nur Regeln anwendet, die das Resultat von Sprachverständnis simulieren. Ähnlich verhielte es sich mit einem Schachcomputer, der alle bekannten Schachpartien der Schachgroßmeister abgespeichert hat. Solange «bekannte» Stellungen auf dem Schachbrett entstehen, könnte er einfach einen der ihm bekannten Antwortzüge wählen. Das Spielverhalten des Schachcomputers würde von einem Schachspieler als «intelligent», «zielgerichtet» und «strategisch» wahrgenommen, obwohl dem zugrunde liegenden Entscheidungssystem ggf. noch nicht einmal die grundlegenden Regeln des Spiels bekannt sind. Nach Searle reicht die syntaktische Informationsverarbeitung künstlicher intelligenter Systeme nicht aus, um semantische Repräsentationen bzw. semantisches Bewusstsein zu erzeugen, das für menschliches Denken charakteristisch ist.

Referenzen und vertiefende Literatur

Die Literaturverweise stehen Ihnen nur mit der Premium-Version zur Verfügung.