LUXEMBURG
NORA SCHLEICH

Mit Searle im chinesischen Zimmer

Der amerikanische Philosoph John Searle (*1932) beschäftigt sich unter anderem mit der Philosophie des Geistes, Sprachphilosophie und Metaphysik. Eine der zentralen Fragen, die Searles Denken durchzieht, ist die nach der Beziehung der mentalen Zuständen zu dem, was wir in der Welt begegnen. Auf was richten sich unsere Gedanken eigentlich? Wann sind sie wahr und wie können wir dies überprüfen? An dieses Problem der Intentionalität bindet Searle das Phänomen der Sprechhandlungen an. Es wird die Frage gestellt, wann und wie unsere Aussagen Bedeutung erhalten? Welche Intentionalität muss hinter einem Sprechakt stehen, damit dieser für uns gültig und sinngebend wird? Oder, vereinfacht gesagt: Wann hat das, was wir sagen, überhaupt einen Sinn? Um etwas Bedeutung zu verleihen, oder aber um die Bedeutung von etwas nachvollziehen zu können, braucht es mehr als die bloße Möglichkeit einer naturwissenschaftlich berechenbaren Rekonstruktion oder Beschreibung, so der Ausgangspunkt.

Searle wird diese Behauptung mit einem leicht verständlichen Gedankenexperiment zu illustrieren wissen und damit eine der zentralen Thesen der Verfechter der Künstlichen Intelligenz zu wiederlegen versuchen. Die Vertreter der starken Variante der Künstlichen Intelligenz behaupten, dass ein von einem Programm simulierter Geist in gleicher Weise denkender Geist sein kann, wie dies der menschliche Geist ist. Das hieße, dass der Computer Sinn und Bedeutung stiften und nachvollziehen, verstehen und reflektieren könnte. Alan Turing hat 1950 einen Test entwickelt mit dem herausgefunden werden sollte, ob ein Computer ein dem Menschen gleichwertiges Denksystem haben könnte. Hierzu wird eine Person via Tastatur und Bildschirm zwei Gesprächspartnern thematisch beliebige Fragen stellen. Blick- oder Hörkontakt besteht keiner, es läuft alles schriftlich ab. Einer der beiden Gesprächspartner besteht aus Fleisch und Blut, der andere - ja, Sie ahnen es - aus Bits und Bytes. Der menschliche Korrespondent versucht, so viel Menschliches wie nur möglich in seine Antworten einfließen zu lassen, das Programm ist dagegen so konzipiert, dass es der menschlichen Antwortstruktur nahezu identisch ist, was auch immer das bedeuten soll. Dies wird mit alternierenden Personen durchgeführt. Können die Fragesteller nach der Fragerunde nicht genau sagen, welcher der Gesprächspartner Mensch oder Maschine ist, hat das Programm den Test bestanden. Fans der Künstlichen Intelligenz sprechen dann gar davon, dass das Programm ein eigenes Bewusstsein besäße. Wie der Besitz von Bewusstsein aber überhaupt bewiesen werden kann, bleibt aber auch außen vor. Schließlich ist es doch nicht einmal möglich zu sagen, ob ihr Nachbar tatsächlich Mensch, Zombie oder bloß perfekt programmierter Apparatus ist.

Gegen die Gleichsetzung des programmierten und des menschlichen Geistes sträubt sich Searle. Für ihn kann eine Maschine niemals in identischer Weise denken und Bedeutung schaffen wie das menschliche Gehirn. Er veranschaulicht dies mit dem berüchtigten Gedankenexperiment des chinesischen Zimmers. Die nun folgende Rekonstruktion des Experiments ist an die Hauptfassung Searles angelehnt und alle Zitate entstammen der deutschen Übersetzung des Originaltextes. „Nehmen Sie eine Sprache, die Sie nicht verstehen. Ich persönlich verstehe kein Chinesisch; für mich sind chinesische Schriftzeichen nur sinnlose Krakel.“ Sie werden nun in ein Zimmer gesetzt, in denen sich Körbchen mit Kärtchen von chinesischen Symbolen befinden, sowie ein Handbuch in einer Ihnen verständlichen Sprache, welches die Regeln angibt, nach denen chinesische Symbole zu kombinieren sind. In dem Buch wird nur die Form der Symbole behandelt, bezüglich ihres Sinns oder ihrer Bedeutung wird nichts erklärt. „Eine Regel könnte also sagen: ‚Nimm ein Krakel-Krakel-Zeichen aus dem Korb Nummer 1 und lege es neben ein Schnörkel-Schnörkel-Zeichen aus dem Korb Nummer 2‘.“ Die fertig kombinierten Zeichensätze würden dann an Menschen außerhalb des Zimmers wieder ausgehändigt. Meine Antworten konnte ich dank des Regelbuchs so akkurat gestalten, dass es für Außenstehende unmöglich ist zu erkennen, ob ich sie verfasst habe oder ein gebürtiger Chinese. Vielleicht habe ich auf ein Kärtchen, auf dem die Frage stand: „Welches ist Ihre Lieblingsfarbe?“ mit einer Kartenkombination beantwortet, die besagte: „Blau, aber auch grün“. Weder Frage noch Antwort habe ich verstanden und Chinesisch kann ich noch immer nicht, jedoch konnte ich etwas scheinbar Sinngebendes aus den kryptischen Kärtchen basteln. „Wie ein Computer hantiere ich mit Symbolen, aber verbinde keine Bedeutung mit ihnen. Der Punkt des Gedankenexperiments ist der: Wenn ich kein Chinesisch verstehe, indem ich lediglich ein Computerprogramm zum Verstehen ausführe, dann tut das auch kein Digitalcomputer. Solche Maschinen hantieren nur mit Symbolen gemäß den im Programm festgelegten Regeln. Was für Chinesisch gilt, gilt für andere geistige Leistungen genauso. Das bloße Hantieren mit Symbolen genügt nicht für Fähigkeiten wie Einsicht, Wahrnehmung, Verständnis oder Denken. Und da Computer ihrem Wesen nach Geräte zur Manipulation von Symbolen sind, erfüllt das bloße Ausführen eines Computerprogramms auch nicht die Voraussetzungen einer geistigen Tätigkeit.“

Wenn ein Computernetzwerk nun so programmiert würde, und heutzutage ist dies mit Sicherheit machbar, dass es ein echtes neuronales Netzwerk simuliert, so bedeutet dies nur, dass es Kombinationen von Datensätzen seiner Kodierung getreu so ausführt, dass sie denjenigen Kombinationen identisch sind, die das menschliche Denksystem auch tätigt. Aber nur indem es Symbole formal kombiniert, initiiert von einer Kodierung eines Programmierers. Es heißt nicht, dass das Programm über den Inhalt von dem, mit dem es arbeitet, wirklich Bescheid weiß. Es produziert stets nur nach einem nach Schema X ablaufenden Verfahren, selbst denken und verstehen kann es deswegen aber nicht, so lautet zumindest die These Searles.