[Kapitel 2]  [Inhaltsverzeichnis]  [Zusammenfassung]

3. Was ist der Mensch?

3.1. Leib und Seele      [Inhaltsverzeichnis]  [Kapitel 3.2]

 

3.1.1. Das Leib – Seele-Problem ist zugunsten des Materialismus bzw. Physikalismus gelöst.

3.1.2. Leib und Seele sind identisch.

 

Diese beiden Hypothesen werden deswegen gemeinsam abgehandelt, weil viele maßgebliche Autoren – so auch Putnam, auf den ich mich im folgenden in erster Linie beziehen werde – der Ansicht sind, daß mit der Identitätstheorie einfach nur eine andere Bezeichnung für den Materialismus gefunden wurde. Die anachronistische Termino-logie soll nochmals daran erinnern, wie sehr dieser Dualismus, der uns heute vor dem Hintergrund der Diskussion um künstliche Intelligenz auf verschiedenen Ebenen wieder begegnet, seit langem schon die Gemüter der Philosophen und Naturwissenschaftler bewegt. Wie Searle betont, haben wir mit der cartesianischen Tradition ein Vokabular geerbt und mit ihm auch Kategorien, in denen wir über diese Probleme nachdenken (John R. Searle, dtsch. 1996, S. 27). Dabei geht es um Gegensätze (wenn auch vielleicht nur um pragmatische) wie „physisch“ – „psychisch“, „Körper“ („Leib“) – „Geist“(„Seele“), „Materialismus“ – „Mentalismus“.

 

Hilary Putnam ist der Ansicht, daß sich alle Argumente für oder gegen eine Identität von Leib und Seele anhand folgenden Satzes (oder auch ähnlicher Sätze) erörtern lassen:

„Ich habe genau dann Schmerzen, wenn meine C-Fasern erregt sind“ (wobei C-Fasern ein theoretischer Term der Neurophysiologie ist). Statt aber diesen Satz und die damit zusammenhängenden Fragen am Beispiel des Menschen zu diskutieren, bespricht er sie anhand von Computern, genauer anhand von T-Maschinen von hinreichender Komplexität, d.h. solcher, die auch Fragen zu ihrer eigenen Struktur beantworten können. Gerade an solchen materialistischen Analogiemodellen läßt sich nach Putnam auf offensichtliche Weise zeigen, woran physikalistische oder identitätstheoretische Annahmen kranken; weil die auftretenden philosophischen Fragen einzig und allein logischer bzw. linguistischer Natur sind (vergl. Stegmüller, Bd. II, S. 401ff). Sätze, wie der oben zitierte, sind insofern Identitätsbehauptungen als sie implizieren, daß bestimmte psychische Zustände, nämlich geistige Erlebnisse mit bestimmten physischen Zuständen, nämlich neurophysiologischen Ereignissen, ident seien. Mit seinem Maschinenanalogon will Putnam erreichen, daß den psychischen Zuständen des Menschen die logischen Zustände eines Computers und den physischen des Menschen die strukturellen eines Computers zugeordnet werden. Damit kann er anhand einer Turingmaschine folgende dem ersten Satz entsprechende Variante (ohne mentalistische Vokabeln) diskutieren:

„Ich bin im (logischen) Zustand A genau dann, wenn C36 eingeschaltet ist“ (und der zweite Teil ist eine Aussage über die eigene Struktur).

 

Man kann sich die Strukturen von T-Maschinen nach Putnam so modifiziert und ergänzt denken, daß sie in ihrem Aufbau immer menschenähnlicher werden. Putnam zeigt, daß sich mit Hilfe zweistelliger Präferenzrelationen, die stets durch eine numerische  Funktion repräsentiert werden können, Maschinenanaloga zum „Glauben“, „Fühlen“, „Vorziehen“ konstruieren lassen, wobei die Maschine mit elektronischen Sinnesorganen ausgestattet ist. Die Tätigkeit einer solchen T-Maschine wird vollständig durch die ihr zugeordnete Maschinentafel beschrieben, und die Maschine ist so konstruiert, daß sie die in der Tafel enthaltenen Anweisungen genau befolgt (siehe dazu auch, Weizenbaum, dtsch., 1978, S. 80). Bei jedem Arbeitsschritt befindet sich die Maschine in einem bestimmten logischen Zustand (Software). Physikalisch (hardwaremäßig) kann eine solche Maschine natürlich auf viele verschiedene Weisen verwirklicht werden, wobei sich aber die „strukturellen Zustände“ jeweils total ändern, während die „logischen Zustände“ dieselben bleiben. Veschiedene physikalische Verwirklichungen derselben Turingmaschine haben somit dieselbe funktionelle Organisation (vergl. Stegmüller, Bd. II, S. 401ff).

 

An diesem Maschinenanalogon wird zunächst einmal deutlich, daß es sinnlos ist, zwischen “inneren” und “äußeren” Zuständen der Maschine mit bestimmten Entsprechungen (dualistisch) unterscheiden zu wollen. Die logischen Zustände sind die Turingmaschine im Gesamten. (Searle ist da allerdings anderer Ansicht und meint, die Vielfach-Realisierbarkeit computational  äquivalenter Vorgänge in unterschiedlichen physischen Medien sei ein Zeichen für deren Abstraktheit im Sinne der Abhängigkeit von einer Interpretation, die von außen an sie herangetragen werde. Darauf werde ich noch zurückkommen).

 

Putnam argumentiert dann anhand des Analogiemodelles wie folgt gegen den Materialismus und gegen die Identitätstheorie (vergl. Stegmüller W., Bd.II. S. 235):

 

Es ist unmöglich aus der Kenntnis der physikalischen Zusammensetzung einer Turingmaschine (inklusive deren strukturellen Zustände) die Maschinentafel, also die vollständige Beschreibung der Tätigkeiten der Maschine inklusive ihrer logischen Zustände zu erschließen. Man kann auch nicht aufgrund einer Aussage über eine Turingmaschine, wie die, daß sie sich im logischen Zustand A befindet, etwas über ihren strukturellen, respektive physikalisch-chemischen Aufbau sagen. Dabei geht es im ersten Fall nicht um einen Kausalschluß vom strukturellen Aufbau auf den vorgegebenen (auf die logischen Zustände). Denn auch die Maschinentafel ist zunächst vollkommen unbekannt und muß erst erschlossen werden. Und das ist für einen Menschen einfach nicht denkbar 1. weil ein entsprechender Wissenschaftler gar nicht wissen kann, welche Naturgesetze er zusätzlich zum strukturellen Aufbau der Maschine zur Verfügung haben muß, um erkennen zu können, daß es sich um eine T-Maschine mit ganz bestimmten Maschinentafeln handelt; und 2. weil er nicht weiß, ob ihm eine Beschreibung des ganzen strukturellen Aufbaus der Maschine vorliegt (die Beschreibung der physikalisch-chemischen Zusammensetzung der Maschine nach heutigem Wissensstand muß ja nicht letztgültig sein, sodaß man eventuell nur eine Teilstruktur der T-Maschine gewinnt).

 

Auch der Schluß in die andere Richtung ist falsch, denn der Satz: Ich bin im Zustand A, genau dann, wenn (das Element) C36 eingeschaltet ist, mag für ein Modell stimmen, für ein anderes aber nicht. Es ist ja denkbar, daß ein aus elektronischen Elementen aufgebautes Modell einer T-Maschine mit einem mechanisch realisierten überhaupt keine Ähnlichkeit  und damit auch kein Element C36 besitzt. Die Materie, aus der eine T-Maschine gebaut ist, spielt für die funktionelle Organisation überhaupt keine Rolle.

 

Gegen die Identitätstheorie als Aspekt des Materialismus sind viele weitere Argumente ins Spiel gebracht worden. So wurde z.B. auch darauf verwiesen, daß selbst wenn es wahr wäre, daß ein bestimmter Schmerz bei allen Menschen mit bestimmten neurophysiologischen Ereignissen identisch wäre,die Möglichkeit nicht ausgeschlossen werden könnte, daß der gleiche Schmerz bei einer anderen Spezies mit andersartigen neurophysiologischen Konfigurationen identisch wäre. (Hinzu kommt meiner Ansicht nach, daß unsere Gehirne hinsichtlich neuronaler Feinstrukturen (Verschaltungen) sicherlich ebenso verschieden sind wie unser Äußeres hinsichtlich körperlicher Merkmale; und sei es nur als Folge dieser unterschiedlichen Merkmale und Fähigkeiten).

 

Daß die Diskussion, so wie sie sich bis hierher entwickelte, in funktionalistische Überlegungen mündet, hat fast zwangsläufigen Charakter. Denn wenn zwei Menschen das gleiche Erlebnis haben (z.B. Bauchschmerzen), sich also im gleichen Geisteszustand , aber (nach dem Scheitern der Identitätstheorie) in verschiedenen neurophysiologischen Zuständen befinden, dann stellt sich offensichtlich die Frage, was denn die Grundlage dessen ist, daß sie Gleiches erleben. Und eine Antwort lautet: Es ist die Funktion der physikalischen Zustände. (Genau genommen verwendet Putnma bei seinem Maschinenanalogon, anhand dessen er die Einwände gegen den Materialismus bzw. die Identitätsheorie expliziert, bereits funktionalistische Argumente (vergl. Stegmüller W., Bd. II, S. 405). Die Hypothese lautet:

 

3.1.3. Psychologische Eigenschaften sind mit funktionalen Eigenschaften identisch.

 

Nach Putnam hat das Gehirn den Funktionalisten zufolge Eigenschaften, die in gewisser Hinsicht nicht physikalisch sind. Er meint damit Eigenschaften, „die in Begriffen, die den physikalischen oder chemischen Aufbau des Gehirns unerwähnt lassen, definiert werden können“ (Putnam H., dtsch. 1990, S. 111). D.h. Eigenschaften, die ein System unabhängig von seiner materiellen Zusammensetzung haben kann, sind nichtphysikalische, nämlich funktionale Eigenschaften. Und dazu gehören psychologische Eigenschaften wie z.B. Wut, Trauer etc.

 

Eine große Schwierigkeit, mit der sich diese Theorie allerdings konfrontiert sieht, ist nach Putnam der qualitative Charakter von Empfindungen. Er bringt das Beispiel eines Menschen, der eines Morgens aufwacht und den Himmel statt blau rot und den roten Pullover blau sieht, und für den alle Gesichter eine abscheuliche Farbe haben, wie auf einem Farbnegativ. Vielleicht könnte er umlernen, sodaß er die Farben immer noch richtig beschreiben würde: Was ihm rot erschiene, würde er blau nennen etc. Folgendes wäre demnach geschehen: Inputs von blauem Licht strömten jetzt dorthin, wo vorher Inputs von rotem Licht gelangt waren und umgekehrt. D.h. der physikalische Zustand, der früher die funktionale Rolle spielte, objektives Blau in der Welt zu signalisieren, signalisiert jetzt das Vorhandensein von objektivem Rot.

 

Nun mache man sich diese funktionalistische Theorie der subjektiven Farben zu eigen: „Eine Empfindung ist genau dann eine Blau-Empfindung, wenn sie (bzw. der entsprechende physikalische Gehirnvorgang) die Rolle hat, das Vorhandensein von objektivem Blau in der Umgebung zu signalisieren“. Nach Putnam  erfaßt diese Theorie zwar eine Bedeutung des Ausdruckes „Blauempfindung“, aber nicht den qualitativen Sinn.. Wenn nämlich diese funktionale Rolle mit dem qualitativen Charakter identisch wäre, könnte man ja nicht sagen, daß sich die Qualität der Empfindung geändert hätte. Da sich aber die Qualität doch geändert hat, scheint sie (in diesem Fall) kein funktionaler Zustand zu sein (vergl. Putnam, dtsch. 1990, S. 114).

 

Weil der Begriff der „Funktion“ ein wenig vage ist, hat man ihn für die hier zur Diskussion stehenden Zusammenhänge so umrissen.: Zwei Hirnzustände sollen dann Ereignisse desselben Geisteszustandes sein, wenn sie zu den folgenden drei Elementen in den gleichen Kausalbeziehungen stehen: a) zum Reizinput, den der Organismus empfängt, b) zu den anderen Geisteszuständen und c) zum Verhalten, das der Organismus als Output erzeugt (vergl. Searle, dtsch. 1996, S. 57). Geisteszustände werden also über Kausalbeziehungen identifiziert, wobei mit Hilfe von sogenannten Ramsey-Sätzen alle psychologischen Begriffe wie z.B. „Überzeugung“, „Wunsch“, „Wahrnehmung“ eliminiert werden, sodaß über Geisteszustände reden einfach nur noch bedeutet, über neutrale Kausalbeziehungen zu reden. Die Folge: Jedes beliebige System, woraus auch immer es gemacht sein mag, könnte Geisteszustände haben – vorausgesetzt nur, es hat die richtigen Kausalbeziehungen zwischen seinen Inputs, seiner innerern Funktionsweise und seinen Outputs.

 

Putnams Beispiel oben zeigt indessen, daß neutral formulierte Kausalbeziehungen nicht in der Lage sind, den qualitativen Charakter einer bestimmten Empfindung zu erfassen. (Wichtig ist, daß der Funktionalismus theoretisch sozusagen ins Leere zielen kann, daß er keine hinreichende Erklärung darstellt.) Außerdem stellt sich die Frage, wie es kam, daß völlig unterschiedliche physische Strukturen kausal äquivalent sein sollten. Die neue Disziplin der Kognitionswissenschaften hatte darauf eine scheinbar recht einfache Antwort.

 

3.1.4. Der Geist verhält sich zum Hirn wie die Software (das Programm) zur Hardware beim Computer.

 

Man könnte den Kognitivismus klassischer Herkunft als die (funktionalistische) Auffassung bezeichnen, das menschliche Hirn verhalte sich wie ein digitaler Computerund seine geistigen Inhalte wie eben Denkvorgänge seien Relationen zwischen syntaktischen Elementen. Hier widerspiegelt sich das Leib – Seele-Problem in der Dichotomie Syntax – Semantik.

 

Searle hat mit seiner berühmten Parabel vom chinesischen Zimmer schon 1980 erstmals gegen diese Ansicht Stellung bezogen. Damit wollte er zeigen, daß jemand auf der Grundlage einfacher Handlungsanweisungen (sprich der Befolgung von Regeln) auf einen bestimmten Input hin Symbole manipulieren und einen korrekten Output erzeugen kann, ohne zu wissen, worum es da geht. Und genau das ist es, was ein Computer (Hardware) auf der Basis eines Programmes (Software) tut. (Allerdings muß man hinzufügen, daß er die Regeln nicht im semantischen Sinn eines Verständnisses befolgt, sondern implementiert.) Diese seine Beweisführung impliziert nach Searle, daß Syntax weder konstitutiv noch hinreichend für Semantik ist, während aber dem menschlichen Denken geistiger Inhalt, nämlich Semantik zugrundeliegt. Er hat später auf entsprechende Einwände betont, daß sein Argument mit dem chinesischen Zimmer auch bei den neuronalen Netzwerken mit paralleler Informationsverarbeitung Gültigkeit behält, weil diese Form der Datenverarbeitung unter rein rechnerischen Aspekten irrelevant ist. Man läßt ja auch konnektionistische Programme auf traditionellen, seriellen Maschinen laufen, da es noch relativ wenig Parallelcomputer gibt und jede Funktion, die auf einer parallel arbeitenden Maschine berechnet werden kann, auch auf einer seriell arbeitenden  zu berechnen ist (vergl. Searle John R. (in: Gehirn und Bewußtsein, Heidelberg, S. 150ff)).

 

Das Argument, daß die Fähigkeit zur Herstellung unterschiedlicher Relationen zwischen syntaktischen Elementen einfach nicht ausreicht, um Phänomene zu generieren, die wir (wenigstens vorläufig noch) nur mit einem mentalistischen Vokabular zu beschreiben vermögen, hat erwartungsgemäß kaum einen Kognitivisten abgehalten, davon auszugehen, daß „ein angemessen strukturierter interner Tanz von syntaktischen Elementen in Verbindung mit entsprechenden Inputs und Outputs dieselben kognitiven Zustände und Leistungen erzeugen kann, wie menschliche Individuen sie zeigen“ (ebda. S. 157).

 

Gegen Searles Parabel ließe sich auch noch einwenden, daß sie nur unter dem Blickpunkt brauchbar ist, daß wir eine Einsicht in das Zimmer oder den Roboter und ein Verständnis der Vorgänge darin haben. Dies ist aber schon bei den „Lernvorgängen“ in neuronalen Netzen nicht mehr vollumfänglich der Fall, denn sie haben bis auf lokale Algorithmen, die dazu dienen, Gewichte anzupassen, keine expliziten Regeln, die ihr „Verhalten“ steuern.

 

Sollte sich indessen herausstellen (und ich komme gleich nochmals darauf zurück), daß menschliches Denken nicht (oder nicht durchgehend) algorithmisch berechenbar ist, dann genügt dieser „Erfolg“ der neuronalen Netze nicht. Darüber hinaus kann man auf Wittgenstein zurückgreifend immer noch argumentieren, daß es keinen Computer oder was auch immer geben wird, der ohne die Möglichkeit von Verhaltensweisen (Mimik, Gestik etc. inkludiert) mit Bezug auf irgend etwas Inneres würde sagen können: „Ich bin traurig“. Denn, so Wittgenstein, solche und ähnliche Äußerungen macht man als Mensch nicht auf eine Beobachtung an sich selbst hin, aber sie machen nur Sinn, weil ich mich auf eine bestimmte Weise verhalte bzw. sie im Rahmen einer bestimmten Verhaltens- und Lebensweise (und natürlich in bezug auf erlebnismäßige oder auch nur körperliche Empfindungen – wo immer der Unterschied liegen mag) gelernt habe.

 

Searle glaubt nun aber selbst, daß sich Hirntätigkeiten auf einem Computer simulieren lassen, vorausgesetzt, diese können präzise als eine Abfolge von Schritten charakteri-siert werden. Genau das jedoch bezweifelt beispielsweise der Physiker Roger Penrose. Er glaubt, daß menschliches Denken zumindest manchmal „wahrheitserzeugend“ ist, ohne algorithmisch zu sein; eine Hypothese, die sich auf Gödels Unvollständigkeits-sätze bezieht: Da Menschen „wahrheitserzeugend“, also konsistent sind und das auch wissen, kann dieses Wissen nicht auf einem formalen System beruhen. Denn wenn sie ausschließlich mit einem konsistenten formalen System arbeiten würden, könnten sie niemals um ihre eigene Konsistenz wissen (bzw. diese beweisen) (vergl. Rick Grush & Patricia Smith Churchland in Thomas Metzinger, 1995, S. 229).

 

Searle hat dieses Problem in der Frage angesprochen: Ist das Hirn ein digitaler Computer? (John R. Searle, dtsch. 1996, S. 225). Denn auch wenn man zugesteht, daß am Geist mehr dran ist als syntaktische Operationen, könnte es ja dannoch sein, „daß Geisteszustände zumindest einmal computationale Zustände sind (und geistige Vorgänge entsprechend computationale Vorgänge, deren Ablauf sich nach der formalen Struktur dieser Gegenstände richtet“ (ebda.). Nach seiner Ansicht gehen aber Kognitionswissenschaftler fälschlicherweise davon aus, daß die Frage,ob Hirnvorgänge computational sind, eine empirische Frage, also eine Tatsachenfrage ist. Doch, so Searle: „Was für eine Tatsache, die das Hirn betrifft, könnte es ausmachen, daß es ein Computer ist?“ (ebda. . 230). Bis heute ist ja nicht einmal vollständig geklärt, was ganz genau die anatomischen, physiologischen oder gar molekularbiologischen (nach Penrose eben sogar quantenmechanischen) Merkmale des Hirns sind. Dazu kommt, daß nach Searle unter Kognitionswissenschaftlern nicht einmal theoretische Übereinstim-mung darüber herrscht, was ein digitaler Computer, was ein Symbol, ein Algorithmus, ein computationaler Vorgang ist. Trotzdem werden die Gleichsetzungen mit größter Selbstverständlichkeit gemacht.

 

Um herauszufinden, ob etwas ein digitaler Computer ist oder nicht, muß man nach Ansicht von Kognitivisten Ausschau danach halten, was daran als Nullen und Einsen gelten gelassen werden kann (es müssen keine echten Nullen und Einsen sein; die verschiedensten Gatter bis hin zur elektrischen Spannung oder zu Nervensignalen können diese Werte implementieren. Die Zuordnung erfolgt durch reine Konvention). Die Hardware-Realisierung ist für die computationale Beschreibung unerheblich, so die Kognitivisten: Sie könnte ebenso gut eine altmodische mechanische Maschine aus Zahnrädern und Hebeln sein wie ein hydraulisches System, durch das Wassen fließt – oder eben ein menschliches Hirn (vergl. Searle, dtsch. 1996, S. 231). Was zur Repräsentation binärer Symbole verwendet wird, ist egal. Die Kognitivisten halten es für ein Charakteristikum funktionaler Theorien, daß dieselbe Funktion auf unzählige Art und Weise realisiert werden kann. Doch das hat nach Searle unliebsame Konsequenzen, denn aus dem Prinzip der Vielfach-Realisierbarkeit folgt die Universal-Realisierbarkeit. „Wenn Computation durch die Zuordnung von Syntax defniert ist, dann wäre einfach alles ein Computer, weil ja jedem Gegenstand Syntax zugeschrieben werden könnte“ (ebda., S. 233). Und da die Syntax eben zugeschrieben wird, ist sie relativ zu einem Beobachter, der etwas als syntaktisch behandelt. So gesehen müßte unsere Antwort auf die Frage: Ist das Hirn ein digitaler Computer? lauten: Ja, weil alles ein digitaler Computer (als ein solcher beschreibbar) ist.

 

Das grundlegende Problem  besteht nach Searle darin, daß die Syntax ein beobachter-relativer Begriff ist. „Die Vielfach-Realisierbarkeit computational äquivalenter Vorgänge in unterschiedlichen physischen Medien ist nicht bloß ein Zeichen dafür, daß diese Vorgänge abstrakt sind, sondern auch dafür, daß sie gar nicht dem System an sich angehören; sie sind dem System  nicht intrinsisch; sie hängen von einer Interpretation ab, die von außen an sie herangetragen wird“ (S. 235). Und wie besprochen, hat Searle mit der Analogie des chinesischen Zimmers seinerzeit versucht zu zeigen, daß die Semantik der Syntax nicht intrinsisch ist. Jetzt argumentiert er, daß die Syntax der Physik nicht intrinsisch ist, sondern daß es sich um ein beobachter-relatives Charakteristikum handelt.

 

Was meint nun Searle mit intrinsisch bzw. beobachter-relativ? Begriffe wie „Masse“, „Schwerkraft“, „Moleküle“ sind intrinsische Merkmale der Welt, die auch ohne Beobachter existieren. „Badewanne“ oder „Stuhl“ sind hingegen keine intrinsischen Merkmale der Wirklichkeit. Es sind Prädikate, die ohne Bezug auf einen Benützer bzw. Beobachter innerhalb einer bestimmten Lebenswelt mit bestimmten Vehaltensweisen der Teilnehmer nicht als sinnvoll gedacht werden können.

 

Eine physikalistische Konsequenz aus all dem ist nach Ansicht Searles, daß das implementierte Programm keine Kausalkräfte außer denen des implementierenden Mediums hat, weil das Programm über die Existenz und Ontologie des implementierenden Mediums hinaus keine wirkliche Existenz bzw. Ontologie hat (vergl. S. 242). Programme liefern also nach Searle keine Kausalerklärungen der Kognition, weil mit der Zuschreibung von Syntax keine weiteren Kausalkräfte identifiziert würden (vergl. S. 247).

 

Ein anderer schwerwiegender Fehler der Kognitivisten besteht nach Searle darin anzunehmen, das Hirn verarbeite in dem Sinne Informationen, in dem das ein Computer tue. Doch im Computer haben wir es mit formalen Symbolmanipulationen zu tun (bzw. mit lokalen Algorithmen), während eine Information im Hirn immer einer spezifischen Modalität angehört: z.B. dem Hören, dem Fühlen, dem Denken etc. und ein Hirnereignis auf der Basis spezifischer elektrochemischer Vorgänge generiert. Demnach, so Searle, sei es einfach falsch zu sagen, das Hirn verarbeite Informationen in dem Sinne des Wortes, wie es in der Kognitionswissenschaft verwendet wird (S. 252).

 

Eine weitere verbreitete Auffassung, gegen die sich Searle in seinem Buch wendet, ist die folgende:

 

3.1.5. Geisteszustände wie „Glauben“, „Meinen“, „Hoffen“, „Wünschen“, „Fürchten sind theoretische Entitäten einer Alltagspsychologie, die in Wirklichkeit nicht existieren.

 

Die solchen Annahmen zugrundeliegende Einstellung wird i.a. als eliminativer Materialismus bezeichnet. Wir haben ja schon gesehen, daß es Autoren gibt, die dafür plädieren, alltags- und wissenschaftspsychologische Begriffe auseinanderzuhalten. Doch während K. Wilkes beispielsweise die Berechtigung alltagssprachlicher psychologischer Begriffe nicht etwa in Frage stellt, versuchen die eliminativen Materialisten genau den Wortschatz über Bord zu werfen, mit dem wir unsere Kulturen geschaffen, errichtet, wiedererrichtet und mit neuem Leben erfüllt haben (vergl. K. Wilkes (in Metzinger Th., 1995, S. 124).

 

Nach Searle sind die eliminativen Materialisten der Ansicht, daß unsere alltäglichen Annahmen über den Geist bzw. unsere mentalen Zustände eine primitive Theorie (Alltagspsychologie) konstituieren. Und wie bei allen Theorien ließen sich auch deren postulierte Entitäten (z.B. eben „Wünsche“, „Hoffnungen“) nur so weit rechtfertigen, als diese Theorie wahr sei. Das Scheitern dieser Theorie ist jedoch gemäß den Materialisten vorprogrammiert, weil die „Kognitionswissenschaften, insbesondere die Neurobiologie, erst wirklich erklären, wie das Hirn funktioniert und in deren Taxonomie für Wörter wie „Überzeugungen“, „Befürchtungen“, „Hoffnungen“ etc. kein Platz mehr ist“. Ein Zurückführen dieser vermeintlichen Phänomene auf solche der Neurobiologie wäre auch nicht möglich. Daher – so folgern die eliminativen Materialisten – gibt es diese Entitäten nicht wirklich (vergl. Searle, dtsch., 1996, S. 63).

 

Searle bringt dazu sarkastisch eine Analogie aus der Physik, wobei die Tatsache, daß es in der theoretischen Physik für Ausdrücke wie „Bauernhaus“ oder „Tennisschläger“ keine Verwendung gibt, zur Behauptung führen müßte, daß Bauernhäuser und Tennisschläger nicht wirklich existieren. Implizit unterscheidet er auch hier wieder zwischen intrinsischen und anderen Merkmalen, die in einem Wittgenstein’schen Sinn wohl auch beobachter-relativ, zugleich aber (nachdem der Sprachgebrauch gelernt wurde) relativ zu einem subjektiven Erlebnis (einer bestimmten Erlebnisqualität) zu sehen sind.. Daraus könnte man folgern, daß geistige Phänomene u.a. auch im interkommunikativen Charakter der Sozietät begründete Konstrukte sind, deren Beschreibung eine Funktion im Sprachgebrauch mit Bezug auf Aspekte unseres Verhaltens hat, aus der wir sekundär einen Erlebnisbegriff erschließen.

 

Das Problem ist halt, daß auch Aussagen über intrinsische Eigenschaften insofern einen beobachter-relativen Zug haben, als sie eine Beschreibung darstellen, deren Wahrheit nicht unabhängig vom interkommunikativen Charakter unseres Sprachgebrauchs ist, der seinerseits ein Element unserer Verhaltensweisen und Lebenswelt darstellt. Genau genommen dürfte ein eliminativer Materialist nicht einmal mehr von „Gegenständen“ sprechen. Gegenstände sind „Gegenstände“ aufgrund einer Beschreibung relativ zu unseren biologischen Verhaltensweisen, Interessen, Lebensbedingungen und kulturellen Entwicklungen, relativ zu Aspekten also, die alle dynamisch aufgefaßt werden müssen (auch der Sprachgebrauch ist dynamisch).

 

Würde ein Physiker behaupten, Gegenstände gebe es nicht wirklich, sondern nur Teilchen (und selbst diese „Festlegung“ wäre offenbar nur eine Momentaufnahme), dann widerspräche das nicht nur der Art und Weise, wie wir die Welt „erleben“ (auch kraft einer somatisch verstrickten Begrifflichkeit), sondern ganz einfach einer Verhaltenspraxis, die unser Vokabular bestimmt und ihrerseits von ihm bestimmt wird.

 

Wenn es Begriffe gibt, die in bezug auf unsere Verhaltensweisen- und dispositionen eine bestimmte Funktion haben, dann kann sich die Frage nach ihrer Referenz unter Umständen erübrigen.

 

„........Begriffe haben nicht nur einen logischen Gehalt, sie haben auch Assoziationen, sie geben Anlaß zu Emotionen, sie sind verbunden mit Bildern. Diese Assoziationen, Emotionen, Bilder sind ganz wesentlich bei der Beziehung zu unseren Mitmenschen. Fallen sie weg oder verändern sie sich auf grundlegende Weise, dann werden die Begriffe zwar vielleicht „objektiver“, d.h. sie gehorchen dann vielleicht einem intellektuellen Kriterium, aber sie verletzen ein soziales Kriterium, nämlich zu Menschen als Menschen zu reden und nicht, als ob sie Steine wären“. (Putnam H., 1990).

 

Zwei letzte und gewichtige Argument, die ich diskutieren möchte, stammen von behavioristischer Seite, genau von seiten des logischen Behaviorismus, und besagen:

 

3.1.6. Die Zusammenhänge zwischen psychischen Zuständen und Verhaltensweisen sind analytischer (logischer) Natur

bzw.

 

3.1.7. Ausdrücke, die Geistiges bezeichnen, können in einer logischen Analyse restlos durch Ausdrücke, die Verhalten beschreiben, ersetzt werden (Sätze über den Geist lassen sich restlos in Sätze über Verhalten ersetzen).

 

Nach dem logischen Behaviorismus sind geistige Phänomene Verhaltensdispositionen. Wer beispielsweise glaubt, es werde hageln, ist disponiert, die Fensterläden zu schließen, das Auto, die Beete abzudecken, Lampen zu schützen etc. Die Probleme, die man sich mit der Rede von Dispositionen einhandelt, sind bereits an früherer Stelle angesprochen und diskutiert worden. Bis heute ist es niemandem gelungen, den Begriff der „Disposition“ völlig klarzumachen. Und im vorliegenden Zusammenhang hat noch niemand zufriedenstellend gezeigt, was für Antezedenssätze in den Konditional-aussagen vorkommen sollten, damit eine angemessene dispositionale Analyse mentalistischer Redeweisen durch verhaltensbezogene vorliegt (vergl. Searle, dtsch. 1996, S. 49). Nach Chisholm droht außerdem Zirkularität. Will man z.B. Glauben durch Verhalten analysieren, muß man sich zwangsläufig auf Wünsche beziehen; will man andererseits Wünsche durch Verhalten analysieren, kommt man nicht drumherum, auf den Glauben Bezug zu nehmen (Chisholm R.M., siehe bei Searle S. 50). Meine Verhaltensdispositionen in bezug auf den drohenden Hagel z.B. können nicht ohne Zusatzannahme wie etwa die, daß ich den Wunsch habe, daß mein Garten heil bleibt, in der logischen Analyse herausgearbeitet werden. Und in einer Analyse von Wünschen wiederum kommt man sicher nicht ohne Überzeugungen aus.

 

Mit einer Gleichsetzung von Geisteszuständen und Verhaltensweisen bleiben außerdem die zwischen ihnen bestehenden Kausalbeziehungen unberücksichtigt. Man kann nicht ein Schmerzerlebnis mit dem Schmerzverhalten gleichsetzen, wenn man davon ausgeht, daß ersteres letzteres verursacht..

 

Putnam hat die Idee von Superstoikern eingeführt, die zwar Schmerzen haben und genauso darunter leiden wie wir, die sich aber so zu beherrschen wissen, daß sie kein nonverbales Schmerzverhalten zeigen und lächelnd über die stärksten Schmerzen sprechen. Selbst das umgekehrte Modell eines perfekten Schmerzsimulanten ist vorstellbar, um den üblichen Zusammenhang von Schmerz und Schmerzverhalten zu zerstören. (Stegmüller W., Bd. II; S. 411). (Man könnte indessen mit Wittgenstein kritisieren, daß ohne Schmerzverhalten der Begriff des „Schmerzes“ gar nicht gelernt werden kann. D.h., es stellt sich die Frage, ob die Superstoiker – wenigstens die der zweiten Generation - den „gleichen“ Begriff von Schmerz hätten wie wir.)

 

Mit solchen Beispielen jedenfalls hat man die These vom analytischen Zusammenhang zwischen psychischen Zuständen und bestimmten Verhaltensmustern zum Einsturz oder zumindest ins Wanken gebracht. Die Zusammenhäng zwischen psychischen Zuständen und Verhaltensweisen sind immer kontingent und empirisch.

 

Für Hilary Putnam ist das Leib – Seele-Problem kein echtes theoretisches Problem, sondern ein verbales. Doch die Erkenntnis, daß die Beschreibung der funktionellen Organisation so komplexer Systeme wie Computer oder eben Menschen sowohl logisch verschieden ist von der Beschreibung ihres strukturellen (physikalisch-chemischen) Aufbaues als auch logisch verschieden von der Beschreibung ihrer tatsächlichen oder potentiellen Verhaltensweisen ist für ihn unwichtig, weil sie uns nicht den geringsten Aufschluß über die Natur der Welt liefert, in der wir leben (vergl. Stegmüller Bd II, S. 412). Damit sagt sie uns auch nichts darüber, was der Mensch ist.

 

In seinem Buch „Vernunft, Wahrheit, und Geschichte“ meint Putnam, daß es nichts Verborgenes gebe, keine noumenalen Fakten, die für Bewußtsein eines Wesens sprechen. Es gebe nur empirische Fakten (vergl. S. 141). Doch was wir daraus machen, ist nicht unabhängig von unseren Ähnlichkeitsstandards, die ein Produkt unseres biologischen, vor allem aber auch unseres kulturellen Erbes und des damit verknüpften Sprachgebrauchs sind. Da Wahrheit für Putnam nichts Beobachtungs- und damit auch nichts Erlebnis- und Sprachunabhängiges ist, wären wir nach seiner Ansicht vemutlich rasch sicher, daß Roboter Bewußtsein hätten, wenn es welche gäbe, die mit uns funktional isomorph wären, mit denen wir zusammenarbeiten, streiten oder auch befreundet sein würden (vergl. H. Putnam, dtsch. 1990, S. 140).

 

Putnam neigt im übrigen zu der Ansicht, daß die Theorie, wonach psychologische Eigenschaften mit funktionalen identisch sind, die richtige naturalistische Beschreibung der Geist – Körper-Beziehung liefert (S. 112). Trotz der Schwierigkeiten ,die er selbst aufdeckt und als Argument gegen sie ins Feld führt; nämlich, daß in manchen Fällen die Erlebnisqualität kein funktionaler Zustand zu sein scheint (für diese speziellen Fälle hält er die ältere Form der Identitätstheorie für richtig).

 

Die Widerlegung der Hpothese 3.1.4., wonach sich der Geist zum Gehirn verhält wie die Software zur Hardware, hat – sofern man sie als geglückt betrachtet – die unmittelbarsten Konsequenzen für die Programmatik jener Wissenschaftler,die sich mit der Erschaffung von künstlicher Intelligenz beschäftigen. Denn wenn die Syntax tatsächlich weder konstitutiv noch hinreichend für Semantik ist, dann bleibt die algorithmische Intelligenz „einsichtslos“, weil sie keine Referenz-Relationen selbständig zu installieren und schon gar keine Vorstellung  von extensionalen Begriffen zu entwickeln vermag. (Man könnte hier allerdings einwenden, daß mit der Kritik Quines an einer Unterscheidung zwischen Analytischem und Synthetischem auch der Unterscheidung zwischen ontologischen und empirischen Existenzfragen die Grundlage entzogen wurde (Stegmüller W. , Bd II, S. 256).

 

Die Syntax hat nach Searle keine Kausalkräfte, weil sie gar kein intrinsisches Merkmal welches physikalischen Systems auch immer ist. Man könnte es auch so ausdrücken: Bevor wir nicht eine Semantik haben, können wir auch keine Syntax zuschreiben. Allerdings sind dies theoretische Argumente, die die meisten Vertreter der KI und die Kognitivisten wenig beeindrucken. Sie klammern sich an die Feststellung, daß die parallele Architektur neuronaler Netze Symbole nicht ausschließlich nach struktursensitiven Regeln manipuliert. Denn ein Netzwerk trainieren ist nicht das Gleiche, wie es mit einem expliziten Algorithmus zu programmieren (vergl. „Lücken im Penrose-Parkett“, in: Metzinger Th, Hrsg., 1995, S. 227). Auf der anderen Seite scheint es unbestritten, daß das Verhalten solcher künstlicher neuronaler Netze zumindest annäherungsweise durch einen Algorithmus berechnet werden kann. Der Physiker Penrose dagegen vertritt – wie schon besprochen – die Ansicht, daß menschliches Denken nicht einmal annäherungsweise algorithmisch berechenbar ist (ebda.). Dazu kommt, daß es bis heute keinen endgültigen empirischen Beweis dafür gibt, daß das Hirn in dem Sinne Symbole manipuliert, wie es ein neuronales Netz tut.

 

Ein wichtiger Aspekt bei der Diskussion, ob Computer Geisteszustände haben können oder haben werden, liegt darin, daß diese nichts im Searle’schen Sinne Intrinsisches sein dürften, sondern daß ihre Begrifflichkeit („die sich nach und nach mit Leben füllt“) interkommunikativen, an Verhaltensweisen geknüpften Charakter hat (wie sonst könnte man ihre Verwendung lernen?) und damit auch kulturabhängig, also beobachter-relativ ist. Und selbst wenn Geisteszustände sich als etwas Intrinsisches herausstellten, dann könnte man mit Wittgenstein antworten: „Wenn man die Grammatik des Ausdrucks der Empfindungen nach dem Muster von Gegenstand und Bezeichnung konstruiert, dann fällt der Gegenstand als irrelevant aus der Betrachtung heraus“ (PU; § 293). In unserem Kontext könnte das heißen, daß das neurophysiologische Geschehen, das kausal ist für unsere Geisteszustände, unseren diesbezüglichen Sprachgebrauch nicht begründet. Wichtig für unseren Sprachgebrauch ist nicht, was sich in unserem Kopf abspielt, sondern welches Verhalten wir (im weitesten Sinne des Wortes) aufgrund dessen an den Tag legen (beispielsweise auch ein angemessenes Verhalten unterdrücken). Geisteszustände sind damit keine unfaßbaren, sondern eben gerade „begreifbare“ Phänomene: Begriffe mit einer bestimmten Funktion bzw. mit Funktionen in unserem  Kommunikations – Verhaltens-Netz (wozu auch die aus vielfältig sich wiederholenden Abläufen erschlossenen Dispositionen gehören). Geisteszustandsbegriffe sind nach meinem, an Wittgensteins Überlegungen orientiertem Verständnis unauflösbar mit sozialen Kriterien verknüpft.

 

Damit ist auch angesprochen, daß Geisteszustände mehr sind als bloße Verhaltens-dispositionen oder Verhaltensweisen. Das Gleichheitszeichen funktioniert hier nicht, weil ihre Begrifflichkeit ein Element der Interpretation von Verhaltensweisen ist (die Verhaltensweisen für ein- und denselben psychologischen Gegenstand sind ja z.B. zwischen verschiedenen Personen sehr uneinheitlich und gehen bei ein- und derselben Person für unterschiedliche Zustände übergangslos ineinander über), deren wichtigster Bestandteil wieder ein bestimmter Kontext ist. (Das gilt gerade auch für Verhaltensweisen- und dispositionen, denen bestimmte neurophysiologische Ereignisse zugeordnet werden können.)

 

Ein metaphysischer Realist (welcher Spezifikation auch immer) müßte eigentlich argumentieren: Geisteszustände können nicht gleichgesetzt werden  mit Verhaltens-weisen, wenigstens nicht in allen Fällen, weil offenbar Verhaltensweisen kontext-abhängig interpretiert werden und dazu – so scheint es – Geisteszustände nötig sind. (Die Interpretation des Interpretationszustandes wird mit einem „anderen“ Vokabular erschlossen.)

 

3.2. Der Computer-Mensch      [Kapitel 3.1]  [Inhaltsverzeichnis]  [Kapitel 3.3]

 

In der Überschrift dieses Abschnittes wurde die Frage gestellt: Was ist der Mensch? In der AI herrscht die latente Überzeugung, daß die Beantwortung dieser Frage für die Schaffung künstlicher Intelligenz (nach menschlichen Maßstäben) oder künstlichen Bewußtseins irrelevant ist. Wichtig ist allein, wie der Mensch funktioniert und wie man diese Funktionen generieren kann. Während Searle beispielsweise glaubt, daß zu einem künstlichen Verstand alle die kausalen Kräfte nötig sind, die relevant sind für bewußte menschliche Intelligenz, glauben die KI-Forscher, ein künstliches Gehirn könnte sich nicht-biochemischer Vorgänge für die gleichen Zwecke und Leistungen bedienen. Diese Hoffnung wird offensichtlich durch die Tatsache genährt, daß es etwa gelungen ist, mit höchstintegrierten Schaltungen eine künstliche Netzhaut und eine künstliche Innenohrschnecke zu bauen. Dabei handelt es sich nicht einfach um Simulationen, sondern um reale Informationsverarbeitungseinheiten, die in Echtzeit auf wirkliches Licht oder auf wirkliche Geräusche reagieren (vergl. Paul M. und Patricia Churchland in Spektrum, Akademischer Verlag, 1994, S. 161). Bei diesen Chips werden keine neurochemischen Stoffe benützt, und man hält es für möglich, daß sich diese Systeme zu einem künstlichen Gehirn erweitern lassen.

 

In seinem Buch „Die Wiederentdeckung des Geistes“ hat Searle mögliche Konsequenzen der fiktionalen Vorstellung, man könnte letztlich das gesamte Hirn nach und nach z.B. durch Siliziumchips ersetzen, durchgespielt (S. 85). Eine denkbare Entwicklung bestünde darin, daß man wie zuvor Gedanken, Erlebnisse, Erinnerungen etc. hätte, d.h. das geistige Leben bliebe dasselbe. Die Siliziumchips könnten also nicht nur die Input-Output-Funktionen eines Menschen nachvollziehen, sondern  auch geistige bewußte oder unbewußte Phänomene duplizieren. Kurzum: Weder für die anderen (Beobachter)noch für mich würde sich etwas ändern. Es wäre dabei möglich die Kausalkräfte von Neuronen vollständig mit Silizium herzustellen.

 

Die zweite fiktionale Möglichkeit bestünde darin, daß mit der zunehmenden Menge an Siliziumimplantaten im schwindenden Originalgehirn der Bereich meines bewußten Erlebens immer kleiner würde, ohne daß dies aber Einfluß auf mein äußeres Verhalten hätte. D.h. mein bewußtes Erleben würde schrumpfen, mein beobachtbares Verhalten jedoch gleich bleiben wie früher. (Ich hätte beispielsweise keinen Einfluß mehr auf meine Wahrnehmungen und die damit zusammenhängende Kommunikation. Ich hätte keine Empfindungen mehr in bezug auf meine Wahrnehmungen und Äußerungen, würde mich aber so verhalten wie bisher. Innerlich wäre ich tot, würde also bei gleichbleibendem Verhalten nach und nach mein Bewußtsein verlieren). Die Siliziumchips wären somit in der Lage die Input-Output-Funktionen des gesamten Zentralnervensystems, nicht aber das Bewußtsein aufrechtzuerhalten (weil es ihnen an den Kausalkräften der Neuronen ermangelt).

 

Searle rechtfertigt diese seltsam anmutende gedankliche Möglichkeit damit, daß sich nach heutigem Wissensstand die Basis des Bewußtseins in bestimmten Bereichen des Gehirns (z.B. in der Fomatio reticularis) befindet, sodaß man hypothetisch annehmen kann, daß es mit diesen Hirnbereichen allmählich abwärtsgeht, d.h., daß das Bewußtsein allmählich erlöscht.

 

Die dritte Variante schließlich wäre die, daß die fortschreitende Implantierung von Siliziumchips zwar keine Veränderung in unserem geistigen Leben nach sich ziehen würde, jedoch uns zunehmend unfähiger machte, Gedanken bzw. Gefühle in Handlungen umzusetzen.Wir besäßen das geistige Leben wie zuvor, die geistigen Phänomene fänden aber keinen Ausdruck in unserem Verhalten mehr (tatsächlich gibt es diese Erscheinung im klinischen Bereich; man spricht vom Guillain/Barré-Syndrom: die Patienten sind vollkommen gelähmt, zugleich aber vollständig bei Bewußtsein).

 

Solche Gedankenexperimente veranschaulichen nach Searle folgendes: Ontologisch gesehen sind Verhalten, funktionale Rolle und Kausalbeziehungen für die Existenz bewußter geistiger Phänomene irrelevant. Unter erkenntnistheoretischen Gesichtspunkten erfahren wir aber teilweise aus dem Verhalten der Menschen etwas über ihr Bewußtsein bzw. ihre Bewußtseins-phänomene. Nach Searle dient das Bewußtsein der Vermittlung von Kausalbeziehungen zwischen Inputs (Reizen) und Outputs (Verhalten). Und aus evolutionstheoretischer Sicht besteht die Kausalfunktion des Bewußtseins darin,Verhalten zu steuern (vergl. Searle, dtsch. 1996, S. 86ff). Aus all seinen Überlegungen leitet Searle ein Prinzip der Unabhängigkeit von Bewußtsein und Verhalten ab. Außerdem, so meint er, wird dadurch klar, daß die Ontologie des Geistigen wesentlich eine Ontologie der ersten Person ist. D.h., jeder Geisteszustand ist ein Geisteszustand von jemand ganz Bestimmtem. Geisteszustände, so Searle, existieren nur als subjektive Erste-Person-Phänomene (ebda.).Erkenntnistheoretisch betrachtet ist der Standpunkt der ersten Person etwas ganz anderes als jener der dritten Person. Für Searle ist es vorstellbar, daß jemand vom Standpunkt der dritten Person unfähig sein könnte, zu beurteilen, ob ein anderer Geisteszustände hat, obwohl es für diesen selbst außer Frage stünde, daß er bei Bewußtsein ist.

 

Das impliziert nun allerdings, daß wenn z.B. ein neuronales Netz Geist hätte,wir das nicht mit Sicherheit wissen könnten. Letztlich scheint es also doch darauf hinaus zu laufen, daß wir aus dem Verhalten von Organismen oder komplexen Systemen erschließen müssen, was wir ihnen an intellektuellen Fähigkeiten zuschreiben wollen. Ableitungen neuronaler Aktivitäten haben bei dieser Erschließung mentaler Phänomene gegenüber den in den sozialen Kontext eingebetteten Verhaltensweisen sekundären Charakter. Zwar ist beispielsweise der Verlauf sensorisch evozierter hirnelektrischer Potentiale für jede Sinnesmodalität typisch und besteht zwischen externem Reizgeschehen und Erleben insofern eine Diskrepanz, als objektiv gleiche Reize, die geringfügig verschieden erlebt werden, eine in seiner Verlaufseigenheit nicht dem Reiz, sondern dem Erleben entsprechendes Potential hervorrufen, aber ohne das Wissen darum, ohne eine Beobachtung, was für ein externer Reiz auf das Nervensystem einwirkte, wäre eine solche Entschlüsselung (im Sinne einer kohärenten Beschreibung) gar nicht möglich geworden.Die Erregungskorrelate, die auf einen äußeren Reiz oder auf ein inneres Geschehen (etwa eine Vorstellung) folgen, konnten nur über wahrnehm-bares Verhalten (und dazu gehören auch Äußerungen und Zustandsbeschreibungen etc.) als solche erschlossen werden.

 

Das wird auch übersehen, wenn man Wittgenstein den Vorwurf des Behaviorismus macht. Er leugnet ja nicht die Möglichkeit geistiger Prozesse (wo wäre denn auch das Faktum der Leugnung). Aber ein kohärentes Reden über sie (bzw. die Entwicklung einer interkommunikativen Begrifflichkeit) ist nur über ihre Verflechtung mit interpretier- und beschreibbaren Verhaltensweisen innerhalb einer Sozietät möglich. Daran ändert auch die Tatsache nichts, daß Verhaltensweisen fehlinterpretiert werden können. Dies ist der Preis für die Offenheit und Flexibilität unserer Begrifflichkeit, sodaß Neubeschreibungen glücken können, ohne daß wir jedesmal auf Neologismen zurückgreifen müssen.

 

Wittgenstein jedenfalls – so scheint mir – würde Searle in seiner Ansicht widersprechen, daß Verhalten unerheblich ist , wenn es um die Ontologie des Bewußtseins geht. Ich bezweifle, daß er einen Unterschied gemacht hätte zwischen Ontologie und Erkenntnistheorie des Bewußtseins. Für ihn war das Bewußtsein nicht ein Phänomen, das mit einem Begriff erfaßt wird. Die Erklärung oder Diskussion bewußter geistiger Akte bzw. Phänomene ist nicht damit abgeschlossen, daß man deren physiologische Grundlage in der Aktivität der Formatio reticularis lokalisiert.

 

Daß ein Gegenstand von Licht beschienen wird (ein Teil der Welt, hier eingefangen als Sachverhalt), mag eine Bedingung dafür sein, daß er erkannt werden kann. Weitere Bedingungen sind, daß ein System mit bestimmten (adäquaten) sensorischen und neurophysiologischen Möglichkeiten dazwischen tritt, das aber nun nicht nur etwas sieht, sondern dieses „Etwas“ auf der Basis begrifflicher Strukturen, eingebettet in beschreibbare Verhaltensweisen und innerhalb eines „begriffenen“ komplexen Kontextes als etwas, als einen bestimmten Gegenstand erkennt. (Erkenntnis und Begrifflichkeit sind hier unauflösbar miteinander verbunden.) Außerhalb eines bestimmten kulturell gefärbten Beschreibungs- und Handlungskontextes bleiben viele für den Menschen typische Bewußtseinsphänomene wie z.B. der von einer konkreten Erscheinung  gelöste Gegenstandsbezug oder andere intentionale Phänomene (die sich in der Sprache enthüllen) unerklärlich. Der physikalische Reduktionismus liefert im Zusammenhang mit Bewußtseinsphänomenen eine Scheinobjektivität. Was hilft es uns für das Verständnis „geistiger Erlebnisse“ , wenn wir z.B. „Schmerz“ als Muster neuronaler Aktivitäten neudefinieren? Der Begriff des „Schmerzes“ hat andere Kommunikations- und Verhaltensfunktionen als die Neudefinition (außer wir ließen es zu, daß sie in funktioneller Hinsicht an die Stelle des „alten“ Begriffes träte. Doch was würde das ändern?). Nach Rorty ist Wittgenstein einer jener wenigen Philosophen, die Reduktionismus und Expansionismus (letzteres im Sinne Heideggers) vermeiden. Denn er behandelt alternative Vokabulare mehr wie alternative  Werkzeuge als wie Puzzleelemente. „Wenn man sie wie Puzzlestücke behandelt, nimmt man an, daß alle Vokabulare ersetzbar oder auf andere Vokabulare reduzierbar oder zur Zusammen-führung.........zu einem großen einheitlichen Supervokabular geeignet sind. Wenn wir diese Annahme nicht machen, werden wir nicht dazu neigen, Fragen zu stellen vom Typ: „Welchen Ort hat das Bewußtsein in einer Welt der Moleküle?“....... „Welche Beziehung besteht zwischen dem für den Alltagsverstand festen Tisch und dem nichtfesten Tisch der Mikrophysik?“ Oder: „Welche Beziehung besteht zwischen Sprache und Denken?“ (Rorty R. , dtsch. 1992, S. 34ff).

 

Nach Rorty sollten wir uns stattdessen auf andere Fragen wie z.B. die beschränken, ob der Gebrauch bestimmter Worte dem Gebrauch anderer Worte im Wege steht. Damit rückt er die Effizienz unseres Sprachgebrauchs in den Mittelpunkt des Interesses. D.h., daß wir uns von der Verwendung eines mentalistischen Vokabulars einfach mehr Effizienz bei der Vorhersage dessen erwarten, was ein Organismus, insbesondere ein Mensch, vielleicht aber auch ein Roboter, unter gewissen Bedingungen tun oder sagen wird (vergl. S. 40). „Daß ein gegebener Organismus – oder auch eine Maschine – Bewußtsein hat, heißt nur, daß es sich auszahlen wird, sie als etwas zu denken, daß Überzeugungen und Wünsche hat. Sagt man, sie benütze eine Sprache, so heißt das nur, daß der Vergleich der Zeichen und Geräusche, die sie macht, mit denen, die wir machen, sich als nützliches Vorgehen bei der Vorhersage und Kontrolle ihres zukünftigen Verhaltens erweisen wird“ (ebda.).

 

Ein Problem in diesem Zusammenhang besteht meiner Meinung nach darin, daß wir uns schwertun, uns selbst als ein Geschöpf mit Wünschen und Überzeugungen zu denken. Ich habe ja nicht die Überzeugung, daß ich eine Überzeugung habe (abgesehen davon, daß hier ein unendlicher Regreß lauert). Natürlich kann ich die unproblematische Überzeugung haben, daß irgendwer oder irgendwas eine Überzeugung hat. Sollten dazu noch sowohl Privatsprache (wie sie Wittgenstein versteht) als auch sprachloses begriffliches Denken unmöglich sein (das Gegenteil läßt sich aus pragmatischen Gründen kaum argumentieren), dann verwiese dies auf die enge Verflechtung von Bewußtseinsphänomenen mit den Strukturen einer Sozietät bzw. mit den Vehaltensmustern und Erscheinungen innerhalb einer Gesellschaft.

 

Im übrigen entspringen auch wissenschaftliche Revolutionen, also Vorgänge in Bereichen mit physikalistischem Vokabular, nach Rorty nicht Einsichten in die immanente Natur der Natur, sondern sind metaphorische Neubeschreibungen (© Mary Hesse) der Natur. Er ist der Ansicht, daß wir der Versuchung widerstehen müßten zu glauben, daß Neubeschreibungen der Realität, die die zeitgenössische Physik oder Biologie anböten, den Dingen selbst irgendwie näher seien, weniger bewußtseins-abhängig, als die Neubeschreibungen beispielsweise der Geschichte, die von zeitgenössischen Kulturkritikern angeboten würden (vergl. S. 42).

 

Das ist eine Auffassung, die darauf hinausläuft, daß überkommene Probleme aufgelöst statt gelöst werden. Indem wir unsere Redeweise verändern, verändern sich unsere Handlungen, Urteile und Überzeugungen; und damit verändern sich auch die Dinge um uns herum. Die Frage, ob z.B. künstliche Systeme jemals Bewußtsein im Sinne einer geistige Phänomene konstituierenden Begrifflichkeit haben werden, ist damit schon deswegen keine „rein empirische“ mehr, weil der Ausdruck „rein empirisch“ auf einem metaphysischen Realismus fußt, dem die Formulierung „geistige Phänomene konstituierende Begrifflichkeit“ aus seiner externalistischen Perspektive, wonach die Welt aus geistesunabhängigen Gegenständen besteht und die Wahrheit sich in einer eindeutigen Korrespondenz zwischen Zeichen und Dingen manifestiert, völlig unverständlich erscheinen muß. Doch der metaphysische Realismus gilt unter Wissenschaftstheoretikern als überholt (feiert allerdings fröhliche Urstände in der Psychologie und in Kognitionswissenschaften). Die Dinge, genauer die Beschreibung der Dinge, ihre Charakterisierungen sind in keiner Disziplin etwas „Beobachterunab-hängiges“. Die Welt, sagt Putnam, enthält keine selbstidentifizierenden geistesunabhängigen Gegenstände.

 

Ob ein Organismus, ein System, ein Computer oder was auch immer, Bewußtsein (Phänomene) hat, werden daher auf dieser Erde  wir Menschen in gewisser Weise „entscheiden“. Inwieweit solche Entscheidungen über Sprachgebrauch bzw. Neubeschreibungen oder Rekontextualisierung von Begriffen kontingent sind bzw. ob sich Kontingenz und Willensfreiheit vertragen, werde ich hier nicht mehr diskutieren. Wir werden vemutlich über die Zuschreibung „geistiger Fähigkeiten“ ebensowenig empirisch entscheiden wie über die Zuschreibung von „Schönheit“ oder von „lebenswert“ bei Föten oder von „Zurechnungsfähigkeit“ bei Straftätern (um nicht noch krassere Beispiele heranzuziehen). Die Naturwissenschaften kann uns diese Entscheidung nicht abnehmen, weil eine Beschreibung in diesem Zusammenhang pragmatischen Charakter hat. D.h. die Möglichkeiten einer „Sach-Definition“ sind im vornhinein schon durch unseren Sprachgebrauch abgesteckt. So meint denn auch Goodman, es sei zwecklos zu versuchen, unabhängig von einer Begriffsbildung und unabhängig von der für richtig  gehaltenen Beschreibung eine Vorstellung davon zu gewinnen, was es mit den Fakten der Wahrnehmung auf sich habe.

 

Puntam haut in die gleiche Kerbe, wenn er meint, daß die Zahl der Ähnlichkeiten , die sich zwischen zwei beliebigen Gegenständen finden ließen, ausschließlich durch unsere geistigen Fähigkeiten und unsere Zeit begrenzt seien (vergl. Putnam H. ,dtsch. 1990, S. 94). Und da meiner Ansicht nach diese Fähigkeiten explizit gemacht werden können müssen, spielt das Vokabular und dessen Gebrauch innerhalb beschreibbarer Kontexte dabei eine tragende Rolle.

 

Aus dieser Sicht ist das Scheitern der Identitätstheorie bzw. des Physikalismus (wie diskutiert) nichts, was gegen die Möglichkeit der Schaffung künstlichen Bewußtseins im Sinne von von uns als mental beschriebene Phänomene sprechen würde. Denn die Kriterien, an denen man sie scheitern läßt, sind keine, die frei von Pragmatik wären, frei davon, daß unsere Begriffe sich wandeln können.

 

Auch daß es mit funktionalistischem Vokabular nicht gelingt, den qualitativen Charakter subjektiver Empfindungen einzufangen, wie Putnam zeigte, daß der Funktionalismus keine hinreichende Erklärung für psychologische Phänomene zu formulieren vermag, besagt unter diesem Aspekt im Hinblick auf den Bau künstlicher Geschöpfe mit bestimmten mentalen Fähigkeiten, wie wir sie uns zuschreiben, nicht viel.

 

Nicht unumstritten scheint heute, daß zur künstlichen Generierung von Bewußtseins-phänomenen mehr gehört, als die Manipulation syntaktischer Elemente bzw. die Herstellung von Relationen zwischen ihnen (auch wenn das viele KI-Forscher wahrhaben wollen). Nach Searle sind solche Relationen auch nichts Intrinsisches, sondern etwas Beobachterrelatives. Für jedes Programm und jeden hinreichend komplexen Gegenstand, meint er, gebe es irgendeine Beschreibung unter welcher der Gegenstand des Programm implementiert (vergl. John R. Searle, dtsch. 1996, S. 234). Daraus folgt, daß man alles als digitalen Computer beschreiben kann, auch das Gehirn. Die kognitivistische These, daß der Geist sich zum Gehirn verhält wie die Software zur Hardware beim Computer, ist daher möglicherweise aus theoretischer und praktischer Sicht irrelevant, eine inhaltsleere Metapher.

 

Wie problematisch es ist, über die Existenz bestimmter geistiger Entitäten unabhängig von einer Reflexion der interkommunikativen (soziopsychologischen) Funktion des damit verknüpften Vokabulars entscheiden zu wollen, haben uns die eliminativen Materialisten gezeigt. Unser Erleben, unser Sprachgebrauch und unsere Handlungen sind miteinander untrennbar verflochten; das ist eine der wichtigsten Botschaften der Philosophischen Untersuchungen Wittgensteins. Begriffe lassen sich nicht eliminieren, der Sprachgebrauch nicht verändern, ohne daß sich unsere Welt, unser Denken ändert.

 

Geistige Entitäten wie „Wünsche“, „Hoffnungen“, „Schmerz“, „Zorn“ auf neurophysiologische Vorgänge bzw. deren Beschreibungen reduzieren zu wollen, ist schon deswegen verfehlt, weil letztere keine gleichwertige interkommunikative Funktion und damit keinen diesbezüglichen Anteil an unserer „Meinung“ über den anderen haben. Anteil an geistigen Entitäten (und damit z.B. auch an meiner Meinung von anderen) haben aber meine in den sozialen Kontext eingebetteten Sprech-handlungen und alle anderen Handlungen, denen wir entsprechende Symbolik zuschreiben können (die Rede ist hier von „sekundären Reizen“, die eine adäquate Reaktionsdisposition nicht unabhängig von der Entwicklung einer Begrifflichkeit, der Fähigkeit zu einem Sprachgebrauch finden konnten). Ähnliches hat Tugendhat im Sinn, wenn er schreibt, daß es außerhalb der Verwendung von Sätzen keine Handlungen oder Handlungsdispositionen gibt, die man als Ausdruck des „Meinens“ bezeichnen könnte (vergl. Tugendhat E. , 1976, S. 236).

 

Das Vermögen zu kohärentem und mit dem übrigen Verhalten und den Handlungen innerhalb der Sozietät konsistentem Sprachgebrauch wird eine entscheidende Rolle dabei spielen, ob wir z.B. einem künstlichen System bestimmte Arten von geistigen Fähigkeiten zuschreiben werden oder nicht (und es dann auch dementsprechend behandeln). Die Komplexität dieser Bedingung verdeutlicht auch das Sprechaktmodell von Austin und Searle, das eine Äußerung in die Komponenten „lokutionärer Akt“, „illokutionärer Akt“ und „perlokutionärer Akt“ aufschlüsselt und damit deren Bandbreite zeigt, die in ihren von einem in eine bestimmte Lebenswelt eingebundenen Sprecher abhängigen Möglichkeiten liegt, in verschiedene Kontexte (Ereignisstrukturen, Handlungen, Handlungsoptionen) einzutreten. Wenn icht sage: „Es regnet“ (lokutionärer Akt) und damit in einem illokutionären Akt „meine“: „Nimm den Schirm mit“, dann steht dieser illokutionäre Akt nicht  als nichtsprachliches Meinen hinter dieser Äußerung, sondern er ist Teil des verbalen und optionalen Handlungskontextes, der wiederum in unsere Lebenswelt eingebettet ist, innerhalb derer wir auch die Standards für geistige Fähigkeiten lernen. Zu diesen Standards gehört das Beherrschen entsprechender Begriffe bzw. Sätze in wechselnden Kontexten.

 

Wenn man dazu noch bedenkt, daß die Wahrheit oder Falschheit von Sätzen nur vor dem Hintergrund der Zustimmung oder Ablehnung, also vor dem Hintergrund anderer Sätze ins Spiel kommt, dann wird meines Erachtens klar, welcher primär erlernten und damit für die anderen auch erfahrbaren (austauschbaren) Fähigkeiten es bedarf, damit wir bereit sind, nicht nur Zugeständnisse hinsichtlich bestimmter geistiger  Vermögen zu machen, sondern auch jemand mit spezifischen Verhaltensweisen entgegenzutreten, die die Interpretation zulassen, daß wir z.B. annehmen, daß der (das) andere seinerseits von uns eine Annahme macht, auch wenn er es nicht explizit oder unmittelbar verständlich äußerte. Menschliche Verhaltensweisen lassen sich in unzähligen Fällen nicht in Form von Reiz-Reaktionsmustern, sondern nur im Rahmen eines Sprachgebrauchs als von erlernten Begriffen abhängige Interpretation beschreiben. (Es ist beispielsweise sinnlos von jemandem zu sagen: Er hat mich zynisch angelächelt, von dem man annehmen muß , daß er den Begriff des „Zynismus“ nicht versteht, und d.h. sehr vereinfacht, den entsprechenden Sprachgebrauch nicht beherrscht.) Das Lernen von Begriffen gehört (um ein Beispiel von Winch zu verallgemeinern) auch dem Erlernen der Standards an, die das Leben in der Gesellschaft dominieren; und das wiederum gehört dem Prozeß an, als ein soziales Wesen leben zu lernen (vergl. P. Winch, dtsch. 1974, S. 107). Handlungs- und Sprachverständnis sind nur bottom up möglich, bedürfen eines pragmatischen Bezugs zur Welt und sind untrennbar miteinander verknüpft.

 

Durch unser beobachtbares Verhalten sind wir Menschen auf Überzeugungen festgelegt, ohne daß wir diese explizit gebildet haben mögen. Sprachgebrauch und die übrigen Handlungen sind in vielen Fällen streng aufeinander abgestimmt. D.h. mit den Worten Searles, daß wir bestimmte Propositionen nicht bestreiten können, ohne in Widerspruch zu unserem Verhalten zu geraten (vergl. John R. Searle, dtsch. 1996, S. 209). Auf der anderen Seite können wir nach Davidson einem Handelnden eine propositionale Einstellung nur sinnvoll zuschreiben, wenn wir uns im Rahmen einer akzeptablen Theorie seiner Meinungen, Wünsche, Absichten und Entscheidungen bewegen. Er ist der Ansicht, daß Meinungen einer Person aufgrund ihres sprachlichen Verhaltens, ihrer Präferenzen oder anderer Anzeichen nicht einzeln und isoliert zugeschrieben werden können, denn wir verstünden einzelne Meinungen nur soweit sie mit anderen Meinungen, Präferenzen, Absichten, Hoffnungen, Befürchtungen , Erwartungen und allem übrigen kohärent zusammenstimmten (vergl. D.Davidson in Bieri Peter (Hrsg.), 1981, S. 86).

 

Ob all das auch gegen die technischen Möglichkeiten eines künstlichen Bewußtseins im Sinne „mental“ beschriebener Phänomene spricht, bleibt offen. Eine solche Fragestellung scheint das Problem teilweise zu verschleiern. Denn die Art, wie und in welchen Begriffen wir zu irgendeiner (späteren) Zeit von gewissen Dingen reden, beeinflußt auch unsere Geschichtsschreibung und somit die Beschreibung vergangener Forschungsaspekte.

 

So muß man sich auch fragen, worauf denn überhaupt die Trennung zwischen „physikalischem“ und „mentalem“ Vokabular beruht. Ein wichtiger, bereits angesprochener Faktor sind sicherlich die unterschiedlichen Funktionen der Äußerungen. Wie schon erwähnt, können neuronale Vorgänge für uns nicht zum Kriterium der Zuschreibung mentaler Zustände werden, weil sie kein sichtbares und damit interpretierbares (primäres) Verhaltenskriterium darstellen und daher (für gewöhnlich) auch keine Rückschlüsse auf ihren Träger zulassen. Die neurophysiologischen Ereignisse sind notwendige Bedingungen, d.h. kausal für das Vorkommen „innerer Zustände und Akte“ (oder auch nur für den „funktionellen Einsatz“ einer bestimmten sprachgebundenen Begrifflichkeit), abes ihnen fehlt eben die funktionale Einbettung in den jeweiligen Sprachspielkontext, die die Verhaltensweisen zu notwendigen Bedingungen der Zuschreibbarkeit „geistiger Vorgänge“ macht (und eine Verhaltensweise ist der Sprachgebrauch). Es ist allerdings denkbar, daß wir manche Verhaltensweisen, die als Kriterium für die Zuschreibung bestimmter mentaler Fähigkeiten dienen, auf der Basis eines physikalistischen Vokabulars interpretieren können. Wir verwenden aber in der Regel bereits bei der Interpretation einfachster menschlicher Verhaltensweisen mentalistische Begriffe. Wir könnten indessen eindeutige Kriterien zur Unterscheidung der beiden Vokabulare festlegen. Selbst wenn man keinen sprachanalytischen Ansatz wählt und wie der metaphysische Realismus davon ausgeht, daß die Welt aus geistes- und somit sprachunabhängigen  Gegenständen besteht, für deren Verständnis es genau eine wahre Beschreibung gibt, erhält man Schwierigkeiten bei der Unterscheidung von Physikalischem und und Materiellem. So gilt beispielsweise nicht jede Eigenschaft, die auf physikalische Dinge zutrifft, als physikalisch; das ist ja gerade das Problem des Eigenschaftsdualismus (vergl. Robert Van Gulick in Metzinger Th., Hrsg., 1995, S. 84). Die Tatsache, daß wir dem Gehirn geistige Eigenschaften zuschreiben, deutet zugleich darauf hin, daß uns die Annahme einer Korrespondenzbeziehung zwischen Wörtern (bzw. Gedankenzeichen) und äußeren Dingen bei der Klärung unseres Vokabulars nicht weiterhilft, weil unser Sprachge-brauch unsere kohärenten Überzeugungen innerhalb der Sozietät regelt – und nicht umgekehrt.

 

Es ist nicht klar, wie physikalische Eigenschaften von solchen Eigenschaften abzugrenzen wären, die auf physikalische Gegenstände zutreffen. Möchte man z.B. nur Eigenschaften zulassen, auf die in physikalischen Theorien Bezug genommen oder über die quantifiziert wird, fallen unbestritten physikalische Eigenschaften höherer Ordnung von organisierten physikalischen Systemen wie die, „eine Hornhaut zu sein“ aus dem Rahmen. Denn umstritten ist, auf welche Weise sie von physikalischen Basiseigen-schaften konstituiert werden (ebda.). Offenbar haben diese Termini auch noch eine andere die physikalische Theorie sprengende funktionale Rolle.

 

Ein sprachanalytischer Ansatz zur Unterscheidung physikalischer und mentaler Vokabulare könnte mit dem Versuch der Identifizierung jener Prädikate beginnen, mit denen wir von intentionalen, also von solchen Erlebnissen sprechen, die einen Sachverhalt oder einen (charakterisierten) Gegenstand zum Inhalt haben. Das lieferte uns auf der einen Seite intentionale Verben wie „wissen“, „meinen“, „zweifeln“, „wünschen“, „fragen“, „hoffen“ etc., deren Eigenheit es ist, für eine Relation  zwischen einer Person und einem Sachverhalt zu stehen; und auf der anderen Seite intentionale Verben wie „lieben“, „hassen“, „bemitleiden“, „bewundern“, deren transitive Objekte singuläre Termini sind, die für einen Gegenstand stehen. Daneben gibt es noch intentionale Verben, denen sowohl Sachverhalte als auch Gegenstandsbezeichnungen als grammatisches Objekt dienen: „wahrnehmen“, „sehen“, „sich erinnern“, „begehren“ etc. (vergl. E.Tugendhat, 1976, S. 98ff). Geht man davon aus, daß Intentionalität bzw. intentionale Phänomene einen erheblichen Teil dessen ausmachen, was unter

Bewußtsein, respektive Bewußtseinsphänomenen verstanden wird, muß man nach Tugendhat klarstellen, wodurch sich die entsprechenden transitiven Verben von nichtintentionalen transitiven Verben abheben. Er unterscheidet dabei zunächst zwischen scheinbar nichtpropositionalen und propositionalen intentionalen Bewußtseinsweisen, zeigt aber dann, daß das Gegenstandsbewußtsein propositionales Bewußtsein impliziert, weil das Gegenstandsbewußtsein das Für-wahr-halten eines Existenzsatzes miteinschließt.

 

Wie früher erwähnt, hat Brentano auf das Charakteristikum intentionaler Relationen aufmerksam gemacht, daß das zweite Relationsglied im Gegensatz zu nichtintentionalen Beziehungen nicht zu existieren braucht. Das aber – so Tugendhat – ist eine Folge davon, daß wir uns auf einen Gegenstand nur derart intentional, also bewußt beziehen können, daß wir ihn für existent halten. Dies gilt – entgegen Brentanos These – auch für (scheinbar) nichtpropositionale intentionale Relationen, bei denen das zweite Glied existent sein muß und die mit Verben wie „sehen“, „hören“ in Zusammenhang stehen. Auch sie implizieren ein propositionales Bewußtsein, nämlich daß der Stimulus existiert. Und selbst das Fantasiebewußtsein von einem Gegenstand ist nach Tugendhat implizit propositional, weil er als existent gedacht werden muß (sonst ließe sich ja keine Geschichte,z.B. ein Märchen aufspannen), allerdings nicht als wirklich existierend gemeint wird. Damit steht nach Tugendhat fest, daß alle sogenannten intensionalen (Bewußtseins-)Phänomene explizit oder implizit propositionale „Geisteszustände“ darstellen, und das heißt nichts anderes, als daß sie in einem Satzverständnis gründen. Die Frage nach dem Bewußtsein geht auf in der Frage nach dem Verstehen eines Satzes.

 

Auch von einem Handlungsbewußtsein – so Tugendhat – kann man in einem engen Sinn nur bei Wesen sprechen, die sprechen können (vergl. S. 109). Das aber impliziert wiederum das Bewußtsein von Sachverhalten. Handlungen in diesem engeren Sinn werden von vielen Autoren über eine dahinter stehende Absicht definiert; und eine solche erkennt man letztlich nur daran, daß sie vom Betreffenden geäußert wird. Nun gibt es offenbar auch das, was wir unbewußte Absichten nennen. Doch sie sind es nur, insofern sie bewußt gemacht werden können (ansonsten wäre dieser Sprachgebrauch gar nicht möglich geworden). Gerade auch am unbewußten Verhalten „zeigt“ sich die Verankerung menschlicher Handlungen in der Fähigkeit zum Verständnis und zur Rechtfertigung von Sachverhalten und somit im Sprachgebrauch. So klassifiziert Freud – wie Peter Winch ausführt – Handlungen als sinnhaft orientiert, die für den oberflächlichen Betrachter keinen Sinn haben. Beispielsweise wenn N „aus Versehen“ vergißt einen Brief an X aufzugeben (vergl. P. Winch, 1974, S. 63). Es wäre nun – so Winch – sinnlos zu sagen, daß N´s Versäumnis, den Brief aufzugeben, Ausdruck seines unbewußten Grolls darüber sei, daß X über seinen Kopf hinweg befördert wurde, wenn N selbst nicht wüßte, was der Ausdruck „über jemandes Kopf hinweg befördert werden“ bedeutete.

 

Wollte man Handlungsbewußtsein physikalistisch erfassen, müßte man demnach zeigen, daß sich Sprechhandlungen im weitesten Sinn physikalistisch, beispielsweise behavioristisch beschreiben lassen. E. Tugendhat hat aber gezeigt, daß Sprachver-ständnis weder verhaltenstheoretisch noch auf der Ebene instrumenteller Regeln erklärt werden kann (vergl. E. Tugendhat, 1976, S. 227). Er illustriert, wie das Verständnis gegenstandsbezogener Behauptungen im Verstehen von Verifikations- bzw- Verwendungsregeln wurzelt, wobei eine Ja/Nein-Stellungnahme dazugehört. Die Zeichen unserer Sprache sind mehr als bloße Signale, die nicht sowohl als Information als auch als Aufforderung verstanden werden können und bei denen die passende Reaktion einfach in der Ausführung einer Handlung besteht. Ein Zeichen kann – wie Tugendhat darlegt – nur dann assertorisch oder imperativisch verwendet werden, wenn der Rezipient die Möglichkeit hat, auf die Zeichengebung als eine assertorische oder imperativische, also auf die Zeichengebung als solche zu reagieren (während das Signal lediglich ein Ersatzreiz für bestimmte Umstände darstellt, auf den es in dieser Funktion zu reagieren gilt, wobei Sprecher- und Hörerbedeutung auseinanderfallen). Sprachverständnis bedingt also eine kontextabhängige übereinstimmende Interpretationsleistung der Beteiligten und die Fähigkeit zu einer Stellungnahme im Sinne einer Bejahung oder Verneinung, einer Annahme oder Verweigerung, eines Zweifels oder einer Zustimmung. Und darin –so Tugendhat – liegt der Ursprung von Freiheit und Vernunft.

 

Daß im übrigen die Frage nach intentionalem Bewußtsein in der Frage nach dem Satzverstehen aufgeht, macht natürlich die Sache für die KI-Forschung nicht leichter. Eine brauchbare Theorie dazu ist allerdings nach Tugendhat nicht in Sicht. Man hofft in der KI-Forschung – wie es scheint – darauf, daß die neuronalen Netze Sprache irgendwie lernen können, wenn nur die richtigen Rahmenbedingungen geschaffen sind. Versteht man die Sprache als eine integrierte Fähigkeit des Menschen, dann gehören dazu – grob gesprochen - auch menschenähnliche körperliche Voraussetzungen eines Netzwerkes in Robotergestalt (die darüber hinaus innerhalb eines bestimmten Umfeldes „gefordert“ werden müssen).

 

 Searle glaubt außerdem, daß jedes System, das Geist hervorrufen kann, kausale Kräfte benötigt, die denen menschlicher Gehirne wenigstens gleichwertig sind.

 

Alles in allem macht es den deutlichen Anschein, als ob sich eine kognitive Psychologie nicht einfach auf Gehirn- plus Computerwissenschaft reduzieren läßt, obwohl diese Annahme in der von allen Seiten geteilten Überzeugung wurzelt, daß man jede Wissenschaft letztendlich auf die Physik zurückführen kann. Denken, so meinte schon Hobbes, sei doch nichts anderes als ein Handhaben von Zeichen nach Regeln, also Rechnen, und La Metrie nannte den Menschen eine Maschine. Nachdem mit den modernen Computern die Idee der universellen Turingmaschine verwirklicht worden war, kam dann die These auf, der Mensch sei eigentlich auch nur eine Turingmaschine. In Anbetracht der Tatsache, daß schon bald das gesamte Universum als eine Art implementierter Algorithmus betrachtet wurde, war diese Annahme naheliegend. Schließlich gehorchte doch der ganze menschliche Körper den Gesetzen der Physik und sollte als solcher im Sinne allgemein  rekursiver Funktionen berechenbar sein. Doch dann wurde die Möglichkeit physikalischer Systeme bewiesen, deren zeitliche Entwicklung nicht durch eine rekursive Funktion beschrieben werden kann; und zwar selbst dann nicht, wenn sich die Ausgangsbedingungen des Systems so beschreiben lassen (vergl.  H. Putnam, 1997, S. 11 ff). Damit ist es auch aus physikalischer Sicht fragwürdig geworden, ob Menschen Turingmaschinen sind oder als solche dargestellt werden können. Zwar kann jedes physikalische System von einem Automaten simuliert werden, über dessen  Verhalten wir nur bis zu einem angegebenen  Genauigkeitsgrad Bescheid wissen wollen und dessen Lebenszeit endlich ist;weil jede Funktion im Bereiche jedes endlichen Zeitintervalles bis zu einer determinierten Genauigkeit durch eine rekursive Funktion näherungsweise bestimmt werden kann (vergl. Putnam ebda.). Doch es stellt sich außerdem die Frage, ob eine derartige Simulation eine übersichtliche (Aufschluß gebende) Darstellung des Systemverhaltens gäbe. Putnam und andere wie Penrose bezweifeln dies explizit.

 

Was läßt sich daraus im Zusammenhang mit den Fähigkeiten künstlicher neuronaler Netze, deren Prozesse analog und parallel verlaufen, die flexibel und plastisch sind, schließen? Wir haben gesehen, daß sie in gewisser Weise „lernen“, ohne durchgängig programmiert zu werden, daß sie in der Lage sind, auf unvollständige Eingaben mit korrekten „Antworten“ zu reagieren. Ihre Input-Output-Funktionen sind nicht berechenbar in dem Sinne, daß sie Fälle expliziter Regelbefolgung oder diskreter Zustandsveränderungen darstellen würden. Doch auch ihr Verhalten kann annäherungsweise durch einen Algorithmus berechnet werden. Sollten wir geneigt sein, die Fähigkeiten solcher Maschinen mit einem mentalen Vokabular zu beschreiben, wären wir dann auf einer neuen Stufe der  Reflexion des Menschen angelangt?

 

Der Physiker Roger Penrose glaubt dies nicht. Er ist der Überzeugung, daß menschliches Denken nicht einmal annäherungsweise algorithmisch berechenbar und damit etwas ist, was nicht mit künstlichen neuronalen Netzen simuliert werden kann. Er betrachtet Mikrotubuli als Wirkorte der Quantengravitation und somit als Fenster für nicht-algorithmische Prozesse der menschlichen Kognition (vergl. Rick Grush & Patricia Smith Churchland in Metzinger Th. (Hrsg.), 1995, S. 225). Vielleicht zielt Searle auf etwas Ähnliches, wenn er meint, zur Grundvoraussetzung für die Generierung bestimmter mentaler Phänomene gehörten bestimmte kausale Kräfte. Das wäre nun ein Gegenargument auf der Ebene des metaphysischen Realismus.

 

Eines der wichtigsten Probleme, dem man nach Putnam bei der „Erschaffung“ menschlicher Intelligenz (auf künstlicher Basis) gegenübersteht, ist die Fähigkeit der Menschen zu induktivem Schließen, die wiederum das Vermögen voraussetzt, Ähnlichkeiten zu „erkennen“. Putnam hat hier das Wort „erkennen“ verwendet, und ich habe es unter Anführungszeichen gesetzt, weil er selbst auch in Ähnlichkeiten nicht nur Konstanten physischer Reize oder Inputmuster der Sinnesorgane sieht. Für uns Menschen, die wir in einem Sprachgebrauch stehen, sind oder werden viele Dinge nicht dadurch ähnlich, daß sie gleich aussehen,sondern dadurch, daß wir ihnen in bezug auf handelnde Personen einheitliche Zwecke zuschreiben. Putnam bringt das Beispiel von Messern, die dadurch ähnlich werden, daß sie zum Schneiden und Stechen verfertigt bzw. verwendet werden (vergl. Putnam H., 1997, S. 22).

 

Uns - so meint er in einem weiteren Beispiel – mag es natürlich vorkommen, bei der Feststellung der Ähnlichkeit von Hunden (z.B. Zwergpinscher und Rottweiler) das Paarungs- und Fortpflanzungspotential in Rechnung zu stellen. Einer künstlichen Intelligenz könnte dies jedoch unter Umständen alles andere als natürlich erscheinen.

 

Wittgenstein verwendet das Beispiel der „Spiele“ für seinen Begriff von der „Familienähnlichkeit“, um zu beleuchten, daß der Sprachgebrauch und nicht etwas, das allen Spielen gemeinsam wäre, bestimmend ist für das Ähnlichkeitskonstrukt.

 

Dazu stellt sich des weiteren das bereits besprochene Problem der Existenz widerstreitender induktiver Schlüsse, wonach wir in vielen Fällen (vielleicht aufgrund angeborener Tendenzen – wie Puntma meint) etwas schon anhand weniger Erfahrungen zu folgern geneigt sind (und damit richtig liegen), obwohl weit mehr Beobachtungen dagegen sprechen. Wie aber „gewichten“ wir dann unser Wissen? Wieviel von dem, was wir Intelligenz nennen, setzt den Rest menschlicher Natur voraus? Putnam deutet hier an, daß wir möglicherweise mit dem Sprachgebrauch impliziten Informationen arbeiten (z.B. die Art und Weise,wie wir über etwas reden). Für das Projekt der künstlichen Intelligenz stellt sich dann aber die Frage,wie es möglich ist, die in den gehörten Äußerungen enthaltenen Informationen zu entschlüsseln. Und ferner: Wie und mit welchem Hintergrundwissen soll man ein künstliches System ausstatten? (Eine Frage, der ja auch R. Dreyfus großes Gewicht beimißt).

 

Hilary Putnam ist der Ansicht, daß der Versuch, alle, d.h. auch nicht explizit artikulierte Informationen menschlicher Beurteiler induktiver Schlüsse zu programmieren, schon allein deswegen scheitert, weil zu deren Formalisierung Generationen von Forschern nötig wären. Und das Resultat wäre womöglich nichts weiteres als ein riesiges fantasieloses Expertensystem, das nicht einzusehen vermöchte, daß es in vielen Fällen gerade das Hintergrundwissen sei, das preisgegeben werden müsse.

 

Der zweite Ansatz besteht eben darin, einen Roboter oder Ähnliches zu konstruieren, der sein Hintergrundwissen über Interaktionen mit Menschen so lernt wie ein Kind. D.h., der eine Sprache und mit ihr (und in ihr) alle übrigen expliziten und impliziten kulturgebundenen Informationen, aber auch Verhaltensweisen u.a. erwirbt.

 

Orientiert man sich an Chomsky, dann dürfte auch diese Möglichkeit, wie wir gesehen haben,so gut wie ausgeschlossen sein. Denn demnach ist der Erwerb einer Sprache weniger ein Lernen als vielmehr eine in einer bestimmten Umgebung erfolgende Ausreifung angeborener Fähigkeiten.

 

KI-Forscher hoffen natürlich andererseits, daß es das gibt, was Putnam eine mehr oder weniger themenabhängige  Lernheuristik nennt, die (ohne Zuhilfenahme nicht praktikabler Mengen fest verdrahteten Hintergrundwissens oder themenunabhängiger begrifflicher Fähigkeiten) für das Erlernen einer natürlichen Sprache genügte.      [Kapitel 3.2]  [Inhaltsverzeichnis]  [Kapitel 3.3]