Onlinejournal    Kultur . >        < Suchen  > > >   Finden  >

 

 

SWR2 AULA - Prof. Thomas Metzinger: Das letzte Rätsel der Philosophie . Was ist das Bewusstsein (2)
Autor und Sprecher: Prof. Thomas Metzinger *
http://www.philosophie.uni-mainz.de/metzinger/metzinger_dt.html  
http://www.mentis.de/index.php?id=00000034&article_id=00000028&category=&book_id=00000413&key=metzinger  
Redaktion: Ralf Caspary, Susanne Paluch
Sendung: Sonntag, 28. Oktober 2007, 8.30 Uhr, SWR 2
Bitte beachten Sie:
Das Manuskript ist ausschließlich zum persönlichen, privaten Gebrauch bestimmt.
Jede weitere Vervielfältigung und Verbreitung bedarf der ausdrücklichen
Genehmigung des Urhebers bzw. des SWR.

*************
ÜBERBLICK
Nichts scheint uns so nah zu sein wie das eigene Bewusstsein, unsere Sinnesempfindungen, Gefühle und Gedanken sind uns auf sehr direkte Art gegeben, sie gehören auf untrennbare Weise zu unserer Identität. Dennoch gibt es Gefühle, die wir uns nicht erklären können, es gibt Gedanken über Menschen und die Welt, die wir im Rückblick revidieren müssen, die auf Irrtümern basierten, und es bleibt immer die Frage, ob unser Bewusstein auch die äußere Welt adäquat widerspiegelt. Was ist die Farbe Grün, die ich gerade beim Anblick eines Blatts empfinde, ist das nur ein subjektives Phänomen? Thomas Metzinger, Professor für Philosophie an der Gutenberg-Universität in Mainz, beschreibt im zweiten Teil das phänomenale Bewusstsein mit seinen Inhalten.

************
ZUM AUTOR *
Thomas Metzinger, geboren 1958, Studium der Philosophie, Ethnologie und Religionswissenschaften in Frankfurt am Main, Magisterarbeit über Rationalismus und Mystik, danach Promotion mit einer Arbeit über das Leib-Seele-Problem. 1992 Habilitation im Fach Philosophie, 1997 - 98 Fellow am Hanse-Wissenschaftskolleg in Bremen-Delmenhorst, danach an der University of California in San Diego, 1999 Professor für Philosophie der Kognition in Osnabrück, ab 2000 Professor für Theoretische Philosophie an der Universität Mainz, seit 2005 Adjunct Fellow am Frankfurt Institute for Advanced Study, 2005 - 2007 Präsident der Gesellschaft für Kognitionswissenschaft. Forschungsschwerpunkte: Philosophie des Geistes, Künstliche Intelligenz und verwandte Bereiche, Ethik.

BÜCHER
Grundkurs Philosophie des Geistes (Hrsg)., 3 Bände (Band 3 noch nicht erschienen), Mentis Verlag.
Band 1: Phänomenales Bewusstsein.
Band 2: Das Leib-Seele-Problem.
Being No One. The Self-Model Theory of Subjectivity. Cambridge Mit Press.
Neural Correlates of Consciousness: Empriical and Conceptual Issues. Mit Press.
Neuere Beiträge zur Diskussion des Leib-Seele-Problems. Lang.
Bewußtsein. Beiträge aus der Gegenwartsphilosophie (Hrsg.). Mentis.


***************
INHALT
Ansage:

Heute mit dem Thema: „Das letzte Rätsel der Philosophie - Was ist das Bewusstein“, Teil 2.

Der Mainzer Bewusstseinsphilosoph Professor Thomas Metzinger hat im ersten Teil seiner Reihe gezeigt, aus welchen elementaren Bausteinen das menschliche Bewusstsein besteht.

Heute geht es um die höheren und komplexeren Ebenen des Bewusstseins. Und denen nähert sich Metzinger, indem er fragt, wie man ein künstliches Maschinenbewusstein herstellen könnte, welche Elemente und Bausteine man dazu benötigen würde, damit diese Maschine, also etwa der Roboter, ein echtes Bewusstein haben könnte:


Thomas Metzinger:

Echtes Bewusstsein entsteht dann, wenn sich die repräsentationalen Zustände eines informationsverarbeitenden Systems für dieses selbst irgendwie anfühlen, also wenn sie - wie bei der Fledermaus aus der ersten Vorlesung - einen introspektiv zugänglichen qualitativen Charakter besitzen. Dass ein beliebiges System sich so verhält, als ob es echte Farben sehen oder wirklichen Schmerz empfinden könnte, ist bei näherem Hinsehen ein genauso unbefriedigendes Kriterium wie die Tatsache, dass es vielleicht auf sprachlicher Ebene behauptet, es hätte tatsächlich bewusste Erlebnisse.

Eine schöne Idee hatte der amerikanische Philosoph Daniel Dennett in seinem Aufsatz „COG – Schritte in Richtung auf Bewusstsein in Robotern“, der auf Deutsch in dem Sammelband „Bewusstseins – Beiträge aus der Gegenwartsphilosophie“ abgedruckt ist: Ein Roboter ist genau dann bewusst, so Dennett, wenn er zur zuverlässigsten Informationsquelle darüber wird, was gerade in ihm vorgeht und was er als nächstes tun wird. Dennett sagt: Es besteht eine hohe Wahrscheinlichkeit, dass die Konstrukteure schlichtweg die Vormachtstellung derer verlieren werden, die ein Kunstprodukt entworfen haben („Ich habe ihn gemacht, deshalb weiß ich auch, was er tun sollte und was er jetzt gerade tut!“). Wenn wir die Maschine selbst fragen müssen, um herauszufinden, was sie als nächstes tun wird, dann ist sie auch bewusst.

Der klassische Turing-Test ist sicher zu schwach. Am anderen Ende des Spektrums liegt ein wesentlich stärkerer und deshalb vielleicht manchmal besserer Test für phänomenales Bewusstsein, der Metzinger-Test: Wir sollten ein System spätestens dann als bewusstes Objekt behandeln, wenn es uns gegenüber auf überzeugende Weise demonstriert, dass die philosophische Frage nach dem Bewusstsein für es selbst ein Problem geworden ist, zum Beispiel wenn es eine eigene Theorie des Bewusstseins vertritt, das heißt wenn es mit eigenen Argumenten in die Diskussion um künstliches Bewusstsein einzugreifen beginnt, wenn es ernsthaft versucht, sich selbst zu verstehen.

Was aber ist in der Mitte des Spektrums mit menschlichen Kleinkindern oder mit den vielen empfindungsfähigen Tieren auf unserem Planeten? Sicherlich kann man bewusst sein – z. B. Freude und Schmerz empfinden –, ohne denken zu können, sicher sind auch Systeme mit einer sehr niedrigen Intelligenz leidensfähig und auf jeden Fall muss uns eine gute Theorie des Bewusstseins erklären können, was genau der Punkt ist, an dem im Laufe der biologischen Evolution Empfindungsfähigkeit und phänomenales Erleben entstanden sind. Das ist übrigens von enormer Bedeutung für die Ethik: Welche Tiere darf man überhaupt essen oder als Versuchstiere in der Bewusstseinsforschung benutzen? Bewusstsein und Leidensfähigkeit machen ein Wesen automatisch zu einem Gegenstand ethischer Überlegungen. Das ist ein wichtiger Punkt.

Im zweiten Teil der Vorlesung werde ich kurz dafür argumentieren, dass wir die Erschaffung künstlichen Bewusstseins aus ethischen Gründen auf keinen Fall zu einer Zielsetzung seriöser akademischer Forschung machen sollten. Es gibt nämlich auch die Frage, was hier überhaupt moralisch vertretbares Handeln ist. Es geht beim Bewusstsein nicht nur um Erkenntnis, sondern auch um Ethik. Doch zurück zum Maschinenbewusstsein.

Drei Kriterien dafür, wie es gehen könnte:

Das erste Kriterium: In-der-Welt-sein.
Bewusstsein zu haben bedeutet, dass einem eine ganz bestimmte Menge von Tatsachen verfügbar sind: alle Tatsachen, die damit zusammenhängen, dass man in einer Welt lebt. Aus diesem Grund benötigt jede Maschine, die Bewusstsein haben soll, ein integriertes und dynamisches Weltmodell. Sie muss eine einheitliche innere Darstellung der Welt als ganzer besitzen und die in dieser Darstellung integrierte Information muss global verfügbar sein. Bewusste Information ist nämlich genau die Information im System, die gerade global, das heißt für alle Verarbeitungsmechanismen gleichzeitig, verfügbar ist. Diesen Punkt kann man auf vielen Beschreibungsebenen gleichzeitig erläutern.

Auf der phänomenologischen Beschreibungsebene zeigt sich, dass mein bewusstes Erleben durch die Fähigkeit charakterisiert wird, scheinbar direkt auf die Inhalte meines Bewusstseins zu reagieren, und zwar mit einer Vielzahl meiner geistigen und körperlichen Fähigkeiten: Ich kann meine Aufmerksamkeit auf eine Farbwahrnehmung oder auf ein Körpergefühl richten, um sie genauer zu inspizieren („attentionale Verfügbarkeit“). In manchen Fällen gelingt es mir, Begriffe für bestimmte Erlebnisinhalte zu bilden („kognitive Verfügbarkeit“), die sie vielleicht mit früheren Erlebnissen desselben Typs verbinden („Verfügbarkeit für das autobiografische Gedächtnis“), ich kann über meine Bewusstseinsinhalte sprechen („Verfügbarkeit für die Sprachkontrolle“) und deshalb auch mit anderen Menschen darüber kommunizieren („kommunikative Verfügbarkeit“). Ich kann jetzt aber auch zum Beispiel nach farbigen Gegenständen greifen und sie anhand ihrer phänomenalen Eigenschaften sortieren („Verfügbarkeit für die Handlungskontrolle“). Die Globalität des bewussten Erlebens besteht also darin, dass alle Bewusstseinsinhalte immer in ein einheitliches Realitätsmodell integriert sind, in einen Kontext höchster Stufe. Es gibt ein einziges, ganzheitliches Bild der Wirklichkeit. Aus der Innenperspektive ist diese höchststufige phänomenale Ganzheit einfach die Welt, in der ich mein Leben lebe – und die Grenzen dieser Welt sind die Grenzen meiner Wirklichkeit. Diese phänomenologische Tatsache ist so einfach und grundlegend, dass sie häufig übersehen wird: Bewusste Systeme sind alle Systeme, die mit global verfügbarer Information operieren und die sich selbst deshalb als in einer einzigen Welt lebend erfahren. Jedes bewusste System benötigt deshalb ein integriertes, globales Weltmodell, welches eine Teilmenge der in ihm gerade aktiven Information gleichzeitig verfügbar macht für spezialisierte Prozesse wie introspektive Aufmerksamkeit, Gedächtnis, symbolisches Denken usw.

Eine prominente Hypothese war die von Bernard Baars, die sogenannte „Global workspace theory (GWT)“. Vereinfacht ausgedrückt sagt diese Theorie des Bewusstseins, dass die Inhalte des bewussten Erlebens einfach die Inhalte eines globalen Arbeitsspeichers sind, der uns den schnellen und flexiblen Zugriff auf sehr verschiedene Inhalte und vor allem die schnelle und flexible Kontrolle sowohl unseres Äußeren wie auch unseres inneren Verhaltens ermöglicht. Es ist jetzt auch prinzipiell möglich, das gesamte Realitätsmodell in einem Schritt „upzudaten“ und Lernvorgänge zu implementieren, die in einem einzigen Schritt stattfinden.

Doch wenden wir uns dem zweiten Kriterium zu:

Das Entstehen einer erlebten Gegenwart.
Beginnen wir wieder auf der phänomenologischen Beschreibungsebene. Ausnahmslos alle unsere Bewusstseinszustände sind dadurch gekennzeichnet, dass alles, was wir erleben – unabhängig von dem konkreten Inhalt, den wir erleben – immer als „Jetzt“ erlebt wird. Auch eine bewusste Erinnerung wird als eine Erinnerung, die jetzt auftritt, erlebt. Dass eine Maschine oder ein Mensch Bewusstsein haben, wird immer bedeuten, dass es für sie eine Gegenwart gibt: Gegenwärtigkeit bedeutet, dass einem System ein bestimmter geistiger Inhalt als aktuell gegeben erscheint. Präsenz, Gegenwärtigkeit ist sozusagen die zeitliche Unmittelbarkeit der Existenz als solcher. Ohne diese zeitliche Unmittelbarkeit gäbe es kein Bewusstsein, denn die Realität und wir selbst würden uns nicht mehr „erscheinen“: Phänomenales Erleben ist immer das Erscheinen innerhalb einer Gegenwart. Wenn man nicht über einzelne Zustände, sondern über Personen oder informationsverarbeitende Systeme als Ganze spricht, dann erkennt man jetzt auch, wieso der Unterschied zwischen Bewusstheit und Unbewusstheit Wesen wie uns selbst als von so großer Bedeutung erscheint: Nur Personen mit phänomenalen Zuständen existieren überhaupt als psychologische Subjekte. Nur Personen, die ein subjektives Jetzt besitzen, sind gegenwärtige Wesen – für sich selbst und für andere. Die Inhalte des phänomenalen Erlebens erzeugen also nicht nur eine Welt, sondern auch eine Gegenwart. Bewusste Erlebnisse zu haben bedeutet, nicht nur im Fluss der physikalischen Welt zu sein, sondern sozusagen in einer Gegenwartsinsel, in einer operational erzeugten Eigenzeit zu leben; und das bedeutet wiederum, Information auf eine sehr spezielle Weise zu verarbeiten. Jede Maschine, der wir Bewusstsein zusprechen wollen, muss so etwas wie einen psychologischen Moment besitzen, einen zeitlich ausgedehnten phänomenalen Augenblick.

Auf der repräsentationalistischen Beschreibungsebene muss dazu sehr viel geleistet werden: wir müssen temporale Identität intern dargestellten (erlebte Gleichzeitigkeit), außerdem temporale Unterschiedlichkeit (erlebte Nichtgleichzeitigkeit), Geordnetheit und Unidirektionalität (die erlebte Folge von Einzelereignissen), temporale Ganzheit (die Erzeugung einer integrierten Gegenwart, eines ausgedehnten phänomenalen Jetzt, also einer zeitlichen Gestalt) und die interne Darstellung von temporaler Permanenz (entsprechend dem bewussten Erleben von Dauer). Der entscheidende Übergang zum Bewusstsein, als zur phänomenalen Repräsentation von Zeit, findet erst im vorletzten Schritt statt: genau dann, wenn Ereignisrepräsentationen kontinuierlich zu übergreifenden psychologischen Momenten integriert werden. Man kann sich diesen Schritt so vorstellen wie die Verschmelzung einzelner musikalischer Noten zu einem Motiv. Das bedeutet, dass ein bewusstes künstliches System die repräsentationalen Ressourcen besitzen muss, um zeitliche Internalität zu simulieren. Die Jetztheit ist nämlich eine besondere Art von Innerlichkeit. Und genau genommen ist das, was wir als unsere aktuelle Gegenwart erleben, eine spezielle Form der Erinnerung.

Diese spezielle Form eines globalisierten Kurzzeitgedächtnisses – eine „Jetzt-Erinnerung“ – ist das, was jede auch bewusste Maschine bräuchte: Sie bräuchte eine repräsentationale Ressource, in der verschiedene Inhalte zusammengeführt und zusammen in der scheinbar direkten Gegebenheit als gleichzeitig dargestellt werden. Ich nenne dieses zweite Kriterium den Besitz eines „virtuellen Gegenwartsfensters“.

Kriterium 1 und 2 kann man verbinden. Wenn das globale Weltmodell – oder ein Teil davon – in das virtuelle Gegenwartsfenster des Systems eingebettet wird, dann ist der so erzeugte Inhalt die Gegenwart einer Welt. Für das betreffende System gibt es dann eine einzige zusammenhängende Realität, und diese Realität wird als eine dargestellt, die aktual gegeben und mit der das System in scheinbar direktem Kontakt ist. Bewusstes Erleben ist die Gegenwart einer Wirklichkeit. Jetzt kann man sich auch gut vorstellen, wie ein System zusätzlich ein umfassendes unbewusstes Modell der Realität haben könnte, nämlich den Teil, der gerade nicht global verfügbar und nicht in sein bewusstes Gegenwartsfenster eingebettet ist. Es ist klar, dass auch ein solches unbewusstes Modell der Wirklichkeit das Verhalten des Systems kausal beeinflussen könnte. Das unbewusste Weltmodell wäre dann genau jener Teil, der gerade nicht als gegenwärtig dargestellt wird. Um Bewusstsein zu erzeugen, reicht es jedoch nicht aus, einfach nur ein dynamisches, globales Weltmodell in ein virtuelles Gegenwartsfenster einzubetten. Was notwendig ist, ist die Erzeugung einer genuinen inneren Realität. Denn Bewusstsein ist im Kern genau das: Das Erscheinen einer Wirklichkeit.

Deshalb kommt jetzt das dritte Kriterium für Maschinenbewusstsein:

Transparenz: Die funktionale Implementierung des naiven Realismus.
Wie kommt man von einer komplexen 4D-Repräsentation zu einer echt erlebten Wirklichkeit? Die Lösung liegt in dem, was Philosophen manchmal „phänomenale Transparenz“ nennen. Was heißt das? Die vom System eingesetzten Mittel der Darstellung müssten phänomenal transparent sein, das heißt, die Tatsache, dass sie Modelle sind, nicht mehr auf der Ebene ihres Inhalts darstellen. Was genau heißt das?

Transparenz ist eine Eigenschaft bewusster Repräsentationen. Das erste, was man verstehen muss, ist also, dass nur bewusste Repräsentationen in diesem Sinne durchsichtig oder undurchsichtig sein können, transparent oder opak. Eine unbewusste Repräsentation im Gehirn oder in einem Roboter ist weder transparent noch opak. Zweitens hat Transparenz nichts mit Wissen zu tun, es ist kein Begriff der philosophischen Erkenntnistheorie, sondern mit der Struktur des Erlebens, mit dem „Wirklichkeitsgefühl“ und dem naiven Realismus – es ist also ein Begriff der philosophischen Phänomenologie.

Eine vollständig transparente Repräsentation zeichnet sich dadurch aus, dass die internen Mechanismen, die zu ihrer Aktivierung geführt haben, und die Tatsache, dass es einen konkreten inneren Zustand gibt, der ihren Gehalt trägt, introspektiv nicht mehr erkannt werden können. Im normalen Wachbewusstsein gilt das für unser phänomenales Modell der Welt als ganzer: Das Mittel der Darstellung kann selbst nicht noch einmal als solches dargestellt werden und darum wird das erlebende System notwendigerweise in einen naiven Realismus verstrickt, weil es sich selbst als in direktem Kontakt mit dem Inhalt seines Bewusstseins erleben muss. Das, was es nicht erleben kann, ist die Tatsache, dass sein Erleben immer in einem Medium stattfindet.

Nehmen wir an, Sie blicken auf einen Apfel in Ihrer Hand. Der repräsentationale Träger Ihres Erlebnisses ist ein bestimmter Vorgang im Gehirn. Diesen Vorgang erleben Sie nicht bewusst, er ist transparent in dem Sinne, dass Sie, wenn es funktioniert, durch ihn hindurchschauen. Worauf Sie schauen, ist sein repräsentationaler Inhalt, eben die sensorisch gegebene Existenz eines Apfels, hier und jetzt. Der Inhalt ist also eine abstrakte Eigenschaft des konkreten Zustands in Ihrem Kopf. Wenn der repräsentationale Träger ein gut und zuverlässig funktionierendes Instrument zur Wissensgewinnung ist, dann erlaubt er Ihnen dank seiner Transparenz, sozusagen „durch ihn hindurch“ direkt auf die Welt, auf den Apfel zu schauen. Er macht die von ihm getragene Information global verfügbar, ohne dass Sie sich darum kümmern müssen, wie das geschieht. Das Besondere an der phänomenalen Variante der Repräsentation ist nun, dass Sie diesen Inhalt auch dann, wenn Sie etwa halluzinieren und es den Apfel gar nicht gibt, immer noch als maximal konkret, als absolut eindeutig, als direkt und unmittelbar gegeben erleben. Phänomenale Repräsentationen sind fast immer solche, für die wir die Unterscheidung zwischen Medium und Inhalt im subjektiven Erleben nicht machen können.

Ich behaupte, dass wir Menschen Systeme sind, die nicht in der Lage sind, ihr eigenes subsymbolisches Selbstmodell als Selbstmodell zu erkennen. Und dadurch erst entsteht ein echtes, phänomenal erlebtes Selbst. Diesen Punkt werden wir in der dritten und letzten Vorlesung weiter vertiefen. Es ist klar, dass auch ein künstliches System – etwa ein Roboter oder vielleicht sogar das Internet – ein Selbstmodell haben könnte, vielleicht sogar ein wesentlich umfangreicheres, flexibleres und schnelleres als wir Menschen.

Nun wird auch klar, was wir tun müssten, um eine Maschine in einen für sie erlebnismäßig unhintergehbaren naiven Realismus zu verstricken: Wir müssten ihr zumindest für einen großen Teil ihres internen Weltmodells (inklusive seiner zeitlichen Eigenschaften und der Tatsache, dass der Inhalt des virtuellen Gegenwartsfensters nur die Simulation einer Gegenwart ist) die Möglichkeit nehmen, diese Tatsache zu repräsentieren, dass all dies nur der Inhalt einer von ihr selbst erzeugten inneren Darstellung ist.

Es ist interessant zu sehen, was seit vielen Jahren immer die populärste Antwort der meisten Menschen ist, wenn sie mit Fragen nach der Möglichkeit von Maschinenbewusstsein oder künstlicher Subjektivität konfrontiert werden: „Aber“, so lautet die traditionelle Antwort, „keines dieser Systeme wird jemals so etwas wie echte Gefühle haben!“ Dieser intellektuelle Reflex entspringt zwar meistens einer primitiven Art von political correctness oder einem philosophisch unreflektierten Vorurteil, könnte aber tatsächlich eine für uns wichtige Einsicht enthalten: Künstliche Systeme, so wie wir sie heute kennen, besitzen keine leiblich verankerten Zielrepräsentationen, weil sie in ihrer kausalen Entstehungsgeschichte nicht evolutionär verankert sind. Das bedeutet, dass weder ihre Hardware noch ihre Software sich aus einem evolutionären Optimierungsprozess heraus entwickelt haben. Sie mögen vom Programmierer eingegebene Zielrepräsentationen haben, aber diese spiegeln sich nicht direkt in physischen Zuständen und in körperlichen Formen des Selbstbewusstseins wider. Es sind nicht ihre eigenen Ziele, die solche Maschinen verfolgen. Der philosophische Teleofunktionalismus ist die These, dass mentale Zustände nicht nur eine kausale Rolle im System spielen müssen, sondern dass sie diese Rolle für das System spielen müssen: Mentale Zustände sind erst dann wirklich geistige Zustände, sie haben erst dann wirklich einen Inhalt, wenn sie von dem System als Ganzem dazu benutzt werden, seine Ziele zu verfolgen.

Für bewusste Zustände heißt dies, dass sie in einen evolutionären Kontext eingebettet sein müssen. Sie müssen dem System dabei helfen, seine Bedürfnisse zu befriedigen oder langfristige Ziele zu verfolgen und auch zu erreichen. Das ist es, was fast allen heutigen Systemen fehlt: Sie besitzen zwar die Ziele ihrer menschlichen Konstrukteure, aber keine eigenen Ziele. Bei den meisten heutigen Systemen muss man, um die teleologische Funktion zu verstehen, immer das Gesamtsystem aus Programmierer und Roboter verstehen: Es sind letztlich immer die Ziele des Menschen, welche von der Maschine realisiert werden, egal wie autonom und flexibel diese auch immer bereits geworden sein mag.

Meine eigene Position zur Möglichkeit von Maschinenbewusstsein ist, dass es auf jeden Fall möglich ist; phänomenale Eigenschaften auch höherer Stufe lassen sich funktional analysieren und deswegen auch in einer Maschine implementieren. Trotzdem werden wir bewusste Systeme noch lange nicht sehen, ganz einfach deswegen, weil der Teufel nicht in großen theoretischen Entwürfen steckt, sondern in technischen Details.

Ich finde, wir sollten dennoch rechtzeitig auch über die ethischen Gesichtspunkte nachdenken. Es hat sich in der Vergangenheit gezeigt, dass man rationale Diskussionen besser führen kann, wenn man noch nicht unter Zeitdruck steht, und wer weiß – vielleicht geht die technische Entwicklung in Richtung künstliches Bewusstsein ja doch schneller als wir alle ahnen.

Ich möchte dafür argumentieren, dass die Erzeugung postbiotischen Bewusstseins kein Ziel der akademischen Forschung sein sollte und dass wir vorerst auf alle Versuche verzichten sollten, phänomenales Bewusstsein auf nicht-biologischen Trägermedien zu erzeugen. Den entscheidenden Punkt, auf den es ankommt, habe ich schon erwähnt: Sie würden eine zentrale Fähigkeit mit uns teilen, nämlich die Fähigkeit zu leiden.

Künstliches Bewusstsein, synthetische Selbste sind für viele der ultimative technologische Traum. Sie könnte aber jederzeit zu einem Alptraum werden und deshalb bin ich als Philosoph strikt gegen jeden Versuch, den technologischen Traum zu realisieren – und zwar aus ethischen Gründen. Warum?

Was würden Sie sagen, wenn jemand die folgende Forderung stellen würde: „Wir müssen unbedingt mit Hilfe der Gentechnologie geistig behinderte menschliche Säuglinge züchten! Aus wissenschaftlichen Gründen müssen wir so schnell wie möglich menschliche Kleinkinder mit ganz bestimmten kognitiven und emotionalen Defiziten erzeugen, damit wir ihre postnatale psychologische Entwicklung genauer untersuchen können – wir brauchen dringend zusätzliche Steuergelder für diese wichtige und innovative Forschungsstrategie!“ Sicher würden Sie denken, dies sei nicht nur eine absurde und geschmackslose, sondern auch eine wirklich gefährliche Idee. Wahrscheinlich würde solch ein Vorschlag von keinem Ethikkomitee in der demokratischen Welt genehmigt werden. Was heutige Ethikkomitees jedoch nicht sehen, ist die Tatsache, dass die ersten Maschinen, welche den minimal notwendigen Set von Bedingungen für bewusstes Erleben erfüllen, sich in einer hochgradig analogen Situation befinden würden wie solche geistig behinderten Säuglinge: Auch sie würden nicht gut funktionieren; auch sie würden unter allen möglichen Arten von funktionalen und repräsentationalen Defiziten leiden. Aber sie würden diese Defizite dann auch subjektiv erleben. Außerdem besäßen sie keine politische Lobby – keinen Vertreter in irgendeinem Ethikkomitee.

Wenn sie ein emotionales Selbstmodell besäßen, dann könnten sie leiden unter Umständen sogar in Intensitätsgraden oder Formen des qualitativen Reichtums, die selbst wir als ihre Erzeuger uns noch nicht einmal vorstellen könnten, weil sie uns vollständig fremd wären. Wenn sie sogar ein kognitives Selbstmodell besäßen, dann könnten sie ihre bizarre Situation nicht nur begrifflich erfassen, sondern auch intellektuell unter der Tatsache leiden, dass sie selbst niemals so etwas besessen haben wie die „Würde“, die ihren Erzeugern so wichtig ist. Sie könnten in der Lage sein, bewusst die offensichtliche Tatsache zu erleben, dass sie nur Subjekte zweiter Klasse sind, postbiotische Selbste, die als austauschbare experimentelle Werkzeuge von einer anderen Art von selbstmodellierendem System verwendet werden, das offensichtlich die Kontrolle über seine eigenen Handlungen längst verloren hat.

Können Sie sich vorstellen, wie es wäre, solch ein geistig behinderter phänomenaler Klon der ersten Generation zu sein? Können Sie sich vorstellen, wie es wäre, als ein etwas fortgeschritteneres künstliches Subjekt „zu sich selbst zu kommen“ – nur um zu entdecken, dass Sie, obwohl Sie ein Ichgefühl besitzen, einfach eine Ware sind, ein Objekt, ein wissenschaftliches Werkzeug, das nicht als ein Zweck in sich selbst erzeugt wurde und ganz bestimmt nicht als ein solcher behandelt werden wird?

Ein bewusstes Selbstmodell ist das entscheidende neurokomputationale Instrument – nicht nur beim Erwerb vieler neuer kognitiver und sozialer Fähigkeiten, sondern auch dabei, ein stark bewusstes System zu zwingen, sich seinen eigenen Zerfall, seine eigenen Niederlagen und seine inneren Konflikte funktional und repräsentational anzueignen und sie dann auch subjektiv unhintergehbar als die eigenen zu erleben. Sensorischer Schmerz, aber auch alle anderen Arten des nichtkörperlichen Leidens, jeder Zustand, der durch eine negative Valenz charakterisiert ist und in das Selbstmodell eingebettet worden ist, werden jetzt phänomenal besessen. Leiden ist nun unweigerlich und erlebnismäßig unhintergehbar, auf transparente Weise, mein eigenes Leiden. Das Melodrama, aber auch die potenzielle Tragödie des Ego beginnt genau auf der Ebene bewusster, transparenter Selbstmodellierung. Darum sollten wir alle Versuche, künstliche Selbstmodelle zu erzeugen, aus der seriösen akademischen Forschung verbannen. Wir sollten die Erzeugung bewusster Selbstmodelle noch nicht einmal riskieren.

Wir alle stimmen darin überein, dass man kein unnötiges Leid in die Welt bringen sollte. Camus hat einmal von der Solidarität aller endlichen Wesen gegen den Tod gesprochen, in demselben Sinne sollte es auch so etwas wie eine Solidarität aller bewussten, leidensfähigen Wesen gegen das Leiden geben. Aus dieser Solidarität heraus sollten wir nichts tun, was dazu führen kann, dass die Gesamtmenge des Leidens im Universum sich erhöht, und insbesondere nichts, was schon am Anfang mit großer Sicherheit dazu führen würde, dass sich die Gesamtmenge des körperlichen Leidens und der geistigen Verwirrung in der Welt erhöht. Bei der theoretischen und technologischen Modellierung so faszinierender Phänomene wie Bewusstsein und Ichgefühl oder der Erste-Person-Perspektive überhaupt haben wir als phänomenologische Grundlage und moralischen Ausgangspunkt nicht viel mehr als unsere eigene Form des subjektiven Erlebens, so wie sie sich zufällig in der biologischen Evolution auf diesem Planeten entwickelt hat. Es ist schwer für uns, der Tatsache ins Auge zu sehen, dass im Verlauf der Bewusstseinsevolution ein Ozean des Leidens in der physikalischen Welt entstanden ist, der vorher einfach nicht existierte.

Das mag deshalb so sein, weil Mutter Natur einfach nicht wollte, dass wir solchen Tatsachen zu genau ins Angesicht schauen. Jetzt ist diese Form des Bewusstseins die einzige, die wir wissenschaftlich untersuchen können und die wir auf technischen Trägersystemen modellieren können. Wir sind deshalb in großer Gefahr, all die negativen Aspekte des biologischen Bewusstseins auf künstlichen oder postbiotischen Trägersystemen zu multiplizieren, bevor wir überhaupt verstanden haben, woher all diese negativen Aspekte kommen, in genau welchen Eigenschaften unserer biologischen Geschichte, unserer Körper und unserer Gehirne sie verwurzelt sind und wie sie vielleicht sogar neutralisiert werden könnten.

Darum sollten wir zuerst alle Anstrengungen – in der Philosophie genauso wie in den Neuro- und Kognitionswissenschaften – darauf richten, unser eigenes Bewusstsein und die Struktur unseres eigenen Leidens besser zu verstehen. Wir sollten uns an dem klassischen philosophischen Ideal der Selbsterkenntnis und an dem ethischen Minimalgebot der Leidensverminderung orientieren und nicht fahrlässig eine Evolution zweiter Stufe auslösen, die dann unserer Kontrolle entgleiten und die Gesamtmenge des bewussten Leidens im Universum weiter vermehren könnte. Wir sollten das nicht tun.
*****


Um diesen Artikel zu drucken markieren Sie ihn bitte mit gedrückter Maustaste und kopieren ihn in Ihr
Textverarbeitungsprogramm z.B. Word. !

Copyright © 1999 - 2014[kultur-punkt.ch]. Alle Rechte vorbehalten.

.