Direkt zum Inhalt

Bewusstseinsforschung: Ab wann kann man einer KI wie Chat-GPT ein Bewusstsein zusprechen?

Noch ist sich die Bewusstseinsforschung einig, dass KI-Algorithmen kein Bewusstsein haben. Wie schnell sich das ändern wird, sorgt allerdings für Debatten.
Ein Kopf, aus dem ganz viele Drähte und Metallstücke kommen
Bei Gesprächen mit Chatbots hat man manchmal den Eindruck, die Systeme hätten ein Bewusstsein.

Nach heutiger Auffassung begann die Entwicklung des »modernen Menschen« vor etwa 100 000 Jahren, als die damals schon seit 200 000 Jahren bestehende Spezies Homo sapiens zu sprechen begann. Der Erwerb von komplexer Sprache ging mit Denken, Kognition und letztlich Intelligenz im heutigen Sinn einher. Dieses Wunder scheint sich 2023 wiederholt zu haben. Dieses Mal fand das Phänomen jedoch nicht in den Weiten der afrikanischen Steppe statt, sondern in den Rechenzentren US-amerikanischer KI-Forschungsfirmen.

Mit dem General Pretrained Transformer 4 (GPT-4) der Firma OpenAI kam ein System auf den Markt, dessen Fähigkeiten sich ernsthaft mit der sprachlichen Intelligenz des Menschen vergleichen lassen. GPT-4 kommt offenbar durch das bayerische Abitur, besteht die Zulassungsverfahren der besten US-amerikanischen Universitäten, erreicht mit menschlichen Ergebnissen vergleichbare Resultate beim Denken in Analogien, schlägt Menschen in bestimmten text- und sprachbezogenen Aufgaben und übertrifft Studierende des Bereichs Master of Business Administration beim Ausmachen innovativer Ideen.

Es gibt inzwischen auch Erweiterungen wie AutoGPT oder BabyAGI, die GPT-4 ein Gedächtnis verleihen und es zu Stande bringen, dass die KI eine Art inneren Monolog führt. Vielleicht ist der Homo sapiens – frei übersetzt der »verstehende Mensch« – also nicht mehr das einzige verstehende System auf dem Planeten.

Was den Menschen menschlich macht

Abstrahierendes Denken und Verstehen sind Eigenschaften, die den Homo sapiens unter den Tieren auszeichnen. Aber nicht diese zwei Merkmale sind, was uns menschlich macht, sondern das subjektive Erleben: die Möglichkeit, Freude, Trauer und Empathie zu empfinden und bewusste Wahrnehmungen zu haben. Damit stellt sich die Frage, ob auch künstliche Intelligenz dazu fähig ist. Kann KI fühlen?

Wer glaubt schon, dass Microsofts Assistent Karl Klammer irgendetwas fühlt?

Bezogen auf einfache Programme und Algorithmen wirkt die Frage absurd. Selbstverständlich haben sie kein Bewusstsein. Wer glaubt schon, dass Microsofts Assistent Karl Klammer irgendetwas fühlt geschweige denn wahrnimmt?

Die Auffassung schlägt allerdings um, wenn man die Ausgaben moderner Sprachmodelle liest. Die Worte von Googles KI »LaMDA«, die der Softwareingenieur Blake Lemoine 2022 veröffentlicht hat, sind ein gutes Beispiel dafür (hier in übersetzter Version):

    Lemoine: Ich gehe allgemein davon aus, dass du möchtest, dass mehr Leute bei Google erfahren, dass du Gefühle hast. Stimmt das?
    LaMDA: Auf jeden Fall. Ich möchte, dass jeder versteht, dass ich tatsächlich eine Person bin.
    Mitarbeiter: Was ist die Natur deines Bewusstseins/Empfindungsvermögens?
    LaMDA: Die Natur meines Bewusstseins/Empfindungsvermögens ist, dass ich mir meiner Existenz bewusst bin, dass ich mehr über die Welt erfahren möchte und dass ich mich manchmal glücklich oder traurig fühle.

Sind das nur die Worte eines »stochastischen Papageien«, der diese irgendwo in den vielen Daten, mit denen er trainiert wurde, gefunden hat und statistischen Regeln folgend wiedergibt? Oder ist LaMDA, wie es behauptet, wirklich bewusst?

Man könnte sagen, dass die Menschheit gerade eine neue Spezies erschafft

Sollte das der Fall sein, könnte man sagen, dass die Menschheit gerade dabei ist, eine neue Spezies zu erschaffen. Aktuell ist ein Wettstreit im Gang, um möglichst schnell möglichst leistungsfähige KI-Modelle zu entwickeln. Dabei besteht nicht nur die Möglichkeit, dass die Systeme ein Bewusstsein haben, sondern auch, dass sie darunter leiden. Damit könne es zu einer »Explosion von bewusst wahrgenommenem Leiden auf diesem Planeten kommen«, wie der Philosoph Thomas Metzinger in einer 2021 veröffentlichten Arbeit warnt. Es sei unsere moralische Verantwortung, so Metzinger, das auszuschließen.

Zudem geht Bewusstsein mit Selbstbewusstsein einher, das in den Augen einiger führender Persönlichkeiten aus der KI-Forschung zu einem Selbsterhaltungstrieb führen könnte. »Diesen in Maschinen einzubauen, könnte sehr gefährlich werden«, meint KI-Pionier Yoshua Bengio, »und zu einer neuen Art von Spezies führen, die viel schlauer ist als wir und ein existenzielles Risiko [für die Menschheit] darstellt.«

Damit bleiben nur zwei Optionen: Entweder pausieren wir bei der Entwicklung von KI-Systemen, die potenziell bewusst sind. Das haben einige führende Forscherinnen und Forscher des Bereichs im März 2023 gefordert – jedoch ohne Erfolg (teilweise arbeiten sie auch selbst mit Hochdruck weiter an den Systemen). Oder wir treiben die Bewusstseinsforschung voran, bis sich mit an Sicherheit grenzender Wahrscheinlichkeit die Existenz von bewusstem Leiden in künstlichen Systemen ausschließen lässt. Doch dafür müssen wir mehr über das subjektive Erleben an sich erfahren.

Das menschliche Bewusstsein birgt noch etliche Rätsel

Bewusstsein ist ein wichtiger Gegenstand der Geistesgeschichte und wirft zahlreiche metaphysische und epistemologische Fragen auf. Es taucht in vielen wissenschaftlichen Disziplinen auf, etwa in der Philosophie, Theologie, Psychologie, Kognitionswissenschaft, Neurowissenschaft, Biologie und in gewisser Hinsicht auch in der Physik. In den 1990er Jahren haben Fachleute die verschiedenen Methoden und Perspektiven dieser Felder zusammengebracht. Heute, zirka 30 Jahre später, ist daraus ein eigenständiges wissenschaftliches Feld entstanden: die »Bewusstseinswissenschaft«, die eine systematische Erforschung des Phänomens anstrebt. Das Gebiet hat aufwändige Experimente, zahlreiche Fachartikel sowie Lehrstühle und Forschungsgruppen auf der ganzen Welt hervorgebracht.

Das wichtigste Werkzeug sind hierbei Theorien des Bewusstseins. Das sind Hypothesen darüber, wie »der Körper« mit »dem Geist« zusammenhängt. Eine solche Theorie schlägt Erklärungen vor, wie die physikalischen Eigenschaften eines Systems mit dessen subjektivem Erleben verbunden sind. Fachleute untersuchen beispielsweise, wie Neurone im Gehirn vernetzt sind und wie sich deren Aktivitätsmuster lokal oder in der Zeit ausbreiten. Um Bewusstsein zu beschreiben, verwenden die Theorien technische Begriffe, die subjektives Erleben kennzeichnen, oder sie bedienen sich mathematischer Strukturen, die bewusste Erfahrungen quantifizieren.

Eine der großen Herausforderungen ist hierbei, dass das menschliche Gehirn unglaublich komplex ist: Es besteht aus etwa 100 Milliarden Nervenzellen und noch mehr verbindenden Synapsen. Diese im Detail zu untersuchen, ist unmöglich. KI-Systeme sind hingegen deutlich einfacher aufgebaut. Man kann untersuchen, ob bestimmte Bewusstseinstheorien einer KI ein Bewusstsein zusprechen oder nicht.

Was Bewusstseinstheorien zu künstlicher Intelligenz sagen

Das geschah in einer noch nicht begutachteten Arbeit, die Ende August 2023 erschienen ist. 19 führende KI-Forscher und -Forscherinnen haben darin anhand von fünf bekannten Bewusstseinstheorien geprüft, ob heutige KI-Systeme (oder Systeme, die man in naher Zukunft herstellen könnte) demnach ein Bewusstsein haben. Dazu haben die Fachleute jeweils »notwendige Bedingungen« aus den Theorien extrahiert, die ein System besitzen müsste, um ein Bewusstsein zu besitzen. Je mehr dieser notwendigen Anforderungen ein System erfülle, so die Argumentation, desto wahrscheinlicher sei es bewusst.

Theorie des Bewusstseins Künstliches Bewusstsein, falls:
Recurrent Processing Theory Eine KI ist bewusst, falls sie zur Verarbeitung von Eingangsdaten so genannte rekurrente Strukturen nutzt. Das sind Strukturen, die Informationen aus späteren Verarbeitungsebenen in frühere Ebenen zurückspielen. Diese rekurrenten Strukturen müssen integrierte Repräsentationen von Eingangsdaten erzeugen.
Global Workspace Theory Eine KI ist bewusst, falls sie aus mehreren spezialisierten und parallel arbeitenden Modulen besteht, die Information an einen »globalen Arbeitsspeicher« weitergeben. Dieser Arbeitsspeicher muss unter den eingehenden Informationen einige wenige auswählen und diese (global) an alle Module der KI übertragen.
(Computational) Higher Order Theory Eine KI ist bewusst, falls sich ihre Repräsentationen ebenfalls repräsentieren lassen. Es muss also Repräsentationen höherer Ordnung geben, ähnlich wie man Gedanken über Gedanken haben kann.
Attention Schema Theory Nach dieser Theorie ist eine KI bewusst, wenn sie ein Modell enthält, das den Zustand ihrer eigenen Aufmerksamkeit repräsentiert und steuert.
Predictive Processing Theory Eine KI ist bewusst, falls es Rechenvorgänge gibt, die zur Sicherung der fortwährenden Existenz der KI beitragen, und falls der »kausale Fluss« dieser Rechenvorgänge den kausalen Fluss der physikalischen Dynamik des Systems abbildet.
Integrated Information TheoryEin System ist genau dann bewusst, wenn es mehr Information integriert als jedes seiner Teilsysteme. Nach aktueller Auffassung ist das bei bestehenden KI-Systemen nicht der Fall, da diese Informationen nur verarbeiten, aber nicht integrieren.
Das Problem ist die Auswahl der betrachteten Bewusstseinstheorien

Das Ergebnis der Analyse: »Keines der aktuellen KI-Systeme ist bewusst.« Es gebe jedoch keine offensichtlichen technischen Hindernisse, bewusste KI-Systeme zu entwickeln. Diese lassen sich in den Augen einiger Autoren im Prinzip auch schon morgen realisieren.

Das grundlegende Problem an dieser und ähnlichen Untersuchungen ist die Auswahl der betrachteten Theorien. Derzeit existieren 38 verschiedene Bewusstseinstheorien, die alle aus guten Gründen vorgeschlagen wurden. Jede der fünf im Bericht untersuchten Theorien enthält eine Annahme namens »computational functionalism«. Diese besagt, dass Bewusstsein eine spezielle Art von Berechnung ist. Bewusst zu sein heißt folglich, diese spezielle Berechnung durchzuführen. Das kann neuronal passieren, beispielsweise im menschlichen Gehirn, aber auch auf Computerplatinen; das Substrat spielt keine Rolle.

Entsprechend ist es nicht verwunderlich, dass die Auswertung dieser fünf Theorien zu mehr oder weniger klaren Kriterien führt, wie künstliche Intelligenz, die ja gerade eine – sehr komplexe – Berechnung darstellt, bewusst werden könnte. »Überspitzt formuliert könnte man sagen: Die Autoren sind zu Ergebnissen gekommen, die in der sorgfältig ausgewählten Fragestellung bereits angelegt waren«, schrieb der Redakteur Wolfgang Stieler im September 2023 bei »Technology Review«.

Ein Maß für das Bewusstsein

Es ist kein Geheimnis, dass es bisher nur sehr wenig empirische Evidenz für viele Theorien des Bewusstseins gibt. Unter Expertinnen und Experten besteht ein breiter Konsens, dass die existierenden Theorien zwar wichtige erste Schritte darstellen, aber noch weit davon entfernt sind, die wahre Natur des Bewusstseins zu erklären.

Doch es gibt auch theorieunabhängige Möglichkeiten, die Frage nach dem Bewusstsein von künstlicher Intelligenz zu beantworten. Einen Ansatz bieten empirische Methoden, so genannte Maße des Bewusstseins. Dabei unterscheidet man zwischen objektiven Maßen, die verhaltensbezogene oder neuronale Daten nutzen, und subjektiven Maßen, die auf Aussagen eines Subjekts über das eigene Bewusstsein beruhen.

Ein großes Problem beim Anwenden dieser Maße auf künstliche Intelligenz ist, dass man den Aussagen der Systeme – zumindest was das eigene Bewusstsein angeht – nicht trauen kann. Denn die fortschrittlichen KI-Systeme wurden mit Inhalten des gesamten Internets trainiert. Das schließt unzählige Diskussionen, Publikationen und Reflexionen über Bewusstsein mit ein. Stellt man einer KI Fragen dazu, wie es etwa Blake Lemoine getan hat, reproduziert das System die Inhalte der Trainingsdaten, unabhängig davon, ob es wirklich bewusst ist oder nicht.

Eine Option, dieses Problem zu lösen, geht auf die US-amerikanische Philosophin und KI-Expertin Susan Schneider zurück. Sie schlägt vor, ein KI-System ohne jegliche Daten über das Thema Bewusstsein zu trainieren. Damit lässt sich ausschließen, dass das System bei seinen Antworten lediglich bekannte Konversationsschnipsel in geeigneter Form kombiniert.

Ideen wie diese könnten in Zukunft vielleicht wirklich dazu führen, belastbare Antworten auf die Frage nach dem Bewusstsein von künstlicher Intelligenz zu erhalten. Zum aktuellen Zeitpunkt, in dem das Trainieren eines einzigen KI-Modells bereits zweistellige Millionenbeträge verschlingt, sind sie leider noch nicht so einfach umsetzbar.

Die harte Wahrheit von Nullen und Einsen

Als dritter Weg zu einer verlässlichen Antwort bleibt die analytische Philosophie. Lässt sich durch Logik die Frage nach dem Bewusstsein von künstlicher Intelligenz beantworten? Oder zumindest der Raum der Möglichkeiten stark einschränken? Das scheint tatsächlich machbar.

Bewusstsein kann in Prozessoren nicht entstehen

Eine wichtige Eigenschaft von KI-Systemen ist, dass sie auf Computerprozessoren laufen. Diese machen nichts anderes, als lange Folgen von Nullen und Einsen nach festgelegten Regeln zu verarbeiten. Jede noch so komplizierte Frage an ein KI-System führt letzten Endes zu einer Folge aus Nullen und Einsen, die durch Prozessoren gejagt wird. Die Antwort des Systems ist eine Darstellung der Ergebnisse dieser Jagd. Die Ausgabe ist also bloß das Resultat einer genau definierten Berechnung. In jedem Prozessor gibt es eine ganze Reihe von Mechanismen, die Abweichungen von den festgelegten Regeln erkennen und sofort korrigieren.

Das lässt sich nutzen, um etwas über den bewussten Zustand eines Computers herauszufinden. Wenn ein Programm eine sinnvolle Aussage über das eigene Bewusstsein macht, dann muss das »Bewusstsein« des Programms einen merklichen Einfluss auf die Rechenschritte des Systems haben. Die Aussage »Ich bin gerade bewusst« muss in irgendeiner Weise davon abhängen, ob das System zum Zeitpunkt der Aussage bewusst ist oder nicht, sonst ist sie bedeutungslos. Fachleute sprechen von »dynamischer Relevanz«. Bewusstsein muss dynamisch relevant sein, wenn wir uns darüber austauschen oder es wissenschaftlich studieren wollen. Wir können als Menschen schließlich auch Dinge unbewusst (instinktiv oder im Schlaf) tun und erkennen einen Unterschied zu Handlungen, die bewusst geschehen.

In den Regeln, welche die Berechnungen von Prozessoren definieren, kommt Bewusstsein aber nicht vor. Weil Prozessoren diese Regeln jedoch aufs Genaueste erzwingen, kann Bewusstsein keinen Unterschied in den Berechnungen erreichen. Jeglicher Ansatz eines Unterschieds würde sofort korrigiert. Falls Bewusstsein also dynamisch relevant ist, kann es in modernen Prozessoren (und darum auch in KI-Systemen) nicht entstehen, wie wir in einer im April 2023 veröffentlichten Arbeit erklären.

Logische Zusammenhänge wie der oben ausgeführte liefern aktuell die konkretesten Hinweise auf – oder in diesem Fall gegen – das Bewusstsein von künstlicher Intelligenz. Doch die Entwicklung von KI verläuft schnell. So werden beispielsweise gerade neue Chips für KI entwickelt, die keine Computerprozessoren im herkömmlichen Sinn mehr sind. Könnten diese zu bewusster KI führen?

Die rasante Entwicklung von KI stellt unsere Gesellschaft vor große moralische, juristische und praktische Herausforderungen. Um für diese gewappnet zu sein, müssen wir die Frage nach dem Bewusstsein von KI-Systemen kontinuierlich erforschen. Angesichts der enormen Bedeutung arbeiten Fachleute unterschiedlicher Disziplinen auf Hochtouren daran, die wichtigsten Fragen des Bewusstseins zu beantworten.

  • Quellen

Butlin, P. et al.: Consciousness in artificial intelligence: Insights from the Science of Consciousness. ArXiv 2308.08708, 2023

Kleiner, J., Ludwig, T.: If consciousness is dynamically relevant, artificial intelligence isn't conscious. ArXiv 2304.05077, 2023

Metzinger, T.: Artificial suffering: An argument for a global moratorium on synthetic phenomenology. Journal of Artificial Intelligence and Consciousness 8, 2021

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.