Direkt zum Inhalt

Warkus' Welt: Was ein Chatbot über unser Denken verrät

Kann eine künstliche Intelligenz kluge Antworten auf philosophische Fragen geben? Der Philosoph Matthias Warkus ist fasziniert, aber nicht überzeugt. Eine Kolumne.
Eine Hand hält ein Mobiltelefon mit Chatbot
Im Web können Chatbots nützlich sein. Ob sie sich für philosophische Diskussionen eignen, steht auf einem anderen Blatt. (Symbolbild)

Wenn Sie sich in den vergangenen Tagen in den sozialen Medien umgesehen haben, dann sind Sie vermutlich nicht daran vorbeigekommen: Screenshots von Texten unterschiedlichster Art, denen eine Frage oder Aufforderung wie »Schreibe die Inhaltsangabe einer Liebeskomödie über Weihnachten in Belgien!« voransteht. Es handelt sich hier um die jüngste Welle von automatisch generiertem »Content«, der im Netz Furore macht, produziert von »ChatGPT«, einer interaktiven Oberfläche zu einem Sprachverarbeitungssystem des Silicon-Valley-Unternehmens OpenAI aus San Francisco. ChatGPT benimmt sich wie ein »Chatbot«: Man kann ihm Fragen stellen und ihm Aufgaben aufgeben, und die Software antwortet prompt.

Die Produktion von ChatGPT ist auf eigenartige Weise faszinierend. Die generierten Texte sind nur selten völliger Unsinn, oft aber auf merkwürdige Weise nebulös und unverbindlich, als versuchte jemand, kompetenter zu erscheinen, als er oder sie ist. Das liegt daran, dass die »künstliche Intelligenz« (KI), die hier am Werk ist, grundlegend anders funktioniert, als man es sich noch vor wenigen Jahrzehnten vorgestellt hat. Die Beschäftigung damit, wie ChatGPT funktioniert, hat daher durchaus auch philosophischen Wert. Sie stellt nämlich möglicherweise eine sehr verbreitete Grundannahme der philosophischen Auseinandersetzung mit Vernunft und Bewusstsein in Frage: dass es dabei um Repräsentation geht.

Lesen Sie auch den Text von unserer Autorin Eva Wolfangel über ChatGPT:
»Das sprachgewaltige Plappermaul«

Ein bekanntes KI-Projekt der 1980er und 1990er Jahre, »Cyc«, konnte Fragen beantworten; es wurden sogar ganze »Interviews« mit ihm veröffentlicht. Man könnte oberflächlich denken, dass so ein System eine Art früher Vorgänger von ChatGPT war. Es handelte sich aber um etwas völlig anderes. Cyc und vergleichbare Systeme waren im Grunde komplexe Datenbanken, in die Wissen über die Welt eingespeist wurde. Dazu wurden bestimmte Beschreibungsvokabulare und formale Sprachen verwendet. Die Struktur dieser Datenbank und der zu ihrer Befüllung verwendeten Sprachen entsprach der Struktur der Welt – sie stellt Beziehungen dar wie »Günter ist eine Katze«, »Jede Katze ist ein Tier« und »Jedes Tier ist ein Lebewesen«. Man könnte sagen, dass dem System eine Art Abbildung, eine (zumindest ausschnittsweise) Repräsentation der Welt vermittelt wurde.

Es handelt sich um eine ungeheuer komplexe mathematische Abbildungsvorschrift

ChatGPT funktioniert, wie alle aktuell erfolgreichen KI-Systeme, völlig anders. Es handelt sich dabei vereinfacht gesagt um eine ungeheuer komplexe mathematische Abbildungsvorschrift, die Zeichenfolgen in andere Zeichenfolgen überführt. Durch »Training« mit einer absurd großen Menge unterschiedlichster Texte ist diese Abbildungsvorschrift in der Lage, Eingabetexte wie Fragen oder Anweisungen in Ausgabetexte zu überführen, die grammatikalisch nahezu perfekt sind, eigentlich immer eine Art Sinn ergeben und häufig – nur eben nicht immer – eine sinnvolle Bearbeitung der gestellten Aufgabe darstellen.

ChatGPT antwortet | Kolumnist Matthias Warkus hat die KI »ChatGPT« mit einer philosophischen Frage auf die Probe gestellt.

Dahinter steht aber keine strukturierte Datenbank mit »Weltwissen«. Ich kann ChatGPT zwar fragen, ob es der Meinung ist, dass ein Gegenstand etwas grundsätzlich anderes ist als eine Eigenschaft. Aber ich brauche keine Antwort zu erwarten, die etwas mit der begrifflichen Struktur seiner Repräsentation der Welt zu tun hat. Selbst wenn ich eine sinnvolle Antwort bekomme, kann ich nirgendwo nachschauen, um zu überprüfen, ob das wirklich so stimmt oder ob es nur Geplapper ist. Andererseits hat das »Geplapper« der KI unbestreitbar Wissensgehalt, weil sich in ihrer Arbeit das vorherige Training mit mehreren hundert Milliarden Wörtern niederschlägt.

Wenn das Bewusstsein von uns Menschen (was an sich schon umstritten ist) in irgendeiner Weise ähnlich funktioniert wie Computersysteme, dann legen die Antworten von ChatGPT einerseits nahe, dass wir vielleicht gar keine Repräsentationen von irgendetwas haben müssen, um denken zu können. Es könnte reichen, dass wir selbst nur hochkomplizierte Filter sind, die Eingaben auf Ausgaben abbilden. Andererseits ist es unbestreitbar, dass wir die Fähigkeit haben, uns zu reflektieren und über genau solche Fragen nachzudenken, das heißt: Philosophie zu treiben. Sciencefiction und die moderne Philosophie des Geistes beschäftigen sich mit solchen Fragen, seit es Computer gibt. Wir sind einer Antwort aber noch nicht näher – unter anderem, weil wir nicht wissen, woran wir überhaupt erkennen würden, dass ein KI-System wirklich philosophiert.

Gibt es vernünftige Rassisten? Hat nicht nur der Ärger unseres Vorgesetzten eine Ursache, sondern auch alles andere auf der Welt? Und was ist eigentlich Veränderung? Der Philosoph Matthias Warkus stellt in seiner Kolumne »Warkus' Welt« philosophische Überlegungen zu alltäglichen Fragen an.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte