Direkt zum Inhalt

Warkus’ Welt: Kann KI denken und fühlen?

Maschinen kommunizieren mit uns, als wären sie Menschen – doch was passiert wirklich unter der Oberfläche? Diese Frage geht tiefer als jede technische Debatte, meint unser Philosophie-Kolumnist.
Drei antike Schreibmaschinen sind an einer blauen Wand befestigt. Jede Schreibmaschine ist so positioniert, dass sie wie ein Gesicht aussieht, wobei die Tastenreihen wie Zähne wirken. Die Schreibmaschinen sind in verschiedenen Winkeln angebracht, was den Eindruck von unterschiedlichen Gesichtsausdrücken verstärkt.
Wie menschenähnlich können Maschinen werden? Diese Frage beschäftigte bereits den Informatik-Pionier Alan Turing.
Haben Katzen das bessere Leben? Gibt es eine Pflicht, sich zu empören? Hat alles, was existiert, etwas gemeinsam? Matthias Warkus blickt in seiner Kolumne »Warkus’ Welt« mit den Augen des Philosophen auf Alltägliches und Außergewöhnliches.

Wenn man mir noch vor fünf Jahren gesagt hätte, dass 2025 zwei Drittel aller Deutschen zumindest gelegentlich Unterhaltungen mit einem Computer führen würden, hätte ich es vermutlich nicht geglaubt. Aber es ist geschehen. Künstliche Intelligenz in der aktuell etablierten Form von Large Language Models (LLMs) ist ein Produkt mit ähnlicher Verbreitung wie Pizzaservices und etwa doppelt so populär wie öffentliche Bibliotheken.

Dass sich diese Technik sehr schnell verbreitet hat und heftig über sie gestritten wird, ist kein Alleinstellungsmerkmal großer Sprachmodelle. Ziemlich einzigartig dürfte jedoch sein, dass völlig unterschiedliche philosophische Einschätzungen dessen, womit man es da zu tun hat, im Umlauf sind. So ist es ein beliebtes Argument, darauf hinzuweisen, dass man es letztlich nur mit einer extrem leistungsfähigen Assoziationsmaschine, einem »stochastischen Papageien«, zu tun habe – einer höher entwickelten Form von Chatbots, wie sie schon seit Mitte der 1960er-Jahre existieren.

Enthusiasten sprechen bereits von Bewusstsein

Man trifft aber, vor allem auf der Seite der Entwickler und Enthusiasten, auch auf völlig andere Einschätzungen. Die schottische Philosophin Amanda Askell, sozusagen die »Chef-Ethikerin« des KI-Unternehmens Anthropic, das das KI-Modell »Claude« anbietet, hat am 24. Januar 2026 in einem Interview angedeutet, dass sie sich nicht mehr sicher sei, ob die gängigen LLMs nicht vielleicht doch Bewusstsein zeigen und fähig sind, »zu fühlen«. Diese Äußerung steht in einer Reihe vorheriger, ähnlich kontroverser Aussagen aus der Branche.

Nun ist es notorisch schwierig, aus der Außenperspektive etwas über das Bewusstsein einer nichtmenschlichen Entität auszusagen. In der Philosophie gibt es immerhin eine Tradition, sogar aus der ersten Person am eigenen Bewusstsein zu zweifeln. Auf das berühmte »Ich denke, also bin ich« von René Descartes (1596–1650) folgte die klassische Entgegnung von Georg Christoph Lichtenberg (1742–1799): Viel mehr als »es denkt« könnte man nicht begründet sagen, die Unterstellung des Ichs sei bloß »praktisches Bedürfnis«. Zudem ist es in der modernen Philosophie des Geistes – die sich schon zu Zeiten, als man noch einen Lastwagen brauchte, um einen Computer von A nach B zu bewegen, intensiv mit der Frage intelligenter Rechner befasste – nicht unüblich, sogar extrem simplen Systemen Eigenschaften wie Überzeugungen oder Bewusstsein zuzuschreiben. Demnach kann ein Thermostat meinen, dass es zu kalt im Zimmer sei. Oder ein Barcode-Scanner kann sich selbst erkannt haben, wenn er sein eigenes Etikett im Spiegel ausliest.

Wir haben also zwei weitgehend separate Arten und Weisen, über Phänomene wie Bewusstsein, Vernunft und Empfindungsvermögen zu sprechen: eine umgangssprachliche, vergleichsweise enge, und eine philosophische, mitunter extrem weite. Ist es da sinnvoll, überhaupt irgendetwas mithilfe solcher Begriffe zu diskutieren? Ist vielleicht gar nichts damit gewonnen, einen Taschenrechner als bewusstlos, eine Katze als (wahrscheinlich) empfindungsfähig und einen Menschen als intelligent, bewusst und reflektiert zu bezeichnen?

Alan Turings Imitationstest

Der große Mathematiker, Computertheoretiker und Philosoph Alan Turing (1912–1954) hat 1950 in seinem legendären Aufsatz »Computing Machinery and Intelligence« ein praktisches Testverfahren für maschinelles Denken vorgeschlagen. Er beschreibt eine Art Partyspiel: Ein Mann und eine Frau kommunizieren verdeckt (zum Beispiel über Fernschreiber) mit einer Testperson, die herausfinden soll, wer von beiden wer ist. Dabei lügt einer der Gesprächsteilnehmer über sein Geschlecht, der andere sagt die Wahrheit. Turing schlägt nun das Gedankenexperiment vor, dass eine Maschine den Platz des lügenden Gesprächspartners einnimmt. Ihre Denkfähigkeit soll sich dann an der Fähigkeit messen, das Spiel mit der Unwahrheit auf dieser Position genauso gut zu spielen wie ein Mensch.

Aktuelle LLMs, zumindest ihre Premiumversionen, beherrschen Turings Imitationsspiel sicher ganz brauchbar. Aber Hand aufs Herz: Macht das für Sie irgendeinen Unterschied? Ich würde vermuten, dass Ihre Meinung dazu, ob eine KI wirklich »denken«, »fühlen«, »sich ihrer selbst bewusst« sein kann, tief in Ihnen drinnen durch die Ergebnisse bei diesem Test nicht beeinflusst wird. Nur: Was müsste sonst passieren? Könnte überhaupt etwas passieren, was uns in unserer Meinung dazu, ob eine Maschine denken kann, umstimmt? Ich habe für mich selbst keine Antwort. Haben Sie eine für sich?

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.