KI in der Wissenschaft: Verstehen wir noch, was wir erforschen?

Künstliche Intelligenz hat die Naturwissenschaften in den vergangenen Jahren spürbar verändert. In der Biologie hat AlphaFold zum Beispiel eines der größten Probleme des Fachs gelöst: die Vorhersage der dreidimensionalen Struktur gefalteter Proteine. Dieser Durchbruch brachte John Jumper, Demis Hassabis und David Baker den Nobelpreis für Chemie 2024 ein.
In der Chemie ermöglichen es KI-Algorithmen inzwischen, neuartige Moleküle und Materialien mit faszinierenden Eigenschaften zu entdecken, etwa für die Medikamentenentwicklung oder Photovoltaiksysteme. So hat ein KI-System einen Wirkstoff für die idiopathische Lungenfibrose gefunden, eine schwere Lungenerkrankung, bei der das Gewebe zunehmend vernarbt. Das Medikament befindet sich bereits in einer klinischen Phase-IIa-Studie und wird damit erstmals an Menschen getestet.
Das sind ohne Zweifel bemerkenswerte Resultate. Doch sind Ergebnisse alles, was wir wollen?
Angenommen, es gäbe ein Orakel, das die Endprodukte jeder chemischen Reaktion oder die Funktion jedes Proteins zuverlässig vorhersagen könnte. Das würde Forschung und Technologie zweifelsohne revolutionieren. Trotzdem bliebe etwas Essenzielles offen. Denn in der Wissenschaft geht es um mehr: Wir möchten verstehen, wie ein solches Orakel zu seinen Vorhersagen kommt. Wir wollen die zugrunde liegenden Ideen und Konzepte begreifen – auch, um sie auf andere Fragestellungen übertragen zu können.
Ein solches Verständnis zu erlangen, ist eines der zentralen Ziele von Wissenschaft. Kann KI zu diesem Verstehen beitragen – oder es selbst erlangen?
Was ist wissenschaftliches Verständnis?
Um diese Fragen zu beantworten, müssen wir zunächst klären, was wissenschaftliches Verständnis überhaupt ist. Im 20. Jahrhundert haben sich viele Philosophen intensiv mit wissenschaftlicher Erklärung beschäftigt; die Frage nach dem Verstehen blieb jedoch häufig außen vor. Der deutsch-amerikanische Philosoph Carl Gustav Hempel vertrat beispielsweise die Auffassung, dass Verständnis kein Gegenstand logischer Analyse sei, sondern ein psychologisches Konzept.
Doch nicht alle teilen diesen Standpunkt. Schon in der Vergangenheit entwickelten Fachleute eigene Kriterien dafür, was es bedeutet, etwas zu verstehen. Ein bekanntes Beispiel zitiert den Physiker Lord Kelvin, der sagte: »Es scheint mir, dass der Test, ob wir ein bestimmtes Thema in der Physik verstehen oder nicht, letztlich die Frage ist, ob wir ein mechanisches Modell dieses Themas konstruieren können.«
Ein weiterer wichtiger Zugang zum Verständnis ist die Visualisierung, die insbesondere Erwin Schrödinger propagierte. Der Physiker entwickelte 1925eine neue Formulierung der Quantenmechanik, in der sich Quantenzustände als Wellen beschreiben lassen – und verlieh damit einer zuvor rein mathematischen Theorie eine anschauliche Interpretation. Auch Richard Feynman, einer der einflussreichsten Physiker des 20. Jahrhunderts, schätzte diesen Aspekt: »Wenn wir wissen, was in einer Situation passiert, ohne die Gleichungen explizit zu lösen, dann verstehen wir die Gleichung in ihrer Anwendung auf diese Situation.« Ein Beispiel dafür ist das molekulardynamische Bild von Gasen. Es erlaubt eine intuitive Einsicht, ohne detaillierte Berechnungen zu erfordern.
Angenommen, ein Gas aus Abermilliarden Molekülen ist in einem Behälter eingeschlossen. Wenn ein Teilchen gegen die Wand stößt, überträgt es Impuls – und damit Energie – auf die Wand. Je schneller sich die Teilchen bewegen (höhere Temperatur), desto größer ist der Impulsübertrag; mehr Teilchen führen zu häufigeren Stößen und damit zu höherem Druck. Intuitiv versteht man daher: Höhere Temperatur oder Teilchenzahl steigern den Druck auf die Behälterwände. Berücksichtigt man das Volumen des Behälters, ergibt sich eine weitere Einsicht: Wird der Behälter bei konstanter Temperatur größer, sinkt der Druck, da es weniger Stöße gibt. Zusammengenommen führt das zum idealen Gasgesetz: P⋅ V = N⋅ kB⋅T, wobei P der Druck, V das Volumen, N die Teilchenzahl, kB die Boltzmann-Konstante und T die Temperatur ist.
Eine eigenständige Theorie des wissenschaftlichen Verständnisses entwickelten schließlich die niederländischen Philosophen Henk de Regt und Dennis Dieks im Jahr 2005. Sie beziehen sich dabei auf beobachtbare Eigenschaften und nicht auf psychologische Geisteszustände; Konzepte wie Visualisierungen gelten ihnen als »Werkzeuge des Verstehens« innerhalb eines umfassenderen Rahmens.
Dieks und de Regt vertreten die Auffassung, dass man »ein Phänomen verstehen kann, wenn es eine verständliche Theorie T gibt, sodass Wissenschaftler qualitative charakteristische Konsequenzen von T erkennen können, ohne exakte Berechnungen durchführen zu müssen«. Sie leiten daraus zwei Kriterien ab.
Kriterium für das Verstehen von Phänomenen:
Ein Phänomen P ist genau dann wissenschaftlich verstanden, wenn es eine Erklärung von P gibt, die auf einer verständlichen Theorie T basiert und den grundlegenden epistemischen Werten der empirischen Angemessenheit und der inneren Konsistenz genügt.
Kriterium für die Verständlichkeit von Theorien:
Eine wissenschaftliche Theorie T (in einer oder mehreren ihrer Repräsentationen) ist für Wissenschaftler (im Kontext C) verständlich, wenn sie qualitative charakteristische Konsequenzen von T erkennen können, ohne exakte Berechnungen durchführen zu müssen.
Dieks und de Regt haben somit ein theoretisches Modell von wissenschaftlichem Verstehen entwickelt, das nicht von dem verstehenden System selbst abhängt. Damit lässt sich insbesondere herausfinden, ob und wie KI zum wissenschaftlichen Erkenntnisgewinn beitragen kann.
»Ich habe erst einmal eine Weile am Strand von St Andrews sitzen müssen, um mich von der KI-Entdeckung zu erholen«Chris Pickard, Materialwissenschaftler
Um das auch in der Praxis zu untersuchen, baten wir Forschende aus den Bereichen Chemie, Biologie und KI, uns zu erzählen, wie sie mithilfe von KI-Systemen neue Einsichten, Ideen und Verständnis gewonnen haben. Wir erhielten rund 50 Rückmeldungen mit bemerkenswerten Geschichten. So beschrieb der Materialwissenschaftler Chris Pickard von der University of Cambridge, er sei durch eine KI mit »einer atemberaubenden metastabilen Struktur konfrontiert worden, wie sie zuvor für kein Element vorgeschlagen worden war«, und habe danach »erst einmal eine Weile am Strand von St Andrews sitzen müssen, um sich von der Entdeckung zu erholen«.
Aus den Rückmeldungen und dem philosophischen Rahmen ergeben sich drei verschiedene Rollen der KI:
- als rechnergestütztes Mikroskop,
- als Inspirationsquelle und
- als Akteur des Verstehens.
Daten auf völlig neue Weise darstellen
Bei der ersten Klasse geht es um Algorithmen, die Experimente in virtuellen Umgebungen durchführen und Eigenschaften beobachten, um Bereiche zu erkunden, die entweder nicht experimentell zugänglich oder nicht direkt beobachtbar sind. In der Materialforschung und der Biochemie gibt es viele Beispiele dafür, dass präzise chemische Dynamiken lange unverstanden blieben, bis KI‑gestützte Simulationen eine Visualisierung ermöglichten. Fachleute konnten diese Ansichten daraufhin in echtes Verständnis überführen, indem sie Konzepte und Ideen auf andere Situationen übertrugen.
Ein solches »Werkzeug des Verstehens« nutzt unsere Sinne, um komplexe Daten zu erfassen, anstatt sich lediglich auf rational‑logisches Denken zu stützen. Programme zur besseren Veranschaulichung von Daten könnten daher in Zukunft eine entscheidende Rolle spielen.
So haben Materialforscher bereits untersucht, wie sich Daten mithilfe von VR‑Brillen in interaktive, dreidimensionale Umgebungen projizieren lassen, um die enorme Vielfalt möglicher Moleküle strukturiert darzustellen. Auch ich habe mit meinen Kollegen VR-Brillen genutzt, um simulierte Experimente als farbige Graphen immersiv zu erkunden. Das ist deutlich intuitiver als die Arbeit an einem zweidimensionalen Bildschirm mit der Maus.
Der visuelle Sinn ist jedoch nur eine Möglichkeit, die Außenwelt wahrzunehmen. Schließlich können wir auch hören. In der Astronomie haben Fachleute deshalb die Sonifikation wissenschaftlicher Daten untersucht – also die Umwandlung von Daten in Audiosignale. Ein Beispiel sind Gravitationswellen: Ihre Schwingungsmuster sind so schwach, dass sie in Grafiken kaum vom Hintergrundrauschen zu unterscheiden sind. Werden die Daten allerdings sonifiziert, lässt sich leichter erkennen, ob sie Gravitationswellen enthalten.
Eine weitere Möglichkeit besteht darin, haptische Signale zu nutzen. Das wurde in der Chemie ebenfalls bereits untersucht. So könnte man etwa die Bindungsstärke zwischen Atomen in einem Molekül intuitiv durch eine virtuelle Umgebung erfahrbar machen.
Ungenutzt blieben bislang der Geruchs- und der Geschmackssinn. Dabei erscheint es wie eine verpasste Chance, sie außen vor zu lassen. In Zukunft könnten Algorithmen, während sie komplexe wissenschaftliche Daten in interaktive 3D‑Filme projizieren, dabei möglicherweise auch Geruch und Geschmack einbeziehen, um eine noch ganzheitlichere Wahrnehmung zu ermöglichen.
KI als Inspirationsquelle
Zur zweiten Klasse fassen wir Algorithmen zusammen, die überraschende Zusammenhänge entdecken oder gar erzeugen – und damit Menschen inspirieren, Forschungsrichtungen einzuschlagen, auf die sie selbst womöglich nicht gekommen wären.
So werden in Teilchendetektoren am CERN seit Jahrzehnten KI‑Algorithmen eingesetzt. Durch Teilchenkollisionen entsteht eine Flut komplexer Daten. Diese können Merkmale enthalten, die leicht übersehen werden. Deshalb suchen Algorithmen nach subtilen Strukturen. Derzeit werden den Programmen jedoch meist spezifische, von Menschen entworfene physikalische Modelle vorgegeben, sodass sie vor allem erwartbare Muster finden. In Zukunft könnten KI‑Systeme Ausreißer auch autonom identifizieren. Das ist zumindest das Ziel eines groß angelegten Vorhabens an zwei wichtigen Experimenten des LHC, wo Forschende unter anderem um den Physiker Gregor Kasieczka von der Universität Hamburg modellfreie Verfahren einsetzen, um Muster jenseits etablierter Physik aufzuspüren.
Auch viele andere Datensammlungen in Physik und Astronomie könnten von fortgeschrittenen KI-Methoden profitieren. Jede bestätigte Anomalie eröffnet neue Forschungswege und lenkt die Arbeit menschlicher Experten in neue Richtungen.
Eine andere Form der KI-gestützten Inspirationsquelle besteht darin, die Programme mit großen Mengen wissenschaftlicher Literatur zu speisen und so auf kaum bekannte, vielversprechende Forschungsansätze zu stoßen. Naheliegend ist hierbei die Nutzung großer Sprachmodelle wie GPT oder Gemini. Doch es gibt auch direktere Methoden.
Ein besonders spannender Ansatz besteht darin, Millionen wissenschaftlicher Publikationen auszuwerten und aus jedem Artikel nur einen kleinen Teil des Inhalts zu extrahieren. Eine prominente Anwendung dafür sind Wissensgraphen (knowledge graphs) beziehungsweise semantische Netzwerke. In ihnen stehen Knoten für wissenschaftliche Konzepte, die durch Kanten miteinander verbunden werden, wenn diese Konzepte gemeinsam in einem Paper untersucht wurden.
Im Jahr 2017 erstellten Biochemiker einen solchen Graphen auf Basis von Molekülnamen. Sie nutzten Millionen von Facharbeiten und Patenten und untersuchten Tausende alternativer Strategien, wie sich das Feld der Biochemie erkunden ließe. Dabei fanden sie Wege, Wissensnetzwerke deutlich effizienter zu erforschen – und stellten fest, dass erhöhte Risikobereitschaft die Geschwindigkeit wissenschaftlicher Entdeckungen in ihrem Bereich erheblich steigern würde.
Als ich davon erfuhr, übertrug ich diese Methode auf meine quantenphysikalische Forschung. Mit 750 000 Fachaufsätzen, darunter allen je veröffentlichten Arbeiten der American Physical Society, erzeugte ich einen Wissensgraphen der Quantenphysik. Die Knoten bestanden aus rund 6000 Bezeichnungen wie »non‑demolition measurement« oder »Mach–Zehnder interferometer«, während die Verbindungen anzeigen, dass die jeweiligen Konzepte gemeinsam in einem Paper vorkommen. Dieser Graph bildet ab, wie Forschende das Feld seit den 1920er-Jahren erkundet haben.
Mit einer solchen historischen Perspektive lassen sich unter anderem zukünftige Forschungsrichtungen prognostizieren. Man kann etwa fragen, ob zwei Konzepte, die vor 2020 nie gemeinsam untersucht wurden, bis 2025 miteinander verknüpft wurden. Zudem lässt sich der Graph nutzen, um KI‑Algorithmen auf Forschungstrends für das Jahr 2030 zu trainieren. Die Vorhersagequalität ist erstaunlich hoch, was darauf hindeutet, dass Fachleute ihre Forschungsrichtungen recht vorhersehbar wählen.
Aber können solche Vorhersagen auch personalisierte, konkrete Forschungsideen hervorbringen? Um das zu testen, habe ich gemeinsam mit meiner Kollegin Xuemei Gu ein großangelegtes Experiment mit mehr als 100 Arbeitsgruppenleitungen der Max-Planck-Gesellschaft durchgeführt, von Biochemie über Astronomie bis zu Geoanthropologie.
Wir ließen die Forschungsideen der Teilnehmenden durch ein mit einem Wissensgraphen gekoppeltes Sprachmodell evaluieren. Vor allem wollten wir Anregungen für potenzielle interdisziplinäre Kooperationen finden: Für jede Person erzeugten wir Vorschläge, die ihre Interessen mit denen einer anderen Person innerhalb der Gesellschaft kombinierten. Die Forschenden bewerteten mehr als 4000 dieser Ideen. Rund ein Viertel stuften sie als »interessant« ein, knapp neun Prozent sogar als »sehr interessant«. Mit diesen Rückmeldungen können wir nun neue Modelle trainieren, die voraussichtlich noch überzeugendere Ideen liefern – und damit neue Forschungsrichtungen sowie interdisziplinäre Kooperationen anstoßen.
Verständliche Ergebnisse
Die inneren Mechanismen neuronaler Netze und anderer Algorithmen sind meist undurchsichtig. Dennoch können sie Ausgaben erzeugen, die für Menschen gut interpretierbar sind, beispielsweise mathematische Formeln, welche die komplexen physikalischen Prozesse in Daten beschreiben.
Ein Ansatz hierfür ist die »symbolische Regression«, die bereits in den 1970er‑ und 1980er‑Jahren entwickelt wurde. Sie hat in jüngerer Zeit jedoch stark an Bedeutung gewonnen – nicht zuletzt durch Open‑Source‑Projekte wie PySR des Cambridge-Physikers Miles Cranmer. Dieses nutzt evolutionäre Strategien, um kompakte Formeln zu finden, welche die Eingabedaten beschreiben. Das Programm wurde bereits in vielen Bereichen erfolgreich eingesetzt, etwa in der Astronomie, um den Zusammenhang zwischen Signalen von Galaxienhaufen und deren Gesamtmasse zu beschreiben und damit kosmologische Messungen zu verbessern.
Neben den Ausgaben von KI-Algorithmen kann man auch die Modelle selbst untersuchen, um zu verstehen, wie sie ein Problem gelöst haben. Ein ausgesprochen spannendes Projekt in diesem Zusammenhang hat die Gruppe von Renato Renner an der ETH Zürich durchgeführt. Die Forschenden trainierten ein neuronales Netz darauf, die Positionen von Mars und Mond so vorherzusagen, wie sie von der Erde aus erscheinen. Nach dem Training prognostizierte das Modell diese Positionen präzise. Um zu verstehen, wie das möglich war, analysierten die Forschenden die Gewichtungen des Netzes – und stießen auf eine Überraschung: Statt die Eingabekoordinaten (die von der Erde aus gesehenen Winkel) zu repräsentieren, codierten die künstlichen Neurone die Winkel so, wie sie von der Sonne aus erscheinen. Das Netz wechselte also implizit von einer geozentrischen zu einer heliozentrischen Perspektive.
In diesem konkreten Fall war uns die richtige Perspektive bereits bekannt: Wir wissen seit Jahrhunderten, dass sich die Erde um die Sonne dreht. Doch ähnliche Ansätze könnten künftig neue physikalische Zusammenhänge offenbaren, die wir bisher übersehen haben.
Mit künstlicher Neugier zu neuen Ufern
Ein weiteres bislang selten genutztes Potenzial besteht darin, Maschinen beim Erkunden großer Suchräume zu beobachten: etwa KI‑Modelle, die die Vielfalt möglicher Moleküle untersuchen. Klassischerweise sollen solche Algorithmen chemische Verbindungen mit vorgegebenen Eigenschaften finden, die sich etwa für Photovoltaik eignen. Ergänzt man diese Modelle jedoch um zusätzliche intrinsische Belohnungen, die durch das System selbst definiert werden, kann sich ihr Suchverhalten grundlegend ändern.
Eine solche intrinsische Belohnung ist künstliche Neugier. Das Modell wird motiviert, in Richtungen zu gehen, die es bisher nicht gut versteht. Dazu sagt es Veränderungen voraus (zum Beispiel wie sich die Umgebung wandelt, wenn es bestimmte Aktionen ausführt) und schätzt seine eigene Unsicherheit. Mit neugiergetriebenen Belohnungen erkundet ein Modell verstärkt Bereiche, die es schlecht vorhersagen kann. Mit der Zeit verbessert sich seine Vorhersagekraft gerade dort – von außen betrachtet scheint es an besonders schwer einschätzbaren Orten länger zu verweilen.
Gerade diese Regionen sind oft ausgesprochen interessant. Wenn ein Modell viele Beispiele benötigt, deutet das auf komplexe Strukturen hin – und womöglich darauf, dass in unseren theoretischen Beschreibungen Mechanismen fehlen. Fachleute können dann gezielt jene Bereiche untersuchen, in denen das Modell Schwierigkeiten hat.
KI als Akteur des Verstehens
Die dritte Klasse umfasst schließlich KI‑Systeme, die autonom neues wissenschaftliches Verständnis erlangen könnten. In den persönlichen Rückmeldungen der befragten Fachleute fanden wir jedoch keinen einzigen solchen Fall. Auch in der wissenschaftlichen Literatur sind bislang keine entsprechenden Beispiele dokumentiert. Entscheidend ist daher die Frage der Prüfbarkeit: Woran würden wir maschinelles Verstehen überhaupt erkennen? Nach de Regts Kriterium lässt sich ein Phänomen verstehen, wenn man seine qualitativen Konsequenzen erfassen kann, ohne exakte Berechnungen durchführen zu müssen.
Um das Verständnis eines KI‑Modells zu testen, könnte man die Methode der »knowledge distillation« nutzen. Dabei trainiert man zunächst ein großes neuronales Netz auf eine anspruchsvolle Aufgabe und lässt im Anschluss ein kleineres Netz lernen, dieses zu imitieren. Das kleinere Modell benötigt weniger Rechenressourcen – und hätte damit gewissermaßen eine kompaktere, verständliche Darstellung des großen Netzes gelernt. Allerdings bleibt unklar, ob das große Modell die Informationen tatsächlich effizient codiert hat. Zudem wissen wir nicht, ob die Modelle überhaupt eine verständliche Theorie erlernen. Distillation reduziert also den Aufwand, liefert aber keinen Nachweis für konzeptuelles Verstehen.
Während sich de Regts Kriterien auf Menschen vergleichsweise gut anwenden lassen, ist dies bei Maschinen deutlich schwieriger. Das führt zu einem alternativen Ansatz: Man testet das Verständnis eines Modells, indem man prüft, ob es dieses Verständnis auf einen Menschen übertragen kann. Die Aufgabe der KI besteht in diesem Fall darin, einem Menschen ihre Einsichten zu vermitteln. Solcherart ließe sich eine Art Alternative zum Turing‑Test formulieren – ein Test des wissenschaftlichen Verständnisses, der auf der Fähigkeit eines Modells beruht, zu lehren.
Ein derartiger Test würde einen Studenten, eine Lehrperson und einen Schiedsrichter erfordern. Die Lehrperson versucht, ein neues wissenschaftliches Verständnis zu vermitteln; der Student bemüht sich, diese Einsichten bestmöglich zu erfassen. Nach der Lehrphase spricht der Schiedsrichter – ohne zu wissen, wer Lehrperson und wer Student ist – mit beiden über ihre Einsichten und entscheidet anschließend, wer welche Rolle hatte.
Student und Schiedsrichter sind bei diesem Verfahren jeweils Menschen, während die Lehrperson auch eine Maschine sein kann. Gelingt es dem Schiedsrichter nicht, Lehrperson und Student voneinander zu unterscheiden, war die Lehrperson erfolgreich. Und falls diese eine Maschine ist, wäre das ein Hinweis darauf, dass sie über wissenschaftliches Verständnis verfügt.
Ich gehe davon aus, dass Maschinen künftig immer häufiger Lösungen finden werden, von denen wir als Menschen lernen können. In einigen Fällen werden wir die zugrunde liegenden, von der Maschine identifizierten Prinzipien verstehen, verallgemeinern und in neue Kontexte übertragen – und dadurch selbst neues wissenschaftliches Verständnis gewinnen. Doch vermutlich werden ebenso häufig Fälle auftreten, in denen KI‑Systeme Lösungen finden, die sich zwar überprüfen lassen, deren Prinzipien wir allerdings nicht vollständig begreifen. Eine der zentralen Fragen für die Zukunft lautet daher: Wie können wir solche nichtmenschlichen, von KI gefundenen Lösungen verstehen?
Der Weg zu einer KI, die lehren kann
Eine Technik, die heute häufig verwendet wird, um KI‑Systeme besser zu verstehen, ist die sogenannte interpretierbare KI (XAI, von explainable AI). Dabei versucht man, in das »Innere« eines Algorithmus zu schauen. Bei einem neuronalen Netz bedeutet das etwa, nachzuvollziehen, wie Milliarden von Parametern zusammenwirken, um zu bestimmten Entscheidungen zu gelangen. Je komplexer ein KI‑System wird, desto schwieriger lässt sich das jedoch umsetzen. Und obwohl dieser Ansatz für Sicherheits‑ und Ethikfragen enorm wichtig ist, eignet er sich nicht unbedingt, um komplexe wissenschaftliche Konzepte zu identifizieren.
Wenn wir Menschen voneinander lernen, analysieren wir schließlich auch nicht unsere neuronalen Schaltkreise. Stattdessen kommunizieren wir: Wir hören Erklärungen, stellen Rückfragen und können so selbst komplexe Konzepte verstehen. Eine zentrale Frage lautet daher, wie wir Maschinen entwickeln können, die uns solche komplexen Konzepte auf ähnliche Weise erklären. Diese Fähigkeit steht in enger Verbindung mit dem zuvor beschriebenen Test auf wissenschaftliches Verständnis. Kurz gesagt: Wir sollten ernsthaft versuchen, eine »Teacher‑AI« für die Wissenschaft zu entwickeln.
Eine solche Teacher‑AI könnte entweder selbst Lösungen finden oder Lösungen anderer KIs aufbereiten, um sie Menschen nahezubringen. Das könnte einem klassischen Lehr‑Lern‑Szenario ähneln, bei dem Menschen Rückfragen stellen und die KI zusätzliche Erläuterungen liefert. Wahrscheinlich müsste die Teacher‑AI auf wissenschaftliche Werkzeuge zugreifen – ähnlich denen, die Menschen zur Visualisierung, Vereinfachung oder Verallgemeinerung nutzen. Zudem könnte sie Übungen entwickeln, um das Verständnis der Lernenden zu testen und deren Fortschritt im Lehrprozess zu verfolgen.
Gegenwärtig gibt es zwar noch keine dezidierten Arbeiten in diese Richtung, doch ich rechne damit, dass wir erste Versuche von Teacher‑AIs bald sehen werden. Das würde uns hoffentlich ermöglichen, in Zukunft selbst die unintuitivsten und überraschendsten Lösungen von KIs zu verstehen – und damit große Fortschritte in der Wissenschaft zu erzielen.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.