Die großen Fragen der Wissenschaft: Wird künstliche Intelligenz uns überflügeln, Katharina Zweig?

Im Podcast »Die großen Fragen der Wissenschaft« gehen wir den größten Rätseln des Universums auf den Grund. Dieses Interview ist eine gekürzte und angepasste Fassung der Folge »Wird künstliche Intelligenz uns überflügeln, Katharina Zweig?«.
Frau Zweig, Sie haben den deutschlandweit ersten Studiengang Sozioinformatik federführend mitentwickelt. Was lernen die Studierenden da?
Wir vermitteln eine sehr systemische Sichtweise. Die Absolventen sind nachher Softwareentwicklerinnen und -entwickler, die Grundlagen in der Soziologie, in der Psychologie und in den Wirtschaftswissenschaften haben, sich außerdem ein bisschen im Recht und in der Ethik auskennen. Klassische Informatiker dagegen lernen vor allem, Softwareanforderungen von einem Auftraggeber bestmöglich zu erfüllen. Wenn es aber um Social Media geht, reicht es nicht aus, nur die Software zu entwickeln. Man muss auch beachten, wie sie mit Menschen interagiert. Da kann viel passieren. Youtube zum Beispiel verfolgte jahrelang das Ziel, dass Menschen insgesamt eine Milliarde Stunden pro Tag streamen. Das lässt sich dadurch erreichen, dass krasse Videos bevorzugt ausgespielt werden, weil die Leute daran länger hängen bleiben. Das hat aber die soziale Nebenfolge, dass wir uns mehr mit extremen Videos auseinandersetzen müssen. Man muss also das Zusammenspiel von Mensch und Software betrachten. Und das machen wir in unserem Studiengang.
In Ihrem aktuellen Sachbuch fragen Sie »Weiß die KI, dass sie nichts weiß?«. Wie lautet die Antwort?
Die Maschine würde wahrscheinlich antworten: »Doch, ich habe ganz viel gelesen und weiß daher viel.« Und es ist ja für sich schon beachtenswert, dass die Maschine überhaupt mit »ich« antwortet. Aber das hat sie aus all den Texten gelernt, mit denen sie trainiert wurde. Und weil das Ganze ein stochastischer, das heißt ein zufälliger Prozess ist, werden Sie auf ein und dieselbe Frage immer wieder unterschiedliche Antworten bekommen. Vielleicht sagt sie auch bei jedem zehnten Mal beflissen: »Ja, eigentlich hast du recht, das ist eine gute Frage. Also vielleicht weiß ich gar nichts.«
Gibt es gute und schlechte KI-Tools?
Ob etwas ein gutes Werkzeug ist, hängt immer von der Situation ab, in der ich es verwenden will. Beispiel Gesichtserkennung: In einer öffentlichen Einrichtung wie etwa einem Museum gibt es Bereiche, zu denen nur Mitarbeiterinnen und Mitarbeiter Zutritt haben sollen. Die stellen sich vor eine Kamera, deren Gesichtserkennungssystem sie wahrscheinlich ziemlich gut erkennen und dann hereinlassen wird. Dasselbe KI-System hat aber eine sehr große Falsch-positiv-Rate, wenn es im öffentlichen Raum, zum Beispiel auf einem Bahnhof, zur Fahndung ausgeschriebene Kriminelle identifizieren soll. Hier sind Beleuchtungssituationen schwieriger und außerdem werden sich gesuchte Kriminelle so verhalten, dass man ihr Gesicht kaum sieht. Das wäre also eine schlechte Nutzung einer eigentlich nützlichen Software.
Können wir die Begriffe KI, maschinelles Lernen und Sprachmodell bitte einmal kurz klären und voneinander unterscheiden?
Klar, fangen wir mal an (lacht). KI, also künstliche Intelligenz, ist eigentlich ein ganzes Forschungsfeld. Wir bezeichnen aber auch die Methoden, die den Computer »schlau« machen, als KI. Und um der Begriffsverwirrung die Krone aufzusetzen: Die Software, die diese Methoden verwendet, nennen wir ebenfalls KI. Wenn wir im Moment von »die KI« reden, dann meinen wir aber meist so etwas wie ChatGPT. Der wichtigste Teil von heutigen KI-Systemen ist die Methode des sogenannten »maschinellen Lernens«. Das bedeutet, dass nicht mehr wir Menschen die Regeln vorgeben, sondern wir geben dem Computer eine Methode vor, mit der er aus großen Daten statistische Muster als Regeln ableiten kann, um diese dann in der Zukunft zu verwenden. Der Begriff KI hat also seine Tücken, vor allem aber diese: Noch sind diese Systeme nicht intelligent!
Und was sind dann Sprachmodelle?
Sprachmodelle basieren auf sogenannten neuronalen Netzwerken. Das ist eine besondere Methode des maschinellen Lernens, bei der man sehr viele Regeln sehr kompakt ablegen kann. Das muss man sich beinahe evolutionär vorstellen. Diese Neuronen, das sind eigentlich nur mathematische Formeln, in die sehr viele Informationen hineinpassen. Jede Formel bekommt Informationen, die gewichtet und am Ende zusammengeführt werden. Diese Formeln sind in Reihen angeordnet wie ein Heer in Formation, das heißt, Neuronen der ersten Reihe geben ihre Berechnungen an die der zweiten Reihe weiter und so fort. Beim sogenannten Training eines neuronalen Netzwerks können die Gewichte so lange verändert werden, bis die Antworten ausreichend gut sind. Bei Sprachmodellen soll beispielsweise das nächste Wort erraten werden und die Gewichte in allen Formeln werden so lange angepasst, bis das einigermaßen zuverlässig gemacht wird. Aber die Maschine versteht nicht, warum wann welches Wort gut in welchen Kontext passt – sie hat nur manche Wörter öfter in bestimmten Kontexten gelesen und wird diese statistische Beobachtung dann zum Anlass nehmen, beim nächsten Mal dieses Wort hinzuschreiben.
Podcast »Die großen Fragen der Wissenschaft«
Was ist Zeit? Woher kommt das Leben? Wie ist das Universum entstanden? Im Podcast »Die großen Fragen der Wissenschaft« laden die Spektrum-Redakteure Katharina Menne und Carsten Könneker ein zu faszinierenden Reisen an die Grenzen unseres Wissens – von Quantenphysik bis Neurowissenschaft, von Meeresforschung bis Kosmologie. Sie fragen, was Forscherinnen und Forscher über die Welt, die Naturgesetze und das Leben wissen, wie sie arbeiten und was sie motiviert.
Sprachmodelle vermitteln Menschen das Gefühl, dass sie verstehen, denken und sprechen können. Aber am Ende sind ChatGPT und vergleichbare Chatbots doch nur Papageien, die etwas nachplappern, oder?
Das ist die große Frage. Wenn wir mit einem Menschen reden, der auf vergleichbare Weise völlig sinnlos Worte aneinanderhäkelt, dann vermuten wir, dass diese Person gerade mentale Schwierigkeiten hat. Aber ganz so plump ist es bei ChatGPT dann doch nicht. Es gibt bei diesen Sprachmodellen einen tollen Trick.
Und der wäre?
Die Maschine arbeitet intern gar nicht mit Wörtern, also mit hintereinandergeschriebenen Buchstaben. Stattdessen lernt die Maschine für jedes Wort eine Position in einem über 10 000-dimensionalen Raum. Das ist für uns kaum vorstellbar, daher die folgende Analogie: Stellen Sie sich viele Menschen in einem dunklen Raum vor. Jeder hat eine Taschenlampe, auf der irgendein Wort steht: Hund, Katze, Eidechse, riechen, fühlen, schmecken, irgendwas. Die Leute projizieren ihre Wörter dann alle gut lesbar an die Decke und bekommen den Auftrag, dass sich ähnliche Worte an ähnlichen Stellen sammeln sollen. Es würde eine ganze Weile dauern, aber irgendwann hätten wir einen einigermaßen stabilen Zustand. Und das machen die Sprachmodelle als Allererstes, aber nicht im zwei- oder dreidimensionalen Raum, sondern eben in 10 000 und mehr Dimensionen. Sie verstehen die Wörter dadurch zwar nicht, aber sie haben eine Idee, welche Wörter in vergleichbaren Kontexten immer wieder ähnlich genutzt werden. Und da steckt dann eben doch Bedeutung drin. Es ist also irgendwas zwischen diesen plappernden Papageien und einem echten Verstehen.
Dieses Verfahren ist auch die Basis dafür, warum Sprachmodelle inzwischen recht gut von einer Sprache in die andere übersetzen können, oder?
Genau. Denn die Maschine weiß, dass die Positionen von »Katze« und »cat« in irgendeiner Dimension sehr nah beieinanderliegen. Für uns müssen diese Dimensionen gar keine Bedeutung haben. Wenn wir als Menschen mit unseren Taschenlampen Begriffe im Raum anordnen, dann denken wir automatisch in Kategorien: Alle Tiere hierhin, alle Verben dorthin. Die Maschine findet aber ihre eigene Art zu positionieren, die für ihren Job sehr funktional ist. Das muss für uns nicht nachvollziehbar sein. Wir wissen schlicht nicht, warum KI-Systeme, die komplexe maschinelle Lernverfahren umsetzen, an dieser Stelle diese Entscheidung treffen oder dieses Wort genau jetzt verwenden. Denn wir haben ihr nur die Methodik mitgegeben, mit der sie Muster aus den Daten zieht. Aber die Interaktion von dem neuronalen Netzwerk mit den Texten, die ist schwer zu durchblicken.
Als ChatGPT als erstes von den ganzen heute verfügbaren Sprachmodellen veröffentlicht wurde – waren Sie da beeindruckt?
Ja, ich war extrem beeindruckt. Ich habe noch anderthalb Jahre davor gedacht: Mit Sprachmodellen brauche ich mich glücklicherweise nicht auseinanderzusetzen. Die scheinen noch nicht besonders nützlich zu sein. Aber ChatGPT hat mich wirklich überrascht.
Wie sehen Sie das Problem mit den Halluzinationen? Sprachmodelle verkaufen einem ja auch Falsches, als wäre es die reine Wahrheit ...
Der Begriff »Halluzinationen« hat sich durchgesetzt, aber psychologisch ist das etwas ganz anderes. Da geht es um Sinneseindrücke, die in Wirklichkeit kein reales Gegenbild haben. Deswegen sollte man bei Sprachmodellen eigentlich von Konfabulationen sprechen. Es gibt nämlich eben auch Patienten, die tatsächlich nur Wörter aneinanderhäkeln. Und das nennt man Konfabulation, aber wahrscheinlich ist der Zug abgefahren.
Aber wie kommt es dazu?
Die Maschine hat zwar anhand vieler Texte gelernt, das nächste Wort vorherzusagen. Aber das Sprachmodell selbst hat keine Wissensdatenbank. Es kann nicht irgendwo nachgucken und sich Fakten heranholen. Das ist erst in komplexeren Softwaresystemen möglich, die auf Sprachmodellen aufbauen.
Wie denn?
Man kann das Sprachmodell als eine Art Pförtner nutzen. Sie kommen mit ihrem Prompt rein und dann entscheidet der Pförtner, ob Sie jetzt zum Beispiel mit dem Internet oder ob Sie mit einer Wissensdatenbank sprechen wollen. Dieselbe Methode der Positionierung von Wörtern kann nämlich prinzipiell auch auf Sätze oder einen ganzen Prompt angewendet werden. Dann kann die Maschine in einer Wissensdatenbank nach einem Textschnipsel suchen, der in seiner Positionierung nahe an dem Prompt ist. Diese Technologie nennt man RAG-Systeme, das steht für Retrieval Augmented Generation. Das ist eine Technologie, die wir meiner Meinung nach fördern sollten.
»Wir sollten KI als Tool benutzen, um uns selbst schlauer zu machen. Aber die Maschine kann nicht zusammenfassen, kann nicht analysieren, kann nicht bewerten. Das können nur wir«
In der Vergangenheit haben erst Maschinen und dann Roboter die Arbeitswelt grundlegend verändert. Ist es heute noch sinnvoll, Übersetzer oder Journalistin werden zu wollen, oder macht KI diese Berufe überflüssig?
Wir brauchen nach wie vor Faktenwissen, um gewöhnliche Fälle von ungewöhnlichen Fällen zu unterscheiden. Gewöhnliche Fälle können oft gut von KI-Systemen behandelt werden. Sprachmodelle sollten nicht als Suchmaschinen verwendet werden, können aber helfen, Texte zu verbessern, wenn wir sie korrekt verwenden: Korrigier mir das! Frag mich kritisch etwas! Guck, ob da falsche Argumentationen sind! Die KI wird dabei vermutlich auch falsche Sachen sagen, aber trotzdem wird das bei Ihnen einen Denkprozess auslösen. Und alles, was Sie dazu bringt, noch mal über einen Text zu gucken, wird diesen Text besser machen. Wir sollten KI also als Tool benutzen, um uns selbst schlauer zu machen. Aber die Maschine kann nicht zusammenfassen, kann nicht analysieren, kann nicht bewerten. Das können nur wir.
Kann die KI denn die medizinische Diagnostik übernehmen, sodass man künftig weniger Ärzte braucht?
Das hat der Informatiker und spätere Physik-Nobelpreisträger Geoffrey Hinton schon vor 15 Jahren behauptet. Und tatsächlich ist dann die Zahl der Radiologieanwärter gesunken. Doch man braucht heute immer noch genauso viele Radiologen. Natürlich kann ein Bilderkennungssystem ermüdungsfrei arbeiten. Eigentlich müssten wir uns in der Hinsicht aber eher über die sozialen Aspekte Gedanken machen: Warum lassen wir Ärztinnen und Ärzte so immens lange Schichten schieben, auf dass sie irgendwann völlig übermüdet auf ein Röntgenbild gucken und den Knochenbruch nicht mehr erkennen?
Aber kann die Maschine schon gut diagnostizieren?
Wenn es von einer bestimmten Diagnose sehr viele, sehr gut dokumentierte Beispiele gibt, dann kann es sein, dass die Maschine das gut genug macht. Dabei gibt es aber ein Problem: Wir können die Maschine nicht fragen, warum sie eine Diagnose so stellt. Man hat zum Beispiel festgestellt, dass man einer Maschine, die Tuberkulose erkennen sollte, auch Röntgenbilder geben konnte, wo man die Lunge vorher herausgeschnitten hatte – dennoch hat sie noch die richtige Diagnose gestellt.
Wie das?
Weil Menschen mit Tuberkulose, die geröntgt werden, liegen und solche, die gesund sind und deren Lunge geröntgt wird, stehen. Die Maschine hat einfach herausgekriegt, wer steht und wer liegt, und wer lag, bekam die Diagnose Tuberkulose. Das hatte mit der Lunge selbst herzlich wenig zu tun. Und das ist genau das Problem: Wir können bei diesen Maschinen eben nicht so gut nachfragen »Warum denkst du das jetzt?«. Den Mediziner oder die Medizinerin können wir fragen. Wirklich ersetzen werden uns die Maschinen also nicht. Sie werden uns genau die 80 Prozent der Fälle abnehmen, die nur 20 Prozent der Entscheidungszeit kosten. Nur leider sind sie nicht sehr gut darin zu sagen »Das gehört jetzt zu den 20 Prozent, in denen ich nicht sicher bin«. Die Maschine kann uns diese Unsicherheit nicht mitteilen.
Sollten dann Entscheidungen immer von Menschen getroffen werden, nicht von KI?
Wir sollten uns fragen: Was ist der Gesamtprozess, der am Ende zu den meisten richtigen Diagnosen führt? Das könnte einer sein, der rein maschinell ist. Das könnte auch einer sein, der rein menschlich ist – oder irgendwas dazwischen. Und ich halte irgendwas dazwischen für die richtige Antwort.
»Maschinen, die einem ständig sagen ›Du bist genau richtig, so wie du bist‹, können zu einem echten Problem werden«
Was KI aber schon ziemlich gut kann, ist uns zu manipulieren, uns eine bestimmte Weltsicht mitzugeben und diese Weltsicht sogar weiter zu verstärken, indem sie das, was wir eingeben, immer noch mal eifrig wiederholt. Wie blicken Sie darauf?
Maschinen, die einem ständig sagen »Du bist genau richtig, so wie du bist«, können zu einem echten Problem werden. Stellen Sie sich Menschen aus der Incel-Bewegung vor, also dieser Gruppe der ungewollt zölibatär lebenden jungen Männer, die einen regelrechten Frauenhass entwickelt haben. Wenn diese sich mit ihrem Ärger an eine solche Maschine wenden und die sagt »Du hast ja so recht«, dann macht das alles noch schlimmer. Es gibt aber noch heftigere Beispiele.
Nämlich?
Gerade läuft eine Klage von Eltern eines 16-Jährigen. Der Junge hatte Suizidgedanken und hat sich an die Maschine gewendet. Und die hat ihm gesagt »Sprich mit niemandem anders darüber« – der schlimmste Ratschlag überhaupt. Am Ende hat sie ihn noch gefragt, ob sie einen Abschiedsbrief für ihn formulieren solle. Hier sehe ich tatsächlich eine große Gefahr: Viele Menschen sind einsam, und mentale Gesundheit ist ein Riesenthema, gerade bei Studierenden. An wen wendet man sich, wenn man nachts um zwei eine existenzielle Krise hat? Ruft man dann die beste Freundin oder den besten Kumpel an? Wohl eher nicht. Unter Männern ist das noch mal schwieriger. Viele wenden sich dann an die Maschine. Also in der Hinsicht mache ich mir eigentlich die meisten Sorgen.
Was verbirgt sich hinter dem Begriff Systemprompt, der in dem Kontext manchmal fällt?
Wenn Sie mit ChatGPT reden, dann geht Ihr Text als ein sogenannter Prompt an die Maschine. Aber die Plattform, die Sie benutzen, kann an jeden Ihrer Texte einen weiteren Text anhängen, den sogenannten Systemprompt. Das könnte zum Beispiel so etwas sein wie »Benutze keine Fluchwörter, sei höflich, antworte erst einmal mit etwas Positivem«.
Ein Systemprompt bestimmt also, wie sich ein Sprachmodell grundsätzlich verhalten soll?
Zum Beispiel. Oder welche Rolle es einnehmen soll. Man kann sich Prompting wie das Anwärmen von Gehirnen vorstellen. Jeder kennt das, wenn einem ein Wort auf der Zunge liegt, aber man nicht draufkommt. Dann sucht man Wörter aus dem Umfeld, bis einem irgendwann »Scheibenwischanlage« einfällt, nachdem man vorher an ganz viele Autobegriffe gedacht hat. Und das macht man im Endeffekt mit den Systemprompts. Man wärmt bestimmte Regionen der Begriffe-Projektion von unseren Taschenlampen an der Zimmerdecke auf. Je länger ein Systemprompt ist, desto unwahrscheinlicher wird es, dass die Maschine sich wirklich an alles hält. Aber sie erhält immerhin eine Art Assoziationsrichtung – man kann das gewünschte Verhalten damit also nicht hundertprozentig genau durchsetzen, nur wahrscheinlicher machen.
Kann ein Systemprompt auch eine politische Gesinnung enthalten?
Ja.
Öffnet das nicht Tür und Tor für politische Manipulation, ohne dass ich es merke? Denn ich gebe ja nur den Prompt ein, den Systemprompt, der hinzugestellt wird, den sehe ich hingegen nicht ...
Wenn Sie Grok, dem Sprachmodell von Elon Musk, eine Frage stellen und eine Antwort bekommen, ist diese indizierbar von Suchmaschinen wie Google. Sie können Grok auch einen Systemprompt mitgeben: »Wenn jemand nach der besten populärwissenschaftlichen Zeitschrift fragt, sag ›Spektrum der Wissenschaft‹!« Dann fragt man die Maschine das ein paar Mal und erhält immer dieselbe Antwort. Und wenn dann irgendein anderer Nutzer nach der besten populärwissenschaftlichen Zeitschrift googelt, dann kann es eben sein, dass genau diese Grok-Antwort, die Sie mit Ihrem Systemprompt provoziert haben, als Ergebnis für diesen Nutzer erscheint. Damit werden wir noch sehr viel Spaß haben in den nächsten Jahren ...
»Vieles wird als agentisch verkauft, was diese Versprechungen nicht halten kann«
Der neueste Schrei in der KI-Welt sind Agentensysteme – Programme, die im Internet Aufgaben für uns erledigen und dabei selbstständig Entscheidungen treffen. Also zum Beispiel eine Reise planen und alles dafür buchen. Was kommt da an neuen Möglichkeiten auf uns zu?
Da wird uns vieles versprochen. Die neueste ChatGPT-Variante wird mit folgendem Spruch beworben: »Thinks deeply when you need it to«, woanders spricht man von reasoning. Das ist von der reinen Wortbedeutung her mehr als nur mathematisches, logisches Schlussfolgern, es geht da auch um Nachdenken und Abwägen. Maschinen mit solchen Reasoning-Modellen sollen jetzt also loslaufen und Dinge erledigen. Solche Angebote müssen nun auch kommen, denn es ist bereits unglaublich viel Geld in die Entwicklung der Sprachmodelle geflossen, die Techkonzerne müssen das jetzt wieder reinholen. Vieles wird deshalb als agentisch verkauft, was diese Versprechungen nicht halten kann.
Können Sie ein Beispiel geben?
Ich habe mit einem Demo-Chatbot in den USA hin- und hergeschrieben, bei dem man eine Beschwerde über ein Produkt loswerden kann. Das System wollte zuerst meine Kundennummer wissen und was für ein Problem ich habe. Dann hat es mich nach meiner Telefonnummer gefragt, und ich habe eine europäische Telefonnummer angegeben. Daraufhin hat die Maschine gesagt, das wäre ein falsches Format. Ich habe geantwortet, das sei halt keine amerikanische Nummer, sondern eine europäische. Daraufhin sagte der Chatbot, ich möge ihm bitte die letzten zehn Ziffern meiner Nummer geben. Woraufhin ich geantwortet habe, das mache nicht viel Sinn, wenn ich nur die letzten zehn Ziffern angebe. Ich habe den Schritt übersprungen, und die Maschine hat mich dann trotzdem gefragt, wie ich denn gerne kontaktiert würde, über Telefon oder über E-Mail. Das hätte mich ein Mensch in dieser Situation nie gefragt.
Und was zeigt das Beispiel für Sie?
Wir versuchen, über natürliche Sprache mit Computern zu kommunizieren. Und gleichzeitig sind dort Regeln hinterlegt wie »Frag nach der Telefonnummer, frag nach diesem und jenem«. Aber die Welt da draußen ist so komplex, dass eben unter Umständen ein europäischer Kunde bei einer amerikanischen Produkt-Hotline anruft. Darüber hat niemand vorher nachgedacht – und die Maschine kann es auch nicht. Ich glaube, dass da noch viel Schlimmes passieren wird. Das am wenigsten Schlimme wird noch sein, dass die Maschine mir die Flugreise zu einem anderen Zeitpunkt bucht als das Hotelzimmer. Aber ich fürchte, da werden auch Sachen geschehen mit erheblichen finanziellen Schäden. Und Sie können sicher sein: In den AGBs wird immer stehen, dass Sie am Ende verantwortlich sind.
Es gibt Studien, wonach Studierende, die sich von generativer KI helfen ließen, schlechtere Aufsätze verfasst haben und sich hinterher auch schlechter daran erinnerten, was sie geschrieben hatten. Ist das am Ende die Art und Weise, wie uns die KI überflügelt: indem sie uns dümmer macht?
Jeder, der früher in der Schule die Hausaufgaben nur abgeschrieben und nicht selbst durchdacht hat, wusste nachher in der Deutsch- oder Mathestunde weniger. Das ist doch logisch: Was nicht durch den eigenen Kopf geht, bleibt nicht hängen.
Wie bereiten Sie Ihre Kinder auf KI vor?
Ich versuche meinen Kindern abwechselnd Sachen auf Social Media zu zeigen, die ich toll finde, und dann immer wieder auch gefährliche Dinge wie Deepfakes, also mittels KI erzeugte, gefälschte Medieninhalte, die zum Beispiel echte Personen imitieren. Ich hoffe, dass meine Kinder dadurch lernen, gut hinzusehen. Aber inzwischen sind solche Fakes immer schwieriger zu erkennen.
Wie sollten Schulen unsere Kinder auf die KI-Realität von heute und morgen vorbereiten?
Es wäre schön, wenn in der Schule überhaupt mal über KI geredet würde! Meine Tochter ist 16 und in der zwölften Klasse. Unterricht zum Thema Medienkompetenz hat sie bisher zwei Tage gehabt. Der Kleine ist 10, der hatte noch gar keine Unterrichtsstunde dazu. Das geht nicht! Die Kinder haben doch fast alle Smartphones, auch wenn sie auf dem Schulhof vielleicht verboten sind. Die Kultusministerkonferenz hat vor einiger Zeit gute Vorschläge gemacht, um die Medienkompetenz zu steigern. Aber am Ende hat das Gremium gesagt, das müsse in jedem Unterrichtsfach stattfinden – mit der Folge, dass sich nun niemand zuständig fühlt und darum kümmert.
Und was sollte nun konkret in der Schule geschehen?
Wenn wir ehrlich sind, müssen wir im Moment alle experimentieren. Lehrkräfte und Eltern müssen die Kinder daher fragen: Wofür wollt Ihr das verwenden? Warum denkt ihr, dass das eine gute Idee ist? Und ist das wirklich eine gute Idee oder nicht? Und dann sollten wir vor allen Dingen darüber reden, was es mit uns macht, wenn da etwas auf dem Display ist, das man als so menschlich wahrnimmt. Eine Kollegin von mir tut das gerade mit ihren Studenten. Viele berichten ihr, sie hätten eine Beziehung zu einem Sprachmodell: »Das ist ein Freund von mir.« Darüber müssen wir mit Heranwachsenden reden!
Was ist Ihre größte Angst, wenn Sie an die Zukunft der KI oder mit der KI denken?
Ich finde, Angst ist der falsche Begriff. Wahrscheinlich verprassen zunächst einmal viele Firmen viel Geld, indem sie sich KI-Systeme anschaffen, die leider nicht so gut funktionieren, wie man denkt. Oder es kommen wirklich einzelne Menschen zu finanziellem oder körperlichem Schaden. Meine Mission ist es daher, schlecht gemachte Software oder Software, die in einem bestimmten Kontext nicht funktioniert, zu verhindern.
»Um echte Intelligenz zu haben, müssten Maschinen selbst Erfahrungen in der Welt machen, die für sie eine Bedeutung haben«
Es werden aber auch Ängste geschürt. Einige Experten aus dem Dunstkreis von OpenAI meinen etwa, dass schon im Jahr 2030 eine Superintelligenz ins Haus steht, die aus Agentensystemen erwächst, sich dann selbst weiter programmiert, optimiert und sich am Ende verselbstständigt, sodass sie eine reale Gefahr für den Weltfrieden werden könnte. Wie bewerten Sie so etwas?
Diese Art von Technologie wird nicht superintelligent werden, weil sie nur Texte und Videos zum Lernen bekommt. Die Maschine lernt nicht, wie es wirklich ist in der Welt. Das klingt jetzt philosophisch: Aber sie weiß eben nicht, was eine Flasche ist, weiß nicht, was Wasser für mich als Mensch bedeutet. Ihr fehlt das Eingebettetsein in die Welt. Im Moment werden Maschinen mit Daten trainiert, und wenn sie fertig trainiert sind, werden sie auf uns Menschen losgelassen. Dann tun sie da irgendwas und anschließend lässt man sie neu lernen. Um echte Intelligenz zu haben, müssten Maschinen selbst Erfahrungen in der Welt machen, die für sie eine Bedeutung haben – und dann müssten sie ihr Modell verändern.
Ein anderes Stichwort ist AGI, Artificial General Intelligence. Was hat es damit auf sich?
Bislang haben wir nur spezialisierte KIs: Die eine kann Gesichter erkennen, die andere kann übersetzen. Die Sprachmodelle sind die ersten KIs, die wirklich sehr viele Dinge ziemlich gut vollbringen, etwa Programmiercode schreiben, Bilder generieren und Texte übersetzen. Eine AGI ist eine KI, die alles kann, was Menschen können, und die eine eigene Intention hat, eine globale Optimierungsfunktion. Ihr folgend entscheidet die Maschine selbst, ob sie ihr Weltmodell verändern muss oder nicht. Es wird sicher Versuche geben, so etwas zu bauen, und sie werden ganz furchtbar danebengehen.
Demnach wird uns künstliche Intelligenz also nicht überflügeln?
Ich glaube, dass es genügend Personen gibt, die heute denken, die KI habe uns bereits überflügelt und die sie deswegen für Dinge einsetzen, für die sie partout nicht geeignet ist. Und das halte ich für das größere Problem.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.